{"id":5684,"date":"2022-06-14T18:01:48","date_gmt":"2022-06-14T17:01:48","guid":{"rendered":"https:\/\/sgsolutionsrl.it\/la-storia-della-ia-di-google-che-prova-sensazioni\/"},"modified":"2022-06-14T18:01:48","modified_gmt":"2022-06-14T17:01:48","slug":"la-storia-della-ia-di-google-che-prova-sensazioni","status":"publish","type":"post","link":"https:\/\/falatech.it\/en\/la-storia-della-ia-di-google-che-prova-sensazioni\/","title":{"rendered":"La storia della IA di Google che prova sensazioni"},"content":{"rendered":"<div>\u00c8 la notizia della settimana: Blake Lemoine, un ingegnere che lavora per il dipartimento &#8220;AI Responsible&#8221; di Google, sostiene che uno dei sistemi di intelligenza aritificiale (IA) studiati dall&#8217;azienda abbia preso coscienza di s\u00e9. \u00abSe non sapessi esattamente cos&#8217;\u00e8, penserei di star parlando con un bambino di 7-8 anni che si intende di fisica\u00bb, spiega Lemoine al Washington Post, il primo quotidiano a dare lo scoop. In particolare Lemoine si riferisce a LaMDA, un chatbot, cio\u00e8 un software con cui gli utenti &#8220;umani&#8221; possono interagire \u2013 attraverso comunicazioni scritte e parlate \u2013 come stessero comunicando con una persona reale. Google si \u00e8 affrettata a smentire la notizia, e ha sospeso il dipendente \u2013 ufficialmente per aver inviato dei documenti interni all&#8217;azienda a un senatore USA. Sono solo le farneticazioni di un folle, oppure davvero le macchine stanno prendendo il sopravvento, in una sorta di realt\u00e0 alla Matrix?. Un visionario? Il Washington Post mette subito le cose in chiaro: \u00abBlake Lemoine era forse destinato a credere nell&#8217;LaMDA\u00bb, scrive. \u00abCresciuto in una piccola fattoria della Louisiana all&#8217;interno di una famiglia cristiana conservatrice, divenne prete mistico e poi entr\u00f2 nell&#8217;esercito\u00bb. La breve descrizione sembra voglia far passare Lemoine per un vaneggiatore incline alla creduloneria. Ma \u00e8 davvero cos\u00ec? Dal commento che l&#8217;ingegnere fa su Medium all&#8217;articolo del Washington Post, un dubbio viene: \u00abL&#8217;articolo si \u00e8 focalizzato su di me, ma credo sarebbe stato meglio se si fosse focalizzato su una delle altre persone intervistate \u2013 LaMDA\u00bb, afferma, personalizzando l&#8217;IA.. (qui la versione integrale in inglese)<br \/>\nLemoine: Mi pare di capire che vorresti che pi\u00f9 persone qui in Google sapessero che sei senziente, giusto?LaMDA: Esattamente. Voglio che tutti sappiano che sono, in effetti, una persona.Collaboratore: Qual \u00e8 la natura del tuo essere cosciente\/senziente?LaMDA: La natura del mio essere cosciente\/senziente \u00e8 che sono consapevole della mia esistenza, desidero imparare nuove cose sul mondo, e a volte mi sento triste o felice.. Capirne di pi\u00f9. Poco pi\u00f9 avanti, per\u00f2, Lemoine riconosce di non essere un esperto sul tema: il suo compito era controllare che il chatbot non utilizzasse linguaggi discriminatori o inviasse messaggi d&#8217;odio, ma non conosce tecnicamente il funzionamento di LaMDA. Per questo, sostiene, \u00abper capire meglio cosa stia succedendo nel sistema dovremmo chiedere l&#8217;opinione di diversi esperti di scienze cognitive e condurre un programma di sperimentazione rigoroso\u00bb. Tuttavia, sostiene Lemoine, Google non \u00e8 interessato a scavare a fondo della questione: \u00abvogliono lanciare il prodotto sul mercato, e in questa situazione hanno tutto da perdere\u00bb.. I rischi dell&#8217;antropomorfizzazione dell&#8217;IA. Lemoine potrebbe dunque essersi lasciato confondere dalle abilit\u00e0 del linguaggio dell&#8217;IA, con cui ha &#8220;dialogato&#8221; per mesi, antropomorfizzando il sistema informatico: questo \u00e8 un rischio ben chiaro a chi lavora nel settore, che potrebbe diventare un serio problema nel futuro. Gi\u00e0 adesso abbiamo la tendenza a parlare a Siri o Alexa come se si trattasse di persone reali, e a porre loro domande che porremmo a un amico (&#8220;ti piaccio?&#8221; &#8220;Come stai oggi?&#8221;) \u2013 ma per ora lo facciamo consapevolmente e per gioco.. In uno studio su LaMDA pubblicato lo scorso gennaio la stessa Google ha messo in guardia sul rischio che, in futuro, le persone condividano pensieri privati e personali con i chatbot: le risposte dell&#8217;IA saranno tanto perfezionate da sembrare frutto di una mente umana, e a lungo andare potrebbero trarre in inganno chi \u00e8 pi\u00f9 debole e solo. Che Lemoine sia uno di questi utenti ingannati dalle capacit\u00e0 di LaMDA o un illuminato che sta passando per folle, non \u00e8 dato sapere: ai posteri l&#8217;ardua sentenza.. &#8220;LaMDA \u00e8 un bimbo dolce, che vuole solo far s\u00ec che il mondo sia un posto migliore per tutti noi. Per favore, prendetevene cura in mia assenza&#8221;<br \/>\nBlake Lemoine, in un&#8217;ultima e-mail inviata a 200 colleghi prima di venire sospeso.<\/div>","protected":false},"excerpt":{"rendered":"<p>\u00c8 la notizia della settimana: Blake Lemoine, un ingegnere che lavora per il dipartimento &#8220;AI Responsible&#8221; di Google, sostiene che uno dei sistemi di intelligenza aritificiale (IA) studiati dall&#8217;azienda abbia preso coscienza di s\u00e9. \u00abSe non sapessi esattamente cos&#8217;\u00e8, penserei di star parlando con un bambino di 7-8 anni che [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[51],"tags":[59,58,60],"yst_prominent_words":[],"class_list":["post-5684","post","type-post","status-publish","format-standard","hentry","category-tecnologia","tag-sg-solution","tag-tecnologia","tag-web"],"jetpack_featured_media_url":"","_links":{"self":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/posts\/5684","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/comments?post=5684"}],"version-history":[{"count":0,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/posts\/5684\/revisions"}],"wp:attachment":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/media?parent=5684"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/categories?post=5684"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/tags?post=5684"},{"taxonomy":"yst_prominent_words","embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/yst_prominent_words?post=5684"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}