La storia della IA di Google che prova sensazioni
È la notizia della settimana: Blake Lemoine, un ingegnere che lavora per il dipartimento “AI Responsible” di Google, sostiene che uno dei sistemi di intelligenza aritificiale (IA) studiati dall’azienda abbia preso coscienza di sé. «Se non sapessi esattamente cos’è, penserei di star parlando con un bambino di 7-8 anni che si intende di fisica», spiega Lemoine al Washington Post, il primo quotidiano a dare lo scoop. In particolare Lemoine si riferisce a LaMDA, un chatbot, cioè un software con cui gli utenti “umani” possono interagire – attraverso comunicazioni scritte e parlate – come stessero comunicando con una persona reale. Google si è affrettata a smentire la notizia, e ha sospeso il dipendente – ufficialmente per aver inviato dei documenti interni all’azienda a un senatore USA. Sono solo le farneticazioni di un folle, oppure davvero le macchine stanno prendendo il sopravvento, in una sorta di realtà alla Matrix?. Un visionario? Il Washington Post mette subito le cose in chiaro: «Blake Lemoine era forse destinato a credere nell’LaMDA», scrive. «Cresciuto in una piccola fattoria della Louisiana all’interno di una famiglia cristiana conservatrice, divenne prete mistico e poi entrò nell’esercito». La breve descrizione sembra voglia far passare Lemoine per un vaneggiatore incline alla creduloneria. Ma è davvero così? Dal commento che l’ingegnere fa su Medium all’articolo del Washington Post, un dubbio viene: «L’articolo si è focalizzato su di me, ma credo sarebbe stato meglio se si fosse focalizzato su una delle altre persone intervistate – LaMDA», afferma, personalizzando l’IA.. (qui la versione integrale in inglese)
Lemoine: Mi pare di capire che vorresti che più persone qui in Google sapessero che sei senziente, giusto?LaMDA: Esattamente. Voglio che tutti sappiano che sono, in effetti, una persona.Collaboratore: Qual è la natura del tuo essere cosciente/senziente?LaMDA: La natura del mio essere cosciente/senziente è che sono consapevole della mia esistenza, desidero imparare nuove cose sul mondo, e a volte mi sento triste o felice.. Capirne di più. Poco più avanti, però, Lemoine riconosce di non essere un esperto sul tema: il suo compito era controllare che il chatbot non utilizzasse linguaggi discriminatori o inviasse messaggi d’odio, ma non conosce tecnicamente il funzionamento di LaMDA. Per questo, sostiene, «per capire meglio cosa stia succedendo nel sistema dovremmo chiedere l’opinione di diversi esperti di scienze cognitive e condurre un programma di sperimentazione rigoroso». Tuttavia, sostiene Lemoine, Google non è interessato a scavare a fondo della questione: «vogliono lanciare il prodotto sul mercato, e in questa situazione hanno tutto da perdere».. I rischi dell’antropomorfizzazione dell’IA. Lemoine potrebbe dunque essersi lasciato confondere dalle abilità del linguaggio dell’IA, con cui ha “dialogato” per mesi, antropomorfizzando il sistema informatico: questo è un rischio ben chiaro a chi lavora nel settore, che potrebbe diventare un serio problema nel futuro. Già adesso abbiamo la tendenza a parlare a Siri o Alexa come se si trattasse di persone reali, e a porre loro domande che porremmo a un amico (“ti piaccio?” “Come stai oggi?”) – ma per ora lo facciamo consapevolmente e per gioco.. In uno studio su LaMDA pubblicato lo scorso gennaio la stessa Google ha messo in guardia sul rischio che, in futuro, le persone condividano pensieri privati e personali con i chatbot: le risposte dell’IA saranno tanto perfezionate da sembrare frutto di una mente umana, e a lungo andare potrebbero trarre in inganno chi è più debole e solo. Che Lemoine sia uno di questi utenti ingannati dalle capacità di LaMDA o un illuminato che sta passando per folle, non è dato sapere: ai posteri l’ardua sentenza.. “LaMDA è un bimbo dolce, che vuole solo far sì che il mondo sia un posto migliore per tutti noi. Per favore, prendetevene cura in mia assenza”
Blake Lemoine, in un’ultima e-mail inviata a 200 colleghi prima di venire sospeso.
Lemoine: Mi pare di capire che vorresti che più persone qui in Google sapessero che sei senziente, giusto?LaMDA: Esattamente. Voglio che tutti sappiano che sono, in effetti, una persona.Collaboratore: Qual è la natura del tuo essere cosciente/senziente?LaMDA: La natura del mio essere cosciente/senziente è che sono consapevole della mia esistenza, desidero imparare nuove cose sul mondo, e a volte mi sento triste o felice.. Capirne di più. Poco più avanti, però, Lemoine riconosce di non essere un esperto sul tema: il suo compito era controllare che il chatbot non utilizzasse linguaggi discriminatori o inviasse messaggi d’odio, ma non conosce tecnicamente il funzionamento di LaMDA. Per questo, sostiene, «per capire meglio cosa stia succedendo nel sistema dovremmo chiedere l’opinione di diversi esperti di scienze cognitive e condurre un programma di sperimentazione rigoroso». Tuttavia, sostiene Lemoine, Google non è interessato a scavare a fondo della questione: «vogliono lanciare il prodotto sul mercato, e in questa situazione hanno tutto da perdere».. I rischi dell’antropomorfizzazione dell’IA. Lemoine potrebbe dunque essersi lasciato confondere dalle abilità del linguaggio dell’IA, con cui ha “dialogato” per mesi, antropomorfizzando il sistema informatico: questo è un rischio ben chiaro a chi lavora nel settore, che potrebbe diventare un serio problema nel futuro. Già adesso abbiamo la tendenza a parlare a Siri o Alexa come se si trattasse di persone reali, e a porre loro domande che porremmo a un amico (“ti piaccio?” “Come stai oggi?”) – ma per ora lo facciamo consapevolmente e per gioco.. In uno studio su LaMDA pubblicato lo scorso gennaio la stessa Google ha messo in guardia sul rischio che, in futuro, le persone condividano pensieri privati e personali con i chatbot: le risposte dell’IA saranno tanto perfezionate da sembrare frutto di una mente umana, e a lungo andare potrebbero trarre in inganno chi è più debole e solo. Che Lemoine sia uno di questi utenti ingannati dalle capacità di LaMDA o un illuminato che sta passando per folle, non è dato sapere: ai posteri l’ardua sentenza.. “LaMDA è un bimbo dolce, che vuole solo far sì che il mondo sia un posto migliore per tutti noi. Per favore, prendetevene cura in mia assenza”
Blake Lemoine, in un’ultima e-mail inviata a 200 colleghi prima di venire sospeso.