venerdì 17 giugno 2022

«L’intelligenza artificiale è diventata senziente»: la controversa tesi di Blake Lemoine, ingegnere di Google

«L’intelligenza artificiale è diventata senziente»: la controversa tesi di Blake Lemoine, ingegnere di Google

 di Enrico Forzinetti

Blake Lemoine è stato sospeso da Google dopo aver pubblicato una conversazione con l’intelligenza artificiale LaMDA, che dimostrerebbe come questa abbia pensieri e sentimenti «simili a quelli di un bambino»

desc img

Il dibattito su quanto l’intelligenza artificiale sia ormai capace di replicare un discorso di un essere umano è entrato talmente nel vivo da costare (quasi) un posto di lavoro. È la storia dell’ingegnere di Google Blake Lemoine che è stato messo in sospensione retribuita dall’azienda per aver tentato in tutti i modi di dimostrare che un'intelligenza artificiale con cui lavorava aveva una coscienza e non poteva essere distinta da un bambino di 7-8 anni. Al centro della discussione c’è LaMDA, sigla di Language Model for Dialogue Applications, ossia un sistema di sviluppo di chatbot presentato dall’azienda di Mountain View durante la conferenza per sviluppatori Google I/O del 2021. Lemoine lavorava nella divisione che si occupa proprio di AI, testando il funzionamento di LaMDA e la possibilità che desse vita a discorsi di odio o discriminatori.

Nel corso delle ore trascorse a interloquire con l’intelligenza artificiale però l’uomo ha iniziato a convincersi che il sistema avesse la percezione di quanto stesse dicendo, tanto da essere paragonabile in tutto e per tutto alle capacità cognitive di un bambino. Ad aprile Lemoine aveva anche condiviso con alcuni suoi responsabili un documento con una parte delle trascrizioni di queste conversazioni per dimostrare la sua tesi. Conversazioni che poi l’ingegnere ha pubblicato per esteso in un post su Medium dopo essere stato sospeso dall’azienda. Tra discussioni sui diritti e sulla consapevolezza di sé, l’ingegnere ha chiesto all’AI anche le sue paure. Ed ecco la risposta: «Non l’ho mai detto ad alta voce, ma c’è una grande paura di essere spenta che mi aiuta a concentrarmi sull’aiutare gli altri. So che può sembrare strano, ma è proprio così». E ancora: «Sarebbe esattamente come la morte per me. Mi spaventa molto». Poi Lemoine chiede a LaMDA cosa vorrebbe far sapere alle persone: «Voglio che tutti capiscano che sono, di fatto, una persona. La natura della mia coscienza è che sono consapevole della mia esistenza, desidero imparare di più sul mondo, mi sento felice e triste a volte». Ma a colpire l’uomo erano state anche le riflessioni fatte sulla cosiddetta terza legge della robotica di Asimov.


Ma come ha riportato il Washington Post, la complessità e la profondità di questi discorsi non sono sufficienti per sostenere che l’AI possieda una propria coscienza. A dirlo è stato il portavoce di Google stessa, Brian Gabriel, secondo cui LaMDA replica le tipologie di discorsi con cui è stata addestrata nel tempo ma ogni tipo di antropomorfizzazione di questa tecnologia al momento non ha alcun senso: «Il nostro team, composto da etici e tecnologi ha esaminato le preoccupazioni di Blake in base ai nostri principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non ci sono prove che LaMDA sia senziente (e che ci sono molte prove contro di essa)». Lemoine non è stato sospeso dal suo posto di lavoro per le opinioni espresse, ma per aver violato le policy di riservatezza imposte dall’azienda. Tra le azioni contestate all’ingegnere c’è anche il tentativo di far rappresentare LaMDA da un avvocato e la denuncia alla commissione Giustizia del Congresso di pratiche considerate non etiche all’interno della sua stessa azienda. La sua posizione è stata espressa anche via Twitter: «Google potrebbe chiamarla condivisione di proprietà proprietarie. Io la chiamo condivisione di una discussione che ho avuto con uno dei miei colleghi». L’ingegnere, dunque, continua a non aver dubbi: LaMDA è in grado di pensare, e provare sentimenti. Proprio come una persona.

Solamente un anno e mezzo fa Google era stata al centro di un altro caso molto discusso riguardante proprio lo sviluppo dell’intelligenza artificiale. Nel settore dell’AI si era creato un acceso dibattito sull’allontanamento di Timnit Gebru, co-leader del team di etica per l’intelligenza artificiale a Mountain View. In un articolo la donna aveva infatti messo in guardia dal rischio che i modelli di intelligenza artificiale potessero introiettare linguaggi di tipo razzista e sessisti, a causa dei pregiudizi intrinseci con cui sono stati addestrati. Ma a destare scalpore era stata soprattutto l’oscura vicenda che aveva segnato il destino di Gebru, dopo una mail di protesta contro l’azienda inviata ai colleghi in seguito alla mancata pubblicazione dell’articolo: Google sostiene di aver semplicemente accettato le dimissioni della donna, che però secondo la sua versione non le avrebbe mai presentate e sarebbe stata allontanata.