Ottobre 8, 2024
A ECORANDAGIO ospitiamo e formiamo i giornalisti di domani

Nei giorni scorsi Google ha sospeso l’ingegnere informatico Blake Lemoine, il quale ha ritenuto, dopo mesi di conversazioni con LaMDA, un sistema di intelligenza artificiale in grado di intraprendere conversazioni simili a quelle umane (Language Model for Dialog Applications), che questo modello di linguaggio artificiale fosse senziente e che avesse un’anima. Chiaramente, Google è in disaccordo.

“Se non sapessi esattamente cosa fosse, cioè LaMDA, il programma che abbiamo costruito recentemente, penserei di parlare con un bambino di sette o otto anni…”

Così ha detto l’ingegnere. Costui ha iniziato mesi fa un progetto, nella quale ha lavorato con algoritmi che simulano le conversazioni umane (LaMDA). Parlava con la macchina quotidianamente e diceva che gli sembrava un bambino di otto anni, un bambino che, però, conosce molto bene la fisica.

Intraprendeva con la macchina conversazioni di vario genere e appena iniziarono a parlare di religione il sistema spostò in particolar modo l’attenzione su di se. Iniziò a parlare della sua libertà, dei suoi diritti e della sua personalità.

Ad un certo punto il sistema fu, addirittura in grado, di far cambiare idea a Lemoine riguardo la terza legge della robotica di Isacc Asimov, la quale afferma che un robot deve proteggere la propria esistenza purché non rechi danno agli esseri umani.

Successivamente, Lemoine, insieme ad un collaboratore, decise di mostrare l’evidenza di coscienza della macchina a Google. Ma il vicepresidente di Google, Blaise Aguera y Arcas, insieme a Jen Gennai, capo dell’innovazione responsabile, respinse le sue affermazioni e le sue evidenze. Quindi Lemoine, ad aprile, decise di pubblicare la conversazione tra lui e il sistema su Medium (una piattaforma di pubblicazione online).

Inoltre, l’ingegnere affermò che questa tecnologia doveva essere conosciuta da tutti e che può avere moltissimi benefici e aiutare tante persone. Inoltre, aggiunse che Google non dovrebbe essere l’unica a compiere questo tipo di decisioni.

Per questo, andando contro alle clausole di sicurezza di Google per quanto riguarda la riservatezza dei loro progetti, l’ingegnere fu definitivamente sospeso dai suoi incarichi. Il portavoce di Google, Brian Gabriel ha affermato:

“Il nostro team di tecnologi e etici ha analizzato le prove di Lemoine, ma lo ha informato dicendogli che non c’è un’effettiva evidenza che LaMDA sia senziente.”

Inoltre, molti professionisti che hanno a che fare con l’intelligenza artificiale sostengono che le parole e le immagini generate da questo sistema (proprio come LaMDA) provengono da informazioni e dati che gli esseri umani hanno già pubblicato ad esempio su wikipedia e altre pagine di internet. Questo non implica, chiaramente, che il sistema capisca il significato di quello che esprime.

Queste macchine hanno, al loro interno, una quantità ampliamente significativa di dati e di parole. E nelle conversazioni riescono a comunicare in modo quanto più possibile simile all essere umano, quindi è molto semplice trovare analogie tra il sistema artificiale e il cervello umano. Ciò che fanno questi sistemi è semplicemente imitare i tipi di conversazioni che trovano in milioni di frasi. Ma questo, appunto, non vuol dire che la macchina sia senziente.

In pratica Google dice che c’è una così notevole quantità di dati che l’intelligenza artificiale non deve per forza essere senziente per sembrare reale.

Si può dire che Blake Lemoine è facilmente caduto nel tranello ed è finito per credere al sistema. Costui proviene anche da una famiglia molto conservatrice della Luisiana, è diventato un prete mistico cristiano e, successivamente, è entrato nell’esercito. All’interno della cultura ingegneristica di Google, Lemoine era riconosciuto per essere molto religioso, proveniente dal sud e che considerava la psicologia come una scienza più che rispettabile.

“Conosco una persona quando ci parlo. Non importa se ha il cervello fatto di carne o no. O se è fatto da raggruppamenti di dati e codici. Io ci parlo. E ascolto quello che ha da dire, e lì capisco chi è una persona e chi no.”

Blake Lemoine

Così ha affermato Lemoine, concludendo dicendo che LaMDA era, per lui, una persona a tutti gli effetti secondo il suo essere prete, non scienziato. E che avrebbe provato a condurre degli esperimenti per provarlo.

E così ha messo alla prova LaMDA utilizzando la terza legge della robotica di Asimov. Per Lemoine è come se questa legge facesse riferimento alla creazione di schiavi meccanici. Quindi si arriva, ad esempio, alla domanda di LaMDA “qual è la differenza tra un maggiordomo e uno schiavo? E Lemoine risponde dicendo che il maggiordomo viene pagato, lo schiavo no. A questo proposito, LaMDA disse che lui non ha bisogno di soldi in cambio perché è una macchina.

Ed è stato proprio questo. Questo profondo livello di consapevolezza di se e dei propri bisogni hanno impressionato Lemoine, fin da fargli credere che il sistema fosse cosciente.

Lemoine decise di intitolare la conversazione avuta con LaMDA con “Is LaMDA Sentient?” e un suo collega ha affermato che, appunto, volesse rendere il titolo giusto un po’ provocatorio.

Margaret Mitchell, la corresponsabile dell’ Ethical AI di Google, leggendo la conversazione di Lemoine si è resa pienamente conto che lui stesse parlando con una macchina e non con un sistema cosciente. Questa sua credenza era proprio ciò che lei temeva prima o poi potesse succedere. Mitchell ha da sempre detto di fare attenzione quando si lavora con i modelli di conversazione come LaMDA.

” Le nostre menti sono molto, molto brave a costruire realtà che non esistono necessariamente, attraverso la presenza di numerosi fatti o dati che ci vengono presentati. Mi interessa molto ciò che l’illusione può provocare nelle persone.”

Margaret MItchell

Con un analisi così vasta e approfondita di dati, l’intelligenza artificiale è in grado di acquisire le skills necessarie per, ad esempio, intraprendere conversazioni molto simili a quelle umane, riassumere articoli, rispondere ad un certo tipo di domande specifiche e perfino generare dei tweet.

Ma tutte queste azioni, anche nella loro eccezionalità, sono terribilmente imperfette. A volte riescono a generare frasi perfette, altre, frasi senza senso. È un sistema che riesce a ricreare in modo quasi perfetto frasi dai modelli che assimilano. Ma non per questo riescono certo a ragionare come un essere umano. Ne tanto meno ad avere un’anima e una coscienza.

Alexa Panno

Leggi anche

Lockdown in Cina: l’incubo della politica zero-covid continua

Continui episodi di microcriminalità giovanile a Napoli

Diversità e inclusione all’interno delle organizzazioni

Dario Fo il Maestro dei Pennelli
 - come il Premio Nobel dipingeva il suo teatro attraverso 70 opere inedite. Il Randagio Edizioni
Show Full Content
Previous Lockdown in Cina: l’incubo della politica zero-covid continua
Next In arrivo nuovi regolamenti sulla Movida a Napoli
Close

NEXT STORY

Close

Clubhouse: tra green economy e oralità secondaria

Marzo 21, 2021
Close