La notizia si è espansa con una velocità incredibile, forse perché sembrava uscita fuori proprio da una serie tv fantascientifico oppure sembrava arrivare da un futuro distopico e lontano. Protagonista, da un lato, l’ingegnere di Google, Blake Lemoin, dall’altro l’Intelligenza Artificiale di Google.
“Se non sapessi esattamente cos’è, penserei di star parlando con un bambino di 7-8 anni che si intende di fisica”. Sono state queste le parole del dipendente dell’azienda di Mountain View, che è stato subito sospeso dal servizio. La sua tesi? Questa: il software sarebbe in grado di capire proprio come un essere umano. Insomma, l’IA, avrebbe un’anima. Parlando con questo LaMDA, acronimo che sta per Modello Linguistico per applicazioni di Dialogo, il software avrebbe iniziato a far riferimento ai emozioni, volontà, diritti e personalità.
A fare chiarezza e soprattutto a riportare un po’ di tranquillità ci ha pensato Rita Cucchiara, direttrice del Centro AI Research and Innovation dell’università di Modena e Reggio Emilia. “Possiamo affermare con sicurezza che questi sistemi non hanno sviluppato una propria coscienza o un modello di etica e di sentire come quello umano – ha rassicurato – Se consideriamo la definizione della Treccani di essere senziente come ‘dotato di sensi, di sensibilità’, allora possiamo dire che un sistema artificiale, in effetti, ha dei sensi con cui percepisce il mondo esterno, capisce la voce, vede le immagini, acquisisce i testi e sa interpretare tutti questi dati”. Ma parlare di “persona”, insomma, è decisamente diverso.
Una rassicurazione non da poco conto, se si pensa che l’Intelligenza Artificiale ormai sta entrando sempre di più nella nostra vita quotidiana. Aziende di gambling come StarCasino utilizzano il machine learning per migliorare l’esperienza degli utenti e per contrastare il gioco patologico, oppure la domotica che si serve di IA per collegare e implementare tutti gli aspetti della gestione della casa. Eppure questa vicenda ci insegna comunque qualcosa.
“È importante porsi delle domande su come regolare lo sviluppo e l’uso di sistemi estremamente potenti come LaMDA, che sono concepiti per ottime cause” ha spiegato ancora Rita Cucchiara. Per questo l’Unione Europea, insieme tra gli altri anche all’Università di Modena, ha iniziato un importante progetto che mira a riconoscere i dati generati in modo ingannevole e sbagliato dai sistemi di IA.
Perché la tecnologia non è sempre infallibile, anche se si chiama intelligenza artificiale.