Tech, se l’Intelligenza Artificiale diventa senziente

PUBBLICITA

La notizia si è espansa con una velocità incredibile, forse perché sembrava uscita fuori proprio da una serie tv fantascientifico oppure sembrava arrivare da un futuro distopico e lontano. Protagonista, da un lato, l’ingegnere di Google, Blake Lemoin, dall’altro l’Intelligenza Artificiale di Google.

“Se non sapessi esattamente cos’è, penserei di star parlando con un bambino di 7-8 anni che si intende di fisica”. Sono state queste le parole del dipendente dell’azienda di Mountain View, che è stato subito sospeso dal servizio. La sua tesi? Questa: il software sarebbe in grado di capire proprio come un essere umano. Insomma, l’IA, avrebbe un’anima. Parlando con questo LaMDA, acronimo che sta per Modello Linguistico per applicazioni di Dialogo, il software avrebbe iniziato a far riferimento ai emozioni, volontà, diritti e personalità.

A fare chiarezza e soprattutto a riportare un po’ di tranquillità ci ha pensato Rita Cucchiara, direttrice del Centro AI Research and Innovation dell’università di Modena e Reggio Emilia. “Possiamo affermare con sicurezza che questi sistemi non hanno sviluppato una propria coscienza o un modello di etica e di sentire come quello umano – ha rassicurato – Se consideriamo la definizione della Treccani di essere senziente come ‘dotato di sensi, di sensibilità’, allora possiamo dire che un sistema artificiale, in effetti, ha dei sensi con cui percepisce il mondo esterno, capisce la voce, vede le immagini, acquisisce i testi e sa interpretare tutti questi dati”. Ma parlare di “persona”, insomma, è decisamente diverso.

Una rassicurazione non da poco conto, se si pensa che l’Intelligenza Artificiale ormai sta entrando sempre di più nella nostra vita quotidiana. Aziende di gambling come StarCasino utilizzano il machine learning per migliorare l’esperienza degli utenti e per contrastare il gioco patologico, oppure la domotica che si serve di IA per collegare e implementare tutti gli aspetti della gestione della casa. Eppure questa vicenda ci insegna comunque qualcosa.

“È importante porsi delle domande su come regolare lo sviluppo e l’uso di sistemi estremamente potenti come LaMDA, che sono concepiti per ottime cause” ha spiegato ancora Rita Cucchiara. Per questo l’Unione Europea, insieme tra gli altri anche all’Università di Modena, ha iniziato un importante progetto che mira a riconoscere i dati generati in modo ingannevole e sbagliato dai sistemi di IA.

Perché la tecnologia non è sempre infallibile, anche se si chiama intelligenza artificiale.

PUBBLICITA

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

LEGGI ANCHE

Kvaratskhelia non si è allenato, problemi per il Napoli

Kvaratskhelia è in dubbio per la gara contro l'Empoli che si giocherà sabato alle 18. Khvicha Kvaratskhelia è stato costretto a fermarsi a causa di...

Torre del Greco, tursiope avvistato in località La Scala

Torre del Greco, Numerose le segnalazioni. Intervento della Capitaneria di porto e Medico Veterinario competente dell'Asl Napoli 3 Sud

Una giornata ai Castelli Romani: cultura, natura e gastronomia

I Castelli Romani, gioiello incastonato nel cuore del Lazio, offrono un rifugio perfetto per chi cerca una fuga dalla frenesia della città

Campi Flegrei: la terra si muove senza sosta nelle ultime ore, i dettagli

Oggi all'alba un nuovo sciame sismico ha interessato i Campi Flegrei segnando l'ennesima attività sismica delle ultime settimane. Gli eventi principali sono stati registrati alle...

ULTIME NOTIZIE

PUBBLICITA