Come fa un’automobile a scegliere chi salvare? Tesla, primo incidente mortale con pilota automatico
Siamo onesti: era solo questione di tempo. Purtroppo è notizia recente quella del primo incidente mortale causato da una macchina guidata da una intelligenza artificiale, una Tesla Model S per la precisione, che lo scorso 7 maggio si è scontarta con un autoarticolato durante un viaggio in autostrada in quel di Willinston (Florida). Il fatto non è chiarissimo, ma pare c’entri la colorazione bianca del tir e le condizioni di eccezionale luminosità di quella che era una giornata particolarmente assolata. L’auto ed il suo guidatore non si sarebbero resi conto di star viaggiando di fianco ad un enorme tir sicché, per motivi che sono ancora oggetto di studio (presumibilmente una manovra per deviare da un ostacolo) l’auto è finita schiacciata sotto all’enorme mezzo, causando la morte del suo passeggero.
Come immaginerete, dopo il fatto, l’ente per la sicurezza stradale statunitense (e con esso buona parte della comunità scientifica dedicata al settore) è alla ricerca di risposte alle innumerevoli domande che si sono susseguite dopo il tragico incidente: perché la macchina ha deviato? Perché l’IA (e il suo passeggero) non hanno effettuato manovre sicure? Il pilota automatico ha in qualche modo facilitato l’incidente causando un calo di attenzione?
Purtroppo siamo ben lontani dalla fine delle indagini, e ben lungi dal giungere ad una conclusione, quello che è chiaro è che probabilmente una guida convenzionale e relative abilità avrebbero potuto evitare l’incidente sul quale ci sono molti dubbi, ma anche qualche certezza: è stato un errore di calcolo della macchina. Il sistema di guida non è infatti intervenuto per salvare la vita del suo passeggero ed anzi è probabilmente l’artefice dell’incidente che ha causato poi la morte del guidatore. Tesla, intanto, ha dichiarato di voler lasciare la funzione di pilota automatico sulle sue auto ma di aver sempre specificato che essa è una funziona che è ad uso e consuma del guidatore che potrebbe lasciarla sempre e comunque disattivata. Lo scopo della società automobilistica (autentica pioniera in questo campo della tecnologia, e nella tecnologia automobilistica in generale) è quello di “ridurre lo stress del guidatore per migliorare la sicurezza” chiarendo, dunque, che le intenzioni non sarebbero quelle di affidare all’IA dell’auto il controllo completo di ogni percorso su 4 ruote, utilizzando invece la funzione per situazioni di reale bisogno atte ad evitare che la stanchezza al volante crei situazioni pericolose o letali. Tesla, tuttavia, non tiene conto del modo con cui le persone potrebbero fruire di questa tecnologia, demandando all’auto ogni tragitto per il semplice motivo di avere la possibilità di farlo, senza esser consci di quanto una tecnologia ancora acerba potrebbe creare danni.
Tesla infatti ha sempre chiarito che si tratta di una funzione ancora lungi dall’essere perfetta, ottima per tragitti poco trafficati ma comunque sconsigli di dormire al volante lasciando che l’IA faccia da sé, così come sconsiglia di allontanarsi dal posto di guida lasciando che la macchina si guidi da sola. L’incidente apre insomma un dibattito che promette di prolungarsi ben oltre il lutto per l’infelice dipartita. Già il tema delle IA è ad un momento particolarmente delicato della sua evoluzione, con studi che stanno cercando di capire quali siano i limiti verso cui può spingersi l’intelligenza robotica, dall’altro c’è ora l’evidente urgenza di capire in modo ancor più preciso quali possano essere le conseguenze dell’implementazione su strada di mezzi autonomi ma con all’interno esseri umani. Ad oggi, nfatti, le auto di Google, del tutto prive di passeggeri, pur avendo creato qualche grattacapo non avevano mai realmente attentato alla vita umana, né erano state artefici di danni consistenti registrando, di fatto, pochissimi incidenti. Con l’introduzione di una IA che regoli il viaggio con umani a bordo, le carte in tavola cambiano e ci si chiede secondo quali schemi, ad esempio, un’auto agirebbe se si trovasse nel dubbio di dover salvare una vita umana piuttosto di un’altra.
Proprio di recente, infatti, si è aperto un dibattito su alcuni casi limiti, come l’eventualità che un’auto regolata da IA con passeggero a bordo si trovi improvvisamente dinanzi un muro umano. Come agirebbe la macchina? Quale vita preferirebbe salvare? Cercherebbe di arginare i danni o sceglierebbe di sacrificare sé stessa (e dunque il suo passeggero) onde evitare una strage? Sono dibattiti che sembrano futuristici ma che da oggi, sono invece a ben meno di un passo da noi.