Le decisioni importanti delle auto a guida autonoma

Mentre la Google Car viene testata sulle strade di Mountain View (e vengono registrati i primi rischi di collisione tra due vetture con questo sistema di guida automatizzata, durante i cambi di corsia, anche se non viene segnalata alcuna notizia di impatto finale), qualcuno comincia anche a porsi delle domande basilari: come farà un sistema computerizzato a prendere decisioni critiche?

Il punto di partenza del ragionamento è dalla prima legge della robotica di Asimov (che, ricordiamo, formulò queste leggi solo come fantascienza, negli anni ’40, per essere poi inconsapevole ispiratore della robotica scientifica reale): “Un robot non può recare danno a un essere umano né permettere che, a causa del mancato intervento, un essere umano venga danneggiato. Come dire, a causa di una altrui manovra azzardata, come può un computer decidere se è meglio una collisione con un altro veicolo, o un impatto con un pedone?  Insomma, il “fattore umano”, l’istinto, la capacità decisionale data non da una serie di codici binari in sequenza, non può essere replicata da una macchina. O sì?

Chris Gerdes, responsabile della ricerca che viene effettuata nell’università di Stanford, dichiara che

Proprio perché i dirigenti delle case automobilistiche sono a conoscenza delle implicazioni di tutto questo, stanno spronando i tecnici a sviluppare sistemi in grado di prendere decisioni critiche.

Occorre anche mettere in conto che il sistema deve essere in grado di… Violare le proprie stesse regole, ovvero il codice della strada: per superare un’auto in doppia fila potrebbe dover oltrepassare una linea continua, fermarsi bruscamente all’interno di una rotonda o di un incrocio per evitare una collisione – rischiandone in compenso un’altra.

Il problema sembra porsi soprattutto, a prima vista, in caso di coesistenza tra vetture a guida autonoma e a guida umana, ma si pone un altro problema: volendo integrare, proprio al momento di decisioni critiche, l’intervento umano, cosa potrebbe accadere, considerando che non saremmo più abituati a intervenire sui comandi come lo siamo adesso? Avremmo la stessa capacità di reazione e prontezza di riflessi?

A quanto pare, ancora una volta, lo sviluppo tecnologico di una intelligenza artificiale si avvicina agli argomenti etici, che non sembrano poi essere più così fantascientifici come un decennio fa.

Share

Guarda anche...