Seguici e condividi:

Eroica Fenice

guida autonoma

Guida autonoma ed etica: nuove tecnologie e compromessi

Una delle frontiere della tecnologia è lo sviluppo di veicoli a guida autonoma e, secondo molti esperti, questi saranno disponibili intorno al 2020, ma probabilmente non circoleranno in massa prima del 2030.
Secondo i produttori che stanno investendo sui veicoli autonomi, i vantaggi includerebbero una maggior efficienza del traffico e una maggiore sicurezza, ma prima della loro introduzione ci sono alcuni problemi che devono essere risolti, soprattutto per quanto riguarda la sicurezza.
Ad esempio le automobili Tesla hanno un sistema di guida autonoma attivabile dall’utente: il 7 maggio Frank Baressi è morto in Florida schiantandosi nella fiancata di un tir, che né lui né i sensori avevano potuto scansare. Anche le funzionalità di connessione ad Internet dei veicoli (inclusi quelli non autonomi attualmente in commercio) possono presentare diversi problemi: negli Stati Uniti due hacker, Charlie Miller e Chris Valasek, hanno trovato una vulnerabilità nel sistema Uconnect delle automobili FCA, che poteva essere utilizzato per prendere il controllo del veicolo, potenzialmente anche per causare un incidente, dato che permetteva di prendere il controllo anche dei freni. Per rimediare la FCA ha dovuto richiamare un milione e mezzo di veicoli.

Guida autonoma: quali saranno le regole

Infine c’è un ultimo problema riguardante la programmazione dei veicoli a guida autonoma: l’etica.
Se in caso di incidente un veicolo a guida autonoma dovesse scegliere tra andare fuori strada, uccidendo il conducente, o investire e uccidere dei pedoni ma salvaguardare il conducente, quale sarebbe la scelta giusta? Nell’ottica di causare il minor numero di vittime possibile sarebbe la prima, ma quasi nessuno salirebbe su di un auto che non tutela il conducente. Un’indagine online condotta negli USA rivela che il 76% vorrebbe questo comportamento da parte delle auto autonome, ma solo un terzo salirebbe a bordo di un’auto del genere, mentre nel caso fossero loro i passeggeri gli altri considererebbero la propria sicurezza prioritaria.

Oppure quando violare una legge (come il limite di velocità o il divieto di andare nell’altra corsia con la doppia linea) deve essere consentito ai veicoli autonomi? Già Google ha implementato sulle sue Google Car un meccanismo per violare il limite di velocità se l’auto risulta essere troppo lenta rispetto al traffico e quindi in una situazione potenzialmente pericolosa. Un’altra situazione simile potrebbe essere un’emergenza per la quale si è costretti ad andare in ospedale, violando i limiti di velocità. Oppure nel caso ci siano la doppia linea, quindi il divieto di sorpasso e potenzialmente un rischio di incidente, ed un ostacolo sulla carreggiata, che però può causare solo danni minori, quale dei due deve avere la precedenza? Evitare l’ostacolo a rischio di un incidente frontale, o l’incidente certo con l’ostacolo evitando un possibile e più pericoloso frontale?

Si potrebbe anche decidere di lasciare una backdoor nel sistema delle auto autonome in modo da consentire alle forze dell’ordine di fermarle in caso di reati. E se un sistema del genere fosse usato da una dittatura o violato ed usato da malintenzionati?

È soprattutto nelle “situazioni limite” che si incontrano delle difficoltà sia a definire il comportamento “giusto” per un veicolo a guida autonoma, sia per scegliere cosa consentire ai veicoli autonomi. Ma se le automobili autonome saranno adottate in massa affronteranno anche delle “situazioni limite”.
Questo non è un problema accademico, ma reale, e andrà risolto prima dell’introduzione in strada di questi veicoli che sono ancora il miraggio di una tecnologia futura.

Francesco Di Nucci