Pur con certe differenze, ci immaginiamo le città del futuro attraversate da una ragnatela di strade a più livelli con veicoli che sfrecciano silenziosi... senza guidatore. Ma, fantasie o speranze a parte, come funziona la guida autonoma?
Da anni alcuni produttori di auto raccolgono consensi e investimenti promettendo l'arrivo sul mercato di un'auto che guida da sola, e se i recenti progressi sull'intelligenza artificiale sembrano rendere sempre più concreta questa possibilità, i dubbi non mancano.
Andiamo quindi a scoprire cos'è la guida autonoma, cosa sono i livelli, quali sono le aziende che ci investono maggiormente e qual è la situazione dal punto di vista legislativo, oltre a ricordarvi la nostra guida sulla guida assistita.
Indice
Cos'è la guida autonoma
Un'auto a guida autonoma è un veicolo in grado di viaggiare senza l'intervento umano. Questo è possibile grazie a una quantità di sensori come telecamere, radar, LiDAR, sonar e GPS che analizzano l'ambiente circostante e inviano i dati a sistemi di controllo che interpretano le informazioni e creano un modello tridimensionale dello spazio circostante il veicolo.
Il sistema è quindi in grado di operare strategie in tempo reale per gestire i veicoli circostanti, i segnali stradali e gli eventuali ostacoli.
Questo è l'obiettivo, ma la guida autonoma non è una definizione così chiara come potrebbe sembrare. Come rivelato nel 2014 dalla SAE (Society of Automotive Engineers), l'associazione che ha proposto una standardizzazione dei livelli di autonomia dei veicoli, l'autonomia viene erroneamente associata con la completa automazione della guida, e anche alcuni enti legislativi la confondono con un certo tipo di guida assistita avanzata (di livello 3 o superiore).
Ci sono infatti molte differenze nella terminologia che gli esperti usano per descrivere le auto a guida autonoma all'interno del settore, poiché ogni organizzazione ha il suo modo di definire i veicoli dotati di questa capacità, inserendo a volte anche il termine automatizzati, e tali incoerenze si presentano anche sotto forma di pubblicità confuse o fuorvianti su un nuovo modello e il suo livello di autonomia.
Quindi anche se nel linguaggio comune (e a volte anche legislativo) autonomo e automatizzato possono essere sovrapposti, la differenza non è così irrilevante. Per esempio, nel passato, l'automazione implicava la dipendenza da ausili esterni (come le strisce magnetiche), mentre autonomo significa qualcosa che può agire da solo senza aiuto.
L'Unione Europea stessa sembra far confusione, definendo un veicolo automatizzato come un veicolo a motore progettato e costruito per muoversi autonomamente per determinati periodi di tempo senza la supervisione continua del conducente, ma per il quale è ancora previsto o richiesto l'intervento del conducente, mentre un veicolo completamente automatizzato come un veicolo a motore progettato e costruito per muoversi autonomamente senza la supervisione del conducente.
Se però allo studio ci sono reti di comunicazione per permettere ai veicoli di compiere scelte più "consapevoli", queste ne riducono l'autonomia, e in generale le auto a guida autonoma non sfruttano questa possibilità e agiscono in completa autonomia.
I motivi di questa incoerenza sono sostanzialmente storici, in quanto le auto a guida autonoma sono nel mirino del settore da quasi un centinaio d'anni, anche se il primo prototipo fu del 1977. Negli anni seguenti, si sono succeduti diversi attori, a partire dai veicoli Navlab della Carnegie Mellon University per arrivare ai veicoli di Waymo (di proprietà di Google), Tesla e altri.
Per noi, dove le auto a guida autonoma rappresentano poco più di un'ipotesi suggestiva, questa evoluzione rappresenta per il momento un'aspirazione più che un vero punto su cui riflettere, ma negli Stati Uniti, dove è consentita la circolazione, seppur con limitazioni, di questo tipo di veicoli, ha un notevole impatto sociale e soprattutto legislativo.
Nondimeno, il futuro è segnato: secondo le statistiche, oltre il 90% degli incidenti sarebbero causati da errori umani, il più delle volte dovuti a disattenzione. Numeri che la guida autonoma ridurrebbe sensibilmente.
Allo stato attuale, però, anche se l'obiettivo di tutte le case è arrivare alla guida autonoma propriamente detta come definita in apertura di questo capitolo, in realtà ci sono diverse sfumature che definiscono i vari "livelli" di autonomia. A fare questa vera e propria classificazione ci ha pensato la SAE, l'associazione che dieci anni fa lamentava confusione nella terminologia, e ha introdotto una classificazione che, per quanto limitata e approssimativa, è globalmente accettata.
Come funziona la guida autonoma: i livelli
Nel 2014, la SAE propose per la prima volta un sistema di classificazione a sei livelli basato sulla quantità di intervento e attenzione richiesti al conducente, piuttosto che sulle capacità del veicolo, sebbene ci sia un qualche tipo di correlazione.
Il sistema va da completamente manuale a completamente autonomo. Scopriamo quali sono i vari livelli.
Livello 0
Il livello 0 descrive qualsiasi auto il cui sistema autonomo può fornire avvisi su collisioni, velocità e altre condizioni potenzialmente pericolose, ma il conducente ha sempre il pieno controllo del veicolo.
Livello 1
Il livello 1 descrive qualsiasi veicolo che condivide il controllo con il conducente. Questo include qualsiasi veicolo che disponga di Cruise Control Adattativo (Adaptive Cruise Control), assistenza al parcheggio o assistenza per il mantenimento della corsia. In ogni caso, il conducente deve comunque guidare, per esempio con l'ACC deve gestire sterzo e frenata, con l'assistenza al parcheggio deve controllare frenata e accelerazione, mentre con il mantenimento di corsia è ancora responsabile del mantenimento della velocità e della frenata quando necessario.
Per questo motivo, il Livello 1 è anche chiamato hands on (mani su, letteralmente).
Livello 2
Il livello 2 è invece utilizzato per descrivere qualsiasi veicolo pienamente in grado di funzionare da solo, in frenata, accelerazione o sterzo. In ogni caso, il conducente deve comunque prestare attenzione a quello che sta succedendo ed essere sempre pronto a riprendere il controllo quando necessario. Molti veicoli di livello 2 sono anche programmati per funzionare solo quando i sensori rilevano le mani del conducente sul volante (per esempio le Tesla).
Il Livello 2 è chiamato anche hands-off', mani libere, letteralmente.
Livello 3
Il livello 3 descrive qualsiasi veicolo le cui capacità automatizzate consentono al conducente di distogliere lo sguardo dalla strada per periodi prolungati. Il guidatore può usare il telefono, leggere o guardare la TV mentre il veicolo sterza, frena, accelera e anticipa i cambiamenti del traffico intorno, ma dovrebbe comunque essere pronti a prendere il controllo quando necessario.
Questo livello è chiamato anche eyes off, distogliere lo sguardo in italiano.
Livello 4
Il livello 4 viene utilizzato per descrivere qualsiasi veicolo le cui capacità automatizzate consentono a un conducente di non prestare la minima attenzione alla strada mentre la vettura è in funzione. In questo caso, il guidatore potrebbe dormire o addirittura sedersi sul sedile posteriore o sul sedile del passeggero dell'auto, ma solo fino a quando il viaggio è terminato.
In realtà, questo tipo di guida autonoma avviene solo in situazioni controllate, per esempio in aree limitate (georecintate) o in circostanze speciali, come potrebbero esserlo robotaxi in determinate zone (per esempio in un'area aeroportuale) o il parcheggio autonomo (come la funzionalità Smart Summon di Tesla, che richiama l'auto da un parcheggio).
Questo livello è chiamato anche mind off, ovvero distogliere la mente.
Livello 5
Siamo arrivati all'ultimo livello, che caratterizza la guida totalmente autonoma. Il Livello 5, chiamato anche steering wheel optional (volante opzionale) non richiede alcun intervento umano. Un esempio potrebbe essere un robotaxi che opera in una grande città.
Le regole per la guida autonoma nel mondo
Come abbiamo visto, ci sono progetti e studi di guida autonoma da diverso tempo, ma la politica e gli enti regolatori per la viabilità si sono fatti trovare preparati?
D'altronde, lo stesso Elon Musk, il capo di Tesla, non ha mai nascosto le proprie ambizioni di lanciare quanto prima sulle strade veicoli in grado di guidare in maniera completamente autonoma, e anzi ha venduto la funzione ben prima che fosse effettivamente disponibile.
La realtà è piuttosto variegata, in quanto la sensazione è che le regole, più che anticipare, seguano lo sviluppo della tecnologia. Non che sia sorprendente, in fondo è un settore in continua evoluzione, e l'atteggiamento dei regolatori dei diversi Governi segue in linea di massima quanto possiamo vedere anche in altri campi.
Negli Stati Uniti, ad esempio, c'è un atteggiamento più possibilista e orientato al futuro (al netto di decisioni "riparatrici" successive), mentre in Unione Europea si cerca di essere più prudenti.
In generale, nel mondo ci sono delle convenzioni controfirmate da una serie di Stati, come la Convenzione di Ginevra, che richiede che il conducente abbia 18 anni, e la Convenzione di Vienna sulla circolazione stradale del 1968, che stabilisce come un guidatore debba sempre avere il pieno controllo e la responsabilità del comportamento di un veicolo nel traffico, poi riformata a luglio 2022 proprio per l'arrivo di funzionalità automatizzate.
In generale, introdurre una normativa in questo settore ha una rilevanza enorme che definisce l'impatto della guida autonoma sulla nostra società (ed è motivo di una parte delle critiche, come vedremo nel capitolo dedicato). In pratica, bisogna decidere su chi ricada la colpa in caso di incidente: il proprietario del veicolo, il produttore o da definirsi? Ovviamente, la questione potrebbe definire anche il ruolo delle assicurazioni RCA, che in vista di un parco auto completamente autonomo non avrebbero senso di esistere, almeno per come le conosciamo ora.
Unione Europea
In Unione Europea, nel 2019 sono stati definiti i requisiti (regolamento (UE 2019/2144) per l'omologazione dei veicoli a motore relativi ai veicoli automatizzati e ai veicoli completamente automatizzati (Livello 3 e superiore). Questa legge, chiamata New Vehicle General Safety Regulation, è entrata in vigore dal luglio 2022 e si basa su procedure e specifiche tecniche uniformi per i sistemi e altri elementi.
La legge applica differenze normative tra veicoli per il trasporto di persone e di cose, con (quindi in modalità "dual mode", dove il conducente potrebbe guidare in modalità manuale) e senza sedile conducente o con e senza occupanti. L'emendamento al Regolamento Unece n. 157 permette inoltre ai sistemi di assistenza al conducente di livello 3 di funzionare fino ai 130 km/h, contro i 60 km/h imposti in precedenza. Ma tutto può essere limitato da eventuali normative nazionali.
Sul fronte della responsabilità, la legislazione europea attualmente non dà indicazioni vincolanti nei veicoli completamente autonomi.
Se a bordo è presente un conducente di sicurezza, è responsabile di incidenti e violazioni del codice stradale, mentre il produttore è responsabile di malfunzionamenti tecnici e guasti dell'intero sistema del veicolo.
Questa è una base normativa per definire delle regole armonizzate, in quanto il traffico merci e passeggeri non si esaurisce nei confini nazionali, poi ovviamente i singoli Paesi all'interno dell'Unione hanno introdotto (o stanno introducendo) regole autonome per autorizzare test drive per veicoli con funzioni di guida autonoma a Livello 4.
Germania e Svezia sono i Paesi più avanzati in questo senso. In Svezia il produttore di autocarri Scania ha ricevuto l'approvazione dall'autorità svedese dei trasporti, Transportstyrelsen, per espandere i suoi test di percorso per tre autocarri a guida autonoma, con la possibilità di utilizzare qualsiasi strada lungo il percorso di quasi 300 chilometri tra le città di Södertälje e Jönköping.
Per quanto riguarda la responsabilità, in Svezia non c'è ancora una chiara definizione.
In Germania, la legislazione è ancora più avanzata. Nel 2021 e nel 2022, il governo tedesco è diventato il primo paese al mondo a creare il quadro giuridico per la guida completamente automatizzata con funzioni di guida autonoma per auto e camion (Legge federale che modifica la legge sulla circolazione stradale e la legge sull'assicurazione obbligatoria). Il 28 luglio 2022 sono entrati in vigore due atti legislativi: la legge sulla guida autonoma e l'ordinanza che regola l'esercizio di veicoli a motore con funzioni di guida automatizzate e autonome, permettendo funzioni di guida autonoma senza la presenza di un autista di sicurezza.
Passando alla responsabilità, la nuova legislazione tedesca introduce il principio di non discriminazione che si applica a situazioni di incidente inevitabili. La responsabilità ricade principalmente sul proprietario del veicolo, anche nel caso di veicoli a guida autonoma utilizzati senza conducente.
L'assicurazione responsabilità civile del proprietario copre i danni a persone e cose sia per i veicoli convenzionali che per i veicoli con sistemi di guida completamente automatizzati. Vi è inoltre l'obbligo di stipulare un'assicurazione di responsabilità civile per il supervisore tecnico. Se si verifica una violazione del codice stradale o un incidente, la causa e la colpa dell'incidente vengono determinate individualmente.
Al momento, i soli veicoli a guida semi autonoma (livello 3) approvati sono la Mercedes Classe S con sistema DRIVE PILOT e la Volvo EX90.
Anche in Francia si stanno studiando principi regolatori sulla guida autonoma. Nel 2014, il governo francese ha annunciato che nel 2015 sarebbe stato consentito il collaudo di auto automatizzate su 2000 km di strade pubbliche.
A settembre 2022 in Francia è stata approvata una legge che consente la circolazione di veicoli a guida autonoma di Livello 3 (a mani libere), ma solo se diverse condizioni vengono rispettate.
Sicuramente vi starete chiedendo lo stato della guida autonoma in Italia.
Nel nostro Paese, si sta ancora valutando la possibilità di permettere ai sistemi di assistenza al conducente di livello 3 di funzionare fino ai 130 km/h, ma la normativa è indietro. Per questo, sarebbe necessaria una riforma del Codice della Strada, e anche se la tecnologia corre potrebbero essere necessari anni per attuarla, soprattutto a questo ritmo.
Stati Uniti
Negli Stati Uniti, pur con notevole differenze tra i vari Stati, la situazione è molto più avanzata (o rischiosa, a seconda dei punti di vista). A livello federale infatti non c'è ancora una normativa, per quanto nel 2022 sia stato avviato un processo bipartisan, ma la National Highway Traffic Safety Administration (NHTSA), l'ente che stabilisce le norme sulla sicurezza stradale, è entrata nella vicenda. L'ente ha infatti pubblicato un documento per la protezione degli occupanti a seguito della rimozione di controlli manuali in sistemi di guida automatizzati, come volante, pedale dell'acceleratore e pedale del freno, che permetterebbe alle aziende di costruire e distribuire veicoli autonomi senza controlli manuali, purché soddisfino altri standard statali e federali.
A livello dei singoli Stati, sono numerosi quelli che consentono il test dei veicoli autonomi sulle strade pubbliche (38 su 50), e Nevada, California (il più avanzato in questo senso) e Florida sono stati i primi a promulgare leggi di questo tipo, già dal 2011.
La California fornisce permessi per testare e distribuire veicoli autonomi su strade pubbliche, e i produttori che al momento ne sono dotati sono Nuro, Cruise e Waymo (di Google).
Auto a guida autonoma
Ma qual è lo stato della guida autonoma? Numerosi produttori di auto stanno sviluppando progetti di questo tipo, tra cui BMW, Mercedes e altri, con applicazioni che in genere sono incentrate su due settori: robotaxi e auto di lusso.
BMW, nonostante le riserve, sta cercando di portare il Livello 3 sulla sua serie 7, mentre Mercedes è già riuscita con la sua Classe S, che ha già ricevuto l'approvazione in Nevada e dovrebbe ottenerla a breve in California.
Altri attori sono Volvo, Stellantis, Hyundai, General Motors, Honda e Toyota. Su questo punto vale la pena notare che in Giappone è legale il Livello 4, e Toyota lo aveva sperimentato in anticipo durante le olimpiadi del 2021 attraverso il sistema di robotaxi e-Palette intorno al villaggio olimpico.
Anche Apple, con la sua chiacchierata (e mai confermata) Apple Car sta lavorando in questo senso, ma diversi analisti hanno dichiarato che mentre l'auto dovrebbe arrivare nel 2025, una sua versione completamente autonoma non dovrebbe vedere la luce prima del 2029-2030.
Noterete che in questa lista mancano due attori, probabilmente i più interessanti: Tesla e Waymo (Google). Andiamo a scoprire i loro progetti.
Tesla
Tesla ha iniziato a sviluppare una tecnologia per la guida autonoma nel 2014 con il suo software Autopilot, un sistema avanzato di guida assistita che richiede la presenza dell'utente. Nel 2016, però, l'azienda ha iniziato a vendere il suo software Full Self-Driving, un'estensione di Autopilot a pagamento, per permettere ai veicoli di guidare in modo completamente autonomo.
Ai tempi Tesla si aspettava di lanciare sulle strade il software nel 2017, ma si sono accumulati ritardi su ritardi.
Nel 2020, l'azienda ha aperto la beta del programma a una piccola percentuale di utenti che volevano sperimentarla (negli Stati Uniti), ampliandone la disponibilità mese dopo mese. In pratica, da allora la società utilizza gli utenti come tester, un po' come fa Windows con il suo programma Insider, ma qui stiamo parlando di veicoli su quattro ruote che mettono a rischio la sicurezza degli utenti.
E incidenti ce ne sono stati, anche se Tesla si è sempre difesa affermando come il programma non fosse di guida autonoma (la società ha dichiarato che FSD non è in grado di guidare autonomamente ed è solo all'automazione di Livello 2). In ogni caso, la NHTSA, l'ente che governa la sicurezza sulle strade negli Stati Uniti, nel febbraio 2023 ha diramato un richiamo (anche se di tipo software) per oltre 362 mila Tesla in quanto ha definito il Full Self Driving a rischio incidente perché non risponde in modo adeguato alle regole del traffico, risultando potenzialmente pericoloso in alcune circostanze.
A questo è seguito uno scandalo a fine maggio quando una rivista tedesca ha pubblicato i reclami secretati di migliaia di utenti, non solo del FSD ma anche dell'Autopilot, in cui venivano lamentati incidenti o problematiche legate al software.
Alla base di questi problemi, potrebbe esserci anche la scelta di Tesla di rinunciare ai radar (eliminati dal 2022) e affidarsi solo all'intelligenza artificiale e alle telecamere, un progetto chiamato Tesla Vision. Elon Musk, il capo di Tesla, ha infatti dichiarato nel 2021 che gli uomini guidano benissimo solo con gli occhi, e così dovrebbero fare anche le auto, un concetto criticato da molti esperti del settore. Nel momento in cui scriviamo, Tesla ha introdotto nelle sue ultime auto la versione Hardware 4 dei suoi sensori, reintroducendo (a parte nelle Model Y) i radar, anche se senza attivarli, quindi non si sa esattamente se abbia cambiato idea a riguardo.
In ogni caso, Musk prosegue imperterrito, e ha affermato che entro il 2023 il FSD arriverà alla versione 12 e permetterà la guida completamente autonoma.
Google è dal 2009 che lavora allo sviluppo di un'auto a guida autonoma, un progetto, rinominato Waymo nel 2016, fondato da Sebastian Thrun, fondatore anche della piattaforma di apprendimento online Udacity ed ex direttore dello Stanford Artificial Intelligence Laboratory (SAIL) e Anthony Levandowski.
L'azienda, che gestisce servizi di taxi commerciali a guida autonoma a Phoenix, Arizona e San Francisco, sviluppa anche tecnologia di guida da utilizzare in altri veicoli, tra cui Mercedes-Benz Group AG, Nissan-Renault, Stellantis, Jaguar Land Rover, Volvo, Geely e persino nelle vetture per il trasporto merci di Uber.
Nel dicembre 2018, Waymo ha lanciato il servizio di taxi a guida autonoma (in gran parte con autisti di sicurezza) chiamato Waymo One, che consentiva agli utenti nell'area metropolitana di Phoenix di utilizzare un'app e richiedere una corsa. Nel 2019, Waymo One è stato il primo servizio autonomo al mondo a operare senza conducenti di sicurezza in auto, e nel 2021 il progetto è arrivato a San Francisco (all'inizio per il personale dell'azienda).
A fine 2022 ha richiesto il permesso finale necessario per operare taxi completamente autonomi, senza la presenza di un autista di riserva, all'interno dello stato della California.
Uno sviluppo senza intoppi? No, perché come le cronache (soprattutto riguardanti Tesla) ci hanno insegnato, i test pubblici con veicoli di questo tipo sono particolarmente pericolosi, e ne sono avvenuti diversi. Waymo e altre società sono tenute dal California Department of Motor Vehicles (DMV) a segnalare il numero di incidenti durante i test in cui il conducente umano ha preso il controllo per motivi di sicurezza, ma Waymo è riuscita a ottenere che il DMV non divulgasse pubblicamente questi dati, nonostante abbia affermato che sarà trasparente in merito ai suoi problemi di sicurezza.
Inoltre altre nuvole si addensano. A inizio 2023, praticamente tutti i big del Web hanno tagliato il loro personale, e anche Waymo è stata coinvolta con il licenziamento di ben 12.000 dipendenti.
Secondo il sito TechCrunch, Waymo sarebbe in procinto di interrompere il programma di trasporto merci, il che non fa ben sperare per lo sviluppo del progetto.
Guida autonoma: le critiche
Se il futuro della guida autonoma è visto da molti con speranze e aspettative, alcuni non sono d'accordo con lo sviluppo improvviso, e soprattutto le applicazioni sulle strade, di questa tecnologia. In generale, la maggioranza degli studi concordano che le auto a guida completamente autonoma ridurranno i morti sulle strade, ma quando, e a che prezzo?
Innanzi tutto, i livelli di automazione SAE sono stati criticati in quanto suggeriscono che l'automazione aumenti linearmente e che una maggiore automazione sia migliore, il che potrebbe non essere sempre vero, senza prendere in considerazione le modifiche all'infrastruttura e alla presenza di altri utenti sulle strade.
Ma non è l'unica questione aperta. Sulla strada (in tutti i sensi) di questa tecnologia ci sono diversi ostacoli, sia tecnologici che di aspettative vere e proprie, a volte sfruttate dalle case automobilistiche.
Gli ostacoli tecnologici sono la difficoltà dell'intelligenza artificiale di riconoscere in tempo le situazioni di un traffico caotico come quello di una città, oppure la sensibilità alle condizioni atmosferiche, l'incapacità di riconoscere correttamente gli ostacoli (per esempio riconosce alci e cervi ma non canguri), e infine potrebbero richiedere cambiamenti dell'infrastruttura, sia per quanto riguarda le strade che la comunicazione con altri veicoli, per poter funzionare correttamente.
Per quanto riguarda le case automobilistiche, Tesla e Mercedes sono state criticate (e in alcuni casi punite) per aver effettuato pubblicità ingannevoli, in cui si affermava la possibilità di guida autonoma quando in realtà non era vero.
Inoltre è giusto nominare le paure per la privacy, in quanto l'interconnettività delle auto a guida autonoma potrebbe permettere la raccolta di informazioni sugli utenti.
Ma ci sono altre due questioni, ben più rilevanti, quella della responsabilità e quella "morale". Per quanto riguarda la responsabilità, non è ancora chiaro chi debba essere ritenuto responsabile in caso di incidente, soprattutto con feriti.
Secondo diversi studi, dovrebbero essere i proprietari, e si suggerisce l'introduzione di una tassa o di un'assicurazione appropriata. Ma ovviamente non si possono escludere le case produttrici, e persino gli sviluppatori che hanno programmato il software. La questione è complessa, e urge una scelta di tipo legislativo.
C'è poi la questione morale, identificata dal problema del carrello ferroviario, un dilemma morale che un ingegnere del software o un produttore di automobili deve affrontare nella programmazione del software operativo di un veicolo a guida autonoma.
Questo dilemma si spiega in questo modo. Un veicolo a guida autonoma con passeggeri a bordo sta guidando su una strada quando improvvisamente appare una persona in mezzo alla carreggiata. L'auto deve scegliere una delle due opzioni: o investire la persona o evitarla sterzando contro un muro, uccidendo così i passeggeri.
I ricercatori hanno suggerito due teorie etiche da applicare al comportamento dei veicoli automatizzati in caso di emergenza: la deontologia e l'utilitarismo. La teoria deontologica suggerisce che un'auto automatizzata deve seguire rigide regole scritte che deve seguire in ogni situazione.
L'utilitarismo promuove invece la massimizzazione del numero di persone sopravvissute a un incidente. I critici suggeriscono che i veicoli automatizzati dovrebbero adattare un mix di più teorie per essere in grado di rispondere correttamente in maniera "morale" in caso di incidente.
Un'analisi ha evidenziato come la maggior parte degli intervistati ritenga che i veicoli autonomi dovrebbero essere programmati con idee utilitaristiche, cioè in modo che generi il minor danno e riduca al minimo le vittime di guida, ma quando sono loro stessi al volante vorrebbero che il veicolo a tutti i costi dia la priorità alla vita delle persone al suo interno.
Questo paradosso ha portato alla conclusione che la regolamentazione delle prescrizioni etiche dei veicoli autonomi può essere controproducente per la sicurezza sociale, in quanto gli utenti non acquisteranno auto che non darà la priorità alla vita degli occupanti, e questo potrebbe ritardare l'adozione della tecnologia, con ripercussioni sulla sicurezza stradale (partendo dal presupposto che la tecnologia salverà tante vite).