Smart road e veicoli autonomi: di chi è la responsabilità?

Le strade intelligenti (smart road) e i veicoli autonomi stanno per entrare a far parte del nostro quotidiano. Le sperimentazioni in corso hanno avuto una grande spinta dai recenti progressi dell’intelligenza artificiale, restano tuttavia ancora da sciogliere i dubbi giuridici ed etici che bloccano il processo normativo.

Intorno a questi due nuovi prodotti gravitano anche nuove questioni legate alla responsabilità civile e penale dei veicoli, difficili da sbrigliare a livello giuridico. Sia le smart road, ma soprattutto i veicoli autonomi sono una grande sfida per i produttori e i legislatori che devono regolamentarli, oltre che per la responsabilità, anche per quanto riguarda la privacy e la sicurezza informatica.

Cos’è una smart road?

Una smart road (strada intelligente) è un’infrastruttura dotata di tecnologie basate sull’intelligenza artificiale. Tali software e sensori consentono ai veicoli e alle altre infrastrutture stradali di comunicare tra di loro, condividendo dati relativi alle condizioni meteo, al traffico, allo stato della strada e altre informazioni utili che possono influenzare la guida, come la presenza di ostacoli, pedoni, ciclisti e altri agenti vulnerabili, identificandoli tempestivamente per agire di conseguenza. L’implementazione di queste strade renderebbe la guida più efficiente e sicura sia per i guidatori che per i pedoni, grazie a vari livelli di connettività: V2I (Vehicle-to-Infrastructure), V2V (Vehicle-to-Vehicle) e V2P(Vehicle-to-Pedestrian).

In Italia, la normativa di riferimento per le smart road è la legge di bilancio del 2018 – aggiornata con il Decreto Smart Road – che ha autorizzato la sperimentazione di queste soluzioni innovative. L’obiettivo è raccogliere dati in tempo reale per prevenire incidenti e gestire il traffico in modo più intelligente. Si tratta di una vera e propria rivoluzione della mobilità che sfrutta l’intelligenza artificiale per ottimizzare la circolazione adattandosi alle circostanze ambientali.

Nonostante abbia molti lati positivi, le smart road per funzionare richiedono una massiccia condivisione di dati, per cui rappresentano un rischio per la sicurezza informatica e per la tutela della privacy. Per quanto riguarda la sicurezza informatica, resta il rischio di interferenza e irruzione nel sistema di controllo: queste possono causare problemi anche gravi, come un blocco del funzionamento o dirottamenti.

In relazione alla tutela della privacy, c’è il pericolo che i dati che vengono condivisi tra veicoli e con le infrastrutture vengano rubati, incluse le informazioni personali degli utenti. Per mitigare questi rischi è indispensabile progettare i veicoli avendo cura della sicurezza informatica, rendendo quindi sia le infrastrutture che i veicoli più affidabili, e aumentare la sicurezza stradale. Questa è la priorità dell’Unione Europea, che infatti ha classificato tutti i prodotti aventi alla base un sistema di intelligenza artificiale ad alto rischio.

In relazione alla tutela della privacy, c’è il pericolo che i dati che vengono condivisi tra veicoli e con le infrastrutture vengano rubati, incluse le informazioni personali degli utenti. Per mitigare questi rischi è indispensabile progettare i veicoli avendo cura della sicurezza informatica, rendendo quindi sia le infrastrutture che i veicoli più affidabili, e aumentare la sicurezza stradale. Questa è la priorità dell’Unione Europea, che infatti ha classificato tutti i prodotti aventi alla base un sistema di intelligenza artificiale ad alto rischio.

Cosa sono i veicoli autonomi

Il tema delle smart road va di pari passo con i veicoli autonomi. Questi veicoli sono appunto capaci di guidarsi da soli, senza l’ausilio di un conducente umano.

L’auto è progettata con una serie di sensori e di sistemi avanzati basati sull’IA che le permette di prendere decisioni autonome, elaborando le informazioni dell’ambiente circostante. Si tratta di veicoli con i massimi livelli di automazione, il 4 e il 5 secondo gli standard individuati dalla Society of automotive engineers (SAE). Mentre nei primi due livelli vi è l’assistenza automatica del conducente (come il cruise control), al livello 3 e 4 l’automazione è completa, cioè il veicolo è in grado di guidare da solo, ma potrebbe richiedere l’intervento umano in determinate circostanze. Di conseguenza, il guidatore umano è al comando del veicolo. Nel massimo livello (il 5), invece, non c’è bisogno di alcun intervento esterno. Secondo la SAE, entro il 2030 dovrebbero essere pronti al collaudo i veicoli a guida interamente autonoma.

L’AV (autonomous vehicle) è un mezzo che prende decisioni in modo autonomo: è al comando di quello che accade, il che rappresenta una grossa sfida per la sicurezza perché vi sono molti fattori esterni (ostacoli, condizioni meteorologiche avverse, altri mezzi sulla strada…) che possono mettere in crisi il sistema. Inoltre, centrale dal punto di vista giuridico è il tema della responsabilità. Se nei primi livelli di automazione dei veicoli, già in commercio da un po’, la responsabilità resta del guidatore umano, nei veicoli a livello di automazione massima, che non hanno bisogno dell’intervento umano, di chi è la responsabilità? A questo quesito stanno cercando di dare risposta produttori e legislatori, sperando di trovare quanto prima un quadro normativo che risponda a tutti i dubbi giuridici ed etici che emergono da questa innovazione.

Chi è responsabile?

I dubbi etici e gli interrogativi giuridici riguardo alla responsabilità in caso di incidente sono complessi da risolvere. Se il veicolo è al comando, è responsabile di ciò che accade? E come può un mezzo avere una responsabilità giuridica? Può un algoritmo essere imputabile di reato e quindi punibile?

I recenti sviluppi del machine learning hanno dato una forte spinta allo sviluppo di veicoli automatici, portando però anche molte situazioni critiche da risolvere. Nel caso di un incidente causato da un guasto informatico, può essere individuata la colpa in colui che ha sviluppato il sistema alla base del veicolo, ma non è così semplice trovare un colpevole. Il sistema informatico alla base dell’auto è il centro di controllo che ne garantisce l’efficacia e la sicurezza: per questo deve essere convalidato considerando tutti gli eventi inaspettati, in modo da rendere il veicolo in grado di evitarli.

Il processo di addestramento dei modelli di intelligenza artificiale è molto delicato, proprio perché si tratta di mezzi potenzialmente pericolosi. Devono essere dunque sistemi reattivi ma anche proattivi, cioè capaci di individuare un output errato e modificare l’intervento, ma anche di prevenirlo e evitarne le conseguenze tramite un meccanismo di resilienza che si attivi in caso di guasti o incidenti. La sicurezza della catena di approvvigionamento è un elemento chiave della cyber sicurezza, e in questo caso può essere vitale. Da ciò nasce l’esigenza di avere una filiera produttiva sicura per monitorare ogni possibile rischio.

La politica europea sta concentrando la sua attenzione in modo particolare sul delineare specifici requisiti sulla sicurezza e garantire l’armonizzazione dei codici della strada in tutta l’area dell’Unione. Il rispetto della normativa e il monitoraggio costante della compliance è un altro tema di rilievo, su cui si sta lavorando attraverso lo sviluppo di dispositivi simili alle scatole nere, utilizzabili per decretare le responsabilità di eventuali danni.

Attualmente, il quadro normativo relativo alla responsabilità in ambito di guida autonoma è ancora in fase di definizione a livello globale. Il problema principale nasce dal fatto che ancora non esiste una definizione condivisa a livello internazionale di “veicolo autonomo”, e che le legislazioni nazionali disciplinano in modo diverso la responsabilità penale e civile, rappresentando un ostacolo al processo di armonizzazione. 

Attualmente, il quadro normativo relativo alla responsabilità in ambito di guida autonoma è ancora in fase di definizione a livello globale. Il problema principale nasce dal fatto che ancora non esiste una definizione condivisa a livello internazionale di “veicolo autonomo”, e che le legislazioni nazionali disciplinano in modo diverso la responsabilità penale e civile, rappresentando un ostacolo al processo di armonizzazione.

Per quanto riguarda la responsabilità penale, di base la normativa prevede che in caso di incidente la colpa (o il dolo) debba essere imputata al conducente per mancata osservazione del codice della strada. Nel caso di questi veicoli, la normativa vigente non può essere applicata. La responsabilità potrebbe ricadere su chi sviluppa e produce il veicolo, perché in questo caso il danno sarebbe causato da un difetto di progettazione e una mancata valutazione del rischio. In particolare, si potrebbe ritenere responsabile lo sviluppatore del software che si occupa di tutta la sicurezza informatica del veicolo. In altri casi, potrebbe essere responsabile il proprietario del veicolo, che assume una posizione di garanzia e di supervisione del veicolo, per cui in alcuni casi potrebbe intervenire per evitare un danno. Qualora non intervenisse, si potrebbe considerare un’omissione attiva da parte sua ad aver causato l’evento dannoso. Anche qui non è semplice determinare se l’azione di carattere omissiva è da reputare attiva, e quindi colposa, o no.

Essendo ogni caso diverso, valutare ogni singola fattispecie, tenendo conto di tutti i fattori che contribuiscono all’accaduto, è l’unica scelta plausibile al momento. Inoltre, i veicoli autonomi dovranno essere dotati di dispositivi digitali che registreranno i dati e potranno essere utilizzati come prova forense per ricostruire le cause e le dinamiche degli incidenti. L’autonomia decisionale nei veicoli ai massimi livelli di automazione e i multipli attori che sono coinvolti nella loro realizzazione non rendono facile la decisione di un unico responsabile.

La complessità deriva anche dalla responsabilità degli algoritmi. Questi, infatti, una volta che sono stati addestrati, sono in grado di prendere decisioni autonomamente e se questo da una parte agevola il compito umano, dall’altra si rischia di perdere il controllo dell’algoritmo, il cui funzionamento risulta essere estremamente complesso e difficile da interpretare anche per chi lo sviluppa. Qui entra in gioco la trasparenza, perché una volta implementato l’algoritmo risulta essere oscuro anche agli stessi sviluppatori.

Nell’eventualità che quest’ultimo prenda una decisione sbagliata, è difficile risalire alle cause di tale errore. Tuttavia, a livello giuridico, se è l’algoritmo ad essere responsabile di un danno, a chi si imputa la colpa? Neanche qui vi è una risposta certa, sia perché nel processo di creazione e sviluppo di un algoritmo sono coinvolti vari soggetti (lo sviluppatore, l’azienda che lo implementa, il produttore del veicolo) sia perché non si può incriminare una macchina. Secondo queste circostanze, vi sarebbe una responsabilità collettiva da condividere.

La questione della responsabilità resta ancora un groviglio da sciogliere, ma è importante che i produttori e i governi collaborino per definire un quadro normativo che abbia come faro la sicurezza delle persone.

Le implicazioni etiche della guida autonoma

Il discorso giuridico non è l’unico ancora dibattuto: a questo si lega inevitabilmente la questione etica da affrontare. Come sappiamo, per quanto intelligenti, i software di intelligenza artificiale non sono dotati di etica, di conseguenza, seppur capaci di prendere decisioni in maniera autonoma in base a determinati fattori, non sono in grado di fare scelte fondate su un ragionamento etico.

Alcuni pongono al centro del dibattito etico sui veicoli autonomi il Trolley problem, un dilemma etico che pone un’auto a guida autonoma di fronte a un incidente inevitabile: sterzare a sinistra e investire un pedone, oppure continuare dritto e mettere a rischio i passeggeri a bordo. Come in ogni dilemma etico, l’ardua domanda è “qual è la scelta giusta?” Un quesito che può restare insoluto ma che solleva le polemiche di chi è restio ad affidare ad un algoritmo la scelta di determinate decisioni, tra cui quelle vitali.

Anche se siamo dotati di etica, tali dilemmi mettono in crisi anche il nostro sistema decisionale. Spesso gli esseri umani prendono decisioni poco etiche, oppure basate su preconcetti inconsci. Questi stessi pregiudizi si trasformano in bias insiti nell’addestramento dei modelli artificiali, i quali vengono trasferiti nel loro processo di scelta. Pertanto, malgrado non possiamo affidarci all’etica, possiamo programmare algoritmi che siano in grado di prendere decisioni giuste senza pregiudizi, forse anche meglio di noi.

Conclusione

Le smart road e i veicoli autonomi saranno il futuro del mercato dell’automotive e dei trasporti in generale. Come in ogni rivoluzione a cui si assiste, il periodo di rodaggio non è mai privo di insidie. Sia il diritto che la società devono affrontare nuovi quesiti e creare nuove risposte per questi attuali problemi. La sicurezza e la responsabilità in questo ambito sono di estrema priorità, e la loro complessità risiede nella natura stessa di tali innovazioni. Se da un lato offrono numerosi potenziali vantaggi in termini di sicurezza e mobilità, dall’altro pongono sfide inedite al nostro sistema giuridico, abituato a individuare in una persona fisica il responsabile di un reato.

In conclusione, la questione della responsabilità penale in caso di incidente con un veicolo autonomo è destinata a rimanere al centro del dibattito pubblico e giuridico nei prossimi anni. Il design, lo sviluppo, l’implementazione, la fase di test e il monitoraggio di questi mezzi sono parte di un processo complesso, ogni tappa influenza l’efficienza del prodotto e ognuno ha la sua parte di responsabilità. È fondamentale che le istituzioni, i produttori e la società civile collaborino per definire un quadro normativo chiaro, coerente ed etico che garantisca la sicurezza intrinseca ed estrinseca (safety e security) degli utenti e renda questi veicoli trasparenti e affidabili perché diventino una risorsa per la società.

Riferimenti

Machine Law, Ethics, and morality in the Age of Artificial Intelligence, Steven John Thompson, University of California, 2020 

Hai un articolo nel cassetto? Legal Tech Magazine è sempre alla ricerca di nuove voci attraverso cui raccontare l’evoluzione del settore. Puoi sottoporci la tua proposta attraverso il seguente form: avremo cura di leggerla e di valutarne la pubblicazione.

Non solo un Magazine, ma anche una Mappa, un Forum, un Report e un’Academy. Se ti interessano i progetti di Legal Tech Italy e desideri ricevere aggiornamenti sulle sue iniziative presenti e future, iscriviti alla newsletter e non perderti nessuna novità.