Le strade intelligenti (smart road) e i veicoli autonomi stanno per entrare a far parte del nostro quotidiano. Le sperimentazioni in corso hanno avuto una grande spinta dai recenti progressi dell’intelligenza artificiale, restano tuttavia ancora da sciogliere i dubbi giuridici ed etici che bloccano il processo normativo.
Intorno a questi due nuovi prodotti gravitano anche nuove questioni legate alla responsabilità civile e penale dei veicoli, difficili da sbrigliare a livello giuridico. Sia le smart road, ma soprattutto i veicoli autonomi sono una grande sfida per i produttori e i legislatori che devono regolamentarli, oltre che per la responsabilità, anche per quanto riguarda la privacy e la sicurezza informatica.
Cos’è una smart road?
Una
In Italia, la normativa di riferimento per le
Nonostante abbia molti lati positivi, le smart road per funzionare richiedono una massiccia condivisione di dati, per cui rappresentano un rischio per la sicurezza informatica e per la tutela della privacy. Per quanto riguarda la sicurezza informatica, resta il rischio di interferenza e irruzione nel sistema di controllo: queste possono causare problemi anche gravi, come un blocco del funzionamento o dirottamenti.
In relazione alla tutela della privacy, c’è il pericolo che i dati che vengono condivisi tra veicoli e con le infrastrutture vengano rubati, incluse le informazioni personali degli utenti. Per mitigare questi rischi è indispensabile progettare i veicoli avendo cura della sicurezza informatica, rendendo quindi sia le infrastrutture che i veicoli più affidabili, e aumentare la sicurezza stradale. Questa è la priorità dell’Unione Europea, che infatti ha classificato tutti i prodotti aventi alla base un sistema di intelligenza artificiale ad alto rischio.
In relazione alla tutela della privacy, c’è il pericolo che i dati che vengono condivisi tra veicoli e con le infrastrutture vengano rubati, incluse le informazioni personali degli utenti. Per mitigare questi rischi è indispensabile progettare i veicoli avendo cura della sicurezza informatica, rendendo quindi sia le infrastrutture che i veicoli più affidabili, e aumentare la sicurezza stradale. Questa è la priorità dell’Unione Europea, che infatti ha classificato tutti i prodotti aventi alla base un sistema di intelligenza artificiale ad alto rischio.
Cosa sono i veicoli autonomi
Il tema delle
L’auto è progettata con una serie di sensori e di sistemi avanzati basati sull’IA che le permette di prendere decisioni autonome, elaborando le informazioni dell’ambiente circostante. Si tratta di veicoli con i massimi livelli di automazione, il 4 e il 5 secondo gli standard individuati dalla
L’AV (
Chi è responsabile?
I dubbi etici e gli interrogativi giuridici riguardo alla responsabilità in caso di incidente sono complessi da risolvere. Se il veicolo è al comando, è responsabile di ciò che accade? E come può un mezzo avere una responsabilità giuridica? Può un algoritmo essere imputabile di reato e quindi punibile?
I recenti sviluppi del
Il processo di addestramento dei modelli di intelligenza artificiale è molto delicato, proprio perché si tratta di mezzi potenzialmente pericolosi. Devono essere dunque sistemi reattivi ma anche proattivi, cioè capaci di individuare un output errato e modificare l’intervento, ma anche di prevenirlo e evitarne le conseguenze tramite un meccanismo di resilienza che si attivi in caso di guasti o incidenti. La sicurezza della catena di approvvigionamento è un elemento chiave della cyber sicurezza, e in questo caso può essere vitale. Da ciò nasce l’esigenza di avere una filiera produttiva sicura per monitorare ogni possibile rischio.
La politica europea sta concentrando la sua attenzione in modo particolare sul delineare specifici requisiti sulla sicurezza e garantire l’armonizzazione dei codici della strada in tutta l’area dell’Unione. Il rispetto della normativa e il monitoraggio costante della
Attualmente, il quadro normativo relativo alla responsabilità in ambito di guida autonoma è ancora in fase di definizione a livello globale. Il problema principale nasce dal fatto che ancora non esiste una definizione condivisa a livello internazionale di “veicolo autonomo”, e che le legislazioni nazionali disciplinano in modo diverso la responsabilità penale e civile, rappresentando un ostacolo al processo di armonizzazione.
Attualmente, il quadro normativo relativo alla responsabilità in ambito di guida autonoma è ancora in fase di definizione a livello globale. Il problema principale nasce dal fatto che ancora non esiste una definizione condivisa a livello internazionale di “veicolo autonomo”, e che le legislazioni nazionali disciplinano in modo diverso la responsabilità penale e civile, rappresentando un ostacolo al processo di armonizzazione.
Per quanto riguarda la responsabilità penale, di base la normativa prevede che in caso di incidente la colpa (o il dolo) debba essere imputata al conducente per mancata osservazione del codice della strada. Nel caso di questi veicoli, la normativa vigente non può essere applicata. La responsabilità potrebbe ricadere su chi sviluppa e produce il veicolo, perché in questo caso il danno sarebbe causato da un difetto di progettazione e una mancata valutazione del rischio. In particolare, si potrebbe ritenere responsabile lo sviluppatore del software che si occupa di tutta la sicurezza informatica del veicolo.
Essendo ogni caso diverso, valutare ogni singola fattispecie, tenendo conto di tutti i fattori che contribuiscono all’accaduto, è l’unica scelta plausibile al momento. Inoltre, i veicoli autonomi dovranno essere dotati di dispositivi digitali che registreranno i dati e potranno essere utilizzati come prova forense per ricostruire le cause e le dinamiche degli incidenti. L’autonomia decisionale nei veicoli ai massimi livelli di automazione e i multipli attori che sono coinvolti nella loro realizzazione non rendono facile la decisione di un unico responsabile.
La complessità deriva anche dalla responsabilità degli algoritmi. Questi, infatti, una volta che sono stati addestrati, sono in grado di prendere decisioni autonomamente e se questo da una parte agevola il compito umano, dall’altra si rischia di perdere il controllo dell’algoritmo, il cui funzionamento risulta essere estremamente complesso e difficile da interpretare anche per chi lo sviluppa. Qui entra in gioco la trasparenza, perché una volta implementato l’algoritmo risulta essere oscuro anche agli stessi sviluppatori.
Nell’eventualità che quest’ultimo prenda una decisione sbagliata, è difficile risalire alle cause di tale errore. Tuttavia, a livello giuridico, se è l’algoritmo ad essere responsabile di un danno, a chi si imputa la colpa? Neanche qui vi è una risposta certa, sia perché nel processo di creazione e sviluppo di un algoritmo sono coinvolti vari soggetti (lo sviluppatore, l’azienda che lo implementa, il produttore del veicolo) sia perché non si può incriminare una macchina. Secondo queste circostanze, vi sarebbe una responsabilità collettiva da condividere.
La questione della responsabilità resta ancora un groviglio da sciogliere, ma è importante che i produttori e i governi collaborino per definire un quadro normativo che abbia come faro la sicurezza delle persone.
Le implicazioni etiche della guida autonoma
Il discorso giuridico non è l’unico ancora dibattuto: a questo si lega inevitabilmente la questione etica da affrontare. Come sappiamo, per quanto intelligenti, i software di intelligenza artificiale non sono dotati di etica, di conseguenza, seppur capaci di prendere decisioni in maniera autonoma in base a determinati fattori, non sono in grado di fare scelte fondate su un ragionamento etico.
Alcuni pongono al centro del dibattito etico sui veicoli autonomi il
Anche se siamo dotati di etica, tali dilemmi mettono in crisi anche il nostro sistema decisionale. Spesso gli esseri umani prendono decisioni poco etiche, oppure basate su preconcetti inconsci. Questi stessi pregiudizi si trasformano in bias insiti nell’addestramento dei modelli artificiali, i quali vengono trasferiti nel loro processo di scelta. Pertanto, malgrado non possiamo affidarci all’etica, possiamo programmare algoritmi che siano in grado di prendere decisioni giuste senza pregiudizi, forse anche meglio di noi.
Conclusione
Le
In conclusione, la questione della responsabilità penale in caso di incidente con un veicolo autonomo è destinata a rimanere al centro del dibattito pubblico e giuridico nei prossimi anni. Il design, lo sviluppo, l’implementazione, la fase di test e il monitoraggio di questi mezzi sono parte di un processo complesso, ogni tappa influenza l’efficienza del prodotto e ognuno ha la sua parte di responsabilità. È fondamentale che le istituzioni, i produttori e la società civile collaborino per definire un quadro normativo chiaro, coerente ed etico che garantisca la sicurezza intrinseca ed estrinseca (safety e security) degli utenti e renda questi veicoli trasparenti e affidabili perché diventino una risorsa per la società.
Riferimenti
Machine Law, Ethics, and morality in the Age of Artificial Intelligence, Steven John Thompson, University of California, 2020



