Intercettazioni e riconoscimento biometrico: l’IA ad alto rischio

Le intercettazioni e il riconoscimento biometrico sono tra gli strumenti di controllo personale più temuti, perché viaggiano su un confine sottile tra sorveglianza per la sicurezza e violazione della privacy. Con l’applicazione di software di intelligenza artificiale il loro utilizzo solleva ancor più perplessità, sia a livello giuridico che etico. In Italia, le intercettazioni telefoniche sono state spesso argomento centrale nel dibattito politico, anche alla luce della stretta inserita nella legge Nordio (accolta con molte polemiche). L’intelligenza artificiale ha complicato la percezione delle intercettazioni perché le rende più precise, riducendo il margine d’errore, ma allo stesso tempo apre lo spazio a svariati problemi.

L’IA può essere impiegata per scremare un gran numero di dati, identificando le parole chiave in un tempo estremamente ridotto rispetto alla classica maniera di intercettare le telefonate dei sospettati. Questo riduce di molto i tempi della giustizia e fornisce risultati più precisi, trovando informazioni che potrebbero sfuggire all’orecchio umano. Inoltre, i sistemi di IA per le intercettazioni possono essere addestrati per individuare determinati contenuti come le minacce di terrorismo. Tutti questi benefici, però, si scontrano con i rischi etici che il suo utilizzo comporta, ovvero, l’intelligenza artificiale acuirebbe i problemi che già sono connessi alle intercettazioni telefoniche, come l’intrusione nella vita privata, la violazione della privacy e gli eventuali abusi e alterazioni che ne potrebbero scaturire. Con i software di intelligenza artificiale è possibile alterare, in modo quasi perfetto, la voce delle persone. Questo fattore, se applicato alle intercettazioni, potrebbe creare seri problemi giuridici. Dato che l’IA ha reso estremamente facile manipolare voce e dialoghi, c’è bisogno di una più attenta validazione delle prove.

Come per le intercettazioni telefoniche, anche il riconoscimento facciale crea un ampio dibattito tra chi vorrebbe un maggior accesso alle informazioni dei singoli e chi lancia allarmi su eventuali perdite di libertà individuali. Questo è stato argomento di forte discussione, anche in sede europea, durante la redazione dell’AI Act. Attraverso il riconoscimento biometrico si riesce a ottenere una grande quantità di dati e informazioni su una persona. Questo aiuterebbe in sede giudiziaria ad individuare un sospettato o raccogliere prove per un reato. Allo stesso modo delle intercettazioni telefoniche, spesso prova inconfutabile, il riconoscimento facciale è una lama a doppio taglio, perché implica ottenere informazioni, conversazioni o dati senza il consenso della persona in questione, e soprattutto, varcare la linea tra reato e sfera privata. Per questo motivo, il riconoscimento biometrico è stato un punto di impasse nella discussione sull’AI Act. Alla fine, l’UE ha optato per il divieto, tranne che in casi specifici. L’utilizzo del riconoscimento facciale è limitato a determinate fattispecie di reato particolarmente gravi, come la prevenzione di atti terroristici, la ricerca di persone scomparse per sospetta tratta di esseri umani, o l’individuazione di sospetti di reati. In tutti gli altri casi, invece, valgono le norme del GDPR sul rispetto della privacy.

Il Regolamento europeo ha introdotto esplicitamente il divieto di sviluppare sistemi di intelligenza artificiale che servono alla valutazione e classificazione delle persone in base a caratteristiche e comportamenti, poiché un bias discriminatorio sarebbe molto pericoloso. I sistemi biometrici che classificano le persone sulla base dell’etnia e di orientamenti politici e religiosi sono vietati, perché inducono ad un comportamento sociale pregiudizievole.

Il Regolamento europeo ha introdotto esplicitamente il divieto di sviluppare sistemi di intelligenza artificiale che servono alla valutazione e classificazione delle persone in base a caratteristiche e comportamenti, poiché un bias discriminatorio sarebbe molto pericoloso. I sistemi biometrici che classificano le persone sulla base dell’etnia e di orientamenti politici e religiosi sono vietati, perché inducono ad un comportamento sociale pregiudizievole.

I pericoli di cui tiene conto il Regolamento europeo sono relativi alla possibilità di creare, grazie all’intelligenza artificiale, potenti strumenti di manipolazione, sfruttamento e controllo sociale. A causa del suo alto rischio di pericolosità, l’UE ha posto il divieto assoluto per i sistemi di riconoscimento biometrico in tempo reale, al fine di evitare discriminazioni e trattamenti pregiudiziali da parte delle autorità, oltre che una possibile deriva autoritaria di controllo della società. Sul piano etico, infatti, si paventa una forte possibilità di trasformare questo strumento di sicurezza in oggetto di controllo e sorveglianza continua, avvicinando la società ad un assetto non lontano dal distopico 1984.

Come sappiamo, l’AI Act classifica le applicazioni in base al rischio. Le applicazioni classificate come High-risk sono quelle che si trovano a contatto diretto con le persone e vengono usate per la loro sicurezza, come dispositivi medici, auto, giocattoli, ecc. Tra gli strumenti ad alto rischio ci sono anche i sistemi di riconoscimento biometrico e quelli per il riconoscimento emotivo. Le forze dell’ordine, però, non possono accedere a questi sistemi basandosi solo ed esclusivamente sulle informazioni del profilo, proibito dall’articolo 5 del Regolamento. Per ricorrere al loro utilizzo è necessario svolgere una valutazione di proporzionalità e necessità.
Proprio a questo proposito, il Parlamento ha introdotto la FRIA (Fundamental Rights Impact Assessment), per garantire che l’uso e l’applicazione degli strumenti di intelligenza artificiale non ledano in alcun modo i diritti e le libertà dell’essere umano. Tutte le tecnologie considerate e classificate ad alto rischio devono superare una rigida valutazione di impatto, per limitare i rischi che possano derivare da un loro utilizzo. La gestione del rischio era stata già stabilita dalla bozza del Consiglio europeo, ma con l’introduzione dell’articolo 29, che prevede l’obbligo per coloro che implementano tali sistemi di fare una valutazione di impatto sulla società, il Parlamento europeo ha voluto modificarlo in obbligo, ampliando l’attenzione posta sui diritti umani.

Per tutelare i cittadini europei, la normativa impone alle autorità di rendere trasparente qualsiasi utilizzo di tecnologie di intelligenza artificiale anche per le intercettazioni telefoniche. Inoltre, la decisione finale deve essere presa da un essere umano. Si tratta di strumenti che aiutano e facilitano i giudici nell’analisi di un caso giuridico, ma non devono esserne i sostituti. I legislatori europei ci hanno tenuto a sottolineare questa precauzione proprio per mantenere un equilibrio tra lo sfruttamento delle nuove tecnologie e il rispetto della privacy e dei diritti umani fondamentali.

Per tutelare i cittadini europei, la normativa impone alle autorità di rendere trasparente qualsiasi utilizzo di tecnologie di intelligenza artificiale anche per le intercettazioni telefoniche. Inoltre, la decisione finale deve essere presa da un essere umano. Si tratta di strumenti che aiutano e facilitano i giudici nell’analisi di un caso giuridico, ma non devono esserne i sostituti. I legislatori europei ci hanno tenuto a sottolineare questa precauzione proprio per mantenere un equilibrio tra lo sfruttamento delle nuove tecnologie e il rispetto della privacy e dei diritti umani fondamentali.

Le intercettazioni, e ancor di più il riconoscimento biometrico, sono considerati strumenti molto invasivi nella vita delle persone. L’Europa ha voluto impedire un uso indiscriminato e non regolamentato di queste tecnologie per evitare ogni abuso e manipolazione che ne possano derivare. Il bilanciamento tra il rispetto dei diritti e della privacy delle persone e i rischi e i pericoli di ordine e sicurezza è fondamentale. Proprio questo bilanciamento è alla base della valutazione di impatto che le autorità sono tenute a svolgere, come stanno facendo, ad esempio, per le telecamere con riconoscimento facciale installate nella metropolitana di Roma, il faceboarding nell’aeroporto di Linate o la Smart Control Room di Venezia. Sono tutti casi limite tra sicurezza e sorveglianza ed è necessario non far degenerare le loro applicazioni in potenziali strumenti di controllo.

Hai un articolo nel cassetto? Legal Tech Magazine è sempre alla ricerca di nuove voci attraverso cui raccontare l’evoluzione del settore. Puoi sottoporci la tua proposta attraverso il seguente form: avremo cura di leggerla e di valutarne la pubblicazione.

Non solo un Magazine, ma anche una Mappa, un Forum, un Report e un’Academy. Se ti interessano i progetti di Legal Tech Italy e desideri ricevere aggiornamenti sulle sue iniziative presenti e future, iscriviti alla newsletter e non perderti nessuna novità.