AI Act: un passo storico per l’UE

Il 9 dicembre 2023 si è concluso il trìlogo (l’incontro tra i rappresentanti di Parlamento, Consiglio e Commissione UE) per la trattativa sull’AI Act, il regolamento sull’utilizzo dei sistemi di intelligenza artificiale nell’Unione europea. I tempi della politica, però, sono lunghi e ancora non abbiamo il testo ufficiale, perché dovrà essere sottoposto prima a controlli tecnici e al vaglio dei giuri-linguisti, in seguito passerà al Consiglio e infine al Parlamento europeo per la votazione.

Solo dopo tutti questi passaggi potrà essere pubblicato in Gazzetta Ufficiale. Il testo non entrerà in vigore prima di due anni, anche se i divieti avranno effetto dai sei mesi seguenti alla pubblicazione. Con questo regolamento l’Unione europea ha deciso di intervenire sulla materia in anticipo rispetto ad altri paesi: si tratta infatti del primo testo al mondo.

Dopo 36 ore di discussione, le istituzioni europee hanno raggiunto l’accordo informale sull’IA. La presidente del Parlamento europeo Roberta Metsola lo ha definito “un momento storico per l’Europa digitale”. Con questa normativa, l’UE ha voluto garantire un utilizzo dell’intelligenza artificiale sicuro e rispettoso dei diritti fondamentali dei cittadini europei.

Una normativa human-centered

L’obiettivo di questa legge è quello di regolare gli utilizzi dell’intelligenza artificiale, non quello di moderare gli strumenti che si utilizzano. Come possiamo notare dalle sue ultime evoluzioni, l’IA porta molti benefici in svariati campi di utilizzo, ma anche diversi potenziali rischi legali connessi al suo impiego.

La tecnologia deve essere sfruttata per la transizione digitale e per migliorare la crescita economica, il progresso e l’innovazione, senza però trascurare la sicurezza dei consumatori e dei cittadini europei. L’Unione è voluta intervenire proprio a tutela dei cittadini, monitorando l’uso delle IA basandosi su una misurazione del rischio.

La tecnologia deve essere sfruttata per la transizione digitale e per migliorare la crescita economica, il progresso e l’innovazione, senza però trascurare la sicurezza dei consumatori e dei cittadini europei. L’Unione è voluta intervenire proprio a tutela dei cittadini, monitorando l’uso delle IA basandosi su una misurazione del rischio.

L’accordo prevede che le aziende leader nel settore dell’intelligenza artificiale (Meta e Google) che sviluppano le loro tecnologie secondo i LLM (Large Language Model) vengano sottoposte a regolamentazioni sulla trasparenza e la sicurezza e debbano rispettare la normativa UE in materia di protezione dei dati e diritto d’autore. Inoltre, dovranno fornire anche una documentazione dettagliata relativa all’addestramento degli strumenti. Come ha sottolineato la presidente Metsola, si tratta di una normativa human-centered, ovvero a tutela del consumatore da un uso scorretto e pericoloso delle nuove tecnologie.

Centrali sono due emendamenti approvati in materia di tutela dei diritti. Il primo riguarda la possibilità di fare ricorso contro i sistemi di IA in violazione dell’AI Act, e il secondo prevede l’obbligo di una valutazione di impatto sui diritti fondamentali da parte di chi mette sul mercato sistemi di IA ad alto rischio nel settore pubblico, ovvero di una stima degli effetti che questi sistemi possono avere sui diritti delle persone. Oltre alla valutazione di impatto, è necessario un piano per limitare i danni.

Cosa vieta l’AI Act

Il regolamento prevede l’individuazione dei rischi e la previsione di contromisure per prevenire e reagire al rischio associato all’utilizzo delle IA. Nel regolamento vi è infatti una classifica di ogni sistema a seconda del grado di rischio che comporta: Minimal risk, Limited risk, High-risk, Unacceptable risk. Gli strumenti che rientrano in quest’ultima fascia saranno banditi dall’UE: tra questi rientrano le profilazioni biometriche, ovvero il riconoscimento facciale in ambito di sicurezza e videosorveglianza.

Proprio su quest’ultimo punto si è dibattuto a lungo durante il trilogo. Il riconoscimento biometrico è permesso soltanto dopo l’autorizzazione del giudice e in presenza di reati gravi. Il Consiglio UE, costituito dai singoli governi, ha insistito per avere maggiore libertà di azione sugli usi delle IA per la sorveglianza, mentre il Parlamento ha voluto un divieto esplicito, linea che ha prevalso.

Stando alla bozza del regolamento, sono permesse solo alcune eccezioni all’utilizzo del riconoscimento facciale pubblico, ovvero per la ricerca di vittime e sospetti di reati gravi e per la prevenzione di atti terroristici. È vietato utilizzare il sistema di biometria basandosi su criteri come etnia e convinzioni politiche o religiose, perché sarebbe altamente discriminatorio e pericoloso.

L’AI Act vieta anche l’uso della polizia predittiva, ovvero l’uso dell’IA per prevedere un crimine probabile basandosi su caratteristiche di personalità. Divieto anche per il riconoscimento delle emozioni nelle scuole e sui luoghi di lavoro. Allo stesso modo sono vietati anche il social scoring su caratteristiche personali e comportamenti sociali e i sistemi che tentano di manipolare e influenzare le persone.

Se le aziende non rispetteranno questi divieti saranno sanzionate per 35 milioni di euro o per il 7% del loro fatturato. Per chi verrà meno agli obblighi dell’AI Act è prevista invece una sanzione di 15 milioni di euro o del 3% del fatturato.

Equilibrio tra innovazione e protezione

È ancora presto per fare valutazioni oggettive su questo regolamento, dato che non ne si conoscono i dettagli e non vi è un testo ufficiale. Ciò che è importante è che i tre organi istituzionali dell’Unione europea sono arrivati ad un accordo politico su questa materia sempre più centrale e urgente. L’iter burocratico per regolamentare le intelligenze artificiali in Europa ha mosso i primi passi già nel 2018, in anticipo sul resto del mondo, e ha accelerato il processo legislativo proprio con l’esplosione delle generative nell’ultimo anno.

L’accordo non è stato facile, perché le posizioni dei governi si sono scontrate con quelle delle istituzioni europee. Da una parte i governi volevano più mano libera sui sistemi di sorveglianza, e dall’altra l’UE ha spinto verso maggiori limitazioni per tutelare i diritti dei cittadini europei. Le resistenze maggiori sono arrivate dalle tre superpotenze europee, Germania, Francia e Italia, che hanno rischiato di ostacolare l’AI Act sostenendo che restrizioni troppo severe mettano a rischio il progresso dell’UE nell’intelligenza artificiale.

Dalle parti di Bruxelles però sottolineano che non verrà ostacolata l’innovazione delle IA all’interno dell’UE, ma garantiscono che al centro dello sviluppo tecnologico dovranno essere garantiti i diritti e le libertà delle persone. Questa legge si propone di trovare il giusto equilibrio tra innovazione e protezione, tra sviluppo e tutela. I diritti del cittadino restano il punto focale intorno a cui si muove questa regolamentazione, dall’addestramento degli strumenti ai rischi ad essi connessi. Una legge storica che mette in chiaro in che direzione deve andare il futuro delle intelligenze artificiali.



Hai un articolo nel cassetto? Legal Tech Magazine è sempre alla ricerca di nuove voci attraverso cui raccontare l’evoluzione del settore. Puoi sottoporci la tua proposta attraverso il seguente form: avremo cura di leggerla e di valutarne la pubblicazione.

Non solo un Magazine, ma anche una Mappa, un Forum, un Report e un’Academy. Se ti interessano i progetti di Legal Tech Italy e desideri ricevere aggiornamenti sulle sue iniziative presenti e future, iscriviti alla newsletter e non perderti nessuna novità.