Primo trattato sull’intelligenza artificiale e Summit sulla sicurezza dell’IA: i passi verso la regolamentazione globale

Il Consiglio d’Europa (da non confondere con il Consiglio europeo) lo scorso 17 maggio ha approvato il primo trattato sull’intelligenza artificiale, diventato giuridicamente vincolante nel settembre 2024. Il trattato è volto a garantire il rispetto dei diritti umani, della democrazia e dello Stato di diritto. 
Il documento è il frutto del lavoro dell’organismo intergovernativo del Comitato sull’intelligenza artificiale (CAI) di cui fanno parte i 46 Stati membri dell’Unione europea e Stati Uniti, Argentina, Australia, Canada, Costa Rica, Giappone, Israele, Messico, Perù, Vaticano e Uruguay, insieme a rappresentanti del settore privato e accademici.  

La Convenzione quadro firmata da questi paesi stabilisce un quadro giuridico relativo all’intero ciclo di vita dei sistemi di intelligenza artificiale, tenendo conto dei rischi che possono presentarsi. L’approccio, come l’AI Act, si basa sull’analisi del rischio in tutte le fasi di “vita” dei sistemi, ovvero da quella di progettazione a quella di utilizzo, e perfino a quella della loro disattivazione. Oggetto di questa convenzione sono sia i sistemi utilizzati nel settore pubblico, sia quelli usati dalle aziende nel settore privato. Le parti che si sono impegnate in questo trattato devono adottare misure per identificare, valutare, prevenire e limitare tutti i possibili rischi che derivano dalle tecnologie di intelligenza artificiale.  Laddove i rischi siano incompatibili con i diritti umani, i paesi e le aziende devono valutare misure moratorie e divieti riguardo l’utilizzo di questi software e garantire procedure e vie di ricorso per le vittime di violazioni. La Convenzione quadro vuole prevenire eventuali conseguenze negative che i sistemi possono provocare e assicurare un uso responsabile nel rispetto dei diritti. Per questo, sono necessari controlli e monitoraggi al fine di misurare e mitigare i rischi. Inoltre, deve essere assicurata la responsabilità giuridica per gli impatti negativi. 

I principi cardine da tutelare sono il divieto di discriminazione e la privacy in ogni circostanza. La Convenzione mira alla massima trasparenza dei processi che si nascondono dietro i sistemi di intelligenza artificiale e cerca di limitare il più possibile i pericoli per tutelare i cittadini. Inoltre, gli Stati devono assicurare che i sistemi non vengano utilizzati per compromettere le istituzioni e l’accesso alla giustizia.  

I principi cardine da tutelare sono il divieto di discriminazione e la privacy in ogni circostanza. La Convenzione mira alla massima trasparenza dei processi che si nascondono dietro i sistemi di intelligenza artificiale e cerca di limitare il più possibile i pericoli per tutelare i cittadini. Inoltre, gli Stati devono assicurare che i sistemi non vengano utilizzati per compromettere le istituzioni e l’accesso alla giustizia.  

Vi è una chiara volontà di procedere verso il progresso, non trascurando i diritti fondamentali e i trattati internazionali sanciti e garantiti fin qui. Il trattato è stato redatto con uno spirito collaborativo di cooperazione internazionale, essendo stato aperto anche ad altri paesi al di fuori del continente europeo. Gli obiettivi delineati sono chiari e i paesi hanno facoltà di agire in modo autonomo, fermo restando sulle finalità da raggiungere. La dignità umana deve essere al centro di ogni sviluppo e vanno definite le rispettive responsabilità. 

La Convenzione quadro ha una portata storica e insieme all’AI Summit di Seul mostra un impegno globale di cooperazione per lo sviluppo trasparente e sicuro delle nuove tecnologie. Il vertice di Seul è stato improntato sulla necessità di impegnarsi per la sicurezza dell’IA e ha visto coinvolte le principali aziende leader nel settore (Google, Amazon, Anthropic, Microsoft, OpenAI, Meta). Anche se le decisioni prese non sono giuridicamente vincolanti, sono stati delimitati i confini oltre i quali i rischi non sono più tollerabili e si dovrebbe procedere con la disattivazione dei software. Co-organizzato da Gran Bretagna e Corea del Sud, il summit ha riunito rappresentanti governativi e dirigenti delle big tech per discutere delle misure di sicurezza da prendere. Ne è conseguita la creazione di una rete internazionale di sicurezza per l’IA che coinvolge 10 paesi più l’Unione europea affinché questi siano il più allineati possibile nello sviluppo delle nuove tecnologie in materia di sicurezza, lavorando in modo coordinato sia in fase di sviluppo che di test. Le 16 aziende, le principali sulla scena globale al momento, si impegnano in uno sviluppo sicuro e responsabile della tecnologia individuando prontamente le minacce.  

Anche qui, la visione antropocentrica è il focus principale. Procedere all’innovazione e al progresso, sempre però in funzione della persona, salvaguardando i suoi diritti e le sue libertà. L’Unione europea, ancora una volta con quest’ulteriore partecipazione, ha dimostrato un atteggiamento pionieristico e si pone come precursore nella regolamentazione delle nuove tecnologie, così come hanno fatto la Corea del Sud e, su tutti, il Regno Unito. Il grande potenziale di questi nuovi sviluppi tecnologici necessita di confini per limitare gli impatti negativi. I paesi più sviluppati hanno compreso che è preferibile un approccio collaborativo a livello globale piuttosto che viaggiare ognuno per conto suo, cosa che potrebbe creare più danni che benefici. Solo attraverso standard condivisi non si avranno sorprese e il progresso tecnologico sarà vantaggioso per tutti.

A distanza di ormai un anno da questi vertici, l’intelligenza artificiale ha continuato ad evolversi, così come i rischi ad essa associati. Per questo è opportuno continuare su questa strada di collaborazione internazionale per regolamentare al meglio tutti gli aspetti di questa nuova tecnologia.

Il corso analizza l’impatto dell’Intelligenza Artificiale e del Metaverso nella professione forense, analizzandone gli sviluppi e illustrando i cambiamenti introdotti da queste tecnologie innovative nella teoria e nella pratica giuridica. Verranno individuate le opportunità offerte dal loro ingresso in campo, le implicazioni etiche e sociali legate al loro utilizzo, ma anche le insidie che possono nascondere.

Hai un articolo nel cassetto? Legal Tech Magazine è sempre alla ricerca di nuove voci attraverso cui raccontare l’evoluzione del settore. Puoi sottoporci la tua proposta attraverso il seguente form: avremo cura di leggerla e di valutarne la pubblicazione.

Non solo un Magazine, ma anche una Mappa, un Forum, un Report e un’Academy. Se ti interessano i progetti di Legal Tech Italy e desideri ricevere aggiornamenti sulle sue iniziative presenti e future, iscriviti alla newsletter e non perderti nessuna novità.