Etica e responsabilità dell’intelligenza artificiale

L’etica, sin dagli albori della nostra società, dagli antichi Greci in poi, ha avuto un ruolo fondamentale nella nostra vita e ha plasmato anche il diritto e il nostro sistema di norme. Etica e diritto hanno camminato su binari paralleli, spesso si sono incrociati e accavallati, perché l’insieme di leggi che regolano il nostro vivere si basa, in sostanza, sull’insieme di valori e principi etici.

Ci sono materie più di altre in cui la morale mette in crisi il diritto e altri casi in cui è proprio l’etica a guidare il diritto. A volte, dunque, sono in contrasto e altre volte combaciano. Nella regolamentazione di un determinato aspetto della società non si può non tenere in conto la componente morale. Quando si tratta di cambiamenti epocali e rivoluzioni tecnologiche di portata storica, come quella a cui stiamo assistendo in questi anni grazie allo sviluppo delle intelligenze artificiali generative, è inevitabile che sorgano vari dubbi e quesiti di natura etica a cui il diritto è chiamato a dare risposte per arginare naturali derive.

L’intelligenza artificiale sta portando grandi rivoluzioni nelle nostre vite e nel nostro lavoro e sta modificando anche molti aspetti della società. Come per ogni grande cambiamento, però, è normale che vi siano molte sfide etiche da affrontare. La responsabilità di come far entrare questi strumenti di intelligenza artificiale nei nostri mondi è un impegno congiunto sia dei singoli stati e delle istituzioni internazionali che degli sviluppatori che progettano i software.

La responsabilità etica per l’innovazione

La tecnologia ha portato molti benefici al nostro modo di vivere, e ogni forma di progresso ha condotto un miglioramento positivo, ma gli effetti collaterali non sono da sottovalutare. Le generative stanno destando maggior preoccupazione rispetto alle recenti scoperte in ambito IT, probabilmente perché dotate di ripercussioni e impieghi molto più vasti. Molti tra esperti e cittadini comuni sono scettici riguardo ad un loro uso in determinati ambiti a causa della paura che i software possano essere in grado di scalzare l’essere umano, volendo scongiurare un mondo dominato dalle macchine e dai robot. Di conseguenza intendono moderare l’entusiasmo collettivo nei confronti di queste tecnologie. Lo sforzo di limitare il progresso, però, è piuttosto vano e alcuni scenari pessimisti paventati si possono evitare lasciando in controllo l’essere umano e ponendo alla base di questi strumenti i suoi valori etici.

Lo scetticismo e la paura sono sentimenti normali, da non condannare, che hanno accolto nel corso della storia qualsiasi invenzione e progresso. Più il potenziale della scoperta è alto e più la responsabilità dello scienziato o programmatore è grande, perché ne faccia un uso appropriato. Il pericolo di un’invenzione ha origine da una cattiva gestione di cui proprio l’essere umano è responsabile. È stato così per l’energia atomica e per altre scoperte che hanno insito il potere di diventare un’arma. Anche un software può diventare un’arma, se utilizzata male, per questo l’etica e il diritto devono confinare questo potenziale.

I valori chiave minacciati dall’IA

Tra le preoccupazioni principali ci sono l’imparzialità e la discriminazione che possono emergere dai software. Gli strumenti di intelligenza artificiale sono addestrati su grandi moli di dati e documenti, in cui è insito il pregiudizio umano. Il bias culturale è un punto molto critico delle generative, che però può essere aggirato in fase di preliminare, addestrando i software con testi in cui non vi è presente, nemmeno in modo insito o inconsapevole, nessun pregiudizio. Ciò dipende dall’essere umano, certo non dalle macchine che non sono senzienti e non hanno una coscienza né valori etici, ma imparano da dataset che sono rappresentazioni della realtà declinate attraverso il nostro pensiero. I software, quindi, generano contenuti frutto di quel pensiero e di chi ha selezionato i dati da utilizzare per il loro apprendimento.

Il nostro condizionamento è, spesso, anche involontario, perché gli input che diamo ai software sono, anche laddove non ce ne rendiamo conto, intrisi di pregiudizi. Di conseguenza, l’output ne risulta alterato. Questi stessi pregiudizi vengono continuamente riproposti dai testi generati e continuano a circolare nella nostra società, infiltrandosi in ogni ambito, dalla giustizia al sistema sanitario e al lavoro. Tale circolo vizioso rischia di amplificare le diseguaglianze preesistenti nella società, ed è uno degli aspetti più complessi su cui intervenire e anche di difficile regolamentazione.  

Il nostro condizionamento è, spesso, anche involontario, perché gli input che diamo ai software sono, anche laddove non ce ne rendiamo conto, intrisi di pregiudizi. Di conseguenza, l’output ne risulta alterato. Questi stessi pregiudizi vengono continuamente riproposti dai testi generati e continuano a circolare nella nostra società, infiltrandosi in ogni ambito, dalla giustizia al sistema sanitario e al lavoro. Tale circolo vizioso rischia di amplificare le diseguaglianze preesistenti nella società, ed è uno degli aspetti più complessi su cui intervenire e anche di difficile regolamentazione.  

I sistemi dovrebbero essere concepiti sin dall’inizio della progettazione in modo etico, addestrati su basi dati depurate da bias. Si tratta di condizioni che possono essere certificate, ma purtroppo ancora non vengono applicate in toto. In questo contesto, deve prevalere il concetto di ethics by design – nato in ambito comunitario per l’Industria 4.0 – per evitare e prevenire esiti inaccettabili dal punto di vista etico nello sviluppo di tecnologie e innovazioni. Non è un processo semplice, ma è essenziale e necessita di maggiore trasparenza. Esistono molti progetti in cui si presta molta attenzione a questo aspetto etico nel processo di sviluppo dei software. Ne emergono, così, sistemi in linea con i diritti umani.  

Un altro aspetto etico su cui spesso sorgono numerosi dubbi sono la privacy e la sicurezza degli utenti e dei cittadini. Per essere addestrati, i sistemi di intelligenza artificiale hanno bisogno di raccogliere e analizzare grandi quantità di dati personali, e questo può comportare un’invasione nella nostra vita privata rendendoci più esposti e vulnerabili nel web. È necessario, quindi, utilizzare i dati in modo responsabile e adottare stringenti misure di sicurezza per proteggere la privacy delle persone ed evitare che finiscano in mano a malintenzionati per farne un cattivo uso. 

Il libero arbitrio e l’autonomia sono altri punti cruciali da considerare nell’interfacciarsi con i software di IA, perché tali strumenti tendono a condizionare il processo decisionale di chi li usa. Sebbene aiuti sotto vari aspetti l’essere umano, è possibile che alla lunga l’umano possa perdere la sua libertà decisionale e il suo senso critico. Non da ultimo, ci sono le questioni relative alla responsabilità. Man mano che gli algoritmi si sviluppano e diventano più autonomi, sorgono i dubbi sulla responsabilità per le loro decisioni. Stabilire quadri giuridici ed etici che affrontino la distribuzione della responsabilità diventa quindi essenziale.

L’educazione accorre in aiuto in questa fase delicata. Bisogna mettere in dubbio la veridicità di contenuti originati dalle IA e verificare i fatti, perché vi sono fin troppi casi in cui gli strumenti di generativa vengono utilizzati per creare contenuti completamente falsi e influenzare, e manipolare, il sentimento e pensiero comune, portando a catastrofiche conseguenze sulla politica e sulla società. Dato che è molto semplice creare deepfake, bisogna formare ed educare i cittadini ad utilizzarli in modo consapevole e responsabile. È necessario, perciò, creare un substrato culturale per sfruttare a pieno questa rivoluzione. Educare e sensibilizzare sull’importanza dell’etica dell’IA nei numerosi campi di utilizzo e applicazione è importante sia per il pubblico, che deve essere consapevole dei potenziali rischi e delle questioni etiche, che per coloro che lavorano allo sviluppo dei sistemi di IA. Una ricerca approfondita delle varie implicazioni etiche può limitare derive improvvise e non previste.  

La necessità della legge

Con gli sviluppi futuri dell’IA nasceranno, di certo, ulteriori quesiti etici, per questo la legge deve intervenire a delimitarne i confini. È questo quello che stanno cercando di fare le normative che si stanno delineando, in primis l’AI Act, che ha impostato una struttura etica antropocentrica cercando, cioè, di salvaguardare il più possibile l’equità, la privacy e i diritti e le libertà fondamentali.  

L’AI Act stabilisce un quadro etico che avrà bisogno di accorgimenti e adattamenti nel corso degli eventi, ma che si prefigge l’obiettivo di tracciare una strada in questa direzione. Le linee guida etiche sull’intelligenza artificiale prodotte dalla Commissione Europea – su cui è stato redatto il regolamento – sono un esempio virtuoso di come creare e sviluppare modelli affidabili e conformi alle leggi. Le indicazioni constano, in sostanza, di sette requisiti da rispettare: supervisione umana, sicurezza, privacy, trasparenza, assenza di discriminazione, sostenibilità sociale ed ambientale e responsabilità. 

L’AI Act stabilisce un quadro etico che avrà bisogno di accorgimenti e adattamenti nel corso degli eventi, ma che si prefigge l’obiettivo di tracciare una strada in questa direzione. Le linee guida etiche sull’intelligenza artificiale prodotte dalla Commissione Europea – su cui è stato redatto il regolamento – sono un esempio virtuoso di come creare e sviluppare modelli affidabili e conformi alle leggi. Le indicazioni constano, in sostanza, di sette requisiti da rispettare: supervisione umana, sicurezza, privacy, trasparenza, assenza di discriminazione, sostenibilità sociale ed ambientale e responsabilità. 

Recenti esempi di derive etiche

Attualmente esistono vari contesti che mettono in discussione l’etica dei sistemi di intelligenza artificiale. Un esempio in cui i confini possono essere fin troppo labili è la recente decisione di Meta di utilizzare i post di Facebook e Instagram degli utenti per addestrare i suoi modelli di intelligenza artificiale. Le foto e i dati – che sono ormai da tempo in possesso di Mark Zuckerberg – saranno dati in pasto ai suoi LLM. Meta ha informato gli utenti nella sua ultima informativa, precisando che è possibile non acconsentire all’utilizzo dei propri contenuti social, ma il processo di opt-out è più complesso di quanto sembra, cosa che spinge le persone ad arrendersi alla rinuncia. Inoltre, Meta specifica che può anche fare ricorso per l’opposizione di un utente. Ci si potrebbe domandare se questa richiesta, un po’ forzata da parte delle Big Tech, sia etica: le nostre immagini verrebbero infatti utilizzate per creare contenuti e output di qualcun altro in futuro.  

Anche il riconoscimento biometrico è uno degli argomenti più spinosi e più moralmente discutibili per i suoi potenziali risvolti in una sorveglianza di massa. Il suo potenziale pericoloso e invasivo nella società desta molti dubbi. Raccogliere dati personali di una persona e la possibilità di tracciarla senza il suo consenso preoccupa non poco, perché da sistema di sicurezza può tranquillamente trasformarsi in un sistema di controllo sociale. Questo strumento può essere usato dai regimi autoritari per monitorare costantemente la popolazione e reprimere il consenso. Da una parte c’è chi rivendica l’utilità di questi sistemi per prevenire attacchi terroristici o altri disordini di massa, dall’altra il rischio etico di una perdita di libertà e di privacy per il cittadino è reale. La questione è piuttosto complessa, ed è necessario soppesare bene le due parti per trovare un giusto ed equo bilanciamento tra sicurezza e garanzia dei diritti individuali.  

I rischi per un utilizzo non etico e che va contro i nostri diritti, le nostre libertà e il nostro sistema morale e valoriale ci sono. Per evitare ciò, bisogna prestare molta attenzione al profilo etico di ogni risvolto potenziale che l’intelligenza artificiale può avere per la nostra società.  

I rischi per un utilizzo non etico e che va contro i nostri diritti, le nostre libertà e il nostro sistema morale e valoriale ci sono. Per evitare ciò, bisogna prestare molta attenzione al profilo etico di ogni risvolto potenziale che l’intelligenza artificiale può avere per la nostra società.  

Illustrando questi vari scenari, diventa chiaro che le considerazioni etiche non sono solo un qualcosa di accessorio e secondario, ma sono un aspetto fondamentale dello sviluppo e dell’implementazione dell’IA. Affrontare i dubbi sull’equità, i pregiudizi e le responsabilità è necessario per garantire una maggiore fiducia nella tecnologia, minimizzando i danni e massimizzando i vantaggi. 
Le politiche di AI Ethics ci aiutano a mettere in chiaro chi guida questa macchina, mantenendo alla base i principi di trasparenza e rispetto per aumentare la fiducia nella tecnologia, non per limitarla. Dobbiamo vivere e sfruttare questa rivoluzione, ma rimanendo noi i beneficiari di tutto ciò, sfruttando le opportunità a nostro vantaggio e guidando la rivoluzione senza farci sopraffare da essa. 

Il corso analizza l’impatto dell’Intelligenza Artificiale e del Metaverso nella professione forense, analizzandone gli sviluppi e illustrando i cambiamenti introdotti da queste tecnologie innovative nella teoria e nella pratica giuridica. Verranno individuate le opportunità offerte dal loro ingresso in campo, le implicazioni etiche e sociali legate al loro utilizzo, ma anche le insidie che possono nascondere.

Hai un articolo nel cassetto? Legal Tech Magazine è sempre alla ricerca di nuove voci attraverso cui raccontare l’evoluzione del settore. Puoi sottoporci la tua proposta attraverso il seguente form: avremo cura di leggerla e di valutarne la pubblicazione.

Non solo un Magazine, ma anche una Mappa, un Forum, un Report e un’Academy. Se ti interessano i progetti di Legal Tech Italy e desideri ricevere aggiornamenti sulle sue iniziative presenti e future, iscriviti alla newsletter e non perderti nessuna novità.