Scommetto che tutti, almeno una volta, avete letto o sentito la frase: “L’intelligenza artificiale sostituirà gli avvocati!”. Scommetto anche che, se siete dei giuristi, colui che vi diceva questa frase aveva stampato in faccia un sorrisetto vagamente provocatorio. Non mi fermo e rilancio: avete mai riflettuto su chi sia l’autore di queste discussioni infinite su social network vari? Chi è il collega o l’amico che prova a convincervi del fatto che presto, prestissimo, l’utilizzo dell’IA renderebbe quasi superflue figure come quelle dell’avvocato, del magistrato e del notaio?
L’ultima scommessa: l’autore, il collega o l’amico non sono dei giuristi. Non per qualche astrusa motivazione che voglia “elevare” la categoria, ma per il semplice fatto che molti degli argomenti che ispirano questi articoli, per il diritto e i suoi operatori semplicemente non sono rilevanti o partono da premesse fallaci.
I Large Language Models
Una delle premesse fallaci riguarda i Large Language Models, ma è necessario prima fare chiarezza su cosa essi siano.
I modelli linguistici di grandi dimensioni o LLM rientrano in quella che viene definita come “Intelligenza artificiale debole”, in quanto è progettata per eseguire compiti specifici e limitati, come la comprensione e la generazione di testo in linguaggio naturale in risposta a input umani.
I LLM si basano su algoritmi di deep learning e vengono addestrati su un elevato numero di set di dati, utilizzano una rete neurale artificiale, che è un sistema computazionale ispirato al funzionamento del cervello umano per imparare a prevedere la parola successiva in una sequenza, in base al contesto fornito dalla parola precedente. Un noto esempio di LLM è GPT-4, sviluppato da OpenAI.
Ecco qui la premessa fallace: pensare che un generatore di testo possa sostituirsi ad una figura professionale vuol dire presumere che questa figura si occupi esclusivamente di generare testo. L’IA non capisce, non conosce regole grammaticali, non usa il linguaggio per argomentare, persuadere o difendere, non ha una strategia né uno scopo, aggrega parole su base probabilistica.
È vero che agli avvocati piace scrivere infiniti muri di testo, ma che facciano solo questo mi sembra un tantino riduttivo.
L’hype
Nel 2023 sono state diverse le notizie sensazionali, giunte in special modo dagli Stati Uniti: dall’avvocato “robot” della startup DoNotPay a GPT-4 che supera lo Universal Bar Exam. Il clamore (e rumore) arriva, a mio avviso, per l’hype generato da ChatGPT, il famosissimo chatbot di OpenAI. In realtà strumenti di IA vengono già utilizzati dai legali, è pacifico ad esempio l’utilizzo dei software di contract lifecycle management, quasi tutti dotati di applicazioni basate sull’AI, pensiamo a DocuSign CLM, Agiloft e così via.
Qualcuno ha definito l’IA come “il tirocinante non pagato che non dorme mai”, sarà meno di impatto rispetto all’avvocato robot, ma forse più realistico.
I rischi
Cito il caso che vede protagonisti gli avvocati Steven Schwartz e Peter LoDuca per introdurre uno dei problemi dell’IA: le allucinazioni.
Il caso in esame riguarda un uomo che cita in giudizio la compagnia aerea Avianca, sostenendo di essere rimasto ferito durante un volo. La compagnia aerea ha chiesto al giudice di archiviare la causa per decorso dei termini di prescrizione, gli avvocati dell’uomo hanno risposto presentando al giudice una memoria di dieci pagine, citando diversi precedenti giudiziari a sostegno della loro tesi.
È stato chiesto agli avvocati di fornirne delle copie dei precedenti: si è scoperto che i casi non erano reali. Schwartz ha confessato di aver utilizzato ChatGPT, poiché pensava che fosse “un super motore di ricerca”. Lui ed il suo collega sono stati poi multati con una sanzione di cinquemila dollari.
Le allucinazioni sono uno dei problemi dei LLMs, spesso infatti questi modelli generano testo perfettamente logico e credibile ma completamente falso, inventato. Numerosi poi i rischi sotto il profilo della sicurezza, della protezione dei dati personali, della responsabilità, del diritto d’autore o del copyright.
L’addestramento dei sistemi di IA necessita di enormi quantità di dati, fra quelli interessati dal processo di estrazione, chiamato Text and Data Mining (TDM), ci potrebbero essere delle opere creative tutelate dalla disciplina del diritto d’autore o da un diritto connesso1.
Anche se queste informazioni fossero liberamente accessibili online, ciò non significherebbe necessariamente che il proprietario dei dati abbia acconsentito alla loro divulgazione, né che i dati siano disponibili senza restrizioni o vincoli specifici di utilizzo o licenze2.
Inoltre il web scraping, ossia il processo di estrazione automatizzata di informazioni da siti web o altre fonti di dati online, potrebbe costituire violazione dei termini d’uso della piattaforma analizzata.
Un caso giurisprudenziale riguardante il problema dello scraping è quello che vede coinvolte Getty Images e Stability AI. A inizio 2023, Getty Images ha intentato una causa negli Stati Uniti contro Stability AI, sostenendo che quest’ultima avesse violato i propri diritti d’autore, copiando senza permesso più di 12 milioni di fotografie, correlate da didascalie e metadati, per addestrare il proprio sistema di Stable Diffusion. Getty ha chiesto un risarcimento danni fino a 150.000 dollari per opera violata, portando potenzialmente l’entità del risarcimento richiesto a 1,8 miliardi di miliardi di dollari. Getty Images ha poi chiesto alla High Court of Justice di Londra un’ingiunzione per impedire alla società di intelligenza artificiale di vendere il suo sistema di generazione di immagini AI in Gran Bretagna, secondo quanto emerso dai documenti giudiziari.
Il tempo della consapevolezza
Senza dubbio le potenzialità dell’IA sono impressionanti e avranno un grosso impatto sulle professioni legali ma se numerose sono le opportunità ed i benefici, altrettanto numerosi sono i rischi. Se da un lato il lavoro cambierà ed alcune attività saranno automatizzate o eliminate, dall’altro l’insorgenza di nuove problematiche porterà nuove opportunità ed una maggiore richiesta di esperti legal tech.
È passato il tempo dell’entusiasmo, è arrivato il tempo del dibattito.