Deepfake ed elezioni 2024: la diffusione della disinformazione

Il 2024 è stato l’anno in cui più della metà della popolazione mondiale è andata al voto. Alle urne si sono recate 76 nazioni, un dato senza precedenti che ha portato novità anche sul piano della comunicazione. Molte campagne elettorali, infatti, hanno sperimentato gli usi più svariati dell’intelligenza artificiale generativa dando vita a numerosi dubbi e criticità.  

 

Le tecnologie, sempre più accurate, dei software di IA generativa hanno dato vita ad immagini circolate su manifesti elettorali e sui social network, così verosimili che si fatica a discernere tra un’immagine reale ed una creata con l’intelligenza artificiale. Si tratta del fenomeno dei cosiddetti deepfake, ovvero immagini o video basati su contenuti originali ma modificati con l’intelligenza artificiale tramite apprendimento automatico. I deepfake stanno diventando ingombranti nella nostra vita quotidiana, soprattutto per l’informazione e la comunicazione politica. Utilizzare in modo improprio l’intelligenza artificiale potrebbe creare precedenti pericolosi, al punto da condurre anche a crisi internazionali se non verificati e bloccati in tempo.  

 

Tra i vari esperimenti fatti con la generativa durante le campagne elettorali del 2024 c’è stato il manifesto elettorale del partito centrista spagnolo, che raffigurava il premier spagnolo Pedro Sánchez mentre stringeva la mano al leader indipendentista catalano Carles Puigdemont. Sembrerebbe una foto normalissima, se non fosse per il fatto che non vi è mai stato un incontro tra i due e l’immagine è stata creata con l’intelligenza artificiale, come riporta la scritta posizionata in fondo all’immagine e in caratteri fin troppo piccoli. Questa immagine è senza dubbio fuorviante e fornisce informazioni false ai cittadini ed elettori.  

 

A sbizzarrirsi con l’intelligenza artificiale sono stati anche gli staff di comunicazione social dei vari partiti italiani. Tra questi troviamo anche un post che ha fatto tanto discutere sul web, diffuso dalla Lega. Il post, divisa a metà, contrapponeva all’immagine di una famiglia tradizionale il deepfake di un uomo in stato di gravidanza, utilizzando lo slogan “Più italia – meno Europa”. In questo caso, il partito ha diffuso un messaggio fuorviante soltanto per accattivare l’attenzione del pubblico e aizzare il suo elettorato. La cosa più grave, in questo caso, è che non vi è nemmeno segnalato che l’immagine è stata creata usando l’intelligenza artificiale, seppure sia abbastanza evidente.  

 

L’obbligo di inserire un disclaimer che informi gli utenti che i contenuti sono stati creati con l’intelligenza artificiale è previsto dall’AI Act, emanato dall’Unione Europea. Purtroppo, però, tale Regolamento sarà completamente applicabile dal 2026 e potrà essere efficace per le prossime tornate elettorali. I deepfake sono un problema serio, che porta alla disinformazione e alla diffamazione. Con il Regolamento europeo, l’Unione Europea ha voluto limitare i danni derivanti dagli usi impropri delle tecnologie generative.  

L’obbligo di inserire un disclaimer che informi che i contenuti sono stati creati con l’intelligenza artificiale è previsto dall’ AI Act, emanato dall’Unione europea. Purtroppo, però, tale Regolamento sarà completamente applicabile dal 2026 e potrà essere efficace per le prossime tornate elettorali. I deepfake sono un problema serio, che porta alla disinformazione e alla diffamazione. Con il Regolamento europeo, l’Unione Europea ha voluto limitare i danni derivanti dagli usi impropri delle tecnologie generative.  

 

Negli Stati Uniti la situazione è forse anche più complessa, perché al momento non vi è una legge federale che prenda provvedimenti simili a quelli presi dall’Unione Europea. Solo alcuni Stati hanno deciso di intervenire in materia, ma visto il risultato delle elezioni, anche oltreoceano potrebbero scaturire controversie.  

 

L’intelligenza artificiale, dunque, ha condizionato fortemente le elezioni 2024. I cittadini elettori non sanno riconoscere un deepfake e la disinformazione procede a passo sempre più svelto. Danneggiare l’immagine pubblica di un candidato o di un avversario e diffondere notizie false sono azioni che ledono i principi delle nostre democrazie, precludendo un dibattito onesto. Un esempio lampante è il caso della Slovacchia, dove durante le elezioni presidenziali del 2023 è stata diffusa una registrazione falsa di uno dei principali candidati, di cui l’intelligenza artificiale aveva riprodotto la voce in modo identico – durante il silenzio elettorale, per giunta – che ne ha condizionato l’esito. Questo impone controlli più rigidi delle piattaforme social che sono sottoposte al DSA (Digital Services Act). 

 

I social media negli ultimi anni sono diventati protagonisti della comunicazione politica, e già di per sé sono terreno fertile per disinformazione e fake news. Con l’avvento delle tecnologie di intelligenza artificiale generativa, distinguere un’immagine o una registrazione audio originale è qualcosa di cui solo un occhio esperto è capace. La popolazione, invece, rimane vittima dell’algoritmo e la sua opinione viene manipolata senza che ne sia consapevole. Per questo motivo, i governi e le aziende produttrici devono intervenire per evitare usi impropri e derive di questi strumenti.  

Alcune Big Tech hanno preso provvedimenti. OpenAI ha vietato l’uso di ChatGPT nelle campagne elettorali per evitare abusi e informazioni ingannevoli. La stessa Microsoft si è impegnata a difesa delle libertà, dei diritti delle persone e della democrazia sviluppando strumenti per individuare e segnalare contenuti deepfake, verificandone la provenienza e marchiando i contenuti. Bruxelles ha fatto pressioni sul colosso tech per la richiesta di informazioni riguardo alla generativa di Bing, richiesta “giuridicamente vincolante” della Commissione UE su eventuali violazioni del DSA.

 

I danni che possono provocare le intelligenze artificiali durante le tornate elettorali sono notevoli. La disinformazione e la propaganda elettorale hanno una lunga storia nella comunicazione politica: la tecnologia ha reso le cose più semplici, veloci e alla portata di tutti. La diffusione su larga scala e la verosimiglianza dei prodotti generati dalle intelligenze artificiali sono i fattori che preoccupano di più, perché possono degenerare in allucinazioni di massa. Se non vengono prese misure giuridiche restrittive, la verità sarà sempre più un miraggio anche nelle società liberali e democratiche, che rischiano di diventare vittime di processi manipolatori e disinformazione. 

Il corso analizza l’impatto dell’Intelligenza Artificiale e del Metaverso nella professione forense, analizzandone gli sviluppi e illustrando i cambiamenti introdotti da queste tecnologie innovative nella teoria e nella pratica giuridica. Verranno individuate le opportunità offerte dal loro ingresso in campo, le implicazioni etiche e sociali legate al loro utilizzo, ma anche le insidie che possono nascondere.

Hai un articolo nel cassetto? Legal Tech Magazine è sempre alla ricerca di nuove voci attraverso cui raccontare l’evoluzione del settore. Puoi sottoporci la tua proposta attraverso il seguente form: avremo cura di leggerla e di valutarne la pubblicazione.

Non solo un Magazine, ma anche una Mappa, un Forum, un Report e un’Academy. Se ti interessano i progetti di Legal Tech Italy e desideri ricevere aggiornamenti sulle sue iniziative presenti e future, iscriviti alla newsletter e non perderti nessuna novità.