
A.I.
Intelligenza artificiale: perché il nostro rapporto con la realtà è a rischio
Nell’era dell’IA generativa, “vedere per credere” non basta più; iI confine tra verità e menzogna si assottiglia, dando ai disinformatori un vantaggio senza precedenti e mettendo a rischio il nostro rapporto con la realtà.
Che stiamo vivendo una crescita senza precedenti dell’intelligenza artificiale (IA) è ormai dato per assodato. Le reazioni a questi sviluppi sono spesso agli estremi: da un lato c’è chi li accoglie con sfrenato ottimismo – sottolineando gli innegabili benefici per l’ambiente, la mobilità e la salute; dall’altro, ci sono i tecno-pessimisti che temono le implicazioni etiche, la sostituzione dei lavoratori ed il generale impatto negativo sulla società. Questo articolo mira invece a offrire una prospettiva più equilibrata che restituisca complessità al problema, concentrandosi su un aspetto specifico dell’IA generativa: il suo impatto sull’informazione e la nostra percezione della realtà.
Oggi, i deepfake, gli audio sintetizzati ed i testi generati dai modelli LLM rendono sempre più difficile distinguere tra contenuti autentici e artificiali con potenziali effetti di lungo termine. L’esposizione continua a una realtà distorta può minare la fiducia nelle istituzioni, nei processi e nei rappresentanti, destabilizzando le democrazie. In un’epoca di svolte anti-democratiche, il rischio di manipolare e riscrivere la Storia a proprio vantaggio è più alto che mai e diventa tanto più credibile quanto più è supportato da documenti fittizi e contenuti audiovisivi modificati.
Un esempio recente che ha fatto il giro del web riguarda la cantante Rose Villain, che ha dichiarato di non credere allo sbarco sulla luna, dopo aver visto un video manipolato in modo da far sembrare che lo stesso astronauta Buzz Aldri negasse l’avvenuto allunaggio. Indipendentemente dalla competenza dell’artista in materia, il problema è che, in quanto personaggio pubblico, ha un’ampia audience (anche di giovanissimi) che potrebbe influenzare.
Per comprendere meglio il tema, è utile spiegare alcuni concetti di base, aiutati anche da un recente report dell’agenzia governativa francese sulle interferenze digitali straniere Viginum. Con intelligenza artificiale si fa riferimento a tutti quei processi di automazione basati su algoritmi progettati per replicare (almeno in parte) il comportamento umano, come comprendere, calcolare e creare. Possiamo considerare l’IA una sorta di matrioska al cui interno si sviluppano altri concetti a partire da quello di “machine learning”, che permette alle macchine di imparare automaticamente analizzando modelli matematici ed estraendo informazioni dai dati forniti. Una sottocategoria del “machine learning” è il “deep learning”, che utilizza reti neurali per risolvere problemi complessi, come il riconoscimento di immagini e linguaggio. Un’ulteriore sottocategoria del “deep learning” è l’IA generativa, una tecnologia che, oltre a generare codice informatico, può creare anche testi, immagini e video. Dal 2022, l’IA generativa è diventata accessibile al grande pubblico.
La democratizzazione di queste tecnologie ha anche un lato oscuro: attori malintenzionati godono dello stesso accesso e possono usarle per campagne di interferenza e disinformazione, ottimizzando la propria produttività. Non solo generando video, audio e testi, ma anche traducendoli in varie lingue e riproponendoli con lievi modifiche per evitare i meccanismi di rilevamento, che un puro copia-incolla di contenuti identici attirerebbe. L’IA viene quindi sfruttata per amplificare la disinformazione, accentuando divisioni sociali e pregiudizi esistenti.
Un altro aspetto preoccupante è l’uso dell’IA per coordinare reti di account falsi sui social media, aumentando l’inquinamento del dibattito pubblico con un metodo che richiede molte meno persone, soldi e risorse ma garantisce una velocità di produzione e diffusione senza precedenti. I deepfake sono una tendenza nota e diffusa degli ultimi anni, e gli esempi abbondano a partire dal recente video virale del finto bacio tra Giorgia Meloni ed Elon Musk. Oppure, durante le elezioni in Moldavia, l’ex presidente Maia Sandu è stata vittima di vari video manipolati in cui appariva con un hijab e dichiarava il proprio ritiro dalla corsa elettorale a favore del suo avversario filorusso. In quel caso, il politico putiniano Ilan Shor ha persino promosso un chatbot di IA generativa su Telegram per convincere i cittadini a votare contro l’adesione all’UE nell’apposito referendum, offrendo una ricompensa monetaria.
Tuttavia, non sono solo politici e VIP a essere presi di mira. Esistono anche reti di account falsi che simulano utenti reali per far sembrare un’opinione più diffusa di quanto non sia, contribuendo così a legittimarla. Questa tecnica di “hacking della percezione” va dalle recensioni false sui prodotti online fino alle campagne di disinformazione su larga scala. Un esempio è l’operazione “Spamouflage”, coordinata dalla Cina per imitare elettori americani, diffondendo messaggi sul degrado delle città USA – lamentando l’aumento di senzatetto, criminali e tossicodipendenti – per favorire estremismo e polarizzazione sociale.
Si dice però che l’avvento dell’IA non abbia comportato una rivoluzione, ma un’evoluzione che ha reso strategie di manipolazioni già esistenti più potenti, economiche e difficili da individuare. È quindi essenziale sviluppare strumenti per contrastare queste minacce e costruire una maggiore resilienza al disordine informativo. Per questo occorre un approccio equilibrato, consapevole dei rischi ma anche delle opportunità offerte dall’IA. L’obiettivo non è demonizzare la tecnologia né accettarla ciecamente, ma comprenderne la complessità e ricercare soluzioni efficaci per renderla sicura ed evitare abusi.
Il pericolo maggiore è che la continua manipolazione della realtà porti le persone a dubitare di tutto, rendendo impossibile distinguere il vero dal falso. Un caso emblematico è quello delle elezioni locali turche del 2024: Gökhan Zan, candidato del partito laburista, si è ritirato dopo la diffusione di un audio compromettente, in cui sembrava negoziare milioni di dollari per ritirare la propria candidatura. Lui ha sostenuto che si trattasse di un audio manipolato, ma il suo stesso partito ne ha confermato la veridicità. Questa è la cosiddetta sindrome del “dividendo del bugiardo”: quando la verità e la menzogna diventano indistinguibili, chi diffonde false informazioni ne trae vantaggio, sfruttando la confusione e l’incertezza.
In un’era in cui non basta più “vedere per credere”, dobbiamo resistere alla tentazione del relativismo estremo, che confonde fatti e opinioni, riaffermando il valore della verità. In gioco ci sono il futuro dell’informazione ed il nostro stesso rapporto con la realtà.
Devi fare login per commentare
Accedi