Innovazione

Intelligenza Artificiale: gli esperti chiedono una regolamentazione

2 Giugno 2023

Sono ormai sei mesi che, in campo tecnologico, non si parla d’altro. Da quando è stato lanciato ChatGPT, nello scorso mese di novembre, il mondo ha cominciato a utilizzare con frequenza l’intelligenza artificiale, vuoi come intrattenimento, vuoi come partner professionale. In fin dei conti, avere a disposizione un chatbot a cui puoi chiedere di tutto, dalle sciocchezze più infantili a complicate stringhe di codice per la programmazione, è una bella novità.

Eppure, non è detto che sia tutto oro quel che luccica. Anzi, è proverbiale il contrario. Pur  sapendo bene quante e quali porte possa aprire questa potente tecnologia, da più parti si è alzato un coro per normare l’intelligenza artificiale. Tra queste voci, l’agenzia di stampa ANSA ha intervistato quattro prominenti esperti del settore: Luca Simoncini, ex docente di ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche; Roberto Battiston, fisico e ricercatore tecnologico presso l’Università di Trento; Domenico Talia, insegnante di ingegneria informatica all’Università della Calabria e Luca Trevisan, professore ordinario di informatica alla Bocconi, profondo conoscitore dell’intelligenza artificiale.

Tre di loro (Trevisan escluso) sono firmatari dell’appello che è stato recentemente pubblicato sulla pagina web del Center for AI Safety, un’organizzazione americana che riunisce numerosi esperti del settore dell’intelligenza artificiale. Un buon numero di questi ha ammesso di essere genuinamente preoccupato del potenziale della AI, sottoscrivendo una dichiarazione di allerta.

Occorrono regole

Ora che l’intelligenza artificiale fa parte delle nostre vite, è necessaria una presa di coscienza collettiva, nonché una normativa esaustiva, dal momento che i sistemi di AI sono fallibili e basano le proprie attività soltanto sulla prevalenza tecnologica. Occorrerebbe mettere bene in chiaro, nero su bianco, come non serva andare incontro a sistemi che puntino alla prevaricazione della macchina sull’uomo e sia invece da perseguire una tecnologia capace di coadiuvare e assistere l’essere umano senza tagliarlo mai fuori.

“L’uso estensivo dell’intelligenza artificiale sta portando, da un lato, a una vera rivoluzione, mentre, dall’altro, sta ponendo seri problemi. Essa è tanto pervasiva da avere un forte impatto in molti settori della vita sociale (pensiamo al rischio di produzione di fake news o al controllo delle auto autonome), così come su aspetti economici, finanziari, politici, educativi ed etici. E’ evidente che nessuno può opporsi a una tecnologia emergente usata per scopi benefici, per esempio in campo biomedico o farmacologico, bisogna però porre limiti e vincoli.”

Sostiene Simoncini. Gli usi sbagliati di software come ChatGPT e i suoi simili stanno già portando a una generazione infinita di fake news, modificando o inventando di sana pianta contesti testuali o fotografici provenienti da canali tipicamente attendibili, interpolati dall’intelligenza artificiale per raccontare fandonie.

Algoritmi così potenti richiedono dei freni

A Simoncini fa eco Battiston. Secondo lui, infatti, la potenza degli algoritmi su cui si basano questi strumenti, costantemente in aumento, può portare a effetti imprevisti qualora non venga tenuta sotto controllo.

“Gli algoritmi di intelligenza artificiale generativa si sono rivelati molto potenti nell’interfacciare le persone utilizzando i dati presenti sul Web e il linguaggio naturale. Così potenti che potrebbero generare effetti secondari imprevisti. Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi. Servono tempo e sperimentazione per realizzare regole e norme che permettano di gestire l’efficacia di questa tecnologia proteggendoci dai relativi pericoli. Non si tratta della minaccia di una super intelligenza che possa sopraffare l’umanità, ma delle conseguenze del modo in cui gli esseri umani si abitueranno a utilizzare questi strumenti nel loro lavoro e nella vita quotidiana della società. Pensiamo ad esempio alla possibile interferenza sui processi elettorali, alla diffusione di notizie false o alla creazione di canali di notizie che rispondano a precisi interessi di disinformazione.”

“Occorre prepararsi a gestire queste situazioni. Le prime avvisaglie di problemi del genere le abbiamo già viste negli anni passati, con la vicenda di Cambridge Analytica o la guerriglia dei troll russi sul web. Di solito, quando l’uomo non riesce a capire la realtà che lo circonda inventa miti, fantasmi, mostri, per cercare di proteggersi dai pericoli tramite un certo tipo di racconto mitologico. Il gioco è ancora saldamente nel campo dell’uomo, ma gli strumenti a disposizione sono molto più potenti che nel passato.”

Il pensiero del fisico ci fa riflettere. Come già evidenziato da Simoncini, anche Battiston ammette che il potenziale positivo di questa tecnologia sia gigantesco, probabilmente rivoluzionario per l’intera società umana. Eppure occorre evitare di mettere il carro di fronte ai buoi. Va pretesa trasparenza, o comunque chiarezza, sul funzionamento degli algoritmi, nonché l’attivazione di una serie di regole di contenimento sociale che mantengano la tecnologia al servizio dell’uomo, senza lasciare spazi al ribaltamento degli equilibri tra i due giocatori in campo.

Senza regolamentazione, rischiano anche le democrazie

L’appello firmato da Simoncini, Battiston e Talia vuole richiamare l’attenzione dei governi sull’urgenza di intervenire al più presto, con risoluzioni ad hoc a livello internazionale, per definire regole condivise e accettate da tutti gli attori del settore. Il fatto che tra i firmatari vi siano anche dipendenti e soci di aziende che sviluppano intelligenze artificiali non deve stupire: spesso sono proprio i professionisti a richiedere un quadro legislativo chiaro all’interno del quale potersi muovere.

“Stiamo attraversando un momento rivoluzionario per la tecnologia e questo comporta rischi per tutti. Se attendessimo due o tre anni potrebbe essere troppo tardi e vogliamo passare questo messaggio forte a tutti, non solo agli esperti ma anche ai governi e ai cittadini, perché ci troviamo di fronte a un momento cruciale, non a una semplice evoluzione tecnologica. I sistemi basati sul deep learning sono delle black box: significa che neppure gli stessi sviluppatori sono in grado di sapere come funzionano al loro interno e quindi non possono controllarli. Il rischio è che ci sfuggano di mano, con effetti che ancora non possiamo immaginare e che potrebbero interessare il lavoro, i rapporti sociali e le stesse democrazie. Siamo di fronte a tecnologie che creano opere, possono governare apparati e gestire industrie; quindi possono influenzare i comportamenti di miliardi di persone, risultando pervasive come una pandemia o una minaccia nucleare.”

Domenico Talia non usa mezze parole nella sua riflessione di fronte ai microfoni ANSA ma è molto chiaro per tutti. Non bisogna perdere di vista il rovescio della medaglia, dunque i potenziali rischi dell’intelligenza artificiale.

Imparare a gestire la nuova tecnologia

Luca Trevisan non ha firmato l’appello, ritenendolo troppo catastrofico. La sua linea di pensiero è condivisa da altri esperti ed è, probabilmente, quella nella quale è più facile riconoscersi anche per un profano della AI. Piuttosto che pensare a possibili deflagrazioni dell’ordine sociale causate dall’intelligenza artificiale nel prossimo futuro, il professore preferisce concentrarsi sui rischi più concreti e vicini nel tempo, dei quali bisogna essere consapevoli se si vuole perseguire nello sviluppo di queste tecnologie.

A suo avviso, l’allerta lanciata dal Center for AI Safety si deve a due teorie emerse nell’ultimo periodo in ambienti accademici che traggono la loro origine da una riflessione filosofica. Un certo allarmismo vuole che l’umanità si sia messa da sola sulla strada verso la propria autodistruzione – e ciò è difficile da negare se si sconfina dall’ambito di cui stiamo scrivendo per pensare alla situazione geopolitica o quella ambientale – e afferma che la tecnologia dell’AI è tra gli elementi che potrebbero mettere la parola fine al nostro mondo. Pur comprensibili e meritevoli di approfondimento, queste convinzioni appaiono, a detta di Trevisan, alquanto improbabili in questo preciso momento storico.

“È giusto avere un orizzonte più ampio delle nostre preoccupazioni, che consideri le criticità su un lungo periodo ma, facendo una considerazione puramente statistica, è maggiore la probabilità di rischi da altre cause, come il cambiamento climatico per esempio. Enfatizzare i rischi remoti e meno probabili rischia di distogliere l’attenzione da pericoli più concreti. Sul breve termine potremmo trovarci ad avere un impatto sociale ed economico molto forte, e questa è una cosa che va governata. Dovremmo specificare gli obiettivi e considerare che, nel realizzarli, si potrebbero creare conseguenze impreviste. Servono regole per governare il cambiamento.”

Sostiene il professore.

“Ogni cambiamento tecnologico può generare ricchezza, ma questa sarà distribuita su tutta la società o andrà solo alle grandi imprese? In caso di conseguenze negative, chi sarà ritenuto responsabile? Questi non sono problemi tecnologici, ma politici. Sarebbe bene che la politica se ne occupasse. Se dovessi fare un appello, lo farei in questa direzione.”

Le conclusioni di Trevisan sono meno catastrofiste e molto pratiche. Dal suo punto di vista, le dinamiche relative alla AI sono ancora piuttosto effimere da un punto di vista normativo. Effettivamente, ci troviamo al momento in una sorta di limbo, uno spazio indeterminato nel quale la tecnologia è già in funzione ma non è regolamentata adeguatamente. Se i firmatari dell’appello sottoscritto dal Center for AI Safety sono preoccupati per una possibile fase 2, prendendo in prestito, in maniera anche impropria, i termini che spesso sentiamo quando si descrivono le conseguenze di tragedie e catastrofi naturali, Trevisan sottolinea come ci sia prima una fase 1 da gestire, la quale non va scavalcata per affrontare problemi ipotetici più distanti.

Commenti

Devi fare login per commentare

Accedi

Gli Stati Generali è un progetto di giornalismo partecipativo

Vuoi diventare un brain?

Newsletter

Ti sei registrato con successo alla newsletter de Gli Stati Generali, controlla la tua mail per completare la registrazione.