Innovazione

Guerra artificiale

30 Aprile 2024

 

Questo articolo è stato pubblicato sulla newsletter di Associazione PuntoCritico il 9 aprile 2024. Immagine di copertina generata con AI (Leonardo AI)

I suoi recenti progressi hanno messo in allarme l’opinione pubblica, al punto da far correre ai ripari l’Unione Europea con un testo ad hoc. Ma l’Intelligenza Artificiale è davvero il pericolo che crediamo?

Donald Trump arrestato, il papa con un cappotto glamour, ma anche modelle perfette con tanto di profilo instagram realistico. Sono solo alcuni degli esempi di prodotti dell’Intelligenza Artificiale, un sistema digitale dotato di autoapprendimento oggi percepito come una minaccia per la sicurezza. Al punto che lo scorso 13 marzo con 523 voti favorevoli, 46 contrari e 49 astensioni il Parlamento Europeo ha approvato un nuovo regolamento, l’AI Act, un testo che si propone di regolare le applicazioni di questa tecnologia e limitare gli abusi. La domanda è: sarà sufficiente per impedire l’uso eccessivo di queste tecnologie? Ma soprattutto: è davvero questa tecnologia, il nostro peggiore nemico?

Storia di una tecnologia…vecchia

Un primo mito da sfatare è che questa tecnologia sia “nuova”: i primi esperimenti sull’intelligenza artificiale risalgono almeno al secolo scorso. Il punto di partenza infatti è il 1950, con il primo paper accademico sul tema: “Computing Machinery and Intelligence”, di Alan Turing, pubblicato sulla rivista Mind. Quindi sono almeno 73 anni di ricerca e sviluppo, prima dell’approvazione del primo regolamento (quello europeo) sull’uso dell’Intelligenza Artificiale. Non è quindi l’AI che va troppo veloce; è semmai la legislazione ad essersi svegliata tardi. Nel frattempo sono stati prodotti diversi software potenziati grazie all’AI e altri ancora potrebbero essere sviluppati nel giro non più di anni, ma di mesi.

Un’altra generalizzazione è riferirsi all’Intelligenza Artificiale facendo di un singolo software tutto un settore, ovvero: pensare che “AI” sia solo ed esclusivamente assimilabile a tecnologie come ChatGPT. L’intelligenza artificiale in realtà ha molte più sfaccettature, e spesso la utilizziamo senza rendercene conto. Sotto il termine ombrello di AI infatti stanno sia software (app, siti di generazione immagini, motori di ricerca…e Siri, l’assistente digitale di Apple) ma anche robot, veicoli autonomi, hardware potenziati. Usiamo l’AI ad esempio quando ci lamentiamo di un prodotto con un chatbot, quelle simpatiche icone sui siti di e-commerce che in teoria dovrebbero risolvere i nostri problemi; nella pratica spesso decidiamo comunque di ricorrere a un altro bipede che ci aiuti da qualche call center sperduto nel mondo.

Intelligente, ma non si applica?

Partiamo intanto col capire cos’è l’intelligenza artificiale. L’AI è una branca dell’informatica che studia se e in che modo si possano riprodurre i processi mentali più complessi mediante l’uso di un computer. Quindi ora i computer ragionano come gli esseri umani? Dipende da che esseri umani frequentate perché tendenzialmente no, questo non significa che le macchine ora siano in grado di pensare. Si può dire piuttosto che abbiano specifiche caratteristiche di apprendimento che sono tendenzialmente considerate umane: la memoria, ad esempio, ma anche la capacità di applicare una soluzione già sperimentata su un problema a un problema diverso, la capacità di leggere il linguaggio non verbale o sottinteso e così via. Tutti meccanismi che però non sono ancora completamente sviluppati e che comunque presumono un intervento umano, più o meno diretto che sia. L’intelligenza artificiale infatti non “crea dal nulla”, ma partendo da dati inseriti dall’operatore e dalla loro elaborazione crea un risultato che si adatti a quanto le è stato chiesto. In gergo, l’ “ordine” che diamo alla macchina da eseguire si chiama “prompt”, comando; nella pratica è la frase, o più in generale l’input, che l’operatore dà a una macchina dotata di intelligenza artificiale per assolvere un compito. Un esempio banale è il classico “Ehi Siri, metti la musica”. Quindi no, le macchine non sanno creare prodotti completamente originali, tutt’al più riescono a “mischiare” tecniche o dati esistenti creando un mix di ispirazioni e riferimenti. Se un bambino, lasciato da solo con i pastelli a cera, deciderà autonomamente di capire cosa sono quelle cose colorate e come può usarle, l’AI ha bisogno di un operatore che spieghi “Questi sono pastelli, ci puoi disegnare perché se li strofini su una superficie la colorano”. Certo, il rischio che l’AI decida di esercitare la sua curiosità sui vostri muri bianchi è decisamente ridotto rispetto al caso di un bambino.

Uno dei pericoli più paventati con l’avvento dell’intelligenza artificiale è il rischio della creazione di disinformazione, deep fake e fake news per destabilizzare l’opinione pubblica. Ma il mestiere del fact checker si è forse estinto? Certo è che ci sono già stati esempi di testi scritti da intelligenza artificiale che sono arrivati addirittura sui siti di rinomate riviste scientifiche, come nel caso della “ricerca” pubblicata sulla rivista scientifica Surfaces and Interfaces, della casa editrice Elsevier. Un gruppo di ricercatori, in questo caso, è riuscito a far pubblicare un testo il cui incipit era palesemente il form di risposta con cui ChatGPT inizia le sue risposte: “Certo, ecco una possibile introduzione per il tuo argomento”. Come lettrice di testi accademici, una domanda mi sorge spontanea: possibile che una casa editrice che fa pagare ad ogni pubblicazione 2.360 dollari (il prezzo è visibile nella homepage) non abbia una persona deputata a leggere i prodotti che pubblicano? E se evidentemente (si spera) questo umano c’è, com’è possibile che non si sia accorto di questo errore grossolano che si trova non in mezzo al testo, ma nella prima riga del frontespizio? In casi come questi, sarebbe come se un carrista si sparasse con il cannone sui piedi, e comunque la colpa ricadesse sul cannone. Forse, dovremmo chiederci se è davvero l’intelligenza artificiale ad essere così accurata o se non è invece l’essere umano che ha coltivato poco la sua, di intelligenza.

Il vero rischio dell’AI: chi controlla i controllori

Il vero problema dell’AI è invece umano, troppo umano. Nel testo dell’Unione Europea si fa riferimento a una divisione per “fasce di rischio” dell’uso dell’AI: all’articolo 5 del titolo II, ad esempio, sono citate le AI il cui uso e scopo è sempre e comunque vietato, come ad esempio la profilazione sulla base di dati etnici, d’età, sesso etc. Il problema, però, è che si lascia aperto uno spiraglio: quello dell’uso dell’AI per motivi di intelligence e sicurezza. Quindi sono possibili “deroghe” dell’uso dell’AI per esempio per operazioni di pattugliamento, identificazione etc. Certo, è specificato che quest’uso è comunque vincolato al rispetto dei diritti umani e della dignità umana, ma chi controlla i controllori? Cioè chi, nelle istituzioni europee esistenti (o in quelle future) controlla che tali diritti siano effettivamente rispettati? Dal testo dell’AI Act infatti si evince che a occuparsi di vigilare sull’uso dell’intelligenza artificiale dovrebbero essere le autorità designate da ogni Stato membro. Nel caso italiano ad esempio dovrebbe essere il Garante della Privacy, in conformità con il regolamento (UE) 2016/679 e la direttiva (UE) 2016/680. Un punto su cui il Garante e il Governo si sono già battibeccati, con l’esecutivo di Giorgia Meloni che preferirebbe affidare questo compito a una delle due agenzie, AGID o ANAC, più “controllabili” (l’AGID ad esempio è sottoposta ai poteri di indirizzo e vigilanza del presidente del Consiglio dei Ministri). Immaginiamo ora 27 Stati, già connotati da notevoli differenze quando si parla di cosa sia uno stato di diritto, che gestiscono questo problema in 27 modi diversi. Una cacofonia che potrebbe portare paesi dalla tradizione democratica più solida a scegliere un’autorità più imparziale, e paesi noti per ripetute violazioni dei diritti umani più inclini a tenere sotto controllo chi controlla l’Intelligenza Artificiale. Per l’ennesima volta, un’Europa a due velocità.

Come detto, la maggior parte delle intelligenze artificiali funziona tramite un ordine, il prompt; e forse è di chi dà quest’ordine (e della sua etica) che bisognerebbe discutere. Un caso tra tutti, è quali dati siano effettivamente inseriti dall’operatore nel “cervello” della macchina, e per quale scopo. Secondo il Washington Post, molti paesi stanno già utilizzando la tecnologia dell’intelligenza artificiale per aumentare l’efficacia delle armi e dei sistemi di sicurezza. Israele, ad esempio, utilizza l’intelligenza artificiale Blue Wolf dal 2021, monitorando i palestinesi in Cisgiordania. Gli analisti hanno dimostrato che il sistema non si basava su un database affidabile dei criminali, ma su caratteristiche etniche e biometriche, includendo quindi bambini, anziani e donne. Israele ha inoltre impiegato un’altra intelligenza artificiale, The Gospel, per una “migliore selezione dei bersagli” nella Striscia di Gaza. Ciò ha portato il tasso di colpi ad aumentare da 50 bersagli colpiti all’anno a 100 bersagli colpiti al giorno (PuntoCritico121223). Dai numeri del recente conflitto è innegabile che non tutti gli obiettivi centrati da Gospel siano obiettivi militari, il che fa sorgere il dubbio che un atto umano analogo alla manipolazione del database di Blue Wolf possa essere avvenuto anche qui. O ancora, il sito di informazione israelo-palestinese +972 ha pubblicato un’inchiesta che collega i più recenti bombardamenti a un’altra intelligenza artificiale ancora, Lavender. Inspiegabilmente però, come ho sperimentato, qualcuno si è preso il tempo di insegnare ad alcune AI (qui Gemini di Google) come glissare gli argomenti scomodi.

Anche l’Unione Europea ha sviluppato una propria AI per regolare i flussi migratori da Paesi Terzi: si chiama Influx, è stata finanziata con 5 milioni di euro provenienti dal fondo Horizon per lo sviluppo digitale e la sua creazione è stata appoggiata anche da ONG e centri studi indipendenti, che auspicano possa aiutare a fornire aiuti più mirati ai migranti o dati più utili per comprendere e gestire meglio il fenomeno. Il problema è: chi decide quale migrante è una minaccia, e quale no? Qual è la discriminante, e in quali casi potrebbe portare alla discriminazione?

Insomma, che sia AI o meno, il vero nemico resta chi dietro lo schermo di un computer decide della vita (troppo spesso della morte) di centinaia di altri esseri umani. E l’unica vera domanda a cui vale la pena rispondere, forse, è: chi controlla i controllori?

Commenti

Devi fare login per commentare

Accedi

Gli Stati Generali è un progetto di giornalismo partecipativo

Vuoi diventare un brain?

Newsletter

Ti sei registrato con successo alla newsletter de Gli Stati Generali, controlla la tua mail per completare la registrazione.