Diritti

Combattere l’odio online con l’Intelligenza Artificiale: la guerra di Guerini

29 Febbraio 2020

Oramai al mondo analogico, terribilmente tangibile, in cui siamo nati e dove hanno vissuto i nostri genitori, i nostri nonni, e indietro nel tempo sino alla leggendaria Lucy, si affianca, talvolta si contrappone, e spesso si sovrappone un altro mondo. Incorporeo, fatto di algoritmi, di miliardi di pagine in HTML, XHTML, Python, Java, PHP e altri linguaggi di scripting dai nomi esotici, più oscuri ai profani (come il sottoscritto) del latinorum di manzoniana memoria, ma non per questo meno decisivi, perché in questo secolo (che si preannuncia procelloso) lo scettro del sapere è retto da chi padroneggia i saperi tecnologici…

E sul mondo digitale tutti noi ci affacciamo quotidianamente, per esempio postando le foto del nostro compleanno su Facebook, o ritwittando la foto di un gol della nazionale, o tuffandoci nelle Instagram stories di qualche star di Hollywood. I social media sono ormai ben più di piattaforme di condivisione: sono elementi quasi quintessenziali della nostra vita, dove esprimiamo la nostra personalità in tutta la sua complessità.

Proprio perché i social media hanno acquisito una tale centralità nella società, non sono immuni da patologie sociali. Ad esempio il cosiddetto odio online, flagello che colpisce gli scolari di otto anni così come eminenti politici e celebrità. A contrastare l’odio online, nel nostro paese, provvede anche il ricercatore della Fondazione Bruno Kessler Marco Guerini. Che ha trovato nuove modalità per arginare le orde del vituperio.

Studioso dal background ibrido, a metà strada tra gli studi di filosofia a Milano e Siena e quelli in Intelligenza Artificiale, logica, linguistica computazionale (e ovviamente informatica), Guerini nutre un profondo interesse scientifico per «lo studio degli aspetti pragmatici della comunicazione da un punto di vista quantitativo e computazionale. Cosa porta le persone a commentare o condividere un particolare contenuto sui social media? Esistono delle invarianti universali delle emozioni e del linguaggio che possono spiegare fenomeni del genere in lingue e media diversi?»

Proprio tale interesse lo ha condotto a occuparsi, negli ultimi due anni, di un aspetto alquanto particolare della “comunicazione efficace”: quello, appunto, dell’odio online. Ma che cos’è l’odio online? Per rispondere Guerini la prende larga.

«Se partiamo dalla definizione EU possiamo dire che l’hate speech è “la promozione o l’incitamento alla denigrazione, all’odio o alla diffamazione nei confronti di una persona o di un gruppo di persone, […] fondata su una serie di motivi, quali la ‘razza’, il colore, la lingua, la religione o le convinzioni, la nazionalità”. È chiaro che in questa definizione manca un elemento fondamentale: Internet. Ovviamente Internet e le piattaforme di social media non sono dei generatori d’odio in quanto tali; piuttosto, sono un mezzo attraverso cui espressioni di odio assumono nuove forme e nuova forza. Grazie al combinato del modo in cui gli algoritmi di selezione delle notizie funzionano, e di come gli umani ragionano, l’odio ha la possibilità di diffondersi come mai prima d’ora. Le persone tendono infatti a reagire più velocemente e con maggiore forza a contenuti che generano emozioni negative come paura e odio, mentre gli algoritmi tendono a promuovere i contenuti che generano maggior engagement. In questa configurazione i commenti d’odio hanno quindi trovato terreno fertile per diffondersi in maniera veloce e pervasiva».

Per capire poi i “meccanismi di funzionamento” dell’odio online, bisogna quasi ricorrere agli strumenti dell’etologo. Dice infatti Guerini:

«L’odio online è fondamentalmente l’amplificazione di fenomeni di “branco”. Una volta si diceva che era l’anonimato a fomentare comportamenti aggressivi e antisociali. Oggi ci si rende conto che invece tante persone non hanno paura a metterci la faccia; questo perché probabilmente non è l’anonimato il driver principale. Da un punto di vista di “riprova sociale” o “peer pressure”, infatti, quando un utente vede utenti simili a lui comportarsi in un certo modo nei confronti di un dato gruppo, si sente in diritto/dovere di trattarlo allo stesso modo. Paradigmatico l’esempio della “nonnina hater” che a quasi settant’anni si è lanciata in insulti contro il Presidente della Repubblica sui social, e quando è stata denunciata è crollata dicendo di essersi fatta trascinare da quello che leggeva online».

Ne consegue, osserva Guerini, che «in generale è abbastanza facile manipolare le persone, soprattutto se non hanno una posizione specifica su un dato tema. Se si crea nell’utente target una percezione (anche fasulla) che ci sia una maggioranza che ritiene un certo gruppo come problematico, allora si può portare quell’utente a seguire il branco e a ritenere che quel gruppo sia effettivamente problematico».

Guerini e il suo team hanno pubblicato di recente un paper a riguardo: CONAN — COunter NArratives through Nichesourcing: a Multilingual Dataset of Responses to Fight Online Hate Speech. L’articolo è a dir poco ostico per un profano, un labirinto di numeri e sigle, e Guerini prova a riassumercelo così:

«Il nostro obiettivo è costruire un sistema di intelligenza artificiale che sia capace di rispondere in maniera adeguata ai discorsi d’odio, argomentando con toni pacati. Infatti, sebbene negli ultimi anni siano stati fatti sforzi senza precedenti in termini di leggi e linee guida contro l’odio online, il problema è lungi dall’essere risolto. Finora la lotta contro i discorsi d’odio è stata fatta in termini di segnalazione ed eventuale cancellazione dei contenuti, o sospensione degli account. Tuttavia questa pratica offre il fianco a potenziali accuse di censura.

Allora, come ricercatori, ci siamo concentrati su una strategia totalmente diversa rispetto a quella “classica” della costruzione di algoritmi di riconoscimento dei discorsi d’odio per la segnalazione automatica. Tale nuova strategia consiste nel contrastare i contenuti di odio tramite le cosiddette contro-narrative, cioè risposte testuali basate su dati e argomentazione. Il nostro lavoro, ancora in corso ma dai risultati molto promettenti, s’ispira allo sforzo di alcune ONG che stanno addestrando degli operatori e dei volontari a monitorare le piattaforme social e a produrre contro-narrative appropriate quando necessario. Ma l’intervento prettamente manuale contro l’odio è una fatica di Sisifo; quindi automatizzare la procedura di scrittura delle risposte potrebbe aumentare l’efficacia ed efficienza delle ONG nella lotta contro l’odio online».

E poiché gli algoritmi di Intelligenza Artificiale hanno bisogno di decine di migliaia di esempi per essere addestrati, «abbiamo iniziato creando un grande dataset multilingue di contro-narrative.  In questo sforzo ci siamo coordinati con tre diverse ong (Stop Hate UK, CCIF France, TFHS – Amnesty International Italia). Oltre 100 operatori hanno partecipato alla raccolta dati, fornendo più di 500 ore di lavoro per scrivere esempi di contro-narrative».

I primi risultati, garantisce il ricercatore, sono molto incoraggianti. Ma la lotta all’odio online è solo agli inizi. Specie in questi tempi di epidemie: non solo di virus, ma soprattutto di fake news e leggende urbane tossiche. Con le armi dell’intelligenza e della scienza il dottor Guerini contribuisce a combattere una guerra tra le più decisive per la democrazia e la stabilità delle nostre società occidentali. Che il Cielo lo assista.

Commenti

Devi fare login per commentare

Accedi

Gli Stati Generali è un progetto di giornalismo partecipativo

Vuoi diventare un brain?

Newsletter

Ti sei registrato con successo alla newsletter de Gli Stati Generali, controlla la tua mail per completare la registrazione.