L’invisibile potere degli Algoritmi
Ormai sono ovunque e nei prossimi anni lo saranno ancor di più. E’ impossibile negare l’importanza degli algoritmi, sia nella nostra vita quotidiana che in quella online. Da quelli dietro ai semafori delle città a quelli dietro la posta elettronica. Da quelli stupidi e semplici, a quelli talmente complessi da essere controllati da team di decine o centinaia di persone.
Ma prima di comprendere quali sono i possibili effetti nefasti degli algoritmi, è fondamentale riconoscere quelli che influenzano di più la nostra vita quotidiana. In primis, ovviamente, c’è l’algoritmo PageRank di Google, che decide in che ordine mostrare i risultati di ricerca. Il suo potere è immenso. Basti pensare che in Europa Google controlla oltre l’80% del mercato delle ricerche online ed i siti oltre il decimo posto vengono raggiunti da meno del 1% del traffico.
Altrettanto rilevante è l’importanza degli algoritmi nei sistemi finanziari: è l’high frequency trading, detto anche algotrading. E’ ben noto che ogni giorno muovono miliardi di dollari. Da quelli semplicissimi (se un’azione scende sotto un certo prezzo, comprano) a quelli molto complicati, che prendono in considerazione una quantità di fattori dal mondo reale e acquistano e vendono titoli ad altissima velocità, in millisecondi. Meno noto, invece, è che sono anche imprevedibilmente rischiosi. L’esempio più lampante è quello del Flash Crash del 2010 quando il Dow Jones perse addirittura il 9% in pochissimi minuti. E nessuno aveva il controllo di quel che accadeva.
Poi c’è il “potrebbe piacerti anche”, in ogni sito che vende qualcosa: quel piccolo box a fianco di ogni prodotto che suggerisce che cos’altro potrebbe piacerti oltre a quello che stai vedendo. In modo analogo l’algoritmo di Google Adsense monitora il vostro comportamento, l’uso delle parole, e le query di ricerca per fornirvi pubblicità contestuale.
Least but not last c’è il News Feed di Facebook. Per calcolare il contenuto più interessante da proporci considera diversi fattori, come ad esempio il numero di commenti, che tipo di post è e la popolarità di chi pubblica (sì, perchè c’è una classifica interna di persone “popolari” e quelli con cui si interagisce di più).
All’apparenza la maggior parte di questi algoritmi non fanno niente di male: selezionano e consigliano. Il rischio, però, è quello di finire, come ha detto Eli Pariser, nella cosiddetta “filter bubble”, o “eco chamber”, le famose ‘camere dell’eco’, una specie di bolla culturale e ideologica in cui continuiamo a vedere, ascoltare e leggere ciò che rinforza la nostra visione del mondo. In questo modo difficilmente incontriamo qualcosa capace di farci cambiare idea o farci confrontare con opinioni differenti. La dialettica ed “il discorso civico” potrebbero esserne indeboliti rendendo le persone più vulnerabili alla manipolazione e alla propaganda. Infine limiterebbero una sorta di “diritto alla serendipity”; la casualità di conoscere informazioni ignote o alternative viene limitato e filtrato per offrirci quello che gli algoritmi suppongono possa interessarci di più, che in molti casi non è detto sia quello che potrebbe stimolarci di più.
Gli algoritmi si espandono, si complicano ed aumentano il loro potere. Recentemente Google ha messo a punto un nuovo algoritmo, chiamato Knowledge-Based Trust che premia o penalizza i siti web in base all’attendibilità dei contenuti che pubblicano. La valutazione sarà più qualitativa. Google “conta” il numero di notizie sbagliate o inattendibili all’interno di ciascuna pagina web e le fonti con poche notizie false vengono considerate affidabili. Gli informatici di Mountain View dicono che le notizie verranno estratte automaticamente da ogni fonte mediante metodi di selezione dell’informazione già utilizzati per costruire i precedenti database. Ma quali metodi? Non si sa bene. Sì, perchè il più delle volte questi software rimangono segreti, e gli utenti non sono a conoscenza delle loro dinamiche di funzionamento né hanno la possibilità di modificarli o interagirvi direttamente.
La preoccupazione cresce quando gli algoritmi che guidano certi aspetti della nostra vita producono risultati che non vorremmo. Gli esempi potenziali sono numerosi. Alcuni di questi sono evidenti: discriminazione sull’accesso al credito o sul lavoro, o per esempio discriminazioni sui prezzi. Non solo. Recentemente il New York Times ha descritto algoritmi addirittura capaci di scrivere articoli giornalistici. Uno studio condotto da Christer Clerwall dell’Università di Kalstad in Svezia mostra come rispetto ad articoli sportivi gli intervistati non sarebbero nemmeno in grado di riconoscere se sia stato scritto da un uomo o da un algoritmo. Kristian Hammond, co-fondatore di Narrative Science, stima che ben il 90% delle notizie potrebbero essere algoritmicamente generate dalla metà del 2020, molte delle quali senza intervento umano.
L’insieme di questi algoritmi costituiscono quel fenomeno che è stato definito Algocrazia. Secondo lo studioso A.Aneesh col termine algocrazia si intende un ambiente digitale di rete in cui il potere viene esercitato in modo sempre più profondo dagli algoritmi, cioè i programmi informatici che sono alla base delle piattaforme mediatiche, i quali rendono possibili alcune forme di interazione e di organizzazione e ne ostacolano altre. In altre parole si tratta di un sistema di governance.
Grazie alla tecnologia moderna, che ha reso quasi tutti i nostri movimenti tracciabili, i governi possono utilizzare questi dati per monitorare l’attività terroristica o prevenire l’evasione fiscale mentre le aziende possono utilizzarli per tenere traccia delle preferenze dei consumatori, creare pubblicità mirata e manipolare le decisioni di acquisto dei consumatori. Si potrebbe pensare che tutto ciò sia giusto ed accettabile ma sempre più studiosi ne sottolineano i rischi.
Tra i pessimisti figura Evgeny Morozov, che sostiene che questa tendenza rappresenta una grave minaccia per la democrazia. Anche se ci aiutano a raggiungere altri obiettivi, secondo lo studioso della rete, l’eccessiva dipendenza dagli algoritmi in un prossimo futuro minerà la governance democratica. Essi, infatti, subentrano dal disordinato processo umano di processo decisionale democratico. I cittadini sono in debito con essi, sicuri di come funzionano, ma hanno paura di ignorarne la loro guida. Questo crea una sorta di prigione, un “filo spinato invisibile” che vincola il nostro sviluppo intellettuale e morale. E la parte peggiore è proprio che non si vedono.
L’uso di tali tecnologie da parte dei governi può essere un serio problema. Morozov ritiene che le forze del capitalismo e della burocrazia sono tali che gli usi top-down tenderanno a dominare gli usi bottom-up. Mentre le nostre vite sono trasparenti, infatti, Silicon Valley e Wall Street vivono di segretezza. Una segretezza che ormai è vicina alla massa critica, scrive Frank Pasquale in The Black Box Society, un nuovissimo saggio che fa luce su questo fenomeno con toni lievemente più ottimistici. Il problema è che questa segretezza cela sempre più decisioni automatiche, prese da algoritmi che non conosciamo e di cui dunque non possiamo comprendere gli effetti discriminatori, quando non addirittura manipolatori. Il risultato, sostiene, è di lasciarci “al buio circa decisioni cruciali” per le nostre esistenze quotidiane.
Noi utenti ignoriamo come la “scatola nera” riceve i nostri dati, li processa restituendo tassi creditizi o assicurativi, prescrizioni mediche e indicatori di idoneità a un lavoro. E’ ancora possibile, dice, “immaginare un futuro in cui il potere dell’autorità algoritmica è limitato ad ambienti in cui è capace di promuovere equità, libertà e razionalità è possibile. Non siamo costretti a vivere in un mondo in cui punteggi nascosti determinano i destini delle persone, o in cui le manipolazioni umane del mercato azionario restano imperscrutabili come la ‘mano invisibile’”. Possiamo agire, quindi, ma dobbiamo farlo ora perché, ammonisce Pasquale, “uno stato di sorveglianza irresponsabile può rappresentare una minaccia maggiore per la libertà di qualunque singola minaccia terroristica”. Il rischio concreto è che distrugga il dissenso, promuovendo l’autocensura e il conformismo e, così facendo, ci costringe a interiorizzare una risposta: il controllo totale.
Allora, come recidere questo nodo gordiano?
Anzitutto è necessario politicizzare il problema: descrivere il filo spinato invisibile, o scatola nera se preferite, ed esporne il carattere talvolta antidemocratico. Uno dei più grandi problemi, infatti, è che non esiste nell’immaginario collettivo una concettualizzazione elaborata di cosa siano gli algoritmi e di come funzionino. Poi, bisognerebbe imparare a sabotare il sistema: armarci per resistere alla tendenza verso l’auto-monitoraggio e rifiutare che qualcuno guadagni coi nostri dati. La privacy può infatti riemergere come strumento politico per mantenere lo spirito della democrazia viva.
La risposta è dunque spingere verso la trasparenza, i controlli e la consapevolezza: “Se non saremo in grado di fermare il flusso dei dati, dovremo diventare più informati circa le entità che vi stanno dietro, e imparare a controllare l’uso che ne fanno”, afferma Pasquale. In sostanza, significa che “una parte ben più sostanziale dei loro algoritmi dovrebbe essere assoggettabile a ispezioni, se non dal pubblico, almeno da controllori fidati”. Dovrebbero esserci dei controllori per verificare l’origine dei dati e garantire che provengano da fonti affidabili.
Qualcosa sembra muoversi. La U.S. Federal Trade Commission qualche settimana fa ha istituito un ufficio nuovo di zecca dedicato ad accrescere la comprensione di questo fenomeno. Si chiama Office of Technology Research and Investigation, e la trasparenza degli algoritmi è uno dei problemi che su cui concentrerà, sostenendo la ricerca, nonché la realizzazione di studi a riguardo. L’idea è di capire meglio come questi algoritmi funzionano e quale logica spinge i loro risultati, per assicurare che essi non consentano discriminazioni o altre conseguenze dannose. Altre soluzioni si concentrerebbero invece sui test di revisione sistematica dei risultati degli algoritmi, piuttosto che gli algoritmi stessi, per valutare soltanto la natura delle loro conseguenze.
L’iniziativa è interessante. Ovviamente in Italia totalmente inosservata. Il problema, dunque, persiste: se le Big Company di Internet e la burocrazia sono così potenti, come Morozov e Pasquale suggeriscono, basterà un pò di attivismo e di qualche ufficio studi?
Nessun commento
Devi fare per commentare, è semplice e veloce.