Internet
Achtung Hate Speech – La Germania va alla guerra contro l’odio sui social
Un percorso estremamente problematico. Chi decide cosa sia l’odio online? Perché lo Stato delega la censura alle compagnie IT? Le emergenze sociali di oggi stanno decidendo il futuro della libertà d’espressione, aprendo scenari inediti.
È passato un anno dalla creazione della task force contro l’hate speech del Ministero della Giustizia tedesco, un progetto gestito in collaborazione con i colossi social Facebook, Twitter e Google (Youtube). Due settimane fa, il Ministro Heiko Maas ha presentato un primo bilancio di quella che doveva essere una vera e propria campagna contro il proliferare di messaggi d’odio online.
I due principali fronti dell’iniziativa sono noti: l’estremismo di destra, da un lato, e il radicalismo islamico, dall’altro. Odio, xenofobia, antisemitismo, islamofobia, glorificazione del terrorismo. Sono questi i messaggi che il Governo ha un’incredibile fretta di contrastare e neutralizzare.
La posta in gioco, secondo il Ministro Maas, è alta: si tratterebbe di garantire “la pace interna della società” tedesca. Due anni fa, una simile preoccupazione sarebbe stata giudicata grottesca e allarmista. Nella Germania in subbuglio di oggi, invece, la posizione d Maas risulta comprensibile a molti.
Questo non significa, però, che l’azione governativa contro l’hate speech non sia anche enormemente carica di rischi. Passare dalla prevenzione della violenza alla caccia al reato d’opinione è sempre molto facile. Con il coinvolgimento strutturale dei colossi IT, inoltre, si sta avanzando verso un fenomeno di privatizzazione della censura, uno sviluppo che apre prospettive a dir poco complesse. Le decisioni di oggi in materia di diritti digitali segneranno il futuro stesso della libertà d’espressione, in Germania e in Europa.
AZIENDE IT COME STATI POST-NAZIONALI
Il dibattito sul contrasto all’hate speech è sempre più un confronto diplomatico esclusivo tra governi e aziende private. Si potrebbe addirittura parlare di un confronto geopolitico, laddove i territori di Facebook, Google & co non si limitano alle sedi negli Stati Uniti, ma possono essere localizzati nelle stesse reti interconnesse, dove si sono sviluppati larghi fenomeni di assoluta sovranità aziendale.
Lo scorso dicembre la task force del Ministero della Giustizia tedesco aveva raggiunto una sorta di accordo per velocizzare e facilitare le segnalazioni e le cancellazioni di post o commenti xenofobi e razzisti, possibilmente entro 24 ore, puntualizzando che si sarebbe trattato di quei contenuti che incitano apertamente e direttamente alla violenza verso il prossimo.
Ma, più che altro, la richiesta più insistente del Governo tedesco alle compagnie IT era stata, e continua a essere, un’altra: le cancellazioni dei contenuti devono basarsi sulla legge tedesca e non unicamente sulla policy e sulle guidelines delle rispettive piattaforme user-generated (vale a dire sulle leggi interne dei territori a sovranità aziendale di Facebook, Google & co).
Definire la base legale della rimozione dei contenuti online è il tema cruciale dell’intero scenario, un tema la cui delicatezza è diventata evidente nel maggio di quest’anno, quando è stata la Commissione Europea a volersi accordare con i colossi IT, sempre in nome della lotta contro le molteplici e crescenti forme dell’hate speech.
Lo scorso 31 maggio, la Commissione ha reso pubblico un codice di condotta accordato assieme a Facebook, Youtube, Twitter e Microsoft. Nel documento sono presentate le azioni di rimozione di contenuti ritenuti oggettivamente pericolosi. Nel testo viene anche sottolineato come la “libertà d’espressione sia un valore europeo centrale da preservare”, ricordando che debba esserci una distinzione tra quei contenuti che semplicemente “offendono, scioccano o disturbano”, vale a dire materiale che non va rimosso, e quei contenuti che sono chiari e seri “incitamenti alla violenza”, vale a dire il materiale che dovrebbbe essere rimosso.
Proprio l’approssimazione insita in questo passaggio del documento della Commissione Europea, però, è alla base di numerose critiche circostanziate, avanzate da varie associazioni per i diritti digitali. Un esempio è l’European Digital Rights (EDRi), che si è occupato con precisione del testo presentato a maggio, portando alla luce i rischi e le debolezze del percorso intrapreso dalla Commissione, che, tra l’altro, ha agito nella formula di accordi bilaterali che hanno escluso la partecipazione di qualsiasi altra realtà della scoietà civile europea.
La domanda che emerge in merito agli accordi della Commissione Europea, così come in occasione delle iniziative del Governo tedesco contro l’hate speech è una, costante e quasi insormontabile: chi decide quali contenuti siano un pericolo e un incitamento alla violenza e quali contenuti, invece, siano una libera espressione di opinioni semplicemente controverse e/o sgradevoli e/o disturbanti?
La risposta potrebbe essere semplice. Di solito, queste sarebbero decisioni di competenza di un tribunale, nei tempi previsti dalla legge e sulle fondamenta di una Costituzione repubblicana. Ma non è così che funzionano, e funzioneranno, le rimozioni di contenuti su Facebook, Twitter o Youtube. A decidere cosa cancellare o meno è, di fatto, un’azienda privata, che può essere influenzata dall’azione statale, ma ha un accesso pressoché esclusivo ai propri contenuti e, sostanzialmente, può fare quello che vuole, nei tempi che ritiene opportuni, senza intoppi procedurali e senza dover rimediare a eventuali errori.
Sia chiaro, non c’è niente di cui stupirsi: le grandi aziende private sono, appunto, grandi aziende private e, sostanzialmente, fanno quello preferiscono, quando preferiscono, come preferiscono. Questo avviene nonostante si sia largamente diffusa l’idea che, data la natura praticamente infrastrutturale e tecnicamente monopolistica di realtà come Facebook e Youtube, queste debbano avere una qualche funzione pubblica. Non è così, non lo sarà mai. I soli interessi pubblici di una compagnia IT sono: rispettare la forma della legge, accordarsi con le istituzioni (più o meno) democratiche dei paesi in cui vivono gli utenti e proteggere l’efficienza del proprio brand sul mercato. In ultima analisi: lo Stato può dire a Facebook cosa cancellare, ma non può dire a Facebook cosa NON cancellare. Lo scenario che ne deriva è che le potenziali forme di censura, statale e privata, non si equilibrano a vicenda, ma tendono piuttosto a sommarsi.
L’INTERVENTISMO DEL GOVERNO TEDESCO
Quello tra il Governo tedesco e i grandi colossi del web, quindi, è un vero e proprio scontro diplomatico per l’affermazione dell’esercizio dell’autorità e, nel caso dello Stato tedesco, si tratta di un’autorità sancita democraticamente dalla sovranità popolare (una circostanza che, però, non garantisce continuamente l’opportunità e la necessità delle scelte governative).
Lo scorso luglio è stato sempre il Ministro della Giustizia Maas a dichiarare di essere insoddisfatto di quanto offerto fino ad oggi da Facebook. Maas ha dichiarato che “viene fatto ancora troppo poco e troppo lentamente” nella rimozione di contenuti che rientrano nella categoria di hate speech.
Poco più di un mese dopo, a fine agosto 2016, è stato il Ministro dell’Interno, Thomas de Maizière a rincarare la dose. In occasione di una visita negli uffici berlinesi del Social Network globale, de Maizière ha esplicitamente invitato Facebook a perfezionare un sistema di upload-filter, che renda algoritmicamente difficile la distribuzione di contenuti d’incitamento all’odio e di propaganda terroristica. Il Ministro ha dichiarato che “Facebook dovrebbe eliminare autonomamente i contenuti razzisti e d’incitamento all’odio, anche se non ha ricevuto alcuna segnalazione”. L’invito del Ministro scavalca la stessa impostazione della collaborazione legale e pone la questione sul piano della responsabilità civile delle aziende, consegnando l’intera questione a un’indeterminatezza destinata a un’inevitabile confusione.
LA PROTESTA POLITICA+DIGITALE
L’idea di un sistema di filtro automatico contro l’upload non fa che rafforzare le preoccupazioni degli attivisti dei diritti digitali.
Venerdì 7 ottobre si è tenuta a Berlino la terza conferenza dell’organizzazione Netzpolitik, una delle più importanti realtà tedesche che si occupano di diritti in rete e della rete. Durante l’incontro, la questione del trasferimento dell’autorità censoria dai governi alle imprese private è riemersa in continuazione ed è stata giudicata come irrimediabilmente decisiva. Non solo: a Berlino ci si è chiesti, ancora e di nuovo, come si possa realmente definire l’hate speech, non trascurandone i pericoli e, al tempo stesso, non finendo per erodere i principi della libera espressione. Certo, ci sono contenuti che sono esplicitamente riconoscibili nella loro illegalità, ad esempio i messaggi o i video di associazioni terroristiche che ritraggono omicidi o crimini. Ma è la zona grigia dei contenuti non chiaramente illegali quella che preoccupa maggiormente gli attivisti. Perché è nella zona grigia che si deciderà il destino della libertà d’espressione: l’accusa di sostegno al terrorismo o d’incitamento alla violenza, quando si trasforma in un reato d’opinione, è un grimaldello da sempre pericoloso, le cui conseguenze sono dettate da chi, ora o in futuro, avrà il potere di utilizzarlo.
DAI GRUPPI FACEBOOK AI RAID DELLA POLIZIA
Intanto, quest’estate, la BKA, la Polizia Federale tedesca, ha dato vita a una prima, spettacolare, serie di raid nelle abitazioni di persone sospettate di aver creato e diffuso contenuti d’odio online. Il 13 luglio 2016 sono state perquisite 60 abitazioni, distribuite nei 16 stati federali, allo scopo di smantellare la comunità di un gruppo Facebook apertamente neonazista e, quindi, illegale nel paese. La determinazione della Polizia è stata più che emblematica e il capo della BKA, Holger Münch, ha dichiarato che “l’hate speech avvelena il dibattito politico” e che “il crescente numero di attacchi xenofobi nei confronti di migranti e rifugiati è il risultato di una radicalizzazione che comincia su internet”.
I raid sono una chiara evoluzione del semplice contrasto digitale all’hate speech, un’azione repressiva che rintraccia e affronta fuori dalla virtualità le dinamiche che, per anni, sono state considerate come isolate in uno spazio parallelo. Un’evoluzione che dimostra come lo Stato tedesco sia incredibilmente deciso nell’arginare le pulsioni più incendiarie della Germania contemporanea, affrontandole come un pericolo concreto e reale per la stabilità sociale e istituzionale della Repubblica.
Resta però la sensazione che, attualmente, il Governo tedesco sia sempre più concentrato sul tentativo di curare l’hate speech come sintomo, piuttosto che impattare le disseminate malattie sociali che generano l’odio online (e che, piaccia o meno, continueranno a generarlo). La cura può essere considerata come strategicamente necessaria, ma rischia di rivelarsi profondamente tossica, con effetti collaterali completamente inediti e difficilmente reversibili.
_
Immagine: Google search, screenshot
Devi fare login per commentare
Accedi