Governo

L’informatica, il terrorismo e la paura

19 Novembre 2015

È inutile negarlo i fatti di Parigi ci toccano, ci mettano paura più di tanti altri. La gestione e il risalto del falso allarme bomba alla stazione della metro di Lepanto a Roma (e dei successivi) esemplificano a pieno questa situazione di paura. Paura è la cosa principale che ha generato questi attacchi terroristici. Non è solo l’attacco terroristico che genera paura, ma anche il tentativo di soluzione perché come Zygmunt Bauman arguisce “l’ingrediente base, il più imponente prodotto della guerra contro i terroristi accusati di seminare la paura, è stato fino ad ora la paura stessa” (Il demone della paura, 2014).

La paura non deve essere la strada che guida le nostre decisioni. Per questo, all’indomani dei fatti di Parigi, alla presentazione del nuovo settimanale edito da La Stampa, a Matteo Renzi, parlando di informazione e collegandosi ai temi di attualità, che affermava “La tecnologia e le banche dati possono aiutare la lotta al terrorismo”, mi veniva da rispondere via twitter “La data analisi è scienza. Come la si usa è importante: sicurezza vs. stato di polizia”.

Un tweet è veloce, immediato, pochi caratteri, più uno spot che una riflessione.

Il rapporto tra scienza ed etica è una questione ampiamente studiata e in continuo divenire. Personalmente lavorando nell’ambito dell’informatica (sia teorica, sia “applicata”) per vari anni mi sono sentito immune da queste riflessioni usando come scudo l’idea “un algoritmo è solo un algoritmo (ovvero un insieme di istruzione da far eseguire alla macchina) ed è il suo uso a essere etico o no”. Negli ultimi anni mi sono ricreduto, e non posso considerare il mio lavoro completamente slegato da un suo uso.

Uno stimolo di riflessione fu, a gennaio di quest’anno, la lettera pubblicata sul sito dell’Istituto Future of Life, in cui si invitava a riflettere sul futuro dell’Intelligenza Artificiale e su come la ricerca in questo campo sia fortemente collegato con il futuro del nostro mondo. La questione etica non la si può limitare (estremizziamo) a dire “io non sviluppo algoritmi per il puntamento dei missili”, ma diviene essenziale in quanto l’informatica è oggi giorno ovunque e sempre più avvolgente, e scelte etiche risultano essere intrinseche in molti algoritmi. Per esempio, un automobile con pilota automatico come dovrebbe reagire nel caso si trovasse nella situazione di scegliere tra la vita dei passeggeri e quella dei pedoni? Ovviamente nell’ambito della letteratura fantascienza (e non solo da Isaac Asimov) molti di queste tematiche sono state esplorate, ma le Intelligenze artificiali e gli scenari sono molto più avanzati dei nostri e molte volte si tratta solo di scuse per analizzare l’animo umano . Rimane il fatto che questa lettera non è un condanna verso l’Intelligenza Artificiale, ma una presa di posizione per riflettere su come sfruttare i suoi benefici e cercare di evitarne le potenziali problematiche.

Spunto di riflessione molto più inerente al mio tweet, è stata la partecipazione a gruppi di lavoro relativi alle smart city. Si tratta di un tema molto attuale dato lo svilupparsi dell’Internet of Thing e la mole di dati che ogni giorno, anche in tempo reale, si possono avere a disposizione e che posso essere utilizzati nella gestione di una moderna città. Se a caldo la prima preoccupazione era che una città completamente automatizzata potesse bloccarsi completamente (come ipotizzato dall’ingegnere e scrittore Roberto Vacca nel suo romanzo La morte di megalopoli, 1974, dove incidente banale genera una reazione a catena portando alla completa autodistruzione degli Stati Uniti), quello che mi apparve poi chiaro è che lo sviluppo di smart city sia un terreno minato. Infatti, molte decisioni possono influenzare sensibilmente i comportamenti sia delle masse sia dei singoli individui e questo pur nel rispetto della privacy (altra questione molto spinosa).

É evidente, a fronte ti questa lunga premessa, che, per chi come me ama 1984 di George Orwell, alcune frasi dette a cuor leggero dal nostro primo ministro nell’attuale situazione possano far scattare una serie di campanelli di allarme, perché un eventuale (magari graduale) sacrificio delle libertà personali a nome della sicurezza può sembrare uno scambio molto allettante. Le informazioni a disposizione sono tantissime e la situazione che potrebbe delinearsi oggi potrebbe essere quella descritta da Cory Doctorow nel romanzo distopico X (titolo originale Little Brothers, 2008) dove a fronte di un attentato terroristico molte delle libertà individuali vengono sospese e si instaura una sorta di stato di polizia con lo scopo di mantenere la sicurezza e lo si può fare in modo praticamente trasparente per gli individui usando i tuoi dati della carta di credito, le tue entrate in metropolitana, la tua cronologia del browser, i dati del traffico etc. Un computer scientist può privilegiare aspetti etici, ma non può prevedere tutti gli effetti di un algoritmo che inventa. Giusto per esemplificare (in modo molto banale) algoritmi usati in ambito farmacologico potrebbero essere utilizzati invece che per “progettare” farmaci per progettare virus.

Purtroppo non si può non fare un scelta e in questo momento la scelta è una scelta politica (di come vogliamo rapportarci agli altri). É una scelta che i governi debbono fare e, come arguisce Bauman, i governi non devono investire “sul capitale della paura: per un verso, smantellando le risorse pubbliche e organizzative capaci di alleviare l’instabilità della vita liquida; per l’altro, provocando un atteggiamento difensivo nei confronti di fenomeni, come l’immigrazione, quasi sempre privi di legame con la fonte autentica dell’ansia.”

Esiste una soluzione? Personalmente indicherei le parole di Paolo Breccia nella sua intervista a Rai News: «Non dobbiamo snaturare il nostro modo di essere». Non significa non aver paura, negarne l’esistenza del problema, ma affrontare la paura  pienamente senza nascondersi, perché aver paura è normale, sarebbe sciocco negarlo. Però la paura di questi giorni danneggia soprattutto i più giovani, perché aggrava l’insicurezza, che questi anni ci hanno donato, privandoli maggiormente, sempre citando Bauman, della prospettiva di investire, di fare progetti sul proprio futuro ovvero, per come la vedo io, di sognare e aspirare a essere felici.

Io non sono in grado di valutare completamente gli effetti di un algoritmo che “invento” (lavorando principalmente in ambito di informatica medica spererei di aiutare gli altri) e forse il limite da oltrepassare non è cosi sottile come penso, ma tutto questo è solo una parte della difficile ricetta per la situazione odierna, che non è scritta da nessuna parte. Il nostro impegno rimane una condizione necessaria, ma sicuramente concordo con un appunto di Bauman:  questa soluzione deve passare con l’aumento dei diritti, e non certo tramite la loro limitazione.

0 Commenti

Devi fare login per commentare

Login

Gli Stati Generali è un progetto di giornalismo partecipativo

Vuoi diventare un brain?

Newsletter

Ti sei registrato con successo alla newsletter de Gli Stati Generali, controlla la tua mail per completare la registrazione.