Legislazione

Calcolo quindi sono. La legge è pronta per l’arrivo dei robot?

24 Febbraio 2015

«Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno». Era il 1942 e Isaac Asimov presentiva già l’esigenza che un giorno si sarebbe dovuto fissare un insieme di leggi per regolare il comportamento degli automi. I robot sognati dallo scrittore godono, almeno in apparenza, di ampia autonomia di decisione e di movimento, grazie al loro cervello positronico – qualunque cosa questo aggettivo possa voler dire nel mondo dell’immaginario. Ne abbiamo parlato con Marco Gaspardone Responsabile del Joint Open Lab CRAB (Connected Robotics Applications laB) di Telecom Italia il quale ci avvisa che il tempo stringe, e che presto occorrerà provvedere nell’universo reale alla formulazione di un sistema normativo che includa anche i robot tra i soggetti del Diritto. La dimensione dell’intelligenza artificiale infatti sta esondando dai confini delle fabbriche e dei laboratori, dove è stata rinchiusa fino ad oggi, per riversarsi negli spazi della vita quotidiana, nelle case, negli ospedali, nei cieli delle nostre città.

La nuova epoca si fa annunciare da un’etichetta tranquillizzante, quella di «robotica di servizio», che ha la funzione di distinguerla dalla vasta famiglia di dispositivi in uso nelle aziende manifatturiere (e che finisce sotto il titolo di «robotica industriale»). Gli automi destinati ad abitare con noi e a condividere le nostre attività più consuete cominciano però già a presentare una vaga somiglianza con quelli descritti da Asimov, se non altro per la loro autonomia di movimento e per la loro capacità di controllare l’interazione con l’ambiente esterno. I sistemi MEMS e NEMS (Micro e Nano Electro Mechanical System) dotano i robot di gruppi strumentali destinati al governo delle funzioni sensoriali e di quelle attuative. Ci prepariamo quindi ad un futuro molto prossimo in cui le macchine intratterranno con noi relazioni sociali, collaboreranno nei servizi sociali e in quelli medici, ci ascolteranno, ci aiuteranno, e forse ci conforteranno. Anche per i robot sta per finire il tempo della schiavitù in fabbrica e dell’alienazione alla catena di montaggio. Automi di tutto il mondo, unitevi.

Ma i nostri robot sarebbero davvero in grado di unirsi? Naturalmente no. Tutti i comportamenti che sono in grado di mettere in opera sono determinati dalla programmazione in C++ e Python che li governa in modo strettamente deterministico. Nessun automa può fare o dire alcunché di sorprendente, a meno che non compaia qualche errore nelle procedure di esecuzione del software o nell’interpretazione dei segnali ambientali catturati dai sensori. Se esiste un Golem, il suo corpo è fatto di lacune, dei bug del programma, e la sua mente è popolata dalle allucinazioni dei suoi canali percettivi.

Lo sviluppatore (in teoria) prevede tutti i rapporti possibili tra le procedure che si devono innescare per la gestione del comportamento della macchina, incluse le occasioni che producono l’interruzione di un processo e la sua sostituzione con un altro. Ma la divinazione non è una scienza e non tutte le sequenze possono essere anticipate. In più, occorre fare i conti con le anomalie – sempre possibili – del funzionamento dei sensori, che testimoniano all’intelligenza artificiale un insieme di condizioni ambientali divergenti dal reale. Capita anche a noi di non percepire in modo corretto i dislivelli del terreno, fino ad inciampare, di essere ingannati da errori di prospettiva, di prendere abbagli di vario genere. Anche i robot possono commettere sbagli di questo genere, solo che per ora sono esclusi dalle conseguenze civili e penali che la loro distrazione comporta per gli esseri umani.

Per il Codice Penale la responsabilità è personale, non robotica. La macchina che sbaglia è un fantasma, un’omissione nel codice che la governa in maniera deterministica, e che non può prevedere istanze come rivolte, invidie, vendette o furti. Come insegna Agostino, il male è una carenza d’Essere, non una sostanza autonoma. Questo sembra valere a maggior ragione per i robot, che dirottano l’imputazione dei loro errori verso altri soggetti, come i loro costruttori o i loro utilizzatori in caso di danno ad altri umani.

Si può ridurre il rischio di errori, più o meno pericolosi? Solo tentando di prevedere tutte le modalità di interazione con l’ambiente esterno. Un modo garbato per affermare che no, un margine di rischio continuerà sempre a sopravvivere, aprendo un cuneo di imprevedibilità nelle reazioni dei robot. È bizzarro, ma una considerazione di questo genere sembra avvicinare le macchine a tutti noi umani molto al di là di quanto voglia ammettere il Diritto, soprattutto se si dà credito alle affermazioni delle scienze cognitive e ai loro programmi di ricerca. Se si pensa alle teorie di Hofstadter o di Dennett sulla struttura delle mente umana, il perimetro che si disegna attorno al nostro libero arbitrio non è molto più ampio di quello che vene riconosciuto ai nostri amici meccanici. Il cervello è una struttura deterministica che agisce in obbedienza a vincoli computazionali della macchina di Turing Universale. In altre parole, è anch’esso un computer, anche se molto potente. Il margine di libertà che ci possiamo concedere riguarda proprio le lacune, gli errori, gli incidenti che insorgono dall’imprevedibilità delle relazioni con l’ambiente e dalle distorsioni del programma, che però finiscono per affollare quella sezione del manuale d’uso degli esseri umani che noi percepiamo come indici dei manuali di psichiatria. L’autonomia dell’arbitrio è sempre un incidente, una distrazione e una deviazione dalla norma: un errore da evitare.

Dal momento che non si può trascinare davanti ad un tribunale il progettista della nostra mente, il Codice Penale ripiega convocando direttamente i robot umani in presenza dei giudici. Con gli automi di silicio invece è possibile identificare responsabili in carne ed ossa, che si facciano carico degli errori delle loro creature meccaniche. O che possano essere accusati del sabotaggio delle creature altrui, quando l’anomalia non è prodotta da una lacuna del software ma da un virus che viene introdotto negli ingranaggi di elaborazione (che di per sé avrebbero funzionato senza falle).

Ma la generazione di robot di servizio che sembra più prossima ad entrare in funzione non è composta da legioni di umanoidi ai nostri comandi, bensì dallo sciame di droni che potrebbero cominciare a volare a bassa quota nei cieli urbani. Marco Gaspardone osserva che la fase di sviluppo che ci separa dalla loro invasione prevede difficoltà più di ordine economico e legale che tecnologico. L’apertura di un mercato dei robot richiede ancora la definizione di business plan convincenti, ma soprattutto di un modello concettuale dei servizi che include anche tutti gli aspetti normativi del caso. Nel caso dei droni, l’ENAC ha posto l’Italia in una situazione di avanguardia europea, fornendo una regolamentazione del volo «senza pilota» improntata alla prudenza e alla necessità di evitare lesioni alle persone di passaggio. Il compito di chi presidia i lavori di sviluppo concettuale e tecnologico consiste nel guidare il passaggio dalla fase di «demo tecnologiche» a «prototipi di prodotti», calando nella realtà concreta del mercato e dell’esperienza quotidiana ciò che ancora oggi (ma per poco) fluttua nei cieli della ricerca accademica.

La tecnologia è quasi pronta, ma quella che si prepara è una rivoluzione culturale e una trasformazione radicale delle nostre abitudini di vita. Saremo pronti tra pochi anni ad affidare le nostre cause ad un iParrymason di silicio?

(Contenuto Sponsorizzato)

Commenti

Devi fare login per commentare

Accedi

Gli Stati Generali è un progetto di giornalismo partecipativo

Vuoi diventare un brain?

Newsletter

Ti sei registrato con successo alla newsletter de Gli Stati Generali, controlla la tua mail per completare la registrazione.