Tecnologia

Killer robots: la paura delle armi autonome

29 Luglio 2015

Oltre mille esperti di intelligenza artificiale e scienziati, tra cui Stephen Hawking, Elon Musk e Steve Wozniak, hanno firmato una lettera aperta,  presentata alla conferenza internazionale sull’intelligenza artificiale che si tiene in questi giorni a Buenos Aires, in cui chiedono il divieto di armi completamente autonome in grado di poter uccidere senza operatori: i cosiddetti killer robots. Secondo Hawking e Musk “l’intelligenza artificiale è la nostra più grande minaccia esistenziale e il suo sviluppo potrebbe significare la fine della razza umana”.

In questa lettera, messa insieme dal Future of Life Institute – un gruppo che lavora per ridurre i rischi esistenziali che affliggono l’umanità – si legge che “La tecnologia di intelligenza artificiale ha raggiunto un punto in cui la diffusione di tali sistemi sarà fattibile entro pochi anni e la posta in gioco è alta”. Queste armi robotiche saranno i Kalashnikov del futuro. Potrebbero includere anche droni armati in grado di uccidere. Si ritiene che sia solo una questione di tempo perché fra poco tali armi “saranno sul mercato nero e nelle mani di terroristi e signori della guerra che vogliono perpetrare una pulizia etnica”. Qualche mese fa, già Human Rights Watch e la Harvard Law School pubblicarono un rapporto congiuntamente, chiamato “Mind the Gap: The Lack of Accountability for Killer Robots,” in cui sostennero che le armi completamente autonome dovrebbero essere vietate dal trattato internazionale.

Viene certamente riconosciuto a favore della tecnologia che la sostituzione dei soldati con le macchine ridurrebbe il numero delle vittime sui campi di battaglia. Di contro però, si teme che ciò possa rendere i conflitti meno costosi e quindi più frequenti. A differenza delle armi nucleari, che richiederebbero materiali cari e difficili da ottenere, le armi completamente autonome possono essere prodotte in massa a basso costo. 

Inoltre sollevano preoccupazioni morali e legali. Perché è difficile capire chi possa essere il responsabile del loro utilizzo. Il rischio è che gli umani, i programmatori connessi con l’utilizzo di questo tipo di armi, possano poi sottrarsi alla responsabilità per la sofferenza causata dalle armi stesse.

Il punto chiave della questione è capire allora se sia meglio che l’umanità si appresti ad avviare la produzione di questo tipo di armamenti oppure se sia meglio impedirne l’espansione. Necessario un dibattito per capire quale sarà in futuro l’utilizzo delle armi intelligenti in guerra, considerate la terza rivoluzione degli armamenti dopo la polvere da sparo e le armi nucleari.

 

 

 

 

Commenti

Devi fare login per commentare

Accedi

Gli Stati Generali è un progetto di giornalismo partecipativo

Vuoi diventare un brain?

Newsletter

Ti sei registrato con successo alla newsletter de Gli Stati Generali, controlla la tua mail per completare la registrazione.