Forse tra qualche
decennio i corrispondenti di guerra (se esisteranno ancora)
racconteranno di scontri devastanti tra carri armati automatizzati, o
tra sciami di robot volanti. Una Götterdämmerung high-tech degna di
un romanzo di Robert Heinlein o Philip Dick che realizzerebbe in
pieno la sintesi di Thomas Edison: «La guerra moderna è più una
questione di macchine che di uomini».
Questa visione al momento
pare davvero uscire da un libro di fantascienza, ma sono già state
investite ingenti quantità di denaro per accorciare i tempi che ci
separano dai futuri campi di battaglia sui quali, secondo gli
esperti, i robot nel XXI secolo potrebbero svolgere un ruolo
decisivo.
Ipotesi che desta non
poca inquietudine e sulla quale la comunità internazionale ancora
deve pronunciarsi.
Lo scorso 14 novembre, i
Paesi aderenti alla Convenzioni Onu delle armi convenzionali si sono
riunite a Ginevra per discutere quelli che tecnicamente vengono
definiti sistemi d’arma autonomi letali (Laws) e che i pacifisti
hanno già ribattezzato «robot assassini». I convenuti, che avevano
avviato i primi colloqui nel maggio del 2014, hanno per ora deciso di
non decidere fissando un nuovo appuntamento per il prossimo aprile.
Negli stessi giorni (l’11
novembre) il New York Times ha pubblicato un articolo sul prototipo
di un missile anti-nave sviluppato dall'americana Lockheed Martin,
capace di scegliersi da solo l’imbarcazione da distruggere, uno tra
i tanti robot che secondo lo studioso statunitense Peter W. Singer,
autore del saggio Wiredfor war - the robotics revolution and
conflict in the 21st century (Penguin), cambieranno non solo il
modo in cui facciamo la guerra, ma anche chi la fa. Il loro impatto -
assicura - sarà più rivoluzionario di quello delle testate nucleari
nel XX secolo.
«Negli ultimi due anni
diversi rapporti e convegni hanno evidenziato l’esistenza di
sistemi robotici con diversi gradi di autonomia e letalità. - dice a
pagina99 Mary Wareham, responsabile della divisione armamenti
dell’ong Human Rights Watch (Hrw). Fa alcuni esempi: i droni aerei
Predator e Reaper (Stati Uniti), e quelli terrestri Guardium
(Israele); i prototipi di aerei da combattimento senza pilota X-47B
(Stati Uniti) e Taranis (Regno Unito), capaci di cercare,
identificare e (se autorizzati) ingaggiare i nemici; le sentinelle
robotizzate Sgr-Al (Corea del Sud) e Sentry Tech (Israele), con
sensori per individuare gli obiettivi, e mitragliatrici pronte a far
fuoco. E i missili britannici Brimstone già distinguono tra tank e
macchine e possono inseguire un bersaglio senza aver bisogno di
supervisione umana.
Sia chiaro però: al
momento nessun esercito del mondo ha in dotazione robot autonomi
letali (Lar) in grado di uccidere una persona senza il comando
diretto di un altro essere umano. E comunque, «c’è ancora un
grande divario tra le decisioni che l’intelligenza artificiale e i
sensori possono prendere, e quello che si vede nei film di Hollywood,
tuttavia, è un divario destinato a ridursi ogni giorno - è
l’opinione personale di Quentin Ladetto, research director della
Armasuisse (il centro di competenza elvetico per l’acquisto di
sistemi e materiali tecnologici complessi per l’esercito) - Quanto
affidabile può essere una macchina, e in quali circostanze può
decidere se una persona rappresenta una minaccia o no, e in tal caso
rispondere in modo proporzionale? Sono questi gli interrogativi
cruciali. E poi conta pure dove viene dispiegato il sistema d'arma.
Per esempio, se un Laws è istallato a difesa permanente di una
centrale nucleare è una cosa, se invece è mobile e opera in una
città con militari ma anche civili è un'altra. Comunque ho
l’impressione che in luttuosi produrranno sì I.aws, ma nell'ambito
di società con un alto grado di automazione, dove circoleranno già
auto che si guidano da sole, robot e così via».
In ogni caso le Ong di
tutto il mondo sono sul piede di guerra. In particolare, ha destato
l’attenzione dei media la campagna Stop Killer Robots,
promossa tra l’altro proprio dalla Hrw. «La campagna vuole
proibire in via preventiva e totale lo sviluppo, la produzione e
l’uso dei cosiddetti robot assassini. - spiega la Wareham, che è
anche coordinatrice della campagna - Il nostro obiettivo è proibire
che gli esseri umani siano estromessi dal controllo delle armi
autonome». Probabilmente le ong fanno bene ad agire in anticipo.
In un rapporto del 2012
diretto al presidente Barack Obama, il National Intelligence Council
Usa prevede: «Ci si aspetta che i militari utilizzino di più i
robot per ridurre l’esposizione umana in situazioni o ambienti ad
alto rischio, così come il numero di truppe necessarie per certi
tipi di operazioni». Ancora: «I veicoli autonomi potrebbero
trasformare le operazioni militari, la risoluzione dei conflitti, il
trasporto e il rilevamento geografico. Veicoli aerei privi di
equipaggio (Uav, i droni aerei) sono già usati a scopo di spionaggio
o per lanciare missili. Entro il 2030, gli Uav potrebbero essere
comunemente usati per monitorare i conflitti, far rispettare le
no-fly zone, sorvegliare i confini».
Previsioni a parte, è
innegabile l’esistenza di un trend globale verso la creazione di
sistemi d’arma autonomi tanto sofisticati quanto distruttivi. «I
sistemi privi di esseri umani stanno offrendo un contributo
significativo alle operazioni del Dipartimento della difesa in tutto
il mondo» rileva un lungo rapporto del Defense Science Board del
Pentagono, riferendosi principalmente agli Uav. «Credo che i sistemi
pilotati a distanza avranno un grande impatto sulle prossime guerre.
Lo scopo è porre una distanza tra chi combatte e il teatro di
guerra, ed evitare morti, almeno da un lato - spiega Ladetto - Penso
invece che le forze armate non siano pronte (quanto a mentalità,
procedure, regole di condotta e così via) ad adottare i Laws.
Personalmente sarei più preoccupato dell’utiliz-zo, nei prossimi
decenni, di sistemi d’arma a pilotaggio remoto, in grado di
generare enormi tensioni e scontri asimmetrici che potrebbero
condurre a nuove forme di violenza a causa dell’incapacità delle
persone di reagire al nemico».
Secondo dati ufficiali
americani, dal 2005 al 2010 le ore volate dagli Uav sono passate da
10 mila a oltre 500 mila. E le persone uccise dal 2002 a oggi
sarebbero, secondo una stima dell’American Civil Liberties Union,
circa 4000. Da quando Obama è stato eletto alla Casa Bianca, la
guerra globale al terrorismo islamista è stata combattuta sempre di
più attraverso i voli letali di Uav come il già citato Predator.
Ma per quanto possano
essere terrorizzanti (i civili afgani arrivano a paragonare i droni a
mostruosi angeli della morte), gli Uav non sono ancora Laws. Chi
ordina il lancio di un missile contro un obiettivo nemico è sempre
una persona. Che magari si trova a migliaia di chilometri di distanza
dal teatro di guerra. Come Brandon Biyant, che dal 2006 al 2011 è
stato remotely-piloted-aircraft sensor operator presso la base
aeronautica di Nellis, alla periferia di Las Vegas. Il mensile Gq,
che lo ha intervistato nell’au-tunno del 2013, lo ha descritto come
“la macchina assassina americana del XXI secolo”; Bryant però
non è un robot, ed è ancora ossessionato da quegli anni, quando
operava in modalità zombie in missioni che avrebbero provocato la
morte di oltre 1600 persone.
La guerra con i droni può
ricordare un videogioco: l’operatore combatte comodamente seduto su
una poltrona ergonomica, gli occhi puntati sullo schermo, e le dita
incollate alla tastiera. Di tanto in tanto può dissetarsi con un
sorso di gazzosa, o placare i morsi della fame sgranocchiando uno
snack. Niente sangue, né urla, né fumo: solo numeri, parole e
immagini sfocate su un monitor ultrapiatto.
Ma la spersonalizzazione
della guerra è solo agli inizi. Lo sottolinea a pagina99 Francesco
Vignarca, coordinatore nazionale della Rete Italiana per il Disarmo.
«A differenza dei droni, che comunque sono guidati a distanza da
esseri umani, i Laws avranno appunto la capacità di decidere in modo
autonomo. Non sarà più la persona a schiacciare il famigerato
bottone rosso: dalla spersonalizzazione della guerra si passerà così
alla sua disumanizzazione».
Jürgen Altmann,
ricercatore e docente di fisica all’università tedesca di
Dortmund, è tra i membri fondatori del Comitato internazionale per
il controllo delle armi robot (Icrac).
Elenca i motivi per
proibire i robot assassini. «Per i prossimi decenni, i sistemi
informatici o le cosiddette intelligenze artificiali non potranno
garantire il rispetto del diritto internazionale umanitario, almeno
in situazioni di moderata complessità. Si pensi a principi
fondamentali come la distinzione tra i combattenti e i
non-combattenti; o a regole specifiche come riconoscere quando un
combattente è hors de combat».
Preoccupatissimo è pure
Noel Sharkey, docente emerito di intelligenza artificiale e robotica
all’università di Sheffield, nel Regno Unito, nonché presidente
del comitato internazionale per il controllo delle armi robot
(Icrac): «Supereremmo un confine morale cruciale delegando la
decisione di uccidere alle macchine. Sarebbe l’inizio di un
possibile futuro da incubo. - dichiara a pagina99 - Dare ai robot una
simile scelta sarebbe il più grande insulto immaginabile alla
dignità umana».
“Pagina 99 we”, 13
dicembre 2014
Nessun commento:
Posta un commento