24.6.15

Robot assassini. La guerra delegata (Gabriele Catania)

Forse tra qualche decennio i corrispondenti di guerra (se esisteranno ancora) racconteranno di scontri devastanti tra carri armati automatizzati, o tra sciami di robot volanti. Una Götterdämmerung high-tech degna di un romanzo di Robert Heinlein o Philip Dick che realizzerebbe in pieno la sintesi di Thomas Edison: «La guerra moderna è più una questione di macchine che di uomini».
Questa visione al momento pare davvero uscire da un libro di fantascienza, ma sono già state investite ingenti quantità di denaro per accorciare i tempi che ci separano dai futuri campi di battaglia sui quali, secondo gli esperti, i robot nel XXI secolo potrebbero svolgere un ruolo decisivo.
Ipotesi che desta non poca inquietudine e sulla quale la comunità internazionale ancora deve pronunciarsi.
Lo scorso 14 novembre, i Paesi aderenti alla Convenzioni Onu delle armi convenzionali si sono riunite a Ginevra per discutere quelli che tecnicamente vengono definiti sistemi d’arma autonomi letali (Laws) e che i pacifisti hanno già ribattezzato «robot assassini». I convenuti, che avevano avviato i primi colloqui nel maggio del 2014, hanno per ora deciso di non decidere fissando un nuovo appuntamento per il prossimo aprile.
Negli stessi giorni (l’11 novembre) il New York Times ha pubblicato un articolo sul prototipo di un missile anti-nave sviluppato dall'americana Lockheed Martin, capace di scegliersi da solo l’imbarcazione da distruggere, uno tra i tanti robot che secondo lo studioso statunitense Peter W. Singer, autore del saggio Wiredfor war - the robotics revolution and conflict in the 21st century (Penguin), cambieranno non solo il modo in cui facciamo la guerra, ma anche chi la fa. Il loro impatto - assicura - sarà più rivoluzionario di quello delle testate nucleari nel XX secolo.
«Negli ultimi due anni diversi rapporti e convegni hanno evidenziato l’esistenza di sistemi robotici con diversi gradi di autonomia e letalità. - dice a pagina99 Mary Wareham, responsabile della divisione armamenti dell’ong Human Rights Watch (Hrw). Fa alcuni esempi: i droni aerei Predator e Reaper (Stati Uniti), e quelli terrestri Guardium (Israele); i prototipi di aerei da combattimento senza pilota X-47B (Stati Uniti) e Taranis (Regno Unito), capaci di cercare, identificare e (se autorizzati) ingaggiare i nemici; le sentinelle robotizzate Sgr-Al (Corea del Sud) e Sentry Tech (Israele), con sensori per individuare gli obiettivi, e mitragliatrici pronte a far fuoco. E i missili britannici Brimstone già distinguono tra tank e macchine e possono inseguire un bersaglio senza aver bisogno di supervisione umana.
Sia chiaro però: al momento nessun esercito del mondo ha in dotazione robot autonomi letali (Lar) in grado di uccidere una persona senza il comando diretto di un altro essere umano. E comunque, «c’è ancora un grande divario tra le decisioni che l’intelligenza artificiale e i sensori possono prendere, e quello che si vede nei film di Hollywood, tuttavia, è un divario destinato a ridursi ogni giorno - è l’opinione personale di Quentin Ladetto, research director della Armasuisse (il centro di competenza elvetico per l’acquisto di sistemi e materiali tecnologici complessi per l’esercito) - Quanto affidabile può essere una macchina, e in quali circostanze può decidere se una persona rappresenta una minaccia o no, e in tal caso rispondere in modo proporzionale? Sono questi gli interrogativi cruciali. E poi conta pure dove viene dispiegato il sistema d'arma. Per esempio, se un Laws è istallato a difesa permanente di una centrale nucleare è una cosa, se invece è mobile e opera in una città con militari ma anche civili è un'altra. Comunque ho l’impressione che in luttuosi produrranno sì I.aws, ma nell'ambito di società con un alto grado di automazione, dove circoleranno già auto che si guidano da sole, robot e così via».
In ogni caso le Ong di tutto il mondo sono sul piede di guerra. In particolare, ha destato l’attenzione dei media la campagna Stop Killer Robots, promossa tra l’altro proprio dalla Hrw. «La campagna vuole proibire in via preventiva e totale lo sviluppo, la produzione e l’uso dei cosiddetti robot assassini. - spiega la Wareham, che è anche coordinatrice della campagna - Il nostro obiettivo è proibire che gli esseri umani siano estromessi dal controllo delle armi autonome». Probabilmente le ong fanno bene ad agire in anticipo.
In un rapporto del 2012 diretto al presidente Barack Obama, il National Intelligence Council Usa prevede: «Ci si aspetta che i militari utilizzino di più i robot per ridurre l’esposizione umana in situazioni o ambienti ad alto rischio, così come il numero di truppe necessarie per certi tipi di operazioni». Ancora: «I veicoli autonomi potrebbero trasformare le operazioni militari, la risoluzione dei conflitti, il trasporto e il rilevamento geografico. Veicoli aerei privi di equipaggio (Uav, i droni aerei) sono già usati a scopo di spionaggio o per lanciare missili. Entro il 2030, gli Uav potrebbero essere comunemente usati per monitorare i conflitti, far rispettare le no-fly zone, sorvegliare i confini».
Previsioni a parte, è innegabile l’esistenza di un trend globale verso la creazione di sistemi d’arma autonomi tanto sofisticati quanto distruttivi. «I sistemi privi di esseri umani stanno offrendo un contributo significativo alle operazioni del Dipartimento della difesa in tutto il mondo» rileva un lungo rapporto del Defense Science Board del Pentagono, riferendosi principalmente agli Uav. «Credo che i sistemi pilotati a distanza avranno un grande impatto sulle prossime guerre. Lo scopo è porre una distanza tra chi combatte e il teatro di guerra, ed evitare morti, almeno da un lato - spiega Ladetto - Penso invece che le forze armate non siano pronte (quanto a mentalità, procedure, regole di condotta e così via) ad adottare i Laws. Personalmente sarei più preoccupato dell’utiliz-zo, nei prossimi decenni, di sistemi d’arma a pilotaggio remoto, in grado di generare enormi tensioni e scontri asimmetrici che potrebbero condurre a nuove forme di violenza a causa dell’incapacità delle persone di reagire al nemico».
Secondo dati ufficiali americani, dal 2005 al 2010 le ore volate dagli Uav sono passate da 10 mila a oltre 500 mila. E le persone uccise dal 2002 a oggi sarebbero, secondo una stima dell’American Civil Liberties Union, circa 4000. Da quando Obama è stato eletto alla Casa Bianca, la guerra globale al terrorismo islamista è stata combattuta sempre di più attraverso i voli letali di Uav come il già citato Predator.
Ma per quanto possano essere terrorizzanti (i civili afgani arrivano a paragonare i droni a mostruosi angeli della morte), gli Uav non sono ancora Laws. Chi ordina il lancio di un missile contro un obiettivo nemico è sempre una persona. Che magari si trova a migliaia di chilometri di distanza dal teatro di guerra. Come Brandon Biyant, che dal 2006 al 2011 è stato remotely-piloted-aircraft sensor operator presso la base aeronautica di Nellis, alla periferia di Las Vegas. Il mensile Gq, che lo ha intervistato nell’au-tunno del 2013, lo ha descritto come “la macchina assassina americana del XXI secolo”; Bryant però non è un robot, ed è ancora ossessionato da quegli anni, quando operava in modalità zombie in missioni che avrebbero provocato la morte di oltre 1600 persone.
La guerra con i droni può ricordare un videogioco: l’operatore combatte comodamente seduto su una poltrona ergonomica, gli occhi puntati sullo schermo, e le dita incollate alla tastiera. Di tanto in tanto può dissetarsi con un sorso di gazzosa, o placare i morsi della fame sgranocchiando uno snack. Niente sangue, né urla, né fumo: solo numeri, parole e immagini sfocate su un monitor ultrapiatto.
Ma la spersonalizzazione della guerra è solo agli inizi. Lo sottolinea a pagina99 Francesco Vignarca, coordinatore nazionale della Rete Italiana per il Disarmo. «A differenza dei droni, che comunque sono guidati a distanza da esseri umani, i Laws avranno appunto la capacità di decidere in modo autonomo. Non sarà più la persona a schiacciare il famigerato bottone rosso: dalla spersonalizzazione della guerra si passerà così alla sua disumanizzazione».
Jürgen Altmann, ricercatore e docente di fisica all’università tedesca di Dortmund, è tra i membri fondatori del Comitato internazionale per il controllo delle armi robot (Icrac).
Elenca i motivi per proibire i robot assassini. «Per i prossimi decenni, i sistemi informatici o le cosiddette intelligenze artificiali non potranno garantire il rispetto del diritto internazionale umanitario, almeno in situazioni di moderata complessità. Si pensi a principi fondamentali come la distinzione tra i combattenti e i non-combattenti; o a regole specifiche come riconoscere quando un combattente è hors de combat».
Preoccupatissimo è pure Noel Sharkey, docente emerito di intelligenza artificiale e robotica all’università di Sheffield, nel Regno Unito, nonché presidente del comitato internazionale per il controllo delle armi robot (Icrac): «Supereremmo un confine morale cruciale delegando la decisione di uccidere alle macchine. Sarebbe l’inizio di un possibile futuro da incubo. - dichiara a pagina99 - Dare ai robot una simile scelta sarebbe il più grande insulto immaginabile alla dignità umana».


“Pagina 99 we”, 13 dicembre 2014

Nessun commento:

statistiche