TECNOLOGIA: L'ASCESA DEI ROBOT E IL FUTURO DELLE GUERRE


Di fronte a un jet da combattimento nemico, c'è una cosa sensata che un drone militare dovrebbe fare: dividersi. Ma nel dicembre 2002, intrappolato nel mirino di un MiG iracheno, un Predator statunitense senza equipaggio è stato incaricato di restare fermo. Il MiG ha sparato, il Predator ha risposto al fuoco e il risultato, sfortunatamente per gli Stati Uniti, è stato un mucchio di parti di droni nel deserto dell'Iraq meridionale.

Questo incidente è spesso considerato il primo combattimento aereo tra un drone, propriamente noto come veicolo aereo senza pilota o UAV, e un caccia convenzionale con equipaggio. Eppure, in un certo senso, il Predator non aveva quasi alcuna possibilità. Gli UAV americani e britannici sono azionati a distanza da piloti seduti a migliaia di miglia di distanza sul tappeto erboso degli Stati Uniti, quindi le manovre sono ostacolate da ritardi del segnale di un quarto di secondo o più. Ciò significa che eludere i missili sarà sempre quasi impossibile, a meno che gli UAV non pilotano da soli.

Nel luglio di quest'anno, in mezzo a una foschia di ghiaccio secco e riflettori girevoli all'aerodromo di Warton, nel Lancashire, BAE Systems ha lanciato un prototipo di UAV che potrebbe fare proprio questo. Con un costo di sviluppo di oltre 140 milioni di sterline, il Taranis dall'aspetto alieno è stato classificato dal Ministero della Difesa come un velivolo "completamente autonomo" in grado di volare in profondità nel territorio nemico per raccogliere informazioni, sganciare bombe e "difendersi contro uomini e altri velivoli nemici senza pilota". Lord Drayson, ministro per gli appalti della difesa dal 2005 al 2007, ha affermato che Taranis "non avrebbe quasi bisogno del contributo dell'operatore".

Taranis è solo un esempio di un'enorme oscillazione verso sistemi di difesa autonomi: macchine che prendono decisioni indipendentemente da qualsiasi input umano, con il potenziale per cambiare radicalmente la guerra moderna. Gli stati con forze armate avanzate come gli Stati Uniti e il Regno Unito vedono l'autonomia come un modo per avere una portata più lunga, una maggiore efficienza e un minor numero di sacchi per cadaveri rimpatriati. La Strategic Defense and Security Review del governo, pubblicata il mese scorso, l'ha citato come un mezzo per "adattarsi all'imprevisto" in un momento di risorse limitate. Ma dietro lo sfarzo tecnologico, i sistemi autonomi nascondono una ricchezza di problemi etici e legali.

Per alcuni compiti militari, i robot armati possono già prendersi cura di se stessi. I lati di molte navi da guerra alleate sfoggiano un cannone Gatling come parte del sistema Phalanx, progettato per sparare automaticamente ai missili in arrivo. Israele sta schierando torrette di mitragliatrici lungo il confine con la Striscia di Gaza per prendere di mira automaticamente gli infiltrati palestinesi. Per questo sistema "See-Shoot", ha detto un comandante israeliano alla rivista di settore Defense News, un operatore umano darà il via libera al fuoco "almeno nelle fasi iniziali del dispiegamento".

Phalanx e See-Shoot sono sistemi automatizzati, ma non sono autonomi, una differenza sottile ma cruciale. Un distributore di bevande è un esempio di sistema automatizzato: si preme un determinato pulsante e fuoriesce la bottiglia corrispondente. In modo simile, la mitragliatrice Phalanx Gatling attende che appaia un certo segnale sul suo radar, quindi spara contro di essa. I sistemi autonomi, d'altra parte, svolgono compiti molto più complessi prendendo migliaia di letture dall'ambiente. Questi si traducono in un numero quasi infinito di stati di input, che devono essere elaborati attraverso un lungo codice informatico per trovare il miglior risultato possibile. Alcuni credono che sia lo stesso metodo di base che usiamo per prendere decisioni noi stessi.

Sistemi armati di alto profilo come Taranis mantengono segreta la vera natura della loro autonomia, ma altri progetti suggeriscono cosa potrebbe esserci in serbo. Al Robotics Institute della Carnegie Mellon University in Pennsylvania, i ricercatori stanno utilizzando i finanziamenti del Pentagono per sviluppare un carro armato a sei ruote che può trovare la propria strada attraverso un campo di battaglia. Il prototipo, che ha ribaltato la bilancia a sei tonnellate, è stato soprannominato Crusher grazie alla sua capacità di appiattire le auto. L'ultimo prototipo, noto come Autonomous Platform Demonstrator o APD, pesa nove tonnellate e può viaggiare a 50 mph.

La chiave dell'autonomia dell'APD è una gerarchia di strumenti di autonavigazione. Innanzitutto, scarica un percorso di base da una mappa satellitare, come Google Earth. Una volta che è partito, le videocamere stereo costruiscono un'immagine 3D dell'ambiente, in modo da poter pianificare un percorso più dettagliato attorno agli ostacoli. Per apportare piccole modifiche, i laser effettuano quindi misurazioni di precisione della sua vicinanza al terreno circostante.

Dimi Apostolopoulos, investigatore principale dell'APD, mi ha detto che il suo carico utile potrebbe includere sistemi di ricognizione o armi a cavallo, principalmente per l'uso nelle aree più pericolose dove i comandanti sono restii a schierare soldati umani. "Per quanto strano possa sembrare, crediamo che l'introduzione della robotica cambierà la guerra", ha detto. "Non ci sono dubbi su questo. Porterà molte persone fuori dalle situazioni più difficili. E la mia convinzione è che questa sia una buona cosa per entrambe le parti".

Altre ricerche sui robot militari vanno da grandi a piccoli, da impressionanti a bizzarri. Nel laboratorio di robotica Boston Dynamics, gli ingegneri finanziati dalla US Defense Advanced Research Projects Agency, o Darpa, stanno sviluppando un robot a quattro zampe che "può andare ovunque persone e animali possano andare". Chiamato BigDog, il robot utilizza sensori e motori per controllare l'equilibrio in modo autonomo, trotterellando su terreni accidentati come una inquietante capra senza testa.

Forse più inquietante è la proposta di ricerca di Darpa di dirottare insetti volanti per la sorveglianza, in altre parole, imbrigliare un "UAV" biologico che è già autonomo. Secondo la proposta, piccoli controller elettromeccanici potrebbero essere impiantati negli insetti durante la loro metamorfosi, anche se alcuni ricercatori hanno affermato che questa idea è un po' troppo inverosimile.

Ciò che è chiaro è che ci sono enormi investimenti nella robotica militare, con gli UAV in prima linea. La RAF ha cinque UAV Reaper armati e ne ha altri cinque in ordine. Gli Stati Uniti sono molto avanti, con il Pentagono che pianifica di aumentare la sua flotta di Reaper, Predator e altri UAV "multiruolo" da 300 l'anno prossimo a 800 nel 2020. Come disse famoso Gordon Johnson del Comando delle forze congiunte degli Stati Uniti riguardo ai robot militari: "Loro non hanno fame. Non hanno paura. Non dimenticano i loro ordini." La sua affermazione ricordava una frase nel blockbuster Short Circuit del 1986 di Newton Crosby, uno scienziato che aveva creato un robot militare altamente autonomo: "Non si spaventa. Non diventa felice. Non si rattrista. Esegue solo programmi!" In quel film, il robot è andato in tilt.

Cosa succede se i robot militari nella vita reale vanno male? Sebbene siamo molto lontani dai sofisticati robot della fantascienza, i militari stanno ancora valutando come affrontare un potenziale fallimento. A giugno, Werner Dahm, l'allora capo scienziato dell'aeronautica americana, ha pubblicato il rapporto sulla "visione" dell'USAF Technology Horizons, in cui sosteneva che i sistemi autonomi, sebbene essenziali per il futuro dell'aeronautica militare, devono essere sottoposti a "verifica e convalida" , o V&V, per essere certificati come affidabili.

I sistemi militari devono già essere sottoposti a V&V utilizzando un metodo sostanzialmente invariato rispetto al programma Apollo. È ciò che Dahm chiama l'approccio della "forza bruta": testare sistematicamente ogni possibile stato di un sistema fino a renderlo certificabile al 100%. Oggi, dice Dahm, più della metà del costo dei moderni aerei da combattimento è nello sviluppo del software, mentre una grossa fetta di quel costo è in V&V. Tuttavia, non appena si contemplano sistemi autonomi, che hanno stati di input quasi infiniti, V&V a forza bruta diventa fuori questione. Sebbene Dahm affermi che V&V potrebbe essere semplificato progettando un software per "anticipare" il processo di test, crede che alla fine dovremo accontentarci di una certificazione inferiore al 100%.

"Il cittadino medio potrebbe dire, beh, 99,99%, che non è abbastanza buono", mi ha detto Dahm. "Ci sono due risposte importanti a questo. Uno, saresti sorpreso che l'auto che stai guidando non sia certificata al 99,99% nella maggior parte di ciò che fa... e l'altra parte della risposta è, se insisti 100% [certificazione], non sarò mai in grado di ottenere il sistema altamente autonomo."

Anche i robot militari esistenti, che sono azionati dall'uomo, sono diventati controversi. Alcuni credono che l'uso da parte della CIA degli UAV per prendere di mira presunti ribelli in Pakistan vada contro un ordine esecutivo del 1976 del presidente Ford di vietare gli omicidi politici. Eppure per i sistemi autonomi, con gli esseri umani gradualmente eliminati dal circuito, diventa più complicato. "Se una macchina che ha imparato il lavoro spara a un'ambulanza piuttosto che a un carro armato, di chi è stata la colpa?" Me lo ha chiesto Chris Elliott, avvocato e ingegnere di sistema. "Chi ha commesso il crimine?"

Le preoccupazioni di Elliott trovano eco da altri avvocati e scienziati. Noel Sharkey, professore di intelligenza artificiale alla Sheffield University, afferma che oggi è impossibile per i robot autonomi distinguere in modo affidabile tra civili e combattenti, una pietra angolare del diritto umanitario internazionale. Ritiene inoltre che i robot manchino del giudizio sottile per aderire a un'altra legge umanitaria: il principio di proporzionalità che afferma che le cause civili non devono essere "eccessive" per il vantaggio militare ottenuto.

"Non è sempre appropriato sparare e uccidere", mi ha detto Sharkey. "Ci sono così tanti esempi nella guerra in Iraq in cui gli insorti sono stati in un vicolo, i marine sono arrivati ​​con le pistole alzate ma hanno notato che gli insorti stavano effettivamente trasportando una bara. Quindi i marines abbassano le mitragliatrici, si tolgono gli elmetti e lasciano che gli insorti pass. Ora, un robot non potrebbe prendere quel tipo di decisione. Quali caratteristiche cerca? La scatola potrebbe contenere armi?"

Il problema è lo sciopero autonomo, ovvero un robot che prende la propria decisione di sparare, e qui le opinioni divergono. Un portavoce del Ministero della Difesa mi ha detto via e-mail che, nei ruoli di attacco, "rimarrà un bisogno duraturo di un coinvolgimento umano adeguatamente addestrato" nel funzionamento degli UAV "per il prossimo futuro". Dahm ritiene che l'USAF abbia la stessa opinione, anche se sembra essere perso nel suo ultimo piano di volo UAV. "Sempre più, gli esseri umani non saranno più 'in the loop' ma piuttosto 'in the loop', monitorando l'esecuzione di determinate decisioni", si legge. "Contemporaneamente, i progressi nell'IA consentiranno ai sistemi di prendere decisioni di combattimento... senza necessariamente richiedere l'intervento umano". Aggiunge, tuttavia: "Autorizzare una macchina per prendere decisioni di combattimento letali dipende dal fatto che i leader politici e militari risolvano questioni legali ed etiche".

Un documento del 2008 dell'Office of Naval Research degli Stati Uniti ammette anche che esistono ostacoli etici e legali all'autonomia. Suggerisce che un "obiettivo sensato" sarebbe programmare robot autonomi per agire "almeno eticamente" come soldati umani, anche se osserva che "continueranno a verificarsi incidenti, che sollevano la questione della responsabilità legale". Il documento considera anche l'idea che i robot autonomi potrebbero un giorno essere trattati come "quasi agenti legali", come i bambini.

Rob Alexander, uno scienziato informatico della York University, pensa che questo sarebbe un passo troppo avanti. "Una macchina non può essere ritenuta responsabile", ha detto. "Certamente non con alcuna tecnologia prevedibile - non stiamo parlando di androidi di Star Trek qui. Queste cose sono macchine e gli operatori oi progettisti devono essere responsabili del loro comportamento".

Ci sono questioni più ampie. Nel suo recente libro Cities Under Siege: The New Military Urbanism, Stephen Graham, esperto di geografia umana alla Durham University, sostiene che l'autonomia è il risultato dello spostamento della guerra dai campi alle città, dove muri e nascondigli "minano" l'egemonia degli eserciti avanzati . Ma il vero pericolo, dice Graham, è che i robot autonomi riducano il costo politico dell'andare in guerra, così che non diventi più l'ultima risorsa. "Non puoi far passare i cortei funebri nelle piccole città del Wiltshire", mi spiegò. Joanne Mariner, avvocato di Human Rights Watch, ha espresso la stessa preoccupazione.

Dati i limiti dell'attuale robotica, le questioni etiche e legali più profonde dell'autonomia, per il prossimo futuro, rimarranno in gran parte ipotetiche. Secondo Dahm, l'autonomia avrà usi più imminenti come parte di grandi sistemi militari, svolgendo compiti che stanno diventando troppo laboriosi per gli umani. I satelliti, ad esempio, potrebbero filtrare autonomamente i dati di ricognizione in modo da trasmettere solo quelle immagini che mostrano obiettivi riconoscibili. In effetti, i comandanti militari utilizzano già software che dispongono di elementi di autonomia per aiutare in alcuni compiti complicati, come l'organizzazione del dispiegamento di munizioni. Con il passare degli anni, decisioni più tattiche, all'inizio banali, potrebbero essere passate alle macchine.

- Eyes Bio 

Commenti