Array of sleek autonomous military drones suspended in formation against an obsidian sky, ember orange targeting reticles glowing across their hulls, no human figures visible, dramatic chiaroscuro lighting

Nel settembre 2023, la vicesegretaria alla Difesa americana Kathleen Hicks ha annunciato il programma Replicator con una frase che avrebbe dovuto generare molto più dibattito di quanto ne abbia generato: il Pentagono intende dispiegare migliaia di sistemi autonomi a basso costo entro il 2025. Il budget allocato è di 13,4 miliardi di dollari. L'obiettivo strategico dichiarato è controbilanciare il vantaggio numerico della Cina in uno scenario di conflitto nello Stretto di Taiwan. Nel frattempo, a dicembre 2024, l'Assemblea Generale delle Nazioni Unite ha approvato una risoluzione sui LAWS — Lethal Autonomous Weapons Systems — con 166 voti. Senza meccanismi di enforcement. La Convenzione di Ginevra non contempla le armi autonome. Nessuno ha scritto le regole per questa guerra.

Key Points

  • Il programma Replicator del Pentagono prevede $13,4 miliardi per dispiegare migliaia di droni autonomi a basso costo, progettati per controbilanciare il vantaggio numerico cinese in un potenziale conflitto sullo Stretto di Taiwan.
  • USA, Cina e Russia stanno sviluppando sistemi autonomi letali in parallelo e in competizione: una corsa agli armamenti senza trattati di controllo, senza governance internazionale vincolante, senza precedenti nella storia moderna.
  • L'ONU ha approvato una risoluzione sui LAWS a dicembre 2024 con 166 voti, ma senza alcun meccanismo di enforcement. La Convenzione di Ginevra non contempla esplicitamente le armi autonome.
  • La domanda giuridica fondamentale rimane senza risposta: quando un drone autonomo uccide un civile, chi risponde penalmente? Il principio del "meaningful human control" viene citato da tutti, definito legalmente da nessuno.

What Is the Pentagon Replicator Initiative?

Il programma Replicator è la risposta strategica americana alla dottrina militare cinese della guerra di massa. La logica è semplice nella sua brutalità: la Cina dispone di un vantaggio numerico schiacciante in qualsiasi scenario di conflitto convenzionale nelle acque dello Stretto di Taiwan. Più soldati, più navi, più missili. La risposta americana non è produrre di più — è cambiare le regole del gioco con sistemi autonomi a basso costo e ad alta densità che possono essere prodotti rapidamente, dispiegati in massa, e persi senza il costo politico delle vittime militari americane.

"Replicator" non è un nome casuale. Il programma punta letteralmente a replicare capacità belliche: droni marini, droni aerei, robot da combattimento terrestri, sistemi subacquei autonomi. Migliaia di unità coordinate da algoritmi di AI in grado di identificare bersagli, coordinare manovre tattiche, e in alcuni scenari — questo è il punto controverso — prendere decisioni di fuoco senza approvazione umana diretta. I 13,4 miliardi sono allocati per il periodo 2024-2026. Il budget è già in esecuzione.

L'obiettivo dichiarato pubblicamente è la deterrenza: dimostrare alla Cina che qualsiasi invasione di Taiwan incontrerebbe uno sciame di sistemi autonomi sufficientemente denso da rendere l'operazione insostenibile. Ma la deterrenza funziona solo se l'avversario la ritiene credibile. E la credibilità richiede che questi sistemi siano realmente capaci di ciò che si dichiara. Il che significa sistemi con autonomia decisionale reale, non simulata.

The Other Side of the Race

Il programma Replicator non esiste nel vuoto. Esiste in risposta a sviluppi militari cinesi e russi che precedono l'annuncio americano di almeno un decennio.

La Cina ha sviluppato il Liaowangzhe II, un pattugliatore marittimo autonomo capace di operare per settimane senza intervento umano, equipaggiato con sistemi di sorveglianza e, secondo alcune fonti di intelligence occidentale, con capacità di attacco autonomo a determinate condizioni. Il pattugliatore è già operativo nel Mar Cinese Meridionale. Non è un prototipo di laboratorio.

La Russia ha il sistema Marker: un robot terrestre da combattimento autonomo testato in condizioni operative reali, capace di navigazione autonoma e con interfacce per sistemi d'arma. I test pubblicati dal Ministero della Difesa russo mostrano il sistema in operazioni di perlustrazione e supporto al fuoco. L'autonomia operativa è parziale ma crescente.

Tre delle cinque potenze nucleari riconosciute — USA, Cina, Russia — stanno sviluppando in parallelo sistemi d'arma autonomi letali. Nessun trattato bilaterale o multilaterale regola questa corsa. Non esiste il SALT delle armi autonome. Non esiste il INF dei droni letali. Non esiste nemmeno la bozza di un meccanismo di verifica. La corsa agli armamenti autonomi è tecnicamente la prima dal 1945 a svilupparsi in totale assenza di qualsiasi framework di controllo internazionale.

THE RACE

USA: $13,4 miliardi per migliaia di droni autonomi entro il 2026 (Replicator). Cina: Liaowangzhe II, pattugliatore marittimo autonomo già operativo nel Mar Cinese Meridionale. Russia: sistema Marker, robot da combattimento terrestre con autonomia crescente testato in campo. Nessun trattato di controllo. Nessun meccanismo di verifica. Nessuna governance vincolante.

The Governance Gap — Where International Law Stops

La Convenzione di Ginevra è il pilastro del diritto internazionale umanitario. Stabilisce gli obblighi delle parti in conflitto riguardo ai civili, ai prigionieri di guerra, ai feriti. È stata negoziata nel 1949, aggiornata con protocolli addizionali nel 1977. Non contempla le armi autonome. Non potrebbe: il concetto non esisteva. Ma il risultato è che il principale strumento del diritto bellico internazionale non ha nulla da dire sul caso più rilevante del 2026.

A dicembre 2024, l'Assemblea Generale delle Nazioni Unite ha approvato la prima risoluzione formale sui LAWS. Il voto è stato 166 a favore, con alcune astensioni rilevanti. Il testo chiede agli stati di sviluppare "misure normative" per garantire il controllo umano sui sistemi d'arma autonomi e di avviare negoziati su un quadro giuridico vincolante. La risoluzione non è vincolante. Non prevede scadenze. Non ha meccanismi di enforcement. Non crea obblighi giuridici per nessuno.

Il confronto con altri regimi di controllo degli armamenti è illuminante nella sua desolazione. Il Trattato di Non Proliferazione Nucleare ha creato l'AIEA con poteri ispettivi. La Convenzione sulle Armi Chimiche ha un meccanismo di verifica e può disporre ispezioni. La Convenzione di Ottawa sulle mine antiuomo ha prodotto uno standard globale con adesione quasi universale. Per le armi autonome: una risoluzione non vincolante approvata da paesi che stanno contemporaneamente sviluppando le stesse armi.

Who Pulls the Trigger — The Accountability Void

La domanda giuridica che nessun governo è pronto ad affrontare è questa: quando un drone autonomo identifica un bersaglio, valuta la minaccia, e apre il fuoco senza che un essere umano abbia approvato quella specifica decisione — e quel bersaglio si rivela un civile — chi risponde penalmente?

Il diritto internazionale umanitario richiede che ogni attacco militare sia proporzionale, discriminante, e che un essere umano responsabile possa essere identificato. La catena di comando è il presupposto dell'accountability bellica. Ma in un sistema autonomo, la catena si spezza in punti multipli: lo sviluppatore dell'algoritmo, l'ingegnere che ha definito i parametri di targeting, il comandante che ha autorizzato il deployment in un'area operativa, il funzionario politico che ha approvato le regole di ingaggio. Chi ha deciso di aprire il fuoco? Il modello. Chi ha addestrato il modello? Un team di ingegneri. Chi ha definito i dati di addestramento? Un contractor del Pentagono. Chi risponde? Nessuno in particolare. Tutti in astratto.

Il principio del "meaningful human control" è la risposta che industria e governi danno a questa domanda. Ogni azienda che sviluppa sistemi per uso militare lo cita nei propri documenti di governance, nei materiali commerciali, nelle dichiarazioni pubbliche. Ma nessun trattato, nessuna legge nazionale, nessun regolamento militare definisce legalmente cosa costituisce "meaningful" human control. Il termine è funzionale per il marketing istituzionale. Non è operativo per l'accountability giuridica.

ACCOUNTABILITY VOID

Un drone autonomo apre il fuoco su un civile. Il diritto internazionale richiede un responsabile. L'algoritmo ha deciso. Il team di ingegneri ha addestrato il modello. Il contractor ha definito i parametri. Il comandante ha autorizzato il deployment. Il principio del "meaningful human control" è citato da tutti. Non è definito giuridicamente da nessuno.

The New Space Race — With Lethal Payloads

La metafora della space race degli anni Cinquanta e Sessanta ricorre spesso nel dibattito sulle armi autonome, e ha una sua precisione. Entrambe le corse sono state guidate da logiche di deterrenza strategica più che da valutazioni sui rischi dell'accelerazione tecnologica. Entrambe hanno prodotto capacità devastanti prima che esistesse una governance adeguata. La crisi missilistica di Cuba nel 1962 ha preceduto il Trattato sul Bando dei Test Nucleari del 1963.

La differenza è la velocità e la soglia di ingresso. Sviluppare armi nucleari richiedeva impianti industriali giganteschi, materiali rari, decenni di ricerca. Sviluppare droni autonomi letali richiede hardware commerciale off-the-shelf, modelli fondazionali già disponibili, e team di ingegneri che si contano in decine, non migliaia. La tecnologia è distribuita. La logistica è scalabile. Le barriere d'ingresso si abbassano ogni anno che passa.

Nel 2020, un rapporto del Panel di Esperti dell'ONU sulla Libia ha documentato quello che è probabilmente il primo utilizzo documentato di un drone autonomo letale in un conflitto reale. Il sistema Kargu-2, prodotto in Turchia, avrebbe attaccato in modo autonomo forze di terra senza comando remoto umano. Il condizionale è d'obbligo: la documentazione è contestata. Ma se il rapporto è accurato, la soglia è già stata attraversata. Non in un laboratorio. In un conflitto attivo, nel 2020, senza che quasi nessuno se ne accorgesse.

Il modello economico del programma Replicator — sistemi a basso costo, produzione rapida, perdite accettabili — cambia anche la logica del conflitto. I droni autonomi sono monouso per design. Non c'è il rischio politico delle vittime militari. Non c'è la cattura di prigionieri. Non c'è la necessità di evacuare i feriti. La soglia politica per autorizzare operazioni militari si abbassa quando il costo umano diretto per il paese aggressore tende a zero. È un incentivo strutturale all'uso. Non un deterrente.

What I Think

Il programma Replicator è comprensibile nella sua logica strategica interna. Se sei il Pentagono nel 2023 e devi rispondere a una dottrina militare cinese basata sulla superiorità numerica, i sistemi autonomi a basso costo sono una risposta razionale al problema tattico. La logica militare è coerente. Il problema non è la logica. Il problema è quello che viene lasciato fuori dalla logica.

Quello che manca non è la tecnologia. È il framework giuridico che definisce quando questi sistemi possono essere usati, chi risponde quando producono danni non intenzionali, e come verificare che gli avversari rispettino standard minimi condivisi. La risoluzione ONU del dicembre 2024 è un segnale che il problema è riconosciuto. Non è governance. La differenza tra i due è esattamente la distanza che separa il mondo dal disastro evitabile.

Nel 2026 stiamo vivendo la prima corsa agli armamenti della storia che coinvolge sistemi capaci di prendere decisioni letali in modo autonomo, senza una singola norma internazionale vincolante che ne regoli lo sviluppo, il deployment, o l'uso. Questa non è una previsione. È la descrizione del presente.

"Stiamo costruendo armi capaci di decidere autonomamente chi uccidere prima di aver deciso chi risponde quando sbagliano. Questa non è una questione tecnica. È la domanda politica e morale più importante del nostro tempo. E nessuno la sta ponendo ad alta voce abbastanza."

Alberto Russo