
Come è passata tramite la AI la strategia sbagliata degli USA
Lavoratrici e Lavoratori Aci Informatica - Wednesday, March 18, 2026(Fonte) Silvano Cacciari – 18 Marzo 2026
E’ ormai consolidato il fatto che la AI è la principale arma di guerra di ogni esercito, specie in scenari adattivi complessi come quelli attuali e a maggior ragione per gli Stati Uniti. Eppure la simulazione AI della crisi di Hormuz, che sta strangolando gli Usa, pare non essere stata davvero elaborata, causando una seria crisi strategico-militare per gli USA.
La pianificazione dell’Operazione Epic Fury non si è basata su un unico modello, ma su un doppio binario di simulazione: quello tecnologico-operativo affidato all’AI e quello strategico-geopolitico elaborato dai think tank negli ultimi diciassette anni.
Sul piano tecnologico, il cuore del sistema è stata l’integrazione tra il modello Claude di Anthropic e la piattaforma Gotham di Palantir. Claude ha processato decine di migliaia di documenti persiani dell’IRGC, da quello che si sa non quelli classificati, mappato le reti comunicative della leadership iraniana e simulato un numero compreso tra diecimila e centomila scenari d’attacco, proponendo l’ordine ottimale dei bersagli e le finestre temporali con la massima probabilità di successo.
La piattaforma Gotham, di Palantir, ha funzionato come sistema nervoso centrale, integrando dati satellitari, comunicazioni intercettate, consumi energetici e persino le rotte di fuga di emergenza dei vertici iraniani.
Sul piano strategico, la cassetta degli attrezzi concettuale era invece già stata preparata nel 2009 dalla Brookings Institution con il rapporto “Verso la Persia: opzioni per una nuova strategia americana verso l’Iran”. Il documento prevedeva con precisione la sequenza: attacco aereo con obiettivo di decapitazione, rappresaglia missilistica iraniana contro basi USA nel Golfo, coinvolgimento di Hezbollah, e la variabile critica dello Stretto di Hormuz come “variabile che le forze armate non hanno ancora pienamente testato“.
Nonostante la potenza di calcolo e la profondità di analisi strategica, il sistema ha mostrato almeno tre grandi zone d’ombra che i modelli non avevano catturato e che gli Usa stanno fortemente pagando sul campo e in termini di guerra finanziaria: la resilienza del sistema di potere iraniano alla decapitazione; la sottovalutazione sistematica della chiusura di Hormuz; la rapidità della reazione a catena assicurativo-logistica.
Ma perché sia sul piano tecnologico che su quello strategico gli USA sembrano non aver tenuto conto proprio dello scenario che si è realizzato, una guerra asimmetrica nel quale il soggetto militarmente più debole mette in difficoltà strategica quello più forte?
Le fonti disponibili suggeriscono che le simulazioni non hanno previsto la chiusura di Hormuz per una combinazione di bias cognitivo umano, limiti strutturali dei modelli predittivi e – probabilmente – un’indicazione implicita dai vertici di privilegiare scenari che mantenessero aperta quella opzione. I funzionari hanno tacitamente ammesso al Congresso di non aver pianificato lo scenario peggiore della chiusura dello Stretto. Questo rivela un primo livello di fallimento: il bias della “razionalità condivisa”. I modelli AI, addestrati su dati storici, avevano incorporato questa stessa convinzione dei funzionari.
Il piano della selezione dei modelli. Nelle settimane precedenti l’attacco, il Pentagono stava utilizzando Claude di Anthropic per simulazioni strategiche e analisi di intelligence. Ma il 27 febbraio, poche ore prima dell’attacco, Trump ha firmato un ordine esecutivo che imponeva a tutte le agenzie federali di cessare l’uso di Claude, definendo Anthropic una “azienda di sinistra radicale” e dichiarandola “rischio per la catena di fornitura”.
Il motivo? Anthropic si rifiutava di rimuovere le salvaguardie etiche che impedivano l’uso del modello per operazioni letali e chiedeva garanzie contro l’impiego in sistemi d’arma autonomi.
Questo significa che il modello più sofisticato, quello che aveva processato decine di migliaia di documenti persiani e simulato fino a centomila scenari, è stato messo da parte proprio nel momento cruciale. Al suo posto, il Pentagono si è rivolto a OpenAI, il cui CEO Sam Altman aveva accettato di fornire servizi per l’analisi di documenti classificati.
La domanda sorge spontanea: perché silurare proprio il modello che aveva la maggiore capacità predittiva? Una possibile risposta è che Claude, con le sue simulazioni, stesse producendo scenari sgraditi – magari proprio quelli che includevano la chiusura di Hormuz e le sue conseguenze catastrofiche. Sostituirlo con modelli più “accomodanti” (o semplicemente meno sofisticati) potrebbe essere stata una scelta politica, non tecnica.
Al di là delle ipotesi sul bias deliberato, esiste un problema strutturale che nessuna regolazione degli input può risolvere. Come emerge da un’analisi approfondita pubblicata su una piattaforma cinese, l’AI militare americana ha un tallone di Achille: la “data boundary” (confine dei dati).
I sistemi di intelligenza artificiale utilizzati in guerra – dai droni autonomi ai modelli predittivi – funzionano sulla base di dati storici e parametri predefiniti. Le loro capacità operative (tempi di reazione, raggi di rilevamento, logiche di riconoscimento) sono “bloccate” in fabbrica e non possono essere aggiornate in tempo reale durante il combattimento .
Questo crea un paradosso: più l’AI è sofisticata, più è vulnerabile una volta che i suoi parametri vengono esposti. Facciamo un esempio: se un drone americano con tempi di reazione di 0,32 secondi viene catturato o analizzato, il nemico può sviluppare contromisure con tempi di reazione di 0,27 secondi, rendendolo obsoleto.
Applicato alle simulazioni strategiche, questo significa che, usciti dalla “fabbrica”, i modelli predittivi lavorano su scenari “noti” e comportamenti “già visti”. L’Iran non aveva mai chiuso completamente Hormuz in risposta a un attacco USA. Non c’erano dati su cui addestrare la previsione. L’AI non poteva “immaginare” una mossa che non era nei suoi archivi.
The post Come è passata tramite la AI la strategia sbagliata degli USA first appeared on Lavoratrici e Lavoratori Aci Informatica.