Che cosa fa l’intelligenza artificiale in guerra
(Fonte) Andrea Daniele Signorelli – 8 Aprile 2026
Gli impieghi militari dell’intelligenza artificiale hanno principalmente due
scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi
quantità di dati provenienti da sensori, satelliti, droni e sistemi di
intelligence – e aumentare la velocità decisionale, valutando le opzioni
operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità
e reagendo quasi in tempo reale agli sviluppi del conflitto.
Il paradosso è che questi algoritmi predittivi producono una tale quantità di
informazioni da rendere la loro interpretazione e gestione particolarmente
complessa: i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral
hanno il compito di aiutare a dissipare la coltre di nebbia provocata
dall’enorme mole di dati prodotti dai sistemi predittivi.
Il ruolo cruciale dell’AI predittiva
I large language model non possono riconoscere automaticamente i bersagli, non
guidano i missili o i droni, non raccolgono informazioni, non analizzano
direttamente i dati dei sensori e non eseguono autonomamente azioni nel mondo
reale. La capacità fondamentale di ChatGPT e dei suoi compagni è infatti
(provare a) comprendere, elaborare e generare il linguaggio umano sulla base del
dataset testuale su cui sono stati addestrati.
Sul campo di battaglia, il grosso del lavoro sporco lo svolgono quindi i sistemi
basati su algoritmi predittivi. Due dei casi più (tristemente) noti sono quelli
relativi alle piattaforme di intelligenza artificiale massicciamente impiegate
dall’esercito israeliano durante l’invasione di Gaza: The Gospel e Lavender.
The Gospel analizza direttamente i dati raccolti tramite intelligence e
sorveglianza per identificare obiettivi infrastrutturali – edifici, tunnel,
depositi – che vengono poi colpiti dall’esercito.
Lavender è invece un sistema statistico che assegna a ogni individuo presente
nella Striscia di Gaza un punteggio relativo alla probabilità di appartenenza a
gruppi armati, elaborando dati provenienti anche in questo caso da intelligence
e sorveglianza, oltre a segnali comportamentali e indicatori demografici.
Secondo le inchieste del magazine israeliano +972, nel corso del conflitto
Lavender ha identificato – con un margine di errore accettato del 10% – circa
37mila palestinesi come potenziali bersagli.
Per quanto invece riguarda gli Stati Uniti (e la NATO), il più diffuso sistema
di supporto decisionale (DSS, decision support system) è il Maven Smart System.
Sviluppato a partire dal 2017 da Palantir – subentrata dopo il passo indietro di
Google, che al tempo aveva rinunciato in seguito alle proteste dei dipendenti –
in collaborazione con Amazon (che fornisce in appoggio la piattaforma cloud
AWS), una prima versione di Maven è stata impiegata nel 2021 durante il ritiro
statunitense dall’Afghanistan. Successivamente è stato utilizzato in supporto a
Israele durante l’invasione di Gaza ed è fino a oggi stato impiegato anche per
gli attacchi contro l’Iran.
A differenza di The Gospel, Maven non è solo un sistema di AI assisted
targeting, ma una piattaforma di comando e controllo che offre anche
“consapevolezza situazionale in tempo reale”: Maven fornisce ai comandanti delle
“abilità in stile videogioco” di supervisionare ciò che avviene sul campo di
battaglia.
Che cosa fanno i modelli linguistici
Principalmente i modelli linguistici vengono impiegati dagli eserciti per
riassumere i manuali operativi, i rapporti delle missioni, i briefing
dell’intelligence e altro ancora. Viceversa, possono essere utilizzati anche per
generare, a partire dalle indicazioni dei soldati, rapporti, traduzioni,
trascrizioni e documentazione di vario tipo.
Durante le esercitazioni, questi sistemi possono anche contribuire alla
generazione di scenari bellici; Nei casi più avanzati, bisogna invece immaginare
l’impiego bellico di Claude o ChatGPT come una “interfaccia conversazionale”
integrata, per esempio, in Maven Smart System, che permette agli utenti di
interpretare più facilmente le informazioni provenienti dalle piattaforme di
supporto decisionale.
Il large language model viene quindi integrato nelle piattaforme predittive per
rendere più facilmente comprensibile la complessità delle informazioni da essi
ricavate e aiutare l’operatore umano nell’analisi e nella valutazione dei dati
in tempo reale, accorciando così il ciclo operativo e fornendo un vantaggio
decisivo sul campo di battaglia.
Per fare un esempio, il modello linguistico integrato nella piattaforma di
comando incrocia dati di guerra provenienti da sistemi diversi. In pochi minuti
— anziché nelle ore che servirebbero a un team di analisti — genera un briefing
sintetico con le possibili azioni. Il comandante lo legge, interroga il sistema
su ulteriori aspetti specifici e decide il da farsi.
Nel corso degli attacchi in Iran, scrive il Washington Post, “Maven ha suggerito
centinaia di obiettivi, fornito coordinate di localizzazione precise e dato
priorità a questi obiettivi in base alla loro importanza. L’integrazione tra
Maven e Claude ha creato uno strumento che sta accelerando il ritmo della
campagna, riducendo la capacità dell’Iran di contrattaccare e trasformando una
pianificazione delle operazioni che richiedeva settimane in operazioni in tempo
reale”.
Uno studio della Georgetown University ha invece analizzato i modi in cui il 18°
Airborne Corps dell’esercito statunitense utilizza Maven e Claude, concludendo,
tra le altre cose, che consente di fare con una squadra di 20 persone ciò che
prima ne avrebbe richieste duemila.
Nel 2024 Anduril ha avviato una collaborazione con OpenAI: mentre Anduril già
utilizza l’AI per analizzare video e dati dei sensori e individuare minacce,
l’apporto di OpenAI riguarda soprattutto sistemi conversazionali, che permettono
ai militari di interagire con queste tecnologie in linguaggio naturale.
Anche in Europa si registrano sviluppi: la francese Mistral AI ha firmato a fine
2025 un accordo triennale con il Ministero delle Forze Armate per integrare
modelli linguistici nelle operazioni militari e in enti strategici. Gli utilizzi
principali includono analisi documentale, traduzioni, briefing e supporto alle
decisioni, con la particolarità che l’infrastruttura resta interamente francese
per garantire maggiore sicurezza dei dati.
Le criticità dell’AI in guerra
Quando i sistemi di supporto decisionale vengono usati per massimizzare la
velocità, i soldati finiscono spesso per limitarsi ad approvare decisioni prese
dall’AI. In questo scenario, il sistema passa da “supporto” a vero e proprio
decisore.
L’integrazione dei modelli linguistici accentua il problema: se da un lato
rendono le informazioni più accessibili e immediate, dall’altro le rendono anche
più difficili da verificare, aumentando il rischio di un’accettazione automatica
e poco consapevole delle decisioni generate dalla macchina.
Diversi fattori riducono infatti la qualità della supervisione: la “resa
cognitiva” (minore attenzione alla verifica), il cosiddetto automation bias
(fiducia eccessiva nella macchina) e il de-skilling, cioè la progressiva perdita
di competenze decisionali umane dovuta alla delega all’AI. A questi si aggiunge
il fenomeno della AI sycophancy, per cui i sistemi tendono a confermare le
aspettative degli utenti, e il problema delle “allucinazioni”, cioè errori o
informazioni inventate presentate come vere. Spesso non è nemmeno chiaro né
tracciato il ruolo dell’AI nelle decisioni operative, rendendo difficile
attribuire responsabilità. Episodi recenti suggeriscono inoltre che errori nei
dati o nelle analisi automatizzate possano contribuire a conseguenze gravi e
tragiche, soprattutto in contesti bellici.
Da questo punto di vista, un recente e tragico episodio avvenuto agli inizi dei
bombardamenti sull’Iran riassume perfettamente quanto ciò possa essere
problematico. Un numero schiacciante di prove indica che gli Stati Uniti siano
responsabili dell’attacco alla scuola di Minab, in Iran, in cui hanno perso la
vita 175 persone, la maggior parte delle quali studentesse. Attacco che potrebbe
essere stato condotto a causa di dati di intelligence obsoleti, risalenti a
quando il sito faceva effettivamente parte di una base navale adiacente delle
Guardie Rivoluzionarie iraniane.
Nonostante l’applicazione dei sistemi AI in guerra possa aumentare il rischio di
errori, non sembra esserci ancora alcuna intenzione a regolamentare l’impiego
dell’intelligenza artificiale in ambito bellico.
The post Che cosa fa l’intelligenza artificiale in guerra first appeared on
Lavoratrici e Lavoratori Aci Informatica.