
Che cosa fa l’intelligenza artificiale in guerra
Lavoratrici e Lavoratori Aci Informatica - Monday, April 13, 2026(Fonte) Andrea Daniele Signorelli – 8 Aprile 2026
Gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto.
Il paradosso è che questi algoritmi predittivi producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa: i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral hanno il compito di aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi.
Il ruolo cruciale dell’AI predittiva
I large language model non possono riconoscere automaticamente i bersagli, non guidano i missili o i droni, non raccolgono informazioni, non analizzano direttamente i dati dei sensori e non eseguono autonomamente azioni nel mondo reale. La capacità fondamentale di ChatGPT e dei suoi compagni è infatti (provare a) comprendere, elaborare e generare il linguaggio umano sulla base del dataset testuale su cui sono stati addestrati.
Sul campo di battaglia, il grosso del lavoro sporco lo svolgono quindi i sistemi basati su algoritmi predittivi. Due dei casi più (tristemente) noti sono quelli relativi alle piattaforme di intelligenza artificiale massicciamente impiegate dall’esercito israeliano durante l’invasione di Gaza: The Gospel e Lavender.
The Gospel analizza direttamente i dati raccolti tramite intelligence e sorveglianza per identificare obiettivi infrastrutturali – edifici, tunnel, depositi – che vengono poi colpiti dall’esercito.
Lavender è invece un sistema statistico che assegna a ogni individuo presente nella Striscia di Gaza un punteggio relativo alla probabilità di appartenenza a gruppi armati, elaborando dati provenienti anche in questo caso da intelligence e sorveglianza, oltre a segnali comportamentali e indicatori demografici. Secondo le inchieste del magazine israeliano +972, nel corso del conflitto Lavender ha identificato – con un margine di errore accettato del 10% – circa 37mila palestinesi come potenziali bersagli.
Per quanto invece riguarda gli Stati Uniti (e la NATO), il più diffuso sistema di supporto decisionale (DSS, decision support system) è il Maven Smart System. Sviluppato a partire dal 2017 da Palantir – subentrata dopo il passo indietro di Google, che al tempo aveva rinunciato in seguito alle proteste dei dipendenti – in collaborazione con Amazon (che fornisce in appoggio la piattaforma cloud AWS), una prima versione di Maven è stata impiegata nel 2021 durante il ritiro statunitense dall’Afghanistan. Successivamente è stato utilizzato in supporto a Israele durante l’invasione di Gaza ed è fino a oggi stato impiegato anche per gli attacchi contro l’Iran.
A differenza di The Gospel, Maven non è solo un sistema di AI assisted targeting, ma una piattaforma di comando e controllo che offre anche “consapevolezza situazionale in tempo reale”: Maven fornisce ai comandanti delle “abilità in stile videogioco” di supervisionare ciò che avviene sul campo di battaglia.
Che cosa fanno i modelli linguistici
Principalmente i modelli linguistici vengono impiegati dagli eserciti per riassumere i manuali operativi, i rapporti delle missioni, i briefing dell’intelligence e altro ancora. Viceversa, possono essere utilizzati anche per generare, a partire dalle indicazioni dei soldati, rapporti, traduzioni, trascrizioni e documentazione di vario tipo.
Durante le esercitazioni, questi sistemi possono anche contribuire alla generazione di scenari bellici; Nei casi più avanzati, bisogna invece immaginare l’impiego bellico di Claude o ChatGPT come una “interfaccia conversazionale” integrata, per esempio, in Maven Smart System, che permette agli utenti di interpretare più facilmente le informazioni provenienti dalle piattaforme di supporto decisionale.
Il large language model viene quindi integrato nelle piattaforme predittive per rendere più facilmente comprensibile la complessità delle informazioni da essi ricavate e aiutare l’operatore umano nell’analisi e nella valutazione dei dati in tempo reale, accorciando così il ciclo operativo e fornendo un vantaggio decisivo sul campo di battaglia.
Per fare un esempio, il modello linguistico integrato nella piattaforma di comando incrocia dati di guerra provenienti da sistemi diversi. In pochi minuti — anziché nelle ore che servirebbero a un team di analisti — genera un briefing sintetico con le possibili azioni. Il comandante lo legge, interroga il sistema su ulteriori aspetti specifici e decide il da farsi.
Nel corso degli attacchi in Iran, scrive il Washington Post, “Maven ha suggerito centinaia di obiettivi, fornito coordinate di localizzazione precise e dato priorità a questi obiettivi in base alla loro importanza. L’integrazione tra Maven e Claude ha creato uno strumento che sta accelerando il ritmo della campagna, riducendo la capacità dell’Iran di contrattaccare e trasformando una pianificazione delle operazioni che richiedeva settimane in operazioni in tempo reale”.
Uno studio della Georgetown University ha invece analizzato i modi in cui il 18° Airborne Corps dell’esercito statunitense utilizza Maven e Claude, concludendo, tra le altre cose, che consente di fare con una squadra di 20 persone ciò che prima ne avrebbe richieste duemila.
Nel 2024 Anduril ha avviato una collaborazione con OpenAI: mentre Anduril già utilizza l’AI per analizzare video e dati dei sensori e individuare minacce, l’apporto di OpenAI riguarda soprattutto sistemi conversazionali, che permettono ai militari di interagire con queste tecnologie in linguaggio naturale.
Anche in Europa si registrano sviluppi: la francese Mistral AI ha firmato a fine 2025 un accordo triennale con il Ministero delle Forze Armate per integrare modelli linguistici nelle operazioni militari e in enti strategici. Gli utilizzi principali includono analisi documentale, traduzioni, briefing e supporto alle decisioni, con la particolarità che l’infrastruttura resta interamente francese per garantire maggiore sicurezza dei dati.
Le criticità dell’AI in guerraQuando i sistemi di supporto decisionale vengono usati per massimizzare la velocità, i soldati finiscono spesso per limitarsi ad approvare decisioni prese dall’AI. In questo scenario, il sistema passa da “supporto” a vero e proprio decisore.
L’integrazione dei modelli linguistici accentua il problema: se da un lato rendono le informazioni più accessibili e immediate, dall’altro le rendono anche più difficili da verificare, aumentando il rischio di un’accettazione automatica e poco consapevole delle decisioni generate dalla macchina.
Diversi fattori riducono infatti la qualità della supervisione: la “resa cognitiva” (minore attenzione alla verifica), il cosiddetto automation bias (fiducia eccessiva nella macchina) e il de-skilling, cioè la progressiva perdita di competenze decisionali umane dovuta alla delega all’AI. A questi si aggiunge il fenomeno della AI sycophancy, per cui i sistemi tendono a confermare le aspettative degli utenti, e il problema delle “allucinazioni”, cioè errori o informazioni inventate presentate come vere. Spesso non è nemmeno chiaro né tracciato il ruolo dell’AI nelle decisioni operative, rendendo difficile attribuire responsabilità. Episodi recenti suggeriscono inoltre che errori nei dati o nelle analisi automatizzate possano contribuire a conseguenze gravi e tragiche, soprattutto in contesti bellici.
Da questo punto di vista, un recente e tragico episodio avvenuto agli inizi dei bombardamenti sull’Iran riassume perfettamente quanto ciò possa essere problematico. Un numero schiacciante di prove indica che gli Stati Uniti siano responsabili dell’attacco alla scuola di Minab, in Iran, in cui hanno perso la vita 175 persone, la maggior parte delle quali studentesse. Attacco che potrebbe essere stato condotto a causa di dati di intelligence obsoleti, risalenti a quando il sito faceva effettivamente parte di una base navale adiacente delle Guardie Rivoluzionarie iraniane.
Nonostante l’applicazione dei sistemi AI in guerra possa aumentare il rischio di errori, non sembra esserci ancora alcuna intenzione a regolamentare l’impiego dell’intelligenza artificiale in ambito bellico.
The post Che cosa fa l’intelligenza artificiale in guerra first appeared on Lavoratrici e Lavoratori Aci Informatica.