
Con l’IA la guerra è ancora più orribile
Jacobin Italia - Thursday, March 19, 2026
Gli Stati uniti stanno utilizzando l’intelligenza artificiale nella loro guerra contro l’Iran. L’esercito afferma che la «varietà» di sistemi di IA in uso è dedicata all’analisi dei dati, impiegati come strumenti e non come agenti. Il capo del Comando Centrale americano, Brad Cooper, afferma che i sistemi di IA assistono le forze armate, consentendo loro di «filtrare enormi quantità di dati in pochi secondi, in modo che i nostri leader possano eliminare distinguere l’essenziale dal superfluo e prendere decisioni più oculate prima ancora che il nemico possa reagire».
L’intelligenza artificiale accelera i tempi di individuazione e abbattimento dei bersagli, e di conseguenza anche i tempi di guerra, morte, distruzione e tutto ciò che ne consegue. Cooper insiste sul fatto che la decisione finale spetta agli esseri umani. Quest’affermazione è meno rassicurante di quanto dovrebbe essere. Un recente rapporto rileva che «i bersagli dell’Operazione Epic Fury sono stati identificati con l’ausilio del Maven Smart System della National Geospatial-Intelligence Agency, che integra dati provenienti da sorveglianza e intelligence, tra gli altri, e può presentare le informazioni su un dashboard per supportare i funzionari nel loro processo decisionale». Tuttavia, ci viene detto che gli strumenti di intelligenza artificiale non «creano esplicitamente» obiettivi, ma si limitano a «identificare potenziali punti di interesse per l’intelligence militare». È un po’ come dire che le informazioni non influenzano le decisioni, come se le informazioni fornite a un comandante non avessero nulla a che fare con la scelta del bersaglio di un attacco.
Se il bombardamento della scuola elementare Shajarah Tayyebeh in Iran, avvenuto il 28 febbraio, è stato il risultato di uno strumento di intelligenza artificiale che ha «integrato» vecchie informazioni militari nel sistema di gestione di Maven, significa che l’IA ha di fatto influenzato la «decisione finale», apparentemente umana. Certo, la rassicurante affermazione di Cooper secondo cui il personale militare umano è ancora al comando potrebbe anche essere vera. Tuttavia, l’integrazione dell’IA nella matrice dei sistemi di puntamento e l’azione basata sulle sue raccomandazioni equivalgono a un processo decisionale militare guidato dall’IA, per quanto gli esseri umani possano ancora premere il grilletto.
Quando la guerra arrivò sul piccolo schermo
L’impiego di sistemi di intelligenza artificiale nell’ultima guerra americana potrebbe ricordare ad alcuni la Guerra del Golfo del 1990-91. Quel conflitto forse non verrà ricordato nei libri di storia come un evento di grande rilevanza, ma fu una guerra che seguimmo in diretta televisiva, con gli schermi illuminati di verde e punteggiati da improvvisi bagliori di luce. Fu trasmessa dalla Cnn con copertura 24 ore su 24. All’inizio degli anni Novanta, le nuove tecnologie e i nuovi modi di operare sia in ambito militare che nelle telecomunicazioni segnarono un cambiamento epocale. La guerra si era trasformata in un affare più distante e disumanizzato, sia nella sua esecuzione, con missili da crociera lanciati da centinaia di chilometri di distanza, sia nella sua fruizione, con l’intero evento mostrato al pubblico quasi fosse un filmato di un videogioco. Si aveva la sensazione che non ci fosse più possibilità di tornare indietro e che, qualunque cosa fosse, si trattasse di un viaggio lungo una strada senza possibilità di inversione di marcia.
Nel suo libro L’età degli estremi, lo storico Eric Hobsbawm avvertiva che nel ventesimo secolo le moderne tecnologie belliche e i sistemi burocratici che sostenevano i conflitti su larga scala avevano radicalmente cambiato la guerra, rendendo possibile una terrificante guerra totale che prima non avrebbe potuto esistere senza il potere della distanza. Sebbene lo scopo della distanza in guerra sia quello di sfruttare un vantaggio strategico e tattico che equivale, in sostanza, a un riparo – o a una posizione più favorevole – e all’effetto sorpresa, l’effetto finale è la separazione. Se la violenza, persino quella di massa, può essere un’azione a distanza, con l’attore distante dalle conseguenze immediate, viscerali e corporee delle sue azioni, allora la violenza diventa impersonale e irreale, persino virtuale, come un videogioco. Premi il grilletto, inclina la levetta analogica verso l’alto e continua la tua giornata mentre i pixel sullo schermo scompaiono. A casa per cena, giusto in tempo per qualche partita a Call of Duty.
Impersonali, come Terminator
Oggi l’intelligenza artificiale in ambito bellico viene utilizzata per analizzare rapidamente le informazioni e assistere gli esseri umani nell’individuazione degli obiettivi. Domani potrebbe essere impiegata in modi che oggi non riusciamo nemmeno a immaginare, o che tendiamo a liquidare come una minaccia secondaria o terziaria, più una fantasia paranoica ispirata a Terminator che un pericolo reale e imminente. La minaccia immediata, in entrambi i casi, rimane la stessa: l’autodisumanizzazione dell’umanità.
Gli strumenti del mestiere sono macchine che usiamo per diventare più bravi a uccidere, sollevati dalla seccatura che ha afflitto chi ha commesso violenza nel corso della storia umana: bisognava essere vicini per farlo, abbastanza vicini da vedere le luci spegnersi. L’intelligenza artificiale non è quindi solo uno strumento di selezione, ma anche uno strumento per creare una distanza, letterale e figurata, tra l’operatore e i dannati.
Se il secolo scorso ci ha portato la capacità di premere un pulsante per sganciare una bomba, questo ci permetterà di premere un pulsante per far sì che sia un computer a dirci dove sganciarla. Non si può essere più lontani dalla distruzione di così.
Il cambiamento è orribile e terrificante in egual misura, ma non si tratta tanto di un nuovo modo di fare le cose, quanto piuttosto del logico passo successivo verso una distruzione completamente digitalizzata e disumanizzata, previsto decenni fa dai più lungimiranti. Hobsbawm individuò nella trasformazione della guerra del ventesimo secolo una «nuova impersonalità» che «aveva trasformato l’uccisione e la mutilazione nella remota conseguenza della pressione di un pulsante o dello spostamento di una leva» e «aveva reso invisibili le sue vittime, come non potevano esserlo le persone sventrate dalle baionette o viste attraverso il mirino delle armi da fuoco». L’intelligenza artificiale non cambia la logica o l’effetto della guerra impersonale, ma piuttosto rafforza la prima e amplifica il secondo.
Dottor IA Stranamore
Le conseguenze di un ulteriore livello di distanza saranno terribili in modo inimmaginabile. O forse possiamo immaginarle fin troppo bene. Scrivendo della Seconda guerra mondiale, Hobsbawm sottolinea che, con i bombardieri che volavano sopra le loro teste, coloro che si trovavano sotto «non erano persone destinate a essere bruciate e sventrate, ma bersagli». La natura impersonale della distanza significava che «giovani uomini miti, che certamente non avrebbero voluto affondare una baionetta nel ventre di una ragazza incinta di un villaggio, potevano con molta più facilità sganciare bombe ad alto potenziale esplosivo su Londra o Berlino, o bombe atomiche su Nagasaki». Il fatto che i chatbot basati sull’intelligenza artificiale a scopo commerciale scelgano la guerra nucleare quasi dieci volte su dieci in «situazioni di crisi» fa notizia perché ci chiediamo cosa potrebbe fare un signore dei robot a noi – o per noi – in situazioni estreme, senza un eroe di WarGames che convinca la macchina a desistere. Più vicino a noi, la minaccia immediata e crescente non sono le macchine, ma, come sempre, noi stessi – e ciò che facciamo con le macchine o ciò da cui ci esoneriamo grazie a esse.
La distanza che l’intelligenza artificiale interpone tra la mente umana e la decisione di distruggere dovrebbe essere ciò che più di ogni altra cosa ci terrorizza. Potrebbero non esserci limiti agli orrori che ne conseguono. Del resto, la storia dell’umanità è anche la storia dell’uso della tecnologia per autodistruggersi. Oggi siamo maestri in quest’arte, non solo nella spietata efficienza della cancellazione fisica, ma anche nei modi in cui rendiamo più facile dirigere tale distruzione, più facile giustificarla e più facile conviverci prima, durante e dopo che si è verificata. Come avvertiva Hobsbawm a proposito del «breve» secolo che va dal 1914 al 1991: «Le più grandi crudeltà del nostro secolo sono state le crudeltà impersonali delle decisioni a distanza, dei sistemi e delle routine, soprattutto quando potevano essere giustificate come deplorevoli necessità operative». Hobsbawm aveva ragione nell’individuare la crudeltà della strage industriale del secolo breve. La domanda che ci poniamo ora è come si presenterà questa strage quando tale crudeltà sarà ulteriormente intensificata dalla nuova distanza derivante dal processo decisionale mediato dall’intelligenza artificiale.
*David Moscrop è uno scrittore e commentatore politico. Conduce il podcast Open to Debate ed è l’autore di Too Dumb For Democracy? Why We Make Bad Political Decisions and How We Can Make Better Ones(Goose Lane Editions, 2019). Questo testo è uscito su JacobinMag. La traduzione è a cura della redazione.
L'articolo Con l’IA la guerra è ancora più orribile proviene da Jacobin Italia.