Tag - palantir

Tecnofascismo senza maschera
La storia dei manifesti politici è anche la storia dei momenti in cui una élite smette di mascherarsi e si mostra per quello che è, convinta di avere già vinto abbastanza da potersi permettere la verità. I ventidue punti diffusi da Palantir Technologies il 18 aprile, sintesi dichiarata del volume […] L'articolo Tecnofascismo senza maschera su Contropiano.
April 22, 2026
Contropiano
IL POTERE DI MYTHOS E I MANIFESTI POLITICI DI OPEN.AI E PALANTIR@0
Estratti dalla puntata del 20 aprile 2024 di Bello Come Una Prigione Che Brucia EMIL MICHEAL: DA UBER AL PENTAGONO La descrizione di alcuni programmi militari americani basati su AI (MATHBAC, Ghost Murmur e Victor) ci porta a osservare in modo più esteso i processi di delega cognitiva e di relazioni industriali all’interno di quell’apparato. Se Pete Hegseth sembra un personaggio caricaturale all’interno del romanzetto distopico in cui ci sembra di essere precipitate, all’interno del Dipartimento della Guerra statunitense un figura da tenere in considerazione è Emil Micheal: ex top manager di Uber e attualmente sottosegretario alla ricerca e all’ingegneria del Pentagono, è uno principali dei protagonisti nel processo di integrazione dell’intelligenza artificiale all’interno degli apparati decisionali e operativi della macchina bellica statunitense. IL POTERE DI MYTHOS E I MANIFESTI POLITICI DI OPEN.AI E PALANTIR Dopo una parentesi di significativi attriti con il Pentagono, Anthropic introduce una tecnologia che ridefinisce le sue relazioni diplomatiche. Il suo prodotto Claude Myhtos Preview viene descritto come la più potente minaccia alla cybersicurezza mai prodotta; i primi a essere contattati sono banche e grandi attori economici, parallelamente Anthropic organizza un cartello di aziende informatiche per candidarsi alla gestione della cybersicurezza globale (Project Glasswing), quindi si riaprono trattative con il Dipartimento della Guerra. Partiamo dalle oscillazioni (in parte cosmetiche) nelle relazioni tra Anthropic e governo Trump, per arrivare a osservare l’esplicita affermazione politica dei tecno-miliardari: a pochi giorni di distanza, Open AI e Palantir pubblicano i loro manifesti politici e si candidano a governare conflitti sociali e geopolitici:
April 21, 2026
Radio Blackout - Info
IL POTERE DI MYTHOS E I MANIFESTI POLITICI DI OPEN.AI E PALANTIR@1
Estratti dalla puntata del 20 aprile 2024 di Bello Come Una Prigione Che Brucia EMIL MICHEAL: DA UBER AL PENTAGONO La descrizione di alcuni programmi militari americani basati su AI (MATHBAC, Ghost Murmur e Victor) ci porta a osservare in modo più esteso i processi di delega cognitiva e di relazioni industriali all’interno di quell’apparato. Se Pete Hegseth sembra un personaggio caricaturale all’interno del romanzetto distopico in cui ci sembra di essere precipitate, all’interno del Dipartimento della Guerra statunitense un figura da tenere in considerazione è Emil Micheal: ex top manager di Uber e attualmente sottosegretario alla ricerca e all’ingegneria del Pentagono, è uno principali dei protagonisti nel processo di integrazione dell’intelligenza artificiale all’interno degli apparati decisionali e operativi della macchina bellica statunitense. IL POTERE DI MYTHOS E I MANIFESTI POLITICI DI OPEN.AI E PALANTIR Dopo una parentesi di significativi attriti con il Pentagono, Anthropic introduce una tecnologia che ridefinisce le sue relazioni diplomatiche. Il suo prodotto Claude Myhtos Preview viene descritto come la più potente minaccia alla cybersicurezza mai prodotta; i primi a essere contattati sono banche e grandi attori economici, parallelamente Anthropic organizza un cartello di aziende informatiche per candidarsi alla gestione della cybersicurezza globale (Project Glasswing), quindi si riaprono trattative con il Dipartimento della Guerra. Partiamo dalle oscillazioni (in parte cosmetiche) nelle relazioni tra Anthropic e governo Trump, per arrivare a osservare l’esplicita affermazione politica dei tecno-miliardari: a pochi giorni di distanza, Open AI e Palantir pubblicano i loro manifesti politici e si candidano a governare conflitti sociali e geopolitici:
April 21, 2026
Radio Blackout - Info
Palantir e il manifesto della guerra infinita: chi controlla chi?
Intelligenza artificiale, potere tecnologico e il ruolo della Silicon Valley nella nuova strategia globale C’è un passaggio nelle 22 tesi di The Technological Republic — il libro-manifesto scritto da Alexander Karp, CEO di Palantir, e dal suo vice Nicholas Zamiska — che merita di essere riletto lentamente, senza l’alone di serietà intellettuale con cui i suoi autori lo hanno confezionato: «La domanda non è se le armi basate sull’intelligenza artificiale verranno costruite; è chi le costruirà e per quale scopo.» È una frase costruita per sembrare realismo. È invece una petizione di principio: assume come inevitabile ciò che dovrebbe essere discusso, e trasforma la rassegnazione in virtù civica. È anche, non per caso, la frase che meglio descrive il modello di business di Palantir. Il libro è diventato un bestseller istantaneo del New York Times. In aprile 2026 Palantir ne ha diffuso la sintesi in 22 punti su X, scatenando un dibattito globale. Alcuni critici lo hanno definito “technofascismo”. Altri lo hanno letto come un sincero grido d’allarme sulla debolezza dell’Occidente. Vale la pena andare oltre entrambe le etichette, perché il testo è più rivelatore di quanto non appaia: non nonostante le sue contraddizioni, ma attraverso di esse. UN’AZIENDA CHE VENDE SICUREZZA E CHIAMA IL PRODOTTO «DOVERE MORALE» Palantir Technologies è stata fondata nel 2003 con finanziamenti iniziali della CIA, attraverso il suo braccio d’investimento In-Q-Tel. Oggi ha contratti miliardari con il Dipartimento della Difesa americano, con l’esercito degli Stati Uniti, con l’ICE — l’agenzia che gestisce le deportazioni degli immigrati —, con la polizia di New York e con le forze armate israeliane. Non è un dettaglio biografico secondario. È il contesto entro il quale le 22 tesi vanno lette. La prima di esse stabilisce che la Silicon Valley ha un «debito morale» verso il Paese che ne ha reso possibile l’ascesa, e dunque ha un obbligo affermativo di partecipare alla difesa della nazione. Tradotto fuori dal registro etico in cui è formulato: le aziende tecnologiche dovrebbero collaborare con il complesso militare-industriale. Palantir, che questa collaborazione la pratica da vent’anni e ci ha costruito sopra una capitalizzazione di mercato superiore ai cento miliardi di dollari, si presenta come il modello virtuoso da imitare. Il debito morale altrui è, convenientemente, il mercato di Palantir. Questo non rende automaticamente false le tesi del libro. Ma rende necessario applicare alla loro lettura lo stesso standard epistemico che si applicherebbe a qualsiasi altro documento prodotto da un soggetto con un interesse diretto e dichiarato nell’esito del dibattito che promuove. IL REALISMO COME RESA L’argomento centrale del manifesto è strutturato come un sillogismo: i sistemi d’arma basati sull’IA verranno costruiti comunque; gli avversari degli Stati Uniti non si fermeranno a fare dibattiti etici; dunque l’Occidente deve costruirli per primo, e chi si oppone è ingenuo, irresponsabile o complice. È un argomento che ha una lunga storia. Venne usato per giustificare la bomba atomica, poi la corsa agli armamenti nucleari, poi i droni, poi i sistemi di sorveglianza di massa. L’idea che esista sempre una tecnologia militare «inevitabile» che è meglio sviluppare prima degli altri è la struttura logica permanente dell’industria della difesa. Non è realismo: è la narrazione con cui ogni generazione di produttori di armi ha convinto i governi a firmare i contratti. Karp e Zamiska scrivono che «l’era atomica sta finendo» e che una nuova era della deterrenza costruita sull’IA sta per cominciare. È una previsione che può essere fondata. Ma contiene un’omissione cruciale: non spiega perché la deterrenza basata sull’IA sia necessariamente più stabile di quella nucleare, né come si prevenga la sua degenerazione in conflitto aperto. La letteratura sulla stabilità strategica e sul rischio di escalation involontaria nei sistemi autonomi è vasta e preoccupante. Nel manifesto non esiste. LA DEMOCRAZIA COME ORNAMENTO Forse il passaggio più sintomatico dell’intero documento è il numero sedici, dedicato a Elon Musk: «La cultura quasi deride l’interesse di Musk per le grandi narrazioni, come se i miliardari dovessero semplicemente restare nel loro ruolo di arricchirsi.» È una difesa dell’attivismo politico dei miliardari formulata da un miliardario, in un libro scritto da chi lavora per un altro miliardario. Al di là dell’evidente circolarità, c’è qualcosa di più significativo: l’idea che la critica alle concentrazioni di potere economico e tecnologico sia in realtà un’espressione di grettezza culturale, di incapacità di riconoscere la grandezza. Questa operazione retorica — trasformare la critica del potere in invidia verso il potere — è uno dei tratti distintivi di una certa ideologia tecnocratica contemporanea. Il problema non è che Musk costruisca razzi o che Karp costruisca sistemi di analisi predittiva. Il problema è che entrambi lo facciano acquisendo simultaneamente un’influenza determinante sulle politiche pubbliche, senza alcun mandato democratico, senza alcun meccanismo di responsabilità, e proponendo poi questa condizione come il modello auspicabile per il futuro dell’Occidente. La democrazia liberale, nelle 22 tesi, appare come un valore da difendere militarmente, ma non come un vincolo da rispettare nella gestione del potere tecnologico. I diritti fondamentali, la protezione dei dati, il controllo parlamentare sui sistemi di sorveglianza: nulla di tutto ciò compare nel testo. Non è una dimenticanza. È una scelta. I SILENZI DEL MANIFESTO Palantir fornisce sistemi di analisi dei dati alle forze armate israeliane. Non è un’informazione controversa: è documentata. Nel momento in cui il libro viene pubblicato e poi rilanciato, Gaza è sotto bombardamento, e i sistemi di targeting basati sull’intelligenza artificiale sono al centro di un dibattito internazionale serissimo sul rispetto del diritto internazionale umanitario. Nulla di tutto ciò appare nelle 22 tesi. La settima dice: «Se un marine americano chiede un fucile migliore, dobbiamo costruirlo; e lo stesso vale per il software.» È una formulazione che neutralizza la questione morale attraverso l’analogia tecnica: un sistema di analisi predittiva per il targeting è presentato come equivalente funzionale di un fucile. È precisamente il tipo di ragionamento che il diritto internazionale umanitario, e prima ancora la filosofia morale, ci chiede di rifiutare. L’undicesima tesi afferma che «la nostra società si è fatta troppo desiderosa di affrettare, e spesso gioisce della rovina dei suoi nemici.» È una tesi sull’etica della vittoria formulata da chi produce gli strumenti tecnici con cui i nemici vengono individuati, inseguiti ed eliminati. La dissonanza cognitiva è assoluta. COSA RIMANE Sarebbe sbagliato liquidare il libro come privo di spunti. Alcune tesi toccano problemi reali: la distanza tra élite tecnologica e servizio pubblico è un fenomeno che esiste; la deriva degli algoritmi di piattaforma verso la trivialità commerciale è documentata; la retorica vuota della governance multilaterale ha prodotto risultati insufficienti di fronte alle sfide geopolitiche contemporanee. Ma un testo che identifica problemi reali per proporre soluzioni che rafforzano il proprio modello di business non è un’analisi: è pubblicità con ambizioni filosofiche. The Technological Republic è, in definitiva, il documento con cui una delle aziende più potenti e meno trasparenti del capitalismo della sorveglianza chiede all’opinione pubblica occidentale di legittimare il suo ruolo nello Stato. Lo fa con il linguaggio della crisi, dell’urgenza e del debito morale. Lo fa invocando la democrazia per costruire un’architettura del potere che alla democrazia risponde il meno possibile. La domanda che Karp e Zamiska non fanno mai — e che è, invece, l’unica che conta — è questa: chi controlla chi controlla? Francesco Russo
April 21, 2026
Pressenza
Che cosa fa l’intelligenza artificiale in guerra
Immagine in evidenza generata con l’ausilio dell’intelligenza artificiale “La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano. Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto. Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi. IL RUOLO CRUCIALE DELL’AI PREDITTIVA Che cosa fa infatti un chatbot pressoché identico a quelli che usiamo nella vita quotidiana quando è utilizzato in ambito bellico? Prima di tutto, bisogna chiarire alcuni aspetti importanti. Come mostrato anche da un paper della NATO Science and Technology Organization, si tende infatti a fare confusione tra gli impieghi degli algoritmi predittivi (che analizzano dati per individuare schemi, classificare eventi e stimare probabilità future) e quelli invece generativi (capaci di generare probabilisticamente testo, immagini, video o altro). I large language model non possono riconoscere automaticamente i bersagli, non guidano i missili o i droni, non raccolgono informazioni, non analizzano direttamente i dati dei sensori e non eseguono autonomamente azioni nel mondo reale. La capacità fondamentale di ChatGPT e dei suoi compagni è infatti (provare a) comprendere, elaborare e generare il linguaggio umano sulla base del dataset testuale su cui sono stati addestrati. Sul campo di battaglia, il grosso del lavoro sporco lo svolgono quindi i sistemi basati su algoritmi predittivi. Due dei casi più (tristemente) noti sono quelli relativi alle piattaforme di intelligenza artificiale massicciamente impiegate dall’esercito israeliano durante l’invasione di Gaza: The Gospel e Lavender. The Gospel analizza direttamente i dati raccolti tramite intelligence e sorveglianza per identificare obiettivi infrastrutturali – edifici, tunnel, depositi – che vengono poi colpiti dall’esercito. Secondo l’ex capo dell’IDF Aviv Kochavi, questo sistema è in grado di individuare fino a 100 bersagli al giorno: “Per dare una prospettiva”, ha spiegato Kochavi, “in passato ottenevamo 50 obiettivi all’anno”. Lavender è invece un sistema statistico che assegna a ogni individuo presente nella Striscia di Gaza un punteggio relativo alla probabilità di appartenenza a gruppi armati, elaborando dati provenienti anche in questo caso da intelligence e sorveglianza, oltre a segnali comportamentali e indicatori demografici. Secondo le inchieste del magazine israeliano +972, nel corso del conflitto Lavender ha identificato – con un margine di errore accettato del 10% – circa 37mila palestinesi come potenziali bersagli. Per quanto invece riguarda gli Stati Uniti (e la NATO), il più diffuso sistema di supporto decisionale (DSS, decision support system) è il Maven Smart System. Sviluppato a partire dal 2017 da Palantir – subentrata dopo il passo indietro di Google, che al tempo aveva rinunciato in seguito alle proteste dei dipendenti – in collaborazione con Amazon (che fornisce in appoggio la piattaforma cloud AWS), una prima versione di Maven è stata impiegata nel 2021 durante il ritiro statunitense dall’Afghanistan. Successivamente è stato utilizzato in supporto a Israele durante l’invasione di Gaza ed è fino a oggi stato impiegato anche per gli attacchi contro l’Iran. A differenza di The Gospel, Maven non è solo un sistema di AI assisted targeting, ma una piattaforma di comando e controllo che offre anche “consapevolezza situazionale in tempo reale” — ovvero una rappresentazione di ciò che accade sul terreno, comprese posizioni delle forze amiche e nemiche, asset disponibili e minacce attive — e supporto alla pianificazione operativa: dalla generazione e valutazione delle azioni potenziali alla stesura di elementi utili per gli ordini operativi. Secondo gli stessi funzionari della NATO, che hanno siglato nel 2025 un contratto con Palantir per il suo utilizzo, Maven fornisce ai comandanti delle “abilità in stile videogioco” di supervisionare ciò che avviene sul campo di battaglia. CHE COSA FANNO I MODELLI LINGUISTICI E allora i large language model? Prima di vedere i loro usi più avanzati e il modo in cui Claude prima e ChatGPT poi (dopo lo scontro tra Anthropic e il Pentagono) stanno venendo integrati in Maven e in altri sistemi bellici, partiamo dagli impieghi più semplici. In modo non dissimile dai suoi utilizzi civili – ma sfruttando delle versioni appositamente ottimizzate – i modelli linguistici vengono impiegati dagli eserciti per riassumere i manuali operativi, i rapporti delle missioni, i briefing dell’intelligence e altro ancora. Viceversa, possono essere utilizzati anche per generare, a partire dalle indicazioni dei soldati, rapporti, traduzioni, trascrizioni e documentazione di vario tipo. Durante le esercitazioni, questi sistemi possono anche contribuire alla generazione di scenari bellici; mentre nell’ambito della medicina militare, gli LLM vengono utilizzati per sintetizzare cartelle cliniche e storia medica dei pazienti, consentendo ai medici di campo un accesso rapido alle informazioni essenziali. Possono inoltre essere usati – in maniera simile al “civile” Claude for Healthcare – come strumenti di supporto decisionale, in grado di confrontare opzioni terapeutiche e assistere i medici nelle loro valutazioni. Nei casi più avanzati, bisogna invece immaginare l’impiego bellico di Claude o ChatGPT come una “interfaccia conversazionale” integrata, per esempio, in Maven Smart System, che permette agli utenti di interpretare più facilmente le informazioni provenienti dalle piattaforme di supporto decisionale. Messa così, può sembrare una cosa da poco. In realtà – come scrive James O’Donnell sulla MIT Tech Review – “è difficile sopravvalutare tutto ciò: l’intelligenza artificiale già da tempo svolge compiti di analisi per i militari, estraendo informazioni utili da un oceano di dati”. Oltre a permettere di navigarli sfruttando il linguaggio naturale e ricevendo risposte immediatamente comprensibili, “l’uso dell’AI generativa permette di ottenere consigli su quale azione intraprendere sul campo, una funzione che sta venendo testata sul serio per la prima volta in Iran”. Il large language model viene quindi integrato nelle piattaforme predittive per rendere più facilmente comprensibile la complessità delle informazioni da essi ricavate: “Una possibile applicazione potrebbe consistere nell’assistere i comandanti militari nel prendere la decisione giusta alla velocità richiesta, supportando lo staff nello sviluppo, nella valutazione e nella raccomandazione delle opzioni operative disponibili (Courses of Action, COA)”, si legge sulla rivista del Joint Air Power Competence Centre (un centro di ricerca della NATO). “Gli LLM potrebbero inoltre aiutare l’operatore umano nell’analisi e nella valutazione dei dati in tempo reale, accorciando così il ciclo operativo e fornendo un vantaggio decisivo sul campo di battaglia”. Per fare un (teorico) esempio concreto, possiamo immaginare il seguente scenario: durante un conflitto, i sistemi predittivi rilevano un’anomalia termica in un complesso industriale nemico, i sensori intercettano un picco di comunicazioni crittografate nella stessa area e un drone cattura immagini di veicoli classificati come lanciatori missilistici mobili. Il modello linguistico integrato nella piattaforma di comando incrocia questi dati, provenienti da tre sistemi diversi, con i rapporti di intelligence ricevuti nelle settimane precedenti. In questo modo, individua che lo stesso sito era già stato segnalato come possibile deposito e che il pattern delle comunicazioni somiglia a quelli osservati prima di lanci precedenti. In pochi minuti — anziché nelle ore che servirebbero a un team di analisti — genera un briefing sintetico con tre possibili azioni: attacco, sorveglianza intensificata, richiesta di conferma. Il comandante lo legge, interroga il sistema su ulteriori aspetti specifici e decide il da farsi. In sintesi, Maven unisce i dati provenienti da satelliti, droni, report di intelligence e segnali radar. Claude o ChatGPT, integrati nella stessa piattaforma, analizzano questi dati, li rendono consultabili in linguaggio naturale e possono fornire suggerimenti sull’azione da intraprendere o la forza da impiegare. Nel corso degli attacchi in Iran, scrive il Washington Post, “Maven ha suggerito centinaia di obiettivi, fornito coordinate di localizzazione precise e dato priorità a questi obiettivi in base alla loro importanza. L’integrazione tra Maven e Claude ha creato uno strumento che sta accelerando il ritmo della campagna, riducendo la capacità dell’Iran di contrattaccare e trasformando una pianificazione delle operazioni che richiedeva settimane in operazioni in tempo reale”. Uno studio della Georgetown University ha invece analizzato i modi in cui il 18° Airborne Corps dell’esercito statunitense utilizza Maven e Claude, concludendo, tra le altre cose, che consente di fare con una squadra di 20 persone ciò che prima ne avrebbe richieste duemila. Nel 2024 è stata poi siglata una collaborazione tra Anduril – startup che produce armi autonome e semiautonome,  come il drone Altius-600M, l’aereo da guerra autonomo Fury e il sottomarino da battaglia Dive-LD – e OpenAI. Come si legge ancora sulla MIT Tech Review, “Anduril addestra da tempo i propri modelli di intelligenza artificiale per analizzare riprese video e dati dei sensori al fine di identificare le minacce. Ciò su cui si concentra meno sono invece i sistemi di AI conversazionale che consentono ai soldati di interrogare direttamente questi sistemi o ricevere indicazioni in linguaggio naturale. Ed è in questo spazio che i modelli di OpenAI potrebbero inserirsi”. Qualcosa si muove anche in Europa, dove la francese Mistral AI ha siglato alla fine del 2025 un accordo quadro triennale con il ministero delle Forze Armate di Parigi per integrare i propri modelli linguistici nelle operazioni di esercito, marina e aviazione, oltre che in enti strategici come il commissariato per l’energia atomica e il centro di ricerca aerospaziale ONERA. Gli impieghi previsti sono simili a quelli statunitensi: analisi documentale, traduzione, redazione di briefing, supporto decisionale. In questo caso, Mistral sfrutta esclusivamente l’infrastruttura informatica francese, al riparo dai potenziali sguardi indiscreti del cloud statunitense. LE CRITICITÀ DELL’AI IN GUERRA In sintesi, i modelli linguistici impiegati in ambito militare sono complementari ai modelli predittivi e spesso integrati nelle stesse piattaforme, permettendo, tra le altre cose, di analizzare con maggiore facilità e rapidità la grande mole di dati raccolta ed elaborata dai sistemi di supporto decisionale. Che cosa succede, però, quando l’obiettivo principale per il quale si sfruttano questi sistemi di “supporto decisionale” – in cui quindi l’ultima parola spetta agli esseri umani – è aumentare al massimo la velocità con cui si opta per una particolare strategia o si reagisce a uno scenario inatteso? “Avevo a disposizione 20 secondi per ciascun bersaglio, valutandone dozzine ogni giorno”, ha raccontato al Guardian un soldato israeliano che utilizzava Lavender. “Non avevo nessun valore aggiunto come essere umano, se non il fatto di apporre il timbro di approvazione”. Nel momento in cui la velocità diventa l’imperativo fondamentale, l’essere umano è quasi d’intralcio alla macchina, che quindi da sistema di supporto decisionale rischia di diventare il “sistema decisionale”, mentre i soldati e gli ufficiali si limitano a certificare la loro approvazione alle decisioni prese dalla macchina. Una situazione che è ulteriormente esacerbata dall’integrazione dei modelli linguistici: “Mentre l’interfaccia di Maven costringe gli utenti a ispezionare e interpretare direttamente i dati presenti sulla mappa, i risultati forniti dai modelli generativi sono più semplici da ottenere ma più difficili da verificare”, scrive ancora James O’Donnell. “Il cambio di paradigma cruciale è che l’AI permette all’esercito statunitense di individuare bersagli alla velocità della macchina invece che a quella umana”, ha spiegato, parlando con il Washington Post, Paule Scharre, vicepresidente del Center for a New American Security. “Il lato negativo è che l’intelligenza artificiale sbaglia e abbiamo bisogno di esseri umani per controllare i suoi output, soprattutto quando ci sono in ballo delle vite”.   Il controllo umano è però tanto indispensabile quanto problematico. Prima di tutto perché, inevitabilmente, riduce la velocità, ma anche perché la capacità degli esseri umani di supervisionare, correggere o ignorare le decisioni della macchina è regolarmente sovrastimata. Le ragioni sono varie e in parte già note: uno studio pubblicato di recente dalla Wharton School definisce “resa cognitiva” il fenomeno per cui gli utenti dei modelli linguistici tendono a dedicare sempre meno tempo alla verifica dei risultati. È una sorta di versione ancora più insidiosa del noto “automation bias”, secondo cui le persone si fidano del giudizio della macchina a causa della patina di oggettività che circonda (erroneamente) questi strumenti statistici e del modo in cui le loro capacità vengono magnificate senza essere adeguatamente problematizzate. Un altro elemento che sta emergendo è quello del de-skilling causato dalla necessità di prendere decisioni sempre più rapide, che spinge a delegare un numero crescente di responsabilità decisionali alla macchina: “Stiamo riducendo le nostre stesse abilità”, ha spiegato Elke Schwarz, docente del dipartimento di Studi bellici dell’Università di Londra. “I comandanti stanno diventando sempre meno abili a identificare ciò di cui sono responsabili in un campo di battaglia”.   Tutto ciò è ulteriormente complicato dalla tendenza di questi sistemi – ormai accertata e anche ammessa dagli stessi sviluppatori – a dare ragione agli utenti con troppa facilità (fenomeno chiamato AI Sycophancy). Per certi versi, è il contrario dell’automation bias: se nel primo caso sono gli umani che si fidano troppo della macchina, in questo caso sono le macchine che tendono a confermare ciò che gli umani vogliono sentirsi dire, con il rischio che, sul campo di battaglia, i soldati sfruttino questi sistemi, magari inconsapevolmente, per ottenere una conferma di decisioni già prese, indipendentemente dalla loro bontà. C’è poi il noto e ineliminabile problema delle allucinazioni (quando un sistema di intelligenza artificiale presenta come se fosse certa un’informazione invece sbagliata o completamente inventata), che potrebbero annidarsi in ogni sintesi di report, documento generato a partire dai dati o traduzione. Criticità che diventa ancora più allarmante se combinata alla tendenza dei modelli generativi, recentemente osservata, a prediligere nelle simulazioni l’escalation bellica rispetto a soluzioni più caute. E questo senza nemmeno aver aperto il fondamentale capitolo dell’etica, della responsabilità (e tracciabilità) decisionale e della trasparenza, soprattutto considerando che – come riporta l’Independent – l’esercito statunitense non tiene traccia del ruolo giocato dall’AI nei singoli attacchi. “Uno stato ha la responsabilità di sapere se l’intelligenza artificiale è stata impiegata in uno qualsiasi dei suoi attacchi”, ha affermato Jessica Dorsey, professoressa di diritto internazionale dell’Università di Utrecht. “I comandanti dovrebbero avere accesso alle informazioni di intelligence su cui si basano i loro attacchi”. Da questo punto di vista, un recente e tragico episodio avvenuto agli inizi dei bombardamenti sull’Iran riassume perfettamente quanto ciò possa essere problematico. Un numero schiacciante di prove indica che gli Stati Uniti siano responsabili dell’attacco alla scuola di Minab, in Iran, in cui hanno perso la vita 175 persone, la maggior parte delle quali studentesse. Attacco che potrebbe essere stato condotto a causa di dati di intelligence obsoleti, risalenti a quando il sito faceva effettivamente parte di una base navale adiacente delle Guardie Rivoluzionarie iraniane. Considerando che Maven ha generato oltre mille opzioni di attacco solo nelle prime 24 ore, viene da porsi una domanda: e se l’errore fosse stato causato da una decisione sbagliata dell’intelligenza artificiale (come tra l’altro sospettato), magari a causa di un “pacchetto di bersagli” obsoleto ma che l’AI ha riciclato presentandolo in maniera convincente? Oppure se, più semplicemente, la quantità di bersagli individuati in un tempo rapidissimo non avesse dato ai militari il tempo necessario a verificare che fossero quelli giusti? L’intelligenza artificiale potrebbe non essere responsabile di questa strage, ma di sicuro sta rendendo più complesso risalire la catena delle responsabilità. Tutti questi rischi e queste criticità vengono sollevate da anni dalle organizzazioni che chiedono di vietare – o almeno regolamentare rigidamente, a livello internazionale – l’impiego dell’intelligenza artificiale in ambito bellico. Quel treno, ormai, sembra però essere passato. L'articolo Che cosa fa l’intelligenza artificiale in guerra proviene da Guerre di Rete.
April 8, 2026
Guerre di Rete
Palantir e il capitale europeo: chi investe?
Chi finanzia le tecnologie della sorveglianza e della guerra? Ne parliamo con Daniele Grasso, data journalist di El País e dell’ICIJ, a partire da un’inchiesta sugli investimenti europei nel colosso Palantir di Peter Thiel. Un’azienda al centro di operazioni di controllo migratorio e sistemi militari, sostenuta dall’investimento di banche, fondi pensione e grandi istituzioni finanziarie del continente, che hanno aumentato massicciamente le loro partecipazioni nonostante le accuse di violazioni dei diritti umani. Nell’intervista ci concentriamo sulle responsabilità della finanza europea, sul ruolo delle tecnologie dei dati nei dispositivi di sorveglianza e nei conflitti contemporanei, ma anche nelle istituzioni sanitarie, e sulle contraddizioni tra retorica etica e pratiche di investimento.
L’IA: il disallineamento di un paese di geni – di Giorgio Griziotti
Mentre si consuma una svolta storica — un'offensiva tecnofascista su scala mondiale che instaura un regime di guerra permanente — l'IA diventa il sistema nervoso centrale di questa volontà di potenza. Si integra con tutte le tecnologie belliche: dalle piattaforme esistenti, compresi i sistemi nucleari di comando e controllo (NC3), ai nuovi sistemi autonomi, [...]
April 2, 2026
Effimera
Note dall'Uk #7
Oggi parliamo del rapporto tra l'NHS (il servizio sanitario nazionale britannico) e Palantir, l'azienda spytech fondata da Peter Thiel e Alex Karp, e del ruolo sempre più rilevante che quest'ultima sta assumendo nella gestione dei dati dei pazienti, delle preoccupazioni che ciò comporta e delle recenti mobilitazioni, a partire da quelle dei lavoratori sanitari, contro Palantir.
March 20, 2026
Radio Onda Rossa
Teoria e prassi del capitalismo sociopatico /2
La macchina della sorveglianza di Peter Thiel C’è un confine sottile tra sicurezza e dominio. È una linea che quasi mai vediamo: passa nei cavi sotterranei delle telecomunicazioni, nelle dashboard di ciascuno di noi che un agente consulta in un anonimo ufficio federale, nelle immagini termiche che scorrono sui monitor […] L'articolo Teoria e prassi del capitalismo sociopatico /2 su Contropiano.
March 20, 2026
Contropiano
Queste non sono aziende “hi-tech”, ma contractors militari
Esiste una strategia militare israeliana chiamata “procedura nebbia”. Utilizzata per la prima volta durante la seconda intifada, è una regola non ufficiale che richiede ai soldati di guardia nei posti militari in condizioni di scarsa visibilità di sparare raffiche di proiettili nell’oscurità, basandosi sulla teoria che potrebbe nascondersi una minaccia […] L'articolo Queste non sono aziende “hi-tech”, ma contractors militari su Contropiano.
March 17, 2026
Contropiano