Tag - Ai&Guerra

OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic
(Fonte) Shannon Bond Geoff Brumfiel – 28 febbraio 2026 Venerdì Trump ha ordinato a tutte le agenzie federali di interrompere immediatamente l’uso dei prodotti di Anthropic, accusando l’azienda di aver tentato di imporre i propri Termini di Servizio al governo invece di adeguarsi alle decisioni militari. In un post su Truth Social ha definito la scelta dell’azienda un “errore disastroso” e ha annunciato che la tecnologia Anthropic sarà eliminata gradualmente entro sei mesi. Contestualmente, il Segretario alla Difesa Pete Hegseth ha dichiarato su X che Anthropic è stata designata come rischio per la sicurezza nazionale nella catena di approvvigionamento, escludendola da collaborazioni con l’esercito e con i suoi appaltatori, nel quadro del rebranding del Pentagono come “Dipartimento della Guerra”. La decisione chiude una dura controversia relativa a un contratto da 200 milioni di dollari, nell’ambito del quale Anthropic aveva cercato di mantenere due restrizioni: il divieto di sorveglianza di massa dei cittadini americani e il divieto di utilizzo dei suoi modelli per armi completamente autonome. Il Pentagono sosteneva di non voler usare l’IA in tali modi, ma pretendeva la possibilità di impiegare i modelli per “tutti gli scopi legittimi”. Alla scadenza fissata, l’azienda non ha revocato le limitazioni e il Dipartimento della Difesa ha proceduto con la designazione. Anthropic ha annunciato che contesterà la decisione in tribunale, sostenendo che la designazione è giuridicamente infondata e crea un precedente pericoloso per qualsiasi azienda che negozi con il governo. Ha inoltre affermato che, secondo la legge federale, la classificazione come rischio per la catena di approvvigionamento si applicherebbe solo all’uso di Claude nei contratti del Dipartimento della Guerra, senza estendersi ad altri clienti. L’azienda ha ribadito di aver negoziato in buona fede e di sostenere tutti gli usi legittimi dell’IA per la sicurezza nazionale, eccetto le due eccezioni contestate, motivate dall’inaffidabilità attuale dei modelli per sistemi d’arma autonomi e dal rischio di violazione dei diritti fondamentali attraverso la sorveglianza di massa. Poco dopo l’annuncio di Trump, OpenAI ha comunicato di aver raggiunto un accordo con il Dipartimento della Difesa per fornire la propria tecnologia alle reti classificate. In un post su X, il CEO Sam Altman ha dichiarato che l’accordo incorpora principi di sicurezza come il divieto di sorveglianza di massa nazionale e la responsabilità umana nell’uso della forza, anche nei sistemi d’arma autonomi. In precedenza, Altman aveva affermato alla CNBC di condividere le “linee rosse” di Anthropic e, secondo quanto riportato dal Wall Street Journal, in una nota interna aveva spiegato che OpenAI stava negoziando esclusioni simili per impedire usi senza supervisione umana. Il Pentagono aveva anche minacciato di invocare il Defense Production Act per costringere Anthropic a consentire l’uso illimitato dei propri modelli. Hegseth ha accusato l’azienda di arroganza e tradimento, sostenendo che il Dipartimento della Guerra deve avere accesso completo ai modelli per ogni scopo legale in difesa della Repubblica e che i militari non saranno ostaggio dei “capricci ideologici” delle aziende tecnologiche. Emil Michael, sottosegretario per la ricerca e l’ingegneria, ha ribadito su X che il dipartimento rispetterà sempre la legge ma non si piegherà a interessi aziendali, affermando in un’intervista a CBS News che la normativa già vieta sorveglianza di massa e armi autonome e che occorre fidarsi delle forze armate. Negli ultimi anni, molte aziende hanno progressivamente allentato i propri principi etici per accedere a contratti governativi e militari sempre più redditizi: OpenAI ha eliminato il divieto di utilizzi bellici e firmato accordi con aziende come Anduril e con lo stesso Dipartimento della Difesa, mentre anche Amazon, Google e Microsoft hanno ampliato le collaborazioni con agenzie di difesa e intelligence, inclusa l’ICE, nonostante le proteste interne dei lavoratori, che in passato avevano portato a cambiamenti, come nel caso del ritiro di Google dal Project Maven nel 2018. The post OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic first appeared on Lavoratrici e Lavoratori Aci Informatica.
La sicurezza dell’intelligenza artificiale incontra la macchina da guerra
(Fonte) Steven Levy – 20 febbraio 2026 Quando lo scorso anno Anthropic è diventata la prima grande azienda di intelligenza artificiale ad essere autorizzata dal governo degli Stati Uniti per usi classificati, comprese applicazioni militari. La notizia non ha fatto molto scalpore. Ma questa settimana un secondo sviluppo ha colpito come una palla di cannone: il Pentagono sta riconsiderando il suo rapporto con l’azienda, incluso un contratto da 200 milioni di dollari, apparentemente perché l’azienda di intelligenza artificiale, attenta alla sicurezza, si oppone a partecipare a determinate operazioni mortali. Il cosiddetto Dipartimento della Guerra potrebbe persino designare Anthropic come “rischio per la catena di approvvigionamento”, una lettera scarlatta solitamente riservata alle aziende che fanno affari con paesi sottoposti a controllo da agenzie federali, come la Cina, il che significa che il Pentagono non farebbe affari con aziende che utilizzano l’intelligenza artificiale di Anthropic nelle loro attività di difesa. In una dichiarazione a WIRED, il portavoce capo del Pentagono Sean Parnell ha confermato che Anthropic era sulla graticola. “La nostra nazione richiede che i nostri partner siano disposti ad aiutare i nostri combattenti a vincere in qualsiasi battaglia. In definitiva, si tratta delle nostre truppe e della sicurezza del popolo americano”, ha affermato. Questo è un messaggio anche per altre aziende: OpenAI, xAI e Google, che attualmente hanno contratti con il Dipartimento della Difesa per lavori non classificati, stanno facendo i salti mortali per ottenere le loro autorizzazioni più elevate. C’è molto da analizzare qui. Innanzitutto, c’è la questione se Anthropic sia stata punita per essersi lamentata del fatto che il suo modello di intelligenza artificiale Claude sia stato utilizzato come parte del raid per rimuovere il presidente venezuelano Nicolás Maduro (questo è quanto riportato ; l’azienda lo nega). C’è anche il fatto che Anthropic sostiene pubblicamente la regolamentazione dell’intelligenza artificiale, una posizione anomala nel settore e in contrasto con le politiche dell’amministrazione. Ma c’è in gioco una questione più grande e inquietante. Le richieste governative di utilizzo militare renderanno l’intelligenza artificiale stessa meno sicura? Anthropic si è ritagliata uno spazio come la più attenta alla sicurezza di tutte le piattaforme di intelligenza artificiale. In qualità di primo grande laboratorio con un contratto classificato, Anthropic fornisce al governo un “set personalizzato di modelli Claude Gov costruiti esclusivamente per i clienti della sicurezza nazionale statunitense”. Tuttavia, Anthropic ha affermato di averlo fatto senza violare i propri standard di sicurezza, incluso il divieto di utilizzare Claude per produrre o progettare armi. Il CEO di Anthropic, Dario Amodei, ha espressamente dichiarato di non volere che Claude sia coinvolto in armi autonome o nella sorveglianza governativa tramite intelligenza artificiale. Ma questo potrebbe non funzionare con l’attuale amministrazione. Il CTO del Dipartimento della Difesa, Emil Michael (ex direttore commerciale di Uber), ha dichiarato ai giornalisti questa settimana che il governo non tollererà che un’azienda di intelligenza artificiale limiti il modo in cui l’esercito utilizza l’intelligenza artificiale nei suoi armamenti. D’altra parte il CEO di Palantir, Alex Karp, non ha remore ad affermare , con evidente orgoglio: “Il nostro prodotto viene occasionalmente utilizzato per uccidere”, e il Pentagono lo dice esplicitamente: se le aziende di intelligenza artificiale vogliono collaborare con il Dipartimento della Difesa, devono impegnarsi a fare tutto il necessario per vincere. È ormai un dato di fatto che il futuro della guerra è l’IA. Il futuro potrebbe dipendere da chi è responsabile dell’intelligenza artificiale avanzata e da come la plasma e la sfrutta. Mentre i signori dell’intelligenza artificiale si avvolgono nel patriottismo e cercano accordi con il Pentagono, il fatto è che stanno fornendo una tecnologia spaventosamente potente e imprevedibile a un governo e a un dipartimento della Guerra che rifiutano l’idea di supervisione.   The post La sicurezza dell’intelligenza artificiale incontra la macchina da guerra first appeared on Lavoratrici e Lavoratori Aci Informatica.
La guerra invisibile delle ricostruzioni combattuta con l’IA
(Fonte) Barbara Carfagna – 6 gennaio 2026 Tecnologia e suolo. Dalla Siria al Nagorno-Karabakh nelle fasi post belliche vince chi controlla le leve dell’intelligenza artificiale Quando le bombe smettono di cadere inizia una guerra diversa. È quella per la Ricostruzione: decidere chi e come programmerà la normalità di domani. Il potere, che nel dopoguerra del ‘900 era di chi possedeva il suolo, sarà di chi controlla l’intelligenza artificiale che lo governerà. I modelli contengono infatti il disegno della società futura, a partire dalla cybersecurity, che sarà integrata nelle fondamenta invece che adattata alla difesa dell’esistente. Dal Karabakh alla Siria (prossimamente dall’Ucraina a Gaza) la ricostruzione post-bellica installa un sistema nervoso digitale che orienta autonomamente, costantemente, dinamicamente, invisibilmente, il modo in cui vivranno milioni di persone per i prossimi decenni. Le guerre in corso producono enormi flussi di dati in tempo reale che addestrano modelli di IA cruciali per armi autonome, simulazioni strategiche e definizione dei target futuri. La fase di ricostruzione, affidata all’Agentic AI, rischia di fissare in modo irreversibile una logica algoritmica del territorio, cedendo sovranità su ciò che è “sicuro”, “normale” o “prioritario” a sistemi spesso stranieri. Chi addestra i modelli su un territorio acquisisce un vantaggio informativo permanente: nel caso ucraino, saranno gli algoritmi statunitensi – più che l’Europa – a conoscere e governare lo spazio postbellico. Intanto, esperimenti come gli “AI village” nel Karabakh mostrano come la ricostruzione algoritmica includa anche il controllo della memoria e dei traumi collettivi. Nel Karabakh la ricostruzione postbellica è diventata un progetto pilota di governo algoritmico: un sistema di Agentic AI, autonomo e autorizzato, simula e indirizza le politiche statali come un attore del processo decisionale. In pochi anni, su un territorio devastato da decenni di guerra e mine, sono sorti villaggi razionali completamente ricostruiti, con welfare automatizzato, servizi essenziali e sorveglianza pervasiva. Sensori IoT e modelli predittivi ottimizzano risorse, sicurezza, coltivazioni e comportamenti, addestrando soluzioni di Ricostruzione esportabili. Il costo reale, oltre ai miliardi investiti, è una cessione di sovranità: infrastrutture tecnologiche straniere, sicurezza esternalizzata e un ordine sociale regolato dall’anticipazione algoritmica del rischio, dove il governo delle “anomalie” precede e sostituisce l’applicazione della legge. Nei sistemi di governo algoritmico l’IA persegue una funzione-obiettivo e produce contro-narrazioni personalizzate per orientare i comportamenti dei cittadini, soprattutto attraverso i social. In questo quadro la sovranità cognitiva diventa decisiva: generazioni formate, curate e indirizzate da modelli esterni rischiano di interiorizzare valori estranei alla propria cultura. L’Arabia Saudita punta a ridurre la dipendenza da IA straniere, investendo in datacenter nazionali e in HumAIn, un’IA sovrana alimentata dai dati e dalle simulazioni dei Giga project e di Neom, la città interamente gestita da AI. L’obiettivo è sviluppare modelli proprietari ed esportabili, mentre l’Europa resta in ritardo nel comprendere la posta in gioco. L’Ue sta perdendo un’altra guerra importante: quella dei dati dei conflitti e per le Ricostruzioni. Il progetto del Digital Twin of Earth, finanziato da Horizon Europe, promette di simulare crisi climatiche e guidare la resilienza continentale. Ma è costruito su dataset prevalentemente anglosassoni, modelli addestrati negli USA, infrastrutture cloud dipendenti da Aws o Microsoft Azure. Cosa succede quando un’alluvione devasta l’Emilia Romagna, come nel 2023, e i modelli predittivi sottostimano il rischio perché addestrati su fiumi texani o bacini cinesi? Senza dati propri e modelli sovrani, rischiamo di essere non decisori ma esecutori del nostro futuro. The post La guerra invisibile delle ricostruzioni combattuta con l’IA first appeared on Lavoratrici e Lavoratori Aci Informatica.
“Nessuna restrizione” e un “occhiolino” segreto: l’accordo di Israele con Google e Amazon
(Fonte) Yuval Abraham – 29 ottobre 2025 Nel 2021, Google e Amazon hanno firmato un contratto noto come “Progetto Nimbus” da 1,2 miliardi di dollari con il governo israeliano per fornirgli servizi avanzati di cloud computing e intelligenza artificiale, strumenti utilizzati durante i due anni di aggressione israeliana alla Striscia di Gaza. I dettagli del progetto sono stati tenuti segreti ma un’indagine condotta da +972 Magazine, Local Call e The Guardian può ora rivelare che Israele ha imposto a Google e Amazon delle stringenti richieste: * limitazione per i giganti del web dell’uso delle proprie tecnologie da parte di Israele, anche in caso di violazione dei loro stessi termini di servizio; * obbligo per le aziende a informare segretamente Israele qualora un tribunale straniero ordinasse la consegna dei dati israeliani conservati sui loro server cloud, aggirando di fatto i loro obblighi legali. Il Progetto Nimbus, pensato per sette anni con possibilità di proroga, prevedeva il trasferimento sui cloud di Google e Amazon dei dati delle agenzie governative, di sicurezza e militari israeliane. Già prima del 7 ottobre, tuttavia, i funzionari israeliani avevano considerato il rischio di azioni legali nei confronti delle due aziende, temendo che tribunali stranieri potessero imporre la consegna dei dati alle autorità giudiziarie o di sicurezza in relazione a possibili violazioni dei diritti umani nei territori occupati. Il CLOUD Act statunitense consente alle autorità USA di ottenere dati da fornitori cloud americani anche se archiviati all’estero, mentre nell’UE le norme sulla due diligence possono imporre alle aziende di rispondere di violazioni dei diritti umani nelle loro attività globali. Poiché gli ordini di consegna dei dati vietano spesso di informare i clienti, Israele ha richiesto una clausola contrattuale che obbligasse Google e Amazon ad avvertirlo segretamente nel caso fossero costrette a consegnare i suoi dati, nonostante il divieto legale di rivelarlo. Secondo The Guardian , la notifica avverrebbe tramite un codice segreto previsto dal contratto, noto come “winking mechanism” e definito formalmente “compensazione speciale”. In base a questo sistema, Google e Amazon dovrebbero inviare al governo israeliano un pagamento in shekel il cui importo corrisponde al prefisso internazionale del paese richiedente seguito da zeri, segnalando così la consegna dei dati senza comunicarlo esplicitamente. Ad esempio, 1.000 NIS in caso di richiesta dagli Stati Uniti (+1) o 3.900 NIS per l’Italia (+39), da versare entro 24 ore dal trasferimento delle informazioni. Se Google o Amazon ritenessero che i termini di un ordine di segretezza impediscano persino di segnalare quale paese ha ricevuto i dati, il contratto prevede una clausola di salvaguardia: le aziende devono versare al governo israeliano 100.000 shekel israeliani (circa 30.000 dollari). Esperti legali, tra cui diversi ex procuratori statunitensi, hanno definito questo meccanismo altamente anomalo, osservando che i messaggi codificati potrebbero violare gli obblighi legali delle aziende negli Stati Uniti di mantenere segrete le richieste giudiziarie. Come ha commentato un ex avvocato del governo USA, si tratta di un espediente “fin troppo astuto” che difficilmente incontrerebbe la comprensione o la tolleranza di un tribunale statunitense. Altri esperti hanno definito il meccanismo una soluzione “ingegnosa” che rispetterebbe formalmente la legge, ma ne tradirebbe lo spirito. Gli stessi funzionari israeliani ne erano consapevoli: dai documenti emerge che riconoscevano il possibile conflitto con il diritto statunitense, ponendo Google e Amazon davanti all’alternativa tra violare il contratto o i propri obblighi legali. Le due aziende non hanno chiarito se il codice segreto sia mai stato utilizzato; Amazon ha dichiarato di seguire procedure rigorose per rispondere agli ordini legittimi e di non adottare pratiche volte ad aggirare gli obblighi di riservatezza. Google ha respinto come false e “assurde” le accuse di un proprio coinvolgimento in attività illegali, negando qualsiasi tentativo di eludere obblighi legali negli Stati Uniti o altrove. Anche il Ministero delle Finanze israeliano ha smentito le ricostruzioni, definendo infondata l’idea che Israele costringa le aziende a violare la legge. Uso accettabile I documenti trapelati indicano che i funzionari israeliani temevano anche possibili limitazioni o interruzioni dei servizi cloud di Google e Amazon, in seguito a decisioni di tribunali stranieri o a scelte autonome delle aziende sotto la pressione di dipendenti, azionisti, attivisti e organizzazioni per i diritti umani. In particolare, temevano che le leggi europee potessero essere utilizzate per intentare cause legali e spingere le aziende a interrompere i rapporti commerciali con Israele qualora le loro tecnologie fossero collegate a violazioni dei diritti umani. Dopo che +972, Local Call e The Guardian hanno rivelato l’uso da parte di Israele del cloud Microsoft per archiviare intercettazioni di palestinesi in violazione dei termini di servizio, Microsoft ha revocato l’accesso dell’esercito israeliano ad alcuni dei suoi prodotti. I documenti trapelati indicano però che il contratto Nimbus impedisce esplicitamente a Google e Amazon di adottare misure analoghe, anche in caso di violazioni delle proprie policy, pena azioni legali e pesanti sanzioni economiche. Questa disponibilità ad accettare tali condizioni avrebbe favorito Google e Amazon nell’aggiudicarsi il contratto, a scapito di Microsoft, e avrebbe spinto Israele a pianificare il trasferimento dei dati di sorveglianza dal cloud Microsoft a quello di Amazon. Google era consapevole che, con il progetto Nimbus, avrebbe rinunciato in gran parte al controllo sull’uso della propria tecnologia da parte di Israele, nonostante le dichiarazioni pubbliche sul rispetto dei termini di servizio. Secondo The Intercept, il contratto è infatti regolato da policy “modificate” e non negoziabili, favorevoli al governo israeliano, che prevalgono sulle condizioni standard delle aziende. Pur prevedendo formalmente il divieto di utilizzi che violino diritti o causino gravi danni, il contratto Nimbus esclude qualsiasi restrizione sui dati archiviabili e consente a Israele di usare liberamente tutti i servizi cloud, purché nel rispetto della legge israeliana. Un’analisi ufficiale e documenti successivi confermano che Google e Amazon hanno accettato di subordinare i propri termini di servizio al contratto, riconoscendo e assecondando le richieste e le “sensibilità” del governo israeliano. The post “Nessuna restrizione” e un “occhiolino” segreto: l’accordo di Israele con Google e Amazon first appeared on Lavoratrici e Lavoratori Aci Informatica.
Gaza, un futuro di controllo della AI che ci riguarda
(Fonte) – Codice Rosso – 17 ottobre 2025 I piani per la nuova amministrazione di Gaza propongono un modello di sicurezza urbano fondato su un sistema ibrido di controllo automatizzato (HACS) che combina intelligenza artificiale, robotica avanzata e sorveglianza aerea. Questo HACS non sarebbe creato da zero ma emergerebbe dalla riconversione rapida di infrastrutture e database militari preesistenti. Il sistema si basa su tre pilastri: * pervasività aerea e robotica: i droni militari sarebbero riassegnati a compiti di pattugliamento urbano, mentre la robotica terrestre, sviluppata per il combattimento, sarebbe riconvertita in piattaforme di sicurezza per mantenere una consapevolezza situazionale completa e continua del territorio. * ’IA come spina dorsale del comando e controllo (C4I): l’intelligenza artificiale, derivata da sistemi di targeting letale, verrebbe riconvertita a strumento di “polizia predittiva”, utilizzando i dati biometrici e di movimento per profilare gli individui per “livello di rischio” e dirigere le risorse di pattugliamento. * adattamento delle soluzioni “Smart City”: il modello HACS sarà rivenduto sul mercato globale come un “pacchetto di sicurezza per Smart City” completo, allineandosi alla domanda di sicurezza urbana ad alta tecnologia. L’industria della difesa sfrutta Gaza come “terreno di prova”, trasformando tecnologie di guerra urbana in prodotti commercializzabili per la Homeland Security, con il rischio di diffondere e normalizzare pratiche di sorveglianza estrema e di erodere la sovranità dei dati civili su scala internazionale. I piani di pace per Gaza prevedono la smilitarizzazione completa e l’avvio di una forza di polizia palestinese sotto la supervisione di una forza internazionale di stabilizzazione. Tuttavia, la gestione della sicurezza resterebbe nelle mani di attori esterni, poiché le strutture di comando, controllo, comunicazione e informazione (C4I) e gli apparati di sorveglianza — droni, CCTV, database biometrici e sistemi IA — continuerebbero a essere controllati dall’esterno, relegando la polizia locale a mero esecutore di un potere algoritmico non sovrano con la riclassificazione di tecnologie militari di targeting e sorveglianza — come Lavender e Red Wolf — in strumenti di “polizia predittiva” civile, normalizzando la profilazione e la sorveglianza estrema come dispositivi ordinari di sicurezza urbana. Il modello di sicurezza previsto per Gaza si configura come la diretta evoluzione dell’infrastruttura di sorveglianza già sviluppata da Israele, basata su riconoscimento facciale, raccolta biometrica e controllo aereo,  in un sistema che alcuni definiscono “apartheid automatizzato”. Sistemi come Blue Wolf (sistema di raccolta massiva di dati) e Red Wolf (sistema per scansionare i volti) hanno alimentato database di massa e imposto restrizioni automatiche alla popolazione palestinese, mentre l’IA militare — con programmi come Lavender, integrati da tecnologie private (per esempio la compagnia israeliana Corsight) e persino piattaforme commerciali (Google Photos)— ha già mostrato la capacità di identificare in modo sistematico obiettivi e individui. Droni, palloni spia e telecamere completano un ecosistema di sorveglianza “a ciclo chiuso”, che verrebbe semplicemente ri-etichettato come dispositivo di sicurezza urbana: un passaggio che non introduce nuove tecnologie, ma trasferisce nel contesto post-bellico gli stessi bias, gli stessi poteri e le stesse ambiguità legali della precedente macchina militare. L’implementazione dell’HACS solleva questioni legali fondamentali relative all’accountability. L’accelerazione nell’uso di sistemi sempre più autonomi introduce la sfida del controllo umano significativo (MHC). La questione più critica per la futura amministrazione riguarda, però, la gestione dei database biometrici preesistenti, contenenti dati sensibili raccolti in un contesto di coercizione e che vengono trasferiti a terze parti. La potenza o l’entità che manterrà il controllo esclusivo sui database biometrici e sul sistema C4I di IA manterrà, di fatto, il controllo operativo ultimo sull’HACS e quindi di Gaza. I dati biometrici si configurano così come un asset geopolitico chiave, e la disputa sulla loro sovranità sarà il fulcro della negoziazione sulla sicurezza post-bellica. L’ipotesi che il sistema di controllo di Gaza serva da modello pilota per l’esportazione in altri paesi trova una solida base nell’analisi delle dinamiche industriali e geopolitiche. Il territorio palestinese è stato fin qui attivamente utilizzato come un terreno di prova per il collaudo e la promozione di tecnologie militari e di sorveglianza. La guerra ha agito da catalizzatore per l’industria della difesa locale, accelerando la conversione delle start-up civili verso l’applicazione militare. La conseguenza geopolitica più significativa sarebbe la normalizzazione internazionale della sorveglianza estrema. The post Gaza, un futuro di controllo della AI che ci riguarda first appeared on Lavoratrici e Lavoratori Aci Informatica.