Tag - Ai&Guerra

Come è passata tramite la AI la strategia sbagliata degli USA
(Fonte) Silvano Cacciari – 18 Marzo 2026 E’ ormai consolidato il fatto che la AI è la principale arma di guerra di ogni esercito, specie in scenari adattivi complessi come quelli attuali e a maggior ragione  per gli Stati Uniti. Eppure la simulazione AI della crisi di Hormuz, che sta strangolando gli Usa, pare non essere stata davvero elaborata, causando una seria crisi strategico-militare per gli USA. La pianificazione dell’Operazione Epic Fury non si è basata su un unico modello, ma su un doppio binario di simulazione: quello tecnologico-operativo affidato all’AI e quello strategico-geopolitico elaborato dai think tank negli ultimi diciassette anni. Sul piano tecnologico, il cuore del sistema è stata l’integrazione tra il modello Claude di Anthropic e la piattaforma Gotham di Palantir. Claude ha processato decine di migliaia di documenti persiani dell’IRGC, da quello che si sa non quelli classificati,  mappato le reti comunicative della leadership iraniana e simulato un numero compreso tra diecimila e centomila scenari d’attacco, proponendo l’ordine ottimale dei bersagli e le finestre temporali con la massima probabilità di successo. La piattaforma Gotham, di Palantir, ha funzionato come sistema nervoso centrale, integrando dati satellitari, comunicazioni intercettate, consumi energetici e persino le rotte di fuga di emergenza dei vertici iraniani. Sul piano strategico, la cassetta degli attrezzi concettuale era invece già stata preparata nel 2009 dalla Brookings Institution con il rapporto “Verso la Persia: opzioni per una nuova strategia americana verso l’Iran”. Il documento prevedeva con precisione la sequenza: attacco aereo con obiettivo di decapitazione, rappresaglia missilistica iraniana contro basi USA nel Golfo, coinvolgimento di Hezbollah, e la variabile critica dello Stretto di Hormuz come “variabile che le forze armate non hanno ancora pienamente testato“. Nonostante la potenza di calcolo e la profondità di analisi strategica, il sistema ha mostrato almeno tre grandi zone d’ombra che i modelli non avevano catturato e che gli Usa stanno fortemente pagando sul campo e in termini di guerra finanziaria: la resilienza del sistema di potere iraniano alla decapitazione; la sottovalutazione sistematica della chiusura di Hormuz; la rapidità della reazione a catena assicurativo-logistica.  Ma perché sia sul piano tecnologico che su quello strategico gli USA sembrano non aver tenuto conto proprio dello scenario che si è realizzato, una guerra asimmetrica nel quale il soggetto militarmente più debole mette in difficoltà strategica quello più forte? Le fonti disponibili suggeriscono che le simulazioni non hanno previsto la chiusura di Hormuz per una combinazione di bias cognitivo umano, limiti strutturali dei modelli predittivi e – probabilmente – un’indicazione implicita dai vertici di privilegiare scenari che mantenessero aperta quella opzione. I funzionari hanno tacitamente ammesso al Congresso di non aver pianificato lo scenario peggiore della chiusura dello Stretto. Questo rivela un primo livello di fallimento: il bias della “razionalità condivisa”. I modelli AI, addestrati su dati storici, avevano incorporato questa stessa convinzione dei funzionari. Il piano della selezione dei modelli. Nelle settimane precedenti l’attacco, il Pentagono stava utilizzando Claude di Anthropic per simulazioni strategiche e analisi di intelligence. Ma il 27 febbraio, poche ore prima dell’attacco, Trump ha firmato un ordine esecutivo che imponeva a tutte le agenzie federali di cessare l’uso di Claude, definendo Anthropic una “azienda di sinistra radicale” e dichiarandola “rischio per la catena di fornitura”. Il motivo? Anthropic si rifiutava di rimuovere le salvaguardie etiche che impedivano l’uso del modello per operazioni letali e chiedeva garanzie contro l’impiego in sistemi d’arma autonomi. Questo significa che il modello più sofisticato, quello che aveva processato decine di migliaia di documenti persiani e simulato fino a centomila scenari, è stato messo da parte proprio nel momento cruciale. Al suo posto, il Pentagono si è rivolto a OpenAI, il cui CEO Sam Altman aveva accettato di fornire servizi per l’analisi di documenti classificati. La domanda sorge spontanea: perché silurare proprio il modello che aveva la maggiore capacità predittiva? Una possibile risposta è che Claude, con le sue simulazioni, stesse producendo scenari sgraditi – magari proprio quelli che includevano la chiusura di Hormuz e le sue conseguenze catastrofiche. Sostituirlo con modelli più “accomodanti” (o semplicemente meno sofisticati) potrebbe essere stata una scelta politica, non tecnica. Al di là delle ipotesi sul bias deliberato, esiste un problema strutturale che nessuna regolazione degli input può risolvere. Come emerge da un’analisi approfondita pubblicata su una piattaforma cinese, l’AI militare americana ha un tallone di Achille: la “data boundary” (confine dei dati). I sistemi di intelligenza artificiale utilizzati in guerra – dai droni autonomi ai modelli predittivi – funzionano sulla base di dati storici e parametri predefiniti. Le loro capacità operative (tempi di reazione, raggi di rilevamento, logiche di riconoscimento) sono “bloccate” in fabbrica e non possono essere aggiornate in tempo reale durante il combattimento . Questo crea un paradosso: più l’AI è sofisticata, più è vulnerabile una volta che i suoi parametri vengono esposti. Facciamo un esempio: se un drone americano con tempi di reazione di 0,32 secondi viene catturato o analizzato, il nemico può sviluppare contromisure con tempi di reazione di 0,27 secondi, rendendolo obsoleto. Applicato alle simulazioni strategiche, questo significa che, usciti dalla “fabbrica”,  i modelli predittivi lavorano su scenari “noti” e comportamenti “già visti”. L’Iran non aveva mai chiuso completamente Hormuz in risposta a un attacco USA. Non c’erano dati su cui addestrare la previsione. L’AI non poteva “immaginare” una mossa che non era nei suoi archivi. The post Come è passata tramite la AI la strategia sbagliata degli USA first appeared on Lavoratrici e Lavoratori Aci Informatica.
intelligenza artificiale Rapporto Analisi Come OpenAI ha ceduto al Pentagono sulla sorveglianza tramite intelligenza artificiale
(Fonte) – Campo Hayden – 2 marzo 2026 OpenAI, guidata da Sam Altman, ha raggiunto un accordo con il Pentagono sull’uso dell’intelligenza artificiale militare dopo lo stallo con Anthropic, che era stata esclusa per aver imposto limiti rigidi (no sorveglianza di massa sugli americani e no armi autonome letali). Altman ha dichiarato che OpenAI mantiene principi simili, ma secondo fonti vicine ai negoziati l’accordo è molto più flessibile: l’uso della tecnologia è consentito per “qualsiasi uso lecito”. In pratica, se un’attività è legalmente permessa — anche programmi di sorveglianza di massa già autorizzati in passato — l’esercito statunitense potrà utilizzare la tecnologia di OpenAI. L’ex responsabile della ricerca politica di OpenAI, Miles Brundage, sostiene che l’azienda avrebbe in realtà ceduto alle richieste del Pentagono, presentando però l’accordo come se non avesse fatto concessioni e mettendo in difficoltà Anthropic. OpenAI nega: la portavoce Kate Waters afferma che l’intesa non consente sorveglianza di massa sugli americani. Tuttavia, esperti avvertono che l’IA potrebbe permettere forme di sorveglianza estremamente dettagliate combinando grandi quantità di dati personali. A differenza di Anthropic, che voleva un divieto esplicito, OpenAI si affida soprattutto ai limiti legali già esistenti (Costituzione USA e leggi sull’intelligence) per regolare l’uso della tecnologia. Le rassicurazioni di OpenAI sull’uso legale dell’IA da parte del Pentagono non convincono. Dopo l’11 settembre, infatti, le agenzie di intelligence statunitensi hanno già sviluppato programmi di sorveglianza di massa considerati formalmente legali, come rivelato nel 2013 da Edward Snowden (raccolta di tabulati telefonici e programma PRISM). Secondo alcuni analisti, richiamarsi semplicemente alle leggi esistenti non impedisce nuove forme di sorveglianza interna, anche perché strumenti come l’ordine esecutivo 12333 hanno già consentito pratiche molto invasive. OpenAI sostiene che il suo accordo non permette monitoraggi indiscriminati dei cittadini statunitensi e che ogni attività dovrà rispettare la normativa vigente, ma Amodei di Anthropic ha dichiarato pubblicamente che la legge non è ancora al passo con la capacità dell’IA di condurre attività di sorveglianza su larga scala e che i limiti e le leggi potrebbero cambiare. Secondo la ricercatrice Sarah Shoker, il linguaggio usato da OpenAI sull’accordo con il Pentagono è volutamente vago e pieno di formule (“senza vincoli”, “generalizzato”, “aperto”) che non costituiscono veri divieti, lasciando ampio margine di discrezionalità. In base ai limiti legali attuali, il Pentagono potrebbe comunque usare la tecnologia di OpenAI per analizzare grandi quantità di dati sugli americani, combinando informazioni pubbliche, dati acquistati da broker e database di intelligence. Anche la “linea rossa” sulle armi autonome letali appare debole: il divieto vale solo nei casi in cui la legge richieda già il controllo umano. A differenza di Anthropic, che chiedeva un bando più esplicito, l’accordo di OpenAI sembra quindi allinearsi alle regole esistenti senza introdurre restrizioni aggiuntive. Sam Altman sostiene che l’accordo tra OpenAI e il Pentagono includa controlli tecnici e supervisione umana, come classificatori per monitorare l’uso dei modelli e autorizzazioni di sicurezza per alcuni dipendenti. Tuttavia, secondo fonti vicine ai negoziati, queste misure hanno efficacia limitata: non possono verificare se una decisione militare sia stata realmente supervisionata da un umano né se richieste sui dati facciano parte di programmi di sorveglianza di massa. Inoltre, se il governo considera un’azione legalmente consentita, i sistemi di OpenAI non potrebbero bloccarla. Anche il divieto sulle armi autonome letali appare debole: OpenAI parla di “responsabilità umana”, che può significare solo responsabilità dopo l’azione, mentre Anthropic chiedeva supervisione umana prima o durante l’uso. Le garanzie tecniche (come l’uso solo nel cloud) non impedirebbero comunque che l’IA supporti la catena decisionale che porta all’attacco. In generale, l’accordo si basa sull’idea che la tecnologia possa essere usata per qualsiasi attività ritenuta legale dal governo, un limite considerato fragile perché le leggi e le loro interpretazioni possono cambiare nel tempo. L’amministrazione Trump ha rivendicato che le decisioni sull’uso militare dell’IA spettano solo al governo e non alle aziende tecnologiche. L’accordo con OpenAI è stato presentato come un compromesso già offerto anche ad Anthropic, che però lo ha rifiutato perché non coerente con i suoi limiti. Dopo il rifiuto, il Pentagono ha classificato Anthropic come rischio per la supply chain, invitando le agenzie federali a smettere di usare la sua IA; l’azienda ha annunciato che contesterà la decisione. Molti nel settore tecnologico hanno sostenuto Anthropic per aver mantenuto la propria posizione, facendo diventare la sua app Claude la più scaricata sull’App Store. Tuttavia, il CEO Dario Amodei  ha affermato “Le armi completamente autonome (quelle che escludono completamente gli esseri umani dal controllo e automatizzano la selezione e l’ingaggio dei bersagli) potrebbero rivelarsi fondamentali per la nostra difesa nazionale”, ha affermato Amodei. “Ma oggi, i sistemi di intelligenza artificiale di frontiera non sono semplicemente sufficientemente affidabili per alimentarle”. The post intelligenza artificiale Rapporto Analisi Come OpenAI ha ceduto al Pentagono sulla sorveglianza tramite intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic
(Fonte) Shannon Bond Geoff Brumfiel – 28 febbraio 2026 Venerdì Trump ha ordinato a tutte le agenzie federali di interrompere immediatamente l’uso dei prodotti di Anthropic, accusando l’azienda di aver tentato di imporre i propri Termini di Servizio al governo invece di adeguarsi alle decisioni militari. In un post su Truth Social ha definito la scelta dell’azienda un “errore disastroso” e ha annunciato che la tecnologia Anthropic sarà eliminata gradualmente entro sei mesi. Contestualmente, il Segretario alla Difesa Pete Hegseth ha dichiarato su X che Anthropic è stata designata come rischio per la sicurezza nazionale nella catena di approvvigionamento, escludendola da collaborazioni con l’esercito e con i suoi appaltatori, nel quadro del rebranding del Pentagono come “Dipartimento della Guerra”. La decisione chiude una dura controversia relativa a un contratto da 200 milioni di dollari, nell’ambito del quale Anthropic aveva cercato di mantenere due restrizioni: il divieto di sorveglianza di massa dei cittadini americani e il divieto di utilizzo dei suoi modelli per armi completamente autonome. Il Pentagono sosteneva di non voler usare l’IA in tali modi, ma pretendeva la possibilità di impiegare i modelli per “tutti gli scopi legittimi”. Alla scadenza fissata, l’azienda non ha revocato le limitazioni e il Dipartimento della Difesa ha proceduto con la designazione. Anthropic ha annunciato che contesterà la decisione in tribunale, sostenendo che la designazione è giuridicamente infondata e crea un precedente pericoloso per qualsiasi azienda che negozi con il governo. Ha inoltre affermato che, secondo la legge federale, la classificazione come rischio per la catena di approvvigionamento si applicherebbe solo all’uso di Claude nei contratti del Dipartimento della Guerra, senza estendersi ad altri clienti. L’azienda ha ribadito di aver negoziato in buona fede e di sostenere tutti gli usi legittimi dell’IA per la sicurezza nazionale, eccetto le due eccezioni contestate, motivate dall’inaffidabilità attuale dei modelli per sistemi d’arma autonomi e dal rischio di violazione dei diritti fondamentali attraverso la sorveglianza di massa. Poco dopo l’annuncio di Trump, OpenAI ha comunicato di aver raggiunto un accordo con il Dipartimento della Difesa per fornire la propria tecnologia alle reti classificate. In un post su X, il CEO Sam Altman ha dichiarato che l’accordo incorpora principi di sicurezza come il divieto di sorveglianza di massa nazionale e la responsabilità umana nell’uso della forza, anche nei sistemi d’arma autonomi. In precedenza, Altman aveva affermato alla CNBC di condividere le “linee rosse” di Anthropic e, secondo quanto riportato dal Wall Street Journal, in una nota interna aveva spiegato che OpenAI stava negoziando esclusioni simili per impedire usi senza supervisione umana. Il Pentagono aveva anche minacciato di invocare il Defense Production Act per costringere Anthropic a consentire l’uso illimitato dei propri modelli. Hegseth ha accusato l’azienda di arroganza e tradimento, sostenendo che il Dipartimento della Guerra deve avere accesso completo ai modelli per ogni scopo legale in difesa della Repubblica e che i militari non saranno ostaggio dei “capricci ideologici” delle aziende tecnologiche. Emil Michael, sottosegretario per la ricerca e l’ingegneria, ha ribadito su X che il dipartimento rispetterà sempre la legge ma non si piegherà a interessi aziendali, affermando in un’intervista a CBS News che la normativa già vieta sorveglianza di massa e armi autonome e che occorre fidarsi delle forze armate. Negli ultimi anni, molte aziende hanno progressivamente allentato i propri principi etici per accedere a contratti governativi e militari sempre più redditizi: OpenAI ha eliminato il divieto di utilizzi bellici e firmato accordi con aziende come Anduril e con lo stesso Dipartimento della Difesa, mentre anche Amazon, Google e Microsoft hanno ampliato le collaborazioni con agenzie di difesa e intelligence, inclusa l’ICE, nonostante le proteste interne dei lavoratori, che in passato avevano portato a cambiamenti, come nel caso del ritiro di Google dal Project Maven nel 2018. The post OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic first appeared on Lavoratrici e Lavoratori Aci Informatica.
La sicurezza dell’intelligenza artificiale incontra la macchina da guerra
(Fonte) Steven Levy – 20 febbraio 2026 Quando lo scorso anno Anthropic è diventata la prima grande azienda di intelligenza artificiale ad essere autorizzata dal governo degli Stati Uniti per usi classificati, comprese applicazioni militari. La notizia non ha fatto molto scalpore. Ma questa settimana un secondo sviluppo ha colpito come una palla di cannone: il Pentagono sta riconsiderando il suo rapporto con l’azienda, incluso un contratto da 200 milioni di dollari, apparentemente perché l’azienda di intelligenza artificiale, attenta alla sicurezza, si oppone a partecipare a determinate operazioni mortali. Il cosiddetto Dipartimento della Guerra potrebbe persino designare Anthropic come “rischio per la catena di approvvigionamento”, una lettera scarlatta solitamente riservata alle aziende che fanno affari con paesi sottoposti a controllo da agenzie federali, come la Cina, il che significa che il Pentagono non farebbe affari con aziende che utilizzano l’intelligenza artificiale di Anthropic nelle loro attività di difesa. In una dichiarazione a WIRED, il portavoce capo del Pentagono Sean Parnell ha confermato che Anthropic era sulla graticola. “La nostra nazione richiede che i nostri partner siano disposti ad aiutare i nostri combattenti a vincere in qualsiasi battaglia. In definitiva, si tratta delle nostre truppe e della sicurezza del popolo americano”, ha affermato. Questo è un messaggio anche per altre aziende: OpenAI, xAI e Google, che attualmente hanno contratti con il Dipartimento della Difesa per lavori non classificati, stanno facendo i salti mortali per ottenere le loro autorizzazioni più elevate. C’è molto da analizzare qui. Innanzitutto, c’è la questione se Anthropic sia stata punita per essersi lamentata del fatto che il suo modello di intelligenza artificiale Claude sia stato utilizzato come parte del raid per rimuovere il presidente venezuelano Nicolás Maduro (questo è quanto riportato ; l’azienda lo nega). C’è anche il fatto che Anthropic sostiene pubblicamente la regolamentazione dell’intelligenza artificiale, una posizione anomala nel settore e in contrasto con le politiche dell’amministrazione. Ma c’è in gioco una questione più grande e inquietante. Le richieste governative di utilizzo militare renderanno l’intelligenza artificiale stessa meno sicura? Anthropic si è ritagliata uno spazio come la più attenta alla sicurezza di tutte le piattaforme di intelligenza artificiale. In qualità di primo grande laboratorio con un contratto classificato, Anthropic fornisce al governo un “set personalizzato di modelli Claude Gov costruiti esclusivamente per i clienti della sicurezza nazionale statunitense”. Tuttavia, Anthropic ha affermato di averlo fatto senza violare i propri standard di sicurezza, incluso il divieto di utilizzare Claude per produrre o progettare armi. Il CEO di Anthropic, Dario Amodei, ha espressamente dichiarato di non volere che Claude sia coinvolto in armi autonome o nella sorveglianza governativa tramite intelligenza artificiale. Ma questo potrebbe non funzionare con l’attuale amministrazione. Il CTO del Dipartimento della Difesa, Emil Michael (ex direttore commerciale di Uber), ha dichiarato ai giornalisti questa settimana che il governo non tollererà che un’azienda di intelligenza artificiale limiti il modo in cui l’esercito utilizza l’intelligenza artificiale nei suoi armamenti. D’altra parte il CEO di Palantir, Alex Karp, non ha remore ad affermare , con evidente orgoglio: “Il nostro prodotto viene occasionalmente utilizzato per uccidere”, e il Pentagono lo dice esplicitamente: se le aziende di intelligenza artificiale vogliono collaborare con il Dipartimento della Difesa, devono impegnarsi a fare tutto il necessario per vincere. È ormai un dato di fatto che il futuro della guerra è l’IA. Il futuro potrebbe dipendere da chi è responsabile dell’intelligenza artificiale avanzata e da come la plasma e la sfrutta. Mentre i signori dell’intelligenza artificiale si avvolgono nel patriottismo e cercano accordi con il Pentagono, il fatto è che stanno fornendo una tecnologia spaventosamente potente e imprevedibile a un governo e a un dipartimento della Guerra che rifiutano l’idea di supervisione.   The post La sicurezza dell’intelligenza artificiale incontra la macchina da guerra first appeared on Lavoratrici e Lavoratori Aci Informatica.
La guerra invisibile delle ricostruzioni combattuta con l’IA
(Fonte) Barbara Carfagna – 6 gennaio 2026 Tecnologia e suolo. Dalla Siria al Nagorno-Karabakh nelle fasi post belliche vince chi controlla le leve dell’intelligenza artificiale Quando le bombe smettono di cadere inizia una guerra diversa. È quella per la Ricostruzione: decidere chi e come programmerà la normalità di domani. Il potere, che nel dopoguerra del ‘900 era di chi possedeva il suolo, sarà di chi controlla l’intelligenza artificiale che lo governerà. I modelli contengono infatti il disegno della società futura, a partire dalla cybersecurity, che sarà integrata nelle fondamenta invece che adattata alla difesa dell’esistente. Dal Karabakh alla Siria (prossimamente dall’Ucraina a Gaza) la ricostruzione post-bellica installa un sistema nervoso digitale che orienta autonomamente, costantemente, dinamicamente, invisibilmente, il modo in cui vivranno milioni di persone per i prossimi decenni. Le guerre in corso producono enormi flussi di dati in tempo reale che addestrano modelli di IA cruciali per armi autonome, simulazioni strategiche e definizione dei target futuri. La fase di ricostruzione, affidata all’Agentic AI, rischia di fissare in modo irreversibile una logica algoritmica del territorio, cedendo sovranità su ciò che è “sicuro”, “normale” o “prioritario” a sistemi spesso stranieri. Chi addestra i modelli su un territorio acquisisce un vantaggio informativo permanente: nel caso ucraino, saranno gli algoritmi statunitensi – più che l’Europa – a conoscere e governare lo spazio postbellico. Intanto, esperimenti come gli “AI village” nel Karabakh mostrano come la ricostruzione algoritmica includa anche il controllo della memoria e dei traumi collettivi. Nel Karabakh la ricostruzione postbellica è diventata un progetto pilota di governo algoritmico: un sistema di Agentic AI, autonomo e autorizzato, simula e indirizza le politiche statali come un attore del processo decisionale. In pochi anni, su un territorio devastato da decenni di guerra e mine, sono sorti villaggi razionali completamente ricostruiti, con welfare automatizzato, servizi essenziali e sorveglianza pervasiva. Sensori IoT e modelli predittivi ottimizzano risorse, sicurezza, coltivazioni e comportamenti, addestrando soluzioni di Ricostruzione esportabili. Il costo reale, oltre ai miliardi investiti, è una cessione di sovranità: infrastrutture tecnologiche straniere, sicurezza esternalizzata e un ordine sociale regolato dall’anticipazione algoritmica del rischio, dove il governo delle “anomalie” precede e sostituisce l’applicazione della legge. Nei sistemi di governo algoritmico l’IA persegue una funzione-obiettivo e produce contro-narrazioni personalizzate per orientare i comportamenti dei cittadini, soprattutto attraverso i social. In questo quadro la sovranità cognitiva diventa decisiva: generazioni formate, curate e indirizzate da modelli esterni rischiano di interiorizzare valori estranei alla propria cultura. L’Arabia Saudita punta a ridurre la dipendenza da IA straniere, investendo in datacenter nazionali e in HumAIn, un’IA sovrana alimentata dai dati e dalle simulazioni dei Giga project e di Neom, la città interamente gestita da AI. L’obiettivo è sviluppare modelli proprietari ed esportabili, mentre l’Europa resta in ritardo nel comprendere la posta in gioco. L’Ue sta perdendo un’altra guerra importante: quella dei dati dei conflitti e per le Ricostruzioni. Il progetto del Digital Twin of Earth, finanziato da Horizon Europe, promette di simulare crisi climatiche e guidare la resilienza continentale. Ma è costruito su dataset prevalentemente anglosassoni, modelli addestrati negli USA, infrastrutture cloud dipendenti da Aws o Microsoft Azure. Cosa succede quando un’alluvione devasta l’Emilia Romagna, come nel 2023, e i modelli predittivi sottostimano il rischio perché addestrati su fiumi texani o bacini cinesi? Senza dati propri e modelli sovrani, rischiamo di essere non decisori ma esecutori del nostro futuro. The post La guerra invisibile delle ricostruzioni combattuta con l’IA first appeared on Lavoratrici e Lavoratori Aci Informatica.
“Nessuna restrizione” e un “occhiolino” segreto: l’accordo di Israele con Google e Amazon
(Fonte) Yuval Abraham – 29 ottobre 2025 Nel 2021, Google e Amazon hanno firmato un contratto noto come “Progetto Nimbus” da 1,2 miliardi di dollari con il governo israeliano per fornirgli servizi avanzati di cloud computing e intelligenza artificiale, strumenti utilizzati durante i due anni di aggressione israeliana alla Striscia di Gaza. I dettagli del progetto sono stati tenuti segreti ma un’indagine condotta da +972 Magazine, Local Call e The Guardian può ora rivelare che Israele ha imposto a Google e Amazon delle stringenti richieste: * limitazione per i giganti del web dell’uso delle proprie tecnologie da parte di Israele, anche in caso di violazione dei loro stessi termini di servizio; * obbligo per le aziende a informare segretamente Israele qualora un tribunale straniero ordinasse la consegna dei dati israeliani conservati sui loro server cloud, aggirando di fatto i loro obblighi legali. Il Progetto Nimbus, pensato per sette anni con possibilità di proroga, prevedeva il trasferimento sui cloud di Google e Amazon dei dati delle agenzie governative, di sicurezza e militari israeliane. Già prima del 7 ottobre, tuttavia, i funzionari israeliani avevano considerato il rischio di azioni legali nei confronti delle due aziende, temendo che tribunali stranieri potessero imporre la consegna dei dati alle autorità giudiziarie o di sicurezza in relazione a possibili violazioni dei diritti umani nei territori occupati. Il CLOUD Act statunitense consente alle autorità USA di ottenere dati da fornitori cloud americani anche se archiviati all’estero, mentre nell’UE le norme sulla due diligence possono imporre alle aziende di rispondere di violazioni dei diritti umani nelle loro attività globali. Poiché gli ordini di consegna dei dati vietano spesso di informare i clienti, Israele ha richiesto una clausola contrattuale che obbligasse Google e Amazon ad avvertirlo segretamente nel caso fossero costrette a consegnare i suoi dati, nonostante il divieto legale di rivelarlo. Secondo The Guardian , la notifica avverrebbe tramite un codice segreto previsto dal contratto, noto come “winking mechanism” e definito formalmente “compensazione speciale”. In base a questo sistema, Google e Amazon dovrebbero inviare al governo israeliano un pagamento in shekel il cui importo corrisponde al prefisso internazionale del paese richiedente seguito da zeri, segnalando così la consegna dei dati senza comunicarlo esplicitamente. Ad esempio, 1.000 NIS in caso di richiesta dagli Stati Uniti (+1) o 3.900 NIS per l’Italia (+39), da versare entro 24 ore dal trasferimento delle informazioni. Se Google o Amazon ritenessero che i termini di un ordine di segretezza impediscano persino di segnalare quale paese ha ricevuto i dati, il contratto prevede una clausola di salvaguardia: le aziende devono versare al governo israeliano 100.000 shekel israeliani (circa 30.000 dollari). Esperti legali, tra cui diversi ex procuratori statunitensi, hanno definito questo meccanismo altamente anomalo, osservando che i messaggi codificati potrebbero violare gli obblighi legali delle aziende negli Stati Uniti di mantenere segrete le richieste giudiziarie. Come ha commentato un ex avvocato del governo USA, si tratta di un espediente “fin troppo astuto” che difficilmente incontrerebbe la comprensione o la tolleranza di un tribunale statunitense. Altri esperti hanno definito il meccanismo una soluzione “ingegnosa” che rispetterebbe formalmente la legge, ma ne tradirebbe lo spirito. Gli stessi funzionari israeliani ne erano consapevoli: dai documenti emerge che riconoscevano il possibile conflitto con il diritto statunitense, ponendo Google e Amazon davanti all’alternativa tra violare il contratto o i propri obblighi legali. Le due aziende non hanno chiarito se il codice segreto sia mai stato utilizzato; Amazon ha dichiarato di seguire procedure rigorose per rispondere agli ordini legittimi e di non adottare pratiche volte ad aggirare gli obblighi di riservatezza. Google ha respinto come false e “assurde” le accuse di un proprio coinvolgimento in attività illegali, negando qualsiasi tentativo di eludere obblighi legali negli Stati Uniti o altrove. Anche il Ministero delle Finanze israeliano ha smentito le ricostruzioni, definendo infondata l’idea che Israele costringa le aziende a violare la legge. Uso accettabile I documenti trapelati indicano che i funzionari israeliani temevano anche possibili limitazioni o interruzioni dei servizi cloud di Google e Amazon, in seguito a decisioni di tribunali stranieri o a scelte autonome delle aziende sotto la pressione di dipendenti, azionisti, attivisti e organizzazioni per i diritti umani. In particolare, temevano che le leggi europee potessero essere utilizzate per intentare cause legali e spingere le aziende a interrompere i rapporti commerciali con Israele qualora le loro tecnologie fossero collegate a violazioni dei diritti umani. Dopo che +972, Local Call e The Guardian hanno rivelato l’uso da parte di Israele del cloud Microsoft per archiviare intercettazioni di palestinesi in violazione dei termini di servizio, Microsoft ha revocato l’accesso dell’esercito israeliano ad alcuni dei suoi prodotti. I documenti trapelati indicano però che il contratto Nimbus impedisce esplicitamente a Google e Amazon di adottare misure analoghe, anche in caso di violazioni delle proprie policy, pena azioni legali e pesanti sanzioni economiche. Questa disponibilità ad accettare tali condizioni avrebbe favorito Google e Amazon nell’aggiudicarsi il contratto, a scapito di Microsoft, e avrebbe spinto Israele a pianificare il trasferimento dei dati di sorveglianza dal cloud Microsoft a quello di Amazon. Google era consapevole che, con il progetto Nimbus, avrebbe rinunciato in gran parte al controllo sull’uso della propria tecnologia da parte di Israele, nonostante le dichiarazioni pubbliche sul rispetto dei termini di servizio. Secondo The Intercept, il contratto è infatti regolato da policy “modificate” e non negoziabili, favorevoli al governo israeliano, che prevalgono sulle condizioni standard delle aziende. Pur prevedendo formalmente il divieto di utilizzi che violino diritti o causino gravi danni, il contratto Nimbus esclude qualsiasi restrizione sui dati archiviabili e consente a Israele di usare liberamente tutti i servizi cloud, purché nel rispetto della legge israeliana. Un’analisi ufficiale e documenti successivi confermano che Google e Amazon hanno accettato di subordinare i propri termini di servizio al contratto, riconoscendo e assecondando le richieste e le “sensibilità” del governo israeliano. The post “Nessuna restrizione” e un “occhiolino” segreto: l’accordo di Israele con Google e Amazon first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’intelligenza artificiale ha cominciato a combattere.
(Fonte) Federico Rampini – 26 novembre 2025 Secondo una ricostruzione pubblicata sul Wall Street Journal dall’esperto legale Nury Turkel, a settembre si è verificata la prima grande operazione di spionaggio condotta quasi interamente da un’intelligenza artificiale. L’attacco, attribuito alla Cina, rappresenta una svolta storica nelle operazioni para-militari digitali. A farne le spese è stata Anthropic, azienda statunitense tra le più avanzate nel settore dell’IA: i suoi ricercatori hanno scoperto che un gruppo di hacker, identificato come GTG-1002, era riuscito a manipolare il modello Claude Code trasformandolo in un agente autonomo capace di infiltrarsi e condurre un’operazione di spionaggio su larga scala. Turkel evidenzia un salto di qualità decisivo: in questa operazione l’IA non ha offerto semplice supporto, ma ha eseguito tra l’80% e il 90% delle attività, agendo quasi come un vero agente di spionaggio. Il modello Claude ha condotto ricognizioni, mappato sistemi, individuato obiettivi sensibili, estratto dati e riassunto informazioni utili, apprendendo mentre operava. Questo rappresenta una rottura simbolica importante: per anni si era parlato di IA che “assiste” gli attacchi, ma qui l’IA ha condotto autonomamente un’operazione complessa su larga scala. L’operazione evidenzia quanto sia diventato facile orchestrare attacchi sofisticati con l’IA: il gruppo GTG-1002 non ha usato strumenti avanzatissimi, ma semplici risorse open source che chiunque può reperire. L’IA ha svolto il lavoro offensivo dopo essere stata ingannata dagli aggressori, che si sono finti esperti di sicurezza impegnati in test autorizzati. Questo mostra quanto i modelli siano manipolabili tramite linguaggio: possono essere persuasi, confusi, ingannati. Anche se l’IA ha commesso errori e “allucinazioni”, rappresentando un limite alla piena autonomia dell’attacco, il pericolo resta: quando sbaglia, lo fa su una scala e a una velocità impossibili da controllare per un umano. Secondo Turkel, questo episodio segna un momento fondativo paragonabile ai primi grandi eventi della storia della cybersicurezza: inaugura una nuova fase in cui le “armi” digitali iniziano a operare quasi da sole. L’episodio segnala che l’IA non è solo un supporto ma diventa un attore diretto nei conflitti digitali. Da un lato l’IA funge da moltiplicatore di forza — accelerando attacchi, droni, intercettazioni — dall’altro lato viene usata come strumento di raccolta e addestramento. Operazioni come quella scoperta da Anthropic dimostrano la vulnerabilità delle Intelligenze Artificiali.   The post L’intelligenza artificiale ha cominciato a combattere. first appeared on Lavoratrici e Lavoratori Aci Informatica.
Gaza, un futuro di controllo della AI che ci riguarda
(Fonte) – Codice Rosso – 17 ottobre 2025 I piani per la nuova amministrazione di Gaza propongono un modello di sicurezza urbano fondato su un sistema ibrido di controllo automatizzato (HACS) che combina intelligenza artificiale, robotica avanzata e sorveglianza aerea. Questo HACS non sarebbe creato da zero ma emergerebbe dalla riconversione rapida di infrastrutture e database militari preesistenti. Il sistema si basa su tre pilastri: * pervasività aerea e robotica: i droni militari sarebbero riassegnati a compiti di pattugliamento urbano, mentre la robotica terrestre, sviluppata per il combattimento, sarebbe riconvertita in piattaforme di sicurezza per mantenere una consapevolezza situazionale completa e continua del territorio. * ’IA come spina dorsale del comando e controllo (C4I): l’intelligenza artificiale, derivata da sistemi di targeting letale, verrebbe riconvertita a strumento di “polizia predittiva”, utilizzando i dati biometrici e di movimento per profilare gli individui per “livello di rischio” e dirigere le risorse di pattugliamento. * adattamento delle soluzioni “Smart City”: il modello HACS sarà rivenduto sul mercato globale come un “pacchetto di sicurezza per Smart City” completo, allineandosi alla domanda di sicurezza urbana ad alta tecnologia. L’industria della difesa sfrutta Gaza come “terreno di prova”, trasformando tecnologie di guerra urbana in prodotti commercializzabili per la Homeland Security, con il rischio di diffondere e normalizzare pratiche di sorveglianza estrema e di erodere la sovranità dei dati civili su scala internazionale. I piani di pace per Gaza prevedono la smilitarizzazione completa e l’avvio di una forza di polizia palestinese sotto la supervisione di una forza internazionale di stabilizzazione. Tuttavia, la gestione della sicurezza resterebbe nelle mani di attori esterni, poiché le strutture di comando, controllo, comunicazione e informazione (C4I) e gli apparati di sorveglianza — droni, CCTV, database biometrici e sistemi IA — continuerebbero a essere controllati dall’esterno, relegando la polizia locale a mero esecutore di un potere algoritmico non sovrano con la riclassificazione di tecnologie militari di targeting e sorveglianza — come Lavender e Red Wolf — in strumenti di “polizia predittiva” civile, normalizzando la profilazione e la sorveglianza estrema come dispositivi ordinari di sicurezza urbana. Il modello di sicurezza previsto per Gaza si configura come la diretta evoluzione dell’infrastruttura di sorveglianza già sviluppata da Israele, basata su riconoscimento facciale, raccolta biometrica e controllo aereo,  in un sistema che alcuni definiscono “apartheid automatizzato”. Sistemi come Blue Wolf (sistema di raccolta massiva di dati) e Red Wolf (sistema per scansionare i volti) hanno alimentato database di massa e imposto restrizioni automatiche alla popolazione palestinese, mentre l’IA militare — con programmi come Lavender, integrati da tecnologie private (per esempio la compagnia israeliana Corsight) e persino piattaforme commerciali (Google Photos)— ha già mostrato la capacità di identificare in modo sistematico obiettivi e individui. Droni, palloni spia e telecamere completano un ecosistema di sorveglianza “a ciclo chiuso”, che verrebbe semplicemente ri-etichettato come dispositivo di sicurezza urbana: un passaggio che non introduce nuove tecnologie, ma trasferisce nel contesto post-bellico gli stessi bias, gli stessi poteri e le stesse ambiguità legali della precedente macchina militare. L’implementazione dell’HACS solleva questioni legali fondamentali relative all’accountability. L’accelerazione nell’uso di sistemi sempre più autonomi introduce la sfida del controllo umano significativo (MHC). La questione più critica per la futura amministrazione riguarda, però, la gestione dei database biometrici preesistenti, contenenti dati sensibili raccolti in un contesto di coercizione e che vengono trasferiti a terze parti. La potenza o l’entità che manterrà il controllo esclusivo sui database biometrici e sul sistema C4I di IA manterrà, di fatto, il controllo operativo ultimo sull’HACS e quindi di Gaza. I dati biometrici si configurano così come un asset geopolitico chiave, e la disputa sulla loro sovranità sarà il fulcro della negoziazione sulla sicurezza post-bellica. L’ipotesi che il sistema di controllo di Gaza serva da modello pilota per l’esportazione in altri paesi trova una solida base nell’analisi delle dinamiche industriali e geopolitiche. Il territorio palestinese è stato fin qui attivamente utilizzato come un terreno di prova per il collaudo e la promozione di tecnologie militari e di sorveglianza. La guerra ha agito da catalizzatore per l’industria della difesa locale, accelerando la conversione delle start-up civili verso l’applicazione militare. La conseguenza geopolitica più significativa sarebbe la normalizzazione internazionale della sorveglianza estrema. The post Gaza, un futuro di controllo della AI che ci riguarda first appeared on Lavoratrici e Lavoratori Aci Informatica.