Tag - ai

Che cosa fa l’intelligenza artificiale in guerra
“La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano. Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto. Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi. Leggi l'articolo
Mythos, troppo per noi umani. Occhio alla rete degli anarchi-cisti
Si e’ parlato molto di Claude Mythos, il nuovo modello di Anthropic e della sua supposta “pericolosita’”, tanto da non poter essere lasciato in mano alla gente comune, ma riservato a un ristretto gruppo di raffinati, notabili compagnie riunite nel neo-nato progetto Glasswing (Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google…). Scopo dichiarato: rendere il mondo un posto piu’ sicuro. In perfetta concordia con l’agghiacciante manifesto politico pubblicato recentemente da Palantir, partner di Anthropic. Ci aspetta davvero una sconvolgente rivoluzione nel mondo della sicurezza informatica, si tratta di una grande operazione di marketing o cosa? O forse, come un recente attacco in Messico ha dimostrato, saranno altri gli usi dell’IA che avranno un maggiore impatto nell’ambito degli attacchi informatici? Nel frattempo, alle nostre latitudini il Tempo scopre la pericolosissima e segretissima rete della “galassia anarchica e antagonisita”, tra cui spunta anche il nostro Cisti con i suoi letali pad. Parliamo infine della gig economy, in relazione alla recente morte di Adnan, avvenuta dopo una consegna notturna effettuata sulle colline torinesi.
April 21, 2026
Radio Blackout - Info
[entropia massima] Estrattivismo dei dati
Puntata 23 di EM, quinta del ciclo Estrattivismo dei dati, parliamo di tre storie diverse, con un unico filo conduttore: il potere che stiamo consegnando alle macchine e alle infrastrutture che le governano. Nella prima parte partiamo da Kill Chain: l’automazione militare, le catene decisionali opache e il modo in cui la tecnologia può distribuire la responsabilità fino a farla sparire (il caso del sistema Maven e l'uccisione di 175 bambini in Iran). Nella seconda entriamo nel mondo degli AI Agents: sistemi presentati come autonomi e intelligenti, che aprono scenari inquietanti in cui l'essere umano diventa una loro interfaccia (Human API) da utilizzare esattamente come altre interfacce software, per procedere autonomamente nello svolgimento di compiti complessi. Strumenti in realtà ancora pieni di limiti pratici, fragilità operative e promesse spesso molto più grandi dei risultati reali. Nella terza guardiamo a ciò che accade fuori dai laboratori e dai boardroom: la crescente rivolta contro l’AI, che a Londra ha visto scendere in piazza migliaia di persone per protestare contro Google, Meta, OpenAI e contro un modello che concentra ricchezza, dati e potere. Una puntata su guerra, automazione, propaganda tecnologica e conflitto sociale.
April 20, 2026
Radio Onda Rossa
Codice nero, la prima settimana del podcast "Piede sinistro"
Un podcast di Fabrizio C. Nella prima settimana Piede Sinistro entra nel cuore pulsante del capitalismo nell'era delle Big Tech. C’è chi lo definisce anarcocapitalismo, chi parla di tecnofascismo o tecnofeudalesimo. Ma, al di là delle etichette, quello che vogliamo fare è scoperchiare la realtà dei fatti: la tecnologia oggi non è un servizio per il cittadino, ma il motore di un’infrastruttura di controllo senza precedenti. Siamo davanti a un sistema dove le stesse aziende che hanno costruito il nostro mondo digitale hanno trasformato le nostre vite in dati e la nostra identità in merce. Fabrizio C unisce i puntini mostrando che le tecnologie non sono neutrali. Risentono della cultura e degli obbiettivi di chi le progetta e le realizza. Nel caso delle Big Tech lo scopo non è certamente il bene comune. Ma siccome il pessimismo va lasciato a tempi migliori, la serie codice nero si conclude con una voce di speranza che accenna all'esistenza di alternative tecnologiche solide, pronte all'uso. Si trattra di volontà. Politica e personale! Piede Sinistro è un podcast di approfondimento, analisi e racconto di notizie, attualità e non solo. Uno spazio che non punta a dare risposte, ma a fornire chiavi di lettura e strumenti per affrontare la complessità del presente in autonomia. Ascolta il podcast
Quando l’intelligenza artificiale è un adolescente. E nessuno sa ancora come crescerla
Dario Amodei — uno degli uomini che più di chiunque altro ha contribuito a costruire l’intelligenza artificiale così come la conosciamo oggi — ha scritto un saggio che dovrebbe essere letto ben oltre le cerchie tecnologiche. Non perché spieghi come funziona l’AI. Ma perché ammette qualcosa che raramente chi costruisce il futuro è disposto a riconoscere: non sappiamo ancora come governarlo. La tesi di Amodei è racchiusa in una metafora: la tecnologia contemporanea si trova in una fase adolescenziale. Cresce a una velocità straordinaria, sviluppa capacità sempre più potenti, ma le istituzioni che dovrebbero orientarla e contenerla non riescono a starle dietro. Come un adolescente che ha già la forza di un adulto ma non ancora la saggezza per usarla, l’intelligenza artificiale esiste oggi in uno spazio pericolosamente privo di tutele adeguate. Vale la pena fermarsi su questa immagine. Perché non è retorica. È una diagnosi politica. Ogni grande trasformazione tecnologica ha prodotto, prima o poi, un conflitto tra la velocità dell’innovazione e la lentezza delle istituzioni. È accaduto con la rivoluzione industriale, con l’energia nucleare, con internet. In ciascuno di questi casi, il ritardo nella risposta istituzionale ha avuto un costo: incidenti, soprusi, concentrazioni di potere difficili da smantellare in seguito. Con l’intelligenza artificiale, questo ritardo rischia di essere più profondo e più rapido allo stesso tempo. L’AI non è una macchina che fabbrica oggetti. È un sistema che produce decisioni, previsioni, raccomandazioni. Decide chi ottiene un prestito, chi viene segnalato come sospetto, chi vede quale contenuto, quale candidato viene selezionato per un colloquio di lavoro. Agisce, in modo sempre più pervasivo, nei gangli della vita quotidiana delle persone. E lo fa, per lo più, in modo opaco. Senza che i destinatari di quelle decisioni possano capire perché sono state prese, contestarle, chiedere conto a qualcuno. Nel 2024, l’Unione europea ha adottato il primo grande quadro normativo dedicato all’intelligenza artificiale: il Regolamento UE 2024/1689, noto come AI Act. Non è una legge perfetta. Ma è un tentativo serio di costruire strutture istituzionali capaci di accompagnare, e non subire, la trasformazione in corso. L’approccio europeo si fonda su una logica di gradazione del rischio. Alcuni usi dell’intelligenza artificiale sono vietati senza eccezioni: la manipolazione subliminale del comportamento umano, la classificazione sociale delle persone da parte delle autorità pubbliche, il riconoscimento biometrico di massa negli spazi pubblici. Altri usi, quelli che toccano la vita concreta delle persone — la selezione del personale, la valutazione degli studenti, le decisioni in campo sanitario — sono soggetti a requisiti stringenti di trasparenza, controllo umano, responsabilità. È un’architettura che parte da un’idea semplice quanto necessaria: non tutta l’innovazione si equivale, e il grado di scrutinio deve essere proporzionale alla posta in gioco per le persone. Il problema che Amodei solleva non si risolve con una legge, per quanto ben congegnata. Si tratta di qualcosa di più profondo: la capacità collettiva di ragionare su tecnologie che la maggior parte delle persone — incluse quelle che le governano — non comprende davvero. Le decisioni più importanti sull’intelligenza artificiale vengono prese oggi in ambienti tecnici e aziendali che restano largamente estranei alla deliberazione democratica. Chi decide quali valori devono essere codificati nei modelli di AI? Chi stabilisce quali bias sono accettabili e quali no? Chi risponde quando un sistema automatizzato sbaglia e produce danno? Queste non sono domande tecniche. Sono domande politiche. E finché restano confinate nei laboratori e nelle sale riunioni delle grandi aziende tecnologiche, la risposta viene data senza che la società abbia voce. La metafora adolescenziale di Amodei vale anche qui. Un adolescente cresce meglio quando intorno a lui ci sono adulti capaci di accompagnarlo, non di bloccarlo né di abbandonarlo a sé stesso. La governance dell’AI richiede la stessa combinazione: presenza, responsabilità, capacità di ascolto. Non paura del futuro, ma rifiuto della delega incondizionata. C’è un rischio nell’uso della metafora evolutiva applicata alla tecnologia: quello di farci credere che lo sviluppo segua una traiettoria naturale, e che il nostro compito sia solo quello di adattarci. Non è così. Le tecnologie non crescono da sole. Crescono nella direzione che le scelte umane — economiche, politiche, regolative — decidono di dargli. L’AI Act europeo è importante non solo per ciò che prescrive, ma per il messaggio implicito che veicola: le società democratiche hanno il diritto e il dovere di porre condizioni allo sviluppo tecnologico. Non in nome della paura, ma in nome di una visione di futuro in cui la tecnologia serva le persone e non le assoggetti. Che questa visione si affermi o meno dipenderà, nei prossimi anni, da scelte concrete: sulla distribuzione dei benefici dell’automazione, sulla tutela del lavoro, sull’accesso equo alle tecnologie, sulla trasparenza degli algoritmi che già oggi influenzano la vita di milioni di persone. Amodei chiude il suo saggio con un’affermazione che suona quasi come un appello: la sfida più grande non è la tecnologia in sé, ma la nostra capacità di gestirla con saggezza. Ma la saggezza non è una virtù individuale. È il prodotto di processi collettivi, di istituzioni funzionanti, di spazi pubblici in cui le decisioni possano essere discusse, contestate, cambiate. L’adolescenza dell’intelligenza artificiale non finirà da sola. E la qualità dell’età adulta che verrà dipende da chi parteciperà alla sua educazione. La domanda è: la società civile sarà presente a quel tavolo, o lo lasceremo solo ai costruttori? Redazione Napoli
April 15, 2026
Pressenza
La Cina è in vantaggio sui robot umanoidi
Immagine in evidenza da Unitree A fine marzo, l’azienda cinese AgiBot ha annunciato di aver prodotto in serie il suo robot umanoide numero diecimila. La startup con sede a Shanghai, fondata da alcuni ex ingegneri di Huawei, è nata nel 2023 con l’obiettivo di sviluppare humanoid robots per applicazioni industriali e di servizio. Dopo una prima fase di ricerca e prototipazione, nel 2024 ha avviato la produzione di massa dei primi modelli operativi, avviando una rapida scalata industriale che l’ha portata a raggiungere le cinquemila unità prodotte nel 2025 e poi al traguardo delle 10mila macchine: tutto nell’arco di tre anni. Qualche settimana prima di questo traguardo, sul palco del Gala del Capodanno lunare – lo show televisivo più seguito in Cina – una schiera di robot dalle sembianze antropomorfe si è esibita in perfetta sincronia con ballerini in carne e ossa, eseguendo con naturalezza una coreografia fatta di mosse di kung fu e danza. In questo caso, i “device” erano soprattutto di un’altra azienda concorrente: Unitree Robotics. Dietro la suggestione della performance, tra capriole a mezz’aria e calci acrobatici, si è intravisto un segnale chiaro: la dimostrazione plastica del vantaggio accumulato in una corsa tecnologica che Pechino ambisce a dominare su scala globale. La vera partita legata al mercato dei robot umanoidi, tuttavia, non si gioca sui palchi: si gioca nelle fabbriche e nei centri logistici. In altre parole, nel cuore pulsante dell’economia reale. Nell’ultimo decennio la Cina ha identificato nella robotica uno dei cardini della propria trasformazione economica. Il settore era già stato inserito tra le priorità nel piano industriale Made in China 2025, anche se in una prima fase l’attenzione si era concentrata prevalentemente sull’automazione industriale tradizionale. Oggi, invece, il focus si sta spostando proprio verso gli humanoid robots: macchine progettate per operare negli stessi contesti degli esseri umani e per svolgere attività che richiedono adattabilità, coordinazione e capacità di interazione con l’ambiente reale. PREZZI, SUPPLY CHAIN E OPEN SOURCE Alla base di questo ambito salto tecnologico c’è, naturalmente, l’intelligenza artificiale. L’integrazione tra sistemi di visione, linguaggio e movimento sta dando forma alla cosiddetta embodied AI: algoritmi che non si limitano a elaborare dati, ma agiscono fisicamente nello spazio attraverso un corpo robotico. In un Paese alle prese con l’invecchiamento della popolazione e con una forza lavoro in progressiva contrazione, questa prospettiva assume un valore strategico. I robot vengono infatti sempre più considerati una possibile risposta alla carenza di manodopera e uno strumento per incrementare la produttività industriale. I numeri aiutano a mettere in prospettiva il fenomeno. Nel 2025 le spedizioni globali di robot umanoidi si sono fermate poco sopra le 13mila unità, pur registrando una crescita superiore a cinque volte rispetto all’anno precedente. I dati parlano di un business ancora microscopico, ma in fortissima accelerazione: secondo la società di ricerca Omdia, il settore potrebbe crescere rapidamente fino a raggiungere circa 2,6 milioni di unità vendute entro il 2035, mentre UBS stima che la popolazione globale di robot umanoidi potrebbe superare i 300 milioni entro il 2050. Una ricerca di Citigroup si spinge persino oltre, parlando di oltre 600 milioni entro la metà del secolo. In questo scenario, la Repubblica Popolare si è ritagliata una posizione dominante: nel 2024, AgiBot ha spedito oltre 5.000 unità, mentre Unitree Robotics ha superato le 5.500 nel 2025. La principale leva competitiva dei modelli cinesi sta nel prezzo. Unitree propone modelli entry-level attorno ai seimila dollari, mentre AgiBot offre versioni ridotte dei propri sistemi per circa 14mila dollari. Tesla, con il progetto Optimus, ha indicato un range tra i 20mila e i 30mila dollari senza aver ancora avviato una produzione su larga scala. A gennaio, dal palco del World Economic Forum di Davos, Elon Musk ha indicato la fine del 2027 come orizzonte per il lancio del modello; nel frattempo, l’azienda ha già annunciato l’obiettivo di avviare le linee produttive entro l’anno in vista della commercializzazione. L’esperienza, tuttavia, ci insegna che le tempistiche di Musk tendono a slittare e lui stesso ha più volte riconosciuto una propensione sistematica a promettere scadenze più ambiziose di quanto poi riesca a mantenere. Sul fronte statunitense, anche Figure AI ha iniziato a consegnare i propri modelli (Figure 02) a clienti paganti in scenari industriali, ma senza aver comunicato ancora un listino pubblico e operando solo tramite contratti su misura.  Un altro vantaggio decisivo è la catena di approvvigionamento. Negli ultimi anni la Cina ha dato vita a una supply chain hardware estremamente efficiente, spinta soprattutto dall’exploit del settore dei veicoli elettrici e dell’elettronica di consumo. La produzione di batterie, sensori, attuatori e altri elementi elettronici può avvenire in tempi brevi e con costi contenuti, permettendo alle imprese di sviluppare e testare rapidamente nuovi prototipi e di immetterli sul mercato con una rapidità difficilmente replicabile in altri contesti. Uno dei fattori chiave spesso dimenticati, invece, è il software. “I cinesi hanno saputo intercettare per tempo un trend che ha dato loro un vantaggio competitivo enorme: l’open source”, spiega Bruno Siciliano, professore ordinario di Automatica e robotica all’Università Federico II, luminare tra i massimi esperti europei del settore, insignito nel 2024 dell’IEEE Ras Pioneer in Robotics and Automation Award, tra i più prestigiosi riconoscimenti a livello mondiale. “L’intuizione brillante è stata realizzare piattaforme aperte per la condivisione di dataset per gli algoritmi che controllano il robot”. In Cina l’adozione dell’open source sta creando da tempo un ecosistema collaborativo e, al tempo stesso, propulsivo. Lo abbiamo imparato con Deepseek: modelli AI aperti e a basso costo sviluppati anche da aziende come Alibaba, Moonshot AI e MiniMax stanno rapidamente scalando le classifiche globali di utilizzo su piattaforme come Hugging Face e OpenRouter. Anche sul fronte della robotica, startup come RoboParty hanno aperto l’intero stack – dall’hardware al software fino ai dataset – dei propri robot umanoidi, favorendo la nascita di una comunità di sviluppatori sempre più gremita e interconnessa.  Un fenomeno, quest’ultimo, che rappresenta “l’unico vero modo di competere con gli Stati Uniti”. Bruno Siciliano dirige il Prisma Lab, laboratorio dell’Università di Napoli specializzato in robotica industriale, meccatronica e automazione, che ha in dotazione “un robot umanoide di Unitree Robotics, con cui stiamo sviluppando tecniche di controllo per la deambulazione e, soprattutto, per l’esecuzione di operazioni di contatto in cooperazione con esseri umani. Stiamo lavorando su approcci avanzati di model predictive control che integrano algoritmi di intelligenza artificiale open source. Possiamo farlo proprio perché abbiamo acquistato una piattaforma dedicata open source, dal costo comunque significativo: circa 100mila euro”. IL PROBLEMA DELLE MANI Dal punto di vista prettamente tecnico, la difficoltà di introdurre dei robot umanoidi nella dimensione industriale riguarda soprattutto il tatto. È quello che Elon Musk ha definito “the hands problem”: senza mani realmente versatili, un robot resta limitato e l’utilizzo universale in ambienti sconosciuti resta una chimera. Replicare la mano umana significa integrare controllo di precisione e percezione distribuito: alcuni dei prototipi statunitensi più avanzati, come quelli sviluppati alla Northwestern University, utilizzano sensori nei polpastrelli che misurano variazioni elettriche per inferire il contatto. Ma la complessità tecnologica resta, e afferrare una penna richiede di ricevere feedback attraverso varie parti delle dita, non solo sulla punta. “La vera sfida dei robot umanoidi, è sviluppare entità che possano interagire con gli umani in totale sicurezza”, prosegue Siciliano. “Quando vediamo i video spettacolari dei robot che ballano durante lo spettacolo del capodanno cinese, ci impressioniamo. Ma quelle macchine non stanno interagendo con le persone. Nel momento in cui c’è un contatto, cambia tutto. Il vero ostacolo è il tatto: un conto è fare movimenti ‘in freestyle’, un altro è fare una qualunque operazione robotica, come un montaggio, in cui c’è uno scambio di forze”. VERSO LA KILLER APP Eppure, nonostante tutte le difficoltà, molti colossi sembrano già aver imboccato questa direzione. Un segnale concreto arriva dall’automotive, dove i robot umanoidi stanno entrando nelle fabbriche. Renault prevede di introdurre circa 350 unità entro il 2027, già testate nello stabilimento francese di Douai con il robot Calvin per la movimentazione di componenti, con l’obiettivo dichiarato di ridurre del 30% le ore necessarie per produrre un veicolo. Le stesse case automobilistiche cinesi, come Byd, Nio e Zeekr – marchio del gruppo Geely – stanno testando robot umanoidi sviluppati da UBTech all’interno delle proprie fabbriche. Questi vengono impiegati per la movimentazione dei materiali, l’ispezione dei componenti e il supporto agli operai nelle attività più ripetitive. In uno stabilimento Zeekr a Ningbo, per esempio, alcuni robot del modello Walker di UBTech vengono utilizzati per trasportare scatole e parti tra diverse linee di assemblaggio. Anche in Europa diversi grandi gruppi industriali stanno esplorando soluzioni simili: Mercedes-Benz, per esempio, ha avviato test con robot umanoidi realizzati dalla startup americana Apptronik nei propri impianti, mentre BMW ha sperimentato i robot di Figure AI nello stabilimento di Spartanburg, negli Stati Uniti, per operazioni come la movimentazione di componenti metallici. Hyundai Motor Group, invece, punta a introdurre migliaia di robot del modello Atlas, sviluppati da Boston Dynamics, società acquisita dal gruppo nel 2021. Proprio il colosso coreano dell’automotive vuole inserirsi a gamba tesa in uno scenario competitivo che, almeno sulla carta, sembra delineare un duopolio sempre più serrato tra Cina e Stati Uniti. L’annuncio al CES di Las Vegas di quest’anno potrebbe segnare una svolta dirompente. Boston Dynamics ha infatti siglato un accordo strategico con DeepMind (il laboratorio di Google che ha dato vita a Gemini) per potenziare Atlas, attraverso l’integrazione dei modelli Gemini Robotics. L’obiettivo è rafforzarne le capacità cognitive, migliorando al contempo l’interazione con l’ambiente e l’autonomia operativa. “Quello di gennaio è un annuncio importantissimo”, sottolinea Siciliano. “Questi grossi investimenti, ovviamente, fanno da traino per tutti gli altri, innescando una dinamica di mercato che potrebbe accelerare l’individuazione della prima vera applicazione industriale su larga scala”, la cosiddetta killer application capace di cambiare gli equilibri del settore. Perché sarà l’azienda capace di sviluppare il primo prodotto di massa, realmente pervasivo, a conquistare un vantaggio decisivo e ad aprire una nuova fase del mercato. Una rivoluzione destinata a toccare anche l’Europa e il nostro Paese: “Oggi è difficile fare delle stime su quando vedremo i robot umanoidi nelle fabbriche italiane. Tuttavia, ragionevolmente, la larga diffusione entro un decennio è verosimile”. L'articolo La Cina è in vantaggio sui robot umanoidi proviene da Guerre di Rete.
April 15, 2026
Guerre di Rete
INTELLIGENZA ARTIFICIALE E MANIPOLAZIONE: QUALI STRUMENTI PER RICONOSCERE LA REALTÀ E TUTELARE I DATI? INTERVISTA A HERMES CENTER
L’intelligenza artificiale è divenuto uno strumento trasformativo epocale nel panorama tecnologico. Uno strumento, come tutti, “può essere utilizzato bene o male, a seconda di chi lo produce e utilizza”. Sono le parole ai microfoni di Radio Onda d’Urto di Davide del Monte, dell’associazione Hermes Center, tra i promotori insieme alla Rete per i Diritti Umani Digitali della conferenza stampa che si svolgerà mercoledì 15 aprile presso la Sala Stampa della Camera a tema diritti umani e IA. Su questo fronte, l’Unione Europea ha recentemente introdotto l’AI Act, “il primo ordinamento europeo volto a regolamentare l’intelligenza artificiale”. Seppur con dei limiti e con “diverse lacune, come già evidenziato nei nostri report” sottolinea Davide del Monte, l’AI Act “serve per cercare di tutelare i diritti dei cittadini”, come recentemente fatto dalla Cina con la regolamentazione dei contenuti e della sicurezza. L’AI Act europeo è stato visto “in modo molto negativo non solo dalle industrie americane, ma dallo stesso governo americano. Trump ha lanciato attacchi rivolti alla Comissione Europea nel tentativo di portare a una deregolamentazione dell’intelligenza artificiale. Quando tu vai a tutelare i diritti rispetto a uno strumento poni dei vincoli, anche a livello di mercato, cosa che le grandi multinazionali, come big tech e start up della Silicon Valley, hanno visto come un grosso pericolo per il loro business”, fa sapere ai nostri microfoni Davide del Monte. Uno degli aspetti più controversi dell’IA è la manipolazione della realtà: l’intelligenza artificiale può infatti essere usata per influenzare le opinioni e manipolare i comportamenti degli utenti online, così come le direzioni politiche. Non da ultimo il caso dei dati raccolti da Meta: la piattaforma di Facebook e Instagram è stata multata per aver raccolto impropriamente i dati degli utenti con l’obiettivo di una profilazione politica, costringendo Zuckrberg all’introduzione di un algoritmo che regolasse la diffusione dei post politici. Si tratta dei “deep fake, delle fake news e di tutto quello che contribuisce a costruire strumenti sempre più potenti di propaganda”. Ma “l’algoritmo delle piattaforme che raccoglie dati e fornisce strumenti di propaganda è la scoperta dell’acqua calda”, aggiunge Davide del Monte. “Va bene che si sia preso atto, seppur in ritardo, di questi meccanismi distorsivi dell’opinione pubblica. Era qualcosa però che oggettivamente associazioni, collettivi, attivisti, ricercatori hanno evidenziato da un bel pò di tempo”. Il Digital Service Act introdotto in UE nel 2024 è una direttiva che dovrebbe regolamentare l’utilizzo di questi algoritmi: “dal nostro punto di vista c’è ancora tantissimo da fare. Queste piattaforme non solo hanno la potenza economica per influenzare anche le decisioni europee, attraverso operazioni di lobbing multimiliardarie, ma ora hanno anche l’appoggio del presidente degli Stati Uniti”. I contenuti prodotti con l’intelligenza artificiale, inoltre, non hanno obblighi di pubblicazione. Non ci sono vincoli nel dover indicare che il contenuto pubblicato sui social media sia generato dall’IA. Vista la sempre più vicinanza con immagini o video reali, la filigrana (o watermark) sarebbe uno strumento necessario per distinguere il lavoro umano da quello digitale. Da questo punto di vista “il tema non è tanto tecnologico o giuridico, è politico. Anche qui Trump è il primo a pubblicare video o immagini generati con l’intelligenza artificiale per darli in pasto alla propria bolla di fanatici ed esaltati. Quando il presidente degli Stati Uniti fa questo il tema diventa politico”. L’intervista completa a Davide del Monte di Hermes Center. Ascolta o scarica.
April 13, 2026
Radio Onda d`Urto
Che cosa fa l’intelligenza artificiale in guerra
Immagine in evidenza generata con l’ausilio dell’intelligenza artificiale “La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano. Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto. Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi. IL RUOLO CRUCIALE DELL’AI PREDITTIVA Che cosa fa infatti un chatbot pressoché identico a quelli che usiamo nella vita quotidiana quando è utilizzato in ambito bellico? Prima di tutto, bisogna chiarire alcuni aspetti importanti. Come mostrato anche da un paper della NATO Science and Technology Organization, si tende infatti a fare confusione tra gli impieghi degli algoritmi predittivi (che analizzano dati per individuare schemi, classificare eventi e stimare probabilità future) e quelli invece generativi (capaci di generare probabilisticamente testo, immagini, video o altro). I large language model non possono riconoscere automaticamente i bersagli, non guidano i missili o i droni, non raccolgono informazioni, non analizzano direttamente i dati dei sensori e non eseguono autonomamente azioni nel mondo reale. La capacità fondamentale di ChatGPT e dei suoi compagni è infatti (provare a) comprendere, elaborare e generare il linguaggio umano sulla base del dataset testuale su cui sono stati addestrati. Sul campo di battaglia, il grosso del lavoro sporco lo svolgono quindi i sistemi basati su algoritmi predittivi. Due dei casi più (tristemente) noti sono quelli relativi alle piattaforme di intelligenza artificiale massicciamente impiegate dall’esercito israeliano durante l’invasione di Gaza: The Gospel e Lavender. The Gospel analizza direttamente i dati raccolti tramite intelligence e sorveglianza per identificare obiettivi infrastrutturali – edifici, tunnel, depositi – che vengono poi colpiti dall’esercito. Secondo l’ex capo dell’IDF Aviv Kochavi, questo sistema è in grado di individuare fino a 100 bersagli al giorno: “Per dare una prospettiva”, ha spiegato Kochavi, “in passato ottenevamo 50 obiettivi all’anno”. Lavender è invece un sistema statistico che assegna a ogni individuo presente nella Striscia di Gaza un punteggio relativo alla probabilità di appartenenza a gruppi armati, elaborando dati provenienti anche in questo caso da intelligence e sorveglianza, oltre a segnali comportamentali e indicatori demografici. Secondo le inchieste del magazine israeliano +972, nel corso del conflitto Lavender ha identificato – con un margine di errore accettato del 10% – circa 37mila palestinesi come potenziali bersagli. Per quanto invece riguarda gli Stati Uniti (e la NATO), il più diffuso sistema di supporto decisionale (DSS, decision support system) è il Maven Smart System. Sviluppato a partire dal 2017 da Palantir – subentrata dopo il passo indietro di Google, che al tempo aveva rinunciato in seguito alle proteste dei dipendenti – in collaborazione con Amazon (che fornisce in appoggio la piattaforma cloud AWS), una prima versione di Maven è stata impiegata nel 2021 durante il ritiro statunitense dall’Afghanistan. Successivamente è stato utilizzato in supporto a Israele durante l’invasione di Gaza ed è fino a oggi stato impiegato anche per gli attacchi contro l’Iran. A differenza di The Gospel, Maven non è solo un sistema di AI assisted targeting, ma una piattaforma di comando e controllo che offre anche “consapevolezza situazionale in tempo reale” — ovvero una rappresentazione di ciò che accade sul terreno, comprese posizioni delle forze amiche e nemiche, asset disponibili e minacce attive — e supporto alla pianificazione operativa: dalla generazione e valutazione delle azioni potenziali alla stesura di elementi utili per gli ordini operativi. Secondo gli stessi funzionari della NATO, che hanno siglato nel 2025 un contratto con Palantir per il suo utilizzo, Maven fornisce ai comandanti delle “abilità in stile videogioco” di supervisionare ciò che avviene sul campo di battaglia. CHE COSA FANNO I MODELLI LINGUISTICI E allora i large language model? Prima di vedere i loro usi più avanzati e il modo in cui Claude prima e ChatGPT poi (dopo lo scontro tra Anthropic e il Pentagono) stanno venendo integrati in Maven e in altri sistemi bellici, partiamo dagli impieghi più semplici. In modo non dissimile dai suoi utilizzi civili – ma sfruttando delle versioni appositamente ottimizzate – i modelli linguistici vengono impiegati dagli eserciti per riassumere i manuali operativi, i rapporti delle missioni, i briefing dell’intelligence e altro ancora. Viceversa, possono essere utilizzati anche per generare, a partire dalle indicazioni dei soldati, rapporti, traduzioni, trascrizioni e documentazione di vario tipo. Durante le esercitazioni, questi sistemi possono anche contribuire alla generazione di scenari bellici; mentre nell’ambito della medicina militare, gli LLM vengono utilizzati per sintetizzare cartelle cliniche e storia medica dei pazienti, consentendo ai medici di campo un accesso rapido alle informazioni essenziali. Possono inoltre essere usati – in maniera simile al “civile” Claude for Healthcare – come strumenti di supporto decisionale, in grado di confrontare opzioni terapeutiche e assistere i medici nelle loro valutazioni. Nei casi più avanzati, bisogna invece immaginare l’impiego bellico di Claude o ChatGPT come una “interfaccia conversazionale” integrata, per esempio, in Maven Smart System, che permette agli utenti di interpretare più facilmente le informazioni provenienti dalle piattaforme di supporto decisionale. Messa così, può sembrare una cosa da poco. In realtà – come scrive James O’Donnell sulla MIT Tech Review – “è difficile sopravvalutare tutto ciò: l’intelligenza artificiale già da tempo svolge compiti di analisi per i militari, estraendo informazioni utili da un oceano di dati”. Oltre a permettere di navigarli sfruttando il linguaggio naturale e ricevendo risposte immediatamente comprensibili, “l’uso dell’AI generativa permette di ottenere consigli su quale azione intraprendere sul campo, una funzione che sta venendo testata sul serio per la prima volta in Iran”. Il large language model viene quindi integrato nelle piattaforme predittive per rendere più facilmente comprensibile la complessità delle informazioni da essi ricavate: “Una possibile applicazione potrebbe consistere nell’assistere i comandanti militari nel prendere la decisione giusta alla velocità richiesta, supportando lo staff nello sviluppo, nella valutazione e nella raccomandazione delle opzioni operative disponibili (Courses of Action, COA)”, si legge sulla rivista del Joint Air Power Competence Centre (un centro di ricerca della NATO). “Gli LLM potrebbero inoltre aiutare l’operatore umano nell’analisi e nella valutazione dei dati in tempo reale, accorciando così il ciclo operativo e fornendo un vantaggio decisivo sul campo di battaglia”. Per fare un (teorico) esempio concreto, possiamo immaginare il seguente scenario: durante un conflitto, i sistemi predittivi rilevano un’anomalia termica in un complesso industriale nemico, i sensori intercettano un picco di comunicazioni crittografate nella stessa area e un drone cattura immagini di veicoli classificati come lanciatori missilistici mobili. Il modello linguistico integrato nella piattaforma di comando incrocia questi dati, provenienti da tre sistemi diversi, con i rapporti di intelligence ricevuti nelle settimane precedenti. In questo modo, individua che lo stesso sito era già stato segnalato come possibile deposito e che il pattern delle comunicazioni somiglia a quelli osservati prima di lanci precedenti. In pochi minuti — anziché nelle ore che servirebbero a un team di analisti — genera un briefing sintetico con tre possibili azioni: attacco, sorveglianza intensificata, richiesta di conferma. Il comandante lo legge, interroga il sistema su ulteriori aspetti specifici e decide il da farsi. In sintesi, Maven unisce i dati provenienti da satelliti, droni, report di intelligence e segnali radar. Claude o ChatGPT, integrati nella stessa piattaforma, analizzano questi dati, li rendono consultabili in linguaggio naturale e possono fornire suggerimenti sull’azione da intraprendere o la forza da impiegare. Nel corso degli attacchi in Iran, scrive il Washington Post, “Maven ha suggerito centinaia di obiettivi, fornito coordinate di localizzazione precise e dato priorità a questi obiettivi in base alla loro importanza. L’integrazione tra Maven e Claude ha creato uno strumento che sta accelerando il ritmo della campagna, riducendo la capacità dell’Iran di contrattaccare e trasformando una pianificazione delle operazioni che richiedeva settimane in operazioni in tempo reale”. Uno studio della Georgetown University ha invece analizzato i modi in cui il 18° Airborne Corps dell’esercito statunitense utilizza Maven e Claude, concludendo, tra le altre cose, che consente di fare con una squadra di 20 persone ciò che prima ne avrebbe richieste duemila. Nel 2024 è stata poi siglata una collaborazione tra Anduril – startup che produce armi autonome e semiautonome,  come il drone Altius-600M, l’aereo da guerra autonomo Fury e il sottomarino da battaglia Dive-LD – e OpenAI. Come si legge ancora sulla MIT Tech Review, “Anduril addestra da tempo i propri modelli di intelligenza artificiale per analizzare riprese video e dati dei sensori al fine di identificare le minacce. Ciò su cui si concentra meno sono invece i sistemi di AI conversazionale che consentono ai soldati di interrogare direttamente questi sistemi o ricevere indicazioni in linguaggio naturale. Ed è in questo spazio che i modelli di OpenAI potrebbero inserirsi”. Qualcosa si muove anche in Europa, dove la francese Mistral AI ha siglato alla fine del 2025 un accordo quadro triennale con il ministero delle Forze Armate di Parigi per integrare i propri modelli linguistici nelle operazioni di esercito, marina e aviazione, oltre che in enti strategici come il commissariato per l’energia atomica e il centro di ricerca aerospaziale ONERA. Gli impieghi previsti sono simili a quelli statunitensi: analisi documentale, traduzione, redazione di briefing, supporto decisionale. In questo caso, Mistral sfrutta esclusivamente l’infrastruttura informatica francese, al riparo dai potenziali sguardi indiscreti del cloud statunitense. LE CRITICITÀ DELL’AI IN GUERRA In sintesi, i modelli linguistici impiegati in ambito militare sono complementari ai modelli predittivi e spesso integrati nelle stesse piattaforme, permettendo, tra le altre cose, di analizzare con maggiore facilità e rapidità la grande mole di dati raccolta ed elaborata dai sistemi di supporto decisionale. Che cosa succede, però, quando l’obiettivo principale per il quale si sfruttano questi sistemi di “supporto decisionale” – in cui quindi l’ultima parola spetta agli esseri umani – è aumentare al massimo la velocità con cui si opta per una particolare strategia o si reagisce a uno scenario inatteso? “Avevo a disposizione 20 secondi per ciascun bersaglio, valutandone dozzine ogni giorno”, ha raccontato al Guardian un soldato israeliano che utilizzava Lavender. “Non avevo nessun valore aggiunto come essere umano, se non il fatto di apporre il timbro di approvazione”. Nel momento in cui la velocità diventa l’imperativo fondamentale, l’essere umano è quasi d’intralcio alla macchina, che quindi da sistema di supporto decisionale rischia di diventare il “sistema decisionale”, mentre i soldati e gli ufficiali si limitano a certificare la loro approvazione alle decisioni prese dalla macchina. Una situazione che è ulteriormente esacerbata dall’integrazione dei modelli linguistici: “Mentre l’interfaccia di Maven costringe gli utenti a ispezionare e interpretare direttamente i dati presenti sulla mappa, i risultati forniti dai modelli generativi sono più semplici da ottenere ma più difficili da verificare”, scrive ancora James O’Donnell. “Il cambio di paradigma cruciale è che l’AI permette all’esercito statunitense di individuare bersagli alla velocità della macchina invece che a quella umana”, ha spiegato, parlando con il Washington Post, Paule Scharre, vicepresidente del Center for a New American Security. “Il lato negativo è che l’intelligenza artificiale sbaglia e abbiamo bisogno di esseri umani per controllare i suoi output, soprattutto quando ci sono in ballo delle vite”.   Il controllo umano è però tanto indispensabile quanto problematico. Prima di tutto perché, inevitabilmente, riduce la velocità, ma anche perché la capacità degli esseri umani di supervisionare, correggere o ignorare le decisioni della macchina è regolarmente sovrastimata. Le ragioni sono varie e in parte già note: uno studio pubblicato di recente dalla Wharton School definisce “resa cognitiva” il fenomeno per cui gli utenti dei modelli linguistici tendono a dedicare sempre meno tempo alla verifica dei risultati. È una sorta di versione ancora più insidiosa del noto “automation bias”, secondo cui le persone si fidano del giudizio della macchina a causa della patina di oggettività che circonda (erroneamente) questi strumenti statistici e del modo in cui le loro capacità vengono magnificate senza essere adeguatamente problematizzate. Un altro elemento che sta emergendo è quello del de-skilling causato dalla necessità di prendere decisioni sempre più rapide, che spinge a delegare un numero crescente di responsabilità decisionali alla macchina: “Stiamo riducendo le nostre stesse abilità”, ha spiegato Elke Schwarz, docente del dipartimento di Studi bellici dell’Università di Londra. “I comandanti stanno diventando sempre meno abili a identificare ciò di cui sono responsabili in un campo di battaglia”.   Tutto ciò è ulteriormente complicato dalla tendenza di questi sistemi – ormai accertata e anche ammessa dagli stessi sviluppatori – a dare ragione agli utenti con troppa facilità (fenomeno chiamato AI Sycophancy). Per certi versi, è il contrario dell’automation bias: se nel primo caso sono gli umani che si fidano troppo della macchina, in questo caso sono le macchine che tendono a confermare ciò che gli umani vogliono sentirsi dire, con il rischio che, sul campo di battaglia, i soldati sfruttino questi sistemi, magari inconsapevolmente, per ottenere una conferma di decisioni già prese, indipendentemente dalla loro bontà. C’è poi il noto e ineliminabile problema delle allucinazioni (quando un sistema di intelligenza artificiale presenta come se fosse certa un’informazione invece sbagliata o completamente inventata), che potrebbero annidarsi in ogni sintesi di report, documento generato a partire dai dati o traduzione. Criticità che diventa ancora più allarmante se combinata alla tendenza dei modelli generativi, recentemente osservata, a prediligere nelle simulazioni l’escalation bellica rispetto a soluzioni più caute. E questo senza nemmeno aver aperto il fondamentale capitolo dell’etica, della responsabilità (e tracciabilità) decisionale e della trasparenza, soprattutto considerando che – come riporta l’Independent – l’esercito statunitense non tiene traccia del ruolo giocato dall’AI nei singoli attacchi. “Uno stato ha la responsabilità di sapere se l’intelligenza artificiale è stata impiegata in uno qualsiasi dei suoi attacchi”, ha affermato Jessica Dorsey, professoressa di diritto internazionale dell’Università di Utrecht. “I comandanti dovrebbero avere accesso alle informazioni di intelligence su cui si basano i loro attacchi”. Da questo punto di vista, un recente e tragico episodio avvenuto agli inizi dei bombardamenti sull’Iran riassume perfettamente quanto ciò possa essere problematico. Un numero schiacciante di prove indica che gli Stati Uniti siano responsabili dell’attacco alla scuola di Minab, in Iran, in cui hanno perso la vita 175 persone, la maggior parte delle quali studentesse. Attacco che potrebbe essere stato condotto a causa di dati di intelligence obsoleti, risalenti a quando il sito faceva effettivamente parte di una base navale adiacente delle Guardie Rivoluzionarie iraniane. Considerando che Maven ha generato oltre mille opzioni di attacco solo nelle prime 24 ore, viene da porsi una domanda: e se l’errore fosse stato causato da una decisione sbagliata dell’intelligenza artificiale (come tra l’altro sospettato), magari a causa di un “pacchetto di bersagli” obsoleto ma che l’AI ha riciclato presentandolo in maniera convincente? Oppure se, più semplicemente, la quantità di bersagli individuati in un tempo rapidissimo non avesse dato ai militari il tempo necessario a verificare che fossero quelli giusti? L’intelligenza artificiale potrebbe non essere responsabile di questa strage, ma di sicuro sta rendendo più complesso risalire la catena delle responsabilità. Tutti questi rischi e queste criticità vengono sollevate da anni dalle organizzazioni che chiedono di vietare – o almeno regolamentare rigidamente, a livello internazionale – l’impiego dell’intelligenza artificiale in ambito bellico. Quel treno, ormai, sembra però essere passato. L'articolo Che cosa fa l’intelligenza artificiale in guerra proviene da Guerre di Rete.
April 8, 2026
Guerre di Rete
Tabula Rasa, puntata dedicata a 3 saggi sull'IA e le Big Tech
il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza artificiale e il potere delle big tech. Ospiti della puntata: * Irene Doda autrice de "Onnipotenti" Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica che ha trasformato il cuore dell’innovazione tecnologica occidentale nel laboratorio politico della nuova destra globale. E mostra come la retorica della libertà individuale e dell’emancipazione digitale abbia mascherato vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione dell’immaginario collettivo, erosione dei principi democratici. * Dario Guarascio autore di "Imperialismo digitale" Le Big Tech supportano strategie belliciste e partecipano direttamente alle attività militari e di intelligence. Lo Stato non può fare a meno delle loro capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le Big Tech locali e il Partito comunista. * Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter Thiel" Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza e sorveglianza basate sulla predizione dei crimini (stile Minority Report), fino ai teatri di guerra come Gaza Your browser does not support the audio tag. Ascolta le altre puntate di Tabula Rasa