Source - Guerre di Rete

Le troppe falle nella cybersicurezza dei trasporti italiani
Immagine in evidenza rielaborata con IA Quanto è difficile parlare di cybersicurezza con le aziende. E ciò vale anche per quelle dei trasporti: un settore in apparenza lontano dagli attacchi dei cracker, ma che mostra invece parecchie vulnerabilità oltre a un ampio potenziale di rischio. Provare ad affrontare il tema della sicurezza informatica con alcune delle più grandi realtà del paese produce come minimo un irrigidimento; nel peggiore dei casi, il silenzio. Mail senza risposta, telefoni che squillano a vuoto, repliche vaghe: quasi nessuno si presta a rispondere alle domande del cronista, e molti si eclissano dopo un primo contatto di prammatica. LA CYBERSICUREZZA DELLE AUTOSTRADE ITALIANE Prendiamo Autostrade per l’Italia (ASPI), la stessa società che qualche anno fa (non molti: era il 2018) finì sotto la lente di ingrandimento per il caso del ponte Morandi, crollato a Genova a metà agosto. Un disastro che aveva sollevato interrogativi profondi sui sistemi di controllo e sulla cultura della sicurezza del gruppo. Ci si aspetterebbe che queste procedure, fisiche e cyber, siano diventate il fiore all’occhiello del gruppo. E che – stando così le cose – non sia un problema comunicarlo all’esterno. Sbagliato. Svariati tentativi di contatto via email sono caduti nel vuoto. Non va meglio al telefono, con l’apparecchio dell’ufficio stampa che squilla senza che nessuno risponda. Quando si attiva la segreteria, lo fa solo per rimandare al medesimo indirizzo di posta elettronica, che rimane muto.  La società Movyon si definisce il “centro di eccellenza per la ricerca e innovazione del gruppo ASPI” e offre “soluzioni tecnologiche end-to-end per gestori di infrastrutture stradali e autostradali, pubbliche amministrazioni e service provider, supportandoli nella creazione di una mobilità più intelligente, accessibile, sostenibile e sicura a favore della comunità”. Il logo si trova, per esempio, sulle sbarre che si alzano e si abbassano ai caselli. Sembra la porta giusta a cui bussare per parlare di cybersicurezza con ASPI. Del resto, la stessa Movyon sviluppa applicazioni tecnologicamente avanzate come quelle per il monitoraggio delle merci pericolose in viaggio sulla rete, il cosiddetto V2X (vehicle to everything): un sistema che, si legge nella presentazione, “monitora in tempo reale i veicoli che trasportano materiali pericolosi e avvisa i conducenti di eventuali situazioni di pericolo, come la presenza di altri veicoli con merci pericolose nelle vicinanze o situazioni anomale lungo la strada”. Il sistema non si limita al minimo indispensabile, ma, viene spiegato, arricchisce i messaggi con informazioni aggiuntive rispetto agli standard di settore. Lecito chiedersi: cosa succederebbe se venisse attaccato?  Estendendo il discorso, ci sono altre domande da porsi. Cosa accadrebbe se qualcuno tentasse di azzerare tutti i pedaggi, rubare i dati delle carte di credito degli automobilisti, o cambiare i messaggi nei cartelli a led che puntellano la rete, magari consigliando di effettuare deviazioni non necessarie al solo scopo di creare il caos? È già accaduto in passato? Quali misure sono state prese? Chi è il responsabile della sicurezza? Domande la cui risposta possiamo soltanto immaginare, perché neanche Movyon ha risposto alla nostra richiesta di contatto. LE FERROVIE DELLO STATO Anche il trasporto ferroviario non è esente da rischi cyber. Che possono riguardare gli apparati di gestione elettronica della rete e dei convogli, ma anche il sistema dei pagamenti. Nel mese di novembre 2025 un attore malevolo ha rubato e diffuso online 2,3 terabyte di dati di Almaviva (un provider di servizi web) e Ferrovie dello Stato, che a esso si appoggiava.  L’attacco è stato confermato dalla stessa Almaviva in una nota, dopo essere trapelato alla stampa. Secondo la rivendicazione dei cracker, il leak conterrebbe repository aziendali condivisi e documentazione tecnica riservata, inclusi contratti. Ma ci sarebbero anche dati personali dei passeggeri e dei dipendenti di quasi tutte le società del gruppo FS, da Mercitalia a Rete Ferroviaria Italiana, da Trenitalia a Italferr (da poco ribattezzata FS Engineering).  “L’episodio che ci riguarda è riconducibile a un accesso non autorizzato che ha interessato un vecchio data center in dismissione della società Almaviva”, rispondono le Ferrovie dello Stato a una richiesta di informazioni da parte di Guerre di Rete. “L’attenzione è concentrata sull’accertamento tecnico dei fatti, sulla tutela delle informazioni e sulla piena collaborazione con Almaviva, società obiettivo dell’attacco, e le autorità competenti”. Le FS non forniscono ulteriori dettagli “per rispetto delle indagini”, ma aggiungono che sono in corso “attività di verifica tecnica e monitoraggio di tutti i nostri sistemi”. Almaviva, viene spiegato dalle Ferrovie, ha “informato anche gli organismi competenti per la protezione dei dati personali, mentre il Gruppo FS collabora per ciò che riguarda tutti i profili di propria competenza”. Che provvedimenti sono stati presi? “Appena emersa la vicenda, il Gruppo FS, grazie alla sinergia tra FS Security e FS Technology e in coordinamento con Almaviva e con le autorità, ha attivato tutte le misure di sicurezza e mitigazione necessarie”, risponde la società. “Sono stati predisposti backup alternativi, rafforzate le attività di monitoraggio e continuità operativa e condivise le azioni da intraprendere con le strutture di Security del gruppo e con gli organismi di vigilanza competenti. Parallelamente, prosegue il monitoraggio del web e dei canali specializzati per intercettare tempestivamente eventuali pubblicazioni di materiali riconducibili all’attacco. Anche Almaviva ha dichiarato di aver isolato l’attacco, attivato il proprio team specializzato e garantito la continuità dei servizi critici”. FS definisce “fondamentale” il presidio dell’intera filiera tecnologica – considerando che tutti i grandi gruppi si avvalgono di fornitori che possono essere “bucati” – e ammette che non è sufficiente monitorare i sistemi interni. “I fornitori e i partner tecnologici sono tenuti a rispettare requisiti stringenti sul piano della sicurezza informatica, della protezione dei dati, della continuità operativa e della gestione degli incidenti. Tali presidi sono definiti nell’ambito dei rapporti contrattuali, dei processi di qualifica e delle verifiche periodiche, con livelli di attenzione coerenti con la criticità dei servizi affidati”. L’errore è sempre possibile, ed è in queste lunghe catene di fornitura che provano a infilarsi i cattivi della rete.  IL TRASPORTO AEREO Già, il problema delle filiere. Sempre più complesse, e, per questo, sempre più vulnerabili.  Pensare a un attacco al sistema ferroviario può spaventare, ma immaginare che sia il sistema di controllo di un aeroplano a essere bucato scatena il terrore. Guerre di Rete ha provato a contattare Ita Airways, compagnia di bandiera (o forse non più: dipende dai punti di vista) italiana. Alla nostra richiesta di intervista, gli uffici hanno opposto un no-comment. Non è stato possibile, dunque, parlare con il CISO (chief internet security officer, cioè il capo della sicurezza informatica) né domandare che tipo di procedure di sicurezza, almeno a livello basilare, siano prese a tutela dei viaggiatori.  Ma perché questa paura di parlare, quando si tratta di cybersecurity? A rispondere è l’ENAC, l’Ente nazionale per l’aviazione civile, che fa capo al governo ed è l’autorità che fissa le regole del settore in Italia basandosi su normative europee (come la NIS2) e nazionali. “La sicurezza, in generale, sta alle spalle dei processi operativi: per questo è prassi comune che non se ne parli, e che le misure prese non vengano condivise”, riflette l’ingegnere Sebastiano Veccia, a capo della sicurezza dell’ENAC. Nella sua interpretazione, “non è ritrosia, ma una forma di cultura di sicurezza: si fa, ma non si dice”.  Resta il fatto che il pubblico ha domande sul rischio di volare, soprattutto in tempi di guerre asimmetriche che coinvolgono obiettivi non militari. Chiediamo se è possibile far cadere un aereo per mezzo di un attacco informatico. “Mi sento di escluderlo”, risponde Veccia. “Certo, un caso molto diverso come quello dell’11 settembre insegna che tutto è possibile, ma si tratta di una probabilità estremamente bassa”. È possibile invece inserirsi nei sistemi  di comunicazione con i piloti? “I sistemi di comunicazione tra l’aeromobile e la torre di controllo sono avanti anni luce”, risponde il dirigente.  E se invece qualcuno riuscisse a infiltrarsi nelle ditte che producono gli aeroplani, e quindi anche il software che li governa, per inserire codice malevolo? In fondo gli incidenti del Boeing 737 Max paiono legati a sensori difettosi e software. “È il problema ben noto dei cosiddetti insider nell’industria. In Italia e in Europa, per le figure che entrano a contatto con aree e attività sensibili, viene richiesto alle forze di polizia un controllo dei precedenti penali del soggetto. Per ruoli di particolare criticità si richiede, in aggiunta, un background check rafforzato, che non si limita ai precedenti penali, ma guarda anche agli ambienti e alle compagnie che la persona frequenta”. Indagini di intelligence che servono a capire se il soggetto è radicalizzato, o vicino ad aree politiche pericolose. “La prevenzione si fa a monte, e lo stesso approccio degli aeroporti vale anche per i costruttori aeronautici e chi fa manutenzione degli aeromobili. Anche per chi è incaricato di caricare i dati sui pc di bordo c’è una procedura blindata”. Veccia è consapevole che la sicurezza è un gioco tra guardie e ladri: l’inseguimento è costante. Si prova a isolare i dispositivi critici dal mondo esterno. “Le chiavette di manutenzione vengono controllate, sterilizzate e infine distrutte. Non solo: in aviazione le stesse attività di controllo si espletano in loco e non, come spesso accade oggi, da remoto. La programmazione degli interventi di sicurezza è importante, così come lo è preparare una matrice dei rischi: perché  il 90% delle emergenze è dovuto a cattiva pianificazione. Faccio comunque notare che energia nucleare e aeronautica sono sempre stati i due settori più controllati”.  La visione di Veccia è confermata da una nostra fonte interna al settore. Che, al tavolo di un ristorante, racconta come “negli ultimi trent’anni non ci sono mai stati due incidenti aeronautici per lo stesso motivo, e questo perché ogni volta che ne accade uno lo si analizza nei dettagli e si corre ai ripari. Questo, in altri settori dove le procedure sono molto più lasse, viene preso per eccesso di pignoleria”. Un esempio è quello dei trasporti marittimi, con i porti che rappresentano la via di ingresso privilegiata per le merci che finiscono sugli scaffali, per il petrolio, ma anche per molto altro. LA SICUREZZA INFORMATICA DEI PORTI Sarebbe sbagliato sottovalutare l’importanza della cybersicurezza nei porti: quantità enormi di merci viaggiano via mare. Ma ci sono anche droga, armi, materiale illegale. E persone. Si comincia dai controlli all’ingresso per camion e autoveicoli. Entrare liberamente nell’area portuale significa avere una sorta di lasciapassare, utilissimo se si sa dove mettere le mani. Sistemi di controllo esistono, certo. Ma, come racconta la nostra fonte, le maglie sono larghe: “Quando si fanno le gare di appalto, per esempio per le telecamere da installare, solitamente si sceglie il prodotto che ha il prezzo più basso, che di norma è cinese. Queste telecamere possono avere delle backdoor, delle porte software nascoste che sono in grado di esfiltrare i dati e che cambiano a ogni aggiornamento. In sostanza, non controllando la tecnologia che usiamo potremmo offrire a un paese straniero la possibilità di fare intelligence sulle nostre informazioni”. Pechino è la principale indagata.  Ma c’è di più. L’andirivieni di un porto è basato su un sistema di riconoscimento delle targhe automobilistiche: camion di autotrasportatori noti trovano porte aperte e sbarre alzate ai varchi. I controlli sono a campione. Facile capire come, con un attacco mirato, sia facile far entrare anche chi non sarebbe autorizzato. Basta inserire una targa in più nel gestionale e il gioco è fatto. Le procedure manuali sarebbero più efficaci, ma sono troppo lente per i volumi di traffico dei grandi hub. Senza considerare che gli spazi sulle banchine sono affittati e gestiti tramite un software gestionale estremamente complesso, che sa esattamente chi e dove farà cosa con mesi di anticipo: anche in questo caso, un cybercriminale che riuscisse a entrare nel sistema potrebbe creare il caos operativo, paralizzando le attività. Guerre di Rete ha contattato il porto di Gioia Tauro, principale scalo merci italiano: nessuna risposta, neanche dopo svariati tentativi telefonici e via mail. Ha risposto, invece, l’autorità portuale di Genova.  “In merito alla richiesta pervenutaci, siamo nella necessità di non poter aderire all’iniziativa proposta”, afferma la replica pervenuta tramite posta elettronica. “La cybersecurity costituisce un ambito di particolare sensibilità per le infrastrutture critiche nazionali, categoria alla quale i sistemi portuali appartengono a pieno titolo. La normativa vigente in materia, unitamente alle linee guida emanate dall’Agenzia per la Cybersicurezza Nazionale (ACN), raccomanda la massima prudenza nella comunicazione pubblica relativa a sistemi, procedure e strategie di protezione informatica. La policy dell’Ente prevede pertanto di non rilasciare interviste su tali tematiche al di fuori dei canali istituzionali preposti”. Insomma, nulla da dichiarare.  S Il breve viaggio intrapreso offre un quadro allarmante. E le contromisure non possono essere solo tecniche. Veccia, dirigente dell’ENAC, sottolinea quanto la cultura aziendale giochi un ruolo centrale: “La formazione del personale è importante. C’è ancora chi lascia le proprie password attaccate al PC con dei post-it. Per questo va ribadito: anche se fare corsi può sembrare noioso ai dipendenti, quest’attività si rivela utile quando ci si trova di fronte a un caso sospetto, e si torna con la mente alle lezioni in aula per sapere come reagire”.  Ci sono anche altre questioni, più difficili da affrontare. Come spiega la nostra fonte, “molte delle soluzioni di cybersecurity nel nostro paese vengono vendute dallo stesso gruppo di persone, poche decine di soggetti che si conoscono tra loro e che possono essere avvicinati senza grossi problemi da chi è dotato di argomenti convincenti, e di una certa disponibilità economica”. Accade di continuo, spiega. Ma questo è un tema per un altro giorno. L'articolo Le troppe falle nella cybersicurezza dei trasporti italiani proviene da Guerre di Rete.
April 22, 2026
Guerre di Rete
La Cina è in vantaggio sui robot umanoidi
Immagine in evidenza da Unitree A fine marzo, l’azienda cinese AgiBot ha annunciato di aver prodotto in serie il suo robot umanoide numero diecimila. La startup con sede a Shanghai, fondata da alcuni ex ingegneri di Huawei, è nata nel 2023 con l’obiettivo di sviluppare humanoid robots per applicazioni industriali e di servizio. Dopo una prima fase di ricerca e prototipazione, nel 2024 ha avviato la produzione di massa dei primi modelli operativi, avviando una rapida scalata industriale che l’ha portata a raggiungere le cinquemila unità prodotte nel 2025 e poi al traguardo delle 10mila macchine: tutto nell’arco di tre anni. Qualche settimana prima di questo traguardo, sul palco del Gala del Capodanno lunare – lo show televisivo più seguito in Cina – una schiera di robot dalle sembianze antropomorfe si è esibita in perfetta sincronia con ballerini in carne e ossa, eseguendo con naturalezza una coreografia fatta di mosse di kung fu e danza. In questo caso, i “device” erano soprattutto di un’altra azienda concorrente: Unitree Robotics. Dietro la suggestione della performance, tra capriole a mezz’aria e calci acrobatici, si è intravisto un segnale chiaro: la dimostrazione plastica del vantaggio accumulato in una corsa tecnologica che Pechino ambisce a dominare su scala globale. La vera partita legata al mercato dei robot umanoidi, tuttavia, non si gioca sui palchi: si gioca nelle fabbriche e nei centri logistici. In altre parole, nel cuore pulsante dell’economia reale. Nell’ultimo decennio la Cina ha identificato nella robotica uno dei cardini della propria trasformazione economica. Il settore era già stato inserito tra le priorità nel piano industriale Made in China 2025, anche se in una prima fase l’attenzione si era concentrata prevalentemente sull’automazione industriale tradizionale. Oggi, invece, il focus si sta spostando proprio verso gli humanoid robots: macchine progettate per operare negli stessi contesti degli esseri umani e per svolgere attività che richiedono adattabilità, coordinazione e capacità di interazione con l’ambiente reale. PREZZI, SUPPLY CHAIN E OPEN SOURCE Alla base di questo ambito salto tecnologico c’è, naturalmente, l’intelligenza artificiale. L’integrazione tra sistemi di visione, linguaggio e movimento sta dando forma alla cosiddetta embodied AI: algoritmi che non si limitano a elaborare dati, ma agiscono fisicamente nello spazio attraverso un corpo robotico. In un Paese alle prese con l’invecchiamento della popolazione e con una forza lavoro in progressiva contrazione, questa prospettiva assume un valore strategico. I robot vengono infatti sempre più considerati una possibile risposta alla carenza di manodopera e uno strumento per incrementare la produttività industriale. I numeri aiutano a mettere in prospettiva il fenomeno. Nel 2025 le spedizioni globali di robot umanoidi si sono fermate poco sopra le 13mila unità, pur registrando una crescita superiore a cinque volte rispetto all’anno precedente. I dati parlano di un business ancora microscopico, ma in fortissima accelerazione: secondo la società di ricerca Omdia, il settore potrebbe crescere rapidamente fino a raggiungere circa 2,6 milioni di unità vendute entro il 2035, mentre UBS stima che la popolazione globale di robot umanoidi potrebbe superare i 300 milioni entro il 2050. Una ricerca di Citigroup si spinge persino oltre, parlando di oltre 600 milioni entro la metà del secolo. In questo scenario, la Repubblica Popolare si è ritagliata una posizione dominante: nel 2024, AgiBot ha spedito oltre 5.000 unità, mentre Unitree Robotics ha superato le 5.500 nel 2025. La principale leva competitiva dei modelli cinesi sta nel prezzo. Unitree propone modelli entry-level attorno ai seimila dollari, mentre AgiBot offre versioni ridotte dei propri sistemi per circa 14mila dollari. Tesla, con il progetto Optimus, ha indicato un range tra i 20mila e i 30mila dollari senza aver ancora avviato una produzione su larga scala. A gennaio, dal palco del World Economic Forum di Davos, Elon Musk ha indicato la fine del 2027 come orizzonte per il lancio del modello; nel frattempo, l’azienda ha già annunciato l’obiettivo di avviare le linee produttive entro l’anno in vista della commercializzazione. L’esperienza, tuttavia, ci insegna che le tempistiche di Musk tendono a slittare e lui stesso ha più volte riconosciuto una propensione sistematica a promettere scadenze più ambiziose di quanto poi riesca a mantenere. Sul fronte statunitense, anche Figure AI ha iniziato a consegnare i propri modelli (Figure 02) a clienti paganti in scenari industriali, ma senza aver comunicato ancora un listino pubblico e operando solo tramite contratti su misura.  Un altro vantaggio decisivo è la catena di approvvigionamento. Negli ultimi anni la Cina ha dato vita a una supply chain hardware estremamente efficiente, spinta soprattutto dall’exploit del settore dei veicoli elettrici e dell’elettronica di consumo. La produzione di batterie, sensori, attuatori e altri elementi elettronici può avvenire in tempi brevi e con costi contenuti, permettendo alle imprese di sviluppare e testare rapidamente nuovi prototipi e di immetterli sul mercato con una rapidità difficilmente replicabile in altri contesti. Uno dei fattori chiave spesso dimenticati, invece, è il software. “I cinesi hanno saputo intercettare per tempo un trend che ha dato loro un vantaggio competitivo enorme: l’open source”, spiega Bruno Siciliano, professore ordinario di Automatica e robotica all’Università Federico II, luminare tra i massimi esperti europei del settore, insignito nel 2024 dell’IEEE Ras Pioneer in Robotics and Automation Award, tra i più prestigiosi riconoscimenti a livello mondiale. “L’intuizione brillante è stata realizzare piattaforme aperte per la condivisione di dataset per gli algoritmi che controllano il robot”. In Cina l’adozione dell’open source sta creando da tempo un ecosistema collaborativo e, al tempo stesso, propulsivo. Lo abbiamo imparato con Deepseek: modelli AI aperti e a basso costo sviluppati anche da aziende come Alibaba, Moonshot AI e MiniMax stanno rapidamente scalando le classifiche globali di utilizzo su piattaforme come Hugging Face e OpenRouter. Anche sul fronte della robotica, startup come RoboParty hanno aperto l’intero stack – dall’hardware al software fino ai dataset – dei propri robot umanoidi, favorendo la nascita di una comunità di sviluppatori sempre più gremita e interconnessa.  Un fenomeno, quest’ultimo, che rappresenta “l’unico vero modo di competere con gli Stati Uniti”. Bruno Siciliano dirige il Prisma Lab, laboratorio dell’Università di Napoli specializzato in robotica industriale, meccatronica e automazione, che ha in dotazione “un robot umanoide di Unitree Robotics, con cui stiamo sviluppando tecniche di controllo per la deambulazione e, soprattutto, per l’esecuzione di operazioni di contatto in cooperazione con esseri umani. Stiamo lavorando su approcci avanzati di model predictive control che integrano algoritmi di intelligenza artificiale open source. Possiamo farlo proprio perché abbiamo acquistato una piattaforma dedicata open source, dal costo comunque significativo: circa 100mila euro”. IL PROBLEMA DELLE MANI Dal punto di vista prettamente tecnico, la difficoltà di introdurre dei robot umanoidi nella dimensione industriale riguarda soprattutto il tatto. È quello che Elon Musk ha definito “the hands problem”: senza mani realmente versatili, un robot resta limitato e l’utilizzo universale in ambienti sconosciuti resta una chimera. Replicare la mano umana significa integrare controllo di precisione e percezione distribuito: alcuni dei prototipi statunitensi più avanzati, come quelli sviluppati alla Northwestern University, utilizzano sensori nei polpastrelli che misurano variazioni elettriche per inferire il contatto. Ma la complessità tecnologica resta, e afferrare una penna richiede di ricevere feedback attraverso varie parti delle dita, non solo sulla punta. “La vera sfida dei robot umanoidi, è sviluppare entità che possano interagire con gli umani in totale sicurezza”, prosegue Siciliano. “Quando vediamo i video spettacolari dei robot che ballano durante lo spettacolo del capodanno cinese, ci impressioniamo. Ma quelle macchine non stanno interagendo con le persone. Nel momento in cui c’è un contatto, cambia tutto. Il vero ostacolo è il tatto: un conto è fare movimenti ‘in freestyle’, un altro è fare una qualunque operazione robotica, come un montaggio, in cui c’è uno scambio di forze”. VERSO LA KILLER APP Eppure, nonostante tutte le difficoltà, molti colossi sembrano già aver imboccato questa direzione. Un segnale concreto arriva dall’automotive, dove i robot umanoidi stanno entrando nelle fabbriche. Renault prevede di introdurre circa 350 unità entro il 2027, già testate nello stabilimento francese di Douai con il robot Calvin per la movimentazione di componenti, con l’obiettivo dichiarato di ridurre del 30% le ore necessarie per produrre un veicolo. Le stesse case automobilistiche cinesi, come Byd, Nio e Zeekr – marchio del gruppo Geely – stanno testando robot umanoidi sviluppati da UBTech all’interno delle proprie fabbriche. Questi vengono impiegati per la movimentazione dei materiali, l’ispezione dei componenti e il supporto agli operai nelle attività più ripetitive. In uno stabilimento Zeekr a Ningbo, per esempio, alcuni robot del modello Walker di UBTech vengono utilizzati per trasportare scatole e parti tra diverse linee di assemblaggio. Anche in Europa diversi grandi gruppi industriali stanno esplorando soluzioni simili: Mercedes-Benz, per esempio, ha avviato test con robot umanoidi realizzati dalla startup americana Apptronik nei propri impianti, mentre BMW ha sperimentato i robot di Figure AI nello stabilimento di Spartanburg, negli Stati Uniti, per operazioni come la movimentazione di componenti metallici. Hyundai Motor Group, invece, punta a introdurre migliaia di robot del modello Atlas, sviluppati da Boston Dynamics, società acquisita dal gruppo nel 2021. Proprio il colosso coreano dell’automotive vuole inserirsi a gamba tesa in uno scenario competitivo che, almeno sulla carta, sembra delineare un duopolio sempre più serrato tra Cina e Stati Uniti. L’annuncio al CES di Las Vegas di quest’anno potrebbe segnare una svolta dirompente. Boston Dynamics ha infatti siglato un accordo strategico con DeepMind (il laboratorio di Google che ha dato vita a Gemini) per potenziare Atlas, attraverso l’integrazione dei modelli Gemini Robotics. L’obiettivo è rafforzarne le capacità cognitive, migliorando al contempo l’interazione con l’ambiente e l’autonomia operativa. “Quello di gennaio è un annuncio importantissimo”, sottolinea Siciliano. “Questi grossi investimenti, ovviamente, fanno da traino per tutti gli altri, innescando una dinamica di mercato che potrebbe accelerare l’individuazione della prima vera applicazione industriale su larga scala”, la cosiddetta killer application capace di cambiare gli equilibri del settore. Perché sarà l’azienda capace di sviluppare il primo prodotto di massa, realmente pervasivo, a conquistare un vantaggio decisivo e ad aprire una nuova fase del mercato. Una rivoluzione destinata a toccare anche l’Europa e il nostro Paese: “Oggi è difficile fare delle stime su quando vedremo i robot umanoidi nelle fabbriche italiane. Tuttavia, ragionevolmente, la larga diffusione entro un decennio è verosimile”. L'articolo La Cina è in vantaggio sui robot umanoidi proviene da Guerre di Rete.
April 15, 2026
Guerre di Rete
Che cosa fa l’intelligenza artificiale in guerra
Immagine in evidenza generata con l’ausilio dell’intelligenza artificiale “La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano. Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto. Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi. IL RUOLO CRUCIALE DELL’AI PREDITTIVA Che cosa fa infatti un chatbot pressoché identico a quelli che usiamo nella vita quotidiana quando è utilizzato in ambito bellico? Prima di tutto, bisogna chiarire alcuni aspetti importanti. Come mostrato anche da un paper della NATO Science and Technology Organization, si tende infatti a fare confusione tra gli impieghi degli algoritmi predittivi (che analizzano dati per individuare schemi, classificare eventi e stimare probabilità future) e quelli invece generativi (capaci di generare probabilisticamente testo, immagini, video o altro). I large language model non possono riconoscere automaticamente i bersagli, non guidano i missili o i droni, non raccolgono informazioni, non analizzano direttamente i dati dei sensori e non eseguono autonomamente azioni nel mondo reale. La capacità fondamentale di ChatGPT e dei suoi compagni è infatti (provare a) comprendere, elaborare e generare il linguaggio umano sulla base del dataset testuale su cui sono stati addestrati. Sul campo di battaglia, il grosso del lavoro sporco lo svolgono quindi i sistemi basati su algoritmi predittivi. Due dei casi più (tristemente) noti sono quelli relativi alle piattaforme di intelligenza artificiale massicciamente impiegate dall’esercito israeliano durante l’invasione di Gaza: The Gospel e Lavender. The Gospel analizza direttamente i dati raccolti tramite intelligence e sorveglianza per identificare obiettivi infrastrutturali – edifici, tunnel, depositi – che vengono poi colpiti dall’esercito. Secondo l’ex capo dell’IDF Aviv Kochavi, questo sistema è in grado di individuare fino a 100 bersagli al giorno: “Per dare una prospettiva”, ha spiegato Kochavi, “in passato ottenevamo 50 obiettivi all’anno”. Lavender è invece un sistema statistico che assegna a ogni individuo presente nella Striscia di Gaza un punteggio relativo alla probabilità di appartenenza a gruppi armati, elaborando dati provenienti anche in questo caso da intelligence e sorveglianza, oltre a segnali comportamentali e indicatori demografici. Secondo le inchieste del magazine israeliano +972, nel corso del conflitto Lavender ha identificato – con un margine di errore accettato del 10% – circa 37mila palestinesi come potenziali bersagli. Per quanto invece riguarda gli Stati Uniti (e la NATO), il più diffuso sistema di supporto decisionale (DSS, decision support system) è il Maven Smart System. Sviluppato a partire dal 2017 da Palantir – subentrata dopo il passo indietro di Google, che al tempo aveva rinunciato in seguito alle proteste dei dipendenti – in collaborazione con Amazon (che fornisce in appoggio la piattaforma cloud AWS), una prima versione di Maven è stata impiegata nel 2021 durante il ritiro statunitense dall’Afghanistan. Successivamente è stato utilizzato in supporto a Israele durante l’invasione di Gaza ed è fino a oggi stato impiegato anche per gli attacchi contro l’Iran. A differenza di The Gospel, Maven non è solo un sistema di AI assisted targeting, ma una piattaforma di comando e controllo che offre anche “consapevolezza situazionale in tempo reale” — ovvero una rappresentazione di ciò che accade sul terreno, comprese posizioni delle forze amiche e nemiche, asset disponibili e minacce attive — e supporto alla pianificazione operativa: dalla generazione e valutazione delle azioni potenziali alla stesura di elementi utili per gli ordini operativi. Secondo gli stessi funzionari della NATO, che hanno siglato nel 2025 un contratto con Palantir per il suo utilizzo, Maven fornisce ai comandanti delle “abilità in stile videogioco” di supervisionare ciò che avviene sul campo di battaglia. CHE COSA FANNO I MODELLI LINGUISTICI E allora i large language model? Prima di vedere i loro usi più avanzati e il modo in cui Claude prima e ChatGPT poi (dopo lo scontro tra Anthropic e il Pentagono) stanno venendo integrati in Maven e in altri sistemi bellici, partiamo dagli impieghi più semplici. In modo non dissimile dai suoi utilizzi civili – ma sfruttando delle versioni appositamente ottimizzate – i modelli linguistici vengono impiegati dagli eserciti per riassumere i manuali operativi, i rapporti delle missioni, i briefing dell’intelligence e altro ancora. Viceversa, possono essere utilizzati anche per generare, a partire dalle indicazioni dei soldati, rapporti, traduzioni, trascrizioni e documentazione di vario tipo. Durante le esercitazioni, questi sistemi possono anche contribuire alla generazione di scenari bellici; mentre nell’ambito della medicina militare, gli LLM vengono utilizzati per sintetizzare cartelle cliniche e storia medica dei pazienti, consentendo ai medici di campo un accesso rapido alle informazioni essenziali. Possono inoltre essere usati – in maniera simile al “civile” Claude for Healthcare – come strumenti di supporto decisionale, in grado di confrontare opzioni terapeutiche e assistere i medici nelle loro valutazioni. Nei casi più avanzati, bisogna invece immaginare l’impiego bellico di Claude o ChatGPT come una “interfaccia conversazionale” integrata, per esempio, in Maven Smart System, che permette agli utenti di interpretare più facilmente le informazioni provenienti dalle piattaforme di supporto decisionale. Messa così, può sembrare una cosa da poco. In realtà – come scrive James O’Donnell sulla MIT Tech Review – “è difficile sopravvalutare tutto ciò: l’intelligenza artificiale già da tempo svolge compiti di analisi per i militari, estraendo informazioni utili da un oceano di dati”. Oltre a permettere di navigarli sfruttando il linguaggio naturale e ricevendo risposte immediatamente comprensibili, “l’uso dell’AI generativa permette di ottenere consigli su quale azione intraprendere sul campo, una funzione che sta venendo testata sul serio per la prima volta in Iran”. Il large language model viene quindi integrato nelle piattaforme predittive per rendere più facilmente comprensibile la complessità delle informazioni da essi ricavate: “Una possibile applicazione potrebbe consistere nell’assistere i comandanti militari nel prendere la decisione giusta alla velocità richiesta, supportando lo staff nello sviluppo, nella valutazione e nella raccomandazione delle opzioni operative disponibili (Courses of Action, COA)”, si legge sulla rivista del Joint Air Power Competence Centre (un centro di ricerca della NATO). “Gli LLM potrebbero inoltre aiutare l’operatore umano nell’analisi e nella valutazione dei dati in tempo reale, accorciando così il ciclo operativo e fornendo un vantaggio decisivo sul campo di battaglia”. Per fare un (teorico) esempio concreto, possiamo immaginare il seguente scenario: durante un conflitto, i sistemi predittivi rilevano un’anomalia termica in un complesso industriale nemico, i sensori intercettano un picco di comunicazioni crittografate nella stessa area e un drone cattura immagini di veicoli classificati come lanciatori missilistici mobili. Il modello linguistico integrato nella piattaforma di comando incrocia questi dati, provenienti da tre sistemi diversi, con i rapporti di intelligence ricevuti nelle settimane precedenti. In questo modo, individua che lo stesso sito era già stato segnalato come possibile deposito e che il pattern delle comunicazioni somiglia a quelli osservati prima di lanci precedenti. In pochi minuti — anziché nelle ore che servirebbero a un team di analisti — genera un briefing sintetico con tre possibili azioni: attacco, sorveglianza intensificata, richiesta di conferma. Il comandante lo legge, interroga il sistema su ulteriori aspetti specifici e decide il da farsi. In sintesi, Maven unisce i dati provenienti da satelliti, droni, report di intelligence e segnali radar. Claude o ChatGPT, integrati nella stessa piattaforma, analizzano questi dati, li rendono consultabili in linguaggio naturale e possono fornire suggerimenti sull’azione da intraprendere o la forza da impiegare. Nel corso degli attacchi in Iran, scrive il Washington Post, “Maven ha suggerito centinaia di obiettivi, fornito coordinate di localizzazione precise e dato priorità a questi obiettivi in base alla loro importanza. L’integrazione tra Maven e Claude ha creato uno strumento che sta accelerando il ritmo della campagna, riducendo la capacità dell’Iran di contrattaccare e trasformando una pianificazione delle operazioni che richiedeva settimane in operazioni in tempo reale”. Uno studio della Georgetown University ha invece analizzato i modi in cui il 18° Airborne Corps dell’esercito statunitense utilizza Maven e Claude, concludendo, tra le altre cose, che consente di fare con una squadra di 20 persone ciò che prima ne avrebbe richieste duemila. Nel 2024 è stata poi siglata una collaborazione tra Anduril – startup che produce armi autonome e semiautonome,  come il drone Altius-600M, l’aereo da guerra autonomo Fury e il sottomarino da battaglia Dive-LD – e OpenAI. Come si legge ancora sulla MIT Tech Review, “Anduril addestra da tempo i propri modelli di intelligenza artificiale per analizzare riprese video e dati dei sensori al fine di identificare le minacce. Ciò su cui si concentra meno sono invece i sistemi di AI conversazionale che consentono ai soldati di interrogare direttamente questi sistemi o ricevere indicazioni in linguaggio naturale. Ed è in questo spazio che i modelli di OpenAI potrebbero inserirsi”. Qualcosa si muove anche in Europa, dove la francese Mistral AI ha siglato alla fine del 2025 un accordo quadro triennale con il ministero delle Forze Armate di Parigi per integrare i propri modelli linguistici nelle operazioni di esercito, marina e aviazione, oltre che in enti strategici come il commissariato per l’energia atomica e il centro di ricerca aerospaziale ONERA. Gli impieghi previsti sono simili a quelli statunitensi: analisi documentale, traduzione, redazione di briefing, supporto decisionale. In questo caso, Mistral sfrutta esclusivamente l’infrastruttura informatica francese, al riparo dai potenziali sguardi indiscreti del cloud statunitense. LE CRITICITÀ DELL’AI IN GUERRA In sintesi, i modelli linguistici impiegati in ambito militare sono complementari ai modelli predittivi e spesso integrati nelle stesse piattaforme, permettendo, tra le altre cose, di analizzare con maggiore facilità e rapidità la grande mole di dati raccolta ed elaborata dai sistemi di supporto decisionale. Che cosa succede, però, quando l’obiettivo principale per il quale si sfruttano questi sistemi di “supporto decisionale” – in cui quindi l’ultima parola spetta agli esseri umani – è aumentare al massimo la velocità con cui si opta per una particolare strategia o si reagisce a uno scenario inatteso? “Avevo a disposizione 20 secondi per ciascun bersaglio, valutandone dozzine ogni giorno”, ha raccontato al Guardian un soldato israeliano che utilizzava Lavender. “Non avevo nessun valore aggiunto come essere umano, se non il fatto di apporre il timbro di approvazione”. Nel momento in cui la velocità diventa l’imperativo fondamentale, l’essere umano è quasi d’intralcio alla macchina, che quindi da sistema di supporto decisionale rischia di diventare il “sistema decisionale”, mentre i soldati e gli ufficiali si limitano a certificare la loro approvazione alle decisioni prese dalla macchina. Una situazione che è ulteriormente esacerbata dall’integrazione dei modelli linguistici: “Mentre l’interfaccia di Maven costringe gli utenti a ispezionare e interpretare direttamente i dati presenti sulla mappa, i risultati forniti dai modelli generativi sono più semplici da ottenere ma più difficili da verificare”, scrive ancora James O’Donnell. “Il cambio di paradigma cruciale è che l’AI permette all’esercito statunitense di individuare bersagli alla velocità della macchina invece che a quella umana”, ha spiegato, parlando con il Washington Post, Paule Scharre, vicepresidente del Center for a New American Security. “Il lato negativo è che l’intelligenza artificiale sbaglia e abbiamo bisogno di esseri umani per controllare i suoi output, soprattutto quando ci sono in ballo delle vite”.   Il controllo umano è però tanto indispensabile quanto problematico. Prima di tutto perché, inevitabilmente, riduce la velocità, ma anche perché la capacità degli esseri umani di supervisionare, correggere o ignorare le decisioni della macchina è regolarmente sovrastimata. Le ragioni sono varie e in parte già note: uno studio pubblicato di recente dalla Wharton School definisce “resa cognitiva” il fenomeno per cui gli utenti dei modelli linguistici tendono a dedicare sempre meno tempo alla verifica dei risultati. È una sorta di versione ancora più insidiosa del noto “automation bias”, secondo cui le persone si fidano del giudizio della macchina a causa della patina di oggettività che circonda (erroneamente) questi strumenti statistici e del modo in cui le loro capacità vengono magnificate senza essere adeguatamente problematizzate. Un altro elemento che sta emergendo è quello del de-skilling causato dalla necessità di prendere decisioni sempre più rapide, che spinge a delegare un numero crescente di responsabilità decisionali alla macchina: “Stiamo riducendo le nostre stesse abilità”, ha spiegato Elke Schwarz, docente del dipartimento di Studi bellici dell’Università di Londra. “I comandanti stanno diventando sempre meno abili a identificare ciò di cui sono responsabili in un campo di battaglia”.   Tutto ciò è ulteriormente complicato dalla tendenza di questi sistemi – ormai accertata e anche ammessa dagli stessi sviluppatori – a dare ragione agli utenti con troppa facilità (fenomeno chiamato AI Sycophancy). Per certi versi, è il contrario dell’automation bias: se nel primo caso sono gli umani che si fidano troppo della macchina, in questo caso sono le macchine che tendono a confermare ciò che gli umani vogliono sentirsi dire, con il rischio che, sul campo di battaglia, i soldati sfruttino questi sistemi, magari inconsapevolmente, per ottenere una conferma di decisioni già prese, indipendentemente dalla loro bontà. C’è poi il noto e ineliminabile problema delle allucinazioni (quando un sistema di intelligenza artificiale presenta come se fosse certa un’informazione invece sbagliata o completamente inventata), che potrebbero annidarsi in ogni sintesi di report, documento generato a partire dai dati o traduzione. Criticità che diventa ancora più allarmante se combinata alla tendenza dei modelli generativi, recentemente osservata, a prediligere nelle simulazioni l’escalation bellica rispetto a soluzioni più caute. E questo senza nemmeno aver aperto il fondamentale capitolo dell’etica, della responsabilità (e tracciabilità) decisionale e della trasparenza, soprattutto considerando che – come riporta l’Independent – l’esercito statunitense non tiene traccia del ruolo giocato dall’AI nei singoli attacchi. “Uno stato ha la responsabilità di sapere se l’intelligenza artificiale è stata impiegata in uno qualsiasi dei suoi attacchi”, ha affermato Jessica Dorsey, professoressa di diritto internazionale dell’Università di Utrecht. “I comandanti dovrebbero avere accesso alle informazioni di intelligence su cui si basano i loro attacchi”. Da questo punto di vista, un recente e tragico episodio avvenuto agli inizi dei bombardamenti sull’Iran riassume perfettamente quanto ciò possa essere problematico. Un numero schiacciante di prove indica che gli Stati Uniti siano responsabili dell’attacco alla scuola di Minab, in Iran, in cui hanno perso la vita 175 persone, la maggior parte delle quali studentesse. Attacco che potrebbe essere stato condotto a causa di dati di intelligence obsoleti, risalenti a quando il sito faceva effettivamente parte di una base navale adiacente delle Guardie Rivoluzionarie iraniane. Considerando che Maven ha generato oltre mille opzioni di attacco solo nelle prime 24 ore, viene da porsi una domanda: e se l’errore fosse stato causato da una decisione sbagliata dell’intelligenza artificiale (come tra l’altro sospettato), magari a causa di un “pacchetto di bersagli” obsoleto ma che l’AI ha riciclato presentandolo in maniera convincente? Oppure se, più semplicemente, la quantità di bersagli individuati in un tempo rapidissimo non avesse dato ai militari il tempo necessario a verificare che fossero quelli giusti? L’intelligenza artificiale potrebbe non essere responsabile di questa strage, ma di sicuro sta rendendo più complesso risalire la catena delle responsabilità. Tutti questi rischi e queste criticità vengono sollevate da anni dalle organizzazioni che chiedono di vietare – o almeno regolamentare rigidamente, a livello internazionale – l’impiego dell’intelligenza artificiale in ambito bellico. Quel treno, ormai, sembra però essere passato. L'articolo Che cosa fa l’intelligenza artificiale in guerra proviene da Guerre di Rete.
April 8, 2026
Guerre di Rete
L’impero nascosto di Google mostra le debolezze dell’antitrust
Immagine in evidenza rielaborata con AI Il 10 febbraio scorso la Commissione Europea ha approvato senza condizioni l’acquisizione di Wiz da parte di Google, conclusa poi a marzo per un valore di 32 miliardi di dollari. Wiz è un’azienda israelo-americana fondata nel 2020: opera nel settore della cybersecurity e ha sviluppato una piattaforma che consente alle aziende di monitorare e proteggere le proprie “superfici di attacco” sul cloud. Tra i suoi clienti ci sono i servizi cloud di molte grandi aziende globali. Teresa Ribera Rodriguez, commissaria europea per la concorrenza, ha dichiarato in una nota ufficiale che “Google si posiziona dietro ad Amazon e Microsoft in termini di quote di mercato nelle infrastrutture cloud e la nostra valutazione ha confermato che i clienti continueranno ad avere alternative valide e la possibilità di cambiare fornitore”. In termini di concorrenza e rischio di monopolio del mercato, quindi, nulla osta all’acquisizione da parte dell’azienda di Mountain View.  Ma è davvero così? Una recente analisi pubblicata a novembre su ArXiv.org suggerisce che in realtà gli organi di controllo antitrust non siano riusciti a intercettare la vera portata dell’influenza di Google nel settore digitale globale, permettendo all’azienda americana di costituire quello che i tre autori definiscono “l’impero nascosto di Google”.  Secondo gli autori – Aline Blankertz, Brianna Rock e Nicholas Shaxson – oggi Google “ha accumulato un impero di oltre seimila aziende che ha acquisito, supportato o in cui ha investito, nell’economia digitale e non solo”. Tutto ciò sarebbe stato possibile per una concomitanza di fattori, a cominciare dalla strategia di Google di sfruttare investimenti di minoranza nelle società che sfuggono agli organi di controllo e dalle prospettive troppo stringenti che le stesse autorità antitrust adottano nel giudicare gli investimenti e le acquisizioni. GOOGLE CONTROLLA OLTRE 6000 AZIENDE La base di dati principale usata nello studio proviene da PitchBook, un’azienda specializzata nel fornire dati sui movimenti di capitale tra aziende. A questa, i tre autori hanno aggiunto ulteriori ricerche, includendo anche altre aziende della galassia Google (DeepMind, YouTube, Google Ventures, Google for Startups e altre) e un’ulteriore analisi delle informazioni fatte circolare dall’agenzia di stampa Bloomberg. Dai dati risulta che negli ultimi 15 anni Google ha costruito la sua rete di influenza – che, come detto, coinvolge migliaia di aziende digitali – a livello globale. Questa circostanza mette Google in una posizione di netto vantaggio rispetto alle altre Big Tech digitali e, come ha commentato un’autrice dello studio, l’economista tedesca specializzata in piattaforme digitali Aline Blankertz a Guerre di Rete via email, rappresenta “un’enorme concentrazione di potere”. La differenza rispetto a situazioni simili che si sono verificate, per esempio, nel settore finanziario, “sta nel fatto che Google esercita un’influenza molto diretta sui tipi di tecnologie da sviluppare, che sono solo quelle che avvantaggiano il suo modello di business”, continua Blankertz. “Questo le consente di permeare un numero ancora maggiore di ambiti della vita [delle persone] senza dover rendere conto della propria influenza, poiché tali investimenti non sono soggetti ad alcun tipo di supervisione”. Nel suo database, PitchBook distingue, infatti, tra “acquisizione”, cioè la presa del controllo di un’azienda da parte di un’altra attraverso l’acquisto di quote di capitale, e gli “investimenti”, in cui l’acquisto di capitale dà invece diritto a una percentuale inferiore al 15% nei diritti di voto all’interno dei consigli di amministrazione. Seguendo questa distinzione, gli autori hanno analizzato il comportamento di Google tra il 2010 e il 2024. I dati raccontano un incremento della strategia di investimento e una progressiva diminuzione delle acquisizioni e delle fusioni nello stesso periodo.  Un altro fattore importante è che non tutte le aziende in cui Google investe sono nello stesso settore, pur facendo comunque parte del mondo della tecnologia digitale. Ciò consente a Google di esercitare un controllo che non è verticale, ma più simile a un “controllo ecosistemico”, restando però sotto il radar delle autorità di controllo. Delle quasi 6000 aziende in cui ha investito rimanendo sotto la soglia fatidica del 15% dei diritti di voto in CdA, molte sono state sostenute da Google non solo attraverso capitale, ma anche risorse: crediti cloud, mentoring, accesso all’ecosistema. Il risultato è una forma di “controllo senza proprietà”: Google non possiede le startup, ma ne orienta le tecnologie e i modelli di business. E mentre queste si appoggiano sempre più alla sua infrastruttura, finiscono per rafforzarne la posizione sul mercato. Poiché l’antitrust si concentra soprattutto su fusioni e acquisizioni, questa rete di investimenti sfugge in gran parte ai controlli. Così facendo, l’influenza di Google sull’economia digitale mondiale si sarebbe espansa grandemente senza incontrare ostacoli. IL CASO DI DOUBLECLICK All’interno della strategia di Google, le acquisizioni continuano comunque ad avere un peso importante, nonostante il loro numero ridotto negli anni. Non tanto per l’acquisizione diretta di fette di mercato in settori vicini, ma soprattutto per l’integrazione tecnologica. Per spiegare meglio come funzioni, gli autori dell’analisi descrivono il caso di studio dell’acquisizione di DoubleClick avvenuta nel 2007.  DoubleClick era un’azienda americana nata nel 1995 e specializzata nei servizi di pubblicità online. I regolatori americani ed europei che dovevano esprimere un parere sull’acquisizione non individuarono problemi perché ritenevano che Google non avesse abbastanza potere sul mercato e la competizione sarebbe rimasta alta.  In particolare, la Federal Trade Commission statunitense (FTC), respinse “la preoccupazione che Google potesse integrare la propria offerta di pubblicità online con il software di DoubleClick, discriminando così la concorrenza”, perché non sarebbe stata una scelta economicamente vantaggiosa. Eppure è esattamente quello che è successo. Google ha progressivamente integrato DoubleClick nel proprio ecosistema pubblicitario, diventando l’attore dominante dell’intero panorama della pubblicità digitale. Con il paradosso che negli anni successivi le autorità hanno accusato Google di favoritismo e condotta anticoncorrenziale, con pesanti sanzioni dell’antitrust. Secondo Blankertz e gli altri autori, la lezione da portare a casa da questo “peccato originale” è che gli enti regolatori sottostimano l’integrazione verticale. Concentrandosi sul lato economico delle acquisizioni, le autorità si preoccupano soprattutto delle “acquisizioni orizzontali”, cioè aziende simili che operano nello stesso settore di mercato e che, fondendosi, ne potrebbero controllare una fetta troppo grossa, penalizzando la concorrenza.  Le “acquisizioni verticali” sono invece quelle che prevedono di acquisire un fornitore, un cliente o un soggetto di un altro anello della catena di approvvigionamento. Per capire meglio la differenza, nell’articolo viene fatto un esempio relativo al settore agricolo: “L’acquisizione di un altro produttore di pesticidi da parte di un produttore di pesticidi potrebbe sollevare preoccupazioni di natura orizzontale, mentre l’acquisizione di un produttore di semi di soia e mais da parte di un produttore di pesticidi solleverebbe preoccupazioni di natura verticale”. In questo secondo tipo ricade anche l’acquisizione di DoubleClick da parte di Google, che, di fatto, ne ha acquisito la tecnologia integrandola nel proprio ecosistema. IL CASO FITBIT Acquisire una tecnologia entrando in società con un’altra azienda è il tema anche dell’altro caso di studio presentato, quello relativo all’acquisizione di FitBit nel 2020. FitBit era un’azienda che operava acquisendo dati relativi alla salute dei clienti e monitorando le loro abitudini.  Seppure con alcune riserve, sia la Commissione Europea che l’FTC hanno approvato l’operazione, a patto che Google si impegnasse a prevenire un uso improprio dei dati sulla salute dei clienti e che si impegnasse a garantire una competizione equa nel mercato. Gli enti regolatori erano preoccupati che Google potesse utilizzare i dati sensibili di FitBit relativi alla salute e al fitness per rafforzare la propria posizione dominante nella pubblicità online, limitare l’accesso dei concorrenti ai dati o al software e sfruttare il proprio ecosistema Android nel mercato dei dispositivi indossabili.  Google ha accettato senza troppi problemi le indicazioni, perché quelle preoccupazioni erano lontane dal toccare il suo vero interesse strategico. Google sembra infatti aver consentito il declino di FitBit, come dimostrano il calo degli utenti, la riduzione delle vendite e la minore rilevanza del prodotto. Nel frattempo, ha spostato l’attenzione sui propri dispositivi e partnership, come il Pixel Watch e le collaborazioni con Samsung nel settore dei dispositivi mobile. Questo risultato suggerisce che l’acquisizione potrebbe aver funzionato come una “killer acquisition”, neutralizzando un potenziale concorrente anziché rafforzarlo. Il problema, quindi, è che se i regolatori si concentrano solamente sui risvolti di economia “classica” delle acquisizioni e delle fusioni, possono completamente perdere di vista la reale strategia tecnologica che sottostà alle operazioni finanziarie. IL RUOLO DELLA POLITICA E DELLA POLICY Attraverso questo “impero nascosto”, avvertono gli autori dello studio, Google si trova in una posizione dominante per indirizzare lo sviluppo della tecnologia del prossimo futuro. Ovviamente, cercando di spingerla verso una direzione che sia il più profittevole possibile per sé stessa. Ma c’è uno spostamento importante che viene rilevato. Fino a pochi anni fa, Google provava ad assumere una posizione dominante nel mercato grazie al suo peso in termini economici. Oggi, dopo lo spostamento di strategia descritto, Google starebbe cercando di aumentare la propria rilevanza attraverso un posizionamento strategico in settori chiave, come per esempio quelli dell’AI, dell’infrastruttura della cybersecurity e del cloud. Tutti centrali anche nell’acquisizione appena confermata di Wiz. Inoltre, Google sta acquisendo ancora più centralità attraverso una relazione sempre più stretta con gli uffici governativi americani. L’attività di lobbying presso il governo americano è tale per cui, scrivono gli analisti nel paper, “Google presenta le proprie tecnologie cloud e di intelligenza artificiale come indispensabili per affermarsi a livello geopolitico. Questo crea una situazione in cui il governo potrebbe sentirsi in dovere di soprassedere su alcuni dubbi relativi all’espansione di Google e, al contrario, impiegare le proprie risorse per rafforzare l’azienda, invece che controllarla e limitarla”. In questo senso, “l’acquisizione di Wiz può essere considerata un caso di studio per questa dinamica emergente”. E che sembra rappresentare il nuovo paradigma in cui è intenzionata a operare Google. Si può intervenire in termini di policy, magari provando a limitare questo tipo di operazioni da parte di un attore del mercato? Aline Blankertz non nasconde il suo pessimismo: “Il problema è che siamo troppo in ritardo. Se vogliamo creare un mercato in cui le aziende europee possano competere nel settore digitale e in cui i governi possano contare su un’infrastruttura digitale sicura, dobbiamo prendere in considerazione interventi efficaci come lo smembramento delle imprese”. Come a dire: non essendo riusciti a prevenire questa situazione, adesso si dovrebbe rompere un sistema già consolidato. Non sarà facile. L'articolo L’impero nascosto di Google mostra le debolezze dell’antitrust proviene da Guerre di Rete.
April 1, 2026
Guerre di Rete
Sovranità satellitare
Immagine in evidenza rielaborata con AI Lo scorso 4 febbraio 2026, un report del Financial Times ha acceso i riflettori sulle attività di spionaggio da parte dei russi ai danni di alcuni satelliti europei. La denuncia, resa nel corso di un’intervista dal generale di divisione Luftwaffe della Bundeswehr tedesca Michael Traut, riguarda operazioni che hanno portato due satelliti russi di classe Luch-1 e Luch-2 a posizionarsi nelle vicinanze di quelli europei, con il possibile obiettivo di intercettare i dati trasmessi o, addirittura, di avviare attività che potrebbero portare al sabotaggio dei satelliti stessi. Stando a quanto riporta il quotidiano, attività di questo tipo non sono una novità. Nel nuovo contesto geopolitico, l’attenzione per la sicurezza delle infrastrutture di telecomunicazione satellitari è però cresciuta enormemente e a contribuirvi è stata sia la centralità di questi sistemi emersa nel conflitto russo-ucraino, sia le tensioni nei rapporti tra Stati Uniti ed Europa, che hanno messo in luce la pericolosa dipendenza del vecchio continente dalle infrastrutture USA.  NON È SOLO UNA QUESTIONE DI SICUREZZA La rinnovata attenzione per il ruolo delle costellazioni satellitari in orbita intorno al pianeta non ha soltanto motivazioni legate al settore militare, e il riferimento al concetto di “guerra ibrida” nel caso delle operazioni russe lo conferma. I satelliti interessati sono infatti di tipo “dual use”, hanno cioè funzioni sia legate alle comunicazioni militari, sia a quelle civili.  Le conseguenze di un’eventuale azione di spionaggio o sabotaggio avrebbe conseguenze su entrambi i piani e non è detto che quello militare sia necessariamente il più sensibile. Oltre alla gestione delle telecomunicazioni, i satelliti forniscono infatti servizi critici anche in altri settori. I satelliti dedicati alla geolocalizzazione, per esempio, rappresentano un’infrastruttura fondamentale per la gestione del traffico aereo civile, ma non solo. Gli orologi atomici – impiegati per calcolare la posizione esatta di velivoli, battelli e semplici dispositivi commerciali come navigatori e smartphone – vengono infatti utilizzati anche da molti istituti di credito per certificare la data e ora esatta delle transazioni finanziarie. Un eventuale black out dei sistemi di localizzazione satellitare provocherebbe, quindi, anche il blocco di una parte del sistema bancario. Lo stesso vale per le reti telefoniche mobili e numerosi altri servizi. Un discorso simile vale per le reti di comunicazione satellitari, che rappresentano il principale backup delle infrastrutture terrestri. È infatti sempre il caso della guerra russo-ucraina ad aver acceso i riflettori sull’importanza di poter contare su un sistema che sia in grado di garantire le comunicazioni in caso di conflitto.  LO STATO DELL’ARTE DEL SISTEMA DI GEOLOCALIZZAZIONE Per quanto riguarda la geolocalizzazione basata su satelliti (GNSS – Global Navigation Satellite System), l’Europa può fare affidamento sulla collaudata ed efficiente costellazione Galileo, composta da oltre 24 satelliti operativi e perfettamente sovrapponibile ai sistemi statunitense (GPS), russo (GLONASS) e cinese (BeiDou). Le quattro reti sono liberamente accessibili da chiunque per usi civili e forniscono anche servizi criptati per usi governativi e militari.  In termini di sovranità, l’Europa può quindi considerarsi “coperta”. Come le costellazioni concorrenti, Galileo è in costante aggiornamento (l’ultimo lancio di satelliti è stato effettuato lo scorso 17 dicembre 2025) e può contare sulla sinergia con EGNOS (European Geostationary Navigation Overlay Service). Quest’ultimo è un sistema basato su satelliti geostazionari che fornisce un servizio di correzione dei dati per sistemi come Galileo e GPS, assicurando una maggiore precisione.  A differenza delle controparti statunitensi, russe e cinesi, Galileo è gestito da un soggetto civile: l’Agenzia per il Programma Spaziale Europeo (EUSPA). Lo sviluppo e l’ingegnerizzazione dei satelliti è invece affidato all’Agenzia Spaziale Europea (ESA). Sotto questo aspetto, i paesi europei possono quindi dormire sonni relativamente tranquilli. Anche nell’ipotesi di un’eventuale balcanizzazione dei servizi legata a conflitti o tensioni geopolitiche, il vecchio continente avrebbe comunque a disposizione un GNSS autonomo e affidabile. Ulteriore tassello è quello della sovranità tecnologica che caratterizza il progetto. Sotto l’aspetto della componentistica hardware, software e di integrazione, l’Europa riveste infatti un ruolo di primo piano con una partecipazione al mercato GNSS del 25%, seconda solo a quella degli Stati Uniti (30%). Nella progettazione e produzione dei satelliti della costellazione Galileo, ESA si allinea al concetto di European first, ricorrendo cioè a tecnologie per quanto possibile “nostrane”. IL TASTO DOLENTE DELLE COMUNICAZIONI STRATEGICHE Dove l’Europa sconta un ritardo importante è nel settore delle comunicazioni satellitari. Parlare di un vero e proprio “sistema satellitare europeo” in senso stretto, a oggi, rischia addirittura di essere fuorviante. Le costellazioni che fanno riferimento all’Agenzia Spaziale Europea (ESA) sono solo il già citato Galileo e Copernicus, dedicato all’osservazione del pianeta con obiettivi scientifici. Per il settore delle comunicazioni, i governi europei fanno invece affidamento su progetti nazionali o cooperazioni che coinvolgono altre nazioni del vecchio continente, ma non tutta l’Unione Europea. Soprattutto nel settore della difesa, per il momento vige una forma di “autarchia” con satelliti prodotti e gestiti dai singoli paesi e che vede tra i più attivi Francia, Germania, Italia e Spagna. Le cose, però, potrebbero cambiare rapidamente. L’iniziativa che mira a unificare questo quadro frammentato è GOVSATCOM, un progetto avviato nel 2026 e che ha l’obiettivo di “mettere in rete” i satelliti esistenti, aprendo l’accesso ai servizi di comunicazione a tutti i paesi europei. L’operazione dovrebbe coinvolgere la rete Syracuse francese, l’italiana SICRAL e la spagnola Spainsat NG. Si tratta però di satelliti in orbita geostazionaria a quota elevata (GEO), che permettono di ottenere una grande copertura ma scontano limiti a livello di banda e di latenza.  Insomma: questo tipo di reti può permettere di sostenere comunicazioni governative e in situazioni di emergenza come guerre o calamità naturali, ma non può rappresentare un’alternativa credibile come backup delle strutture terrestri. Anche il prossimo lancio dei due satelliti SICRAL 3, affidato a una partnership italo-francese, non cambierà di molto la situazione.  La nuova frontiera è infatti quella delle costellazioni satellitari Low Earth Orbit (LEO) sul modello di Starlink, che detiene un’indiscussa supremazia nel settore con 9.800 satelliti. L’unica considerabile come “europea” è OneWeb, rete controllata dalla francese Eutelsat, che conta circa 600 satelliti a bassa orbita. Non è un caso che, come ha riportato l’Espresso nel gennaio 2025, l’ambasciata italiana a Teheran abbia utilizzato Starlink per garantirsi l’accesso a Internet aggirando le restrizioni messe in atto dal governo iraniano alla vigilia dell’attacco israeliano-statunitense.  Il cambio di passo per l’Europa nel settore dovrebbe avvenire con Iris2, la rete satellitare la cui operatività era stata originariamente programmata per il 2030 e alla quale l’Unione ha recentemente impresso un’accelerazione.  COME L’UE STA PREPARANDO IL TERRENO PER IRIS2 Nonostante il ritardo rispetto ad altri progetti del genere, Iris2 promette di offrire una rete di comunicazione indipendente e, soprattutto, tecnologicamente avanzata. Il progetto, nella sua ultima evoluzione, ha imboccato con decisione la via della sovranità tecnologica. Prevede infatti l’utilizzo di tecnologie e componenti di produzione esclusivamente europea, con investimenti a bilancio di 2,4 miliardi di euro. Altri capitali, nelle intenzioni della Commissione, dovrebbero arrivare dalle partnership con soggetti privati. Dal punto di vista tecnologico, prevede l’implementazione di crittografia di nuova generazione e, in particolare, l’integrazione con una rete di comunicazione a uso governativo denominata Euro QCI, che sfrutta sistemi basati sulla fisica quantistica. La tecnologia alla base del sistema è la Quantum Key Distribution (QKD), sviluppata attraverso il progetto OPENQKD.  I 290 satelliti che comporranno Iris2 non avranno però un uso solo a scopo governativo o militare. Il progetto prevede infatti di fornire anche la connettività necessaria in ambiti commerciali come i trasporti, l’energia, il settore bancario, le attività industriali offshore, l’erogazione di servizi sanitari a distanza e la connettività rurale. La copertura prevista comprende l’Europa, la regione artica e l’Africa. In sostanza, Iris2 rappresenterebbe un’infrastruttura in grado di garantire l’indipendenza di tutte quelle attività “critiche” per i membri dell’Unione e non solo. Ai membri UE si aggiungerà infatti probabilmente anche la Norvegia, già coinvolta in altri programmi dell’ESA come Galileo e Copernicus. L'articolo Sovranità satellitare proviene da Guerre di Rete.
March 27, 2026
Guerre di Rete
Iran, Russia e non solo: l’architettura della repressione digitale
Immagine in evidenza rielaborata con AI Mentre il conflitto si estende in Iran, dal 28 febbraio le autorità della nazione mediorientale hanno attuato una nuova chiusura di internet, che segue quella avvenuta durante le proteste di gennaio e che sta lasciando circa 90 milioni di persone senza accesso alle comunicazioni. Secondo quanto riporta l’associazione di giornalismo investigativo Netblocks, il giorno in cui è scoppiata la guerra la connettività Internet in Iran è scesa al 4%, segnando l’inizio di un blackout che persiste tuttora e che ha ormai superato le 100 ore. Situazione blackout internet in Iran fino al 5 marzo: fonte Netblocks.org Questo blocco si sta verificando nel bel mezzo di un conflitto armato, rendendo estremamente difficoltosa la raccolta di informazioni da parte dei giornalisti all’estero e delle organizzazioni per i diritti umani. Ad oggi i dati mostrano che l’Iran sta attraversando una sospensione totale di Internet, con la connettività che si aggira intorno all’1%. Il blocco digitale di gennaio rimane però, al momento, il più sofisticato e devastante nella storia dell’Iran, superando anche quello del 2019, che all’epoca era stato descritto dagli esperti come il più grave mai affrontato dal paese. L’8 gennaio le persone si sono ritrovate nel giro di pochi minuti impossibilitate a chiamare o inviare messaggi, sia all’interno che all’esterno dell’Iran, con Internet e le linee telefoniche completamente interrotte. Questa misura è stata adottata dalle autorità iraniane per impedire la diffusione delle notizie sul massacro compiuto dalle forze di sicurezza in risposta alle numerose proteste contro il regime e per bloccare la possibilità di coordinamento delle rivolte (secondo il Time, solo tra l’8 e il 9 gennaio potrebbe essere state uccise dalle forze di sicurezza oltre 30mila persone). Questo shutdown ha segnato una svolta radicale nel livello di censura imposto dal governo iraniano. Secondo il report IRAN: 2026 Shutdown Technical Analysis, pubblicato da FilterWach, la disconnessione di gennaio non si è limitata a bloccare l’accesso ai siti stranieri e ai social media – com’era invece successo durante la sospensione digitale del 2022, nel corso delle manifestazioni di “Donna – Vita – Libertà” – ma ha interessato anche l’intranet nazionale iraniana NIN (National Information Network: una intranet statale ispirata al Great Firewall cinese e al RuNet russo, progettata per separare l’internet nazionale dalla rete globale), le SIM bianche (linee di telecomunicazione che eludono il sistema di filtraggio nazionale) e le linee telefoniche fisse.  Ciò ha impedito l’accesso a servizi essenziali come pagamenti, trasferimenti di denaro, piattaforme di lavoro, logistica e coordinamento sanitario, che erano invece rimasti attivi nel 2022. Questo blackout dunque è stato totale e ha interessato anche Starlink, colpito dal tentativo delle autorità iraniane di disabilitarlo, utilizzando disturbi di tipo militare diretti contro i satelliti. L’innalzamento di questo muro di censura riflette la paranoia e il timore del regime, convinto che il sistema della Repubblica islamica possa essere minacciato dalle comunicazioni tra i cittadini; di conseguenza persino delle semplici app di ridesharing o di shopping vengono considerate una potenziale minaccia.  Questa misura non è però stata priva di conseguenze per l’economia iraniana. Il 26 gennaio, il ministro delle Tecnologie dell’Informazione e della Comunicazione, Sattar Hashemi, ha comunicato che il blackout totale è costato all’economia nazionale circa 5mila miliardi di Toman al giorno. Per questo motivo, informa FilterWatch, verso metà gennaio le autorità iraniane hanno optato per l’attuazione del sistema di whitelist. DAL BLACKOUT ALLA WHITELIST Prima del blackout, i cittadini iraniani avevano bisogno di una VPN per accedere ad alcune piattaforme, siti web e app vietati e inseriti in una lista nera. Ora, con le “liste bianche”, l’approccio alla censura sembra capovolgersi, limitando ulteriormente ciò che può essere visibile e fruibile.  La whitelist è infatti un ambiente digitale restrittivo in cui l’accesso è consentito esclusivamente a un elenco predefinito e approvato di siti web, indirizzi IP o applicazioni. Tutto ciò che non è esplicitamente incluso nella lista viene bloccato. Tra le piattaforme e servizi internazionali che a metà gennaio sono stati “whitelisted”, ossia ripristinati, figurano: Google, Bing, Google Meet, Gmail, Outlook, Play Store, App Store, Apple, ChatGPT, GitHub e Google Maps. È bene però precisare che il segnale Internet non è uniforme in tutto il territorio iraniano e varia a seconda del fornitore. Per quanto riguarda i social media e le piattaforme di messaggistica, invece, Instagram, Telegram, YouTube, WhatsApp e X erano accessibili solo attraverso strumenti di elusione, presentando comunque caratteri di instabilità. L’eventualità di passare alle whitelist non è stata una decisione improvvisa, ma, al contrario, una scelta calcolata e annunciata con diverse ore di anticipo. Le analisi degli esperti di Kentik hanno dimostrato che già dalla mattina dell’8 gennaio le nuove rotte IPv6 – ovvero le informazioni che permettono a Internet di raggiungere gli indirizzi di rete – sono state ritirate, mentre la maggior parte delle vecchie rotte IPv4 è rimasta visibile all’esterno. Il mantenimento delle rotte IPv4 indica un cambiamento strategico, volto a esercitare un controllo più preciso. Questo potrebbe essere stato fatto, appunto, per limitare l’accesso esclusivamente a determinati servizi governativi selezionati attraverso whitelisting. Lo shutdown di gennaio però presenta un’altra caratteristica particolare. Oltre aver attivato le whitelist, il governo iraniano ha selezionato una serie di utenti autorizzati (media filogovernativi, università, centri di ricerca e aziende specifiche) consentendo loro una connettività limitata. A spiegare come funziona questo modello “di permessi” è stato il report di Zoomit, che ha preso come riferimento il suo uso all’interno della Camera di Commercio di Teheran.  In pratica, i commercianti sono stati obbligati a registrare fisicamente i loro biglietti da visita e gli indirizzi IP dei dispositivi, generando una “traccia digitale” che legava ogni attività a un’identità certificata. Questo processo consentiva alle autorità di sorvegliare e monitorare continuamente le azioni online dei commercianti, assicurando la tracciabilità delle operazioni per evitare attività non autorizzate o illegali. Tuttavia l’accesso a Internet risultava limitato a determinate aree fisiche dell’edificio. L’identificazione e il tracciamento presenti in questa pratica rientrano in una forma di autoritarismo digitale, confermando la natura repressiva del regime iraniano. OLTRE LA WHITELIST: IL CASO DELLA RUSSIA Il modello whitelist è diventato un potente strumento in mano ai regimi. Un altro paese che applica severe restrizioni per l’accesso a internet e dove sono state introdotte le “liste bianche” è la Russia. Esattamente come in Iran, anche in Russia le whitelist sono state adottate per limitare perdite economiche, oltre che per evitare reazioni negative da parte dei cittadini, permettendo alle persone di continuare ad accedere a piattaforme di shopping e social media.  Tuttavia, il 20 febbraio, il regime russo ha fatto un ulteriore passo in avanti in termini di censura: è stata infatti approvata una nuova misura legislativa che consentirebbe al Servizio di sicurezza federale (FSB) di bloccare Internet all’interno del paese. In pratica questa legge conferisce al presidente Vladimir Putin il potere di decidere personalmente quando le comunicazioni online dovrebbero essere interrotte, sia a livello nazionale che in specifiche regioni, comprese le zone occupate dell’Ucraina, senza dover fornire alcuna motivazione.  La legge elimina inoltre ogni responsabilità per i fornitori di servizi Internet. Questa è solo l’ultima di una serie di misure che hanno progressivamente limitato la libertà di informazione e rafforzato il controllo statale sui contenuti online. Sempre a febbraio, le autorità russe hanno infatti tentato di bloccare completamente WhatsApp, con l’obiettivo di promuovere il servizio di messaggistica Max, controllato e sostenuto dallo Stato. In Russia, come in Iran, per attuare tali provvedimenti si usa la giustificazione che rientrano all’interno di “misure per garantire la sicurezza nazionale” dovute a conflitti o minacce esterne. In realtà, dietro questa censura si cela, in maniera nemmeno troppo implicita, la volontà di eliminare e contenere il dissenso e allargare il controllo statale. INTERNET A 2 LIVELLI E APARTHEID DIGITALE  In Iran con il blackout di gennaio l’uso delle whitelist è diventato preponderante, quasi una via preferenziale. Questo modello è però incluso in un progetto statale iraniano ben più ampio e complesso, che affonda le sue radici in politiche di controllo digitale già in atto da tempo: “l’internet a 2 livelli”. Conosciuto con il nome di Internet-e-Tabaqati, appunto “internet a 2 livelli” o internet “basato su classi”, è stato ideato nel 2009, ma istituzionalizzato lo scorso luglio, quando il Consiglio Supremo del Cyberspazio dell’Iran lo ha approvato attraverso un regolamento.  In un paese come l’Iran, dove i diritti umani sono frequentemente violati, non sorprende che l’accesso a Internet sia stato quindi organizzato su base gerarchica, con il privilegio di connettersi riservato a chi appartiene a determinate classi sociali e/o professionali. Mentre la maggioranza dei cittadini viene confinata in una intranet controllata, la già citata NIN, l’accesso alla rete globale viene riservata esclusivamente a un’élite ristretta.  Senza mezzi termini si può dire che in Iran l’accesso a Internet non sia più considerato un diritto, ma un privilegio concesso dal governo. È all’interno di questa struttura che, da alcuni anni, agenzie di intelligence, operatori dei media statali, funzionari governativi, forze di sicurezza e un gruppo selezionato di individui favoriti dal regime, possono utilizzare le cosiddette “SIM bianche”, aggirando così la censura statale e accedendo a piattaforme altrimenti bloccate, quali Instagram, Telegram o WhatsApp. Questo meccanismo non solo amplifica la disuguaglianza, ma crea anche un sistema a due livelli di cittadinanza digitale, o per meglio dire di apartheid digitale. UGANDA E AFGHANISTAN, GLI ALTRI SHUTDOWN DIGITALI Mentre in Iran era in corso uno tra i più drammatici shutdown della storia, i cittadini ugandesi, pochi giorni dopo, il 13 gennaio, hanno iniziato a vivere un’esperienza simile di isolamento digitale. L’Uganda è un paese in cui, esattamente come in Iran, vige una forte repressione del dissenso; non stupisce quindi che, in concomitanza con le elezioni generali del 15 gennaio, la Commissione per le comunicazioni del governo ugandese abbia ordinato a tutti gli operatori di rete mobile e ai fornitori di servizi Internet di interrompere l’accesso pubblico alla rete nazionale, oltre che di disattivare le VPN, bloccare le chiamate internazionali in uscita dal paese e impedire l’attivazione di nuove SIM card.  Le autorità ugandesi hanno giustificato la censura citando il rischio di “disinformazione online”, “frodi elettorali” e la necessità di salvaguardare la stabilità nazionale.  Oltre alla militarizzazione dei seggi, i cittadini ugandesi sono stati impossibilitati a informarsi, comunicare e a lavorare. Il blocco digitale ha interrotto l’accesso a social media, navigazione web, streaming video, email e messaggistica, ma a differenza del blackout in Iran, i servizi essenziali come quelli sanitari, bancari, fiscali, pubblici e il portale elettorale sono rimasti attivi. Sul piano pratico questa misura ha causato enormi disagi, colpendo in particolare venditori e commercianti che utilizzano i social per promuoversi; ma anche giornalisti e insegnanti hanno subito danni: i primi non hanno potuto svolgere il loro lavoro, mentre i secondi non sono nemmeno riusciti a inviare appunti o compiti agli studenti, i quali a loro volta non hanno potuto partecipare alle lezioni online. Il blocco inoltre ha comportato un cambiamento radicale nello stile di vita di molte famiglie, che sono tornate a guardare la televisione per passare il tempo, seguendo programmi in diretta o acquistando vecchi film nei negozi. Lo shutdown è durato 5 giorni, nonostante ciò le metriche diffuse da Netblocks il 18 gennaio mostravano che l’accesso a numerose piattaforme di social media e messaggistica apparivano ancora inaccessibili.   Da quando i talebani sono ritornati al potere in Afghanistan, alle bambine con più di 12 anni è vietato ricevere qualsiasi tipo di istruzione e le lezioni online risultano perciò indispensabili. Per questo, il blackout di internet del 29 settembre 2025, e terminato il 1° ottobre, ha suscitato gravi preoccupazioni, poiché per le donne e le ragazze afghane ha comportato un ulteriore e drammatico isolamento. Già costrette a vivere ai margini della vita pubblica, con questa misura le donne e bambine hanno subito una doppia esclusione, sia fisica che digitale. I talebani non hanno spiegato ufficialmente la loro decisione, ma la chiusura è avvenuta poche settimane dopo che il gruppo islamista estremista aveva bloccato l’accesso alla rete in fibra ottica in diverse province, giustificando la misura con timori riguardo “all’immoralità”. Mentre dunque il paese cercava di risollevarsi da un devastante terremoto di magnitudo 6, il regime dei talebani ha deciso di attuare un blocco di internet: le conseguenze sono state devastanti con le comunicazioni di emergenza  interrotte, i voli bloccati, il sistema bancario paralizzato e l’impossibilità di accedere a siti di e-commerce e d’istruzione online, creando enormi difficoltà per tutta la popolazione. L'articolo Iran, Russia e non solo: l’architettura della repressione digitale proviene da Guerre di Rete.
March 5, 2026
Guerre di Rete
Assalto al trono di Nvidia
Immagine in evidenza: logo di Nvidia, immagine rielaborata con AI A prima vista, le cose per Nvidia non potrebbero andare meglio. Il colosso statunitense delle GPU detiene oggi il 92% di questo specifico settore e una quota pari al 70-75% del più complessivo mercato dei chip impiegati nell’ambito AI. Nel 2025, la società fondata da Jensen Huang ha messo a segno ricavi per circa 200 miliardi di dollari (oltre il doppio di quanto fatturato nell’anno precedente), ha ottenuto guadagni per 32 miliardi nel corso di un unico trimestre e può vantare al momento la maggiore capitalizzazione di mercato al mondo (4.600 miliardi di dollari, contro i 3.900 della seconda classificata Apple). Un dominio quasi inevitabile, per l’azienda che con le sue GPU – processori nati per l’elaborazione grafica dei videogiochi, ma che si sono dimostrati estremamente efficienti per l’addestramento e l’utilizzo dei sistemi d’intelligenza artificiale – ha reso possibile la rivoluzione del deep learning ed è oggi praticamente l’unica azienda in grado di guadagnare dal complicato, dal punto di vista economico, settore dell’AI generativa. Il ruolo di Nvidia è talmente centrale che, lo scorso novembre, gli occhi di tutti gli operatori finanziari erano puntati proprio sui suoi risultati trimestrali, perché si temeva che una crescita anche solo leggermente inferiore alle attese avrebbe fatto scoppiare la bolla dell’intelligenza artificiale (pericolo per il momento scongiurato o almeno rinviato). In questa fase, Nvidia può addirittura farsi carico dell’espansione infrastrutturale del settore dell’AI generativa, essendo diventata il fulcro di un complicatissimo meccanismo di prestiti e finanziamenti che ha ovviamente l’obiettivo finale di vendere un numero sempre maggiore di GPU. Nonostante alcuni inciampi (com’è il caso del promesso investimento in OpenAI, recentemente ritirato), questo meccanismo può essere sintetizzato così: Nvidia presta o investe capitale in startup e grandi sviluppatori di modelli, che utilizzano quei fondi per acquistare infrastruttura di calcolo – spesso proprio GPU Nvidia – alimentando una domanda che in parte contribuisce essa stessa a creare. Se tutto ciò non bastasse, Jensen Huang ha ultimamente messo in atto la più classica pratica da monopolista della Silicon Valley, iniziando a inglobare le startup che potrebbero in futuro minacciarne la posizione dominante. È il caso del maxi-accordo da 20 miliardi di dollari con cui ha acquistato gli asset tecnologici e ha assunto parte del team di Groq, società che produce chip specializzati – in termini tecnici ASIC – nella fase di inferenza dell’intelligenza artificiale (vale a dire il carico di lavoro svolto durante l’utilizzo dei sistemi generativi). Basterà tutto ciò a mettere al riparo Nvidia da un numero crescente di concorrenti sempre più agguerriti, che puntano a ridurre la loro dipendenza dalle GPU di Jensen Huang, a produrre chip specializzati dalle prestazioni ancora più elevate (in termini computazionali o di efficienza energetica) e a consentire alla seconda superpotenza tecnologica – la Cina – di liberare tutte le proprie potenzialità? LA MINACCIA DI GOOGLE “C’è la sensazione strategica, tra i clienti e nel mercato complessivo, che la dipendenza da Nvidia, e dai suoi prezzi elevati, debba essere interrotta”, ha spiegato, parlando con El País, l’analista Fernando Maldonado. “Tutti i principali fornitori di servizi cloud stanno progettando i loro specifici chip per compiti differenti. Più in là nel tempo, la quota di mercato di Nvidia potrebbe iniziare a ridursi” Dei vari concorrenti che stanno scaldando i motori nessuno è più minaccioso di Google: azienda storicamente leader nel campo dell’intelligenza artificiale, che ha reso possibile l’avvento dei large language model, sviluppando nel 2017 l’architettura Transformer, e che per il loro addestramento sfrutta da sempre una combinazione di GPU Nvidia e delle sue TPU (Tensor Processing Unit), ovvero acceleratori hardware progettati internamente, in collaborazione con Broadcom, e ottimizzati per il calcolo delle reti neurali. Questa coabitazione di GPU e TPU potrebbe presto giungere al termine: Gemini 3 – il più avanzato large language model di Google – è stato infatti addestrato utilizzando esclusivamente le TPU prodotte dal colosso di Mountain View, prefigurando quindi un futuro in cui Nvidia potrebbe perdere uno dei suoi più importanti clienti. Ma c’è altro: Google ha infatti iniziato a stringere accordi commerciali che consentono a varie società del settore di utilizzare le proprie TPU al posto delle GPU di Nvidia. Il più importante di questi accordi è stato stipulato a ottobre 2025 e prevede che Anthropic – una delle principali realtà dell’intelligenza artificiale e sviluppatrice di Claude – spenda “decine di miliardi di dollari” per accedere fino a un milione delle TPU di Google. Un accordo simile, ma su scala più ridotta, è stato siglato con la startup Safe Superintelligence (fondata dall’ex di OpenAI Ilya Sutskever). Fino a oggi, gli sviluppatori di intelligenza artificiale potevano accedere alle TPU soltanto attraverso i data center di proprietà di Google, rendendoli così dipendenti dal suo ecosistema cloud e consentendo una flessibilità molto inferiore rispetto alle GPU di Nvidia, che si acquistano invece fisicamente e poi si sfruttano a piacimento (al netto della lunghissima lista d’attesa). Adesso la situazione è cambiata: Google ha da pochissimo iniziato, secondo le ultime notizie, a vendere direttamente i propri acceleratori. Tra i clienti troviamo ancora una volta Anthropic (con un acquisto completato da dieci miliardi di dollari e un secondo ordine da 11 miliardi già concordato) e secondo le indiscrezioni anche Meta, che collocherebbe fisicamente le TPU nei propri data center, dove fino a oggi avevano trovato spazio soprattutto le GPU di Nvidia. È questa evoluzione di Google, che si sta quindi trasformando in un vero e proprio produttore di chip, ad aver fatto salire le sue azioni quasi del 50% negli ultimi sei mesi, mentre quelle di Nvidia hanno fatto registrare soltanto un +5%. “La capitalizzazione di mercato è cresciuta di quasi mille miliardi a partire dall’ottobre scorso, anche grazie alla decisione di Warren Buffett di acquistare 4,9 miliardi di azioni durante il terzo trimestre del 2025 e al più generale entusiasmo di Wall Street per le iniziative di Google nel campo dell’intelligenza artificiale”, si legge su Bloomberg. “Google è sempre stato il vero outsider nella corsa dell’intelligenza artificiale. Un gigante per qualche tempo dormiente, ma che adesso si è pienamente risvegliato”. AMAZON E NON SOLO Google è sicuramente il rivale più temibile per Nvidia, ma non è l’unico. Ormai da qualche tempo, Amazon (per la precisione AWS) ha iniziato a sviluppare acceleratori per l’intelligenza artificiale – chiamati Trainium – e dall’anno scorso li sta usando nei propri data center, vendendo l’accesso a svariate realtà del settore. Tra queste troviamo ancora una volta Anthropic, la società di “data intelligence” Databricks, l’azienda giapponese di servizi per l’assistenza clienti Karakuri e parecchie altre. Stando alle dichiarazioni del CEO di Amazon Andy Jassy, gli introiti garantiti dai chip Trainium e Graviton (classiche CPU usate internamente in ambito cloud) sono oggi di “circa 10 miliardi di dollari” e crescono “a tripla cifra” anno dopo anno. Come spiega il New York Times, “sebbene non siano potenti come quelli di Google o Nvidia, Amazon sta installando il doppio dei suoi chip all’interno di ciascun data center, nella speranza di offrire maggiore potere computazionale usando la stessa quantità di energia (grazie alla loro migliore efficienza energetica, ndA)”. Al momento, Anthropic è l’unico vero grande cliente dei Trainium di Amazon, ma in futuro le cose potrebbero cambiare: “Gli esperti ritengono che una partnership di questo calibro possa prefigurare cambiamenti ancor più importanti: quando Anthropic utilizza i chip di Amazon o di Google mostra al resto del mercato che le GPU di Nvidia non sono l’unica opzione”. Al contrario: le alternative continuano ad aumentare. La CEO di AMD, Lisa Su, aveva annunciato qualche mese fa l’intenzione di centrare la produzione aziendale sull’AI generativa, scommettendo che la “domanda insaziabile di capacità di calcolo” non si sarebbe esaurita nel giro di pochi trimestri. Finora i numeri sembrano darle ragione: la capitalizzazione di mercato di AMD è quasi quadruplicata, superando i 350 miliardi di dollari, e l’azienda ha firmato accordi rilevanti per fornire chip a OpenAI e Oracle. Anche Broadcom si sta ritagliando uno spazio crescente grazie alla produzione di chip – le cosiddette XPU – progettati per compiti di calcolo specifici, oltre a hardware di rete indispensabile per collegare tra loro i giganteschi rack di server che popolano i data center dell’AI. Intel, uno dei nomi storici della Silicon Valley, ha clamorosamente mancato la prima ondata dell’AI generativa, ma sta adesso investendo massicciamente sia nella progettazione sia nella produzione di processori avanzati per i data center, nel tentativo di recuperare terreno. E infine c’è Qualcomm, tradizionalmente associata ai chip per smartphone e automobili, ma che nell’ottobre scorso ha annunciato il lancio di due nuovi acceleratori per l’intelligenza artificiale, l’AI200 e l’AI250, caratterizzati da un’attenzione particolare all’efficienza energetica. L’ASCESA DELLE STARTUP La scommessa è quindi duplice: da una parte che la richiesta di processori da utilizzare nell’ambito dell’intelligenza artificiale continuerà ad aumentare; dall’altra che si aprano maggiori opportunità per chi produce hardware specializzato, laddove fino a oggi hanno dominato i processori programmabili e generalisti di Nvidia. “Se si osserva il tasso di crescita del settore, si vede [aumentare la domanda] di hardware specializzato”, ha spiegato Alex Davies, CTO della società finanziaria Jump. “È sempre stato così in tutta la storia dell’ingegneria: si inizia con qualcosa di più generico, poi si cresce a grandissima velocità e alla fine qualcuno capisce che non si può avere un unico prodotto per tutto”. Fino a questo momento, la versatilità delle GPU ha rappresentato il principale vantaggio di Nvidia, che attraverso la piattaforma software CUDA consente di programmare i suoi processori in base alle specifiche esigenze aziendali, fidelizzando inoltre una vastissima schiera di programmatori. I chip di uso generale hanno però i loro svantaggi: “C’è un costo energetico da pagare, perché ci sono parti del processore che non si utilizzano per ciò che serve ma consumano comunque energia”, ha spiegato ancora Maldonado a El País. Considerando quanto sta crescendo il mercato, c’è sicuramente spazio per tutte le soluzioni: dai processori generalisti e programmabili di Nvidia fino alle architetture ASIC più specifiche. Nel complesso, si stima che il giro di affari degli acceleratori per sistemi d’intelligenza artificiale dovrebbe crescere del 16% su base annua fino a raggiungere i 604 miliardi di dollari nel 2033: “Certo, Nvidia continuerà a controllare una parte significativa del mercato, ma anche una piccola percentuale può valere miliardi di dollari”, ha spiegato al New York Times l’analista Jordan Nanos. Mentre i colossi si riorganizzano per aumentare la loro presenza in questo ricchissimo mercato, una serie di startup ambisce a conquistare una fetta della torta, presentando nuove soluzioni: Cerebras è una startup californiana, guidata da Andrew Feldman, che progetta processori creati esclusivamente per l’intelligenza artificiale. Processori, tra l’altro, dalle dimensioni inusuali: “Il nostro chip è grande quanto un piatto da tavola, mentre quello di una GPU ha le dimensioni di un francobollo”, ha spiegato Feldman parlando con l’Economist. Potrebbe sembrare una mossa controintuitiva, visto che il progresso tecnologico è sempre stato anche una corsa alla miniaturizzazione. Eppure, Cerebras permette di usare un solo, enorme chip laddove con le GPU di Nvidia bisogna collegarne un gran numero. Questo permette alle connessioni tra i vari core presenti nel chip di operare migliaia di volte più rapidamente di quanto avviene con le connessioni tra GPU separate. Il suo Wafer-Scale Engine 3 (WSE-3) – il più grande chip per AI mai costruito, con circa 4mila miliardi di transistor e 900mila core – è attualmente impiegato da OpenAI (per Codex-Spark, un LLM ottimizzato per la generazione di codice), Mistral, Perplexity e anche dai laboratori scientifici statunitensi (che lo hanno impiegato, per esempio, nell’ambito della “simulazione molecolare dinamica”). Una lista di clienti impressionante, che ha convinto gli investitori a finanziare Cerebras con un miliardo di dollari per una valutazione da 23 miliardi. Cerebras non è però l’unica startup che partecipa alla grande corsa per ritagliarsi uno spazio nel mondo degli acceleratori per AI. Un’altra realtà californiana, fondata da ex ingegneri di Google, è MatX, che sta sviluppando processori che mirano a fare piazza pulita di tutti gli elementi delle GPU non necessari per l’addestramento degli LLM. In poche parole, MatX punta a creare processori che facciano meno cose, ma in maniera più efficiente. La startup nata nel 2022 ha appena raccolto oltre 500 milioni di dollari in un nuovo round di finanziamento e punta a completare il design del suo chip nel 2026, con spedizioni previste nel 2027. L’elenco delle startup include anche le statunitensi d-Matrix e SambaNova, l’israeliana Hailo, la britannica Graphcore (acquistata nel 2024 da SoftBank), la canadese-statunitense Tenstorrent e tantissime altre. LA CINA PUNTA ALL’AUTOSUFFICIENZA Le maggiori sorprese per Nvidia potrebbero però arrivare dall’altro lato del Pacifico. Non è un caso che Jensen Huang abbia pubblicamente espresso la sua contrarietà alle sanzioni che impediscono la vendita delle GPU più avanzate alla Cina (per quanto recentemente allentate), argomentando che questa politica rischia di accelerare la corsa della Repubblica Popolare per rendersi del tutto autonoma dai processori statunitensi (e quindi intaccando il fatturato di Nvidia, proveniente per il 13% dal mercato cinese). Che la Cina sia dietro agli Stati Uniti soltanto di “pochi nanosecondi” – come affermato dallo stesso Huang – è un’esagerazione, ma i progressi fatti dai produttori di chip del colosso asiatico sono molto significativi. Al momento, le prestazioni del modello H20 – il chip più potente che Nvidia può vendere in Cina, variante dell’H200 – sono già state ampiamente superate da numerosi processori cinesi, tra cui l’Ascend 910C di Huawei e il BW1000 di Hygon (per capacità di calcolo grezza e al netto di un maggiore consumo energetico). Probabilmente proprio allo scopo di aumentare l’adozione di chip autoctoni, Pechino sta adesso a sua volta ostacolando l’acquisto dei chip Nvidia da parte delle aziende cinesi, complicando ulteriormente una situazione già molto difficile. In sintesi: al momento gli Stati Uniti hanno riammesso la vendita dei processori H20, ma è ora la Cina che ne blocca l’acquisto da parte delle sue aziende, adducendo ragioni di sicurezza nazionale. La situazione è caotica e in continua evoluzione, ma l’impressione è che la Cina voglia approfittare della guerra commerciale per aumentare la quota dei suoi campioni nazionali (Huawei, Hygon, Cambricon, MetaX), che oggi detengono il 40% del mercato – per un valore di circa 38 miliardi di dollari – e che potrebbero crescere fino al 50% nel giro di un paio d’anni. Dal punto di vista tecnologico, un aiuto importante potrebbe giungere dai progressi fatti dalla Semiconductor Manufacturing International Corporation (SMIC): l’azienda cinese che si occupa di fabbricare concretamente i chip progettati da Huawei e dagli altri. SMIC è oggi il cuore della strategia industriale cinese nel campo dei processori. Secondo alcuni report, l’azienda sarebbe ormai in grado di produrre anche chip a 5 nanometri, seppur con costi più elevati e rese inferiori rispetto a quelli realizzati dal colosso taiwanese TSMC per i marchi occidentali, le cui dimensioni hanno da poco raggiunto la soglia dei 2 nanometri. Allo stesso tempo, Huawei starebbe investendo per dare vita a delle proprie strutture produttive, diventando quindi un concorrente di SMIC con l’obiettivo di far progredire ulteriormente la capacità cinese di produrre chip avanzati. Ci vorrà ancora parecchio tempo prima che le prestazioni dei chip cinesi possano effettivamente raggiungere quelle statunitensi, ma i timori di Jensen Huang sono fondati: SMIC, Huawei e gli altri campioni di Pechino o Shenzhen stanno facendo rapidi e importanti passi avanti. E un domani potrebbero contribuire ad allargare le crepe del dominio di Nvidia. GPU, ASIC, Acceleratori GPU Le GPU (Graphics Processing Unit) sono processori nati originariamente per l’elaborazione grafica, in particolare per il rendering in tempo reale dei videogiochi. La loro caratteristica distintiva è la capacità di eseguire moltissime operazioni in parallelo, qualità che le rende particolarmente adatte a calcoli matematici ripetitivi e su larga scala. È proprio questa architettura parallela ad averle trasformate, negli ultimi dieci anni, nel motore principale dell’intelligenza artificiale moderna: le GPU sono infatti ideali per addestrare e far funzionare reti neurali profonde. Pur essendo oggi centrali nell’AI, restano chip general purpose, programmabili e utilizzabili anche per molti altri compiti. ASIC Gli ASIC (Application-Specific Integrated Circuit) sono chip progettati per svolgere un compito specifico. A differenza delle GPU, non sono pensati per essere versatili, ma per massimizzare efficienza e prestazioni in una determinata funzione. Nel campo dell’intelligenza artificiale, un ASIC può essere progettato esclusivamente per eseguire operazioni tipiche delle reti neurali, riducendo consumi energetici e costi rispetto a soluzioni più generiche. Proprio perché costruiti “su misura”, gli ASIC offrono spesso prestazioni superiori nel compito per cui sono stati progettati, ma sono meno flessibili rispetto a una GPU.   Acceleratori Il termine acceleratore non indica una specifica categoria tecnica di chip, ma una funzione: un acceleratore è un processore progettato per velocizzare un determinato carico di lavoro. Nel contesto dell’intelligenza artificiale, GPU, ASIC specializzati, TPU o altri chip custom rientrano tutti nella categoria degli acceleratori, perché servono ad accelerare i calcoli necessari per addestrare o utilizzare i modelli. In altre parole, “acceleratore” è il contenitore concettuale più ampio; GPU e ASIC sono alcune delle tecnologie che possono svolgere quel ruolo. L'articolo Assalto al trono di Nvidia proviene da Guerre di Rete.
February 26, 2026
Guerre di Rete
Manualetto di sicurezza digitale per giornalisti e attivisti
Immagine in evidenza: copertina del Manualetto – Ufficio Furore Un mese fa Guerre di Rete aveva presentato una sua nuova pubblicazione, un ebook, intitolato: Manualetto di sicurezza digitale per giornalisti e attivisti. Inizialmente l’ebook era stato spedito in anteprima ai partecipanti al nostro crowdfunding. Ora è disponibile per tutti, e potete scaricarlo qui:   Scarica in formato EPUB Scarica in formato MOBI Scarica in formato PDF Il manualetto è rivolto a due categorie essenziali per il funzionamento della democrazia e del dibattito pubblico, che troppe volte abbiamo visto essere target di attacchi informatici, sorveglianza, campagne d’odio e di molestie nel mondo, in Europa, in Italia. É scritto da giornalisti e attivisti in maniera semplice e discorsiva, ma fornisce anche indicazioni pratiche di base per iniziare a sistemare e a proteggere la propria vita digitale. Passa in rassegna questioni di cybersicurezza fondamentali (utili a tutti), ma si sofferma anche su aspetti specifici legati alle attività di queste due categorie. Come spiego ripetutamente nell’introduzione al volume, il nostro ebook è solo un manualetto. Non pretende di essere una panacea, non assicura di risolvere tutto o di schermarvi da qualsiasi cosa. Tuttavia, può essere un inizio importante. L’ebook è un lavoro collettivo, con tre curatori (Carola Frediani, Sonia Montegiove, Patrizio Tufarolo) e una serie di autori (i giornalisti Raffaele Angius, Carola Frediani, Sonia Montegiove, Rosita Rijtano, e gli attivisti CRP, Matteo Spinelli e Taylor), e con Federico Nejrotti di Ufficio Furore che ne ha curato la grafica. L'articolo Manualetto di sicurezza digitale per giornalisti e attivisti proviene da Guerre di Rete.
February 11, 2026
Guerre di Rete
La disputa tra Agcom e Cloudflare è un assaggio del futuro della rete
Dopo anni di appelli inascoltati, l’Autorità per le garanzie nelle comunicazioni (Agcom) ha comminato un’ammenda di 14 milioni di euro all’azienda statunitense Cloudflare. Il dibattito ha da subito assunto contorni politici e ideologici, sollevando polemiche tra chi difende la posizione del Garante italiano e chi si schiera con il Ceo di Cloudflare Matthew Prince che, peraltro, non ha usato parole di distensione per commentare l’accaduto. Restringere l’episodio alla diatriba tra Agcom e Cloudflare è limitante, perché in gioco c’è il futuro globale della rete e l’idea stessa della sua libertà. È però un valido punto di partenza per valutare i diversi punti di vista. Lo scorso 8 gennaio l’Agcom ha multato Cloudflare dopo che l’azienda ha rifiutato di abbracciare – eseguendone automaticamente gli ordini – il modo in cui l’autorità italiana combatte la pirateria online. Senza ricorrere a tecnicismi, Cloudflare offre un servizio che protegge i siti web dagli attacchi e li rende più veloci, controllando il traffico e bloccando quello sospetto. Di per sé non genera contenuti, tuttavia, può operare come rete di distribuzione dei contenuti (content delivery network) e cache, per rendere la fruizione più efficiente per gli utenti finali, svolgendo dunque un ruolo attivo nella trasmissione degli stessi.    Nello specifico, la diatriba tra l’Autorità italiana e l’azienda californiana si inserisce nel contesto del Piracy Shield, la piattaforma nazionale antipirateria gestita dall’Agcom (il famoso “antipezzotto”), il cui scopo è quello di segnalare domini web, indirizzi IP o servizi (inclusi DNS e VPN) che trasmettono in modo abusivo contenuti protetti da copyright – con enfasi sugli eventi sportivi in diretta – affinché vengano bloccati entro 30 minuti dalla segnalazione.  La piattaforma, entrata in vigore a febbraio del 2024, trova fondamento giuridico nella legge 93 del 14 luglio 2023, ribattezzata “legge antipirateria”. Il Ceo di Cloudflare Matthew Prince ha definito l’intera questione “disgustosa” sostenendo che l’Agcom abbia imposto una forma di censura di contenuti a livello globale e non solo nazionale. L’intera faccenda, in realtà, si riduce proprio a questo: a quanto si possa imporre a un operatore infrastrutturale (quale è Cloudflare) di agire senza una copertura giudiziaria, senza il tempo materiale di valutare la legalità e la proporzionalità della richiesta. Compiti che dovrebbero essere assolti da istituzioni abilitate e che invece la legge e il Piracy Shield scaricano sulle spalle di operatori privati.  COSA NON VA NEL PIRACY SHIELD Le critiche al Piracy Shield sono piovute sia in patria sia all’estero, ma vanno distinte. La necessità di bloccare la diffusione illecita di contenuti non è mai stata direttamente messa in discussione. A porre qualche riserva è il rischio di overblocking (blocco eccessivo) e i possibili impatti sulle risorse legittime. Emanuele De Lucia, Chief Intelligence Officer di Meridian Group, offre il proprio punto di vista: “Da ricercatore, più che uno scontro tra parti, osservo un disallineamento tra la velocità dell’ecosistema digitale e gli strumenti normativi attuali. Oggi le minacce, inclusa la pirateria, sono fluide: non risiedono su un server statico, ma si muovono su infrastrutture globali progettate per essere resilienti e che agiscono come enormi ‘autostrade’ per il traffico internet. Nella pratica, chiediamo ai fornitori di internet italiani (ISP) di agire da doganieri, bloccando interi camion (gli indirizzi IP) perché dentro potrebbe esserci un pacco illegale. Questo ovviamente rischia di bloccare anche la merce lecita”.  Gli impatti sulle risorse legittime sono potenzialmente disastrosi. Celebre è quanto accaduto a ottobre del 2024, quando il Piracy Shield ha bloccato per errore l’accesso a Google Drive, colpendo una percentuale significativa di utenti italiani. “Dal punto di vista tecnico, si sta cercando di risolvere una violazione di contenuto (copyright) agendo sull’infrastruttura di trasporto. È una strategia che strutturalmente e statisticamente porta al rischio di overblocking e dunque di colpire anche attività legittime – come ospedali, infrastrutture critiche o imprese – che condividono le stesse risorse di rete dei flussi illeciti”, sottolinea Emanuele De Lucia. Le voci critiche arrivano anche dall’estero. A gennaio del 2025, l’ente internazionale di lobbying tecnologico Computer & Communications Industry Association (CCIA), ha inviato una lettera alla Commissione europea criticando il Piracy Shield, che consente a chi possiede i diritti d’autore di un contenuto illecitamente diffuso di segnalare, attraverso la piattaforma Piracy Shield, gli indirizzi IP che lo trasmettono. Se la richiesta è legittima, il provider deve applicare il blocco entro 30 minuti.  La CCIA mette l’accento su due aspetti problematici. Il primo è l’esiguo tempo a disposizione, che non consentirebbe agli ISP di avviare le dovute verifiche con potenziali ricadute su servizi e utenti che nulla hanno a che fare con le violazioni lamentate. Il secondo è la mancanza di trasparenza nella procedura, che va dalla segnalazione della risorsa da bloccare al momento in cui questa viene oscurata. UNO SCUDO SPROPORZIONATO Alla luce delle critiche sollevate da più parti e dirette tanto all’Italia quanto all’Europa (nel quadro del Digital Services Act, DSA), le criticità del Piracy Shield sembrano essere più legate a questioni politiche ed economiche su larga scala che al contenimento della pirateria.  La CCIA lamenta in particolare che il Piracy Shield potrebbe essere incompatibile con l’articolo 9 del DSA, che stabilisce quali elementi devono essere inclusi negli ordini che impongono di agire contro i contenuti illegali. In sintesi, l’articolo 9 richiede che gli ordini contengano informazioni precise per identificare il contenuto illegale. Le fonti criticano il Piracy Shield poiché utilizza blocchi a livello di indirizzo IP e DNS, definiti strumenti grossolani e imprecisi che portano all’overblocking di servizi legittimi, come accaduto nel caso di Google Drive. Il Piracy Shield sarebbe inoltre sproporzionato, poiché mentre il DSA prevede che l’obbligo di segnalare sospetti reati si applichi solo agli hosting provider e solo in caso di minacce alla vita o alla sicurezza, la legge italiana estende tale obbligo a tutti gli intermediari per qualsiasi violazione del diritto d’autore, anche minima. Il mancato rispetto di questa norma in Italia può comportare, in alcuni casi, fino a un anno di reclusione, scontrandosi con i principi di necessità e proporzionalità dell’UE. Il DSA limita inoltre la responsabilità dei fornitori intermediari se non partecipano attivamente alla trasmissione o se rimuovono i contenuti una volta informati. Al contrario, le riforme italiane impongono obblighi di segnalazione generalizzati che sembrano ignorare queste tutele. C’è poi il tema della mancanza di trasparenza e del diritto all’opposizione. Il sistema italiano mancherebbe di chiari meccanismi di ricorso per le parti colpite e di protocolli di verifica robusti, elementi fondamentali nel DSA.  Infine, l’uso di blocchi a livello di IP e di DNS non è considerato in linea con i principi di proporzionalità e di libertà di espressione tutelati dal quadro normativo europeo. Il rischio è di colpire tanti per bloccare pochi, poiché più risorse web fanno potenzialmente capo al medesimo indirizzo IP. Per ridurre all’essenziale la diatriba, il Piracy Shield sarebbe stato implementato senza la notifica obbligatoria alla Commissione europea tramite la procedura TRIS (Technical Regulation Information System), aggirando il meccanismo pensato per evitare il varo di leggi nazionali incompatibili con il mercato unico e con il diritto UE. A giugno del 2025, la Commissione europea ha scritto una lettera al ministro degli Esteri Antonio Tajani, palesando alcune discrepanze tra Piracy Shield e DSA. Il timore di Bruxelles è che la piattaforma mini la libertà di espressione e informazione. IL PIRACY SHIELD E LA SPACCATURA IN SENO ALL’AGCOM La commissaria Agcom Elisa Giomi si è opposta alla multa a Cloudflare e, intervistata da Repubblica, ha spiegato: “Il rischio è chiudere un intero centro commerciale solo perché un negozio è irregolare”, riferendosi al fatto che bloccare un indirizzo IP per evitare la diffusione illegale di contenuti significa oscurare tutte le risorse collegate a quello stesso IP. Elisa Giomi ritiene che il Piracy Shield sia squilibrato sia dal punto di vista delle misure a cui conduce, sia dal punto di vista economico. La sua voce però è distante dal coro dell’Agcom. Il commissario Agcom Massimiliano Capitanio, che abbiamo provato a contattare senza fortuna, ha espresso il suo parere in un post su LinkedIn, nel quale raccoglie e condensa (soltanto) i pareri favorevoli di utenti e associazioni, per poi concludere: “La multa da 14 milioni di euro non riguarda la libertà di espressione, ma la tutela dei diritti e dei posti di lavoro saccheggiati dalla pirateria”. Di avviso praticamente identico anche il commissario Agcom Antonello Giacomelli, secondo il quale la sanzione comminata a Cloudflare non è né una forzatura né un attacco alla libertà di internet. Da una parte, i difensori del Piracy Shield che si concentrano sulle cause (la pirateria); dall’altra, i detrattori che valutano gli effetti secondari e non meno gravi che la piattaforma può causare. PERCHÉ IL CASO AGCOM VS. CLOUDFLARE METTE IN DISCUSSIONE IL FUTURO DI INTERNET Allargando il quadro, si intuisce come la radice del problema sia la difficoltà di sottoporre a leggi territoriali qualcosa che, per sua natura, è globale, cercando di incasellare in logiche nazionali internet e il traffico di dati. Questo fa della diatriba tra Agcom e Cloudflare qualcosa di molto più grande della mera lotta alla pirateria e assume i connotati di una controversia che rappresenta un nodo cruciale per il futuro di internet, sollevando questioni fondamentali sulla libertà della rete, la neutralità tecnologica e il rapporto tra sovranità nazionale e infrastrutture globali.  L’Electronic Frontier Foundation (EFF), una delle organizzazioni più autorevoli nella difesa delle libertà digitali, ha più volte evidenziato i pericoli del filtro DNS, uno strumento che può essere abusato a fini di censura e che non a caso è tanto caro ai paesi che, come Iran e Cina, esercitano il controllo sulle infrastrutture internet per sopprimere e oscurare contenuti ritenuti sconvenienti o immorali. Accettando che ogni Stato possa imporre blocchi infrastrutturali con effetti extraterritoriali, senza una cornice giuridica solida, Internet smette di essere una rete globale e diventa una collezione di giurisdizioni che vanno inevitabilmente a cozzare tra loro. Il caso Agcom vs Cloudflare è quindi un chiaro esempio dell’equilibrio claudicante tra leggi territoriali e leggi sovranazionali in riferimento a infrastrutture digitali. Anche la libertà di espressione ne esce ammaccata, se un sistema automatizzato (il Piracy Shield) si fa carico di oscurare contenuti illeciti senza meccanismi di verifica della correttezza delle segnalazioni. UN BILANCIAMENTO COMPLESSO E LE VIE PERCORRIBILI Se il Piracy Shield, di per sé, rappresenta uno strumento utile alla lotta alla pirateria, la sua messa in pratica solleva quindi più di un dubbio. Quali sono, allora, le vie percorribili? Per Emanuele De Lucia, “una delle strade percorribili è quella della cooperazione, non della coercizione. I grandi player infrastrutturali (come Cloudflare, Google o Akamai) non sono il nemico, ma parte della soluzione. Invece di imporre filtri a valle, che potrebbero impattare la connettività per tutti, servirebbe lavorare a monte con procedure di notifica e takedown rapide, che colpiscano la sorgente del contenuto e non l’autostrada su cui viaggia. L’idea è quella di andare a confiscare il ‘pacco illegale’ direttamente nel magazzino nel quale si trova, lasciando l’autostrada libera per tutti. Tecnologicamente esistono già gli strumenti (API di segnalazione, Trusted Flaggers) per farlo in pochi secondi, senza intasare la rete. In definitiva, credo che dovremmo iniziare a sviluppare strategie di contrasto che abbiano la stessa granularità delle architetture che vogliamo regolare”. Proprio mentre scriviamo, Cloudflare ha annunciato il ricorso contro la sanzione comminata dall’Agcom. Il Ceo Matthew Prince non ha attenuato i toni: “L’Agcom non capisce internet”. Una posizione che fotografa il clima di contrapposizione frontale che si è creato attorno al Piracy Shield. Per Emanuele De Lucia, però, questa dinamica di scontro non porta lontano: “Credo sia necessario un cambio di passo. In primo luogo, bisogna prendere atto che il blocco IP in questi ambienti è uno strumento  pericoloso per la stabilità della rete nazionale. La soluzione non può essere totalmente tecnica se la tecnica stessa (come l’Encrypted Client Hello o la rotazione degli IP) è disegnata per aggirare questi blocchi in pochi secondi. Ma soprattutto il muro contro muro non porta da nessuna parte”. L'articolo La disputa tra Agcom e Cloudflare è un assaggio del futuro della rete proviene da Guerre di Rete.
February 5, 2026
Guerre di Rete
Perché le aziende faticano a integrare l’intelligenza artificiale
Immagine in evidenza da Unsplash Se dovessimo riassumere le ragioni per cui l’intelligenza artificiale generativa rischia di rivelarsi una colossale bolla, potremmo sintetizzare la questione così: a fronte di investimenti miliardari da parte delle Big Tech, impegnate in una forsennata corsa allo sviluppo di strumenti sempre più potenti, non corrisponde ancora un ritorno economico che giustifichi l’impegno per vincere una gara in cui non è ancora chiaro il premio in palio.  Nel settore consumer nessuno è ancora stato in grado di trovare forme di monetizzazione credibili. OpenAI, che secondo i dati più recenti detiene il 64,5% del mercato delle AI conversazionali (in calo rispetto all’86,7% del 2024), ha più di 800 milioni di utenti, ma solo il 5% di questi (circa 40 milioni) è titolare di un abbonamento a pagamento. Un dato deludente, che ha contribuito a convincere OpenAI a introdurre gli annunci pubblicitari nel suo servizio.  Le cose non vanno meglio per Google, che sta integrando in tutti i suoi servizi Gemini, senza che però sia ancora chiaro quali risultati economici tutto ciò porterà. Fino a questo momento, il colosso di Mountain View ha ottenuto soprattutto il risultato di penalizzare il traffico web, cannibalizzato dalla modalità AI Overview del suo motore di ricerca.  Diversa ancora la situazione in casa Microsoft, che insiste a promuovere i suoi nuovi (e costosi) PC dotati di Neural Processing Unit facendo leva sull’idea che “chi non è pronto per l’AI rimarrà indietro”. Peccato che ben pochi utenti sentano il bisogno di avere nel proprio computer degli acceleratori hardware specializzati in machine learning. A salvare questa affannosa rincorsa ai ricavi potrebbe contribuire il settore business. Anche qui, però, ci sono una serie di problemi che stanno rallentando l’adozione di strumenti basati sull’intelligenza artificiale generativa. Problemi che non sembrano essere di facile soluzione. LA GEN AI IN AZIENDA, TRA HYPE E BASSA ADOZIONE Il mondo dell’impresa è quello che ha forse preso più sul serio il balzo evolutivo legato all’AI. Il fenomeno va però messo in prospettiva: l’impressione è che la maggior parte delle aziende investa in strumenti di intelligenza artificiale soltanto per non dare l’impressione di “restare indietro” rispetto alla concorrenza. Ma qual è il reale impatto dell’AI a livello di produttività? Orientarsi tra le numerose ricerche individuabili sul web è piuttosto difficile. Nella maggior parte dei casi, per esempio, si tratta di report pubblicati dalle stesse Big Tech che promuovono l’adozione dell’AI generativa, dipingendo un settore in crescita ed elevati aumenti di produttività.  Una ricerca IBM relativa all’area EMEA (Europa, Medio Oriente e Africa) riporta come il 66% delle aziende avrebbero riscontrato “significativi miglioramenti della produttività operativa grazie all’AI”. Altri dati che fanno immaginare un vero boom nell’uso dell’intelligenza artificiale generativa provengono da una ricerca di Boston Consulting Group, secondo la quale gli strumenti di AI verrebbero utilizzati regolarmente dal 72% dei lavoratori. Peccato che altri indicatori, provenienti da fonti istituzionali, siano di segno opposto. È il caso dei dati pubblicati settimanalmente dallo United States Census Bureau e raccolti nel Business Trends and Outlook Survey. Nel momento in cui scriviamo,  la percentuale di aziende ed enti pubblici negli Stati Uniti che utilizza l’AI “in una qualsiasi delle sue funzioni aziendali” sarebbe inferiore al 20%. Com’è possibile una differenza di questo tipo? DI QUALE AI STIAMO PARLANDO? Al di là della (siderale) distanza tra i dati dell’Ufficio del Censimento USA e le ricerche di società private, bisogna considerare quanto le statistiche non distinguano attentamente tra i vari strumenti di AI, facendovi rientrare, per esempio, strumenti di produttività  individuale come i vari chatbot commerciali (ChatGPT, Gemini, Claude, ecc.), il cui impatto trasformativo a livello aziendale è praticamente nullo.  In altre parole, l’uso di massa dell’AI generativa indicato da IBM e BCG non riguarda l’implementazione organica di questi sistemi da parte delle aziende, ma l’utilizzo “dal basso”, da parte dei singoli lavoratori che impiegano i sistemi consumer per velocizzare operazioni ripetitive o imboccare qualche scorciatoia per aumentare la produttività, sfruttando la traduzione automatica, la generazione assistita di documenti, l’uso di chatbot per l’assistenza clienti e simili. Non solo: spesso l’utilizzo degli strumenti di AI generativa non rappresenta soltanto una scelta autonoma del lavoratore, ma viene fatta in modo clandestino e impiegando servizi gratuiti o personali sul luogo di lavoro. Questa tendenza porta con sé anche conseguenze indesiderabili, come il fenomeno della cosiddetta shadow AI (l’uso non autorizzato di qualsiasi strumento o applicazione di intelligenza artificiale da parte di dipendenti). L’impiego di sistemi di AI generativa con queste modalità, o addirittura il loro uso “clandestino”, pone infatti rilevanti problemi di sicurezza e il rischio di condivisione involontaria di informazioni riservate. Per quanto riguarda strumenti più evoluti e pensati appositamente per l’integrazione aziendale – come Einstein GPT di Salesforce o le soluzioni AI enterprise di Oracle – le cose sono decisamente più complicate e ai toni entusiasti si sostituisce una diffusa timidezza. Le applicazioni professionali dell’AI a livello business passano dagli strumenti integrati all’interno di piattaforme software come ERP (Enterprise Resource Planning, la gestione dei processi interni), CRM (Customer Relationship Management, la gestione della relazione con il cliente) o strumenti di analisi; per arrivare alle soluzioni di personalizzazione aziendale dei large language model. In questi casi, l’adozione di strumenti di AI generativa prevede investimenti non indifferenti e la definizione di strategie di medio e lungo periodo. Ed è qui che arrivano i primi dolori, sintetizzati da un report pubblicato dal project NANDA, iniziativa avviata dal Massachusetts Institute of Technology. La ricerca ha sollevato un vero e proprio polverone nell’ambiente, in particolare per un dato: il 95% delle aziende che hanno investito in progetti basati sull’uso di AI generativa non avrebbe avuto alcun ritorno misurabile in termini di trasformazione. Secondo gli autori, la causa di questo fallimento sarebbe da individuare in un approccio sbagliato all’AI, basato su sperimentazioni superficiali che non incidono sull’organizzazione e non producono valore economico reale. Accanto alle incertezze legate all’effettivo ritorno dell’investimento in innovazione, a frenare le imprese sono però anche elementi più concreti. Uno di questi è legato al tema delle infrastrutture tecnologiche e degli investimenti che richiedono. LA ROULETTE RUSSA DEI DATA CENTER Qualsiasi progetto nel settore dell’information technology pone l’azienda di fronte a un bivio: investire per l’acquisto di server creando un proprio data center on premise o rivolgersi al cloud, noleggiando il potere di calcolo da un hyperscaler come Microsoft, Google o Amazon Web Services? Entrambe le opzioni comportano vantaggi e rischi. Creare un proprio data center permette di avere maggiore controllo sui costi a cui si andrà incontro, ma richiede un ingente investimento iniziale e pone il problema dell’aggiornamento delle macchine. La formula del cloud, che prevede una sorta di pagamento “a consumo” delle risorse utilizzate, permette di spalmare l’investimento e fare affidamento su sistemi aggiornati e servizi innovativi. Il rischio, però, è che in alcuni casi i costi vadano fuori controllo e finiscano per gravare troppo sull’azienda. Negli ultimi anni, le imprese hanno (faticosamente) preso le misure e, per quanto riguarda le applicazioni tradizionali, hanno individuato parametri affidabili per orientarsi nella scelta. I dati variano a seconda dei report, ma la tendenza sembra essere che una percentuale superiore alla metà si affida ai servizi delle grandi imprese, mentre la parte restante si divide tra data center locali e infrastrutture di private cloud. Quando si parla di AI generativa, però, i responsabili IT non hanno nessuno strumento che gli permetta di orientarsi chiaramente nella scelta. Si tratta, infatti, di una tecnologia in rapida evoluzione e per la quale non sono disponibili dati storici sull’impatto a livello infrastrutturale. Rivolgersi al cloud con la formula a consumo apre quindi al rischio di trovarsi a far fronte a spese esorbitanti. Chi volesse usare un data center proprio rischierebbe invece, per le stesse ragioni, di trovarsi a gestire consumi elettrici fuori controllo. A scoraggiare chi considera questa seconda scelta c’è anche il fatto che i costi per l’hardware negli ultimi mesi sono lievitati ai massimi storici, paradossalmente proprio per la corsa allo sviluppo dell’AI, che ha innescato un rialzo dei prezzi a causa dell’eccessiva domanda.  E le cose non sono destinate a migliorare: Nvidia e AMD avrebbero infatti pianificato un aumento dei prezzi delle GPU utilizzate per l’AI, mentre il costo della memoria RAM è aumentato del 500%, con ripercussioni anche sul prezzo dei prodotti destinati al consumo di massa. Insomma: chi volesse creare un data center dedicato ai servizi AI, oggi, dovrebbe spendere una fortuna. Un problema non da poco, soprattutto per le organizzazioni, come quelle che operano nel settore bancario, sottoposte a stringenti normative che le obbligano a utilizzare data center proprietari per ragioni di sicurezza e privacy. LA DIFFIDENZA VERSO I FORNITORI DI SERVIZI AI L’ultimo aspetto che frena il processo di adozione dell’AI generativa a livello strutturale è legato al fenomeno del cosiddetto lock-in, cioè il vincolo che si crea nel momento in cui si sceglie un fornitore di servizi. Nel mondo IT, “sposare” una tecnologia significa legarsi mani e piedi a chi la fornisce. E in una fase turbolenta come quella che si sta vivendo nel mondo dell’AI rischia di diventare un azzardo. Per il momento gli investitori stanno alimentando la corsa dell’intelligenza artificiale in vista dei potenziali ritorni futuri, ma se le cose dovessero cambiare le imprese temono che a farne le spese possano essere i clienti. Qualcosa di simile lo abbiamo visto con Microsoft. L’azienda di Redmond, dopo aver introdotto Copilot in Office 365, ha alzato il prezzo dell’abbonamento del 30% applicando l’aumento automaticamente a tutti i clienti, compresi quelli che non avevano nessun interesse a utilizzare il nuovo strumento.  Se un normale consumatore può decidere di abbandonare Office e passare ad altri software, in ambito aziendale le cose sono più complicate. Per migrare a un’altra tecnologia serve tempo e denaro. Il timore è che i fornitori ne siano consapevoli e sfruttino questa posizione di vantaggio per tirare la corda a livello di prezzi e rientrare dagli investimenti. E infatti diverse startup che avevano costruito i propri prodotti sull’accesso ai modelli di OpenAI e Anthropic si sono trovate improvvisamente costrette a rivedere i prezzi, introdurre limiti di utilizzo e ridimensionare i servizi offerti a causa dei cambiamenti nei listini e nelle condizioni di accesso alle API.  È il caso, per esempio, di Cursor e Replit, due piattaforme per lo sviluppo software basate su modelli generativi che hanno dovuto modificare i propri modelli di business per assorbire l’aumento dei costi computazionali, legati anche alla necessità di aumentare i ricavi di OpenAI e Anthropic. Una dinamica che mostra quanto, una volta costruita un’infrastruttura sopra uno specifico sistema proprietario, ci si esponga a rischi continui, soprattutto in un ambito dai ritorni ancora incerti come quello dell’AI generativa. E quindi: le società che sviluppano i sistemi di AI generativa hanno bisogno delle aziende per rientrare dai loro immensi investimenti. Le aziende sono però restie a esporsi sotto questo fronte proprio a causa delle incertezze economiche del settore. Il risultato di tutto questo è uno stallo alla messicana da cui nessuno sa come uscire. L'articolo Perché le aziende faticano a integrare l’intelligenza artificiale proviene da Guerre di Rete.
January 28, 2026
Guerre di Rete
Comunicazione quantistica: la nuova frontiera della sicurezza digitale europea
Immagine in evidenza da European Space Agency Quando si parla del rapporto tra quantum computing e sicurezza informatica il pensiero è spesso rivolto al tema della crittografia: in futuro un tecnico potrebbe accendere un computer quantistico all’interno di un data center e in pochi minuti decifrare comunicazioni intercettate e archiviate dieci anni prima, protette dagli algoritmi crittografici moderni (harvest now, decrypt later). Documenti governativi, transazioni bancarie, segreti industriali improvvisamente esposti. Non è fantascienza, ma il potenziale scenario che ha spinto Stati, infrastrutture critiche e organizzazioni di tutto il mondo alla transizione verso nuovi algoritmi di cifratura, resistenti agli attacchi quantistici. Un altro tema cruciale della crittografia del futuro è però quello dello scambio sicuro delle chiavi crittografiche, per impedire che possano essere intercettate o manipolate: un problema che ha portato Europa, Stati Uniti, Cina e Russia a investire massicciamente in un’altra tecnologia: la comunicazione quantistica. L’Agenzia spaziale europea (ESA) ha affidato a un consorzio guidato da Thales Alenia Space un contratto da 50 milioni di euro per la fase di definizione della missione SAGA. L’obiettivo è progettare un satellite capace di generare e distribuire chiavi crittografiche quantistiche per usi governativi e per collegare il futuro network EuroQCI, la dorsale europea per la comunicazione quantistica sicura. Fabio Sciarrino, professore di fisica quantistica alla Sapienza di Roma, ha spiegato che con SAGA l’Europa avrà un segmento spaziale sovrano per la sicurezza delle comunicazioni: “Non si tratta solo di tecnologia: è una questione di autonomia strategica”. Computer quantistici e crittografia moderna: “harvest now, decrypt later” Rubare oggi, decifrare domani. Agenzie di intelligence e attori statali stanno raccogliendo enormi quantità di dati cifrati, sapendo che, tra dieci o quindici anni, i computer quantistici saranno abbastanza potenti da leggerli. “I dati raccolti oggi possono essere messi da parte e letti quando i computer quantistici diventeranno abbastanza potenti”, ha spiegato Giuseppe Vallone, docente all’Università di Padova. “Per settori come sanità, energia e finanza, è un rischio reale”. Nel 2019, Google dichiarò di aver raggiunto la “quantum supremacy”. Nel 2023, IBM superò i 1.000 qubit (l’equivalente dei bit nei computer quantistici) con il chip Condor. Il 9 dicembre 2024, Google ha presentato Willow, un processore da 105 qubit che ha completato in meno di cinque minuti un test sperimentale, progettato appositamente, che per i computer classici avrebbe richiesto un lasso di tempo praticamente infinito. Dal canto suo, IBM ha invece annunciato nel novembre 2025 il chip Quantum Nighthawk con 120 qubit, e punta a Starling per il 2029: un computer quantistico funzionante non più solo su progetti teorici e sperimentali, che sarà costruito nel data center di Poughkeepsie, New York. La timeline della minaccia, dunque, si sta accorciando. I computer quantistici capaci di violare gli algoritmi RSA-2048 potrebbero infatti essere operativi tra il 2030 e il 2035. Per questo il National Institute of Standards and Technology (NIST) statunitense ha pubblicato nel 2024 i primi algoritmi di crittografia post-quantistica, resistenti agli attacchi. Ma proteggono solo i dati futuri, non quelli già rubati. LE ORIGINI DELLA COMUNICAZIONE QUANTISTICA: DALLA TEORIA ALLA REALTÀ La comunicazione quantistica affonda le radici nel 1984, quando Charles Bennett e Gilles Brassard presentarono il protocollo BB84. Era teoria pura: un sistema in cui a garantire la sicurezza non sarebbero state le leggi della matematica, ma della fisica quantistica. Per decenni il protocollo rimase però confinato nei laboratori. Il punto di svolta arrivò nell’agosto 2016, quando la Cina lanciò Micius, il primo satellite al mondo dedicato alla comunicazione quantistica. Micius stabilì collegamenti quantistici sicuri tra Pechino e Vienna, superando i 7.600 chilometri di distanza. Fu il momento Sputnik del XXI secolo: Washington si accorse di essere in ritardo. Come ha recentemente ammesso un funzionario del Pentagono, “per anni abbiamo sottovalutato gli investimenti cinesi nel quantum. Credevamo fossero solo propaganda”. Da Vienna a Tokyo, da Pechino a Ginevra, le prime “reti metropolitane” quantistiche cominciarono a operare. Ma il vero impulso venne dalla consapevolezza che i computer quantistici avrebbero un domani potuto frantumare la crittografia classica. E, con essa, mezzo secolo di segreti digitali. COME FUNZIONA: LA FISICA AL POSTO DELLA MATEMATICA La comunicazione quantistica non è una semplice evoluzione della crittografia: è un cambio di paradigma. La sua sicurezza non dipende dalla complessità computazionale di problemi matematici, ma dall’impossibilità fisica di intercettare un segnale senza alterarlo. Le informazioni sono codificate nello stato fisico dei fotoni, particelle di luce, e ogni tentativo di intercettazione altera inevitabilmente lo stato quantistico del segnale, rendendo rilevabile un’intrusione. “È come lasciare impronte digitali in ogni bit”, ha spiegato Stefano Pirandola, fisico teorico dell’Università di York. “Se qualcuno prova a leggere la chiave, il sistema lo segnala subito”. C’è però un limite: i fotoni viaggiano bene in fibra ottica, ma oltre i 100-150 chilometri il segnale si degrada. Per questo servono i satelliti. In orbita, i fotoni viaggiano nel vuoto con perdite minime, permettendo collegamenti intercontinentali. È qui che SAGA, Micius e i progetti statunitensi entrano in gioco. Del resto, il gruppo del fisico cinese Jian-Wei Pan parla apertamente da tempo di applicazioni su larga scala e di nuovi satelliti ad alta orbita: “Questi ultimi possono collegare due punti sulla Terra distanti 10mila chilometri”, evidenziando le potenzialità di connessioni globali sicure.   Scenari futuri: mappa del quantum Presente (2026) Test operativi di QKD su dorsali in fibra ottica, Qolossus 2.0 operativo alla Sapienza, EuroQCI in costruzione, rete nazionale cinese di 12.000 km pienamente operativa, collegamenti quantistici intercontinentali via satellite. Orizzonte 2027-2030 SAGA operativo tra 2027 e 2029, integrazione completa tra segmento spaziale e terrestre, computer quantistici fault-tolerant (IBM punta a Starling per il 2029), ripetitori quantistici di nuova generazione, espansione commerciale. Applicazioni strategiche Settore bancario: transazioni protette da chiavi quantistiche incorruttibili. Sanità: cartelle cliniche e dati genomici al sicuro per sempre. Energia: controllo delle smart grid senza vulnerabilità. Difesa: comunicazioni militari e diplomatiche su canali quantistici. Infrastrutture critiche: aeroporti, centrali, reti idriche protette da attacchi informatici. Entro il 2035 L’Europa potrebbe disporre di una rete quantistica sovrana che collega tutti gli Stati membri. Le tre tecnologie quantistiche (calcolo, comunicazione, sensori) potrebbero generare fino a 97 miliardi di dollari. Il mercato globale della comunicazione quantistica, valutato in 1,1 miliardi di dollari nel 2024, è previsto che raggiunga i 5,4 miliardi nel 2030. LA CORSA GLOBALE: QUATTRO MODELLI A CONFRONTO La Cina, con il satellite Micius e una rete nazionale in fibra ottica lunga 12mila chilometri, ha investito circa 15 miliardi di dollari in tecnologie quantistiche. A marzo 2025, un team cinese ha realizzato una comunicazione quantistica tra Cina e Sudafrica su 12.900 chilometri via satellite Jinan-1. Nel dicembre 2024, China Telecom ha svelato Tianyan-504, il computer quantistico più potente del Paese con 504 qubit, e contestualmente l’infrastruttura per le comunicazioni sicure “Quantum Secure Link”, che conta quasi 6 milioni di utenti e oltre 3mila organizzazioni. Non è solo tecnologia: è soft power. Offrendo comunicazioni sicure ai Paesi partner, Pechino aumenta la dipendenza tecnologica nei suoi confronti, come fecero gli americani con Internet negli anni Novanta. L’industria quantistica cinese è passata da 93 aziende nel 2023 a 153 nel 2024. La scala dell’industria raggiungerà 1,61 miliardi di dollari entro il 2025. Gli Stati Uniti hanno imparato la lezione dello Sputnik. La strategia attuale di Washington è duplice: crittografia post-quantistica per le comunicazioni di massa, reti quantistiche satellitari per i canali strategici. Il NIST ha già definito i primi algoritmi resistenti ai computer quantistici. NASA e DARPA lavorano su reti sperimentali. Il budget federale per la ricerca quantistica ha raggiunto 998 milioni di dollari per il 2025. A marzo 2024, DARPA ha lanciato il programma QuANET per integrare reti quantistiche con infrastrutture classiche. La National Quantum Initiative – che coordina la strategia federale statunitense – dovrebbe invece essere a breve riautorizzata  fino al 2034, con 2,7 miliardi di dollari destinati a NIST, NSF e NASA. La Russia procede con obiettivi militari dichiarati. Roscosmos e l’Istituto di Fisica Generale hanno testato collegamenti ottici sicuri tra satelliti e basi terrestri, in linea con il piano “Quantum Communications 2030”. La cooperazione con la Cina, dimostrata dal collegamento Mosca-Urumqi del gennaio 2024, segnala un’alleanza tecnologica che preoccupa l’Occidente. Dal canto suo, l’Europa risponde con SAGA e un’articolata strategia quantistica: a marzo 2025 si è chiusa la call EuroQCI con 24 proposte e un budget complessivo di 90 milioni di euro per migliorare la sicurezza delle comunicazioni. Il satellite prototipo Eagle-1 sarà lanciato tra fine 2026 e inizio 2027. A giugno 2025 è stato invece inaugurato il primo computer quantistico EuroHPC a Poznan, seguito a settembre dal sistema “VLQ” a Ostrava. A luglio 2025, la Commissione europea ha inoltre adottato una Strategia Quantistica per consolidare la leadership tecnologica. Anche l’Italia gioca un ruolo importante: il 9 dicembre 2025, la Sapienza di Roma ha presentato Qolossus 2.0, il primo computer quantistico fotonico italiano modulare. A differenza dei sistemi superconduttivi di Google e IBM, Qolossus opera a temperatura ambiente e si integra naturalmente con le comunicazioni quantistiche. Il processore, prodotto in Italia grazie al CNR di Milano e all’Università di Pavia, rappresenta non solo un primato scientifico, ma la nostra carta, come evidenziato in numerose analisi, per non dipendere dalle architetture superconduttive americane o cinesi. È una questione di sovranità tecnologica. La scalabilità dei sistemi fotonici potrebbe cambiare le regole del gioco. “La tecnologia è pronta”, ha spiegato Sciarrino. “Ma la politica e i finanziamenti devono correre alla stessa velocità”. Ci sono però alcuni ostacoli ancora da superare. Il punto debole sono i trusted nodes, nodi intermedi che devono decifrare e ricifrare le chiavi. Se compromessi, l’intera catena sarebbe a rischio. “I ripetitori quantistici, che eliminerebbero questo problema, sono però ancora sperimentali”, prosegue Sciarrino. Altri ostacoli riguardano la vulnerabilità ai disturbi ambientali, la sincronizzazione tra stazioni terrestri e satelliti in movimento e i costi ancora proibitivi per applicazioni commerciali di massa. I progressi però sono rapidi. In Italia, per esempio, test sul campo hanno dimostrato la distribuzione di chiavi sulla dorsale Torino-Matera, coprendo 1.800 chilometri. In sintesi: la Cina ha capito per prima che chi controlla le comunicazioni sicure può costruire alleanze strategiche. Gli Stati Uniti rispondono con pragmatismo, mescolando soluzioni matematiche e fisiche. SAGA ed EuroQCI rappresentano invece la terza via europea. Tutto questo non rappresenta però un traguardo, ma il punto di partenza di una nuova sfida tecnologica che potrebbe determinare le gerarchie del XXI secolo. L'articolo Comunicazione quantistica: la nuova frontiera della sicurezza digitale europea proviene da Guerre di Rete.
January 14, 2026
Guerre di Rete
Come anche le comunità per minori sono esposte a minacce cyber
In un’epoca segnata dall’acuirsi delle fragilità sociali e dalla pervasività del digitale, le Comunità terapeutiche per minori (CTM) si trovano ad affrontare non solo la cronica carenza di risorse, ma anche un pericolo invisibile: la minaccia cyber. Queste realtà, che accolgono soggetti in situazioni di allontanamento temporaneo dalla famiglia, sono oggi definite dagli esperti come l’incarnazione perfetta di “soft target” – obiettivi considerati un facile bersaglio dai cybercriminali – nel settore sociosanitario italiano, a causa delle risorse limitate e della scarsa percezione della minaccia informatica. L’intersezione tra la vulnerabilità dei minorenni accolti e la fragilità dei sistemi digitali sanitari solleva preoccupazioni acute: i dati psichiatrici e clinici dei minori – che includono storia clinica, traumi e vulnerabilità psicologiche – hanno infatti un valore economico altissimo nel mercato criminale, aumentando la vulnerabilità dei ragazzi e delle ragazze a sfruttamento e abuso, ricattabilità e compromissione della privacy. DATI SENSIBILI E RICATTO  DIGITALE: IL DILEMMA DELLA CYBERSICUREZZA NEI CTM Secondo quanto riporta il 12° rapporto del Gruppo di lavoro per la Convenzione sui diritti dell’Infanzia e dell’Adolescenza, in Italia ci sono circa 70 CTM distribuiti sul territorio nazionale (con l’eccezione di Friuli-Venezia Giulia, Molise, Basilicata e Calabria). Queste strutture, che faticano a soddisfare una domanda in continuo aumento, sono chiamate a gestire minorenni sempre più segnati da molteplici problematicità e da disagio psichico, un deterioramento serio della condizione giovanile che fatica a diventare una priorità nell’agenda politica. I CTM, oltre a dover affrontare difficili e cruciali sfide cliniche – e a fare i conti . con una preoccupante carenza di personale sanitario specializzato, come neuropsichiatri, psicologi ed educatori – si trovano così di fronte alla cruciale e inattesa sfida della sicurezza digitale. Walter Pisci, direttore clinico della comunità Inus, ha fornito una fotografia dettagliata delle difficoltà che queste piccole e medie imprese incontrano nel proteggere i dati sensibili dei minori. Pisci ha sottolineato come la figura di un esperto di cybersicurezza sarebbe “utile e necessaria” all’interno di una comunità terapeutica. Ma c’è un problema, che Pisci riassume così: “Chi paga l’esperto?”. La gestione del bilancio, già focalizzata sulle figure professionali cliniche e terapeutiche richieste dai requisiti regionali (medici, psicologi, infermieri, educatori), non è in grado di assorbire facilmente questi costi aggiuntivi. I costi per adeguarsi alla normativa europea GDPR, che regolamenta la gestione dei dati sensibili, non sono computati nel calcolo della retta giornaliera, ma sono extra. “La comunità paga da 4 a 5mila euro ogni anno solo per l’adeguamento alla normativa GDPR con formazione specifica e consulenze tecnico-informatiche legate alla protezione dei dati, escluse le spese di manutenzione ordinaria”. Nel frattempo, l’ombra delle minacce informatiche è sempre dietro l’angolo: “Cinque anni fa abbiamo subito un grave attacco informatico”, spiega Pisci. “Un software malevolo aveva permesso un accesso esterno e la cifratura di tutti i dati contenuti nelle cartelle condivise”. Tra questi dati erano presenti informazioni sensibili dei pazienti. “È stato chiesto un riscatto di 50mila euro in Bitcoin”, ricorda Pisci. I cybercriminali non erano riusciti ad acquisire i dati, ma solo a criptarli nel sistema. Grazie alla denuncia al DPO (Data Protection Officer) e all’uso dei backup, i dati sono stati poi recuperati. A seguito di questo evento, la procedura di sicurezza è cambiata. La comunità ha abbandonato il NAS, giudicato più esposto, Tuttavia, ha anche deciso di  portare tutti i dati su piattaforme cloud esterne private, affidandoli ai sistemi di grandi multinazionali. Questa soluzione, che richiede comunque attenzione nella gestione e protezione dei dati, viene utilizzata con successo da cinque anni. L’ALLARME ROSSO DELLE COMUNITÀ “SOFT TARGET” Secondo gli ultimi dati dell’Agenzia per la Cybersicurezza Nazionale, tra gennaio e settembre di quest’anno il settore sanitario ha registrato un +40% di attacchi cyber rispetto al 2024. “E le comunità terapeutiche per minori sono tra quelle maggiormente a rischio, perché incarnano perfettamente il profilo di soft target nel settore sociosanitario italiano”, spiega l’esperto di sicurezza Pierluigi Paganini. “Sono piccole strutture con risorse limitate, spesso prive di presidi cyber basilari e soprattutto con scarsa percezione della minaccia informatica”.  In queste strutture, le vulnerabilità tipiche includono l’assenza di reti segmentate (che aumentano la sicurezza della rete suddividendola in reti minori), software obsoleti, assenza di soluzioni di sicurezza, mancanza di un sistema di registrazione centralizzato e soprattutto nessuna formazione per il personale socioeducativo. Tra le misure minime e urgenti che possono proteggere le comunità ci sono la cifratura dei dati archiviati (at-rest, ovvero database, file e dispositivi portatili come hard disk o chiavette USB) e dei dati in transito (tramite protocolli sicuri come HTTPS, SFTP o reti VPN), l’adozione di backup cifrati e separati dalla rete principale (regolarmente testati per il ripristino), la gestione degli accessi tramite l’autenticazione multi-fattore e il principio di least privilege. È poi necessario utilizzare software di sicurezza, mantenere aggiornati software ed applicazioni ed eseguire revisioni periodiche con verifica delle procedure, oltre a implementare politiche per la gestione dei sistemi di sicurezza delle informazioni e lavorando sulla formazione del personale, organizzando simulazioni di crisi in un ambiente controllato, senza impatto reale sui sistemi. L’IMPORTANZA DEL FATTORE UMANO Secondo Emanuela Urban, Head of ICT Project & Function della società di consulenza informatica Ipsoft, la vulnerabilità più significativa in queste strutture è rappresentata proprio dal fattore umano. Gran parte del rischio deriva da un utilizzo talvolta inconsapevole degli strumenti di servizio. La poca consapevolezza degli operatori è la causa scatenante di molte frodi informatiche, come il banale errore di cliccare su un link malevolo ricevuto via email, che può portare alla diffusione di dati sensibili. “È fondamentale che le aziende e i gruppi di lavoro sottolineino la necessità di una maggiore consapevolezza per il trattamento dei dati”, spiega Urban, che aggiunge un secondo fattore: l’anzianità degli strumenti utilizzati. “Il ritardo nell’evoluzione tecnologica, che impedisce la messa in sicurezza necessaria, è spesso attribuibile alla difficoltà di sostenere economicamente le operazioni di ammodernamento”. Secondo Urban, sono due le tipologie di attacchi informatici che mettono maggiormente a rischio i dati sensibili: il furto di credenziali, che costituisce la base da cui gli aggressori possono avviare l’escalation per accedere ai dati, e la sicurezza dei sistemi perimetrali: “Se questi sistemi non sono ben mantenuti, non sono presidiati in modo efficace o non dispongono di policy chiare e aggiornate diventano importanti vie di accesso per intromissioni esterne”. Per aumentare il livello di sicurezza, Urban evidenzia la necessità di un approccio su più fronti. Il primo è la formazione operativa e la consapevolezza: l’operatore deve essere cosciente del rischio potenziale anche quando i sistemi automatici non hanno ancora tracciato una minaccia, come un link non verificato. Intervenire con l’informazione può prevenire azioni rischiose, come cliccare su mittenti o contenuti sospetti. Il secondo approccio riguarda l’adozione di strumenti che aiutino ad arginare gli attacchi alla base, in particolare contro il furto di credenziali. Terzo fattore, il supporto legislativo e l’audit: le istituzioni dovrebbero supportare le strutture sanitarie medio-piccole per contrastare gli attacchi informatici. In questo contesto, l’ACN svolge un ruolo informativo tramite newsletter e comunicazioni sul potenziale rischio o sulle violazioni in corso relative a specifici strumenti. Infine, Urban sottolinea l’importanza di investire in strumenti di sicurezza ma, soprattutto, nell’aumento della consapevolezza degli operatori: “Questo non rappresenta per l’azienda un costo, ma un vantaggio competitivo”. L'articolo Come anche le comunità per minori sono esposte a minacce cyber proviene da Guerre di Rete.
December 19, 2025
Guerre di Rete