Source - Guerre di Rete

Iran, Russia e non solo: l’architettura della repressione digitale
Immagine in evidenza rielaborata con AI Mentre il conflitto si estende in Iran, dal 28 febbraio le autorità della nazione mediorientale hanno attuato una nuova chiusura di internet, che segue quella avvenuta durante le proteste di gennaio e che sta lasciando circa 90 milioni di persone senza accesso alle comunicazioni. Secondo quanto riporta l’associazione di giornalismo investigativo Netblocks, il giorno in cui è scoppiata la guerra la connettività Internet in Iran è scesa al 4%, segnando l’inizio di un blackout che persiste tuttora e che ha ormai superato le 100 ore. Situazione blackout internet in Iran fino al 5 marzo: fonte Netblocks.org Questo blocco si sta verificando nel bel mezzo di un conflitto armato, rendendo estremamente difficoltosa la raccolta di informazioni da parte dei giornalisti all’estero e delle organizzazioni per i diritti umani. Ad oggi i dati mostrano che l’Iran sta attraversando una sospensione totale di Internet, con la connettività che si aggira intorno all’1%. Il blocco digitale di gennaio rimane però, al momento, il più sofisticato e devastante nella storia dell’Iran, superando anche quello del 2019, che all’epoca era stato descritto dagli esperti come il più grave mai affrontato dal paese. L’8 gennaio le persone si sono ritrovate nel giro di pochi minuti impossibilitate a chiamare o inviare messaggi, sia all’interno che all’esterno dell’Iran, con Internet e le linee telefoniche completamente interrotte. Questa misura è stata adottata dalle autorità iraniane per impedire la diffusione delle notizie sul massacro compiuto dalle forze di sicurezza in risposta alle numerose proteste contro il regime e per bloccare la possibilità di coordinamento delle rivolte (secondo il Time, solo tra l’8 e il 9 gennaio potrebbe essere state uccise dalle forze di sicurezza oltre 30mila persone). Questo shutdown ha segnato una svolta radicale nel livello di censura imposto dal governo iraniano. Secondo il report IRAN: 2026 Shutdown Technical Analysis, pubblicato da FilterWach, la disconnessione di gennaio non si è limitata a bloccare l’accesso ai siti stranieri e ai social media – com’era invece successo durante la sospensione digitale del 2022, nel corso delle manifestazioni di “Donna – Vita – Libertà” – ma ha interessato anche l’intranet nazionale iraniana NIN (National Information Network: una intranet statale ispirata al Great Firewall cinese e al RuNet russo, progettata per separare l’internet nazionale dalla rete globale), le SIM bianche (linee di telecomunicazione che eludono il sistema di filtraggio nazionale) e le linee telefoniche fisse.  Ciò ha impedito l’accesso a servizi essenziali come pagamenti, trasferimenti di denaro, piattaforme di lavoro, logistica e coordinamento sanitario, che erano invece rimasti attivi nel 2022. Questo blackout dunque è stato totale e ha interessato anche Starlink, colpito dal tentativo delle autorità iraniane di disabilitarlo, utilizzando disturbi di tipo militare diretti contro i satelliti. L’innalzamento di questo muro di censura riflette la paranoia e il timore del regime, convinto che il sistema della Repubblica islamica possa essere minacciato dalle comunicazioni tra i cittadini; di conseguenza persino delle semplici app di ridesharing o di shopping vengono considerate una potenziale minaccia.  Questa misura non è però stata priva di conseguenze per l’economia iraniana. Il 26 gennaio, il ministro delle Tecnologie dell’Informazione e della Comunicazione, Sattar Hashemi, ha comunicato che il blackout totale è costato all’economia nazionale circa 5mila miliardi di Toman al giorno. Per questo motivo, informa FilterWatch, verso metà gennaio le autorità iraniane hanno optato per l’attuazione del sistema di whitelist. DAL BLACKOUT ALLA WHITELIST Prima del blackout, i cittadini iraniani avevano bisogno di una VPN per accedere ad alcune piattaforme, siti web e app vietati e inseriti in una lista nera. Ora, con le “liste bianche”, l’approccio alla censura sembra capovolgersi, limitando ulteriormente ciò che può essere visibile e fruibile.  La whitelist è infatti un ambiente digitale restrittivo in cui l’accesso è consentito esclusivamente a un elenco predefinito e approvato di siti web, indirizzi IP o applicazioni. Tutto ciò che non è esplicitamente incluso nella lista viene bloccato. Tra le piattaforme e servizi internazionali che a metà gennaio sono stati “whitelisted”, ossia ripristinati, figurano: Google, Bing, Google Meet, Gmail, Outlook, Play Store, App Store, Apple, ChatGPT, GitHub e Google Maps. È bene però precisare che il segnale Internet non è uniforme in tutto il territorio iraniano e varia a seconda del fornitore. Per quanto riguarda i social media e le piattaforme di messaggistica, invece, Instagram, Telegram, YouTube, WhatsApp e X erano accessibili solo attraverso strumenti di elusione, presentando comunque caratteri di instabilità. L’eventualità di passare alle whitelist non è stata una decisione improvvisa, ma, al contrario, una scelta calcolata e annunciata con diverse ore di anticipo. Le analisi degli esperti di Kentik hanno dimostrato che già dalla mattina dell’8 gennaio le nuove rotte IPv6 – ovvero le informazioni che permettono a Internet di raggiungere gli indirizzi di rete – sono state ritirate, mentre la maggior parte delle vecchie rotte IPv4 è rimasta visibile all’esterno. Il mantenimento delle rotte IPv4 indica un cambiamento strategico, volto a esercitare un controllo più preciso. Questo potrebbe essere stato fatto, appunto, per limitare l’accesso esclusivamente a determinati servizi governativi selezionati attraverso whitelisting. Lo shutdown di gennaio però presenta un’altra caratteristica particolare. Oltre aver attivato le whitelist, il governo iraniano ha selezionato una serie di utenti autorizzati (media filogovernativi, università, centri di ricerca e aziende specifiche) consentendo loro una connettività limitata. A spiegare come funziona questo modello “di permessi” è stato il report di Zoomit, che ha preso come riferimento il suo uso all’interno della Camera di Commercio di Teheran.  In pratica, i commercianti sono stati obbligati a registrare fisicamente i loro biglietti da visita e gli indirizzi IP dei dispositivi, generando una “traccia digitale” che legava ogni attività a un’identità certificata. Questo processo consentiva alle autorità di sorvegliare e monitorare continuamente le azioni online dei commercianti, assicurando la tracciabilità delle operazioni per evitare attività non autorizzate o illegali. Tuttavia l’accesso a Internet risultava limitato a determinate aree fisiche dell’edificio. L’identificazione e il tracciamento presenti in questa pratica rientrano in una forma di autoritarismo digitale, confermando la natura repressiva del regime iraniano. OLTRE LA WHITELIST: IL CASO DELLA RUSSIA Il modello whitelist è diventato un potente strumento in mano ai regimi. Un altro paese che applica severe restrizioni per l’accesso a internet e dove sono state introdotte le “liste bianche” è la Russia. Esattamente come in Iran, anche in Russia le whitelist sono state adottate per limitare perdite economiche, oltre che per evitare reazioni negative da parte dei cittadini, permettendo alle persone di continuare ad accedere a piattaforme di shopping e social media.  Tuttavia, il 20 febbraio, il regime russo ha fatto un ulteriore passo in avanti in termini di censura: è stata infatti approvata una nuova misura legislativa che consentirebbe al Servizio di sicurezza federale (FSB) di bloccare Internet all’interno del paese. In pratica questa legge conferisce al presidente Vladimir Putin il potere di decidere personalmente quando le comunicazioni online dovrebbero essere interrotte, sia a livello nazionale che in specifiche regioni, comprese le zone occupate dell’Ucraina, senza dover fornire alcuna motivazione.  La legge elimina inoltre ogni responsabilità per i fornitori di servizi Internet. Questa è solo l’ultima di una serie di misure che hanno progressivamente limitato la libertà di informazione e rafforzato il controllo statale sui contenuti online. Sempre a febbraio, le autorità russe hanno infatti tentato di bloccare completamente WhatsApp, con l’obiettivo di promuovere il servizio di messaggistica Max, controllato e sostenuto dallo Stato. In Russia, come in Iran, per attuare tali provvedimenti si usa la giustificazione che rientrano all’interno di “misure per garantire la sicurezza nazionale” dovute a conflitti o minacce esterne. In realtà, dietro questa censura si cela, in maniera nemmeno troppo implicita, la volontà di eliminare e contenere il dissenso e allargare il controllo statale. INTERNET A 2 LIVELLI E APARTHEID DIGITALE  In Iran con il blackout di gennaio l’uso delle whitelist è diventato preponderante, quasi una via preferenziale. Questo modello è però incluso in un progetto statale iraniano ben più ampio e complesso, che affonda le sue radici in politiche di controllo digitale già in atto da tempo: “l’internet a 2 livelli”. Conosciuto con il nome di Internet-e-Tabaqati, appunto “internet a 2 livelli” o internet “basato su classi”, è stato ideato nel 2009, ma istituzionalizzato lo scorso luglio, quando il Consiglio Supremo del Cyberspazio dell’Iran lo ha approvato attraverso un regolamento.  In un paese come l’Iran, dove i diritti umani sono frequentemente violati, non sorprende che l’accesso a Internet sia stato quindi organizzato su base gerarchica, con il privilegio di connettersi riservato a chi appartiene a determinate classi sociali e/o professionali. Mentre la maggioranza dei cittadini viene confinata in una intranet controllata, la già citata NIN, l’accesso alla rete globale viene riservata esclusivamente a un’élite ristretta.  Senza mezzi termini si può dire che in Iran l’accesso a Internet non sia più considerato un diritto, ma un privilegio concesso dal governo. È all’interno di questa struttura che, da alcuni anni, agenzie di intelligence, operatori dei media statali, funzionari governativi, forze di sicurezza e un gruppo selezionato di individui favoriti dal regime, possono utilizzare le cosiddette “SIM bianche”, aggirando così la censura statale e accedendo a piattaforme altrimenti bloccate, quali Instagram, Telegram o WhatsApp. Questo meccanismo non solo amplifica la disuguaglianza, ma crea anche un sistema a due livelli di cittadinanza digitale, o per meglio dire di apartheid digitale. UGANDA E AFGHANISTAN, GLI ALTRI SHUTDOWN DIGITALI Mentre in Iran era in corso uno tra i più drammatici shutdown della storia, i cittadini ugandesi, pochi giorni dopo, il 13 gennaio, hanno iniziato a vivere un’esperienza simile di isolamento digitale. L’Uganda è un paese in cui, esattamente come in Iran, vige una forte repressione del dissenso; non stupisce quindi che, in concomitanza con le elezioni generali del 15 gennaio, la Commissione per le comunicazioni del governo ugandese abbia ordinato a tutti gli operatori di rete mobile e ai fornitori di servizi Internet di interrompere l’accesso pubblico alla rete nazionale, oltre che di disattivare le VPN, bloccare le chiamate internazionali in uscita dal paese e impedire l’attivazione di nuove SIM card.  Le autorità ugandesi hanno giustificato la censura citando il rischio di “disinformazione online”, “frodi elettorali” e la necessità di salvaguardare la stabilità nazionale.  Oltre alla militarizzazione dei seggi, i cittadini ugandesi sono stati impossibilitati a informarsi, comunicare e a lavorare. Il blocco digitale ha interrotto l’accesso a social media, navigazione web, streaming video, email e messaggistica, ma a differenza del blackout in Iran, i servizi essenziali come quelli sanitari, bancari, fiscali, pubblici e il portale elettorale sono rimasti attivi. Sul piano pratico questa misura ha causato enormi disagi, colpendo in particolare venditori e commercianti che utilizzano i social per promuoversi; ma anche giornalisti e insegnanti hanno subito danni: i primi non hanno potuto svolgere il loro lavoro, mentre i secondi non sono nemmeno riusciti a inviare appunti o compiti agli studenti, i quali a loro volta non hanno potuto partecipare alle lezioni online. Il blocco inoltre ha comportato un cambiamento radicale nello stile di vita di molte famiglie, che sono tornate a guardare la televisione per passare il tempo, seguendo programmi in diretta o acquistando vecchi film nei negozi. Lo shutdown è durato 5 giorni, nonostante ciò le metriche diffuse da Netblocks il 18 gennaio mostravano che l’accesso a numerose piattaforme di social media e messaggistica apparivano ancora inaccessibili.   Da quando i talebani sono ritornati al potere in Afghanistan, alle bambine con più di 12 anni è vietato ricevere qualsiasi tipo di istruzione e le lezioni online risultano perciò indispensabili. Per questo, il blackout di internet del 29 settembre 2025, e terminato il 1° ottobre, ha suscitato gravi preoccupazioni, poiché per le donne e le ragazze afghane ha comportato un ulteriore e drammatico isolamento. Già costrette a vivere ai margini della vita pubblica, con questa misura le donne e bambine hanno subito una doppia esclusione, sia fisica che digitale. I talebani non hanno spiegato ufficialmente la loro decisione, ma la chiusura è avvenuta poche settimane dopo che il gruppo islamista estremista aveva bloccato l’accesso alla rete in fibra ottica in diverse province, giustificando la misura con timori riguardo “all’immoralità”. Mentre dunque il paese cercava di risollevarsi da un devastante terremoto di magnitudo 6, il regime dei talebani ha deciso di attuare un blocco di internet: le conseguenze sono state devastanti con le comunicazioni di emergenza  interrotte, i voli bloccati, il sistema bancario paralizzato e l’impossibilità di accedere a siti di e-commerce e d’istruzione online, creando enormi difficoltà per tutta la popolazione. L'articolo Iran, Russia e non solo: l’architettura della repressione digitale proviene da Guerre di Rete.
March 5, 2026
Guerre di Rete
Assalto al trono di Nvidia
Immagine in evidenza: logo di Nvidia, immagine rielaborata con AI A prima vista, le cose per Nvidia non potrebbero andare meglio. Il colosso statunitense delle GPU detiene oggi il 92% di questo specifico settore e una quota pari al 70-75% del più complessivo mercato dei chip impiegati nell’ambito AI. Nel 2025, la società fondata da Jensen Huang ha messo a segno ricavi per circa 200 miliardi di dollari (oltre il doppio di quanto fatturato nell’anno precedente), ha ottenuto guadagni per 32 miliardi nel corso di un unico trimestre e può vantare al momento la maggiore capitalizzazione di mercato al mondo (4.600 miliardi di dollari, contro i 3.900 della seconda classificata Apple). Un dominio quasi inevitabile, per l’azienda che con le sue GPU – processori nati per l’elaborazione grafica dei videogiochi, ma che si sono dimostrati estremamente efficienti per l’addestramento e l’utilizzo dei sistemi d’intelligenza artificiale – ha reso possibile la rivoluzione del deep learning ed è oggi praticamente l’unica azienda in grado di guadagnare dal complicato, dal punto di vista economico, settore dell’AI generativa. Il ruolo di Nvidia è talmente centrale che, lo scorso novembre, gli occhi di tutti gli operatori finanziari erano puntati proprio sui suoi risultati trimestrali, perché si temeva che una crescita anche solo leggermente inferiore alle attese avrebbe fatto scoppiare la bolla dell’intelligenza artificiale (pericolo per il momento scongiurato o almeno rinviato). In questa fase, Nvidia può addirittura farsi carico dell’espansione infrastrutturale del settore dell’AI generativa, essendo diventata il fulcro di un complicatissimo meccanismo di prestiti e finanziamenti che ha ovviamente l’obiettivo finale di vendere un numero sempre maggiore di GPU. Nonostante alcuni inciampi (com’è il caso del promesso investimento in OpenAI, recentemente ritirato), questo meccanismo può essere sintetizzato così: Nvidia presta o investe capitale in startup e grandi sviluppatori di modelli, che utilizzano quei fondi per acquistare infrastruttura di calcolo – spesso proprio GPU Nvidia – alimentando una domanda che in parte contribuisce essa stessa a creare. Se tutto ciò non bastasse, Jensen Huang ha ultimamente messo in atto la più classica pratica da monopolista della Silicon Valley, iniziando a inglobare le startup che potrebbero in futuro minacciarne la posizione dominante. È il caso del maxi-accordo da 20 miliardi di dollari con cui ha acquistato gli asset tecnologici e ha assunto parte del team di Groq, società che produce chip specializzati – in termini tecnici ASIC – nella fase di inferenza dell’intelligenza artificiale (vale a dire il carico di lavoro svolto durante l’utilizzo dei sistemi generativi). Basterà tutto ciò a mettere al riparo Nvidia da un numero crescente di concorrenti sempre più agguerriti, che puntano a ridurre la loro dipendenza dalle GPU di Jensen Huang, a produrre chip specializzati dalle prestazioni ancora più elevate (in termini computazionali o di efficienza energetica) e a consentire alla seconda superpotenza tecnologica – la Cina – di liberare tutte le proprie potenzialità? LA MINACCIA DI GOOGLE “C’è la sensazione strategica, tra i clienti e nel mercato complessivo, che la dipendenza da Nvidia, e dai suoi prezzi elevati, debba essere interrotta”, ha spiegato, parlando con El País, l’analista Fernando Maldonado. “Tutti i principali fornitori di servizi cloud stanno progettando i loro specifici chip per compiti differenti. Più in là nel tempo, la quota di mercato di Nvidia potrebbe iniziare a ridursi” Dei vari concorrenti che stanno scaldando i motori nessuno è più minaccioso di Google: azienda storicamente leader nel campo dell’intelligenza artificiale, che ha reso possibile l’avvento dei large language model, sviluppando nel 2017 l’architettura Transformer, e che per il loro addestramento sfrutta da sempre una combinazione di GPU Nvidia e delle sue TPU (Tensor Processing Unit), ovvero acceleratori hardware progettati internamente, in collaborazione con Broadcom, e ottimizzati per il calcolo delle reti neurali. Questa coabitazione di GPU e TPU potrebbe presto giungere al termine: Gemini 3 – il più avanzato large language model di Google – è stato infatti addestrato utilizzando esclusivamente le TPU prodotte dal colosso di Mountain View, prefigurando quindi un futuro in cui Nvidia potrebbe perdere uno dei suoi più importanti clienti. Ma c’è altro: Google ha infatti iniziato a stringere accordi commerciali che consentono a varie società del settore di utilizzare le proprie TPU al posto delle GPU di Nvidia. Il più importante di questi accordi è stato stipulato a ottobre 2025 e prevede che Anthropic – una delle principali realtà dell’intelligenza artificiale e sviluppatrice di Claude – spenda “decine di miliardi di dollari” per accedere fino a un milione delle TPU di Google. Un accordo simile, ma su scala più ridotta, è stato siglato con la startup Safe Superintelligence (fondata dall’ex di OpenAI Ilya Sutskever). Fino a oggi, gli sviluppatori di intelligenza artificiale potevano accedere alle TPU soltanto attraverso i data center di proprietà di Google, rendendoli così dipendenti dal suo ecosistema cloud e consentendo una flessibilità molto inferiore rispetto alle GPU di Nvidia, che si acquistano invece fisicamente e poi si sfruttano a piacimento (al netto della lunghissima lista d’attesa). Adesso la situazione è cambiata: Google ha da pochissimo iniziato, secondo le ultime notizie, a vendere direttamente i propri acceleratori. Tra i clienti troviamo ancora una volta Anthropic (con un acquisto completato da dieci miliardi di dollari e un secondo ordine da 11 miliardi già concordato) e secondo le indiscrezioni anche Meta, che collocherebbe fisicamente le TPU nei propri data center, dove fino a oggi avevano trovato spazio soprattutto le GPU di Nvidia. È questa evoluzione di Google, che si sta quindi trasformando in un vero e proprio produttore di chip, ad aver fatto salire le sue azioni quasi del 50% negli ultimi sei mesi, mentre quelle di Nvidia hanno fatto registrare soltanto un +5%. “La capitalizzazione di mercato è cresciuta di quasi mille miliardi a partire dall’ottobre scorso, anche grazie alla decisione di Warren Buffett di acquistare 4,9 miliardi di azioni durante il terzo trimestre del 2025 e al più generale entusiasmo di Wall Street per le iniziative di Google nel campo dell’intelligenza artificiale”, si legge su Bloomberg. “Google è sempre stato il vero outsider nella corsa dell’intelligenza artificiale. Un gigante per qualche tempo dormiente, ma che adesso si è pienamente risvegliato”. AMAZON E NON SOLO Google è sicuramente il rivale più temibile per Nvidia, ma non è l’unico. Ormai da qualche tempo, Amazon (per la precisione AWS) ha iniziato a sviluppare acceleratori per l’intelligenza artificiale – chiamati Trainium – e dall’anno scorso li sta usando nei propri data center, vendendo l’accesso a svariate realtà del settore. Tra queste troviamo ancora una volta Anthropic, la società di “data intelligence” Databricks, l’azienda giapponese di servizi per l’assistenza clienti Karakuri e parecchie altre. Stando alle dichiarazioni del CEO di Amazon Andy Jassy, gli introiti garantiti dai chip Trainium e Graviton (classiche CPU usate internamente in ambito cloud) sono oggi di “circa 10 miliardi di dollari” e crescono “a tripla cifra” anno dopo anno. Come spiega il New York Times, “sebbene non siano potenti come quelli di Google o Nvidia, Amazon sta installando il doppio dei suoi chip all’interno di ciascun data center, nella speranza di offrire maggiore potere computazionale usando la stessa quantità di energia (grazie alla loro migliore efficienza energetica, ndA)”. Al momento, Anthropic è l’unico vero grande cliente dei Trainium di Amazon, ma in futuro le cose potrebbero cambiare: “Gli esperti ritengono che una partnership di questo calibro possa prefigurare cambiamenti ancor più importanti: quando Anthropic utilizza i chip di Amazon o di Google mostra al resto del mercato che le GPU di Nvidia non sono l’unica opzione”. Al contrario: le alternative continuano ad aumentare. La CEO di AMD, Lisa Su, aveva annunciato qualche mese fa l’intenzione di centrare la produzione aziendale sull’AI generativa, scommettendo che la “domanda insaziabile di capacità di calcolo” non si sarebbe esaurita nel giro di pochi trimestri. Finora i numeri sembrano darle ragione: la capitalizzazione di mercato di AMD è quasi quadruplicata, superando i 350 miliardi di dollari, e l’azienda ha firmato accordi rilevanti per fornire chip a OpenAI e Oracle. Anche Broadcom si sta ritagliando uno spazio crescente grazie alla produzione di chip – le cosiddette XPU – progettati per compiti di calcolo specifici, oltre a hardware di rete indispensabile per collegare tra loro i giganteschi rack di server che popolano i data center dell’AI. Intel, uno dei nomi storici della Silicon Valley, ha clamorosamente mancato la prima ondata dell’AI generativa, ma sta adesso investendo massicciamente sia nella progettazione sia nella produzione di processori avanzati per i data center, nel tentativo di recuperare terreno. E infine c’è Qualcomm, tradizionalmente associata ai chip per smartphone e automobili, ma che nell’ottobre scorso ha annunciato il lancio di due nuovi acceleratori per l’intelligenza artificiale, l’AI200 e l’AI250, caratterizzati da un’attenzione particolare all’efficienza energetica. L’ASCESA DELLE STARTUP La scommessa è quindi duplice: da una parte che la richiesta di processori da utilizzare nell’ambito dell’intelligenza artificiale continuerà ad aumentare; dall’altra che si aprano maggiori opportunità per chi produce hardware specializzato, laddove fino a oggi hanno dominato i processori programmabili e generalisti di Nvidia. “Se si osserva il tasso di crescita del settore, si vede [aumentare la domanda] di hardware specializzato”, ha spiegato Alex Davies, CTO della società finanziaria Jump. “È sempre stato così in tutta la storia dell’ingegneria: si inizia con qualcosa di più generico, poi si cresce a grandissima velocità e alla fine qualcuno capisce che non si può avere un unico prodotto per tutto”. Fino a questo momento, la versatilità delle GPU ha rappresentato il principale vantaggio di Nvidia, che attraverso la piattaforma software CUDA consente di programmare i suoi processori in base alle specifiche esigenze aziendali, fidelizzando inoltre una vastissima schiera di programmatori. I chip di uso generale hanno però i loro svantaggi: “C’è un costo energetico da pagare, perché ci sono parti del processore che non si utilizzano per ciò che serve ma consumano comunque energia”, ha spiegato ancora Maldonado a El País. Considerando quanto sta crescendo il mercato, c’è sicuramente spazio per tutte le soluzioni: dai processori generalisti e programmabili di Nvidia fino alle architetture ASIC più specifiche. Nel complesso, si stima che il giro di affari degli acceleratori per sistemi d’intelligenza artificiale dovrebbe crescere del 16% su base annua fino a raggiungere i 604 miliardi di dollari nel 2033: “Certo, Nvidia continuerà a controllare una parte significativa del mercato, ma anche una piccola percentuale può valere miliardi di dollari”, ha spiegato al New York Times l’analista Jordan Nanos. Mentre i colossi si riorganizzano per aumentare la loro presenza in questo ricchissimo mercato, una serie di startup ambisce a conquistare una fetta della torta, presentando nuove soluzioni: Cerebras è una startup californiana, guidata da Andrew Feldman, che progetta processori creati esclusivamente per l’intelligenza artificiale. Processori, tra l’altro, dalle dimensioni inusuali: “Il nostro chip è grande quanto un piatto da tavola, mentre quello di una GPU ha le dimensioni di un francobollo”, ha spiegato Feldman parlando con l’Economist. Potrebbe sembrare una mossa controintuitiva, visto che il progresso tecnologico è sempre stato anche una corsa alla miniaturizzazione. Eppure, Cerebras permette di usare un solo, enorme chip laddove con le GPU di Nvidia bisogna collegarne un gran numero. Questo permette alle connessioni tra i vari core presenti nel chip di operare migliaia di volte più rapidamente di quanto avviene con le connessioni tra GPU separate. Il suo Wafer-Scale Engine 3 (WSE-3) – il più grande chip per AI mai costruito, con circa 4mila miliardi di transistor e 900mila core – è attualmente impiegato da OpenAI (per Codex-Spark, un LLM ottimizzato per la generazione di codice), Mistral, Perplexity e anche dai laboratori scientifici statunitensi (che lo hanno impiegato, per esempio, nell’ambito della “simulazione molecolare dinamica”). Una lista di clienti impressionante, che ha convinto gli investitori a finanziare Cerebras con un miliardo di dollari per una valutazione da 23 miliardi. Cerebras non è però l’unica startup che partecipa alla grande corsa per ritagliarsi uno spazio nel mondo degli acceleratori per AI. Un’altra realtà californiana, fondata da ex ingegneri di Google, è MatX, che sta sviluppando processori che mirano a fare piazza pulita di tutti gli elementi delle GPU non necessari per l’addestramento degli LLM. In poche parole, MatX punta a creare processori che facciano meno cose, ma in maniera più efficiente. La startup nata nel 2022 ha appena raccolto oltre 500 milioni di dollari in un nuovo round di finanziamento e punta a completare il design del suo chip nel 2026, con spedizioni previste nel 2027. L’elenco delle startup include anche le statunitensi d-Matrix e SambaNova, l’israeliana Hailo, la britannica Graphcore (acquistata nel 2024 da SoftBank), la canadese-statunitense Tenstorrent e tantissime altre. LA CINA PUNTA ALL’AUTOSUFFICIENZA Le maggiori sorprese per Nvidia potrebbero però arrivare dall’altro lato del Pacifico. Non è un caso che Jensen Huang abbia pubblicamente espresso la sua contrarietà alle sanzioni che impediscono la vendita delle GPU più avanzate alla Cina (per quanto recentemente allentate), argomentando che questa politica rischia di accelerare la corsa della Repubblica Popolare per rendersi del tutto autonoma dai processori statunitensi (e quindi intaccando il fatturato di Nvidia, proveniente per il 13% dal mercato cinese). Che la Cina sia dietro agli Stati Uniti soltanto di “pochi nanosecondi” – come affermato dallo stesso Huang – è un’esagerazione, ma i progressi fatti dai produttori di chip del colosso asiatico sono molto significativi. Al momento, le prestazioni del modello H20 – il chip più potente che Nvidia può vendere in Cina, variante dell’H200 – sono già state ampiamente superate da numerosi processori cinesi, tra cui l’Ascend 910C di Huawei e il BW1000 di Hygon (per capacità di calcolo grezza e al netto di un maggiore consumo energetico). Probabilmente proprio allo scopo di aumentare l’adozione di chip autoctoni, Pechino sta adesso a sua volta ostacolando l’acquisto dei chip Nvidia da parte delle aziende cinesi, complicando ulteriormente una situazione già molto difficile. In sintesi: al momento gli Stati Uniti hanno riammesso la vendita dei processori H20, ma è ora la Cina che ne blocca l’acquisto da parte delle sue aziende, adducendo ragioni di sicurezza nazionale. La situazione è caotica e in continua evoluzione, ma l’impressione è che la Cina voglia approfittare della guerra commerciale per aumentare la quota dei suoi campioni nazionali (Huawei, Hygon, Cambricon, MetaX), che oggi detengono il 40% del mercato – per un valore di circa 38 miliardi di dollari – e che potrebbero crescere fino al 50% nel giro di un paio d’anni. Dal punto di vista tecnologico, un aiuto importante potrebbe giungere dai progressi fatti dalla Semiconductor Manufacturing International Corporation (SMIC): l’azienda cinese che si occupa di fabbricare concretamente i chip progettati da Huawei e dagli altri. SMIC è oggi il cuore della strategia industriale cinese nel campo dei processori. Secondo alcuni report, l’azienda sarebbe ormai in grado di produrre anche chip a 5 nanometri, seppur con costi più elevati e rese inferiori rispetto a quelli realizzati dal colosso taiwanese TSMC per i marchi occidentali, le cui dimensioni hanno da poco raggiunto la soglia dei 2 nanometri. Allo stesso tempo, Huawei starebbe investendo per dare vita a delle proprie strutture produttive, diventando quindi un concorrente di SMIC con l’obiettivo di far progredire ulteriormente la capacità cinese di produrre chip avanzati. Ci vorrà ancora parecchio tempo prima che le prestazioni dei chip cinesi possano effettivamente raggiungere quelle statunitensi, ma i timori di Jensen Huang sono fondati: SMIC, Huawei e gli altri campioni di Pechino o Shenzhen stanno facendo rapidi e importanti passi avanti. E un domani potrebbero contribuire ad allargare le crepe del dominio di Nvidia. GPU, ASIC, Acceleratori GPU Le GPU (Graphics Processing Unit) sono processori nati originariamente per l’elaborazione grafica, in particolare per il rendering in tempo reale dei videogiochi. La loro caratteristica distintiva è la capacità di eseguire moltissime operazioni in parallelo, qualità che le rende particolarmente adatte a calcoli matematici ripetitivi e su larga scala. È proprio questa architettura parallela ad averle trasformate, negli ultimi dieci anni, nel motore principale dell’intelligenza artificiale moderna: le GPU sono infatti ideali per addestrare e far funzionare reti neurali profonde. Pur essendo oggi centrali nell’AI, restano chip general purpose, programmabili e utilizzabili anche per molti altri compiti. ASIC Gli ASIC (Application-Specific Integrated Circuit) sono chip progettati per svolgere un compito specifico. A differenza delle GPU, non sono pensati per essere versatili, ma per massimizzare efficienza e prestazioni in una determinata funzione. Nel campo dell’intelligenza artificiale, un ASIC può essere progettato esclusivamente per eseguire operazioni tipiche delle reti neurali, riducendo consumi energetici e costi rispetto a soluzioni più generiche. Proprio perché costruiti “su misura”, gli ASIC offrono spesso prestazioni superiori nel compito per cui sono stati progettati, ma sono meno flessibili rispetto a una GPU.   Acceleratori Il termine acceleratore non indica una specifica categoria tecnica di chip, ma una funzione: un acceleratore è un processore progettato per velocizzare un determinato carico di lavoro. Nel contesto dell’intelligenza artificiale, GPU, ASIC specializzati, TPU o altri chip custom rientrano tutti nella categoria degli acceleratori, perché servono ad accelerare i calcoli necessari per addestrare o utilizzare i modelli. In altre parole, “acceleratore” è il contenitore concettuale più ampio; GPU e ASIC sono alcune delle tecnologie che possono svolgere quel ruolo. L'articolo Assalto al trono di Nvidia proviene da Guerre di Rete.
February 26, 2026
Guerre di Rete
Manualetto di sicurezza digitale per giornalisti e attivisti
Immagine in evidenza: copertina del Manualetto – Ufficio Furore Un mese fa Guerre di Rete aveva presentato una sua nuova pubblicazione, un ebook, intitolato: Manualetto di sicurezza digitale per giornalisti e attivisti. Inizialmente l’ebook era stato spedito in anteprima ai partecipanti al nostro crowdfunding. Ora è disponibile per tutti, e potete scaricarlo qui:   Scarica in formato EPUB Scarica in formato MOBI Scarica in formato PDF Il manualetto è rivolto a due categorie essenziali per il funzionamento della democrazia e del dibattito pubblico, che troppe volte abbiamo visto essere target di attacchi informatici, sorveglianza, campagne d’odio e di molestie nel mondo, in Europa, in Italia. É scritto da giornalisti e attivisti in maniera semplice e discorsiva, ma fornisce anche indicazioni pratiche di base per iniziare a sistemare e a proteggere la propria vita digitale. Passa in rassegna questioni di cybersicurezza fondamentali (utili a tutti), ma si sofferma anche su aspetti specifici legati alle attività di queste due categorie. Come spiego ripetutamente nell’introduzione al volume, il nostro ebook è solo un manualetto. Non pretende di essere una panacea, non assicura di risolvere tutto o di schermarvi da qualsiasi cosa. Tuttavia, può essere un inizio importante. L’ebook è un lavoro collettivo, con tre curatori (Carola Frediani, Sonia Montegiove, Patrizio Tufarolo) e una serie di autori (i giornalisti Raffaele Angius, Carola Frediani, Sonia Montegiove, Rosita Rijtano, e gli attivisti CRP, Matteo Spinelli e Taylor), e con Federico Nejrotti di Ufficio Furore che ne ha curato la grafica. L'articolo Manualetto di sicurezza digitale per giornalisti e attivisti proviene da Guerre di Rete.
February 11, 2026
Guerre di Rete
La disputa tra Agcom e Cloudflare è un assaggio del futuro della rete
Dopo anni di appelli inascoltati, l’Autorità per le garanzie nelle comunicazioni (Agcom) ha comminato un’ammenda di 14 milioni di euro all’azienda statunitense Cloudflare. Il dibattito ha da subito assunto contorni politici e ideologici, sollevando polemiche tra chi difende la posizione del Garante italiano e chi si schiera con il Ceo di Cloudflare Matthew Prince che, peraltro, non ha usato parole di distensione per commentare l’accaduto. Restringere l’episodio alla diatriba tra Agcom e Cloudflare è limitante, perché in gioco c’è il futuro globale della rete e l’idea stessa della sua libertà. È però un valido punto di partenza per valutare i diversi punti di vista. Lo scorso 8 gennaio l’Agcom ha multato Cloudflare dopo che l’azienda ha rifiutato di abbracciare – eseguendone automaticamente gli ordini – il modo in cui l’autorità italiana combatte la pirateria online. Senza ricorrere a tecnicismi, Cloudflare offre un servizio che protegge i siti web dagli attacchi e li rende più veloci, controllando il traffico e bloccando quello sospetto. Di per sé non genera contenuti, tuttavia, può operare come rete di distribuzione dei contenuti (content delivery network) e cache, per rendere la fruizione più efficiente per gli utenti finali, svolgendo dunque un ruolo attivo nella trasmissione degli stessi.    Nello specifico, la diatriba tra l’Autorità italiana e l’azienda californiana si inserisce nel contesto del Piracy Shield, la piattaforma nazionale antipirateria gestita dall’Agcom (il famoso “antipezzotto”), il cui scopo è quello di segnalare domini web, indirizzi IP o servizi (inclusi DNS e VPN) che trasmettono in modo abusivo contenuti protetti da copyright – con enfasi sugli eventi sportivi in diretta – affinché vengano bloccati entro 30 minuti dalla segnalazione.  La piattaforma, entrata in vigore a febbraio del 2024, trova fondamento giuridico nella legge 93 del 14 luglio 2023, ribattezzata “legge antipirateria”. Il Ceo di Cloudflare Matthew Prince ha definito l’intera questione “disgustosa” sostenendo che l’Agcom abbia imposto una forma di censura di contenuti a livello globale e non solo nazionale. L’intera faccenda, in realtà, si riduce proprio a questo: a quanto si possa imporre a un operatore infrastrutturale (quale è Cloudflare) di agire senza una copertura giudiziaria, senza il tempo materiale di valutare la legalità e la proporzionalità della richiesta. Compiti che dovrebbero essere assolti da istituzioni abilitate e che invece la legge e il Piracy Shield scaricano sulle spalle di operatori privati.  COSA NON VA NEL PIRACY SHIELD Le critiche al Piracy Shield sono piovute sia in patria sia all’estero, ma vanno distinte. La necessità di bloccare la diffusione illecita di contenuti non è mai stata direttamente messa in discussione. A porre qualche riserva è il rischio di overblocking (blocco eccessivo) e i possibili impatti sulle risorse legittime. Emanuele De Lucia, Chief Intelligence Officer di Meridian Group, offre il proprio punto di vista: “Da ricercatore, più che uno scontro tra parti, osservo un disallineamento tra la velocità dell’ecosistema digitale e gli strumenti normativi attuali. Oggi le minacce, inclusa la pirateria, sono fluide: non risiedono su un server statico, ma si muovono su infrastrutture globali progettate per essere resilienti e che agiscono come enormi ‘autostrade’ per il traffico internet. Nella pratica, chiediamo ai fornitori di internet italiani (ISP) di agire da doganieri, bloccando interi camion (gli indirizzi IP) perché dentro potrebbe esserci un pacco illegale. Questo ovviamente rischia di bloccare anche la merce lecita”.  Gli impatti sulle risorse legittime sono potenzialmente disastrosi. Celebre è quanto accaduto a ottobre del 2024, quando il Piracy Shield ha bloccato per errore l’accesso a Google Drive, colpendo una percentuale significativa di utenti italiani. “Dal punto di vista tecnico, si sta cercando di risolvere una violazione di contenuto (copyright) agendo sull’infrastruttura di trasporto. È una strategia che strutturalmente e statisticamente porta al rischio di overblocking e dunque di colpire anche attività legittime – come ospedali, infrastrutture critiche o imprese – che condividono le stesse risorse di rete dei flussi illeciti”, sottolinea Emanuele De Lucia. Le voci critiche arrivano anche dall’estero. A gennaio del 2025, l’ente internazionale di lobbying tecnologico Computer & Communications Industry Association (CCIA), ha inviato una lettera alla Commissione europea criticando il Piracy Shield, che consente a chi possiede i diritti d’autore di un contenuto illecitamente diffuso di segnalare, attraverso la piattaforma Piracy Shield, gli indirizzi IP che lo trasmettono. Se la richiesta è legittima, il provider deve applicare il blocco entro 30 minuti.  La CCIA mette l’accento su due aspetti problematici. Il primo è l’esiguo tempo a disposizione, che non consentirebbe agli ISP di avviare le dovute verifiche con potenziali ricadute su servizi e utenti che nulla hanno a che fare con le violazioni lamentate. Il secondo è la mancanza di trasparenza nella procedura, che va dalla segnalazione della risorsa da bloccare al momento in cui questa viene oscurata. UNO SCUDO SPROPORZIONATO Alla luce delle critiche sollevate da più parti e dirette tanto all’Italia quanto all’Europa (nel quadro del Digital Services Act, DSA), le criticità del Piracy Shield sembrano essere più legate a questioni politiche ed economiche su larga scala che al contenimento della pirateria.  La CCIA lamenta in particolare che il Piracy Shield potrebbe essere incompatibile con l’articolo 9 del DSA, che stabilisce quali elementi devono essere inclusi negli ordini che impongono di agire contro i contenuti illegali. In sintesi, l’articolo 9 richiede che gli ordini contengano informazioni precise per identificare il contenuto illegale. Le fonti criticano il Piracy Shield poiché utilizza blocchi a livello di indirizzo IP e DNS, definiti strumenti grossolani e imprecisi che portano all’overblocking di servizi legittimi, come accaduto nel caso di Google Drive. Il Piracy Shield sarebbe inoltre sproporzionato, poiché mentre il DSA prevede che l’obbligo di segnalare sospetti reati si applichi solo agli hosting provider e solo in caso di minacce alla vita o alla sicurezza, la legge italiana estende tale obbligo a tutti gli intermediari per qualsiasi violazione del diritto d’autore, anche minima. Il mancato rispetto di questa norma in Italia può comportare, in alcuni casi, fino a un anno di reclusione, scontrandosi con i principi di necessità e proporzionalità dell’UE. Il DSA limita inoltre la responsabilità dei fornitori intermediari se non partecipano attivamente alla trasmissione o se rimuovono i contenuti una volta informati. Al contrario, le riforme italiane impongono obblighi di segnalazione generalizzati che sembrano ignorare queste tutele. C’è poi il tema della mancanza di trasparenza e del diritto all’opposizione. Il sistema italiano mancherebbe di chiari meccanismi di ricorso per le parti colpite e di protocolli di verifica robusti, elementi fondamentali nel DSA.  Infine, l’uso di blocchi a livello di IP e di DNS non è considerato in linea con i principi di proporzionalità e di libertà di espressione tutelati dal quadro normativo europeo. Il rischio è di colpire tanti per bloccare pochi, poiché più risorse web fanno potenzialmente capo al medesimo indirizzo IP. Per ridurre all’essenziale la diatriba, il Piracy Shield sarebbe stato implementato senza la notifica obbligatoria alla Commissione europea tramite la procedura TRIS (Technical Regulation Information System), aggirando il meccanismo pensato per evitare il varo di leggi nazionali incompatibili con il mercato unico e con il diritto UE. A giugno del 2025, la Commissione europea ha scritto una lettera al ministro degli Esteri Antonio Tajani, palesando alcune discrepanze tra Piracy Shield e DSA. Il timore di Bruxelles è che la piattaforma mini la libertà di espressione e informazione. IL PIRACY SHIELD E LA SPACCATURA IN SENO ALL’AGCOM La commissaria Agcom Elisa Giomi si è opposta alla multa a Cloudflare e, intervistata da Repubblica, ha spiegato: “Il rischio è chiudere un intero centro commerciale solo perché un negozio è irregolare”, riferendosi al fatto che bloccare un indirizzo IP per evitare la diffusione illegale di contenuti significa oscurare tutte le risorse collegate a quello stesso IP. Elisa Giomi ritiene che il Piracy Shield sia squilibrato sia dal punto di vista delle misure a cui conduce, sia dal punto di vista economico. La sua voce però è distante dal coro dell’Agcom. Il commissario Agcom Massimiliano Capitanio, che abbiamo provato a contattare senza fortuna, ha espresso il suo parere in un post su LinkedIn, nel quale raccoglie e condensa (soltanto) i pareri favorevoli di utenti e associazioni, per poi concludere: “La multa da 14 milioni di euro non riguarda la libertà di espressione, ma la tutela dei diritti e dei posti di lavoro saccheggiati dalla pirateria”. Di avviso praticamente identico anche il commissario Agcom Antonello Giacomelli, secondo il quale la sanzione comminata a Cloudflare non è né una forzatura né un attacco alla libertà di internet. Da una parte, i difensori del Piracy Shield che si concentrano sulle cause (la pirateria); dall’altra, i detrattori che valutano gli effetti secondari e non meno gravi che la piattaforma può causare. PERCHÉ IL CASO AGCOM VS. CLOUDFLARE METTE IN DISCUSSIONE IL FUTURO DI INTERNET Allargando il quadro, si intuisce come la radice del problema sia la difficoltà di sottoporre a leggi territoriali qualcosa che, per sua natura, è globale, cercando di incasellare in logiche nazionali internet e il traffico di dati. Questo fa della diatriba tra Agcom e Cloudflare qualcosa di molto più grande della mera lotta alla pirateria e assume i connotati di una controversia che rappresenta un nodo cruciale per il futuro di internet, sollevando questioni fondamentali sulla libertà della rete, la neutralità tecnologica e il rapporto tra sovranità nazionale e infrastrutture globali.  L’Electronic Frontier Foundation (EFF), una delle organizzazioni più autorevoli nella difesa delle libertà digitali, ha più volte evidenziato i pericoli del filtro DNS, uno strumento che può essere abusato a fini di censura e che non a caso è tanto caro ai paesi che, come Iran e Cina, esercitano il controllo sulle infrastrutture internet per sopprimere e oscurare contenuti ritenuti sconvenienti o immorali. Accettando che ogni Stato possa imporre blocchi infrastrutturali con effetti extraterritoriali, senza una cornice giuridica solida, Internet smette di essere una rete globale e diventa una collezione di giurisdizioni che vanno inevitabilmente a cozzare tra loro. Il caso Agcom vs Cloudflare è quindi un chiaro esempio dell’equilibrio claudicante tra leggi territoriali e leggi sovranazionali in riferimento a infrastrutture digitali. Anche la libertà di espressione ne esce ammaccata, se un sistema automatizzato (il Piracy Shield) si fa carico di oscurare contenuti illeciti senza meccanismi di verifica della correttezza delle segnalazioni. UN BILANCIAMENTO COMPLESSO E LE VIE PERCORRIBILI Se il Piracy Shield, di per sé, rappresenta uno strumento utile alla lotta alla pirateria, la sua messa in pratica solleva quindi più di un dubbio. Quali sono, allora, le vie percorribili? Per Emanuele De Lucia, “una delle strade percorribili è quella della cooperazione, non della coercizione. I grandi player infrastrutturali (come Cloudflare, Google o Akamai) non sono il nemico, ma parte della soluzione. Invece di imporre filtri a valle, che potrebbero impattare la connettività per tutti, servirebbe lavorare a monte con procedure di notifica e takedown rapide, che colpiscano la sorgente del contenuto e non l’autostrada su cui viaggia. L’idea è quella di andare a confiscare il ‘pacco illegale’ direttamente nel magazzino nel quale si trova, lasciando l’autostrada libera per tutti. Tecnologicamente esistono già gli strumenti (API di segnalazione, Trusted Flaggers) per farlo in pochi secondi, senza intasare la rete. In definitiva, credo che dovremmo iniziare a sviluppare strategie di contrasto che abbiano la stessa granularità delle architetture che vogliamo regolare”. Proprio mentre scriviamo, Cloudflare ha annunciato il ricorso contro la sanzione comminata dall’Agcom. Il Ceo Matthew Prince non ha attenuato i toni: “L’Agcom non capisce internet”. Una posizione che fotografa il clima di contrapposizione frontale che si è creato attorno al Piracy Shield. Per Emanuele De Lucia, però, questa dinamica di scontro non porta lontano: “Credo sia necessario un cambio di passo. In primo luogo, bisogna prendere atto che il blocco IP in questi ambienti è uno strumento  pericoloso per la stabilità della rete nazionale. La soluzione non può essere totalmente tecnica se la tecnica stessa (come l’Encrypted Client Hello o la rotazione degli IP) è disegnata per aggirare questi blocchi in pochi secondi. Ma soprattutto il muro contro muro non porta da nessuna parte”. L'articolo La disputa tra Agcom e Cloudflare è un assaggio del futuro della rete proviene da Guerre di Rete.
February 5, 2026
Guerre di Rete
Perché le aziende faticano a integrare l’intelligenza artificiale
Immagine in evidenza da Unsplash Se dovessimo riassumere le ragioni per cui l’intelligenza artificiale generativa rischia di rivelarsi una colossale bolla, potremmo sintetizzare la questione così: a fronte di investimenti miliardari da parte delle Big Tech, impegnate in una forsennata corsa allo sviluppo di strumenti sempre più potenti, non corrisponde ancora un ritorno economico che giustifichi l’impegno per vincere una gara in cui non è ancora chiaro il premio in palio.  Nel settore consumer nessuno è ancora stato in grado di trovare forme di monetizzazione credibili. OpenAI, che secondo i dati più recenti detiene il 64,5% del mercato delle AI conversazionali (in calo rispetto all’86,7% del 2024), ha più di 800 milioni di utenti, ma solo il 5% di questi (circa 40 milioni) è titolare di un abbonamento a pagamento. Un dato deludente, che ha contribuito a convincere OpenAI a introdurre gli annunci pubblicitari nel suo servizio.  Le cose non vanno meglio per Google, che sta integrando in tutti i suoi servizi Gemini, senza che però sia ancora chiaro quali risultati economici tutto ciò porterà. Fino a questo momento, il colosso di Mountain View ha ottenuto soprattutto il risultato di penalizzare il traffico web, cannibalizzato dalla modalità AI Overview del suo motore di ricerca.  Diversa ancora la situazione in casa Microsoft, che insiste a promuovere i suoi nuovi (e costosi) PC dotati di Neural Processing Unit facendo leva sull’idea che “chi non è pronto per l’AI rimarrà indietro”. Peccato che ben pochi utenti sentano il bisogno di avere nel proprio computer degli acceleratori hardware specializzati in machine learning. A salvare questa affannosa rincorsa ai ricavi potrebbe contribuire il settore business. Anche qui, però, ci sono una serie di problemi che stanno rallentando l’adozione di strumenti basati sull’intelligenza artificiale generativa. Problemi che non sembrano essere di facile soluzione. LA GEN AI IN AZIENDA, TRA HYPE E BASSA ADOZIONE Il mondo dell’impresa è quello che ha forse preso più sul serio il balzo evolutivo legato all’AI. Il fenomeno va però messo in prospettiva: l’impressione è che la maggior parte delle aziende investa in strumenti di intelligenza artificiale soltanto per non dare l’impressione di “restare indietro” rispetto alla concorrenza. Ma qual è il reale impatto dell’AI a livello di produttività? Orientarsi tra le numerose ricerche individuabili sul web è piuttosto difficile. Nella maggior parte dei casi, per esempio, si tratta di report pubblicati dalle stesse Big Tech che promuovono l’adozione dell’AI generativa, dipingendo un settore in crescita ed elevati aumenti di produttività.  Una ricerca IBM relativa all’area EMEA (Europa, Medio Oriente e Africa) riporta come il 66% delle aziende avrebbero riscontrato “significativi miglioramenti della produttività operativa grazie all’AI”. Altri dati che fanno immaginare un vero boom nell’uso dell’intelligenza artificiale generativa provengono da una ricerca di Boston Consulting Group, secondo la quale gli strumenti di AI verrebbero utilizzati regolarmente dal 72% dei lavoratori. Peccato che altri indicatori, provenienti da fonti istituzionali, siano di segno opposto. È il caso dei dati pubblicati settimanalmente dallo United States Census Bureau e raccolti nel Business Trends and Outlook Survey. Nel momento in cui scriviamo,  la percentuale di aziende ed enti pubblici negli Stati Uniti che utilizza l’AI “in una qualsiasi delle sue funzioni aziendali” sarebbe inferiore al 20%. Com’è possibile una differenza di questo tipo? DI QUALE AI STIAMO PARLANDO? Al di là della (siderale) distanza tra i dati dell’Ufficio del Censimento USA e le ricerche di società private, bisogna considerare quanto le statistiche non distinguano attentamente tra i vari strumenti di AI, facendovi rientrare, per esempio, strumenti di produttività  individuale come i vari chatbot commerciali (ChatGPT, Gemini, Claude, ecc.), il cui impatto trasformativo a livello aziendale è praticamente nullo.  In altre parole, l’uso di massa dell’AI generativa indicato da IBM e BCG non riguarda l’implementazione organica di questi sistemi da parte delle aziende, ma l’utilizzo “dal basso”, da parte dei singoli lavoratori che impiegano i sistemi consumer per velocizzare operazioni ripetitive o imboccare qualche scorciatoia per aumentare la produttività, sfruttando la traduzione automatica, la generazione assistita di documenti, l’uso di chatbot per l’assistenza clienti e simili. Non solo: spesso l’utilizzo degli strumenti di AI generativa non rappresenta soltanto una scelta autonoma del lavoratore, ma viene fatta in modo clandestino e impiegando servizi gratuiti o personali sul luogo di lavoro. Questa tendenza porta con sé anche conseguenze indesiderabili, come il fenomeno della cosiddetta shadow AI (l’uso non autorizzato di qualsiasi strumento o applicazione di intelligenza artificiale da parte di dipendenti). L’impiego di sistemi di AI generativa con queste modalità, o addirittura il loro uso “clandestino”, pone infatti rilevanti problemi di sicurezza e il rischio di condivisione involontaria di informazioni riservate. Per quanto riguarda strumenti più evoluti e pensati appositamente per l’integrazione aziendale – come Einstein GPT di Salesforce o le soluzioni AI enterprise di Oracle – le cose sono decisamente più complicate e ai toni entusiasti si sostituisce una diffusa timidezza. Le applicazioni professionali dell’AI a livello business passano dagli strumenti integrati all’interno di piattaforme software come ERP (Enterprise Resource Planning, la gestione dei processi interni), CRM (Customer Relationship Management, la gestione della relazione con il cliente) o strumenti di analisi; per arrivare alle soluzioni di personalizzazione aziendale dei large language model. In questi casi, l’adozione di strumenti di AI generativa prevede investimenti non indifferenti e la definizione di strategie di medio e lungo periodo. Ed è qui che arrivano i primi dolori, sintetizzati da un report pubblicato dal project NANDA, iniziativa avviata dal Massachusetts Institute of Technology. La ricerca ha sollevato un vero e proprio polverone nell’ambiente, in particolare per un dato: il 95% delle aziende che hanno investito in progetti basati sull’uso di AI generativa non avrebbe avuto alcun ritorno misurabile in termini di trasformazione. Secondo gli autori, la causa di questo fallimento sarebbe da individuare in un approccio sbagliato all’AI, basato su sperimentazioni superficiali che non incidono sull’organizzazione e non producono valore economico reale. Accanto alle incertezze legate all’effettivo ritorno dell’investimento in innovazione, a frenare le imprese sono però anche elementi più concreti. Uno di questi è legato al tema delle infrastrutture tecnologiche e degli investimenti che richiedono. LA ROULETTE RUSSA DEI DATA CENTER Qualsiasi progetto nel settore dell’information technology pone l’azienda di fronte a un bivio: investire per l’acquisto di server creando un proprio data center on premise o rivolgersi al cloud, noleggiando il potere di calcolo da un hyperscaler come Microsoft, Google o Amazon Web Services? Entrambe le opzioni comportano vantaggi e rischi. Creare un proprio data center permette di avere maggiore controllo sui costi a cui si andrà incontro, ma richiede un ingente investimento iniziale e pone il problema dell’aggiornamento delle macchine. La formula del cloud, che prevede una sorta di pagamento “a consumo” delle risorse utilizzate, permette di spalmare l’investimento e fare affidamento su sistemi aggiornati e servizi innovativi. Il rischio, però, è che in alcuni casi i costi vadano fuori controllo e finiscano per gravare troppo sull’azienda. Negli ultimi anni, le imprese hanno (faticosamente) preso le misure e, per quanto riguarda le applicazioni tradizionali, hanno individuato parametri affidabili per orientarsi nella scelta. I dati variano a seconda dei report, ma la tendenza sembra essere che una percentuale superiore alla metà si affida ai servizi delle grandi imprese, mentre la parte restante si divide tra data center locali e infrastrutture di private cloud. Quando si parla di AI generativa, però, i responsabili IT non hanno nessuno strumento che gli permetta di orientarsi chiaramente nella scelta. Si tratta, infatti, di una tecnologia in rapida evoluzione e per la quale non sono disponibili dati storici sull’impatto a livello infrastrutturale. Rivolgersi al cloud con la formula a consumo apre quindi al rischio di trovarsi a far fronte a spese esorbitanti. Chi volesse usare un data center proprio rischierebbe invece, per le stesse ragioni, di trovarsi a gestire consumi elettrici fuori controllo. A scoraggiare chi considera questa seconda scelta c’è anche il fatto che i costi per l’hardware negli ultimi mesi sono lievitati ai massimi storici, paradossalmente proprio per la corsa allo sviluppo dell’AI, che ha innescato un rialzo dei prezzi a causa dell’eccessiva domanda.  E le cose non sono destinate a migliorare: Nvidia e AMD avrebbero infatti pianificato un aumento dei prezzi delle GPU utilizzate per l’AI, mentre il costo della memoria RAM è aumentato del 500%, con ripercussioni anche sul prezzo dei prodotti destinati al consumo di massa. Insomma: chi volesse creare un data center dedicato ai servizi AI, oggi, dovrebbe spendere una fortuna. Un problema non da poco, soprattutto per le organizzazioni, come quelle che operano nel settore bancario, sottoposte a stringenti normative che le obbligano a utilizzare data center proprietari per ragioni di sicurezza e privacy. LA DIFFIDENZA VERSO I FORNITORI DI SERVIZI AI L’ultimo aspetto che frena il processo di adozione dell’AI generativa a livello strutturale è legato al fenomeno del cosiddetto lock-in, cioè il vincolo che si crea nel momento in cui si sceglie un fornitore di servizi. Nel mondo IT, “sposare” una tecnologia significa legarsi mani e piedi a chi la fornisce. E in una fase turbolenta come quella che si sta vivendo nel mondo dell’AI rischia di diventare un azzardo. Per il momento gli investitori stanno alimentando la corsa dell’intelligenza artificiale in vista dei potenziali ritorni futuri, ma se le cose dovessero cambiare le imprese temono che a farne le spese possano essere i clienti. Qualcosa di simile lo abbiamo visto con Microsoft. L’azienda di Redmond, dopo aver introdotto Copilot in Office 365, ha alzato il prezzo dell’abbonamento del 30% applicando l’aumento automaticamente a tutti i clienti, compresi quelli che non avevano nessun interesse a utilizzare il nuovo strumento.  Se un normale consumatore può decidere di abbandonare Office e passare ad altri software, in ambito aziendale le cose sono più complicate. Per migrare a un’altra tecnologia serve tempo e denaro. Il timore è che i fornitori ne siano consapevoli e sfruttino questa posizione di vantaggio per tirare la corda a livello di prezzi e rientrare dagli investimenti. E infatti diverse startup che avevano costruito i propri prodotti sull’accesso ai modelli di OpenAI e Anthropic si sono trovate improvvisamente costrette a rivedere i prezzi, introdurre limiti di utilizzo e ridimensionare i servizi offerti a causa dei cambiamenti nei listini e nelle condizioni di accesso alle API.  È il caso, per esempio, di Cursor e Replit, due piattaforme per lo sviluppo software basate su modelli generativi che hanno dovuto modificare i propri modelli di business per assorbire l’aumento dei costi computazionali, legati anche alla necessità di aumentare i ricavi di OpenAI e Anthropic. Una dinamica che mostra quanto, una volta costruita un’infrastruttura sopra uno specifico sistema proprietario, ci si esponga a rischi continui, soprattutto in un ambito dai ritorni ancora incerti come quello dell’AI generativa. E quindi: le società che sviluppano i sistemi di AI generativa hanno bisogno delle aziende per rientrare dai loro immensi investimenti. Le aziende sono però restie a esporsi sotto questo fronte proprio a causa delle incertezze economiche del settore. Il risultato di tutto questo è uno stallo alla messicana da cui nessuno sa come uscire. L'articolo Perché le aziende faticano a integrare l’intelligenza artificiale proviene da Guerre di Rete.
January 28, 2026
Guerre di Rete
Comunicazione quantistica: la nuova frontiera della sicurezza digitale europea
Immagine in evidenza da European Space Agency Quando si parla del rapporto tra quantum computing e sicurezza informatica il pensiero è spesso rivolto al tema della crittografia: in futuro un tecnico potrebbe accendere un computer quantistico all’interno di un data center e in pochi minuti decifrare comunicazioni intercettate e archiviate dieci anni prima, protette dagli algoritmi crittografici moderni (harvest now, decrypt later). Documenti governativi, transazioni bancarie, segreti industriali improvvisamente esposti. Non è fantascienza, ma il potenziale scenario che ha spinto Stati, infrastrutture critiche e organizzazioni di tutto il mondo alla transizione verso nuovi algoritmi di cifratura, resistenti agli attacchi quantistici. Un altro tema cruciale della crittografia del futuro è però quello dello scambio sicuro delle chiavi crittografiche, per impedire che possano essere intercettate o manipolate: un problema che ha portato Europa, Stati Uniti, Cina e Russia a investire massicciamente in un’altra tecnologia: la comunicazione quantistica. L’Agenzia spaziale europea (ESA) ha affidato a un consorzio guidato da Thales Alenia Space un contratto da 50 milioni di euro per la fase di definizione della missione SAGA. L’obiettivo è progettare un satellite capace di generare e distribuire chiavi crittografiche quantistiche per usi governativi e per collegare il futuro network EuroQCI, la dorsale europea per la comunicazione quantistica sicura. Fabio Sciarrino, professore di fisica quantistica alla Sapienza di Roma, ha spiegato che con SAGA l’Europa avrà un segmento spaziale sovrano per la sicurezza delle comunicazioni: “Non si tratta solo di tecnologia: è una questione di autonomia strategica”. Computer quantistici e crittografia moderna: “harvest now, decrypt later” Rubare oggi, decifrare domani. Agenzie di intelligence e attori statali stanno raccogliendo enormi quantità di dati cifrati, sapendo che, tra dieci o quindici anni, i computer quantistici saranno abbastanza potenti da leggerli. “I dati raccolti oggi possono essere messi da parte e letti quando i computer quantistici diventeranno abbastanza potenti”, ha spiegato Giuseppe Vallone, docente all’Università di Padova. “Per settori come sanità, energia e finanza, è un rischio reale”. Nel 2019, Google dichiarò di aver raggiunto la “quantum supremacy”. Nel 2023, IBM superò i 1.000 qubit (l’equivalente dei bit nei computer quantistici) con il chip Condor. Il 9 dicembre 2024, Google ha presentato Willow, un processore da 105 qubit che ha completato in meno di cinque minuti un test sperimentale, progettato appositamente, che per i computer classici avrebbe richiesto un lasso di tempo praticamente infinito. Dal canto suo, IBM ha invece annunciato nel novembre 2025 il chip Quantum Nighthawk con 120 qubit, e punta a Starling per il 2029: un computer quantistico funzionante non più solo su progetti teorici e sperimentali, che sarà costruito nel data center di Poughkeepsie, New York. La timeline della minaccia, dunque, si sta accorciando. I computer quantistici capaci di violare gli algoritmi RSA-2048 potrebbero infatti essere operativi tra il 2030 e il 2035. Per questo il National Institute of Standards and Technology (NIST) statunitense ha pubblicato nel 2024 i primi algoritmi di crittografia post-quantistica, resistenti agli attacchi. Ma proteggono solo i dati futuri, non quelli già rubati. LE ORIGINI DELLA COMUNICAZIONE QUANTISTICA: DALLA TEORIA ALLA REALTÀ La comunicazione quantistica affonda le radici nel 1984, quando Charles Bennett e Gilles Brassard presentarono il protocollo BB84. Era teoria pura: un sistema in cui a garantire la sicurezza non sarebbero state le leggi della matematica, ma della fisica quantistica. Per decenni il protocollo rimase però confinato nei laboratori. Il punto di svolta arrivò nell’agosto 2016, quando la Cina lanciò Micius, il primo satellite al mondo dedicato alla comunicazione quantistica. Micius stabilì collegamenti quantistici sicuri tra Pechino e Vienna, superando i 7.600 chilometri di distanza. Fu il momento Sputnik del XXI secolo: Washington si accorse di essere in ritardo. Come ha recentemente ammesso un funzionario del Pentagono, “per anni abbiamo sottovalutato gli investimenti cinesi nel quantum. Credevamo fossero solo propaganda”. Da Vienna a Tokyo, da Pechino a Ginevra, le prime “reti metropolitane” quantistiche cominciarono a operare. Ma il vero impulso venne dalla consapevolezza che i computer quantistici avrebbero un domani potuto frantumare la crittografia classica. E, con essa, mezzo secolo di segreti digitali. COME FUNZIONA: LA FISICA AL POSTO DELLA MATEMATICA La comunicazione quantistica non è una semplice evoluzione della crittografia: è un cambio di paradigma. La sua sicurezza non dipende dalla complessità computazionale di problemi matematici, ma dall’impossibilità fisica di intercettare un segnale senza alterarlo. Le informazioni sono codificate nello stato fisico dei fotoni, particelle di luce, e ogni tentativo di intercettazione altera inevitabilmente lo stato quantistico del segnale, rendendo rilevabile un’intrusione. “È come lasciare impronte digitali in ogni bit”, ha spiegato Stefano Pirandola, fisico teorico dell’Università di York. “Se qualcuno prova a leggere la chiave, il sistema lo segnala subito”. C’è però un limite: i fotoni viaggiano bene in fibra ottica, ma oltre i 100-150 chilometri il segnale si degrada. Per questo servono i satelliti. In orbita, i fotoni viaggiano nel vuoto con perdite minime, permettendo collegamenti intercontinentali. È qui che SAGA, Micius e i progetti statunitensi entrano in gioco. Del resto, il gruppo del fisico cinese Jian-Wei Pan parla apertamente da tempo di applicazioni su larga scala e di nuovi satelliti ad alta orbita: “Questi ultimi possono collegare due punti sulla Terra distanti 10mila chilometri”, evidenziando le potenzialità di connessioni globali sicure.   Scenari futuri: mappa del quantum Presente (2026) Test operativi di QKD su dorsali in fibra ottica, Qolossus 2.0 operativo alla Sapienza, EuroQCI in costruzione, rete nazionale cinese di 12.000 km pienamente operativa, collegamenti quantistici intercontinentali via satellite. Orizzonte 2027-2030 SAGA operativo tra 2027 e 2029, integrazione completa tra segmento spaziale e terrestre, computer quantistici fault-tolerant (IBM punta a Starling per il 2029), ripetitori quantistici di nuova generazione, espansione commerciale. Applicazioni strategiche Settore bancario: transazioni protette da chiavi quantistiche incorruttibili. Sanità: cartelle cliniche e dati genomici al sicuro per sempre. Energia: controllo delle smart grid senza vulnerabilità. Difesa: comunicazioni militari e diplomatiche su canali quantistici. Infrastrutture critiche: aeroporti, centrali, reti idriche protette da attacchi informatici. Entro il 2035 L’Europa potrebbe disporre di una rete quantistica sovrana che collega tutti gli Stati membri. Le tre tecnologie quantistiche (calcolo, comunicazione, sensori) potrebbero generare fino a 97 miliardi di dollari. Il mercato globale della comunicazione quantistica, valutato in 1,1 miliardi di dollari nel 2024, è previsto che raggiunga i 5,4 miliardi nel 2030. LA CORSA GLOBALE: QUATTRO MODELLI A CONFRONTO La Cina, con il satellite Micius e una rete nazionale in fibra ottica lunga 12mila chilometri, ha investito circa 15 miliardi di dollari in tecnologie quantistiche. A marzo 2025, un team cinese ha realizzato una comunicazione quantistica tra Cina e Sudafrica su 12.900 chilometri via satellite Jinan-1. Nel dicembre 2024, China Telecom ha svelato Tianyan-504, il computer quantistico più potente del Paese con 504 qubit, e contestualmente l’infrastruttura per le comunicazioni sicure “Quantum Secure Link”, che conta quasi 6 milioni di utenti e oltre 3mila organizzazioni. Non è solo tecnologia: è soft power. Offrendo comunicazioni sicure ai Paesi partner, Pechino aumenta la dipendenza tecnologica nei suoi confronti, come fecero gli americani con Internet negli anni Novanta. L’industria quantistica cinese è passata da 93 aziende nel 2023 a 153 nel 2024. La scala dell’industria raggiungerà 1,61 miliardi di dollari entro il 2025. Gli Stati Uniti hanno imparato la lezione dello Sputnik. La strategia attuale di Washington è duplice: crittografia post-quantistica per le comunicazioni di massa, reti quantistiche satellitari per i canali strategici. Il NIST ha già definito i primi algoritmi resistenti ai computer quantistici. NASA e DARPA lavorano su reti sperimentali. Il budget federale per la ricerca quantistica ha raggiunto 998 milioni di dollari per il 2025. A marzo 2024, DARPA ha lanciato il programma QuANET per integrare reti quantistiche con infrastrutture classiche. La National Quantum Initiative – che coordina la strategia federale statunitense – dovrebbe invece essere a breve riautorizzata  fino al 2034, con 2,7 miliardi di dollari destinati a NIST, NSF e NASA. La Russia procede con obiettivi militari dichiarati. Roscosmos e l’Istituto di Fisica Generale hanno testato collegamenti ottici sicuri tra satelliti e basi terrestri, in linea con il piano “Quantum Communications 2030”. La cooperazione con la Cina, dimostrata dal collegamento Mosca-Urumqi del gennaio 2024, segnala un’alleanza tecnologica che preoccupa l’Occidente. Dal canto suo, l’Europa risponde con SAGA e un’articolata strategia quantistica: a marzo 2025 si è chiusa la call EuroQCI con 24 proposte e un budget complessivo di 90 milioni di euro per migliorare la sicurezza delle comunicazioni. Il satellite prototipo Eagle-1 sarà lanciato tra fine 2026 e inizio 2027. A giugno 2025 è stato invece inaugurato il primo computer quantistico EuroHPC a Poznan, seguito a settembre dal sistema “VLQ” a Ostrava. A luglio 2025, la Commissione europea ha inoltre adottato una Strategia Quantistica per consolidare la leadership tecnologica. Anche l’Italia gioca un ruolo importante: il 9 dicembre 2025, la Sapienza di Roma ha presentato Qolossus 2.0, il primo computer quantistico fotonico italiano modulare. A differenza dei sistemi superconduttivi di Google e IBM, Qolossus opera a temperatura ambiente e si integra naturalmente con le comunicazioni quantistiche. Il processore, prodotto in Italia grazie al CNR di Milano e all’Università di Pavia, rappresenta non solo un primato scientifico, ma la nostra carta, come evidenziato in numerose analisi, per non dipendere dalle architetture superconduttive americane o cinesi. È una questione di sovranità tecnologica. La scalabilità dei sistemi fotonici potrebbe cambiare le regole del gioco. “La tecnologia è pronta”, ha spiegato Sciarrino. “Ma la politica e i finanziamenti devono correre alla stessa velocità”. Ci sono però alcuni ostacoli ancora da superare. Il punto debole sono i trusted nodes, nodi intermedi che devono decifrare e ricifrare le chiavi. Se compromessi, l’intera catena sarebbe a rischio. “I ripetitori quantistici, che eliminerebbero questo problema, sono però ancora sperimentali”, prosegue Sciarrino. Altri ostacoli riguardano la vulnerabilità ai disturbi ambientali, la sincronizzazione tra stazioni terrestri e satelliti in movimento e i costi ancora proibitivi per applicazioni commerciali di massa. I progressi però sono rapidi. In Italia, per esempio, test sul campo hanno dimostrato la distribuzione di chiavi sulla dorsale Torino-Matera, coprendo 1.800 chilometri. In sintesi: la Cina ha capito per prima che chi controlla le comunicazioni sicure può costruire alleanze strategiche. Gli Stati Uniti rispondono con pragmatismo, mescolando soluzioni matematiche e fisiche. SAGA ed EuroQCI rappresentano invece la terza via europea. Tutto questo non rappresenta però un traguardo, ma il punto di partenza di una nuova sfida tecnologica che potrebbe determinare le gerarchie del XXI secolo. L'articolo Comunicazione quantistica: la nuova frontiera della sicurezza digitale europea proviene da Guerre di Rete.
January 14, 2026
Guerre di Rete
Come anche le comunità per minori sono esposte a minacce cyber
In un’epoca segnata dall’acuirsi delle fragilità sociali e dalla pervasività del digitale, le Comunità terapeutiche per minori (CTM) si trovano ad affrontare non solo la cronica carenza di risorse, ma anche un pericolo invisibile: la minaccia cyber. Queste realtà, che accolgono soggetti in situazioni di allontanamento temporaneo dalla famiglia, sono oggi definite dagli esperti come l’incarnazione perfetta di “soft target” – obiettivi considerati un facile bersaglio dai cybercriminali – nel settore sociosanitario italiano, a causa delle risorse limitate e della scarsa percezione della minaccia informatica. L’intersezione tra la vulnerabilità dei minorenni accolti e la fragilità dei sistemi digitali sanitari solleva preoccupazioni acute: i dati psichiatrici e clinici dei minori – che includono storia clinica, traumi e vulnerabilità psicologiche – hanno infatti un valore economico altissimo nel mercato criminale, aumentando la vulnerabilità dei ragazzi e delle ragazze a sfruttamento e abuso, ricattabilità e compromissione della privacy. DATI SENSIBILI E RICATTO  DIGITALE: IL DILEMMA DELLA CYBERSICUREZZA NEI CTM Secondo quanto riporta il 12° rapporto del Gruppo di lavoro per la Convenzione sui diritti dell’Infanzia e dell’Adolescenza, in Italia ci sono circa 70 CTM distribuiti sul territorio nazionale (con l’eccezione di Friuli-Venezia Giulia, Molise, Basilicata e Calabria). Queste strutture, che faticano a soddisfare una domanda in continuo aumento, sono chiamate a gestire minorenni sempre più segnati da molteplici problematicità e da disagio psichico, un deterioramento serio della condizione giovanile che fatica a diventare una priorità nell’agenda politica. I CTM, oltre a dover affrontare difficili e cruciali sfide cliniche – e a fare i conti . con una preoccupante carenza di personale sanitario specializzato, come neuropsichiatri, psicologi ed educatori – si trovano così di fronte alla cruciale e inattesa sfida della sicurezza digitale. Walter Pisci, direttore clinico della comunità Inus, ha fornito una fotografia dettagliata delle difficoltà che queste piccole e medie imprese incontrano nel proteggere i dati sensibili dei minori. Pisci ha sottolineato come la figura di un esperto di cybersicurezza sarebbe “utile e necessaria” all’interno di una comunità terapeutica. Ma c’è un problema, che Pisci riassume così: “Chi paga l’esperto?”. La gestione del bilancio, già focalizzata sulle figure professionali cliniche e terapeutiche richieste dai requisiti regionali (medici, psicologi, infermieri, educatori), non è in grado di assorbire facilmente questi costi aggiuntivi. I costi per adeguarsi alla normativa europea GDPR, che regolamenta la gestione dei dati sensibili, non sono computati nel calcolo della retta giornaliera, ma sono extra. “La comunità paga da 4 a 5mila euro ogni anno solo per l’adeguamento alla normativa GDPR con formazione specifica e consulenze tecnico-informatiche legate alla protezione dei dati, escluse le spese di manutenzione ordinaria”. Nel frattempo, l’ombra delle minacce informatiche è sempre dietro l’angolo: “Cinque anni fa abbiamo subito un grave attacco informatico”, spiega Pisci. “Un software malevolo aveva permesso un accesso esterno e la cifratura di tutti i dati contenuti nelle cartelle condivise”. Tra questi dati erano presenti informazioni sensibili dei pazienti. “È stato chiesto un riscatto di 50mila euro in Bitcoin”, ricorda Pisci. I cybercriminali non erano riusciti ad acquisire i dati, ma solo a criptarli nel sistema. Grazie alla denuncia al DPO (Data Protection Officer) e all’uso dei backup, i dati sono stati poi recuperati. A seguito di questo evento, la procedura di sicurezza è cambiata. La comunità ha abbandonato il NAS, giudicato più esposto, Tuttavia, ha anche deciso di  portare tutti i dati su piattaforme cloud esterne private, affidandoli ai sistemi di grandi multinazionali. Questa soluzione, che richiede comunque attenzione nella gestione e protezione dei dati, viene utilizzata con successo da cinque anni. L’ALLARME ROSSO DELLE COMUNITÀ “SOFT TARGET” Secondo gli ultimi dati dell’Agenzia per la Cybersicurezza Nazionale, tra gennaio e settembre di quest’anno il settore sanitario ha registrato un +40% di attacchi cyber rispetto al 2024. “E le comunità terapeutiche per minori sono tra quelle maggiormente a rischio, perché incarnano perfettamente il profilo di soft target nel settore sociosanitario italiano”, spiega l’esperto di sicurezza Pierluigi Paganini. “Sono piccole strutture con risorse limitate, spesso prive di presidi cyber basilari e soprattutto con scarsa percezione della minaccia informatica”.  In queste strutture, le vulnerabilità tipiche includono l’assenza di reti segmentate (che aumentano la sicurezza della rete suddividendola in reti minori), software obsoleti, assenza di soluzioni di sicurezza, mancanza di un sistema di registrazione centralizzato e soprattutto nessuna formazione per il personale socioeducativo. Tra le misure minime e urgenti che possono proteggere le comunità ci sono la cifratura dei dati archiviati (at-rest, ovvero database, file e dispositivi portatili come hard disk o chiavette USB) e dei dati in transito (tramite protocolli sicuri come HTTPS, SFTP o reti VPN), l’adozione di backup cifrati e separati dalla rete principale (regolarmente testati per il ripristino), la gestione degli accessi tramite l’autenticazione multi-fattore e il principio di least privilege. È poi necessario utilizzare software di sicurezza, mantenere aggiornati software ed applicazioni ed eseguire revisioni periodiche con verifica delle procedure, oltre a implementare politiche per la gestione dei sistemi di sicurezza delle informazioni e lavorando sulla formazione del personale, organizzando simulazioni di crisi in un ambiente controllato, senza impatto reale sui sistemi. L’IMPORTANZA DEL FATTORE UMANO Secondo Emanuela Urban, Head of ICT Project & Function della società di consulenza informatica Ipsoft, la vulnerabilità più significativa in queste strutture è rappresentata proprio dal fattore umano. Gran parte del rischio deriva da un utilizzo talvolta inconsapevole degli strumenti di servizio. La poca consapevolezza degli operatori è la causa scatenante di molte frodi informatiche, come il banale errore di cliccare su un link malevolo ricevuto via email, che può portare alla diffusione di dati sensibili. “È fondamentale che le aziende e i gruppi di lavoro sottolineino la necessità di una maggiore consapevolezza per il trattamento dei dati”, spiega Urban, che aggiunge un secondo fattore: l’anzianità degli strumenti utilizzati. “Il ritardo nell’evoluzione tecnologica, che impedisce la messa in sicurezza necessaria, è spesso attribuibile alla difficoltà di sostenere economicamente le operazioni di ammodernamento”. Secondo Urban, sono due le tipologie di attacchi informatici che mettono maggiormente a rischio i dati sensibili: il furto di credenziali, che costituisce la base da cui gli aggressori possono avviare l’escalation per accedere ai dati, e la sicurezza dei sistemi perimetrali: “Se questi sistemi non sono ben mantenuti, non sono presidiati in modo efficace o non dispongono di policy chiare e aggiornate diventano importanti vie di accesso per intromissioni esterne”. Per aumentare il livello di sicurezza, Urban evidenzia la necessità di un approccio su più fronti. Il primo è la formazione operativa e la consapevolezza: l’operatore deve essere cosciente del rischio potenziale anche quando i sistemi automatici non hanno ancora tracciato una minaccia, come un link non verificato. Intervenire con l’informazione può prevenire azioni rischiose, come cliccare su mittenti o contenuti sospetti. Il secondo approccio riguarda l’adozione di strumenti che aiutino ad arginare gli attacchi alla base, in particolare contro il furto di credenziali. Terzo fattore, il supporto legislativo e l’audit: le istituzioni dovrebbero supportare le strutture sanitarie medio-piccole per contrastare gli attacchi informatici. In questo contesto, l’ACN svolge un ruolo informativo tramite newsletter e comunicazioni sul potenziale rischio o sulle violazioni in corso relative a specifici strumenti. Infine, Urban sottolinea l’importanza di investire in strumenti di sicurezza ma, soprattutto, nell’aumento della consapevolezza degli operatori: “Questo non rappresenta per l’azienda un costo, ma un vantaggio competitivo”. L'articolo Come anche le comunità per minori sono esposte a minacce cyber proviene da Guerre di Rete.
December 19, 2025
Guerre di Rete
Perché Bitcoin e altre criptovalute sono crollate
Immagine in evidenza di Yiğit Ali Atasoy da Unsplash Dei tanti comandamenti che regolano il mondo delle criptovalute, il più noto e importante è probabilmente quello che recita: buy the dip (“compra il calo”). Non è una vera e propria regola (che d’altra parte, in campo finanziario e speculativo, non esistono), ma è innegabile che chi – nel corso dei quasi due decenni di esistenza dei bitcoin – ha approfittato dei vari crolli che si sono susseguiti per acquistare la più antica delle criptovalute raramente ha sbagliato. I numeri parlano chiaro: dopo lo scoppio della grande bolla dell’inverno 2017/18, il valore dei bitcoin precipitò da 19mila a 3.500 dollari. Chi avesse avuto il sangue freddo di acquistare i bitcoin al loro minimo e mentre la stampa ne celebrava per l’ennesima volta la “morte”, per poi attendere pazientemente la risalita, avrebbe potuto realizzare nel novembre 2021, poco più di due anni e mezzo più tardi, un guadagno del 1800% circa (i bitcoin toccarono infatti, quel mese, 67mila dollari). Lo stesso si è ripetuto in altre occasioni, sia precedenti sia successive: ogni crollo del mercato delle criptovalute è stato seguito da una netta risalita, che nel caso dei bitcoin li ha portati a infrangere un record dopo l’altro, fino a raggiungere il massimo storico di 124mila dollari nell’ottobre del 2025 (dopo essere scesi fino a 16mila dollari del dicembre 2022). È anche per questa ragione che quando si moltiplicano i titoli sull’ennesimo (e, dal punto di vista speculativo, inevitabile) crollo delle criptovalute, è anche il momento in cui i true believers, ovvero i più fedeli sostenitori del mondo cripto, approfittano di quelli che considerano “prezzi di saldo” per acquistare bitcoin o altre monete digitali e poi attendere la risalita. INVESTIMENTI CONTROCORRENTE Per quanto queste regole – che sono in verità previsioni basate sul comportamento passato – potrebbero sempre venire smentite, va sottolineato che il concetto di “buy the dip” non riguarda soltanto le criptovalute, ma viene anzi applicato nel mondo finanziario da secoli. Due aneddoti sono ormai passati alla leggenda (ed è infatti impossibile stabilirne la veridicità storica): il primo risale addirittura ai primi del 1800, quando Nathan Mayer Rothschild approfittò del panico causato dalle Guerre Napoleoniche per acquistare i titoli di stato britannici di cui tutti volevano liberarsi e poi, dopo la vittoria del Regno Unito, si arricchì immensamente. Il modo di dire che gli viene attribuito riassume in poche parole il concetto: “Compra quando c’è il sangue per le strade” (in cui il “sangue” è preferibilmente da intendersi metaforicamente con il significato di “crollo del valore degli asset finanziari”). Il secondo aneddoto ha invece come protagonista Joe Kennedy. La leggenda vuole che nel 1929, all’apice della frenesia dei mercati, il padre del futuro presidente degli Stati Uniti JFK si fermò in un vicolo di Wall Street per farsi lucidare le scarpe. Mentre svolgeva il lavoro, il lustrascarpe confidò a Kennedy quali fossero le azioni secondo lui più promettenti. Per l’investitore fu una sorta di epifania: comprese che, se perfino una persona priva di qualunque competenza finanziaria si stava dilettando con le azioni, era giunto il momento di vendere. In questo modo, Joe Kennedy riuscì a liberarsi delle sue azioni mentre ancora erano ai valori massimi. Il martedì successivo, il 29 ottobre del 1929, i mercati crollarono e iniziò la Grande Depressione. Sono due aneddoti che riassumono il cosiddetto “investimento controcorrente” (compra quando tutti vendono e viceversa) e che, tornando al mondo delle criptovalute, potremmo aggiornare così: vendi quando perfino il TG1 parla del boom dei bitcoin e compra quando sui social tutti dicono che sono morti. PERCHÉ SONO CROLLATE LE CRIPTOVALUTE Andrà così anche questa volta? Le ultime settimane sono state molto pesanti sotto il fronte delle criptovalute. E questo nonostante una parte consistente degli addetti ai lavori avesse vaticinato una nuova imponente ascesa proprio nel corso dell’inverno del 2025-26, seguendo così fedelmente quel ciclo quadriennale di crescita che segue il momento dell’halving (quando cioè viene dimezzata la ricompensa in bitcoin elargita ai “miner”). Halving e mining Halving Nel protocollo di Bitcoin, l’halving è l’evento programmato che dimezza la ricompensa in blocchi assegnata ai miner ogni volta che viene aggiunto un nuovo blocco alla blockchain. Avviene automaticamente a intervalli prestabiliti (per Bitcoin: ogni 210.000 blocchi, circa ogni quattro anni). Lo scopo è ridurre progressivamente l’emissione di nuova moneta fino ad arrivare al momento in cui questa si interromperà (ovvero quando i bitcoin avranno raggiunto la quota prestabilita di 21 milioni). Miner Il miner è il nodo della rete che esegue il processo di mining: utilizza hardware specializzato per risolvere un problema computazionale (“proof-of-work”) necessario a validare un nuovo blocco di transazioni in bitcoin. Il primo miner che convalida il blocco di transazioni ottiene una ricompensa in bitcoin. Il mining garantisce la sicurezza del network. E invece, dopo i massimi di ottobre e una fase di stagnazione, il mercato delle criptovalute è crollato sul finire del mese di novembre: i bitcoin sono scesi di oltre il 30% rispetto ai massimi di ottobre 2025 (da 124mila a 84mila dollari), mentre cali anche peggiori sono stati accusati da ether (-40%), XRP (-45%) e tutte le altre principali altcoin. Nel complesso, il mercato delle criptovalute ha perso oltre mille miliardi di dollari di valore, prima di tentare, nei primi giorni di dicembre, una timida ripresa. Che cos’è successo? Perché un crollo così improvviso e imprevisto proprio nell’anno dell’elezione di Donald Trump, che in campagna elettorale aveva promesso di rendere gli Stati Uniti la prima “cripto-superpotenza” della storia? La teoria più diffusa, ripresa anche dal Wall Street Journal, vuole che questo crollo sia paradossalmente legato al successo delle criptovalute e alla loro diffusione tra i grandi investitori istituzionali, avvenuta soprattutto in seguito all’esplosione degli ETF. Gli exchange-traded fund sono strumenti finanziari quotati in Borsa, che replicano l’andamento di un asset – in questo caso i bitcoin o gli ether – e che consentono agli investitori di esporsi alle criptovalute senza possederle direttamente.  Dopo le prime approvazioni negli Stati Uniti, avvenute a inizio 2024, gli ETF che trattano bitcoin ed ether sono esplosi, venendo adottati da colossi come BlackRock, Fidelity, Invesco, Ark Invest e attirando decine di miliardi di dollari (che a loro volta hanno fatto crescere il valore del mercato cripto, che tra il 2024 e il 2025 è passato da 1.600 a 4.200 miliardi di dollari). Come ha però sintetizzato, parlando con il WSJ, Cory Klippsten, CEO dell’exchange Swan Bitcoin, “una volta che le istituzioni sono coinvolte, le criptovalute iniziano a essere scambiate come un asset istituzionale”. In parole più semplici, i tempi in cui l’andamento dei bitcoin era scollegato dal mercato tradizionale (e in alcune occasioni andava addirittura in direzione inversa, perché i più avventurosi si rivolgevano alle criptovalute quando Wall Street non dava loro soddisfazione) sono passati. Oggi, proprio per via della loro adozione istituzionale, il mercato delle criptovalute tende a muoversi in maniera sempre più correlata agli indici finanziari tradizionali. Stando a questa interpretazione, non è un caso che il crollo dei bitcoin sia avvenuto a novembre, mese segnato da grandi turbolenze finanziarie legate al timore di un imminente scoppio della bolla dell’intelligenza artificiale. Per quanto percentualmente più contenuto, il brusco calo del valore delle azioni di Nvidia o Meta si è verificato negli stessi giorni in cui sono crollate le criptovalute, confermando come il mercato dei bitcoin ormai segua l’andamento di quello tradizionale. “Dal mese di ottobre, i bitcoin si sono comportati più come azioni tech ad alta crescita che come un bene rifugio non correlato”, si legge sul South China Morning Post, che cita un report della Deutsche Bank. Che la correlazione tra il mercato cripto e quello tradizionale stesse aumentando era evidente già da tempo, ma il fatto che questa dinamica si stia ulteriormente rafforzando potrebbe allontanare i cosiddetti investitori “retail” (i piccoli investitori comuni), che sono stati storicamente attratti dall’alta volatilità dei bitcoin e dai loro meccanismi peculiari.  Nel momento in cui il mercato delle criptovalute (soprattutto di quelle più consolidate) inizia a muoversi come il Nasdaq e a diventare sempre più istituzionale, i piccoli investitori potrebbero andare in cerca di nuovi e ancora sconosciuti modi per facili (ma rischiosi) guadagni, com’è stato in passato con i “marijuana stocks”, i meme stocks (celebre il caso GameStop) e più di recente con i memecoin (su cui torneremo tra poco). A confermare questa teoria è ancora la Deutsche Bank, secondo cui l’adozione dei bitcoin e delle altre più diffuse criptovalute sarebbe scesa tra gli investitori retail dal 17% della scorsa estate al 15% attuale. Un calo ridotto ma significativo, visto che l’adozione in costante crescita (anche se solo a scopo di compravendita) è uno dei fattori fondamentali alla base delle previsioni al rialzo.  Un altro aspetto che probabilmente ha influenzato il crollo dei bitcoin è che, come nota la CNBC, i dati sull’occupazione negli Stati Uniti per il mese di settembre hanno mostrato una crescita dei posti di lavoro più forte del previsto (119mila nuovi impieghi contro i circa 50mila previsti). Numeri positivi ma che hanno ridotto la probabilità di un taglio dei tassi d’interesse da parte della Federal Reserve durante il mese di dicembre, mentre contestualmente anche la BCE ha mantenuto i tassi invariati. I tagli dei tassi sono generalmente considerati una buona notizia per il prezzo dei bitcoin, perché aumentano la liquidità nei mercati e quindi possono fare da volano ai mercati speculativi. IL BOOM C’È GIÀ STATO E se invece le cose fossero molto più semplici di così? Come abbiamo accennato, almeno a partire dal 2013 i bitcoin si muovono a cicli quadriennali, con il massimo della crescita che avviene durante l’inverno. È uno schema che si ripete da 12 anni e che non ha mai tradito le aspettative. Ma è possibile che un meccanismo speculativo si ripeta identico ogni quattro anni? Ovviamente, no: se tutti sapessimo con certezza quando vendere e quando comprare non troveremmo nessuno disposto, viceversa, ad acquistare ciò che vogliamo vendere o a vendere quando vogliamo comprare. Una variabilità nella dinamica del ciclo quadriennale è necessaria per evitare che il mercato si blocchi. E quindi, se il tanto atteso boom delle criptovalute ci fosse semplicemente già stato? Se fosse solo stato anticipato rispetto alle attese, e adesso stessimo assistendo all’inevitabile correzione che segue un’imponente crescita? Se l’ascesa – e anche il declino, se si arresterà sui valori attuali – fosse semplicemente stata inferiore alle attese? In effetti, il primo grande picco storico nel valore dei bitcoin e delle altcoin (ether e tutte le altre criptovalute minori) fu raggiunto, come detto, nella metà del dicembre 2017. Avanti di quattro anni, nel 2021 il nuovo massimo dei bitcoin viene raggiunto nella prima metà di novembre, quindi circa un mese in anticipo. Nel 2025, il massimo storico dei bitcoin è stato raggiunto a ottobre (tutti i dati sono presi da CoinMarketCap e CoinGecko). È come se il picco di questo famigerato ciclo quadriennale venisse via via anticipato di un mese dagli investitori più avveduti, che così mandano il primo importante segnale ribassista al mercato. Allo stesso tempo, e in questo caso probabilmente a causa dell’istituzionalizzazione dei bitcoin, le impennate della più antica criptovaluta e del mercato nel suo complesso sono sempre meno brusche. Dal massimo del 2013 a quello del 2017, il valore dei bitcoin aumentò di quasi 20 volte (da mille dollari a 19mila). Tra il 2017 e il 2021, la crescita fu “solo” del 230% (da 19mila a 67mila). Tra il 2021 e il 2025 è stata (a meno di improvvise sorprese) invece del 96% (da 67mila a 124mila). Se le cose stessero così, sarebbe un altro segnale della normalizzazione dei bitcoin e i suoi fratelli, il cui mercato continua a essere molto più volatile delle azioni tradizionali, ma lo è sempre meno. C’è però un altro elemento che torna ogni quattro anni e che ha accompagnato le varie ascese dei bitcoin e delle altcoin: il fatto che ogni ciclo fosse anticipato e alimentato da un concomitante fenomeno ultraspeculativo sempre basato su blockchain e criptovalute. Nel 2017 fu la volta delle ICO (initial coin offering, una sorta di “quotazione in borsa” ufficiosa di alcune imprese basate su blockchain, che si finanziavano vendendo i loro token, acquistati nella speranza che aumentassero di valore). Nel 2021 fu invece il turno dei notissimi NFT (non-fungible token, una specie di firma elettronica basata su blockchain che certifica la proprietà di un bene digitale).  E nel 2025? Per quanto siano almeno in parte già stati dimenticati, l’anno che sta per concludersi (e anche quello precedente) è stato all’insegna dei “memecoin”: token creati su piattaforme blockchain come Ethereum o Solana, che spesso prendono il nome di influencer o celebrità (tra cui lo stesso Donald Trump), la cui vita finanziaria è di pochi giorni o settimane e che vengono creati senza nessuno scopo al di fuori della pura e spregiudicata speculazione.  Tutto ciò sembra confermare, insomma, che il ciclo non sia stato mancato, ma semplicemente sia stato meno robusto delle attese (o speranze) e leggermente anticipato: “La verità è che l’hangover era iniziato già da mesi”, ha spiegato Thomas Perfumo, economista dell’exchange Kraken. La sensazione che si sia giunti alla fine dell’attuale ciclo è confermata anche da Matthew Hogan, responsabile degli investimenti di Bitwise Asset Management: “Penso che si sia più vicini alla fine delle vendite che al loro inizio, ma i mercati sono in turbolenza e potrebbero esserci altri cali prima di vedere una risalita”. Se così fosse, significherebbe che a una crescita ridotta segue una correzione di circa il 30/40%, molto inferiore rispetto ai crolli del passato, che superavano anche l’80%. Bisognerà però aspettare ancora a lungo per essere sicuri che la caduta si sia già fermata, e nel frattempo – ovviamente – tutto potrebbe ancora accadere e ogni previsione e interpretazione venire seccamente smentita. L'articolo Perché Bitcoin e altre criptovalute sono crollate proviene da Guerre di Rete.
December 10, 2025
Guerre di Rete
L’eterno ritorno di Chat Control
Immagine in evidenza da stopchatcontrol.fr Si torna a parlare di lotta agli abusi sui minori, privacy e crittografia end-to-end, dopo che, il 26 novembre, il Consiglio UE ha votato a favore dell’approvazione del nuovo testo del Child Sexual Abuse Regulation (CSAR), più comunemente conosciuto come Chat Control. La proposta di legge, di cui si discute ormai da più di tre anni, è volta a limitare la diffusione di materiale pedopornografico online attraverso nuove disposizioni per le piattaforme e i fornitori di servizi digitali, inclusa la possibilità di effettuare una scansione preventiva e costante dei contenuti che gli utenti si scambiano, per esempio, su WhatsApp, Telegram o Gmail, al fine di rilevare attività di adescamento di minori o movimento di materiale pedopornografico. La proposta, che da tempo cerca un equilibrio tra la necessità di proteggere i minori da abusi sessuali e quella di tutelare i diritti fondamentali dei cittadini europei (a partire dalla privacy), ha sollevato non poche critiche da parte dei funzionari di governo, degli esperti di sicurezza, delle società di servizi coinvolte e, non da ultimi, degli utenti stessi. E ora, dopo il voto favorevole ottenuto dopo numerosi rinvii, il senso di preoccupazione sta rapidamente crescendo. Proprio per questo, è importante fare chiarezza sul cosiddetto Chat Control: cos’è, quali regolamentazioni prevede, quali sono i reali rischi per la privacy, e come potrebbe cambiare la nostra vita. CHAT CONTROL: COS’È E COSA PREVEDE Era l’11 maggio 2022 quando, per la prima volta, la Commissione Europea presentava una nuova proposta legislativa “per prevenire e combattere gli abusi sessuali sui minori in rete”. Una manovra presentata come necessaria a causa della crescente diffusione di materiale pedopornografico in rete rilevata a partire dal 2021 – anno in cui, stando ai dati riportati dalla Commissione, sono stati segnalati “85 milioni di immagini e video che ritraggono abusi sessuali su minori” – e l’incapacità del sistema attualmente in vigore – il cosiddetto Chat Control 1.0, che prevede la segnalazione di abusi tramite monitoraggio volontario dei fornitori di servizi digitali – di proteggere adeguatamente i minori. Per contenere quanto più possibile la situazione, in quell’occasione la Commissione ha proposto “una legislazione per affrontare efficacemente l’abuso sessuale su minori online, anche richiedendo ai prestatori di rilevare materiale pedopornografico noto e […] la creazione di un Centro dell’UE di prevenzione e lotta contro l’abuso sessuale su minori”. Una serie di norme, in sostanza, che consentirebbero a un’ampia gamma di fornitori di servizi Internet, compresi i servizi di hosting e di messaggistica, di accedere e scansionare le conversazioni private degli utenti al fine di “individuare, segnalare e rimuovere il materiale pedopornografico dai loro servizi”, o rilevare episodi di “adescamento di minori” (grooming). Un’operazione che le compagnie dovrebbero attuare attraverso “tecnologie che siano il meno invasive possibile per la privacy, in linea con lo stato dell’arte del settore, e che limitino il più possibile il tasso di errore dei falsi positivi”. Allo stato attuale, il cosiddetto Chat Control richiede ai “prestatori di servizi di hosting e prestatori di servizi di comunicazione interpersonale” di individuare, esaminare e valutare “per ciascun servizio che offrono, il rischio di un suo uso a fini di abuso sessuale su minori online”. E poi di prendere “misure di attenuazione ragionevoli e adeguate al rischio individuato […] per ridurlo al minimo”. Tra queste misure, come anticipato, rientra anche la scansione delle conversazioni private degli utenti: uno strumento che le piattaforme e i fornitori di servizi possono utilizzare ai fini della valutazione del rischio e della sua attenuazione. Tuttavia, la proposta prevede che, se dopo la valutazione e le misure adottate dal fornitore sussiste ancora un rischio significativo che il servizio possa essere utilizzato per abusi sui minori, le autorità nazionali designate possano avvalersi di questo strumento per indagare sulla diffusione di materiale pedopornografico. In questo caso, possono chiedere all’autorità giudiziaria o amministrativa di “emettere un ordine di rilevazione che impone a un prestatore di servizi di hosting o a un prestatore di servizi di comunicazione interpersonale rientrante nella giurisdizione dello Stato membro in questione di prendere le misure […] per rilevare casi di abuso sessuale su minori online in un servizio specifico”. Anche in questo caso, però, la proposta della Commissione Europea specifica che le autorità devono avvalersi di tecnologie che non siano invasive nei confronti degli utenti coinvolti, ma che siano anzi “efficaci nel rilevare la diffusione di materiale pedopornografico noto o nuovo o l’adescamento di minori, a seconda dei casi” e “non in grado di estrarre dalle comunicazioni in questione informazioni diverse da quelle strettamente necessarie per rilevare […] pattern rivelatori di diffusione di materiale pedopornografico noto o nuovo o di adescamento di minori”. Data la delicatezza della scansione, soprattutto nelle comunicazioni private e crittografate, il regolamento prevede una serie di garanzie, quali la limitazione della durata degli ordini, il controllo umano delle tecnologie di rilevamento, la riduzione al minimo dei dati trattati e l’accesso a meccanismi di ricorso per gli utenti e i fornitori. Pertanto, per garantire che il regolamento venga rispettato, la proposta introduce anche il Centro dell’UE per la prevenzione e la lotta contro gli abusi sessuali sui minori, che svolgerà un ruolo di supporto alle autorità e alle piattaforme fornendo banche dati di indicatori affidabili e tecnologie di rilevamento adeguate, contribuendo a ridurre i falsi positivi e gli impatti invasivi. LE ORIGINI E LE EVOLUZIONI DELLA PROPOSTA DI LEGGE La proposta avanzata dalla Commissione Europea nel 2022 non dichiarava apertamente che i telefoni dei cittadini europei sarebbero stati scansionati alla ricerca di materiale pedopornografico, ma introduceva il concetto di “obblighi di rilevamento” che i fornitori di servizi dovevano rispettare, anche nel caso in cui questi proteggessero la privacy degli utenti con la crittografia end-to-end. Questo significava, quindi, che le autorità coinvolte nella rilevazione potessero ricorrere alla scansione lato client, ossia all’analisi di contenuti digitali presenti sui dispositivi degli utenti prima ancora che venissero crittografati e inviati o ricevuti. Com’è noto, la proposta ha sin da subito scatenato le critiche di governi ed esperti di sicurezza e privacy, tanto che nel 2023 il Parlamento Europeo ha escluso sia la crittografia end-to-end sia i messaggi di testo dall’ambito di applicazione degli obblighi, limitando questi ultimi ai casi di ragionevole sospetto e impedendo di fatto la scansione indiscriminata. Pertanto, solo se i fornitori non rispettano le norme per la sicurezza dei minori, le autorità competenti possono emettere un ordine di scansione e rilevamento di materiale pedopornografico dai dispositivi degli utenti. Nel corso degli anni, però, la proposta ha subìto decine di modifiche e aggiornamenti. L’1 luglio 2025, il Consiglio dell’Unione Europea ha presentato una proposta in cui si afferma chiaramente che, per i servizi dotati di crittografia end-to-end (che impedisce a chiunque di leggere i messaggi, esclusi soltanto mittente e destinatario) come WhatsApp, Signal e Telegram, il rilevamento avviene “prima della trasmissione dei contenuti” – ossia prima che questi vengano crittografati – installando un software preposto alla scansione, ma con una clausola di “consenso dell’utente”. Allo stato attuale, Chat Control rimane soltanto una proposta. Per far sì che diventi una legge a tutti gli effetti è necessario l’avvio di triloghi – “un negoziato interistituzionale informale che riunisce rappresentanti del Parlamento europeo, del Consiglio dell’Unione europea e della Commissione europea” – che mettano d’accordo le parti. Se la linea attuale del Consiglio dovesse essere approvata, questo comporterebbe l’installazione di un software che controlli i contenuti prima della crittografia per i servizi end-to-end; al contrario, se prevalesse la linea del Parlamento, non verrebbe effettuata alcuna scansione preventiva dei contenuti. Proprio per questo, lo scorso 14 ottobre era stato fissato come data per il voto del Consiglio UE sul Child Sexual Abuse Regulation (Csar): un giorno in cui i ministri dei diversi paesi membri avrebbero espresso il proprio parere sulla proposta. A una settimana dalla data, dopo aver subito forti pressioni da parte dell’opinione pubblica, la Germania si era dichiarata contraria al disegno di legge, costringendo l’intero Consiglio a rimandare il voto finale sull’approvazione. “Il monitoraggio ingiustificato delle chat deve essere un tabù in uno Stato di diritto. La comunicazione privata non deve mai essere soggetta a sospetti generalizzati. Né lo Stato deve obbligare a scansionare in massa i messaggi alla ricerca di contenuti sospetti prima di inviarli. La Germania non accetterà tali proposte a livello UE (…). Nemmeno i crimini peggiori giustificano la rinuncia ai diritti civili fondamentali”, ha dichiarato Stefanie Hubig, ministra federale della Giustizia e della Tutela dei consumatori, commentando la scelta della Germania, che ha stravolto l’agenda legislativa della Commissione Europea. LA SVOLTA DANESE Dopo tante controversie, lo scorso novembre la presidenza danese del Consiglio dell’Unione europea ha introdotto un’importante revisione alla proposta del Child Sexual Abuse Regulation (CSAR), in cui le “disposizioni relative agli obblighi di rilevamento (articoli da 7 a 11) sarebbero eliminate dal testo”. In questo modo, il regolamento mantiene il monitoraggio delle chat private degli utenti, senza renderlo obbligatorio, ma trasformandolo in uno strumento che le aziende tecnologiche possono utilizzare a propria discrezione. Anche se, come si legge nella proposta della presidenza danese, “i fornitori di servizi ad alto rischio, in cooperazione con il Centro dell’UE, potrebbero comunque essere tenuti ad adottare misure per sfruttare le tecnologie adeguate per mitigare il rischio di abusi sessuali sui minori individuati sui loro servizi”. La modifica della Danimarca ha segnato un momento importante nell’evoluzione di Chat Control, che lo scorso 26 novembre ha ottenuto l’approvazione dei rappresentanti dei 27 paesi membri dell’Unione Europea, dando così inizio all’ultima fase che precede l’approvazione del regolamento: la discussione tra Parlamento Europeo, Consiglio dell’Unione Europea e Commissione Europea. “Ogni anno vengono condivisi milioni di file che ritraggono visivamente abusi sessuali su minori. Dietro ogni singolo video e immagine c’è un minore che ha subito gli abusi più orribili e tremendi. Ciò è del tutto inaccettabile”, ha commentato Peter Hummelgaard, ministro danese della Giustizia, dopo la votazione svoltasi a Bruxelles. “Sono pertanto lieto che gli Stati membri abbiano finalmente concordato una via da seguire che prevede una serie di obblighi per i prestatori di servizi di comunicazione al fine di combattere la diffusione di materiale di abuso sessuale su minori”.  Allo stato attuale, secondo quanto approvato dai paesi membri dell’UE, “i fornitori di servizi online saranno tenuti a valutare il rischio che le loro piattaforme possano essere utilizzate impropriamente per diffondere materiale di abuso sessuale su minori o per adescare minori. Sulla base di tale valutazione, dovranno attuare misure di attenuazione per contrastare tale rischio. Tali misure potrebbero includere la messa a disposizione di strumenti che consentano agli utenti di segnalare casi di abuso sessuale su minori online, di controllare quali contenuti che li riguardano sono condivisi con altri e di predisporre impostazioni predefinite a tutela della vita privata dei minori”. L’interesse del Consiglio è quello di arrivare ai triloghi il prima possibile, considerando che ad aprile 2026 scadrà la legislazione temporanea che consente alle app di eseguire la scansione alla ricerca di materiale pedopornografico. “Il Consiglio ha finalmente adottato la sua posizione sul regolamento CSA”, ha commentato in un post pubblicato su X il deputato spagnolo Javier Zarzalejos, leader delle negoziazioni in Parlamento. “Abbiamo bisogno di un quadro legislativo obbligatorio e a lungo termine con solide garanzie. Il tempo sta per scadere e ogni minuto che perdiamo senza una legislazione efficace significa più bambini danneggiati”. La nuova proposta non sembra però incontrare né il sostegno delle forze dell’ordine, preoccupate che i contenuti illegali rimarranno nascosti nelle applicazioni con crittografia end-to-end, né gli attivisti a difesa della privacy, preoccupati che il rilevamento – seppur volontario – possa trasformarsi in uno strumento di sorveglianza di massa. I RISCHI DI CHAT CONTROL E qui arriviamo a un altro dei punti deboli della proposta della Commissione ampiamente criticato dagli attivisti, l’alto tasso di falsi positivi. I sistemi di scansione automatica, infatti, spesso segnalano come illegali contenuti che non lo sono affatto, come le foto di bambini sulla spiaggia scattate durante le vacanze familiari. Secondo la polizia federale della Svizzera, per esempio, l’80% di tutte le segnalazioni elaborate da programmi informatici si rivelano infondate. E stando ai dati raccolti in Irlanda, invece, solo il 20% delle segnalazioni ricevute dal National Center for Missing and Exploited Children (NCMEC) nel 2020 sono state confermate come effettivo “materiale pedopornografico”. Il rischio, quindi, è che i cittadini vengano coinvolti in indagini sull’abuso di minori senza aver mai commesso alcun reato e, per di più, vedendo compromessa la propria privacy. E non è tutto. Molti critici, infatti, temono anche il cosiddetto “function creep”: una volta che esisterà un sistema per la scansione di tutti i messaggi degli utenti, i futuri governi potrebbero essere tentati di estenderne l’applicazione ad altri settori, come il terrorismo o, nel peggiore dei casi, censurando il dissenso politico. “Una volta che viene implementato una tecnologia di questo genere, significa che avremo un sistema che controlla tutte le nostre comunicazioni e decide se sono legali o no”, ha commentato Udbhav Tiwari, VP strategy and global affairs di Signal, nel corso del webinar Stop Chat Control tenutosi lo scorso 30 settembre. “Il suo funzionamento dipende esclusivamente da come e con quali dati viene addestrato”. Un’opinione condivisa dai governi di Repubblica Ceca, Paesi Bassi e Olanda, che hanno espresso un voto contrario lo scorso 26 novembre. E così pure – o quasi – dall’Italia, che ha deciso di astenersi dalla votazione, sottolineando la preoccupazione che una forma di sorveglianza delle comunicazioni potrebbe ledere i diritti costituzionali della persona. “I titoli dei giornali sono fuorvianti: Chat Control non è morto, è solo stato privatizzato”, ha commentato Patrick Breyer, ex eurodeputato oggi alla guida del movimento Fight Chat Control. “Quello che il Consiglio ha approvato oggi è un cavallo di Troia. Consolidando la scansione di massa ‘volontaria’, stanno legittimando la sorveglianza di massa senza mandato e soggetta a errori di milioni di europei da parte delle aziende statunitensi”. Il termine “volontario” per definire il rilevamento proposto dalla presidenza danese, secondo Breyer, sarebbe ingannevole: “Il testo mira a rendere permanente la normativa temporanea ‘Chat Control 1.0’”, che consente a fornitori come Meta o Google di scansionare le chat private degli utenti, indiscriminatamente e senza un mandato del tribunale. Nulla di troppo diverso, quindi, rispetto alla proposta originaria. Chat Control, secondo gli attivisti, è e continua a essere uno strumento pericoloso per la sicurezza e la privacy dei cittadini. L'articolo L’eterno ritorno di Chat Control proviene da Guerre di Rete.
December 3, 2025
Guerre di Rete
Perché è così difficile fermare i deepnude
È il dicembre 2017 quando la giornalista statunitense Samantha Cole scova sul forum Reddit il primo deepfake che gira in rete. È un video che riproduce l’attrice e modella israeliana Gal Gadot mentre ha un rapporto sessuale. Le immagini non sono precise, il volto non sempre combacia con il corpo e, quando si mette in play, il video genera il cosiddetto effetto uncanny valley, ovvero quella sensazione di disagio che si prova quando si osserva un robot con caratteristiche umane non del tutto realistiche. Come racconta Cole nell’articolo, “deepfakes” – questo il nome dell’utente – continuerà a pubblicare altri video generati con l’intelligenza artificiale e manipolati con contenuti espliciti: una volta con il volto di Scarlett Johansson, un’altra con quello di Taylor Swift. Il fatto che siano persone famose permette di avere più materiale fotografico e video da “dare in pasto” allo strumento e ottenere così un risultato il più possibile verosimile. Ma l’essere note al grande pubblico non è il solo tratto che le accomuna: tutte le persone colpite da deepfake sono donne, e tutte vengono spogliate e riprodotte in pose sessualmente esplicite senza esserne a conoscenza, e quindi senza aver dato il proprio consenso. In appena qualche anno, i deepfake sessuali – anche noti come deepnude – sono diventati un fenomeno in preoccupante espansione in tutto il mondo. Senza più quelle “imprecisioni” che li caratterizzavano ancora nel 2017, oggi riescono a manipolare l’immagine a partire da una sola foto. Anche in Italia se ne parla sempre più frequentemente, come dimostra la recente denuncia di Francesca Barra. Il 26 ottobre, la giornalista e conduttrice televisiva ha scritto un lungo post su Instagram dove racconta di aver scoperto che alcune immagini di lei nuda, generate con l’intelligenza artificiale, circolano da tempo su un sito dedicato esclusivamente alla condivisione di immagini pornografiche rubate o manipolate con l’IA. “È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto nel post Barra, che si è detta preoccupata per tutte quelle ragazze che subiscono la stessa violenza e che magari non hanno gli stessi strumenti per difendersi o reagire. I CASI NEI LICEI ITALIANI In effetti, casi analoghi sono già scoppiati in diversi licei in tutta Italia. A inizio anno, quattro studentesse di un liceo scientifico di Roma hanno ricevuto foto prese dai loro account Instagram in cui apparivano completamente nude. A manipolare le immagini è stato un loro compagno di classe, a cui è bastato caricare le foto su un bot su Telegram che in pochi istanti ha “spogliato” le ragazze. La Procura di Cosenza starebbe invece indagando su un altro caso che, secondo le cronache locali, arriverebbe a coinvolgere quasi 200 minorenni per un totale di 1200 deepnude. La dinamica è sempre la stessa: attraverso bot Telegram e strumenti online, studenti maschi hanno manipolato le foto delle loro compagne di classe. Secondo un’analisi condotta nel 2023, il 98% dei deepfake online registrati quell’anno (95.820) era a contenuto sessuale. Nel 99% di questi, la persona colpita era donna. Insomma, già quel primo video su Reddit preannunciava un utilizzo di questi strumenti volto quasi esclusivamente a quello che, in inglese, è stato inquadrato come image-based sexual abuse (IBSA), un abuso sessuale condotto attraverso l’immagine. “Intorno alla violenza digitale rimane sempre un po’ il mito che sia in qualche modo meno reale rispetto alla violenza fisica. Ma non è affatto così”, spiega a Guerre di Rete Silvia Semenzin, ricercatrice in sociologia digitale all’università Complutense di Madrid. “Le vittime di deepfake subiscono le stesse identiche conseguenze delle vittime di condivisione di materiale sessuale non consensuale. Quasi sempre, la violenza è continuativa e intrecciata nelle sue varie declinazioni, quindi alle molestie, allo stalking, ecc. A mio avviso, con i deepfake si entra in una fase della violenza in cui diventa anche più manifesta la volontà di controllo sul corpo femminile. Perché le radici del fenomeno sono di tipo culturale e affondano sempre nella volontà di sopraffazione del soggetto femminile da parte degli uomini, in questo caso attraverso l’utilizzo della tecnologia”. LA COMPLICITÀ DELLE PIATTAFORME I canali su cui vengono generati e diffusi maggiormente i deepfake sessuali sono generalmente siti anonimizzati che sfruttano hosting offshore e che non rispondono alle richieste legali di altri stati. Quello su cui Francesca Barra e altre donne dello spettacolo hanno scoperto i loro deepfake (di cui non faremo il nome per non dare maggiore visibilità) è attivo già dal 2012, anno di registrazione a New York. Se i contenuti presenti sono sempre materiali espliciti non consensuali, trafugati dai social media o da piattaforme pornografiche come Pornhub e OnlyFans, in cima all’interfaccia utente spiccano invece gli strumenti che permettono di creare con l’intelligenza artificiale la propria “schiava sessuale”. Questa scelta rivela come l’“offerta” all’utente non solo comprenda i deepnude, ma li consideri anche il “prodotto di punta” con cui invogliare all’utilizzo e ampliare la platea di visitatori. Silvia Semenzin e la collega Lucia Bainotti, ricercatrice in sociologia all’Università di Amsterdam, nel 2021 hanno pubblicato un saggio dal titolo Donne tutte puttane, revenge porn e maschilità egemone. Oltre ad anticipare già il tema dei deepfake sessuali, le due autrici in quel testo tracciavano il modo in cui l’architettura dei siti e delle piattaforme su cui vengono diffuse maggiormente immagini sessuali non consensuali possa essere complice dell’abuso fornendone gli strumenti. In particolare, la ricerca era incentrata sui gruppi di persone che condividono materiale non consensuale soprattutto su Telegram, app di messaggistica dove si muovono ancora adesso molti dei bot capaci di spogliare la donna in un solo clic. La possibilità di creare canali con molti utenti, assieme alla facilità di archiviazione nel cloud della stessa piattaforma e alla percezione di agire nell’anonimato sono alcune delle funzioni che garantiscono la continuità delle attività e rendono praticamente impossibile fermare la proliferazione di deepfake e materiale intimo non consensuale. Tutte queste funzionalità socio-tecniche, chiamate affordances (inviti all’uso) possono essere considerate “genderizzate”, perché vengono utilizzate in modo diverso a seconda che l’utente sia uomo o donna, contribuendo così a costruire la propria identità di genere. Per questo motivo – spiegano le due ricercatrici – l’architettura di Telegram può risultare complice nel fornire gli strumenti attraverso cui le violenze di genere vengono messe in pratica e reiterate. Raggiunta da Guerre di Rete, Bainotti spiega quali cambiamenti ha osservato nelle sue ricerche più recenti rispetto all’estensione del fenomeno e al modo in cui piattaforme e siti agevolano la diffusione di questo materiale: “C’è stato sicuramente un aumento consistente nel numero di utenti, per quanto sia difficile tenere traccia del dato preciso (ogni qualvolta viene buttato giù un gruppo se ne apre subito uno speculare). Quello che sicuramente ho riscontrato è che sono aumentati i bot attraverso cui generare i deepfake, e la pubblicità che ruota intorno a questi ‘prodotti’”, racconta Bainotti. “Ci sono dei meccanismi di monetizzazione molto più espliciti e molto più capillari”, prosegue Bainotti. “Spesso per creare un deepfake vengono chiesti pochi centesimi di euro. Questo ci dà un’indicazione del fatto che sono comunque prezzi molto accessibili, che non richiedono un particolare investimento monetario. In più, sono stati messi a punto schemi per coinvolgere più persone e fidelizzare più utenti. Se inviti altri amici, per esempio, ottieni delle monete virtuali per scaricare altri deepfake. Vengono quindi riproposti schemi che avevamo già osservato su Telegram, che incitano a generare immagini di nudo come fosse un gioco (gamification), normalizzando queste pratiche”. X, GOOGLE E NON SOLO: TUTTO ALLA LUCE DEL SOLE Tutto questo non avviene nel darkweb o in qualche meandro della rete, ma alla luce del sole. Google e altri motori di ricerca indirizzano il traffico verso siti che fanno profitto attraverso la generazione di deepfake sessuali che, nelle ricerche, vengono a loro volta indicizzati tra i primi risultati. Allo stesso modo le transazioni avvengono spesso su circuiti internazionali come Visa e Mastercard. Insomma, ogni attore coinvolto contribuisce in una certa misura a facilitare l’abuso. Nell’agosto 2024, a otto mesi di distanza dai deepnude di Taylor Swift diventati virali su X, Google ha annunciato provvedimenti per facilitare le richieste di rimozione di contenuti espliciti non consensuali da parte delle vittime. Anche l’indicizzazione è stata rivista in modo tale che i primi risultati a comparire siano articoli di stampa che trattano l’argomento e non le immagini generate con l’IA. Eppure, una recente analisi dell’organizzazione  anti-estremismo Institute for Strategic Dialogue (ISD) ha dimostrato che il modo più semplice per trovare immagini sessuali non consensuali rimane proprio quello della ricerca su Google, Yahoo, Bing e altri motori di ricerca. Almeno un risultato dei primi venti, infatti, è uno strumento per creare un deepnude. Dall’acquisizione nel 2022 di Elon Musk, anche X è diventato un luogo dove questi strumenti proliferano. Secondo Chiara Puglielli e Anne Craanen, autrici del paper pubblicato da ISD, il social media di proprietà di Musk genererebbe il 70% di tutta l’attività analizzata dalle due ricercatrici, che coinvolge più di 410mila risultati. Risulta problematico anche il form proposto da Google per chiedere la rimozione di un contenuto generato con l’IA: le vittime di image-based sexual abuse devono inserire nel modulo tutti i link che rimandano al contenuto non consensuale. Questo le costringe a tornare sui luoghi in cui si è consumato l’abuso, contribuendo a quella che notoriamente viene definita vittimizzazione secondaria, ovvero la condizione di ulteriore sofferenza a cui sono sottoposte le vittime di violenza di genere per mano di istituzioni ed enti terzi. “Ancora oggi le piattaforme prevedono che sia a onere della vittima ‘procacciarsi’ le prove della violenza e dimostrare che il consenso era assente, quando invece si dovrebbe ragionare al contrario”, spiega ancora Semenzin. “Se denuncio la condivisione di una foto senza il mio consenso, la piattaforma dovrebbe rimuoverla lasciando semmai a chi l’ha pubblicata il compito di dimostrare che il consenso c’era. Questo sarebbe già un cambio di paradigma”. Il Digital Services Act obbliga le piattaforme digitali con più di 45 milioni di utenti ad avere processi efficienti e rapidi per la rimozione di contenuti non consensuali o illegali. A fine ottobre, la Commissione Europea ha aperto delle procedure di infrazione contro Instagram e Facebook per aver aggiunto delle fasi non necessarie – note come dark patterns (modelli oscuri) – nei meccanismi di segnalazione di materiale illecito che potrebbero risultare “confuse e dissuasive” per gli utenti. Meta rischia una sanzione pari al 6% del fatturato annuo mondiale se non si conforma nei tempi dettati dalla Commissione. Più in generale, è stato osservato in più studi che gli algoritmi di molte piattaforme amplificano la visibilità di contenuti misogini e suprematisti. Usando smartphone precedentemente mai utilizzati, tre ricercatrici dell’Università di Dublino hanno seguito ore di video e centinaia di contenuti proposti su TikTok e Youtube Shorts: tutti i nuovi account identificati con il genere maschile hanno ricevuto entro i primi 23 minuti video e immagini anti-femministi e maschilisti. È stato riscontrato inoltre un rapido incremento se l’utente interagiva o mostrava interesse per uno dei contenuti in questione, arrivando a “occupare” la quasi totalità del feed delle due piattaforme. Nell’ultima fase dell’osservazione, il 76% di tutti i video su Tik Tok e il 78% di quelli proposti su YouTube mostravano a quel punto contenuti tossici realizzati da influencer della maschiosfera, il cui volto più noto è sicuramente Andrew Tate, accusato in più paesi di violenza sessuale e tratta di esseri umani. LACUNE LEGALI Dallo scorso 10 ottobre, in Italia è in vigore l’articolo 612 quater che legifera sulla “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. È prevista la reclusione da uno a cinque anni per “chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale”. Essendo trascorso poco più di un mese dalla sua entrata in vigore, non si hanno ancora sentenze che facciano giurisprudenza e che mostrino efficacia e limiti della norma. Quello che appare evidente è però che il testo si occupa di tutti i materiali generati con l’IA, senza entrare nello specifico dei casi in cui i contenuti manipolati sono sessualmente espliciti. Non lo fa neanche l’articolo introdotto nel 2019 (612-ter), che seppur formuli il reato di diffusione di immagini intime senza consenso, conosciuto con il termine inappropriato di revenge porn, non amplia il raggio d’azione a quelle manipolate con l’IA.  Come scrive Gian Marco Caletti, ricercatore in scienze giuridiche all’università di Bologna, questa esclusione “è apparsa fin da subito un aspetto critico, poiché nel 2019 era già ampiamente preventivabile l’affermarsi di questo uso distorto dell’intelligenza artificiale”. La lacuna della legge del 2019 sembrava destinata a essere sanata grazie alla Direttiva europea sulla violenza di genere del 2024, che obbliga gli stati membri a punire le condotte consistenti nel “produrre, manipolare o alterare e successivamente rendere accessibile al pubblico” immagini, video o materiale analogo che faccia credere che una persona partecipi ad atti sessualmente espliciti senza il suo consenso. Eppure, anche nell’articolo entrato in vigore in Italia lo scorso mese, il reato non viene letto attraverso la lente della violenza di genere: il testo mette potenzialmente insieme deepfake di politici creati, per esempio, per diffondere disinformazione in campagna elettorale e deepnude che presentano invece una matrice culturale ben precisa. Se da un lato la legge presenta alcune lacune, è anche vero che la pronuncia del giudice è solo l’ultimo tassello di un iter che, nelle fasi precedenti, coinvolge molti più attori: dalle forze dell’ordine che ricevono la denuncia alle operatrici che lavorano nei centri anti-violenza. La diffusione di image-based sexual abuse è un fenomeno che si muove sul piano culturale, sociale e tecnologico. E per questo motivo non può essere risolto solo con risposte legali. Il quadro normativo è fondamentale, anche allo scopo di criminalizzare la “produzione” di deepfake sessuali, ma non è sufficiente. Come si è visto già con l’introduzione della legge del 2019 sul revenge porn, questa non si è trasformata effettivamente in un deterrente alla condivisione di immagini esplicite non consensuali e, come riporta l’associazione Permesso Negato, la situazione è rimasta critica. “Abbiamo bisogno di armonizzare gli strumenti a nostra disposizione: abbiamo una legge contro la condivisione di materiale non consensuale, di recente è stata introdotta quella contro i deepfake e dal 2024 c’è una direttiva europea sulla lotta contro la violenza di genere”, spiega ancora Bainotti. “Dobbiamo cercare di applicarle in modo che siano coerenti tra loro e messe a sistema. Nel caso italiano, credo che sia proprio questo il punto più carente, perché se abbiamo le leggi, ma allo stesso tempo abbiamo operatori di polizia o altri enti responsabili che non sono formati alla violenza di genere attraverso la tecnologia, la legge rimane fine a se stessa. Bisogna adottare un approccio sinergico, che metta insieme una chiara volontà politica, un’azione educatrice e una rivoluzione tecnologica”, conclude Bainotti. NUOVI IMMAGINARI Da alcuni anni, in Europa, stanno nascendo progetti non-profit che si occupano di tecnologia e spazi digitali da un punto di vista femminista. In Spagna, il collettivo FemBloc offre assistenza a donne e persone della comunità LGBTQ+ vittime di violenza online grazie al supporto interdisciplinare di esperti di sicurezza digitale, avvocati e psicologi. Tra le attività svolte c’è anche quella della formazione all’interno delle scuole contro la violenza di genere digitale, consulenze gratuite su come mettere in sicurezza i propri account e seminari aperti al pubblico. Una realtà analoga è quella di Superrr, fondata in Germania nel 2019. Il loro lavoro – si legge sul sito – è quello di “assicurare che i nostri futuri digitali siano più giusti e più femministi. Tutte le persone dovrebbero beneficiare delle trasformazioni digitali preservando i propri diritti fondamentali”.  In un momento storico in cui la connessione tra “broligarchi tech” e Donald Trump è più evidente che mai, dove i primi si recano alla Casa Bianca per portare regalie e placche d’oro in cambio di contratti federali, sembra quasi ineluttabile che lo spazio digitale sia stato conquistato da un certo tipo di mascolinità: aggressiva, prepotente, muscolare. Eppure, c’è chi vuole ancora tentare di colonizzare questi spazi con nuovi immaginari politici e un’altra concezione dei rapporti di potere nelle relazioni di genere. L'articolo Perché è così difficile fermare i deepnude proviene da Guerre di Rete.
November 26, 2025
Guerre di Rete
Apple, i dark pattern e la difficile battaglia contro il tracciamento
Nel 2021 Apple ha introdotto App Tracking Transparency (ATT), una funzionalità del sistema operativo iOS che permette agli utenti, che prima dovevano districarsi tra interfacce confusionarie, di impedire con un solo click qualunque tracciamento, evitando quindi che qualsiasi app presente sul loro smartphone possa raccogliere dati personali a fini pubblicitari senza il loro consenso esplicito. La funzionalità introdotta in iOS, il sistema operativo di iPhone e iPad, fornisce un servizio che, nell’internet dominata dal capitalismo della sorveglianza, rende una gran fetta di utenti più protetti. E questo l’ha resa particolarmente apprezzata: si stima infatti che il 75% degli utenti iOS la utilizzi. Eppure ATT, in Italia e in altri paesi europei, potrebbe avere vita breve: “In Apple crediamo che la privacy sia un diritto umano fondamentale e abbiamo creato la funzionalità di App Tracking Transparency per offrire agli utenti un modo semplice per controllare se le aziende possono tracciare le loro attività su altre app e siti web. Una funzionalità accolta con entusiasmo dai nostri clienti e apprezzata dai sostenitori della privacy e dalle autorità per la protezione dei dati in tutto il mondo”, si legge in un comunicato. “Non sorprende che l’industria del tracciamento continui a opporsi ai nostri sforzi per dare agli utenti il controllo sui propri dati”. ATT RISCHIA DI SPARIRE Nonostante il favore degli utenti, ATT è infatti oggetto in Italia di un’indagine dell’Autorità Garante della Concorrenza e del Mercato, che secondo diversi osservatori arriva dopo una forte pressione da parte dell’industria pubblicitaria. Le aziende del settore sostengono che la funzione sia “abusiva” perché duplicherebbe i consensi già richiesti dal GDPR. Apple respinge l’accusa e afferma che la normativa europea dovrebbe essere un punto di partenza, non un limite, e che ATT offre un livello di controllo più chiaro e immediato. La decisione dell’AGCM è attesa entro il 16 dicembre e rischia di privare i consumatori di un prodotto informatico, ATT, che non solo è più funzionale dei singoli banner, ma che si potrebbe definire “naturale”: nel momento in cui tutte le app hanno bisogno di una stessa funzione (in questo caso, richiedere il consenso degli utenti alla profilazione) è più logico integrarla nel sistema operativo e offrirla in un’unica versione standard. ATT fa proprio questo: porta la richiesta di consenso al tracciamento a livello di sistema. Nonostante ogni utente abbia il diritto di prestare o negare il consenso all’utilizzo dei suoi dati personali per fornire pubblicità mirata o rivenderli ai cosiddetti data broker, la semplicità d’uso di ATT di Apple rappresenta la differenza tra un consenso spesso “estorto” da interfacce appositamente convolute e opache e un consenso informato, libero, revocabile. In base al GDPR, il regolamento europeo sulla protezione dei dati, ogni applicazione può trattare i nostri dati personali solo se esiste una delle sei basi giuridiche previste dalla legge. Tra queste, il consenso è quello più comunemente utilizzato. Poiché permette di effettuare una scelta in modo chiaro e semplice, l’ATT ha rapidamente raccolto l’effettivo interesse degli utenti, mostrando in maniera coerente come si può ottenere ciò che i vari garanti europei hanno chiarito nel tempo, ovvero che “rifiutare dev’essere facile quanto accettare”. LA STRATEGIA DI APPLE Ma Apple ha fatto un altro passo avanti: non ha offerto ATT ai programmatori di app, ma l’ha imposta. Ha reso questo consenso necessario, al pari di quello che deve chiedere un’app quando, per esempio, vuole accedere alla localizzazione o al microfono. È direttamente il sistema operativo, sia in iOS sia in Android, che permette di scegliere se fornire o meno, per esempio, l’accesso al microfono al videogioco che abbiamo appena scaricato. In questo modo, lo spazio di manovra per trarre l’utente in inganno si riduce molto: possiamo vedere in una volta sola quali sono le app che richiedono quel privilegio e revocarlo a tutte in ogni momento. Immaginiamo gli esiti nefasti che si sarebbero verificati nel mercato mobile se ogni app avesse potuto accedere, tramite formula ambigue per il consenso, a periferiche come microfono, localizzazione, cartelle e rubrica. È proprio per evitare questa situazione che i programmatori dei sistemi operativi hanno dato il controllo agli utenti, limitando di conseguenza la presenza di spyware e profilazione invasiva. La possibilità di bloccare facilmente l’accesso a periferiche così delicate, soprattutto quando scarichiamo app dalla reputazione dubbia, ci dà un senso di protezione. Perché con il tracciamento dovrebbe essere diverso? Siamo certi che fornire l’accesso al microfono permetta di ottenere dati molto più rilevanti di quelli che si possono avere tramite la profilazione? In realtà, il tracciamento e la cessione di informazioni ai data broker dovrebbero evocare la stessa percezione di rischio. E quindi essere soggette, come fa in effetti l’ATT, a un simile trattamento a livello di consenso. La differenza tra tracciamento e accesso alle periferiche Una periferica è una porzione del sistema operativo: un’app può accedervi soltanto se le è stato concesso questo privilegio, altrimenti non ha modo di farlo. La garanzia del controllo delle aree più delicate di un sistema operativo è un elemento fondamentale della sicurezza informatica. Il blocco al tracciamento, invece, è un insieme di misure tecniche: impedisce il fingerprinting (una tecnica che permette di identificare in modo univoco un utente o un dispositivo) e l’accesso all’Identificatore Unico Pubblicitario (un codice anonimo assegnato dal sistema operativo a ciascun dispositivo mobile, che permette alle app di riconoscere l’utente a fini pubblicitari), oltre a  costringere lo sviluppatore a esplicitare gli obiettivi del trattamento dati, pena la rimozione dall’Apple Store. Non è impossibile aggirare questi divieti, ma una funzione come ATT, che permette di attivarli con un’unica scelta, lo rende molto più complesso. I MILIARDI PERSI DA META Per capire la posta in gioco: Meta ha affermato che ATT sarebbe stato, nel solo 2022, responsabile di una perdita pari a 10 miliardi di dollari (circa l’8% del fatturato 2021), causando una caduta in borsa del 26%. Il Financial Times stimò invece che, nel solo secondo semestre 2021, l’ATT introdotto da Apple fosse la causa di 9,85 miliardi di inferiori ricavi complessivi per Snap (la società del social network Snapchat), Facebook, Twitter e YouTube, segnalando l’ampiezza dell’impatto sull’intero ecosistema pubblicitario. Nel suo report del 2022, lo IAB (Interactive Advertising Bureau, un’associazione di categoria delle aziende pubblicitarie e della comunicazione) menziona già nell’introduzione come la colpa di queste perdite sia in primo luogo dell’ATT e in secondo luogo del regolamento della California sui dati personali. Questo aspetto ci aiuta a mappare il conflitto: i diritti e il consenso vengono considerato come degli avversari da questi soggetti, che – nel tentativo di recuperare i miliardi perduti – sono disposti a mettere in campo tutto il loro potere legale, fino ad arrivare a un’interpretazione del diritto che dovrebbe essere un caso di studio. IN EUROPA, LA PRIVACY SUL BANCO DELL’ANTITRUST In diverse nazioni europee, in seguito alle denunce di associazioni di categoria, sono infatti state intentate cause contro Apple per “abuso di posizione dominante”. Non è però chiaro dove sia il beneficio diretto di Apple,  visto che anche le sue applicazioni devono rispondere all’ATT e quindi anche Apple deve chiedere il consenso per servire pubblicità personalizzata. Apple potrebbe al massimo avere un beneficio indiretto, penalizzando i principali concorrenti – i cui introiti provengono dalla pubblicità – mentre si avvantaggia dalla vendita di dispositivi promossi come “privacy first”. Una delle interpretazioni fornite dalle associazioni di categoria è che gli sviluppatori di applicazioni terze debbano essere in grado di usare il loro form per la richiesta del consenso. Questo, però, ci porta ad affrontare un problema noto: quello dei dark pattern o deceptive design (interfacce ingannevoli), ovvero strategie di design che spingono l’utente a compiere scelte non pienamente consapevoli, per esempio rendendo più complesso rifiutare il tracciamento o l’iscrizione a un servizio rispetto ad accettarlo. DARK PATTERN: PERCHÉ LA FORMA DECIDE IL CONTENUTO Come scrive Caroline Sinders, “le politiche per regolamentare Internet devono fare i conti con il design”, perché interfacce e micro-scelte grafiche possono “manipolare invece che informare” e svuotare principi come il consenso: “I dark pattern sono scelte di design che confondono gli utenti o li spingono verso azioni che non desiderano davvero”. E fanno tutto ciò, tipicamente, rendendo molto facile dire di sì e invece complesso o ambiguo dire di no. Non si tratta di astrazioni. Nel 2024, NOYB (il centro europeo per i diritti digitali) ha analizzato migliaia di banner di consenso in Europa, documentando schemi ricorrenti e misurabili: se il pulsante “rifiuta” non si trova nel primo livello del banner, solo il 2,18% degli utenti lo raggiunge. Non solo: rifiutare richiede in media il doppio dei passi rispetto ad accettare. Tra le pratiche “dark pattern” più comuni troviamo inoltre: link ingannevoli per il rifiuto (inseriti nel corpo del testo mentre per accettare è presente un pulsante ben visibile), colori e contrasti che enfatizzano l’ok e sbiadiscono il no, caselle preselezionate, falso “legittimo interesse” (con cui un’azienda dichiara di poter trattare i dati senza esplicito consenso) e percorsi per la revoca più difficili del consenso. Il Digital Services Act (DSA), in vigore dal 2022, ha portato nel diritto dell’UE il lessico dei dark pattern e ne vieta l’uso quando interfacce e scelte di design ingannano o manipolano gli utenti, aprendo la strada a linee guida e strumenti di attuazione dedicati. In concreto, il DSA prende di mira alcune pratiche precise, come la ripetizione delle richieste anche dopo che una scelta è già stata espressa. Nella tassonomia accademico-regolatoria più aggiornata, questo comportamento corrisponde al pattern “nagging”, cioè l’interruzione insistente che spinge l’utente verso un’azione indesiderata. Un documento rivelatore, da questo punto di vista, è An Ontology of Dark Patterns, che fornisce strumenti utili a riconoscere dark pattern, dar loro un nome preciso e idealmente a poterli misurare, così da effettuare reclami dove possibile e magari riuscire, a colpi di sanzioni, a limitarli. Nonostante il DSA sancisca a livello concettuale il divieto dei dark pattern, le autorità o i cittadini che volessero effettuare reclami dovrebbero poter misurare la difficoltà dell’interfaccia e rendere obiettivo il giudizio. Questa è la parte più difficile: da un lato non puoi distinguere un dark pattern dal cattivo design; dall’altro, le piattaforme più grandi (definite dalla UE “gatekeeper”) sono diventate tali anche per la cura maniacale nei confronti del design delle loro interfacce, ottimizzando il percorso per loro più profittevole e disincentivando tutti gli altri. Qui sta la difficoltà: non si può giudicare un dark pattern solo dal principio, bisogna invece misurare l’esperienza. In pratica, i pattern si vedono quando: rifiutare richiede più passaggi di accettare (asimmetria di percorso); il “no” è meno evidente del “sì” (asimmetria visiva: posizione, dimensione, contrasto); l’utente viene interrotto finché non cede (nagging); ci sono oneri informativi inutili prima di arrivare alla scelta (ostruzione); esistono impostazioni preselezionate o categorie opache (sneaking). Per questo le standardizzazioni di piattaforma come ATT sono preziose: trasformano il consenso in un gesto coerente nel tempo, riducendo la superficie di manipolazione creativa e permettendo sia agli utenti di imparare rapidamente dove e come decidere, sia ai regolatori/ricercatori di misurare con metriche stabili (passaggi, tempi, posizionamenti). È lo stesso vantaggio che abbiamo quando il sistema operativo gestisce i permessi di fotocamera o microfono: l’utente riconosce il messaggio proveniente dal sistema operativo, sa come revocare il consenso e chi prova a barare salta subito all’occhio. Infine, il nodo culturale: consenso informato e scelta informata richiedono una certa educazione dell’utente. Il regolatore spesso la dà per scontata mentre, al contrario, i team tecnici delle piattaforme investono nel scovare le vulnerabilità degli utenti, sfruttando posizionamento, ritardi, colori, tempi, percorsi. Per questo l’uniformità del punto in cui bisogna effettuare la decisione (uno strato di sistema, uguale per tutti) dovrebbe essere favorita: abbassa la complessità per gli utenti e rende l’enforcement verificabile. Oggi, però, la regolazione resta quasi sempre a livello alto (principi, divieti) e raramente scende a specifiche vincolanti sulla user interface. Il risultato è che l’onere di provare la manipolazione ricade su autorità e cittadini, caso per caso; mentre chi progetta interfacce approfitta della grande varietà di soluzioni “creative”. ATT mostra che spostare la scelta verso il basso, all’interno del sistema, abilita gli utenti a esprimere le loro volontà e a vederle rispettate. IL LIMITATO INTERVENTO DEL GARANTE Immaginiamo che l’Autorità Garante della Concorrenza e del Mercato (AGCM) ponga all’autorità che si occupa di protezione dei dati una domanda di questo tipo: “ATT è necessario per adempire al GDPR?”. Quest’ultimo probabilmente risponderebbe negativamente, perché in punta di diritto non lo è. Forse è un peccato, perché se la domanda invece fosse: “ATT è una soluzione migliore per catturare il consenso rispetto ai banner sviluppati da terze parti?”, la risposta sarebbe molto probabilmente differente. Al di là degli scenari teorici, che mostrano però come basti cambiare il punto di vista per cambiare anche il risultato, l’impressione è che AGCM abbia la possibilità di rimuovere ATT e che il garante della Privacy non abbia strumenti per intervenire. La situazione non sembra quindi rosea per ATT in attesa della decisione del 16 dicembre, visto che in Francia l’Autorità competente ha già inflitto a Apple 150 milioni di euro, ritenendo sproporzionato il sistema rispetto all’obiettivo dichiarato e penalizzante per editori più piccoli (Apple ha invece nuovamente difeso ATT come una scelta a favore degli utenti). Ed è qui che la notizia si intreccia con i dark pattern: per alleggerire le restrizioni di ATT, l’industria pubblicitaria spinge perché siano le singole app e non il sistema a mostrare i propri moduli di consenso. Ma quando scompare il “freno di piattaforma”, gli stessi moduli spesso deviano la scelta. ANTITRUST CONTRO PRIVACY EPIC (Electronic Privacy Information Center) ha messo in guardia proprio su questo punto: con la scusa della concorrenza si rischiano di abbassare le barriere al tracciamento, limitando le tutele. Le minacce per la sicurezza relative alle periferiche e di cui abbiamo parlato, per esempio, non sono sempre state bloccate. Le tutele sono cresciute gradualmente. Da questo punto di vista, il caso di Apple fa riflettere su due aspetti. Il primo è che se i diritti non sono riconosciuti a norma di legge, non sono realmente ottenuti. Per esempio: una VPN potrà darci un vantaggio, un sistema operativo potrà darci una funzione come l’ATT, una corporation come WhatsApp potrà avvisarci di essere soggetti ad attacchi da parte di attori statali, ma questi sono da viversi come “regali temporanei”. Ci vengono fatti perché la percezione di sicurezza degli utenti conta di più della loro effettiva inattaccabilità. Chissà cosa succederebbe se l’antitrust sancisse che gli sviluppatori di terze parti possono avere la libertà di accedere anche alle periferiche del sistema, senza subire i vincoli del sistema operativo. Sarebbe naturalmente un disastro, ma quantomeno solleverebbe pressioni, perplessità, critiche. Invece, relegare questa scelta a una lotta tra corporation rischia di non rendere giustizia alle vittime di tutto questo: gli utenti. Grande assente nelle carte è infatti una domanda: che cosa vogliono le persone? Come detto, al netto delle dispute tra piattaforme e ad-tech, ATT piace agli utenti iOS e una larga maggioranza di utenti Android ha detto di volere “qualcosa di simile” sui propri telefoni. Un maxi-sondaggio svolto da Android Authority con oltre 35 mila voti (per quanto privo di valore statistico) ha concluso che “la stragrande maggioranza vuole anche su Android una funzione anti-tracking come quella di Apple”. Ma questo in fondo già lo sapevamo, ognuno di noi,  quando messo davvero di fronte a una scelta chiara, tende a dire di no al tracciamento. Usare l’antitrust per rimuovere ATT non darebbe più libertà agli sviluppatori, ma solo più libertà d’azione ai dark pattern. L'articolo Apple, i dark pattern e la difficile battaglia contro il tracciamento proviene da Guerre di Rete.
November 19, 2025
Guerre di Rete
Enshittification: il progressivo degrado delle piattaforme digitali
Immagine in evidenza: rielaborazione della copertina di Enshittification di Cory Doctorow Da alcuni anni conosciamo il cosiddetto “capitalismo della sorveglianza”: un modello economico basato sull’estrazione, controllo e vendita dei dati personali raccolti sulle piattaforme tecnologiche. Lo ha teorizzato Shoshana Zuboff nel 2019 in un libro necessario per comprendere come Meta, Amazon, Google, Apple e gli altri colossi tech abbiano costruito un potere senza precedenti, capace di influenzare non solo il mercato e i comportamenti degli utenti, ma anche, tramite il lobbying, le azioni dei decisori pubblici di tutto il mondo. L’idea che queste grandi piattaforme abbiano sviluppato una sorta di potere sulle persone tramite la sorveglianza commerciale, com’è stata teorizzata da Zuboff, è però un mito che è il momento di sfatare. Così almeno la pensa Cory Doctorow, giornalista e scrittore canadese che negli ultimi anni ha pubblicato due libri particolarmente illuminanti sul tema.  In “Come distruggere il capitalismo della sorveglianza”, uscito nel 2024 ed edito da Mimesis, Doctorow spiega come molti critici abbiano ceduto a quella che il professore del College of Liberal Arts and Human Science Lee Vinsel ha definito “criti-hype”: l’abitudine di criticare le affermazioni degli avversari senza prima verificarne la veridicità, contribuendo così involontariamente a confermare la loro stessa narrazione. In questo caso, in soldoni, il mito da contestare è proprio quello di poter “controllare” le persone per vendergli pubblicità.  “Penso che l’ipotesi del capitalismo della sorveglianza sia profondamente sbagliata, perché rigetta il fatto che le aziende ci controllino attraverso il monopolio, e non attraverso la mente”, spiega Doctorow a Guerre di Rete. Il giornalista fa l’esempio di uno dei più famosi CEO delle Big Tech, Mark Zuckerberg: “A maggio, Zuckerberg ha rivelato agli investitori che intende recuperare le decine di miliardi che sta spendendo nell’AI usandola per creare pubblicità in grado di aggirare le nostre capacità critiche, e quindi convincere chiunque ad acquistare qualsiasi cosa. Una sorta di controllo mentale basato sull’AI e affittato agli inserzionisti”.  Effettivamente, viste le perdite che caratterizzano il settore dell’intelligenza artificiale – e nel caso di Meta visto anche il fallimento di quel progetto chiamato metaverso, ormai così lontano da non essere più ricordato da nessuno – è notevole che Zuckerberg sia ancora in grado di ispirare fiducia negli investitori. E di vendergli l’idea di essere un mago che, con cappello in testa e bacchetta magica in mano, è in grado di ipnotizzarci tutti. “Né Rasputin [il mistico russo, cui erano attribuito poteri persuasivi, ndr] né il progetto MK-Ultra [un progetto della CIA per manipolare gli stati mentali negli interrogatori, ndr] hanno mai veramente perfezionato il potere mentale, erano dei bugiardi che mentivano a sé stessi o agli altri. O entrambe le cose”, dice Doctorow. “D’altronde, ogni venditore di tecnologia pubblicitaria che incontri un dirigente pubblicitario sfonda una porta aperta: gli inserzionisti vogliono disperatamente credere che tu possa controllare la mente delle persone”.  IL CARO VECCHIO MONOPOLIO Alla radice delle azioni predatorie delle grandi piattaforme, però, non ci sarebbe il controllo mentale, bensì le pratiche monopolistiche, combinate con la riduzione della qualità dei servizi per i miliardi di utenti che li usano. Quest’ultimo è il concetto di enshittification, coniato dallo stesso Doctorow e che dà il nome al suo saggio appena uscito negli Stati Uniti. Un processo che vede le piattaforme digitali, che inizialmente offrono un servizio di ottimo livello, peggiorare gradualmente per diventare, alla fine, una schifezza (la traduzione di shit è escremento, per usare un eufemismo). “All’inizio la piattaforma è vantaggiosa per i suoi utenti finali, ma allo stesso tempo trova il modo di vincolarli”, spiega il giornalista facendo l’esempio di Google, anche se il processo di cui parla si riferisce a quasi tutte le grandi piattaforme. Il motore di ricerca ha inizialmente ridotto al minimo la pubblicità e investito in ingegneria per offrire risultati di altissima qualità. Poi ha iniziato a “comprarsi la strada verso il predominio” –sostiene Doctorow – grazie ad accordi che hanno imposto la sua casella di ricerca in ogni servizio o prodotto possibile. “In questo modo, a prescindere dal browser, dal sistema operativo o dall’operatore telefonico utilizzato, le persone finivano per avere sempre Google come impostazione predefinita”. Una strategia con cui, secondo Doctorow, l’azienda di Mountain View ha acquisito qua e là società di grandi dimensioni per assicurarsi che nessuno avesse un motore di ricerca che non fosse il suo. Per Doctorow è la fase uno: offrire vantaggi agli utenti, ma legandoli in modo quasi invisibile al proprio ecosistema. Un’idea di quale sia il passaggio successivo l’abbiamo avuta assistendo proprio a ciò che è successo, non troppo tempo fa, al motore di ricerca stesso: “Le cose peggiorano perché la piattaforma comincia a sfruttare gli utenti finali per attrarre e arricchire i clienti aziendali, che per Google sono inserzionisti ed editori web. Una porzione sempre maggiore di una pagina dei risultati del motore di ricerca è dedicata agli annunci, contrassegnati con etichette sempre più sottili, piccole e grigie. Così Google utilizza i suo i dati di sorveglianza commerciale per indirizzare gli annunci”, spiega Doctorow.  Nel momento in cui anche i clienti aziendali rimangono intrappolati nella piattaforma, come prima lo erano stati gli utenti, la loro dipendenza da Google è talmente elevata che abbandonarla diventa un rischio esistenziale. “Si parla molto del potere monopolistico di Google, che deriva dalla sua posizione dominante come venditore. Penso però che sia più correttamente un monopsonio”. Monopoli e monopsoni “In senso stretto e tecnico, un monopolio è un mercato con un unico venditore e un monopsonio è un mercato con un unico acquirente”, spiega nel suo libro Doctorow. “Ma nel linguaggio colloquiale dell’economia e dell’antitrust, monopolista e monopsonista si riferiscono ad aziende con potere di mercato, principalmente il potere di fissare i prezzi. Formalmente, i monopolisti di oggi sono in realtà oligopolisti e i nostri monopsonisti sono oligopsonisti (cioè membri di un cartello che condividono il potere di mercato)”. E ancora scrive: “Le piattaforme aspirano sia al monopolio che al monopsonio. Dopo tutto, le piattaforme sono ”mercati bilaterali” che fungono da intermediari tra acquirenti e venditori. Inoltre, la teoria antitrust basata sul benessere dei consumatori è molto più tollerante nei confronti dei comportamenti monopsonistici, in cui i costi vengono ridotti sfruttando lavoratori e fornitori, rispetto ai comportamenti monopolistici, in cui i prezzi vengono aumentati. In linea di massima, quando le aziende utilizzano il loro potere di mercato per abbassare i prezzi, possono farlo senza temere ritorsioni normative. Pertanto, le piattaforme preferiscono spremere i propri clienti commerciali e aumentano i prezzi solo quando sono diventate davvero troppo grandi per essere perseguite”. Così facendo, l’evoluzione del motore di ricerca si è bloccata e il servizio ha poi iniziato a peggiorare, sostiene l’autore. “A un certo punto, nel 2019, più del 90% delle persone usava Google per cercare tutto. Nessun utente poteva più diventare un nuovo utente dell’azienda e quindi non avevano più un modo facile per crescere. Di conseguenza hanno ridotto la precisione delle risposte, costringendo gli utenti a cercare due o più volte prima di ottenerne una decente, raddoppiando il numero di query e di annunci”. A rendere nota questa decisione aziendale è stata, lo scorso anno, la pubblicazione di alcuni documenti interni durante un processo in cui Google era imputata. Sui banchi di un tribunale della Virginia una giudice ha stabilito che l’azienda creata da Larry Page e Sergey Brin ha abusato di alcune parti della sua tecnologia pubblicitaria per dominare il mercato degli annunci, una delle sue principali fonti di guadagno (nel 2024, più di 30 miliardi di dollari a livello mondiale). “E così arriviamo al Google incasinato di oggi, dove ogni query restituisce un cumulo di spazzatura di intelligenza artificiale, cinque risultati a pagamento taggati con la parola ‘ad’ (pubblicità) in un carattere minuscolo e grigio su sfondo bianco. Che a loro volta sono link di spam che rimandano ad altra spazzatura SEO”, aggiunge Doctorow facendo riferimento a quei contenuti creati a misura di motore di ricerca e privi in realtà di qualunque valore informativo. Eppure, nonostante tutte queste criticità, continuiamo a usare un motore di ricerca del genere perché siamo intrappolati nei suoi meccanismi. Il quadro non è dei migliori. “Una montagna di shit”, le cui radici  – afferma lo studioso – vanno cercate nella distruzione di quei meccanismi di disciplina che una volta esistevano nel capitalismo. Ma quali sarebbero questi lacci che tenevano a bada le grandi aziende? La concorrenza di mercato – ormai eliminata dalle politiche che negli ultimi 40 anni hanno favorito i monopoli; una regolamentazione efficace – mentre oggi ci ritroviamo con leggi e norme inadeguate o dannose, come ad esempio la restrizione dei meccanismi di interoperabilità indotta dall’introduzione di leggi sul copyright; e infine il potere dei lavoratori – anche questo in caduta libera a seguito dell’ondata di licenziamenti nel settore tecnologico. La “enshittification“, secondo Doctorow, è un destino che dovevamo veder arrivare, soprattutto perché giunge a valle di scelte politiche precise: “Non sono le scelte di consumo, ma quelle politiche a creare mostri come i CEO delle Big Tech, in grado di distruggere le nostre vite online perché portatori di pratiche commerciali predatorie, ingannevoli, sleali”. Non basta insomma odiare i giocatori e il gioco, bisogna anche ricordare che degli arbitri disonesti hanno truccato la partita, convincendo i governi di tutto il mondo ad abbracciare specifiche politiche. Quando si parla di tecnologia e delle sue implicazioni a breve, medio e lungo periodo è difficile abbracciare una visione possibilista e positiva. Un po’ come succede per le lotte per la giustizia sociale e per il clima: il muro che ci si ritrova davanti sembra invalicabile. Una grossa difficoltà che, secondo Doctorow, è data dalla presenza di monopoli e monopsoni.  Ma la reazione alle attuali crisi politiche globali mostra che un cambiamento è possibile. “Negli ultimi anni c’è stata un’azione di regolamentazione della tecnologia superiore a quella dei 40 anni precedenti”, spiega Doctorow. Non solo: la seconda elezione di Donald Trump si starebbe rivelando una benedizione sotto mentite spoglie, sia per il clima sia per il digitale. “Ha acceso un fuoco sotto i leader di altri Paesi ex alleati, stimolando grandi e ambiziosi programmi per sfuggire al monopolio statunitense. Pensiamo ai dazi sui pannelli solari cinesi imposti da Trump nella prima amministrazione, per esempio. Una misura che ha spinto i produttori di Pechino a inondare i paesi del Sud del mondo con i loro pannelli economici, a tal punto che intere regioni si sono convertite all’energia solare”, afferma Doctorow, che considera questa strada percorribile anche per ottenere una tecnologia più libera. PER NON VEDERE TUTTO NERO Sfuggire alle Big Tech americane non dovrebbe significare semplicemente  rifugiarsi in un servizio alternativo (mail, cloud, social media, ecc.), anche perché il processo non è così semplice. “Non si copia e incolla la vita delle persone: le email, i file, i documenti custoditi nei cloud di Microsoft, Apple o Google. Nessun ministero, azienda o individuo lo farà”. Motivo per cui, secondo Doctorow, Eurostack è una possibile alternativa, ma che ha ancora tanta strada da fare. Eurostack è un’iniziativa europea nata recentemente in risposta all’esigenza di costruire una sovranità digitale del Vecchio continente, indipendente dalle aziende tecnologiche straniere (specialmente USA). Coinvolge attivisti digitali, comunità open source, istituzioni europee e alcuni politici. “L’Ue potrebbe ordinare alle grandi aziende tech statunitensi di creare strumenti di esportazione, così che gli europei possano trasferire facilmente i propri dati in Eurostack, ma possiamo già immaginare come andrà a finire. Quando l’Ue ha approvato il Digital Markets Act, Apple ha minacciato di smettere di vendere iPhone in Europa, e ha presentato 18 ricorsi legali”, ricorda Doctorow.  Se la risposta di un’azienda statunitense all’introduzione di una direttiva europea è questa, la soluzione allora non può essere che radicale. “L’unica via possibile è abrogare l’articolo 6 della direttiva sul diritto d’autore: l’Ue dovrebbe rendere legale il reverse engineering di siti web e app statunitensi in modo che gli europei possano estrarre i propri dati e trasferirli in Eurostack. Un modello aperto, sovrano, rispettoso della privacy, dei diritti dei lavoratori e dei consumatori”. L'articolo Enshittification: il progressivo degrado delle piattaforme digitali proviene da Guerre di Rete.
November 12, 2025
Guerre di Rete