Source - Guerre di Rete

L’eterno ritorno di Chat Control
Immagine in evidenza da stopchatcontrol.fr Si torna a parlare di lotta agli abusi sui minori, privacy e crittografia end-to-end, dopo che, il 26 novembre, il Consiglio UE ha votato a favore dell’approvazione del nuovo testo del Child Sexual Abuse Regulation (CSAR), più comunemente conosciuto come Chat Control. La proposta di legge, di cui si discute ormai da più di tre anni, è volta a limitare la diffusione di materiale pedopornografico online attraverso nuove disposizioni per le piattaforme e i fornitori di servizi digitali, inclusa la possibilità di effettuare una scansione preventiva e costante dei contenuti che gli utenti si scambiano, per esempio, su WhatsApp, Telegram o Gmail, al fine di rilevare attività di adescamento di minori o movimento di materiale pedopornografico. La proposta, che da tempo cerca un equilibrio tra la necessità di proteggere i minori da abusi sessuali e quella di tutelare i diritti fondamentali dei cittadini europei (a partire dalla privacy), ha sollevato non poche critiche da parte dei funzionari di governo, degli esperti di sicurezza, delle società di servizi coinvolte e, non da ultimi, degli utenti stessi. E ora, dopo il voto favorevole ottenuto dopo numerosi rinvii, il senso di preoccupazione sta rapidamente crescendo. Proprio per questo, è importante fare chiarezza sul cosiddetto Chat Control: cos’è, quali regolamentazioni prevede, quali sono i reali rischi per la privacy, e come potrebbe cambiare la nostra vita. CHAT CONTROL: COS’È E COSA PREVEDE Era l’11 maggio 2022 quando, per la prima volta, la Commissione Europea presentava una nuova proposta legislativa “per prevenire e combattere gli abusi sessuali sui minori in rete”. Una manovra presentata come necessaria a causa della crescente diffusione di materiale pedopornografico in rete rilevata a partire dal 2021 – anno in cui, stando ai dati riportati dalla Commissione, sono stati segnalati “85 milioni di immagini e video che ritraggono abusi sessuali su minori” – e l’incapacità del sistema attualmente in vigore – il cosiddetto Chat Control 1.0, che prevede la segnalazione di abusi tramite monitoraggio volontario dei fornitori di servizi digitali – di proteggere adeguatamente i minori. Per contenere quanto più possibile la situazione, in quell’occasione la Commissione ha proposto “una legislazione per affrontare efficacemente l’abuso sessuale su minori online, anche richiedendo ai prestatori di rilevare materiale pedopornografico noto e […] la creazione di un Centro dell’UE di prevenzione e lotta contro l’abuso sessuale su minori”. Una serie di norme, in sostanza, che consentirebbero a un’ampia gamma di fornitori di servizi Internet, compresi i servizi di hosting e di messaggistica, di accedere e scansionare le conversazioni private degli utenti al fine di “individuare, segnalare e rimuovere il materiale pedopornografico dai loro servizi”, o rilevare episodi di “adescamento di minori” (grooming). Un’operazione che le compagnie dovrebbero attuare attraverso “tecnologie che siano il meno invasive possibile per la privacy, in linea con lo stato dell’arte del settore, e che limitino il più possibile il tasso di errore dei falsi positivi”. Allo stato attuale, il cosiddetto Chat Control richiede ai “prestatori di servizi di hosting e prestatori di servizi di comunicazione interpersonale” di individuare, esaminare e valutare “per ciascun servizio che offrono, il rischio di un suo uso a fini di abuso sessuale su minori online”. E poi di prendere “misure di attenuazione ragionevoli e adeguate al rischio individuato […] per ridurlo al minimo”. Tra queste misure, come anticipato, rientra anche la scansione delle conversazioni private degli utenti: uno strumento che le piattaforme e i fornitori di servizi possono utilizzare ai fini della valutazione del rischio e della sua attenuazione. Tuttavia, la proposta prevede che, se dopo la valutazione e le misure adottate dal fornitore sussiste ancora un rischio significativo che il servizio possa essere utilizzato per abusi sui minori, le autorità nazionali designate possano avvalersi di questo strumento per indagare sulla diffusione di materiale pedopornografico. In questo caso, possono chiedere all’autorità giudiziaria o amministrativa di “emettere un ordine di rilevazione che impone a un prestatore di servizi di hosting o a un prestatore di servizi di comunicazione interpersonale rientrante nella giurisdizione dello Stato membro in questione di prendere le misure […] per rilevare casi di abuso sessuale su minori online in un servizio specifico”. Anche in questo caso, però, la proposta della Commissione Europea specifica che le autorità devono avvalersi di tecnologie che non siano invasive nei confronti degli utenti coinvolti, ma che siano anzi “efficaci nel rilevare la diffusione di materiale pedopornografico noto o nuovo o l’adescamento di minori, a seconda dei casi” e “non in grado di estrarre dalle comunicazioni in questione informazioni diverse da quelle strettamente necessarie per rilevare […] pattern rivelatori di diffusione di materiale pedopornografico noto o nuovo o di adescamento di minori”. Data la delicatezza della scansione, soprattutto nelle comunicazioni private e crittografate, il regolamento prevede una serie di garanzie, quali la limitazione della durata degli ordini, il controllo umano delle tecnologie di rilevamento, la riduzione al minimo dei dati trattati e l’accesso a meccanismi di ricorso per gli utenti e i fornitori. Pertanto, per garantire che il regolamento venga rispettato, la proposta introduce anche il Centro dell’UE per la prevenzione e la lotta contro gli abusi sessuali sui minori, che svolgerà un ruolo di supporto alle autorità e alle piattaforme fornendo banche dati di indicatori affidabili e tecnologie di rilevamento adeguate, contribuendo a ridurre i falsi positivi e gli impatti invasivi. LE ORIGINI E LE EVOLUZIONI DELLA PROPOSTA DI LEGGE La proposta avanzata dalla Commissione Europea nel 2022 non dichiarava apertamente che i telefoni dei cittadini europei sarebbero stati scansionati alla ricerca di materiale pedopornografico, ma introduceva il concetto di “obblighi di rilevamento” che i fornitori di servizi dovevano rispettare, anche nel caso in cui questi proteggessero la privacy degli utenti con la crittografia end-to-end. Questo significava, quindi, che le autorità coinvolte nella rilevazione potessero ricorrere alla scansione lato client, ossia all’analisi di contenuti digitali presenti sui dispositivi degli utenti prima ancora che venissero crittografati e inviati o ricevuti. Com’è noto, la proposta ha sin da subito scatenato le critiche di governi ed esperti di sicurezza e privacy, tanto che nel 2023 il Parlamento Europeo ha escluso sia la crittografia end-to-end sia i messaggi di testo dall’ambito di applicazione degli obblighi, limitando questi ultimi ai casi di ragionevole sospetto e impedendo di fatto la scansione indiscriminata. Pertanto, solo se i fornitori non rispettano le norme per la sicurezza dei minori, le autorità competenti possono emettere un ordine di scansione e rilevamento di materiale pedopornografico dai dispositivi degli utenti. Nel corso degli anni, però, la proposta ha subìto decine di modifiche e aggiornamenti. L’1 luglio 2025, il Consiglio dell’Unione Europea ha presentato una proposta in cui si afferma chiaramente che, per i servizi dotati di crittografia end-to-end (che impedisce a chiunque di leggere i messaggi, esclusi soltanto mittente e destinatario) come WhatsApp, Signal e Telegram, il rilevamento avviene “prima della trasmissione dei contenuti” – ossia prima che questi vengano crittografati – installando un software preposto alla scansione, ma con una clausola di “consenso dell’utente”. Allo stato attuale, Chat Control rimane soltanto una proposta. Per far sì che diventi una legge a tutti gli effetti è necessario l’avvio di triloghi – “un negoziato interistituzionale informale che riunisce rappresentanti del Parlamento europeo, del Consiglio dell’Unione europea e della Commissione europea” – che mettano d’accordo le parti. Se la linea attuale del Consiglio dovesse essere approvata, questo comporterebbe l’installazione di un software che controlli i contenuti prima della crittografia per i servizi end-to-end; al contrario, se prevalesse la linea del Parlamento, non verrebbe effettuata alcuna scansione preventiva dei contenuti. Proprio per questo, lo scorso 14 ottobre era stato fissato come data per il voto del Consiglio UE sul Child Sexual Abuse Regulation (Csar): un giorno in cui i ministri dei diversi paesi membri avrebbero espresso il proprio parere sulla proposta. A una settimana dalla data, dopo aver subito forti pressioni da parte dell’opinione pubblica, la Germania si era dichiarata contraria al disegno di legge, costringendo l’intero Consiglio a rimandare il voto finale sull’approvazione. “Il monitoraggio ingiustificato delle chat deve essere un tabù in uno Stato di diritto. La comunicazione privata non deve mai essere soggetta a sospetti generalizzati. Né lo Stato deve obbligare a scansionare in massa i messaggi alla ricerca di contenuti sospetti prima di inviarli. La Germania non accetterà tali proposte a livello UE (…). Nemmeno i crimini peggiori giustificano la rinuncia ai diritti civili fondamentali”, ha dichiarato Stefanie Hubig, ministra federale della Giustizia e della Tutela dei consumatori, commentando la scelta della Germania, che ha stravolto l’agenda legislativa della Commissione Europea. LA SVOLTA DANESE Dopo tante controversie, lo scorso novembre la presidenza danese del Consiglio dell’Unione europea ha introdotto un’importante revisione alla proposta del Child Sexual Abuse Regulation (CSAR), in cui le “disposizioni relative agli obblighi di rilevamento (articoli da 7 a 11) sarebbero eliminate dal testo”. In questo modo, il regolamento mantiene il monitoraggio delle chat private degli utenti, senza renderlo obbligatorio, ma trasformandolo in uno strumento che le aziende tecnologiche possono utilizzare a propria discrezione. Anche se, come si legge nella proposta della presidenza danese, “i fornitori di servizi ad alto rischio, in cooperazione con il Centro dell’UE, potrebbero comunque essere tenuti ad adottare misure per sfruttare le tecnologie adeguate per mitigare il rischio di abusi sessuali sui minori individuati sui loro servizi”. La modifica della Danimarca ha segnato un momento importante nell’evoluzione di Chat Control, che lo scorso 26 novembre ha ottenuto l’approvazione dei rappresentanti dei 27 paesi membri dell’Unione Europea, dando così inizio all’ultima fase che precede l’approvazione del regolamento: la discussione tra Parlamento Europeo, Consiglio dell’Unione Europea e Commissione Europea. “Ogni anno vengono condivisi milioni di file che ritraggono visivamente abusi sessuali su minori. Dietro ogni singolo video e immagine c’è un minore che ha subito gli abusi più orribili e tremendi. Ciò è del tutto inaccettabile”, ha commentato Peter Hummelgaard, ministro danese della Giustizia, dopo la votazione svoltasi a Bruxelles. “Sono pertanto lieto che gli Stati membri abbiano finalmente concordato una via da seguire che prevede una serie di obblighi per i prestatori di servizi di comunicazione al fine di combattere la diffusione di materiale di abuso sessuale su minori”.  Allo stato attuale, secondo quanto approvato dai paesi membri dell’UE, “i fornitori di servizi online saranno tenuti a valutare il rischio che le loro piattaforme possano essere utilizzate impropriamente per diffondere materiale di abuso sessuale su minori o per adescare minori. Sulla base di tale valutazione, dovranno attuare misure di attenuazione per contrastare tale rischio. Tali misure potrebbero includere la messa a disposizione di strumenti che consentano agli utenti di segnalare casi di abuso sessuale su minori online, di controllare quali contenuti che li riguardano sono condivisi con altri e di predisporre impostazioni predefinite a tutela della vita privata dei minori”. L’interesse del Consiglio è quello di arrivare ai triloghi il prima possibile, considerando che ad aprile 2026 scadrà la legislazione temporanea che consente alle app di eseguire la scansione alla ricerca di materiale pedopornografico. “Il Consiglio ha finalmente adottato la sua posizione sul regolamento CSA”, ha commentato in un post pubblicato su X il deputato spagnolo Javier Zarzalejos, leader delle negoziazioni in Parlamento. “Abbiamo bisogno di un quadro legislativo obbligatorio e a lungo termine con solide garanzie. Il tempo sta per scadere e ogni minuto che perdiamo senza una legislazione efficace significa più bambini danneggiati”. La nuova proposta non sembra però incontrare né il sostegno delle forze dell’ordine, preoccupate che i contenuti illegali rimarranno nascosti nelle applicazioni con crittografia end-to-end, né gli attivisti a difesa della privacy, preoccupati che il rilevamento – seppur volontario – possa trasformarsi in uno strumento di sorveglianza di massa. I RISCHI DI CHAT CONTROL E qui arriviamo a un altro dei punti deboli della proposta della Commissione ampiamente criticato dagli attivisti, l’alto tasso di falsi positivi. I sistemi di scansione automatica, infatti, spesso segnalano come illegali contenuti che non lo sono affatto, come le foto di bambini sulla spiaggia scattate durante le vacanze familiari. Secondo la polizia federale della Svizzera, per esempio, l’80% di tutte le segnalazioni elaborate da programmi informatici si rivelano infondate. E stando ai dati raccolti in Irlanda, invece, solo il 20% delle segnalazioni ricevute dal National Center for Missing and Exploited Children (NCMEC) nel 2020 sono state confermate come effettivo “materiale pedopornografico”. Il rischio, quindi, è che i cittadini vengano coinvolti in indagini sull’abuso di minori senza aver mai commesso alcun reato e, per di più, vedendo compromessa la propria privacy. E non è tutto. Molti critici, infatti, temono anche il cosiddetto “function creep”: una volta che esisterà un sistema per la scansione di tutti i messaggi degli utenti, i futuri governi potrebbero essere tentati di estenderne l’applicazione ad altri settori, come il terrorismo o, nel peggiore dei casi, censurando il dissenso politico. “Una volta che viene implementato una tecnologia di questo genere, significa che avremo un sistema che controlla tutte le nostre comunicazioni e decide se sono legali o no”, ha commentato Udbhav Tiwari, VP strategy and global affairs di Signal, nel corso del webinar Stop Chat Control tenutosi lo scorso 30 settembre. “Il suo funzionamento dipende esclusivamente da come e con quali dati viene addestrato”. Un’opinione condivisa dai governi di Repubblica Ceca, Paesi Bassi e Olanda, che hanno espresso un voto contrario lo scorso 26 novembre. E così pure – o quasi – dall’Italia, che ha deciso di astenersi dalla votazione, sottolineando la preoccupazione che una forma di sorveglianza delle comunicazioni potrebbe ledere i diritti costituzionali della persona. “I titoli dei giornali sono fuorvianti: Chat Control non è morto, è solo stato privatizzato”, ha commentato Patrick Breyer, ex eurodeputato oggi alla guida del movimento Fight Chat Control. “Quello che il Consiglio ha approvato oggi è un cavallo di Troia. Consolidando la scansione di massa ‘volontaria’, stanno legittimando la sorveglianza di massa senza mandato e soggetta a errori di milioni di europei da parte delle aziende statunitensi”. Il termine “volontario” per definire il rilevamento proposto dalla presidenza danese, secondo Breyer, sarebbe ingannevole: “Il testo mira a rendere permanente la normativa temporanea ‘Chat Control 1.0’”, che consente a fornitori come Meta o Google di scansionare le chat private degli utenti, indiscriminatamente e senza un mandato del tribunale. Nulla di troppo diverso, quindi, rispetto alla proposta originaria. Chat Control, secondo gli attivisti, è e continua a essere uno strumento pericoloso per la sicurezza e la privacy dei cittadini. L'articolo L’eterno ritorno di Chat Control proviene da Guerre di Rete.
Perché è così difficile fermare i deepnude
È il dicembre 2017 quando la giornalista statunitense Samantha Cole scova sul forum Reddit il primo deepfake che gira in rete. È un video che riproduce l’attrice e modella israeliana Gal Gadot mentre ha un rapporto sessuale. Le immagini non sono precise, il volto non sempre combacia con il corpo e, quando si mette in play, il video genera il cosiddetto effetto uncanny valley, ovvero quella sensazione di disagio che si prova quando si osserva un robot con caratteristiche umane non del tutto realistiche. Come racconta Cole nell’articolo, “deepfakes” – questo il nome dell’utente – continuerà a pubblicare altri video generati con l’intelligenza artificiale e manipolati con contenuti espliciti: una volta con il volto di Scarlett Johansson, un’altra con quello di Taylor Swift. Il fatto che siano persone famose permette di avere più materiale fotografico e video da “dare in pasto” allo strumento e ottenere così un risultato il più possibile verosimile. Ma l’essere note al grande pubblico non è il solo tratto che le accomuna: tutte le persone colpite da deepfake sono donne, e tutte vengono spogliate e riprodotte in pose sessualmente esplicite senza esserne a conoscenza, e quindi senza aver dato il proprio consenso. In appena qualche anno, i deepfake sessuali – anche noti come deepnude – sono diventati un fenomeno in preoccupante espansione in tutto il mondo. Senza più quelle “imprecisioni” che li caratterizzavano ancora nel 2017, oggi riescono a manipolare l’immagine a partire da una sola foto. Anche in Italia se ne parla sempre più frequentemente, come dimostra la recente denuncia di Francesca Barra. Il 26 ottobre, la giornalista e conduttrice televisiva ha scritto un lungo post su Instagram dove racconta di aver scoperto che alcune immagini di lei nuda, generate con l’intelligenza artificiale, circolano da tempo su un sito dedicato esclusivamente alla condivisione di immagini pornografiche rubate o manipolate con l’IA. “È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto nel post Barra, che si è detta preoccupata per tutte quelle ragazze che subiscono la stessa violenza e che magari non hanno gli stessi strumenti per difendersi o reagire. I CASI NEI LICEI ITALIANI In effetti, casi analoghi sono già scoppiati in diversi licei in tutta Italia. A inizio anno, quattro studentesse di un liceo scientifico di Roma hanno ricevuto foto prese dai loro account Instagram in cui apparivano completamente nude. A manipolare le immagini è stato un loro compagno di classe, a cui è bastato caricare le foto su un bot su Telegram che in pochi istanti ha “spogliato” le ragazze. La Procura di Cosenza starebbe invece indagando su un altro caso che, secondo le cronache locali, arriverebbe a coinvolgere quasi 200 minorenni per un totale di 1200 deepnude. La dinamica è sempre la stessa: attraverso bot Telegram e strumenti online, studenti maschi hanno manipolato le foto delle loro compagne di classe. Secondo un’analisi condotta nel 2023, il 98% dei deepfake online registrati quell’anno (95.820) era a contenuto sessuale. Nel 99% di questi, la persona colpita era donna. Insomma, già quel primo video su Reddit preannunciava un utilizzo di questi strumenti volto quasi esclusivamente a quello che, in inglese, è stato inquadrato come image-based sexual abuse (IBSA), un abuso sessuale condotto attraverso l’immagine. “Intorno alla violenza digitale rimane sempre un po’ il mito che sia in qualche modo meno reale rispetto alla violenza fisica. Ma non è affatto così”, spiega a Guerre di Rete Silvia Semenzin, ricercatrice in sociologia digitale all’università Complutense di Madrid. “Le vittime di deepfake subiscono le stesse identiche conseguenze delle vittime di condivisione di materiale sessuale non consensuale. Quasi sempre, la violenza è continuativa e intrecciata nelle sue varie declinazioni, quindi alle molestie, allo stalking, ecc. A mio avviso, con i deepfake si entra in una fase della violenza in cui diventa anche più manifesta la volontà di controllo sul corpo femminile. Perché le radici del fenomeno sono di tipo culturale e affondano sempre nella volontà di sopraffazione del soggetto femminile da parte degli uomini, in questo caso attraverso l’utilizzo della tecnologia”. LA COMPLICITÀ DELLE PIATTAFORME I canali su cui vengono generati e diffusi maggiormente i deepfake sessuali sono generalmente siti anonimizzati che sfruttano hosting offshore e che non rispondono alle richieste legali di altri stati. Quello su cui Francesca Barra e altre donne dello spettacolo hanno scoperto i loro deepfake (di cui non faremo il nome per non dare maggiore visibilità) è attivo già dal 2012, anno di registrazione a New York. Se i contenuti presenti sono sempre materiali espliciti non consensuali, trafugati dai social media o da piattaforme pornografiche come Pornhub e OnlyFans, in cima all’interfaccia utente spiccano invece gli strumenti che permettono di creare con l’intelligenza artificiale la propria “schiava sessuale”. Questa scelta rivela come l’“offerta” all’utente non solo comprenda i deepnude, ma li consideri anche il “prodotto di punta” con cui invogliare all’utilizzo e ampliare la platea di visitatori. Silvia Semenzin e la collega Lucia Bainotti, ricercatrice in sociologia all’Università di Amsterdam, nel 2021 hanno pubblicato un saggio dal titolo Donne tutte puttane, revenge porn e maschilità egemone. Oltre ad anticipare già il tema dei deepfake sessuali, le due autrici in quel testo tracciavano il modo in cui l’architettura dei siti e delle piattaforme su cui vengono diffuse maggiormente immagini sessuali non consensuali possa essere complice dell’abuso fornendone gli strumenti. In particolare, la ricerca era incentrata sui gruppi di persone che condividono materiale non consensuale soprattutto su Telegram, app di messaggistica dove si muovono ancora adesso molti dei bot capaci di spogliare la donna in un solo clic. La possibilità di creare canali con molti utenti, assieme alla facilità di archiviazione nel cloud della stessa piattaforma e alla percezione di agire nell’anonimato sono alcune delle funzioni che garantiscono la continuità delle attività e rendono praticamente impossibile fermare la proliferazione di deepfake e materiale intimo non consensuale. Tutte queste funzionalità socio-tecniche, chiamate affordances (inviti all’uso) possono essere considerate “genderizzate”, perché vengono utilizzate in modo diverso a seconda che l’utente sia uomo o donna, contribuendo così a costruire la propria identità di genere. Per questo motivo – spiegano le due ricercatrici – l’architettura di Telegram può risultare complice nel fornire gli strumenti attraverso cui le violenze di genere vengono messe in pratica e reiterate. Raggiunta da Guerre di Rete, Bainotti spiega quali cambiamenti ha osservato nelle sue ricerche più recenti rispetto all’estensione del fenomeno e al modo in cui piattaforme e siti agevolano la diffusione di questo materiale: “C’è stato sicuramente un aumento consistente nel numero di utenti, per quanto sia difficile tenere traccia del dato preciso (ogni qualvolta viene buttato giù un gruppo se ne apre subito uno speculare). Quello che sicuramente ho riscontrato è che sono aumentati i bot attraverso cui generare i deepfake, e la pubblicità che ruota intorno a questi ‘prodotti’”, racconta Bainotti. “Ci sono dei meccanismi di monetizzazione molto più espliciti e molto più capillari”, prosegue Bainotti. “Spesso per creare un deepfake vengono chiesti pochi centesimi di euro. Questo ci dà un’indicazione del fatto che sono comunque prezzi molto accessibili, che non richiedono un particolare investimento monetario. In più, sono stati messi a punto schemi per coinvolgere più persone e fidelizzare più utenti. Se inviti altri amici, per esempio, ottieni delle monete virtuali per scaricare altri deepfake. Vengono quindi riproposti schemi che avevamo già osservato su Telegram, che incitano a generare immagini di nudo come fosse un gioco (gamification), normalizzando queste pratiche”. X, GOOGLE E NON SOLO: TUTTO ALLA LUCE DEL SOLE Tutto questo non avviene nel darkweb o in qualche meandro della rete, ma alla luce del sole. Google e altri motori di ricerca indirizzano il traffico verso siti che fanno profitto attraverso la generazione di deepfake sessuali che, nelle ricerche, vengono a loro volta indicizzati tra i primi risultati. Allo stesso modo le transazioni avvengono spesso su circuiti internazionali come Visa e Mastercard. Insomma, ogni attore coinvolto contribuisce in una certa misura a facilitare l’abuso. Nell’agosto 2024, a otto mesi di distanza dai deepnude di Taylor Swift diventati virali su X, Google ha annunciato provvedimenti per facilitare le richieste di rimozione di contenuti espliciti non consensuali da parte delle vittime. Anche l’indicizzazione è stata rivista in modo tale che i primi risultati a comparire siano articoli di stampa che trattano l’argomento e non le immagini generate con l’IA. Eppure, una recente analisi dell’organizzazione  anti-estremismo Institute for Strategic Dialogue (ISD) ha dimostrato che il modo più semplice per trovare immagini sessuali non consensuali rimane proprio quello della ricerca su Google, Yahoo, Bing e altri motori di ricerca. Almeno un risultato dei primi venti, infatti, è uno strumento per creare un deepnude. Dall’acquisizione nel 2022 di Elon Musk, anche X è diventato un luogo dove questi strumenti proliferano. Secondo Chiara Puglielli e Anne Craanen, autrici del paper pubblicato da ISD, il social media di proprietà di Musk genererebbe il 70% di tutta l’attività analizzata dalle due ricercatrici, che coinvolge più di 410mila risultati. Risulta problematico anche il form proposto da Google per chiedere la rimozione di un contenuto generato con l’IA: le vittime di image-based sexual abuse devono inserire nel modulo tutti i link che rimandano al contenuto non consensuale. Questo le costringe a tornare sui luoghi in cui si è consumato l’abuso, contribuendo a quella che notoriamente viene definita vittimizzazione secondaria, ovvero la condizione di ulteriore sofferenza a cui sono sottoposte le vittime di violenza di genere per mano di istituzioni ed enti terzi. “Ancora oggi le piattaforme prevedono che sia a onere della vittima ‘procacciarsi’ le prove della violenza e dimostrare che il consenso era assente, quando invece si dovrebbe ragionare al contrario”, spiega ancora Semenzin. “Se denuncio la condivisione di una foto senza il mio consenso, la piattaforma dovrebbe rimuoverla lasciando semmai a chi l’ha pubblicata il compito di dimostrare che il consenso c’era. Questo sarebbe già un cambio di paradigma”. Il Digital Services Act obbliga le piattaforme digitali con più di 45 milioni di utenti ad avere processi efficienti e rapidi per la rimozione di contenuti non consensuali o illegali. A fine ottobre, la Commissione Europea ha aperto delle procedure di infrazione contro Instagram e Facebook per aver aggiunto delle fasi non necessarie – note come dark patterns (modelli oscuri) – nei meccanismi di segnalazione di materiale illecito che potrebbero risultare “confuse e dissuasive” per gli utenti. Meta rischia una sanzione pari al 6% del fatturato annuo mondiale se non si conforma nei tempi dettati dalla Commissione. Più in generale, è stato osservato in più studi che gli algoritmi di molte piattaforme amplificano la visibilità di contenuti misogini e suprematisti. Usando smartphone precedentemente mai utilizzati, tre ricercatrici dell’Università di Dublino hanno seguito ore di video e centinaia di contenuti proposti su TikTok e Youtube Shorts: tutti i nuovi account identificati con il genere maschile hanno ricevuto entro i primi 23 minuti video e immagini anti-femministi e maschilisti. È stato riscontrato inoltre un rapido incremento se l’utente interagiva o mostrava interesse per uno dei contenuti in questione, arrivando a “occupare” la quasi totalità del feed delle due piattaforme. Nell’ultima fase dell’osservazione, il 76% di tutti i video su Tik Tok e il 78% di quelli proposti su YouTube mostravano a quel punto contenuti tossici realizzati da influencer della maschiosfera, il cui volto più noto è sicuramente Andrew Tate, accusato in più paesi di violenza sessuale e tratta di esseri umani. LACUNE LEGALI Dallo scorso 10 ottobre, in Italia è in vigore l’articolo 612 quater che legifera sulla “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. È prevista la reclusione da uno a cinque anni per “chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale”. Essendo trascorso poco più di un mese dalla sua entrata in vigore, non si hanno ancora sentenze che facciano giurisprudenza e che mostrino efficacia e limiti della norma. Quello che appare evidente è però che il testo si occupa di tutti i materiali generati con l’IA, senza entrare nello specifico dei casi in cui i contenuti manipolati sono sessualmente espliciti. Non lo fa neanche l’articolo introdotto nel 2019 (612-ter), che seppur formuli il reato di diffusione di immagini intime senza consenso, conosciuto con il termine inappropriato di revenge porn, non amplia il raggio d’azione a quelle manipolate con l’IA.  Come scrive Gian Marco Caletti, ricercatore in scienze giuridiche all’università di Bologna, questa esclusione “è apparsa fin da subito un aspetto critico, poiché nel 2019 era già ampiamente preventivabile l’affermarsi di questo uso distorto dell’intelligenza artificiale”. La lacuna della legge del 2019 sembrava destinata a essere sanata grazie alla Direttiva europea sulla violenza di genere del 2024, che obbliga gli stati membri a punire le condotte consistenti nel “produrre, manipolare o alterare e successivamente rendere accessibile al pubblico” immagini, video o materiale analogo che faccia credere che una persona partecipi ad atti sessualmente espliciti senza il suo consenso. Eppure, anche nell’articolo entrato in vigore in Italia lo scorso mese, il reato non viene letto attraverso la lente della violenza di genere: il testo mette potenzialmente insieme deepfake di politici creati, per esempio, per diffondere disinformazione in campagna elettorale e deepnude che presentano invece una matrice culturale ben precisa. Se da un lato la legge presenta alcune lacune, è anche vero che la pronuncia del giudice è solo l’ultimo tassello di un iter che, nelle fasi precedenti, coinvolge molti più attori: dalle forze dell’ordine che ricevono la denuncia alle operatrici che lavorano nei centri anti-violenza. La diffusione di image-based sexual abuse è un fenomeno che si muove sul piano culturale, sociale e tecnologico. E per questo motivo non può essere risolto solo con risposte legali. Il quadro normativo è fondamentale, anche allo scopo di criminalizzare la “produzione” di deepfake sessuali, ma non è sufficiente. Come si è visto già con l’introduzione della legge del 2019 sul revenge porn, questa non si è trasformata effettivamente in un deterrente alla condivisione di immagini esplicite non consensuali e, come riporta l’associazione Permesso Negato, la situazione è rimasta critica. “Abbiamo bisogno di armonizzare gli strumenti a nostra disposizione: abbiamo una legge contro la condivisione di materiale non consensuale, di recente è stata introdotta quella contro i deepfake e dal 2024 c’è una direttiva europea sulla lotta contro la violenza di genere”, spiega ancora Bainotti. “Dobbiamo cercare di applicarle in modo che siano coerenti tra loro e messe a sistema. Nel caso italiano, credo che sia proprio questo il punto più carente, perché se abbiamo le leggi, ma allo stesso tempo abbiamo operatori di polizia o altri enti responsabili che non sono formati alla violenza di genere attraverso la tecnologia, la legge rimane fine a se stessa. Bisogna adottare un approccio sinergico, che metta insieme una chiara volontà politica, un’azione educatrice e una rivoluzione tecnologica”, conclude Bainotti. NUOVI IMMAGINARI Da alcuni anni, in Europa, stanno nascendo progetti non-profit che si occupano di tecnologia e spazi digitali da un punto di vista femminista. In Spagna, il collettivo FemBloc offre assistenza a donne e persone della comunità LGBTQ+ vittime di violenza online grazie al supporto interdisciplinare di esperti di sicurezza digitale, avvocati e psicologi. Tra le attività svolte c’è anche quella della formazione all’interno delle scuole contro la violenza di genere digitale, consulenze gratuite su come mettere in sicurezza i propri account e seminari aperti al pubblico. Una realtà analoga è quella di Superrr, fondata in Germania nel 2019. Il loro lavoro – si legge sul sito – è quello di “assicurare che i nostri futuri digitali siano più giusti e più femministi. Tutte le persone dovrebbero beneficiare delle trasformazioni digitali preservando i propri diritti fondamentali”.  In un momento storico in cui la connessione tra “broligarchi tech” e Donald Trump è più evidente che mai, dove i primi si recano alla Casa Bianca per portare regalie e placche d’oro in cambio di contratti federali, sembra quasi ineluttabile che lo spazio digitale sia stato conquistato da un certo tipo di mascolinità: aggressiva, prepotente, muscolare. Eppure, c’è chi vuole ancora tentare di colonizzare questi spazi con nuovi immaginari politici e un’altra concezione dei rapporti di potere nelle relazioni di genere. L'articolo Perché è così difficile fermare i deepnude proviene da Guerre di Rete.
Apple, i dark pattern e la difficile battaglia contro il tracciamento
Nel 2021 Apple ha introdotto App Tracking Transparency (ATT), una funzionalità del sistema operativo iOS che permette agli utenti, che prima dovevano districarsi tra interfacce confusionarie, di impedire con un solo click qualunque tracciamento, evitando quindi che qualsiasi app presente sul loro smartphone possa raccogliere dati personali a fini pubblicitari senza il loro consenso esplicito. La funzionalità introdotta in iOS, il sistema operativo di iPhone e iPad, fornisce un servizio che, nell’internet dominata dal capitalismo della sorveglianza, rende una gran fetta di utenti più protetti. E questo l’ha resa particolarmente apprezzata: si stima infatti che il 75% degli utenti iOS la utilizzi. Eppure ATT, in Italia e in altri paesi europei, potrebbe avere vita breve: “In Apple crediamo che la privacy sia un diritto umano fondamentale e abbiamo creato la funzionalità di App Tracking Transparency per offrire agli utenti un modo semplice per controllare se le aziende possono tracciare le loro attività su altre app e siti web. Una funzionalità accolta con entusiasmo dai nostri clienti e apprezzata dai sostenitori della privacy e dalle autorità per la protezione dei dati in tutto il mondo”, si legge in un comunicato. “Non sorprende che l’industria del tracciamento continui a opporsi ai nostri sforzi per dare agli utenti il controllo sui propri dati”. ATT RISCHIA DI SPARIRE Nonostante il favore degli utenti, ATT è infatti oggetto in Italia di un’indagine dell’Autorità Garante della Concorrenza e del Mercato, che secondo diversi osservatori arriva dopo una forte pressione da parte dell’industria pubblicitaria. Le aziende del settore sostengono che la funzione sia “abusiva” perché duplicherebbe i consensi già richiesti dal GDPR. Apple respinge l’accusa e afferma che la normativa europea dovrebbe essere un punto di partenza, non un limite, e che ATT offre un livello di controllo più chiaro e immediato. La decisione dell’AGCM è attesa entro il 16 dicembre e rischia di privare i consumatori di un prodotto informatico, ATT, che non solo è più funzionale dei singoli banner, ma che si potrebbe definire “naturale”: nel momento in cui tutte le app hanno bisogno di una stessa funzione (in questo caso, richiedere il consenso degli utenti alla profilazione) è più logico integrarla nel sistema operativo e offrirla in un’unica versione standard. ATT fa proprio questo: porta la richiesta di consenso al tracciamento a livello di sistema. Nonostante ogni utente abbia il diritto di prestare o negare il consenso all’utilizzo dei suoi dati personali per fornire pubblicità mirata o rivenderli ai cosiddetti data broker, la semplicità d’uso di ATT di Apple rappresenta la differenza tra un consenso spesso “estorto” da interfacce appositamente convolute e opache e un consenso informato, libero, revocabile. In base al GDPR, il regolamento europeo sulla protezione dei dati, ogni applicazione può trattare i nostri dati personali solo se esiste una delle sei basi giuridiche previste dalla legge. Tra queste, il consenso è quello più comunemente utilizzato. Poiché permette di effettuare una scelta in modo chiaro e semplice, l’ATT ha rapidamente raccolto l’effettivo interesse degli utenti, mostrando in maniera coerente come si può ottenere ciò che i vari garanti europei hanno chiarito nel tempo, ovvero che “rifiutare dev’essere facile quanto accettare”. LA STRATEGIA DI APPLE Ma Apple ha fatto un altro passo avanti: non ha offerto ATT ai programmatori di app, ma l’ha imposta. Ha reso questo consenso necessario, al pari di quello che deve chiedere un’app quando, per esempio, vuole accedere alla localizzazione o al microfono. È direttamente il sistema operativo, sia in iOS sia in Android, che permette di scegliere se fornire o meno, per esempio, l’accesso al microfono al videogioco che abbiamo appena scaricato. In questo modo, lo spazio di manovra per trarre l’utente in inganno si riduce molto: possiamo vedere in una volta sola quali sono le app che richiedono quel privilegio e revocarlo a tutte in ogni momento. Immaginiamo gli esiti nefasti che si sarebbero verificati nel mercato mobile se ogni app avesse potuto accedere, tramite formula ambigue per il consenso, a periferiche come microfono, localizzazione, cartelle e rubrica. È proprio per evitare questa situazione che i programmatori dei sistemi operativi hanno dato il controllo agli utenti, limitando di conseguenza la presenza di spyware e profilazione invasiva. La possibilità di bloccare facilmente l’accesso a periferiche così delicate, soprattutto quando scarichiamo app dalla reputazione dubbia, ci dà un senso di protezione. Perché con il tracciamento dovrebbe essere diverso? Siamo certi che fornire l’accesso al microfono permetta di ottenere dati molto più rilevanti di quelli che si possono avere tramite la profilazione? In realtà, il tracciamento e la cessione di informazioni ai data broker dovrebbero evocare la stessa percezione di rischio. E quindi essere soggette, come fa in effetti l’ATT, a un simile trattamento a livello di consenso. La differenza tra tracciamento e accesso alle periferiche Una periferica è una porzione del sistema operativo: un’app può accedervi soltanto se le è stato concesso questo privilegio, altrimenti non ha modo di farlo. La garanzia del controllo delle aree più delicate di un sistema operativo è un elemento fondamentale della sicurezza informatica. Il blocco al tracciamento, invece, è un insieme di misure tecniche: impedisce il fingerprinting (una tecnica che permette di identificare in modo univoco un utente o un dispositivo) e l’accesso all’Identificatore Unico Pubblicitario (un codice anonimo assegnato dal sistema operativo a ciascun dispositivo mobile, che permette alle app di riconoscere l’utente a fini pubblicitari), oltre a  costringere lo sviluppatore a esplicitare gli obiettivi del trattamento dati, pena la rimozione dall’Apple Store. Non è impossibile aggirare questi divieti, ma una funzione come ATT, che permette di attivarli con un’unica scelta, lo rende molto più complesso. I MILIARDI PERSI DA META Per capire la posta in gioco: Meta ha affermato che ATT sarebbe stato, nel solo 2022, responsabile di una perdita pari a 10 miliardi di dollari (circa l’8% del fatturato 2021), causando una caduta in borsa del 26%. Il Financial Times stimò invece che, nel solo secondo semestre 2021, l’ATT introdotto da Apple fosse la causa di 9,85 miliardi di inferiori ricavi complessivi per Snap (la società del social network Snapchat), Facebook, Twitter e YouTube, segnalando l’ampiezza dell’impatto sull’intero ecosistema pubblicitario. Nel suo report del 2022, lo IAB (Interactive Advertising Bureau, un’associazione di categoria delle aziende pubblicitarie e della comunicazione) menziona già nell’introduzione come la colpa di queste perdite sia in primo luogo dell’ATT e in secondo luogo del regolamento della California sui dati personali. Questo aspetto ci aiuta a mappare il conflitto: i diritti e il consenso vengono considerato come degli avversari da questi soggetti, che – nel tentativo di recuperare i miliardi perduti – sono disposti a mettere in campo tutto il loro potere legale, fino ad arrivare a un’interpretazione del diritto che dovrebbe essere un caso di studio. IN EUROPA, LA PRIVACY SUL BANCO DELL’ANTITRUST In diverse nazioni europee, in seguito alle denunce di associazioni di categoria, sono infatti state intentate cause contro Apple per “abuso di posizione dominante”. Non è però chiaro dove sia il beneficio diretto di Apple,  visto che anche le sue applicazioni devono rispondere all’ATT e quindi anche Apple deve chiedere il consenso per servire pubblicità personalizzata. Apple potrebbe al massimo avere un beneficio indiretto, penalizzando i principali concorrenti – i cui introiti provengono dalla pubblicità – mentre si avvantaggia dalla vendita di dispositivi promossi come “privacy first”. Una delle interpretazioni fornite dalle associazioni di categoria è che gli sviluppatori di applicazioni terze debbano essere in grado di usare il loro form per la richiesta del consenso. Questo, però, ci porta ad affrontare un problema noto: quello dei dark pattern o deceptive design (interfacce ingannevoli), ovvero strategie di design che spingono l’utente a compiere scelte non pienamente consapevoli, per esempio rendendo più complesso rifiutare il tracciamento o l’iscrizione a un servizio rispetto ad accettarlo. DARK PATTERN: PERCHÉ LA FORMA DECIDE IL CONTENUTO Come scrive Caroline Sinders, “le politiche per regolamentare Internet devono fare i conti con il design”, perché interfacce e micro-scelte grafiche possono “manipolare invece che informare” e svuotare principi come il consenso: “I dark pattern sono scelte di design che confondono gli utenti o li spingono verso azioni che non desiderano davvero”. E fanno tutto ciò, tipicamente, rendendo molto facile dire di sì e invece complesso o ambiguo dire di no. Non si tratta di astrazioni. Nel 2024, NOYB (il centro europeo per i diritti digitali) ha analizzato migliaia di banner di consenso in Europa, documentando schemi ricorrenti e misurabili: se il pulsante “rifiuta” non si trova nel primo livello del banner, solo il 2,18% degli utenti lo raggiunge. Non solo: rifiutare richiede in media il doppio dei passi rispetto ad accettare. Tra le pratiche “dark pattern” più comuni troviamo inoltre: link ingannevoli per il rifiuto (inseriti nel corpo del testo mentre per accettare è presente un pulsante ben visibile), colori e contrasti che enfatizzano l’ok e sbiadiscono il no, caselle preselezionate, falso “legittimo interesse” (con cui un’azienda dichiara di poter trattare i dati senza esplicito consenso) e percorsi per la revoca più difficili del consenso. Il Digital Services Act (DSA), in vigore dal 2022, ha portato nel diritto dell’UE il lessico dei dark pattern e ne vieta l’uso quando interfacce e scelte di design ingannano o manipolano gli utenti, aprendo la strada a linee guida e strumenti di attuazione dedicati. In concreto, il DSA prende di mira alcune pratiche precise, come la ripetizione delle richieste anche dopo che una scelta è già stata espressa. Nella tassonomia accademico-regolatoria più aggiornata, questo comportamento corrisponde al pattern “nagging”, cioè l’interruzione insistente che spinge l’utente verso un’azione indesiderata. Un documento rivelatore, da questo punto di vista, è An Ontology of Dark Patterns, che fornisce strumenti utili a riconoscere dark pattern, dar loro un nome preciso e idealmente a poterli misurare, così da effettuare reclami dove possibile e magari riuscire, a colpi di sanzioni, a limitarli. Nonostante il DSA sancisca a livello concettuale il divieto dei dark pattern, le autorità o i cittadini che volessero effettuare reclami dovrebbero poter misurare la difficoltà dell’interfaccia e rendere obiettivo il giudizio. Questa è la parte più difficile: da un lato non puoi distinguere un dark pattern dal cattivo design; dall’altro, le piattaforme più grandi (definite dalla UE “gatekeeper”) sono diventate tali anche per la cura maniacale nei confronti del design delle loro interfacce, ottimizzando il percorso per loro più profittevole e disincentivando tutti gli altri. Qui sta la difficoltà: non si può giudicare un dark pattern solo dal principio, bisogna invece misurare l’esperienza. In pratica, i pattern si vedono quando: rifiutare richiede più passaggi di accettare (asimmetria di percorso); il “no” è meno evidente del “sì” (asimmetria visiva: posizione, dimensione, contrasto); l’utente viene interrotto finché non cede (nagging); ci sono oneri informativi inutili prima di arrivare alla scelta (ostruzione); esistono impostazioni preselezionate o categorie opache (sneaking). Per questo le standardizzazioni di piattaforma come ATT sono preziose: trasformano il consenso in un gesto coerente nel tempo, riducendo la superficie di manipolazione creativa e permettendo sia agli utenti di imparare rapidamente dove e come decidere, sia ai regolatori/ricercatori di misurare con metriche stabili (passaggi, tempi, posizionamenti). È lo stesso vantaggio che abbiamo quando il sistema operativo gestisce i permessi di fotocamera o microfono: l’utente riconosce il messaggio proveniente dal sistema operativo, sa come revocare il consenso e chi prova a barare salta subito all’occhio. Infine, il nodo culturale: consenso informato e scelta informata richiedono una certa educazione dell’utente. Il regolatore spesso la dà per scontata mentre, al contrario, i team tecnici delle piattaforme investono nel scovare le vulnerabilità degli utenti, sfruttando posizionamento, ritardi, colori, tempi, percorsi. Per questo l’uniformità del punto in cui bisogna effettuare la decisione (uno strato di sistema, uguale per tutti) dovrebbe essere favorita: abbassa la complessità per gli utenti e rende l’enforcement verificabile. Oggi, però, la regolazione resta quasi sempre a livello alto (principi, divieti) e raramente scende a specifiche vincolanti sulla user interface. Il risultato è che l’onere di provare la manipolazione ricade su autorità e cittadini, caso per caso; mentre chi progetta interfacce approfitta della grande varietà di soluzioni “creative”. ATT mostra che spostare la scelta verso il basso, all’interno del sistema, abilita gli utenti a esprimere le loro volontà e a vederle rispettate. IL LIMITATO INTERVENTO DEL GARANTE Immaginiamo che l’Autorità Garante della Concorrenza e del Mercato (AGCM) ponga all’autorità che si occupa di protezione dei dati una domanda di questo tipo: “ATT è necessario per adempire al GDPR?”. Quest’ultimo probabilmente risponderebbe negativamente, perché in punta di diritto non lo è. Forse è un peccato, perché se la domanda invece fosse: “ATT è una soluzione migliore per catturare il consenso rispetto ai banner sviluppati da terze parti?”, la risposta sarebbe molto probabilmente differente. Al di là degli scenari teorici, che mostrano però come basti cambiare il punto di vista per cambiare anche il risultato, l’impressione è che AGCM abbia la possibilità di rimuovere ATT e che il garante della Privacy non abbia strumenti per intervenire. La situazione non sembra quindi rosea per ATT in attesa della decisione del 16 dicembre, visto che in Francia l’Autorità competente ha già inflitto a Apple 150 milioni di euro, ritenendo sproporzionato il sistema rispetto all’obiettivo dichiarato e penalizzante per editori più piccoli (Apple ha invece nuovamente difeso ATT come una scelta a favore degli utenti). Ed è qui che la notizia si intreccia con i dark pattern: per alleggerire le restrizioni di ATT, l’industria pubblicitaria spinge perché siano le singole app e non il sistema a mostrare i propri moduli di consenso. Ma quando scompare il “freno di piattaforma”, gli stessi moduli spesso deviano la scelta. ANTITRUST CONTRO PRIVACY EPIC (Electronic Privacy Information Center) ha messo in guardia proprio su questo punto: con la scusa della concorrenza si rischiano di abbassare le barriere al tracciamento, limitando le tutele. Le minacce per la sicurezza relative alle periferiche e di cui abbiamo parlato, per esempio, non sono sempre state bloccate. Le tutele sono cresciute gradualmente. Da questo punto di vista, il caso di Apple fa riflettere su due aspetti. Il primo è che se i diritti non sono riconosciuti a norma di legge, non sono realmente ottenuti. Per esempio: una VPN potrà darci un vantaggio, un sistema operativo potrà darci una funzione come l’ATT, una corporation come WhatsApp potrà avvisarci di essere soggetti ad attacchi da parte di attori statali, ma questi sono da viversi come “regali temporanei”. Ci vengono fatti perché la percezione di sicurezza degli utenti conta di più della loro effettiva inattaccabilità. Chissà cosa succederebbe se l’antitrust sancisse che gli sviluppatori di terze parti possono avere la libertà di accedere anche alle periferiche del sistema, senza subire i vincoli del sistema operativo. Sarebbe naturalmente un disastro, ma quantomeno solleverebbe pressioni, perplessità, critiche. Invece, relegare questa scelta a una lotta tra corporation rischia di non rendere giustizia alle vittime di tutto questo: gli utenti. Grande assente nelle carte è infatti una domanda: che cosa vogliono le persone? Come detto, al netto delle dispute tra piattaforme e ad-tech, ATT piace agli utenti iOS e una larga maggioranza di utenti Android ha detto di volere “qualcosa di simile” sui propri telefoni. Un maxi-sondaggio svolto da Android Authority con oltre 35 mila voti (per quanto privo di valore statistico) ha concluso che “la stragrande maggioranza vuole anche su Android una funzione anti-tracking come quella di Apple”. Ma questo in fondo già lo sapevamo, ognuno di noi,  quando messo davvero di fronte a una scelta chiara, tende a dire di no al tracciamento. Usare l’antitrust per rimuovere ATT non darebbe più libertà agli sviluppatori, ma solo più libertà d’azione ai dark pattern. L'articolo Apple, i dark pattern e la difficile battaglia contro il tracciamento proviene da Guerre di Rete.
Enshittification: il progressivo degrado delle piattaforme digitali
Immagine in evidenza: rielaborazione della copertina di Enshittification di Cory Doctorow Da alcuni anni conosciamo il cosiddetto “capitalismo della sorveglianza”: un modello economico basato sull’estrazione, controllo e vendita dei dati personali raccolti sulle piattaforme tecnologiche. Lo ha teorizzato Shoshana Zuboff nel 2019 in un libro necessario per comprendere come Meta, Amazon, Google, Apple e gli altri colossi tech abbiano costruito un potere senza precedenti, capace di influenzare non solo il mercato e i comportamenti degli utenti, ma anche, tramite il lobbying, le azioni dei decisori pubblici di tutto il mondo. L’idea che queste grandi piattaforme abbiano sviluppato una sorta di potere sulle persone tramite la sorveglianza commerciale, com’è stata teorizzata da Zuboff, è però un mito che è il momento di sfatare. Così almeno la pensa Cory Doctorow, giornalista e scrittore canadese che negli ultimi anni ha pubblicato due libri particolarmente illuminanti sul tema.  In “Come distruggere il capitalismo della sorveglianza”, uscito nel 2024 ed edito da Mimesis, Doctorow spiega come molti critici abbiano ceduto a quella che il professore del College of Liberal Arts and Human Science Lee Vinsel ha definito “criti-hype”: l’abitudine di criticare le affermazioni degli avversari senza prima verificarne la veridicità, contribuendo così involontariamente a confermare la loro stessa narrazione. In questo caso, in soldoni, il mito da contestare è proprio quello di poter “controllare” le persone per vendergli pubblicità.  “Penso che l’ipotesi del capitalismo della sorveglianza sia profondamente sbagliata, perché rigetta il fatto che le aziende ci controllino attraverso il monopolio, e non attraverso la mente”, spiega Doctorow a Guerre di Rete. Il giornalista fa l’esempio di uno dei più famosi CEO delle Big Tech, Mark Zuckerberg: “A maggio, Zuckerberg ha rivelato agli investitori che intende recuperare le decine di miliardi che sta spendendo nell’AI usandola per creare pubblicità in grado di aggirare le nostre capacità critiche, e quindi convincere chiunque ad acquistare qualsiasi cosa. Una sorta di controllo mentale basato sull’AI e affittato agli inserzionisti”.  Effettivamente, viste le perdite che caratterizzano il settore dell’intelligenza artificiale – e nel caso di Meta visto anche il fallimento di quel progetto chiamato metaverso, ormai così lontano da non essere più ricordato da nessuno – è notevole che Zuckerberg sia ancora in grado di ispirare fiducia negli investitori. E di vendergli l’idea di essere un mago che, con cappello in testa e bacchetta magica in mano, è in grado di ipnotizzarci tutti. “Né Rasputin [il mistico russo, cui erano attribuito poteri persuasivi, ndr] né il progetto MK-Ultra [un progetto della CIA per manipolare gli stati mentali negli interrogatori, ndr] hanno mai veramente perfezionato il potere mentale, erano dei bugiardi che mentivano a sé stessi o agli altri. O entrambe le cose”, dice Doctorow. “D’altronde, ogni venditore di tecnologia pubblicitaria che incontri un dirigente pubblicitario sfonda una porta aperta: gli inserzionisti vogliono disperatamente credere che tu possa controllare la mente delle persone”.  IL CARO VECCHIO MONOPOLIO Alla radice delle azioni predatorie delle grandi piattaforme, però, non ci sarebbe il controllo mentale, bensì le pratiche monopolistiche, combinate con la riduzione della qualità dei servizi per i miliardi di utenti che li usano. Quest’ultimo è il concetto di enshittification, coniato dallo stesso Doctorow e che dà il nome al suo saggio appena uscito negli Stati Uniti. Un processo che vede le piattaforme digitali, che inizialmente offrono un servizio di ottimo livello, peggiorare gradualmente per diventare, alla fine, una schifezza (la traduzione di shit è escremento, per usare un eufemismo). “All’inizio la piattaforma è vantaggiosa per i suoi utenti finali, ma allo stesso tempo trova il modo di vincolarli”, spiega il giornalista facendo l’esempio di Google, anche se il processo di cui parla si riferisce a quasi tutte le grandi piattaforme. Il motore di ricerca ha inizialmente ridotto al minimo la pubblicità e investito in ingegneria per offrire risultati di altissima qualità. Poi ha iniziato a “comprarsi la strada verso il predominio” –sostiene Doctorow – grazie ad accordi che hanno imposto la sua casella di ricerca in ogni servizio o prodotto possibile. “In questo modo, a prescindere dal browser, dal sistema operativo o dall’operatore telefonico utilizzato, le persone finivano per avere sempre Google come impostazione predefinita”. Una strategia con cui, secondo Doctorow, l’azienda di Mountain View ha acquisito qua e là società di grandi dimensioni per assicurarsi che nessuno avesse un motore di ricerca che non fosse il suo. Per Doctorow è la fase uno: offrire vantaggi agli utenti, ma legandoli in modo quasi invisibile al proprio ecosistema. Un’idea di quale sia il passaggio successivo l’abbiamo avuta assistendo proprio a ciò che è successo, non troppo tempo fa, al motore di ricerca stesso: “Le cose peggiorano perché la piattaforma comincia a sfruttare gli utenti finali per attrarre e arricchire i clienti aziendali, che per Google sono inserzionisti ed editori web. Una porzione sempre maggiore di una pagina dei risultati del motore di ricerca è dedicata agli annunci, contrassegnati con etichette sempre più sottili, piccole e grigie. Così Google utilizza i suo i dati di sorveglianza commerciale per indirizzare gli annunci”, spiega Doctorow.  Nel momento in cui anche i clienti aziendali rimangono intrappolati nella piattaforma, come prima lo erano stati gli utenti, la loro dipendenza da Google è talmente elevata che abbandonarla diventa un rischio esistenziale. “Si parla molto del potere monopolistico di Google, che deriva dalla sua posizione dominante come venditore. Penso però che sia più correttamente un monopsonio”. Monopoli e monopsoni “In senso stretto e tecnico, un monopolio è un mercato con un unico venditore e un monopsonio è un mercato con un unico acquirente”, spiega nel suo libro Doctorow. “Ma nel linguaggio colloquiale dell’economia e dell’antitrust, monopolista e monopsonista si riferiscono ad aziende con potere di mercato, principalmente il potere di fissare i prezzi. Formalmente, i monopolisti di oggi sono in realtà oligopolisti e i nostri monopsonisti sono oligopsonisti (cioè membri di un cartello che condividono il potere di mercato)”. E ancora scrive: “Le piattaforme aspirano sia al monopolio che al monopsonio. Dopo tutto, le piattaforme sono ”mercati bilaterali” che fungono da intermediari tra acquirenti e venditori. Inoltre, la teoria antitrust basata sul benessere dei consumatori è molto più tollerante nei confronti dei comportamenti monopsonistici, in cui i costi vengono ridotti sfruttando lavoratori e fornitori, rispetto ai comportamenti monopolistici, in cui i prezzi vengono aumentati. In linea di massima, quando le aziende utilizzano il loro potere di mercato per abbassare i prezzi, possono farlo senza temere ritorsioni normative. Pertanto, le piattaforme preferiscono spremere i propri clienti commerciali e aumentano i prezzi solo quando sono diventate davvero troppo grandi per essere perseguite”. Così facendo, l’evoluzione del motore di ricerca si è bloccata e il servizio ha poi iniziato a peggiorare, sostiene l’autore. “A un certo punto, nel 2019, più del 90% delle persone usava Google per cercare tutto. Nessun utente poteva più diventare un nuovo utente dell’azienda e quindi non avevano più un modo facile per crescere. Di conseguenza hanno ridotto la precisione delle risposte, costringendo gli utenti a cercare due o più volte prima di ottenerne una decente, raddoppiando il numero di query e di annunci”. A rendere nota questa decisione aziendale è stata, lo scorso anno, la pubblicazione di alcuni documenti interni durante un processo in cui Google era imputata. Sui banchi di un tribunale della Virginia una giudice ha stabilito che l’azienda creata da Larry Page e Sergey Brin ha abusato di alcune parti della sua tecnologia pubblicitaria per dominare il mercato degli annunci, una delle sue principali fonti di guadagno (nel 2024, più di 30 miliardi di dollari a livello mondiale). “E così arriviamo al Google incasinato di oggi, dove ogni query restituisce un cumulo di spazzatura di intelligenza artificiale, cinque risultati a pagamento taggati con la parola ‘ad’ (pubblicità) in un carattere minuscolo e grigio su sfondo bianco. Che a loro volta sono link di spam che rimandano ad altra spazzatura SEO”, aggiunge Doctorow facendo riferimento a quei contenuti creati a misura di motore di ricerca e privi in realtà di qualunque valore informativo. Eppure, nonostante tutte queste criticità, continuiamo a usare un motore di ricerca del genere perché siamo intrappolati nei suoi meccanismi. Il quadro non è dei migliori. “Una montagna di shit”, le cui radici  – afferma lo studioso – vanno cercate nella distruzione di quei meccanismi di disciplina che una volta esistevano nel capitalismo. Ma quali sarebbero questi lacci che tenevano a bada le grandi aziende? La concorrenza di mercato – ormai eliminata dalle politiche che negli ultimi 40 anni hanno favorito i monopoli; una regolamentazione efficace – mentre oggi ci ritroviamo con leggi e norme inadeguate o dannose, come ad esempio la restrizione dei meccanismi di interoperabilità indotta dall’introduzione di leggi sul copyright; e infine il potere dei lavoratori – anche questo in caduta libera a seguito dell’ondata di licenziamenti nel settore tecnologico. La “enshittification“, secondo Doctorow, è un destino che dovevamo veder arrivare, soprattutto perché giunge a valle di scelte politiche precise: “Non sono le scelte di consumo, ma quelle politiche a creare mostri come i CEO delle Big Tech, in grado di distruggere le nostre vite online perché portatori di pratiche commerciali predatorie, ingannevoli, sleali”. Non basta insomma odiare i giocatori e il gioco, bisogna anche ricordare che degli arbitri disonesti hanno truccato la partita, convincendo i governi di tutto il mondo ad abbracciare specifiche politiche. Quando si parla di tecnologia e delle sue implicazioni a breve, medio e lungo periodo è difficile abbracciare una visione possibilista e positiva. Un po’ come succede per le lotte per la giustizia sociale e per il clima: il muro che ci si ritrova davanti sembra invalicabile. Una grossa difficoltà che, secondo Doctorow, è data dalla presenza di monopoli e monopsoni.  Ma la reazione alle attuali crisi politiche globali mostra che un cambiamento è possibile. “Negli ultimi anni c’è stata un’azione di regolamentazione della tecnologia superiore a quella dei 40 anni precedenti”, spiega Doctorow. Non solo: la seconda elezione di Donald Trump si starebbe rivelando una benedizione sotto mentite spoglie, sia per il clima sia per il digitale. “Ha acceso un fuoco sotto i leader di altri Paesi ex alleati, stimolando grandi e ambiziosi programmi per sfuggire al monopolio statunitense. Pensiamo ai dazi sui pannelli solari cinesi imposti da Trump nella prima amministrazione, per esempio. Una misura che ha spinto i produttori di Pechino a inondare i paesi del Sud del mondo con i loro pannelli economici, a tal punto che intere regioni si sono convertite all’energia solare”, afferma Doctorow, che considera questa strada percorribile anche per ottenere una tecnologia più libera. PER NON VEDERE TUTTO NERO Sfuggire alle Big Tech americane non dovrebbe significare semplicemente  rifugiarsi in un servizio alternativo (mail, cloud, social media, ecc.), anche perché il processo non è così semplice. “Non si copia e incolla la vita delle persone: le email, i file, i documenti custoditi nei cloud di Microsoft, Apple o Google. Nessun ministero, azienda o individuo lo farà”. Motivo per cui, secondo Doctorow, Eurostack è una possibile alternativa, ma che ha ancora tanta strada da fare. Eurostack è un’iniziativa europea nata recentemente in risposta all’esigenza di costruire una sovranità digitale del Vecchio continente, indipendente dalle aziende tecnologiche straniere (specialmente USA). Coinvolge attivisti digitali, comunità open source, istituzioni europee e alcuni politici. “L’Ue potrebbe ordinare alle grandi aziende tech statunitensi di creare strumenti di esportazione, così che gli europei possano trasferire facilmente i propri dati in Eurostack, ma possiamo già immaginare come andrà a finire. Quando l’Ue ha approvato il Digital Markets Act, Apple ha minacciato di smettere di vendere iPhone in Europa, e ha presentato 18 ricorsi legali”, ricorda Doctorow.  Se la risposta di un’azienda statunitense all’introduzione di una direttiva europea è questa, la soluzione allora non può essere che radicale. “L’unica via possibile è abrogare l’articolo 6 della direttiva sul diritto d’autore: l’Ue dovrebbe rendere legale il reverse engineering di siti web e app statunitensi in modo che gli europei possano estrarre i propri dati e trasferirli in Eurostack. Un modello aperto, sovrano, rispettoso della privacy, dei diritti dei lavoratori e dei consumatori”. L'articolo Enshittification: il progressivo degrado delle piattaforme digitali proviene da Guerre di Rete.
Quanto e come usiamo davvero l’intelligenza artificiale?
L’Italia è ha introdotto, lo scorso 17 settembre 2025, una legge che punta a normare l’utilizzo di strumenti di intelligenza artificiale. Il provvedimento recepisce (almeno in parte) l’AI Act europeo, introducendo anche una serie di regole e reati penali connessi all’uso dell’AI. Ma qual è la situazione in Italia per quanto riguarda l’uso di strumenti di intelligenza artificiale? A prima vista, il nostro paese sconta un ritardo simile a quello, più volte denunciato, relativo a una generale carenza di competenze digitali. Analizzando i dati disponibili, emergono però alcuni elementi che chiariscono meglio le specifiche problematicità, accanto a considerazioni importanti riguardo il prossimo futuro. QUALE INTELLIGENZA ARTIFICIALE? Quando ci si avventura in un’analisi sull’utilizzo dell’intelligenza artificiale, la maggior parte dei dati disponibili sono di carattere statistico e devono essere presi con le pinze. Numeri e percentuali, infatti, rischiano di essere fuorvianti.  Il primo aspetto su cui soffermarsi è l’oggetto stesso di cui si tratta. Nonostante l’opinione pubblica parli ormai di “intelligenza artificiale” con riferimento solo all’AI generativa e ai modelli linguistici (large language model), la sua definizione è in realtà molto più articolata. La stessa legge italiana adotta l’ampia definizione utilizzata nell’AI Act: “Un sistema automatizzato progettato per funzionare con livelli di autonomia variabili (…) e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. Non solo, quindi, i vari ChatGPT, Gemini, Claude e soci. Quando si parla di AI ci si riferisce in realtà a una molteplicità di sistemi e funzioni, molti dei quali rimangono dietro le quinte e dei quali, nella maggior parte dei casi, gli stessi utilizzatori di software e piattaforme ignorano l’esistenza. I CHATBOT DI LARGO CONSUMO NEL NOSTRO PAESE I sistemi di GenAI per cui è più facile reperire dati oggettivi sono proprio i chatbot che hanno preso il centro del palcoscenico negli ultimi 36 mesi. I dati riportati dalla piattaforma di analisi AI Tools, aggiornati allo scorso agosto, riportano una classifica che mostra la distribuzione geografica degli accessi via web ai servizi di AI. Alla testa di questa particolare classifica (basata su numeri assoluti) svettano gli Stati Uniti con oltre 2 miliardi di accessi, mentre l’Italia si posiziona al 17esimo posto dietro a paesi come Messico, Filippine, Indonesia e Vietnam. Questi dati, però, sono falsati dalle differenze a livello di popolazione: se si introduce questo elemento nell’equazione, i dati consentono una lettura più veritiera.  Se ci limitiamo a confrontare il numero di accessi con paesi “simili”, emerge come AI Tools abbia registrato in Italia 3.25 accessi per abitante, poco più della metà (5,76) rispetto agli Stati Uniti e con un valore di poco inferiore a Germania (4,57) e Francia (3,85). Limitando l’analisi a ChatGPT, che nel settore dell’AI generativa detiene più dell’80% del mercato, i dati sono piuttosto simili. Stando a quanto riporta Digital Gravity, gli accessi provenienti dall’Italia al chatbot di OpenAI si collocano allo stesso livello di un paese come la Germania e di poco inferiori a Spagna e Francia. “I dati sono sempre utili, ma rischiano di creare degli equivoci pericolosi”, sottolinea Irene Di Deo, ricercatrice senior dell’Osservatorio Artificial Intelligence al Politecnico di Milano. “Quando si parla di utilizzo di AI generativa facendo riferimento ai prodotti accessibili sul web, spesso si tratta di un uso che ha un fine ludico o personale. Per comprendere il livello di utilizzo in ambito produttivo è indispensabile fare riferimento ad altri indici, come le licenze acquistate dalle imprese”. L’AI NEL SETTORE PRODUTTIVO Se si passa a un uso più “aziendale” dell’intelligenza artificiale, i dati disponibili sono meno oggettivi rispetto a quelli relativi al numero di accessi agli strumenti di AI liberamente  disponibili su Internet. La maggior parte di questi dati si basa su indagini eseguite in ambito accademico o a opera di istituzioni internazionali. Una delle analisi più affidabili, pubblicata da Eurostat, segna un generale ritardo dell’Italia rispetto agli altri paesi europei. I dati relativi al Digital Intensity Level – indice che valuta quanto intensamente un’azienda utilizza un insieme di tecnologie digitali chiave nella propria attività – sono tutto sommato nella media. Tra i 27 paesi UE, l’Italia si posiziona infatti al sedicesimo posto. Quando si parla di AI, le cose però vanno decisamente peggio. In questa specifica classifica, l’Italia è ventiduesima e staccata notevolmente dai migliori. Solo l’8% delle aziende italiane utilizzerebbero strumenti basati sull’AI, contro il 27,6% di quelle danesi e una media UE del 13,5%. “Si tratta di un dato che va letto alla luce del tipo di tessuto produttivo che c’è nel nostro paese”, spiega Di Deo. “La prevalenza di piccole e medie imprese incide notevolmente sul dato statistico”.  Quando si parla di utilizzo dell’AI in ambito produttivo, specifica la ricercatrice, nella maggior parte dei casi sono strumenti con finalità molto specifiche, ben diversi dai chatbot che vengono proposti al grande pubblico. “Si tratta di piattaforme che richiedono investimenti a livello finanziario piuttosto rilevanti, che le PMI spesso non possono permettersi”, prosegue. “A livello di grandi aziende, i dati che abbiamo raccolto in questi anni indicano che almeno il 60% delle imprese ha implementato strumenti basati sull’AI o ha avviato almeno una sperimentazione”.  Di Deo sottolinea anche un altro aspetto: per sfruttare l’AI è indispensabile avere delle basi solide a livello di dati. Non si tratta dei famosi dataset necessari per addestrare gli algoritmi, ma di quelle informazioni che poi verranno elaborate dall’intelligenza artificiale per generare valore per l’impresa. “L’uso dell’AI per finalità come la manutenzione predittiva o il controllo qualità dei prodotti richiede la presenza di una serie storica. Chi non ha raccolto dati sulla sua attività negli ultimi 20 anni potrà difficilmente ottenere dei buoni risultati in questi ambiti”. IL FENOMENO DELLA SHADOW AI A complicare ulteriormente il quadro è la difficoltà di monitorare l’uso “autonomo” di strumenti di AI generativa da parte dei lavoratori. La disponibilità di chatbot gratuiti o comunque accessibili commercialmente per uso privato ha innescato il fenomeno della cosiddetta “Shadow AI”, cioè l’uso non documentato (e incontrollato) di strumenti di intelligenza artificiale da parte di singoli individui.  Oltre a essere un elemento distorsivo a livello statistico, la Shadow AI rappresenta un’area grigia che è fonte di preoccupazione per gli addetti ai lavori. Le ragioni sono molteplici e comprendono, per esempio, i rischi legati alla cyber security. Gli strumenti basati su AI generativa aumentano infatti il rischio di diffusione involontaria di informazioni riservate e soffrono di vulnerabilità specifiche che possono essere mitigate solo attraverso l’adozione di rigorose politiche di utilizzo e l’implementazione di strumenti dedicati.  Ancora: con l’approvazione dell’AI Act (e in Italia della recente normativa nazionale) emerge anche il tema del rispetto degli obblighi giuridici legati all’uso dell’intelligenza artificiale. Tra questi c’è l’obbligo di informare i clienti quando si impiegano strumenti di AI nello svolgimento della propria attività professionale, come previsto dall’articolo 13 della legge italiana. QUALE IMPATTO HA DAVVERO L’AI? Se oggi il livello di implementazione dell’AI viene considerato come un indicatore di evoluzione tecnologica, è probabile che questa equivalenza evapori piuttosto rapidamente, soprattutto a livello statistico. Gli LLM, in diverse forme, vengono ormai integrati in qualsiasi software. Non c’è prodotto commerciale che non offra un “assistente” alimentato dalla GenAI, la cui utilità è spesso relativa. Anche dove l’AI è stata considerata una priorità su cui puntare, sono emersi grossi dubbi sul suo reale impatto. Una ricerca del MIT Media Lab, pubblicata quest’anno, sottolinea come il 95% delle imprese che hanno introdotto strumenti di intelligenza artificiale generativa non sia stato in grado di individuare un effettivo impatto a livello di valore.  I ricercatori, nel report, sottolineano come l’AI sia utilizzata principalmente per migliorare la produttività individuale attraverso l’uso dei vari “co-piloti”. In tutti questi casi, non si va oltre la generazione di documenti, email, riassunti di riunioni e simili.  Nulla di sconvolgente, quindi, soprattutto se si considera che, a questo livello di adozione, si rischia anche di cadere nel fenomeno del “workslop”, neologismo traducibile più o meno come “lavoro fatto in fretta e male”. Tradotto nella pratica, è possibile definirlo come un aumento di produttività a livello quantitativo, ma che lascia spesso a desiderare sul piano qualitativo.  Chi si ritrova a valutare i contenuti creati con l’AI deve spesso scegliere se accontentarsi di un prodotto mediocre, riscrivere tutto da capo in prima persona o chiedere all’autore di rifarlo da zero. Un ulteriore elemento di complessità che interseca, più che aspetti squisitamente tecnologici, una dimensione culturale. E sarà proprio su questo piano, probabilmente, che si giocherà il futuro dell’AI come possibile “motore” dell’ innovazione. L'articolo Quanto e come usiamo davvero l’intelligenza artificiale? proviene da Guerre di Rete.
I droni stanno trasformando la medicina di guerra
Immagine in evidenza da Marek Studzinski su Unsplash C’è un aspetto dell’esperienza del combattimento bellico che, durante l’invasione dell’Ucraina, è andato via via riducendosi: le ferite d’arma da fuoco. Quella che a lungo è stata la principale causa di morte per i soldati impiegati in guerra ha lasciato spazio a un altro genere di lesione, oggi dominante: le ferite da schegge e frammenti. A determinare questo cambiamento è stata la novità tecnologica più rilevante emersa dal conflitto: il massiccio impiego di droni aerei, e in particolare la diffusione degli apparecchi FPV (first-person view: visione in soggettiva). Per la loro natura di armi di precisione di massa, questi sistemi stanno cambiando profondamente il soccorso e il trattamento dei traumi da guerra. COME I DRONI HANNO CAMBIATO LA FANTERIA In un video pubblicato sul suo canale YouTube, Civ Div – un blogger militare statunitense con un passato nel corpo dei marine degli Stati Uniti ed esperienza di combattimento in Siria e Ucraina (con le forze speciali) – descrive la realtà vissuta dalla fanteria moderna come un incubo tattico, di cui i droni sono la causa principale. Per un fante impiegato in prima linea, la presenza continua di questi dispositivi altera radicalmente la percezione dello spazio. Per lungo tempo, infatti, la fanteria ha operato in ambienti essenzialmente “bidimensionali”: trincee, tunnel, edifici, campi aperti. Qui il contatto col nemico avveniva lungo vettori orizzontali: di fronte, di lato o alle spalle. I droni hanno introdotto una terza dimensione: oggi il pericolo può arrivare dall’alto e in qualsiasi momento. Questa possibilità genera un ulteriore carico cognitivo e costringe le forze armate di tutto il mondo ad adattarsi e rivedere l’addestramento, le tattiche e le dotazioni della fanteria. Per rispondere a questa minaccia, gli eserciti hanno iniziato ad adottare diverse misure: sistemi elettronici portatili in grado di disturbare i segnali dei droni, difese a basso costo come reti, gabbie e coperture o altre contromisure fisiche. In alcuni contesti, sono anche impiegate armi leggere tradizionalmente non impiegate dalla fanteria, come i fucili a pompa: poco efficace negli scontri a fuoco contro avversari protetti da armature, questo tipo di arma si è rivelato più efficace di un fucile d’assalto per abbattere un drone in avvicinamento. Aggiungere equipaggiamento difensivo significa però aumentare il peso da trasportare, riducendo la mobilità dei fanti sia in azione sia durante le rotazioni. Un paradosso tattico che altera la routine del combattimento. La conseguenza immediata è che la maggior parte delle unità passa più tempo nascosta in rifugi sotterranei: buche, bunker e trincee coperte diventano infatti la protezione più efficace contro droni dotati di visori termici e della capacità di operare anche di notte, rendendo inefficaci i camuffamenti tradizionali come le tute o le reti mimetiche. Più che una semplice innovazione, la comparsa e la diffusione di questo genere di dispositivi ha assunto i tratti di una vera e propria rivoluzione, il cui effetto non è stato limitato al modo di combattere della fanteria, ma ha avuto importanti ripercussioni anche sulla cosiddetta medicina tattica. CHE COS’È LA MEDICINA TATTICA? Con il termine “medicina tattica” si indica l’assistenza medica fornita d’urgenza in contesti ostili e a rischio, come quelli militari o di polizia. Il suo obiettivo è salvare vite in situazioni di minaccia; compito che svolge basandosi su due principi chiave. Il primo è la golden hour, il periodo critico che segue il trauma e in cui un intervento tempestivo aumenta in modo significativo la probabilità di sopravvivenza dei feriti. Rapidità, coordinamento, cura sul campo ed evacuazione ne sono le leve fondamentali. Il secondo è il Tactical Combat Casualty Care (TCCC), un protocollo creato negli anni ’80 dall’esercito degli Stati Uniti per addestrare medici e paramedici a prestare soccorso sotto il fuoco nemico. Organizzato in tre fasi – care under fire (soccorso durante l’azione), tactical field care (stabilizzazione del ferito), tactical evacuation care (assistenza durante l’evacuazione) – il protocollo TCCC comprende diverse azioni specifiche come il controllo delle emorragie, la gestione delle vie aeree e la decompressione del torace. Fin dalla sua introduzione, il protocollo TCCC ha ridotto la mortalità. La comparsa dei droni ne sta però mettendo in discussione uno dei presupposti di base: l’esistenza di retrovie relativamente sicure e percorribili in tempi rapidi. COME I DRONI HANNO CANCELLATO LE RETROVIE SUI CAMPI DI BATTAGLIA UCRAINI Alla fine di agosto, sull’onda lunga del summit tra Trump e Putin avvenuto a ferragosto in Alaska, il presidente ucraino Zelensky ha respinto la proposta di istituire una “zona cuscinetto” tra il suo paese e la Russia, avanzata da alcuni leader europei come parte di un potenziale accordo di pace tra i due governi. Secondo Zelensky, lungo la linea del fronte esiste già una zona cuscinetto che, di fatto, separa le forze armate del suo paese da quelle del paese invasore. A crearla sono stati i droni, ed è per questo motivo che il presidente ucraino la definisce “zona morta”. Tutto ciò che si muove al suo interno diventa un potenziale bersaglio per le centinaia di droni che la sorvegliano costantemente e il cui raggio d’azione è notevolmente aumentato nel corso del conflitto. Limitato inizialmente a pochi chilometri di distanza, il raggio d’azione dei droni raggiunge oggi una media compresa tra 10 e 15 chilometri per i modelli controllati a distanza e una compresa tra 20 e 40 chilometri per quelli comandati attraverso bobine di cavi in fibra ottica. Grazie all’estensione del loro raggio d’azione, i droni hanno aumentato la profondità della linea del fronte che, fino alla loro introduzione, era determinata dalla gittata delle artiglierie da campo come mortai, obici ed MLRS (Multiple Rocket Launch System, o sistemi lanciarazzi multipli, come i famosi HIMARS). La loro comparsa ha dunque cancellato le retrovie e trasformato in bersaglio tutto ciò che si muove da e verso la linea del fronte, ridisegnandone la logistica.  Quando l’artiglieria dominava il campo di battaglia, colpire un bersaglio in movimento significava prima di tutto individuarlo, poi calcolare le coordinate del tiro e, infine, eseguirlo con il corretto tempismo. Oggi, invece, i droni sono sempre in volo per sorvegliare gli spostamenti di personale e veicoli nemici, ma possono anche essere lasciati in stand by nei pressi di una via di rifornimento per essere attivati e colpirli al loro passaggio. COME LA MEDICINA TATTICA SI ADATTA ALLA PRESENZA DEI DRONI. La scomparsa delle retrovie non solo obbliga le forze armate a modificare il modo di combattere, ma anche le modalità con cui vengono rifornite le posizioni più avanzate, ruotate le truppe o evacuati i feriti. Il trasporto dei feriti verso zone sicure, parte integrante del già citato TCCC, ora richiede più tempo e più adempimenti operativi, perché il percorso verso le retrovie si è allungato, trasformando in potenziale bersaglio chiunque abbia la necessità di attraversarlo. In una testimonianza rilasciata al giornalista David Kirichenko, il colonnello Kostiantyn Humeniuk, chirurgo capo delle forze mediche ucraine, afferma che, in questo contesto, sono proprio i droni a causare il maggior numero di vittime nella fanteria (circa il 70% del totale nel corso del 2025, secondo stime ucraine). Per adattarsi al cambiamento, le organizzazioni di medicina tattica – come il battaglione medico ucraino Hospitellers, a cui si deve l’introduzione in Ucraina di standard e pratiche mediche avanzate – hanno adottato numerose innovazioni tattiche e logistiche: l’allestimento a ridosso della linea di contatto di bunker chirurgici, dotati di strumenti per interventi di stabilizzazione rapida; l’uso di sistemi di guerra elettronica portatili per proteggere il personale impegnato sul campo; l’impiego, seppur limitato a causa della loro relativa affidabilità, di droni terrestri per estrarre feriti in sicurezza; e, in alcuni casi, l’integrazione di equipaggiamenti difensivi anche per il personale medico. Trattare i feriti in bunker all’interno della “zona morta” è una misura pragmatica: igienicamente subottimale, ma spesso la sola scelta in grado di aumentare le probabilità di sopravvivenza. Resta però un problema (ampiamente segnalato dalla stampa): i medici e il personale sanitario sono essi stessi obiettivi degli attacchi russi, perché colpirli significa erodere capacità di cura e know-how formativo. In assenza di mezzi corazzati sicuri per l’estrazione, le squadre mediche ricorrono a soluzioni di emergenza: più punti di primo soccorso, rotazione rapida delle postazioni e, ove possibile, difese elettroniche portatili. NUOVE SFIDE, VECCHI OBIETTIVI Il dominio dei droni aerei a basso costo, ampiamente disponibili e impiegabili come arma, ha quindi mutato la tipologia di ferite e anche il processo necessario per curarle in modo efficace. Lo scopo di fondo della medicina tattica non è cambiato, ma questa fondamentale pratica clinica ha dovuto ampiamente adattarsi, mentre la golden hour – principio comunque ancora valido – è diventata sempre più difficile da rispettare. A tutto questo la medicina tattica si adatta – con i bunker, le contromisure elettroniche e i droni terrestri – ma il cambiamento è strutturale: una guerra che si fa sempre più verticale trasforma la realtà della fanteria, le procedure di combattimento e le politiche di cura. Preservare vite resta un imperativo strategico non negoziabile. Come insegna la storia recente, quando una forza armata espressione di un paese democratico perde la capacità di limitare morti e feriti, la tenuta morale e politica del paese di cui rappresentano gli interessi si incrina. L'articolo I droni stanno trasformando la medicina di guerra proviene da Guerre di Rete.
Eredità digitale, che fine fanno i nostri dati dopo la morte?
Nel corso dell’ultimo decennio Internet, i social media e – non da ultima – l’intelligenza artificiale hanno profondamente cambiato il nostro rapporto con la morte. Il sogno dell’immortalità, che ha ossessionato per secoli studiosi di ogni genere, oggi sembra essere in qualche modo diventato realtà. Senza che ce ne accorgessimo, la tecnologia ha creato per ognuno di noi una “vita dopo la morte”: una dimensione digitale in cui i nostri account social e di posta elettronica, blog, dati personali e beni digitali continuano a esistere anche dopo la nostra dipartita, rendendo di fatto la nostra identità eterna. Questo, da un lato, ha aumentato la possibilità per le persone che subiscono un lutto di sentirsi nuovamente vicine al defunto, tuffandosi negli album digitali delle sue foto, rileggendo quello che ha scritto sulla sua bacheca di Facebook e ascoltando le sue playlist preferite su Spotify.  “Può consentire anche di mantenere un dialogo con l’alter ego digitale della persona cara defunta, che, attraverso algoritmi di deep fake, può arrivare a simulare una videochiamata, mimando la voce e le sembianze del defunto; a inviare messaggi e email, utilizzando come dati di addestramento le comunicazioni scambiate durante la vita analogica”, osserva Stefania Stefanelli, professoressa ordinaria di Diritto privato all’Università degli studi di Perugia.  Dall’altro, rende però i dati personali delle persone scomparse un tesoretto alla mercé dei criminali informatici, che possono violarne facilmente gli account, utilizzarne le immagini in modo illecito e usarne le informazioni per creare cloni digitali o deepfake, mettendo a rischio la sicurezza loro e dei loro cari. Un pericolo da non sottovalutare, come anche l’eventualità che la persona non gradisca che gli sopravviva un alter ego virtuale, alimentato coi propri dati personali. Ma come fare, allora, per proteggere la propria eredità digitale? A chi affidarla? E come? EREDITÀ DIGITALE: COS’È E A CHI SPETTA DI DIRITTO Oggi più che mai ci troviamo a esistere allo stesso tempo in due dimensioni parallele, una fisica e una digitale. Questo, come riferisce il Consiglio Nazionale del Notariato (CNN), ha portato a un ampliamento dei “confini di ciò che possiamo definire eredità”, che sono arrivati a “comprendere altro in aggiunta ai più canonici immobili, conti bancari, manoscritti o ai beni preziosi contenuti nelle cassette di sicurezza”.  Si parla, allora, di eredità digitale, definita dal CNN come un insieme di risorse offline e online. Della prima categoria fanno parte i file, i software e i documenti informatici creati e/o acquistati dalla persona defunta, i domini associati ai siti web e i blog, a prescindere dal supporto fisico (per esempio, gli hard disk) o virtuale (come può essere il cloud di Google Drive) di memorizzazione. La seconda categoria, invece, include le criptovalute e “tutte quelle risorse che si vengono a creare attraverso i vari tipi di account, siano essi di posta elettronica, di social network, account di natura finanziaria, di e-commerce o di pagamento elettronico”. Rimangono esclusi i beni digitali piratati, alcuni contenuti concessi in licenza personale e non trasferibile, gli account di firma elettronica, gli account di identità digitale e le password. Chiarito in cosa consiste l’eredità digitale, a questo punto viene da chiedersi: a chi saranno affidati tutti questi beni quando la persona a cui si riferiscono non ci sarà più? Rispondere a questa domanda è più difficile di quanto si possa immaginare. Allo stato attuale non esiste infatti in Italia una legge organica, il che crea negli utenti – siano essi le persone a cui i dati si riferiscono o i parenti di un defunto che si ritrovano a gestire la sua identità in rete – un’enorme confusione sulla gestione dei dati.  Nonostante si tratti di un tema particolarmente urgente, finora è stato trattato soltanto dal Codice della Privacy, che prevede “che i diritti […] relativi ai dati di persone decedute possano essere esercitati da chi abbia un interesse proprio o agisca a tutela dell’interessato (su suo mandato) o per ragioni familiari meritevoli di protezione”. Un diritto che non risulta esercitabile soltanto nel caso in cui “l’interessato, quando era in vita, lo abbia espressamente vietato”. Di recente, poi, il Consiglio Nazionale del Notariato è tornato sul tema, sottolineando l’importanza di “pianificare il passaggio dell’eredità digitale”, considerando che “molto spesso le società che danno accesso a servizi, spazi e piattaforme sulla rete internet hanno la propria sede al di fuori del territorio dello Stato e dell’Europa”: in assenza di disposizioni specifiche sull’eredità dei beni digitali, infatti, chiunque cerchi di accedere ai dati di una persona defunta rischia di “incorrere in costose e imprevedibili controversie internazionali”. Per evitare che questo accada, è possibile investire una persona di fiducia di un mandato post mortem, “ammesso dal nostro diritto per dati e risorse digitali con valore affettivo, familiare e morale”. In termini legali, si tratta di un contratto attraverso cui un soggetto (mandante) incarica un altro soggetto (mandatario) di eseguire compiti specifici dopo la sua morte, come l’organizzazione del funerale, la consegna di un oggetto e, nel caso delle questioni digitali, la disattivazione di profili social o la cancellazione di un account. In alternativa, “si può disporre dei propri diritti e interessi digitali tramite testamento”, al pari di quanto già accade per i beni immobili, i conti bancari e tutto il resto.  In questo modo, in attesa di una legislazione vera e propria sul tema, sarà possibile lasciare ai posteri un elenco dettagliato dei propri beni e account digitali, password incluse, oltre alle volontà circa la loro archiviazione o cancellazione. “Ai sensi di questa disposizione, si può anche trasmettere a chi gestisce i propri dati una  dichiarazione, nella quale si comunica la propria intenzione circa il destino, dopo la propria morte, di tali dati: la cancellazione totale o parziale, la comunicazione, in tutto o in parte, a soggetti determinati, l’anonimizzazione ecc. Si parla in questi termini di testamento digitale, anche se in senso ‘atecnico’, in quanto la dichiarazione non riveste le forme del testamento, sebbene sia anch’essa revocabile fino all’ultimo istante di vita, e non contiene disposizioni patrimoniali in senso stretto”, prosegue la professoressa Stefanelli. EREDITÀ E PIATTAFORME DIGITALI: COSA SUCCEDE AGLI ACCOUNT DELLE PERSONE DEFUNTE? Come anticipato, allo stato attuale non esiste una legge che regolamenta l’eredità digitale, né in Italia né in Europa. Pertanto, nel corso degli ultimi anni le piattaforme di social media e i grandi fornitori di servizi digitali si sono organizzati per garantire una corretta gestione degli account di persone scomparse, così da evitare di trasformarsi in veri e propri cimiteri digitali.  Già da qualche anno, per esempio, Facebook consente agli utenti di nominare un contatto erede, ossia un soggetto che avrà il potere di scegliere se eliminare definitivamente l’account della persona scomparsa o trasformarlo in un profilo commemorativo, dove rimarranno visibili i contenuti che ha condiviso sulla piattaforma nel corso della sua vita.  Al pari di Facebook, anche Instagram consente ai parenti di un defunto di richiedere la rimozione del suo account o di trasformarlo in un account commemorativo. In entrambi i casi, però, sarà necessario presentare un certificato che attesti la veridicità del decesso della persona in questione o un documento legale che dimostri che la richiesta arriva da un esecutore delle sue volontà.  TikTok, invece, è rimasto per molto tempo lontano dalla questione dell’eredità digitale. Soltanto lo scorso anno la piattaforma ha introdotto la possibilità di trasformare l’account di una persona defunta in un profilo commemorativo, previa la presentazione di documenti che attestino il suo decesso e un legame di parentela con l’utente che sta avanzando la richiesta. In alternativa, al pari di quanto accade per Facebook e Instagram, è possibile richiedere l’eliminazione definitiva dell’account del defunto.  Ma non sono solo le piattaforme social a pensare al futuro dei propri utenti. Dal 2021, Apple consente agli utenti di aggiungere un contatto erede, così da permettere a una persona di fiducia di accedere ai dati archiviati nell’Apple Account, o “di eliminare l’Apple Account e i dati con esso archiviati”. Google, invece, offre agli utenti uno strumento avanzato per la gestione dei dati di una persona scomparsa. La “gestione account inattivo” consente infatti di “designare una terza parte, ad esempio un parente stretto, affinché riceva determinati dati dell’account in caso di morte o inattività dell’utente”.  Più nel dettaglio, la piattaforma permette di “selezionare fino a 10 persone che riceveranno questi dati e scegliere di condividere tutti i tipi di dati o solo alcuni tipi specifici”, oltre alla possibilità di indicare il periodo di tempo dopo il quale un account può davvero essere considerato inattivo. Nel caso in cui un utente non configuri “Gestione account inattivo”, Google si riserva il diritto di eliminare l’account nel caso in cui rimanga inattivo per più di due anni. EREDITÀ DIGITALE E DEADBOT: UN RISCHIO PER LA SICUREZZA? Anche l’avvento dei sistemi di intelligenza artificiale generativa ha contribuito a cambiare il nostro rapporto con la morte. E le aziende che li sviluppano si sono spinte fino a cercare una soluzione pratica al dolore causato dalla scomparsa di una persona cara. Basti pensare alla rapida diffusione dei deadbot, ovvero dei chatbot che permettono ad amici e familiari di conversare con una persona defunta, simulandone la personalità. Uno strumento che, da un lato, può rivelarsi utile ai fini dell’elaborazione del lutto, ma dall’altro rappresenta un rischio notevole per la privacy e la sicurezza degli individui.  Per permettere all’AI di interagire con un utente come farebbe una persona scomparsa, questa ha bisogno di attingere a una quantità notevole di informazioni legate alla sua identità digitale: account social, playlist preferite, registro degli acquisti da un e-commerce, messaggi privati, app di terze parti e molto altro ancora. Un uso smodato di dati sensibili che, allo stato attuale, non è regolamentato in alcun modo.  E questo, al pari di quanto accade con l’eredità digitale, rappresenta un problema non indifferente per la sicurezza: come riferisce uno studio condotto dai ricercatori dell’Università di Torino, quando i dati del defunto non sono “sufficienti o adeguati per sviluppare un indice di personalità, vengono spesso integrati con dati raccolti tramite crowdsourcing per colmare eventuali lacune”. Così facendo, “il sistema può dedurre da questo dataset eterogeneo aspetti della personalità che non corrispondono o non rispondono pienamente agli attributi comportamentali della persona”. In questo caso, i deadbot “finiscono per dire cose che una persona non avrebbe mai detto e forniscono agli utenti conversazioni strane, che possono causare uno stress emotivo paragonabile a quello di rivivere la perdita”. Non sarebbe, quindi, solo la privacy dei defunti a essere in pericolo, ma anche la sicurezza dei loro cari ancora in vita.  Pur non esistendo una legislazione specifica sul tema, l’AI Act dell’Unione Europea – una delle normative più avanzate sul tema – fornisce alcune disposizioni utili sulla questione, vietando “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole” e anche “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone (…), con l’obiettivo o l’effetto di distorcere materialmente il comportamento di tale persona”.  Due indicazioni che, di fatto, dovrebbero proibire l’immissione dei deadbot nel mercato europeo, ma che non forniscono alcuna soluzione utile alla questione della protezione dei dati personali di una persona defunta, che rimane ancora irrisolta. Nel sistema giuridico europeo la legislazione sulla protezione dei dati non affronta esplicitamente né il diritto alla privacy né le questioni relative alla protezione dei dati delle persone decedute.  Il Regolamento Generale sulla Protezione dei Dati (GDPR), infatti, “non si applica ai dati personali delle persone decedute”, anche se “gli Stati membri possono prevedere norme riguardanti il trattamento dei dati personali delle persone decedute”. Una scelta considerata “coerente con il principio tradizionale secondo cui le decisioni di politica legislativa che incidono sul diritto di famiglia e successorio, in quanto settori caratterizzati da valori nazionali strettamente correlati alle tradizioni e alla cultura della comunità statale di riferimento, esulano dalla competenza normativa dell’Unione europea”.  Non esistendo una legislazione valida a livello europeo, i governi nazionali hanno adottato approcci diversi alla questione. La maggior parte delle leggi europee sulla privacy, però, sostiene un approccio basato sulla “libertà dei dati”: paesi come Belgio, Austria, Finlandia, Francia, Svezia, Irlanda, Cipro, Paesi Bassi e Regno Unito, quindi, escludono che le persone decedute possano avere diritto alla privacy dei dati, sostenendo che i diritti relativi alla protezione dell’identità e della dignità degli individui si estinguono con la loro morte.  Secondo questa interpretazione, le aziende tech potrebbero usare liberamente i dati delle persone decedute per addestrare un chatbot. Fortunatamente non è proprio così, considerando che in questi paesi entrano in gioco il reato di diffamazione, il diritto al proprio nome e alla propria immagine, o il diritto alla riservatezza della corrispondenza. Al contrario, invece, paesi come l’Estonia e la Danimarca prevedono che il GDPR si applichi anche alle persone decedute, a cui garantiscono una protezione giuridica per un limite preciso di tempo (10 anni dopo la morte in Danimarca, e 30 in Estonia). E così anche Italia e Spagna, che garantiscono una protezione dei dati dei defunti per un tempo illimitato.  Pur mancando una legislazione europea uniforme, il GDPR lascia agli Stati membri la facoltà di regolare il trattamento dei dati personali delle persone defunte, e questo comporta differenze, anche sostanziali, delle legislazioni nazionali. Con l’avvento dell’AI e gli sviluppi rapidi che questa comporta, però, diventa sempre più necessario stilare una normativa chiara, precisa e uniforme sulla questione. Così da rispettare non solo la privacy dei nostri cari, ma anche il dolore per la loro perdita. L'articolo Eredità digitale, che fine fanno i nostri dati dopo la morte? proviene da Guerre di Rete.
Rosette hi-tech, AI e server nazionali: chi lavora per preservare lingue in via d’estinzione
Immagine in evidenza da Wikimedia “ll dialetto di Milano? Direi che è un misto di italiano e inglese”. La battuta sintetizza bene l’onnipresenza del caricaturale vernacolo meneghino, versione anni Duemila. Alberto lavora nel dipartimento comunicazione di una società fintech. Trasferito dal sud Italia in Lombardia, diverse esperienze all’estero alle spalle, racconta a cena che in tre anni non gli è mai capitato di sentire una conversazione in milanese. Non ne conosce vocaboli e cadenza se non nelle imitazioni di qualche comico.  In Meridione il dialetto è parlato comunemente accanto all’italiano: persino gli immigrati lo imparano facilmente, per necessità. Nel capoluogo lombardo la realtà è diversa. Ascoltare la lingua di Carlo Porta è raro: probabilmente la perdita è stata favorita dall’arrivo di abitanti provenienti da ogni parte d’Italia, dalla vocazione commerciale della città e dal fatto che parlare solo italiano era sintomo di avvenuta scalata sociale.  Non è una domanda peregrina, dunque, chiedersi quanto a lungo resisterà senza parlanti. Diventerà una lingua morta, da filologi, un po’ come il latino? 7MILA LINGUE, QUASI LA METÀ A RISCHIO Le premesse sembrano esserci. Questo esempio così vicino al nostro vissuto quotidiano è però la spia di una questione più ampia. Il problema non riguarda solo i dialetti. In totale sono infatti oltre settemila, stima lo Undp (il programma delle Nazioni unite per lo sviluppo), le lingue parlate nel globo, alcune da poche centinaia di individui. Il 44% sarebbe in pericolo di estinzione.  Con la globalizzazione, il problema di preservare la biodiversità linguistica – portatrice non solo di cultura, ma di un modo di vedere il mondo –  ha cominciato a porsi con maggiore insistenza. Non mancano iniziative di tutela locali, come corsi serali per appassionati e nostalgici, ma con tutta probabilità si tratta di palliativi.  Un supporto fino a poco tempo fa impensabile può arrivare, però, per linguisti e antropologi dalla tecnologia. Probabilmente non è la panacea di tutti i mali. Ma, come vedremo, può aiutare.  IL ROSETTA PROJECT Tra i primi programmi digitali al mondo per la tutela delle lingue in via di estinzione c’è il Rosetta project, che da oltre due decenni raccoglie specialisti e parlanti nativi allo scopo di costruire un database pubblico e liberamente accessibile di tutte le lingue umane. Il Rosetta project fa capo a un ente molto particolare: la Long Now foundation (Lnf, tra i membri fondatori c’è il musicista Brian Eno). La Lnf parte da un presupposto: è necessario pensare seriamente al futuro remoto, per non farsi trovare impreparati dallo scorrere del tempo.  Il ragionamento è tutt’altro che banale. “Si  prevede che dal cinquanta al novanta per cento delle lingue parlate spariranno nel prossimo secolo”, spiegano gli organizzatori sul sito, “molte con poca o nessuna documentazione”. Come preservarle?  Lo sguardo torna all’Antico Egitto: così è nato il Rosetta Disk, un disco di nichel del diametro di tre pollici su cui sono incise microscopicamente quattordicimila pagine che traducono lo stesso testo in oltre mille lingue. Il modello è la stele di Rosetta, che due secoli fa consentì di interpretare i geroglifici, di cui si era persa la conoscenza. Una lezione che gli studiosi non hanno dimenticato.  Il principio è più o meno lo stesso delle vecchie microfiches universitarie: per visualizzare il contenuto basta una lente di ingrandimento. Non si tratta, insomma, di una sequenza di 0 e 1, quindi non è necessario un programma di decodifica. Il rischio –  in Silicon Valley lo sanno bene –  sarebbe che il software vada perso nel giro di qualche decennio per via di un cambiamento tecnologico; o (e sarebbe anche peggio) che qualche società privata che ne detiene i diritti decida di mettere tutto sotto chiave, come peraltro avviene per molte applicazioni con la politica del cosiddetto “vendor lock in” (Guerre di Rete ne ha parlato in questo pezzo). Qui, invece, la faccenda è semplice: basta ingrandire la superficie di cinquecento volte con una lente e il gioco è fatto.   Il prezioso supporto è acquistabile per qualche centinaio di dollari, ed è stato spedito anche nello spazio con la sonda spaziale Rosetta dell’Agenzia spaziale europea (nonostante l’omonimia, non si tratta dello stesso progetto). Il disco è collocato in una sfera dove resta a contatto con l’aria, ma che serve a proteggerlo da graffi e abrasioni. Con una manutenzione minima, recitano le note di spiegazione, “può facilmente durare ed essere letto per centinaia di anni”. Resiste, ovviamente, anche alla smagnetizzazione (sarebbe basato su test condotti al Los Alamos National Laboratory, lo stesso del progetto Manhattan di Oppenheimer dove fu concepita la bomba atomica).  UNA SCELTA DIFFICILE  Porsi in una prospettiva di lungo periodo pone interessanti domande. Che tipo di informazioni conservare per un futuro nell’ipotesi – speriamo remota – che tutto il nostro sapere, sempre più digitalizzato, vada perso? Meglio preservare la letteratura, le tecniche ingegneristiche, o le cure per le malattie? Un criterio è evidentemente necessario.  La scelta della Long now foundation è stata quella di lasciare ai posteri una chiave di interpretazione utile a tradurre tutto ciò che è destinato a sopravvivere. Ma il progetto comprende anche una sezione digitale, cresciuta nel corso degli anni fino a raggiungere oltre centomila pagine di documenti testuali e registrazioni in oltre 2.500 lingue. I contenuti, si legge sul sito, sono disponibili a chiunque per il download e il riutilizzo secondo i principi dell’open access; anche il pubblico può contribuire alla raccolta inviando materiale di vario tipo. Fondamentale per raccapezzarsi è il ruolo dei metadati (data, luogo, formato e altri elementi dei dati in questione) – ci torneremo più avanti. IL PROGETTO FRANCESE PANGLOSS Anche in Europa ci sono progetti di tutela del patrimonio linguistico in piena attività. Per esempio in Francia – non dimentichiamo che la stele di Rosetta (conservata al British Musem di Londra) fu rinvenuta  nell’ambito delle spedizioni napoleoniche – esiste il progetto Pangloss, che si propone di realizzare un archivio aperto di tutte le lingue in pericolo o poco parlate e contiene documenti sonori di idiomi rari o poco studiati, raccolti grazie al lavoro di linguisti professionisti su una piattaforma moderna e funzionale battezzata Cocoon.  Attualmente la collezione comprende un corpus di 258 tra lingue e dialetti di 46 paesi, per un totale di più di 1200 ore d’ascolto. I documenti presentati contengono per lo più discorsi spontanei, registrati sul campo. Circa la metà sono trascritti e annotati. C’è anche un po’ di Italia: il dialetto slavo molisano (parlato nei tre villaggi di San Felice del Molise, Acquaviva Collecroce e Montemitro, in provincia di Campobasso, a 35 chilometri dal mare Adriatico) e il Valoc, un dialetto valtellinese lombardo. Pangloss è open, sia in modalità “base” sia in quella “pro”. La politica è di apertura totale: per consultare il sito web non è necessario accettare specifiche condizioni d’uso né identificarsi. Non si utilizzano cookie di profilazione, come orgogliosamente dichiarato.  “Il progetto Pangloss è nato negli anni ‘90 e da allora si è evoluto considerevolmente”, dice a Guerre di Rete Severine Guillaume, che ne è la responsabile. “Si tratta di una collezione orale, il che significa che raccogliamo contenuti video e audio che possono anche essere accompagnati da annotazioni: trascrizioni, traduzioni, glosse. Ogni risorsa depositata dev’essere fornita di metadati: titolo, lingua studiata, nome di chi la carica, persone che hanno contribuito alla creazione, data della registrazione, descrizione del contenuto”.  COME ANALIZZARE I DATI: L’IMPIEGO DELL’AI L’intelligenza artificiale ha cominciato a farsi strada anche tra questi archivi digitali. “Abbiamo condotto degli esperimenti sui nostri dati con l’obiettivo di aiutare i ricercatori ad arricchirli”, conferma Guillaume. “Sono stati diversi i test di  trascrizione automatica, e due di loro l’hanno già impiegata: per ogni minuto di audio si possono risparmiare fino a quaranta minuti di lavoro, lasciando agli studiosi il tempo di dedicarsi a compiti più importanti. Al momento, insomma, direi che stiamo sperimentando”.  Non è detto che funzioni in ogni situazione, ma “la risposta iniziale è affermativa quando la trascrizione riguarda un solo parlante”, prosegue Guillaume. Il problema sta “nella cosiddetta diarization, che consiste nel riconoscere chi sta parlando in un dato momento, separare le voci, e attribuire ogni segmento audio al partecipante corretto”. Le prospettive, tutto sommato, sembrano incoraggianti. “Abbiamo cominciato a cercare somiglianze tra due idiomi o famiglie linguistiche: ciò potrebbe rivelare correlazioni che ci sono sfuggite”, afferma la dirigente. Siamo, per capirci, nella direzione della grammatica universale teorizzata da Noam Chomsky, e immaginata da Voltaire nel suo Candido (il dottor Pangloss, ispirandosi a Leibniz, si poneva lo scopo di scovare gli elementi comuni a tutte le lingue del mondo).  COME CONSERVARE I DATI: IL RUOLO DELLE INFRASTRUTTURE PUBBLICHE Il problema di preservare il corpus di conoscenze è stato affrontato? “Sì”, risponde Guillaume. “La piattaforma Cocoon, su cui è basata la collezione Pangloss, impiega l’infrastruttura nazionale francese per assicurare la longevità dei dati. Per esempio, tutte le informazioni sono conservate sui server dell’infrastruttura di ricerca Huma-Num, dedicata ad arti, studi umanistici e scienze sociali, finanziata e implementata dal ministero dell’Istruzione superiore e della Ricerca. Vengono poi mandate al Cines, il centro informatico nazionale per l’insegnamento superiore, che ne assicura l’archiviazione per almeno quindici anni. Infine, i dati sono trasferiti agli archivi nazionali francesi. Insomma, di norma tutto è pensato per durare per l’eternità”.  Altro progetto dalla connotazione fortemente digitale è Ethnologue. Nato in seno alla SIL (Summer Institute of Linguistics, una ong di ispirazione cristiano-evangelica con sede a Dallas) copre circa settemila lingue, offrendo anche informazioni sul numero di parlanti, mappe, storia, demografia e altri fattori sociolinguistici. Il progetto, nato nel 1951, coinvolge quattromila persone, e nasce dall’idea di diffondere le Scritture. Negli anni si è strutturato in maniera importante: la piattaforma è ricca di strumenti, e molti contenuti sono liberamente fruibili. Sebbene la classificazione fornita dal sito (per esempio la distinzione tra lingua e dialetto) sia stata messa in discussione, resta un punto di riferimento importante.  I progetti italiani  Non manca qualche spunto italiano. Come, per esempio, Alpilink. Si tratta di un progetto collaborativo per la documentazione, analisi e promozione dei dialetti e delle lingue minoritarie germaniche, romanze e slave dell’arco alpino nazionale. Dietro le quinte ci sono le università di Verona, Trento, Bolzano, Torino e Valle d’Aosta. A maggio 2025 erano stati raccolti 47.699 file audio, che si aggiungono ad altri 65.415 file collezionati nel precedente progetto Vinko. Le frasi pronunciate dai parlanti locali con varie inflessioni possono essere trovate e ascoltate grazie a una mappa interattiva, ma esiste anche un corpus per specialisti che propone gli stessi documenti  con funzioni di ricerca avanzate. Il crowdsourcing (cioè la raccolta di contenuti) si è conclusa solo qualche mese fa, a fine giugno. La difficoltà per gli anziani di utilizzare la tecnologia digitale è stata aggirata coinvolgendo gli studenti del triennio delle superiori.  Altro progetto interessante è Devulgare. In questo caso mancano gli strumenti più potenti che sono propri dell’università; ma l’idea di due studenti, Niccolò e Guglielmo, è riuscita ugualmente a concretizzarsi in un’associazione di promozione sociale e in un’audioteca che raccoglie campioni vocali dal Trentino alla Calabria. Anche in questo caso, chiunque può partecipare inviando le proprie registrazioni. Dietro le quinte, c’è una squadra di giovani volontari – con cui peraltro è possibile collaborare – interessati alla conservazione del patrimonio linguistico nazionale. Un progetto nato dal basso ma molto interessante, soprattutto perché dimostra la capacità di sfruttare strumenti informatici a disposizione di tutti in modo creativo: Devulgare si basa, infatti, sulla piattaforma Wix, simile a WordPress e che consente di creare siti senza la necessità di essere maestri del codice. Una vivace pagina Instagram con 10.300 follower – non pochi, trattandosi di linguistica –  contribuisce alla disseminazione dei contenuti.  RICOSTRUIRE LA VOCE CON LA AI  Raccogliere campioni audio ha anche un’altra utilità: sulla base delle informazioni raccolte e digitalizzate oggi, sarà possibile domani, grazie all’intelligenza artificiale, ascoltare le lingue scomparse. L’idea viene da una ricerca applicata alla medicina, che attraverso un campione di soli otto secondi, registrato su un vecchio VHS, ha permesso di ricostruire con l’AI la voce di una persona che l’aveva persa.  È accaduto in Inghilterra, e recuperare il materiale non è stato una passeggiata: le uniche prove della voce di una donna affetta da Sla risalivano agli anni Novanta ed erano conservate su una vecchia videocassetta. Nascere molti anni prima dell’avvento degli smartphone ovviamente non ha aiutato. A centrare l’obiettivo sono stati i ricercatori dell’università di Sheffield. Oggi la donna può parlare, ovviamente con delle limitazioni: deve fare ricorso a un puntatore oculare per comporre parole e frasi. Ma la voce sintetizzata è molto simile a quella che aveva una volta. E questo apre prospettive insperate per i filologi.  Come spesso accade, il marketing ha naso per le innovazioni dotate di potenziale. E così, oggi c’è chi pensa di sfruttare l’inflessione dialettale per conquistare la fiducia dei consumatori. È quello che pensano i due ricercatori Andre Martin (Università di Notre Dame, Usa) e Khalia Jenkins (American University, Washington), che nella presentazione del loro studio citano addirittura Nelson Mandela: “Se parli a un uomo in una lingua che capisce, raggiungerai la sua testa. Ma se gli parli nella sua lingua, raggiungerai il suo cuore”.  “I sondaggi dell’industria hanno fotografato il sentiment sempre più negativo verso l’AI”, scrivono gli studiosi, che lavorano in due business school. “Immergendosi a fondo nel potenziale dei dialetti personalizzati, creati con l’AI al fine di aumentare la percezione di calore, competenza e autenticità da parte dell’utente, l’articolo sottolinea [come in questo modo si possa] rafforzare la fiducia, la soddisfazione e la lealtà nei confronti dei sistemi di intelligenza artificiale”. Insomma, addestrando gli agenti virtuali a parlare con una cadenza amica si può vendere di più. C’è sempre un risvolto business, e qui siamo decisamente lontani dagli intenti di conservazione della biodiversità linguistica. Ma anche questo fa parte del gioco. L'articolo Rosette hi-tech, AI e server nazionali: chi lavora per preservare lingue in via d’estinzione proviene da Guerre di Rete.
La bolla dell’intelligenza artificiale sta per scoppiare
Immagine in evidenza generata con OpenAI “Siamo entrati in una fase in cui gli investitori, nel complesso, sono eccessivamente entusiasti nei confronti dell’intelligenza artificiale? Secondo me, assolutamente sì”, ha affermato il fondatore di OpenAI Sam Altman. Parole non dissimili sono arrivate da Mark Zuckerberg, secondo il quale “è certamente una possibilità” che si stia formando una grande bolla speculativa. Da ultimo, anche Jeff Bezos ha rilasciato dichiarazioni simili. Quando le stesse persone che, tramite le loro risorse, stanno favorendo lo sviluppo e la diffusione di una tecnologia si preoccupano della situazione finanziaria, significa che il rischio, come minimo, è concreto – anche perché le loro aziende risentirebbero più di ogni altra dei rovesci causati dallo scoppio di una bolla. D’altra parte, basta osservare i numeri: per il momento le immense quantità di denaro che sono state investite per l’addestramento e la gestione dei modelli linguistici di grandi dimensioni (LLM – Large Language Model) non stanno producendo risultati economici degni di nota. Peggio ancora: non è per niente chiaro quale possa essere un modello di business sostenibile per ChatGPT e i suoi compagni, e ci sono anche parecchi segnali che indicano come tutto l’hype (non solo finanziario) nei confronti dell’intelligenza artificiale potrebbe rivelarsi una colossale delusione (come indicano le ricerche secondo cui le aziende che hanno integrato l’intelligenza artificiale non hanno visto praticamente alcun effetto positivo).  Se le cose andassero così, all’orizzonte non ci sarebbe solo lo scoppio di una gigantesca bolla speculativa, ma la fine – o almeno il drastico ridimensionamento – di una grande promessa tecnologica, che fino a questo momento non sembra essere sul punto di lanciare una “nuova rivoluzione industriale”. I CONTI DI OPENAI Per iniziare gradualmente ad affrontare i problemi economici dell’intelligenza artificiale, gli immensi investimenti nel suo sviluppo (che rischiano di non essere ripagati) e la possibilità che le enormi aspettative riposte nei suoi confronti vengano disattese, la cosa più semplice è probabilmente guardare ai risultati e ai conti della più nota startup del settore: OpenAI. Partiamo dalle buone notizie: OpenAI ha da poco annunciato che nel 2025 dovrebbe raggiungere i dieci miliardi di dollari di ricavi e ha superato i 500 milioni di utenti di ChatGPT. Numeri che farebbero pensare a un futuro roseo se non fosse che, contestualmente, la società di Sam Altman continua a bruciare i soldi degli investitori a grandissima velocità: secondo le ultime stime, nel corso del 2025 OpenAI dovrebbe ammassare perdite pari a 27 miliardi di dollari (significa che incassa 10 miliardi ma ne spende 37).  Brutte notizie arrivano anche dal fronte “utenti paganti”, che sono solo 15,5 milioni: un numero molto basso, che suggerisce come pochi vedano in ChatGPT uno strumento così utile da giustificarne il costo. Le società che invece pagano OpenAI per fornire servizi terzi (“AI as a service”, come può essere il caso di Cursor, che si appoggia a OpenAI e Anthropic per offrire il suo assistente alla programmazione) stanno ottenendo risultati inferiori alle attese e molte di esse – come evidenziato in una recente newsletter dell’analista Ed Zitron – vivono una situazione economica traballante. OpenAI inevitabilmente sfoggia sicurezza, promettendo di raggiungere un fatturato pari a 125 miliardi di dollari entro il 2029. L’obiettivo, quindi, è decuplicare il fatturato nel giro di quattro anni: qualcosa che potrebbe succedere, ma che al momento non è chiaro come potrebbe avvenire, soprattutto se si considera che – dopo tre anni di incessante martellamento – ChatGPT ha pochissimi utenti paganti (che costano all’azienda più di quanto le permettano di guadagnare) e che le startup che pagano OpenAI per usare GPT-5 hanno a loro volta ricavi trascurabili. INVESTIMENTI TRILIARDARI Per il momento, far quadrare i conti è l’ultima delle preoccupazioni di Sam Altman, che prevede di accumulare perdite pari a 115 miliardi da qui al 2029 e ha recentemente dichiarato di voler spendere nel corso del tempo “migliaia di miliardi” per costruire l’immenso network di data center necessario ad alimentare i large language model e gli altri sistemi di intelligenza artificiale generativa. Ma c’è un problema: OpenAI questi soldi non li ha e deve anzi continuamente rivolgersi ai suoi finanziatori soltanto per mantenere in funzione le attuali operazioni. Alla fine di giugno, OpenAI aveva in cassaforte circa 17 miliardi, che al suo ritmo di spesa sono sufficienti solo per qualche mese. E infatti ad agosto c’è stato un altro – l’ultimo, fino a questo momento – round di finanziamenti, che ha permesso a Sam Altman di intascare altri 40 miliardi, per una valutazione di 300 miliardi di dollari. Valutazione che, in seguito ad altre operazioni finanziarie, è arrivata fino a 500 miliardi, la più alta mai registrata da una società non quotata in borsa. Se OpenAI ha continuamente bisogno di raccogliere denaro soltanto per far funzionare (in perdita) ChatGPT, come può spendere centinaia di miliardi di dollari in infrastrutture? La risposta è: non può. Per questa ragione, lo scorso settembre ha firmato un contratto da 300 miliardi di dollari, da versare in cinque anni, a Oracle: la società fondata e guidata da Larry Ellison, le cui azioni sono schizzate alle stelle in seguito a questo annuncio. In sintesi: OpenAI ha promesso a Oracle di pagare, con soldi che al momento non ha, la costruzione degli immensi data center necessari a soddisfare la sua infinita fame di GPU ed elettricità. E Oracle, invece, ce li ha i soldi? Anche in questo caso la risposta è (in parte) negativa: come spiega il Wall Street Journal, “Oracle è già fortemente indebitata: alla fine di agosto la società aveva un debito a lungo termine di circa 82 miliardi di dollari e un rapporto debito/capitale proprio di circa il 450%. Per fare un confronto, il rapporto del gruppo Google-Alphabet era dell’11,5% nell’ultimo trimestre, mentre quello di Microsoft era intorno al 33%”. Le azioni di Oracle saranno anche salite tantissimo in seguito alla notizia della partnership con OpenAI, ma le società di rating iniziano a sentire puzza di bruciato (o almeno di rischi fortissimi), tant’è che Moody’s ha dato una valutazione negativa del rating di Oracle pochi giorni dopo la firma del contratto. Riassumendo: Oracle, già fortemente indebitata, dovrà indebitarsi molto di più per poter costruire un’infrastruttura di data center, che le dovrebbe essere un domani pagata da OpenAI, sempre che quest’ultima riesca, entro la fine del decennio, ad aumentare il fatturato fino ai livelli promessi, che sono dieci volte superiori a quelli odierni. Tutto potrebbe andare come auspicato, ma al momento i conti non tornano. E se non tornano per OpenAI, la startup simbolo dell’intelligenza artificiale, figuriamoci le altre: sempre secondo le stime di Ed Zitron, Anthropic nel 2025 spenderà 7 miliardi di dollari e ricaverà al massimo 4 miliardi (bilancio in rosso di tre miliardi), mentre Perplexity punta a generare ricavi per 150 milioni di dollari nel 2025, ma spende anche lei molto più di quello che intasca (nel 2024 ha speso il 67% in più di quello che ha guadagnato). I numeri non migliorano se si osservano i conti relativi all’intelligenza artificiale dei principali colossi della Silicon Valley: Microsoft quest’anno investirà 80 miliardi in infrastrutture e ricaverà 13 miliardi. Amazon spenderà 105 miliardi e ne ricaverà 5. Google spenderà 75 miliardi e ne ricaverà al massimo 8. Meta spenderà 72 miliardi e ne ricaverà al massimo 3. Nel complesso, queste quattro società investiranno in un solo anno 332 miliardi di dollari e ne ricaveranno 29 (al massimo). Stime confermate dall’Economist, che scrive:  “Secondo le nostre analisi, i ricavi complessivi delle principali aziende occidentali derivanti dall’intelligenza artificiale ammontano oggi a 50 miliardi di dollari l’anno. Anche se tali ricavi stanno crescendo rapidamente, rappresentano ancora una frazione minima dei 2.900 miliardi di dollari di investimenti complessivi in nuovi data center previsti a livello globale da Morgan Stanley tra il 2025 e il 2028”. LA BOLLA DI NVIDIA In questo fosco scenario, c’è una sola azienda per la quale l’intelligenza artificiale si sta rivelando un affare d’oro: Nvidia. La società che progetta le più avanzate GPU – i processori indispensabili per l’addestramento e l’utilizzo dei sistemi di AI – ha dichiarato guadagni (non ricavi: guadagni) per 26 miliardi di dollari solo nell’ultimo trimestre. Nel complesso, si stima che Nvidia nel 2027 avrà “free cash flow” (flusso di cassa libero, ovvero i soldi rimasti in pancia all’azienda dopo aver coperto tutte le spese operative e gli investimenti) pari a 148 miliardi di dollari. Mentre tutti spendono (e perdono) nell’intelligenza artificiale, Nvidia fa un sacco di soldi. Non sorprende, visto che una gran parte delle spese di OpenAI, Microsoft e compagnia sono necessarie proprio ad acquistare le GPU di Nvidia. Ma c’è un problema: a differenza di Meta o Google (che continuano a guadagnare centinaia di miliardi da social network e motori di ricerca), gli enormi guadagni di Nvidia sono inestricabilmente legati al boom dell’intelligenza artificiale. Se le aziende che acquistano in massa le GPU di Nvidia decidessero che non è più il caso di spendere le cifre folli che stanno al momento spendendo, quanto precipiterebbe il valore di un’azienda che ha ottenuto il 40% dei suoi ricavi da due soli misteriosi clienti, che secondo TechCrunch potrebbero essere Microsoft e Google? Se l’intelligenza artificiale non mantenesse le promesse, in che scenario si troverebbe un’azienda che detiene il 90% della quota di mercato delle GPU, la cui vendita è sostenuta dal boom dell’intelligenza artificiale? È proprio per queste ragioni che Nvidia vuole evitare a tutti costi che qualcosa del genere si verifichi. Negli stessi giorni in cui Sam Altman e Larry Ellison stringevano il ricchissimo accordo di cui abbiamo parlato, Nvidia si impegnava a investire “fino a 100 miliardi di dollari” in OpenAI “nei prossimi anni”. In poche parole, Nvidia vuole prestare a OpenAI un terzo dei soldi che OpenAI deve dare a Oracle affinché compri le GPU di Nvidia che alimenteranno i suoi data center. OpenAI non è però l’unica azienda a beneficiare di questo schema: Perplexity, CoreWeave, Cohere, Together AI, Applied Digitals e molte altre startup che si occupano di vari aspetti dell’intelligenza artificiale (dall’infrastruttura allo sviluppo di chatbot) hanno potuto godere della generosità del CEO di Nvidia Jensen Huang, che continua a investire denaro in società che utilizzeranno questi soldi anche o soprattutto per acquistare GPU. Da una parte, ha senso che Nvidia utilizzi i faraonici guadagni per sostenere i suoi principali clienti. È un meccanismo che è stato paragonato da The Information ai programmi di stimolo delle banche centrali: si immette denaro nell’economia nella speranza che questo generi crescita economica e, indirettamente, produca i ritorni necessari a compensare l’investimento iniziale. Dall’altra, i soldi che Nvidia immette nel settore potrebbero artificialmente sostenere la domanda delle sue GPU, facendo apparire i suoi risultati più robusti di quanto altrimenti sarebbero, gonfiando quindi il valore delle azioni. Inoltre, il fatto che Nvidia sia al centro di un modello finanziario circolare (perché presta i soldi a chi deve comprare ciò che produce) non può che alimentare i sospetti che quella che si sta venendo a creare sia una colossale bolla finanziaria, che rischia di scoppiare alla prima trimestrale di Nvidia inferiore alle aspettative, trascinando con sé tutte le realtà più esposte e causando un crollo che – secondo alcune stime – potrebbe essere quattro volte superiore alla bolla immobiliare che nel 2008 ha mandato il mondo intero in recessione. Negli ultimi tre anni, il valore delle aziende tecnologiche quotate al Nasdaq è raddoppiato proprio sulla scia dell’entusiasmo generato da ChatGPT. Nel complesso, le prime sette aziende per valore di mercato (Nvidia, Apple, Amazon, Meta, Tesla, Microsoft e Alphabet/Google) oggi rappresentano il 34% del valore complessivo dell’indice S&P 500 e sono tutte, con la parziale eccezione di Apple, enormemente esposte sul fronte dell’intelligenza artificiale. Le azioni in borsa stanno salendo alle stelle, mentre i risultati economici reali sono trascurabili. Migliaia di miliardi di dollari stanno venendo investiti in una tecnologia che, per il momento, non sta mantenendo le colossali aspettative in essa riposte e che genera ricavi poco significativi, costringendo i principali colossi del settore a indebitarsi o a bruciare risorse nella speranza che questa “rivoluzione artificiale” infine si materializzi. Che la bolla dell’intelligenza artificiale esista è un dato di fatto: la vera incognita riguarda la violenza con cui esploderà. Molto dipenderà da quanto, nel frattempo, la tecnologia sarà riuscita a mantenere almeno in parte le sue promesse. Se i guadagni annunciati inizieranno davvero a concretizzarsi, la correzione potrebbe essere contenuta. Se invece la Silicon Valley continuerà a investire enormi quantità di denaro senza ottenere nulla in ritorno, l’esplosione potrebbe essere devastante. L'articolo La bolla dell’intelligenza artificiale sta per scoppiare proviene da Guerre di Rete.
La resistenza ai social media riparte dal Fediverso e dai server ribelli
Immagine in evidenza da Mozilla Da una parte i social network e i rischi intrinseci della raccolta di dati e, sul fronte opposto, l’attivismo digitale che vuole dare vita a una riforma di internet dal basso. Un’idea che si scontra con problemi pratici, tecnici, etici e anche culturali-narrativi. Non ultimo un immaginario che ancora sconta una vecchia diffidenza verso gli hacktivisti (e tutto ciò che contiene la parola “hacker”). Su questo e su altro ancora si concentra Giuliana Sorci nel libro Server ribelli: R-esistenza digitale e hacktivismo nel Fediverso in Italia che esamina l’hacktivismo italiano nel corso di tre decenni. Sorci è una ricercatrice indipendente e insegnante, ha conseguito il dottorato all’Università di Catania approfondendo la comunicazione politica dei movimenti sociali e dei conflitti territoriali in Italia. Nel 2015 ha pubblicato il libro I social network. Nuovi sistemi di sorveglianza e controllo sociale, approfondendo i modi in cui i social media agiscono come strumenti di sorveglianza e controllo.  QUALCHE TERMINE UTILE Nel suo ultimo libro, Server ribelli, si fa ampio riferimento alle piattaforme commerciali, ovvero al gruppo Meta che detiene Facebook, Instagram, Threads e WhatsApp e, parallelamente, a X (ex Twitter) e a TikTok. In contrapposizione, il Fediverso è una rete di piattaforme indipendenti e connesse tra loro, che usano software open source e protocolli aperti come ActivityPub. La natura decentralizzata del Fediverso non è l’unico tratto che la contraddistingue dalle piattaforme commerciali: il Fediverso è non profit, è autogestito, rifiuta la profilazione di massa e rifugge ogni forma di pubblicità. Gli sviluppatori rilasciano il codice sorgente affinché gli utenti possano controllare l’infrastruttura e contribuire al suo miglioramento. Ciò, sottolinea l’autrice, richiama la partecipazione attiva, altro tratto distintivo che separa il Fediverso dalle piattaforme commerciali, che impongono un uso passivo. Altro termine chiave è quello di r-esistenza, che racchiude le pratiche e le strategie adottate dagli hacktivisti italiani per opporsi al mondo digitale dominato dalle piattaforme commerciali, proponendo alternative. La r-esistenza non è un rifiuto passivo ma rappresenta azioni politiche, culturali e creative che si manifestano in più modi. Per Giuliana Sorci l’attivismo digitale italiano, l’hacktivismo, ha individuato nel Fediverso una terra promessa nella quale la r-esistenza digitale, la riforma di Internet dal basso, possono crescere. Ma centrali sono anche gli spazi autogestiti come gli hacklab e i fablab, e l’hacking come una pratica creativa e costruttiva che si spinge al di là della scrittura di codice e lavora alla creazione di infrastrutture alternative, alla promozione della conoscenza libera e alla costruzione di comunità inclusive. I profili degli hacktivisti italiani rivelano spesso un’elevata istruzione, peraltro con una corposa presenza di laureati in discipline umanistiche, e una forte propensione al cambiamento sociale e alla giustizia sociale. Tuttavia, il Fediverso affronta diverse sfide. La difficoltà di installazione e gestione per gli utenti meno esperti e il rischio di abbandono dei progetti con pochi iscritti sono aspetti critici. La minaccia più grande proviene dalle grandi corporation che mostrano un crescente interesse verso le architetture decentralizzate. Threads, piattaforma con cui Meta si è affacciata sul Fediverso, sebbene potenzialmente in grado di diversificare l’ecosistema, solleva seri dubbi sulla gestione monopolistica e antidemocratica che potrebbe esercitare.  Il libro si concentra sulla resistenza a questo scenario, considerando che non può essere solo tecnica ma deve essere soprattutto politica, basata sulla capacità dei movimenti hacker di costruire strategie concordate e di salvaguardare la sovranità digitale. INTERVISTA CON L’AUTRICE Abbiamo approfondito alcuni aspetti con Giuliana Sorci.  Quali sono i fattori che al momento ostacolano una larga adozione del Fediverso da parte degli utenti? “Credo che ci siano diversi fattori. Un primo elemento consiste nel fatto che il Fediverso è ancora poco conosciuto al grande pubblico e viene utilizzato per lo più dagli ‘addetti ai lavori’.  Uno degli obiettivi che mi sono posta con questo libro consiste proprio nel far comprendere che esistono delle alternative ai social media commerciali; che queste piattaforme sono federate ed interoperabili e non contemplano logiche di monetizzazione dei dati degli utenti o pratiche di censura e sorveglianza, come avviene nei comuni social media.  Il Fediverso offre, infatti, la possibilità di creare istanze gestite direttamente dagli utenti e che si basano sui principi (policy) e sugli interessi della community, formando un ecosistema digitale alternativo. Un altro elemento consiste nel fatto che la gestione di un server richiede competenze tecniche, tempo e risorse economiche che possono limitarne l’uso a coloro che non le possiedono: non tutti gli utenti, infatti, riescono a implementare o a gestire istanze nel lungo periodo.   Un altro fattore che limita l’uso del Fediverso è la cultura che sta dietro i social network commerciali. Il famoso tasto ‘like’ di Facebook o il cuore che si riceve quando si pubblica una foto su Instagram o un video su TikTok provocano un effetto che si potrebbe definire ‘dopaminico’ nell’utente che lo riceve, facendogli vivere un’esperienza positiva che tenderà a ripetere, incrementando l’engagement sulla piattaforma.  Questo processo avviene a discapito di qualsiasi forma di tutela della privacy e del fatto che ogni aspetto della vita degli utenti viene inesorabilmente sempre ‘reso pubblico’. Il Fediverso, rifiutando queste logiche di mercificazione delle identità digitali, potrebbe quindi risultare meno attrattivo per quegli utenti che ormai hanno interiorizzato questo modo di pensare e utilizzare i social media”. Come si contrasta il potere delle grandi piattaforme e la loro capacità di bloccare gli utenti dentro i loro recinti dorati (che poi sono sempre meno dorati…)?  “Il social media trasforma le relazioni in merce, orientando la comunicazione verso la performance pubblica e il profitto aziendale. Per contrastare il potere delle grandi piattaforme e la loro capacità di rinchiudere gli utenti ‘nelle loro prigioni dorate’ non serve tentare una competizione di ‘scala’, ovvero creare social media in grado di trattenere migliaia di utenti e che ripropongono le solite logiche di gamificazione, per dirla con le parole del collettivo Ippolita.  Per contrastare il potere delle piattaforme commerciali bisogna ripensare il modo di implementare e utilizzare le tecnologie, trasformandole da tecnologie del dominio in quelle che Ivan Illich definiva come ‘Tools of Conviviality’, ovvero strumenti in grado di creare spazi di libertà, in cui le relazioni tra gli utenti si basano su rapporti di cooperazione reciproca ed interessi comuni.  Il Fediverso, essendo composto da piattaforme indipendenti, alternative e interoperabili, infatti, non può essere considerato soltanto un’infrastruttura tecnica, ma riflette un progetto politico, in cui ogni comunità può dotarsi di regole proprie che si basano sui principi comuni e sugli interessi della comunità.  Usare il Fediverso significa dunque aderire a un’altra idea di socialità online, basata non sulla profilazione e sull’engagement forzato, ma sulla costruzione di legami reali e condivisi che vengono coltivati anche online.  La filosofia che viene incoraggiata dagli hacker che lo implementano è, infatti, quella di costruire tante comunità fondate su piccoli numeri, in cui le relazioni sono basate sulla fiducia, il rispetto reciproco e la condivisione di valori e principi comuni.  In questo senso, è utile fare riferimento alla distinzione di Ian Bogost tra social network e social media, ripresa in Server ribelli. Il social network è la rete sociale vera e propria, fatta di legami forti e deboli, che riflettono le dinamiche umane fondamentali e che esiste prima, e al di fuori, delle piattaforme digitali. Il social media, al contrario, rappresenta la trasformazione del network in strumento di comunicazione di massa, dove le relazioni non servono più a rafforzare legami ma a spettacolarizzare la vita degli utenti, rendendoli essi stessi prodotti da monetizzare.   È ormai celebre la frase resa popolare da una serie Netflix, secondo cui ‘se qualcosa è gratuito, allora il prodotto sei tu’: un modo diretto per ricordare che nelle piattaforme commerciali non siamo utenti da servire, ma merci da monetizzare attraverso la sorveglianza e la profilazione dei nostri comportamenti.  Recuperare il significato originario di social network significa allora tornare a pensare le reti come comunità di prossimità, federate tra loro, capaci di mantenere senso e qualità nei legami. È esattamente ciò che il Fediverso propone: non l’illusione di una piazza globale uniforme, ma una costellazione di comunità autonome che scelgono di intrecciarsi liberamente, ricostruendo l’infrastruttura digitale a misura delle persone e non dei profitti”. Quali misure e leggi europee sono state utili e dove non sono state abbastanza coraggiose? “Il GDPR, entrato in vigore nel 2018, ha avuto il merito di incrinare la normalità dell’economia della sorveglianza, introducendo principi fondamentali come la minimizzazione dei dati, la portabilità e il diritto all’oblio.  Più recentemente, il Digital Services Act e il Digital Markets Act hanno segnato un ulteriore passo avanti: il primo punta ad aumentare la trasparenza nella moderazione dei contenuti e a garantire l’accesso ai dati per i ricercatori; il secondo mira a contenere gli abusi di posizione dominante delle Big Tech, imponendo per esempio obblighi di interoperabilità e il divieto di pratiche escludenti.  Tuttavia, questi strumenti mostrano anche i loro limiti. La forza economica e legale delle grandi piattaforme consente loro di resistere a lungo ai procedimenti, mentre la rapidità del progresso tecnologico, in particolare nel campo dell’intelligenza artificiale, rischia di superare continuamente la capacità regolatoria.  A questo si aggiungono la lentezza burocratica e, in molti casi, la scarsa volontà politica di applicare le norme con decisione. Senza un enforcement forte e risorse adeguate, il rischio è che queste iniziative restino parziali e non riescano a incidere davvero sul potere dei social media mainstream”. L’impegno degli hacktivisti nel Fediverso può superare la nicchia e innescare una trasformazione della governance di Internet? “Gli hacktivisti, nel libro, non vengono descritti come figure isolate ma come costruttori di comunità e infrastrutture. La loro azione non si limita a denunciare i rischi in termini di erosione della privacy e mercificazione delle identità degli utenti come avviene nei social media commerciali.  Il loro obiettivo è quello di praticare ‘una sorta di riforma dal basso di Internet’ che ne rivoluzioni i principi della governance, ancora sotto il dominio delle piattaforme mainstream. Secondo questa prospettiva, l’azione hacker è prefigurativa: attraverso l’implementazione di tecnologie libere, si anticipa la costruzione di un’altra Internet più democratica e partecipata. Ma il concetto può includere anche la società nel suo complesso, perché ogni laboratorio, server autogestito, archivio digitale, pratica di crittografia o progetto di data activism favorisce questo processo di riforma e trasformazione della Rete.  Per uscire dagli ambienti degli addetti ai lavori, gli attivisti della comunità hacker si impegnano in attività orientate al dialogo con associazioni, reti civiche, scuole, centri sociali, biblioteche e spazi culturali, anche in contesti periferici. Qui organizzano workshop, cablano reti, diffondono tecniche di crittografia, costruiscono hacklab e fablab come spazi di resistenza digitale. Alcuni esempi particolarmente significativi sono i tecno-musei come il Museo Interattivo di Archeologia Informatica (MIAI) di Rende e il Museo dell’Informatica Funzionante (MusIF) di Palazzolo Acreide (qui il link, nda).  Queste esperienze hanno raccolto e preservato centinaia di sistemi hardware e documentazione tecnica, trasformandosi in luoghi di memoria e formazione collettiva, veri e propri presidi di cultura hacker e tecnologia condivisa. Accanto a queste esperienze, si collocano anche le bacheche digitali, nate a partire dal progetto Gancio.org implementata dal collettivo hacker torinese Underscore e replicate in numerosi territori. Non si tratta solo di piattaforme per condividere eventi, ma di veri e propri calendari comunitari, pensati per dare visibilità a iniziative sociali, culturali e politiche dei territori.  La scelta di nomi legati ai dialetti e alle espressioni locali – come avviene nelle bacheche di Bologna, Ravenna, Torino, Catania, in Sardegna o a Cosenza – sottolinea la volontà di radicare la tecnologia nelle culture e nei linguaggi delle comunità. Queste bacheche diventano così strumenti di auto-organizzazione, rafforzano i legami sociali e mostrano come la dimensione digitale possa sostenere le pratiche collettive anziché snaturarle. In questo intreccio di memorie, partecipazione e radicamento territoriale, l’hacktivismo dimostra che la tecnologia può essere piegata a fini conviviali e liberatori. Non è quindi soltanto una questione di server o protocolli: è un progetto politico e culturale che riporta la tecnologia alla portata delle persone, trasformandola in terreno di resistenza e di immaginazione sociale”. Considerando che per la gestione delle istanze del fediverso sono necessarie competenze tecniche e tecnologiche di alto livello, non si corre il rischio di creare un elitarismo interno, un gruppo che si arroga il diritto di prendere le decisioni? Quali meccanismi di inclusione potrebbero mitigare tali asimmetrie cognitive e partecipative? “In Server ribelli il tema dell’asimmetria tra competenze tecniche e partecipazione politica è affrontato in modo diretto. Da un lato, è vero che la gestione di un’istanza del Fediverso richiede skill tecniche di alto profilo, conoscenze di cybersicurezza e tempo da dedicare; ciò potrebbe generare un rischio di elitarismo tecnico, con pochi amministratori in grado di determinare scelte cruciali.  Ma l’esperienza concreta delle comunità hacker italiane mostra come sono stati sviluppati diversi meccanismi per evitare questa deriva.  Innanzitutto, negli hacklab e nei collettivi digitali si pratica costantemente l’autoformazione condivisa: workshop, seminari e momenti di trasmissione dei saperi permettono a chi possiede competenze elevate di condividerle con chi ne ha meno, riequilibrando i ruoli interni e riducendo le disuguaglianze cognitive. Questa pedagogia orizzontale trasforma le abilità tecniche in un bene comune, anziché in una risorsa di potere.  In secondo luogo, le comunità legate al Fediverso adottano in prevalenza il metodo del consenso nelle decisioni. L’81% degli attivisti che ho intervistato, infatti, dichiara che nelle proprie assemblee non viene utilizzato il criterio del voto, ma le decisioni vengono prese deliberando e cercando l’accordo collettivo, così da favorire il dialogo inclusivo ed eliminare gerarchie interne. Solo una minima parte ricorre a votazioni o a modelli più formali.  Questo consente anche ai non-tecnici di incidere sulle scelte politiche delle istanze. Un ulteriore strumento di inclusione è rappresentato da esperienze come Autogestione.social, l’assemblea federata delle istanze italiane. Qui tecnici e non-tecnici partecipano insieme, discutendo policy comuni e manifesti politici, condividendo competenze e sostenendo la nascita di nuove istanze. L’idea è che le piattaforme non debbano essere portate avanti ‘da un manipolo di tecnici che scelgono cosa è meglio’, ma da tutte le persone che le usano quotidianamente. In sintesi, il rischio di elitarismo tecnico esiste, ma può essere contrastato se la comunità si dota di strumenti di condivisione delle conoscenze, deliberazione inclusiva e governance federata.  È questa la vera sfida della decentralizzazione: non solo redistribuire il potere tecnico tra più server, ma costruire pratiche sociali che impediscano a pochi di trasformarsi in una nuova élite”. La minaccia insita nella cosiddetta EEE Strategy (Embrace, Extend, Extinguish), una strategia commerciale che può essere adottata da grandi piattaforme, e che consiste nell’abbracciare uno standard aperto, estenderlo con funzioni proprietarie ed infine estinguere lo standard originale svantaggiando i concorrenti, può estendersi ai principi della defederazione? Con quali strategie può rispondere il fediverso per creare una propria immunità? Nel capitolo conclusivo di Server ribelli si evidenzia chiaramente come la strategia EEE (embrace, extend, extinguish), storicamente usata da Microsoft e oggi potenzialmente applicabile dalle Big Tech al Fediverso, rappresenti una minaccia concreta.  L’interesse di Meta per ActivityPub e l’apertura di Threads alla federazione mostrano il rischio che un attore dominante possa prima ‘abbracciare’ i protocolli aperti, poi modificarli con estensioni proprietarie imponendone così la propria versione, omologando e indebolendo l’ecosistema delle istanze indipendenti.  Se ciò accadesse, i principi di autonomia, orizzontalità e autogestione su cui si fonda il Fediverso sarebbero messi a dura prova.  È legittimo, infatti, temere che Meta e altre corporation possano guardare al Fediverso come a un’infrastruttura da colonizzare o come a una minaccia da neutralizzare, soprattutto perché sottrae utenti al loro modello di business basato sulla sorveglianza e sulla profilazione.  Tuttavia, la risposta non può limitarsi a una difesa tecnica. L’‘immunità’ del Fediverso deve essere insieme tecnica e politica. Da un lato, esiste già la pratica della defederazione, che consente alle istanze di bloccare o silenziare quelle realtà (comprese eventuali piattaforme commerciali) che non rispettano i valori condivisi dalla community. Non a caso, molte istanze italiane hanno già iniziato a defederare Threads per marcare la distanza da un attore percepito come ostile. Dall’altro lato, serve una resistenza politica e culturale, fatta di strategie comuni, assemblee, manifesti e pratiche di cooperazione che ribadiscano la natura comunitaria e anticapitalista del progetto. In questo senso, l’immunità non deriva dall’illusione di poter blindare il Fediverso, ma dalla sua capacità di mantenersi fedele ai principi originari: software libero, autogestione, rifiuto della sorveglianza, orizzontalità delle decisioni. È la combinazione tra strumenti di governance interna (come la defederazione) e la costruzione di una cultura hacker condivisa che può garantire al Fediverso di non farsi inglobare e neutralizzare dalle logiche di mercato”. La pedagogia hacker è, a tuo avviso, un elemento cardine tanto sul piano etico quanto su quello politico. Come questa può uscire dalla propria nicchia e diventare una vera e propria alfabetizzazione digitale appannaggio delle masse? Quali strumenti può usare per raggiungere questo scopo e, ancora prima, le persone vogliono davvero un rapporto emancipato con le tecnologie o si crogiolano nel loro uso funzionale? “La definizione di pedagogia hacker, così come utilizzata da Carlo Milani e ripresa in Server ribelli, va ben oltre la semplice alfabetizzazione digitale intesa come acquisizione di competenze tecniche di base.  È piuttosto un’attitudine collettiva – un approccio educativo libertario – che rende le persone capaci di elaborare critiche e riflessioni sulle tecnologie digitali nell’era del capitalismo delle piattaforme. Ma non solo. È la capacità di immaginare delle alternative, a partire dalla decostruzione delle dinamiche di potere che sono presenti nell’attuale ecosistema digitale.  La pedagogia hacker valorizza il principio della condivisione del sapere, guardando alla tecnologia come ‘bene comune’ valorizzando l’apprendimento condiviso come patrimonio esperienziale collettivo.  In tal senso, è utile citare Steven Levy, autore del famoso saggio Hackers. Gli eroi della rivoluzione informatica del 1984, che a proposito dell’etica hacker, scriveva dell’importanza del libero accesso alle informazioni e della condivisione del sapere come principi fondamentali da seguire.  La pedagogia hacker, dunque, non si limita a insegnare ‘come si usa un software o un computer’, ma propone un modello di formazione che è insieme etico e politico: imparare a disertare la tecnocrazia, rifiutare gerarchie e burocrazie, costruire ambienti di affinità basati sull’autonomia e sui rapporti di cooperazione reciproca.  Questa prospettiva trova applicazione pratica nelle attività organizzate dalle comunità hacker: hacklab, fablab, Hackmeeting, laboratori autogestiti nelle scuole e nelle università.  In questi spazi la conoscenza non è mai patrimonio esclusivo di pochi esperti, ma diventa bene comune: si organizzano workshop sulla crittografia, incontri sui social network alternativi, laboratori di riuso e riparazione di hardware, progetti di alfabetizzazione digitale, alla portata di tutte e tutti. Attraverso questi strumenti, la pedagogia hacker si configura come una pratica di emancipazione collettiva, che non solo trasmette competenze, ma costruisce comunità e consapevolezza politica.  In questo senso, parlare di pedagogia hacker come alfabetizzazione digitale significa parlare il linguaggio dei diritti collettivi – digitali e non – significa parlare il linguaggio della cooperazione e della capacità di immaginare e costruire insieme la società desiderata e desiderabile, nel tempo del qui e ora”.  In che modo la creatività dell’hacktivismo può fare da controcanto alle narrazioni distorte che riguardano gli hacker e, a monte, il ruolo della tecnologia nella società? “La figura dell’hacker tramandata dalle narrazioni dominanti fatte dai media mainstream è stata fuorviante. L’hacker viene spesso rappresentato come un criminale informatico che minaccia la sicurezza collettiva, oppure come un genio solitario – nerd – che le grandi corporation possono sussumere per rafforzare il proprio capitale umano. In entrambi i casi, l’immagine restituita è funzionale al mantenimento dell’ordine esistente: o l’hacker diventa un nemico da reprimere, o una risorsa da inglobare nel mercato.  Queste narrazioni distorte hanno finito per oscurare la dimensione politica e creativa dell’hacktivism – termine che coniuga le pratiche hacker con l’attivismo politico – riducendolo a un problema di sicurezza informatica o a una competenza da monetizzare. La genealogia del termine racconta però una storia molto diversa.  L’hacker nasce come colui che sperimenta, smonta, ricombina, non per distruggere ma per comprendere e reinventare. Nel già citato saggio, Steven Levy descriveva questa figura come ‘un artista del codice’ capace di perseguire l’eleganza tecnica e la libertà di accesso al sapere. L’hacking non è necessariamente soltanto un atto illegale e di pirateria informatica, ma rappresenta un’azione creativa, estetica e politica. Questa prospettiva emerge con forza anche dalle voci raccolte nelle interviste di Server ribelli.  Un membro del collettivo Ippolita definisce l’essere hacker come una tensione, una condizione che non si possiede mai definitivamente ma a cui si tende costantemente: ‘L’hacker è un po’ una tensione, è un avatar. Essere un hacker cosa significa? In realtà è qualcosa a cui tendere, non è qualcosa che sei mai. Veramente un hacker è una dimensione un po’ ideale, come dire che non c’è un momento in cui diventi hacker, è sempre qualcosa che è là a venire!’. In un’altra intervista, la definizione si arricchisce ulteriormente: ‘L’hacking è la trasposizione della curiosità dell’hacker, il desiderio di ricombinare la realtà, eseguire il codice del mondo per fargli fare una cosa diversa, magari inutile, semplicemente per la bellezza di costruire e plasmare la realtà in modo diverso’.  È proprio questa capacità di plasmare la realtà in modi inattesi che rende la creatività ‘hacktivista’ un controcanto potente alle narrazioni distorte. Se i media lo riducono a minaccia o anomalia, l’hacktivismo dimostra invece di essere una pratica sociale e culturale capace di generare alternative: server autogestiti, piattaforme federate, archivi liberi, reti comunitarie, laboratori di alfabetizzazione digitale.  In questi spazi la creatività non è mai fine a sé stessa, ma diventa strumento politico per mostrare che un altro uso della tecnologia è possibile, e che un altro mondo digitale può essere costruito collettivamente. In definitiva, la creatività hacker non si limita a contraddire l’immaginario dominante, ma lo ribalta: non pirati solitari che violano sistemi – almeno, non soltanto – bensì artigiani del digitale, che attraverso ingegno e cooperazione aprono spiragli su futuri diversi. È in questa tensione, continuamente rinnovata, che si trova il vero significato dell’essere hacker. C’è qualcosa che non ti ho chiesto, un aspetto su cui non mi sono soffermata, ma che ritieni importante e utile far sapere ai lettori? C’è un aspetto che spesso non viene messo abbastanza in evidenza: ovvero che la tecnologia non è mai neutra. Ogni piattaforma, ogni protocollo, ogni riga di codice riflette una visione del mondo, un insieme di valori e di priorità.  Non esistono strumenti neutri: i social network commerciali, ad esempio, incorporano logiche economiche e politiche precise – sorveglianza, profilazione, massimizzazione del profitto – che finiscono per orientare i nostri comportamenti e modellare le nostre relazioni.  L’esperienza di Mastodon.bida.im implementata dall’omonimo collettivo hacker bolognese nel 2018, raccontata in Server ribelli, lo mostra con grande chiarezza. Questa istanza del Fediverso non è semplicemente un’alternativa tecnica a Facebook o Twitter, ma un progetto politico e culturale a tutti gli effetti. Le sue regole di funzionamento non si limitano a questioni di moderazione tecnica: dichiarano esplicitamente un orientamento libertario e anarchico, fondato su principi di antirazzismo, antisessismo, antifascismo e rifiuto delle logiche commerciali.  Non è dunque uno spazio ‘neutrale’, ma un luogo che sceglie di prendere posizione. La comunità che gravita attorno a Mastodon.bida.im porta avanti pratiche che superano la dimensione digitale in senso stretto: assemblee collettive, momenti di socialità, processi decisionali orizzontali e forme di mutuo supporto tra utenti e amministratori.  In questo modo, l’istanza diventa un laboratorio sociale, un esperimento politico che mostra come Internet potrebbe essere organizzato diversamente se al centro ci fossero cooperazione e giustizia sociale, anziché profitto e controllo. Raccontare esperienze come quella di Mastodon.bida.im significa dunque ricordare che non stiamo parlando solo di tecnologia, ma di società. Ogni scelta tecnica è anche una scelta politica: può rafforzare meccanismi di dominio oppure aprire spazi di libertà. E il Fediverso, con le sue comunità autogestite, dimostra che è possibile costruire un’infrastruttura digitale che non si limita a ospitare contenuti, ma che aiuta a immaginare e praticare un altro modo di stare insieme online”. L'articolo La resistenza ai social media riparte dal Fediverso e dai server ribelli proviene da Guerre di Rete.
La Cina contro Nvidia
Il 17 settembre il governo cinese ha ordinato alle principali aziende tecnologiche del paese di interrompere l’acquisto e l’uso di chip Nvidia, inclusi l’RTX Pro 6000D e l’H20, due chip progettati appositamente per aggirare le restrizioni imposte dal governo americano all’export di hardware USA avanzato in Cina. Nei giorni immediatamente precedenti, la Cina aveva avviato un’indagine antitrust in merito all’acquisizione di Mellanox: un’azienda israelo-americana, specializzata nell’interconnessione di rete ad alte prestazioni, comprata da Nvidia nel 2020 per oltre 7 miliardi di dollari. L’indagine antitrust segna l’ingresso in una nuova fase della “guerra dei chip”, che ora si estende non solo ai singoli processori ma a tutti i componenti delle infrastrutture di calcolo critiche. La posizione cinese ha ovviamente fatto molto rumore, con il titolo di Nvidia che ha immediatamente subito una flessione e il CEO dell’azienda – Jensen Huang – che si è detto estremamente deluso (“disappointed”) dalla decisione di Pechino. Dal canto suo, come spesso accade, subito dopo aver acceso il fuoco il governo cinese ha indossato i panni del pompiere. Il giorno successivo all’annuncio del veto, il ministero degli Esteri ha assicurato che, in ogni caso, la Cina “intende mantenere il dialogo con tutte le parti”, e non intende “danneggiare le catene globali del valore della micro-elettronica”. Frasi che paiono messaggi in codice inviati ai centri di potere di Washington, in passato accusati proprio di provocare danni sistemici. UN ASSET GEOPOLITICO Da quando le sue GPU sono finite al centro dell’ecosistema hardware legato all’addestramento dell’AI, i ricavi e la capitalizzazione di Nvidia sono aumentati esponenzialmente. I dati dell’ultimo trimestre, comunicati a fine agosto, parlano di 46,7 miliardi di ricavi, per un utile ad azione pari a 1,05 dollari e un valore della singola azione che è decuplicato negli ultimi 5 anni.  In parallelo a questa crescita se ne è però verificata un’altra, di cui i vertici dell’azienda di Santa Clara avrebbero fatto volentieri a meno: un boom di esposizione (geo)politica. Data la centralità di Nvidia nell’ecosistema AI – e data la centralità di questo ecosistema nelle politiche di potenza degli Stati contemporanei – negli ultimi anni Nvidia è diventata uno dei più contesi asset tecnologici del pianeta.  È dal 2022 che l’azienda si trova sotto l’attenzione costante dei doganieri di Washington e che deve fare i conti con la necessità di trovare escamotage (tecnici o politici) ai loro divieti. In particolare durante gli anni di Biden, la Casa Bianca ha inasprito le restrizioni all’export di semiconduttori avanzati verso la Cina, vietando la vendita dei chip più potenti e imponendo licenze anche per le versioni “ridotte” progettate apposta per il mercato cinese. Per Nvidia questo ha significato rivedere continuamente il proprio catalogo: dal chip A100 si è passati a modelli “castrati” come l’A800 e l’H800, fino ad arrivare all’H20, le cui prestazioni rientrano nei limiti imposti dagli Stati Uniti ed è stato pensato appositamente per aggirare le restrizioni. La parabola dell’H20 è particolarmente emblematica. Nato come compromesso per mantenere aperto il mercato cinese pur rispettando i vincoli imposti da Washington, il chip è stato accusato dai media di Pechino di contenere un “kill-switch”, ovvero un meccanismo occulto di disattivazione remota che avrebbe reso vulnerabili le infrastrutture cinesi in caso di conflitto.  Nvidia ha smentito con forza queste insinuazioni, chiarendo che nessuna delle sue GPU include funzioni di spegnimento a distanza o backdoor segrete. Ma il sospetto ha contribuito a erodere ulteriormente la fiducia, offrendo alle autorità cinesi un nuovo appiglio per giustificare le sue misure restrittive. Il caso dell’H20 mostra come, in un’industria estremamente complessa dal punto di vista tecnico (e dunque, per natura, opaco), la percezione conti quanto la realtà: persino in assenza di prove concrete, il timore di vulnerabilità latenti è sufficiente per spostare interi equilibri di mercato. Il dubbio diventa un’arma politica. Nel frattempo, la politica americana ha oscillato tra rigore e pragmatismo. Dopo la stagione Biden, fortemente orientata al contenimento tecnologico di Pechino, l’amministrazione Trump ha riaperto degli spiragli negoziali, concedendo le licenze che hanno effettivamente consentito la vendita proprio di chip come l’H20. Secondo alcune ricostruzioni giornalistiche, il cambio di orientamento sarebbe stato il risultato di un efficace e paziente lavoro di “diplomazia” di Jensen Huang, che ha saputo costruire una relazione personale privilegiata con il presidente degli Stati Uniti.  La realtà – come vi avevamo raccontato anche qui – è che, nonostante gli embarghi e i compromessi, i chip Nvidia hanno continuato a circolare in Cina persino all’apice dei veti bideniani, in alcuni casi attraverso intermediari o triangolazioni con Paesi terzi, aggirando così i divieti formali e confermando quanto sia difficile bloccare del tutto il flusso tecnologico in un mondo di catene di fornitura globalizzate. PERCHÉ IL VETO CINESE E PERCHÉ PROPRIO ORA? Lungi dall’essere puramente ritorsiva, la decisione cinese di colpire Nvidia va letta come parte di un disegno più ampio. Apparentemente drastica, essa risponde a una logica “strutturalista” che mira a riequilibrare il rapporto di dipendenza con i fornitori stranieri. Pechino non intende più accontentarsi di avere accesso a versioni “attenuate” dei chip americani: l’obiettivo adesso è la conquista di un’autonomia tecnologica che abbracci l’intera filiera del calcolo, dai semiconduttori all’infrastruttura, riducendo al minimo i punti di vulnerabilità. È del resto lì che si gioca la sfida della “sovranità tecnologica”, che la leadership cinese ha ormai posto tra le proprie priorità politiche. Ma perché tutto questo avviene proprio ora?  Un indizio si trova nello “strano” tempismo con cui – due giorni dopo l’annuncio del blocco a Nvidia – Huawei ha svelato una roadmap di sviluppo di chip che copre i prossimi tre anni e che, se realizzata nei tempi e nelle modalità annunciate, potrebbe ridisegnare l’intero equilibrio competitivo del settore. La punta di diamante della strategia dell’azienda di Shenzhen è lo sviluppo della linea di chip Ascend, una serie lanciata nel primo trimestre del 2025 con l’Ascend 910 C e che, attraverso una progressione esponenziale dei nodi e delle interconnessioni, punta a quadruplicare la capacità di calcolo da qui al 2027. Sebbene, a oggi, le GPU Nvidia siano ancora considerate superiori per prestazioni e affidabilità, l’uscita allo scoperto di Huawei riflette la consapevolezza, da parte cinese, che la capacità manifatturiera domestica di chip costituisce sempre meno un collo di bottiglia sensibile alla volubilità di Washington. La roadmap di Huawei non è solo un piano industriale, ma un atto politico: un manifesto che intende rassicurare gli alleati interni e spaventare i concorrenti esterni. In questo senso, il veto contro Nvidia diventa una leva utile a concentrare investimenti pubblici e privati sul fronte della produzione nazionale, rafforzando l’idea che la “dipendenza dall’Occidente” non sia più insuperabile.  In altre parole: il veto cinese a Nvidia e l’annuncio di Huawei non vanno letti come episodi isolati, ma come due mosse coordinate di una identica strategia. Un messaggio al mondo – e in particolare, ovviamente, all’inquilino della Casa Bianca – che la Cina non intende più limitarsi a comprare e inseguire, ma vuole innovare e guidare. L'articolo La Cina contro Nvidia proviene da Guerre di Rete.
Che cos’è il Golden Dome, lo scudo spaziale di Donald Trump
Immagine in evidenza da White House.gov, licenza Creative Commons Raggi laser sparati dai satelliti. E altri satelliti “sentinella” a sorvegliare il cielo statunitense, oltre a batterie antimissile in allerta 24 ore su 24. Il Golden Dome Shield – la “Cupola d’oro” di Donald Trump — sarà una rivoluzione per la Difesa a stelle e strisce. E potrebbe anche sancire l’avvio di una nuova Guerra Fredda, questa volta combattuta in orbita. Il faraonico scudo spaziale del presidente degli Stati Uniti sta però dividendo il Paese, con una battaglia su un budget da 175 miliardi di dollari e con una raffica di critiche sull’efficacia militare di questo arsenale che “proteggerà la nostra patria”, come ha detto Trump a metà maggio dagli hangar della Al Udeid Air Base, nel deserto del Qatar. Per poi aggiungere, prima dallo Studio Ovale e poi al vertice Nato dell’Aja, che “avremo il miglior sistema mai costruito”. La Cupola d’oro intercetterà i missili “anche se vengono sparati dall’altra parte del mondo” e persino dallo spazio. Trump mira a realizzare oggi il sogno delle Star Wars di Ronald Reagan negli anni ’80: un “ombrello spaziale” che protegga gli Stati Uniti dalla grande paura di un attacco missilistico sferrato dai suoi nemici: Iran, Corea del Nord, Cina o Russia. Oltre al programma del suo predecessore, la Cupola d’oro ha un’altra fonte di ispirazione: l’Iron Dome, lo scudo di Israele che – nonostante i dubbi sollevati sulla sua reale efficacia – ha intercettato razzi e missili dall’Iran e dalle milizie proxy filo-iraniane. Secondo Jeffrey Lewis, esperto di Difesa del californiano Middlebury Institute, la differenza tra quest’ultimo e la proposta di Trump sarebbe pari a quella tra “un kayak (l’Iron Dome) e una corazzata (Il Golden Dome)”. L’ALLARME DEL PENTAGONO Da anni, il Pentagono sostiene che gli Stati Uniti non abbiano tenuto il passo con gli ultimi missili sviluppati da Cina e Russia, che tradotto vuol dire: sono necessarie nuove contromisure. I generali statunitensi hanno rivelato che Mosca e Pechino possiedono centinaia di missili balistici intercontinentali, oltre a migliaia di missili da crociera in grado di colpire la terraferma da New York a Los Angeles. I sistemi di difesa missilistica a terra statunitensi, in Alaska e in California, hanno fallito quasi la metà dei test. All’inizio dell’anno, un alto ufficiale ha avvertito che – in caso di conflitto, magari legato a un’invasione di Taiwan – i missili cinesi potrebbero colpire la base aerea di Edwards, in California. In un’analisi dettagliata sulla rivista Defense News, gli esperti Chuck de Caro e John Warden hanno spiegato perché la Cupola d’oro non è sufficiente per fermare un attacco cinese contro gli Stati Uniti: “Oggi gli Stati Uniti potrebbero trovarsi in una situazione simile a quella della Corea nell’ottobre 1950: sebbene il presidente Donald Trump stia compiendo sforzi intensi per rafforzare la sicurezza nazionale degli Stati Uniti, con iniziative che vanno dall’F-47 e dal B-21 Raider alla promessa di un sistema di difesa aerospaziale denominato Golden Dome, questi sistemi non sono ancora operativi”. Comunque, proseguono gli analisti, “la Cina ha costantemente aumentato il proprio potere offensivo sotto la guida del presidente Xi Jinping”. GOLDEN DOME: COME FUNZIONA Il Golden Dome Shield, sfruttando una costellazione di centinaia di satelliti e grazie a sensori e intercettori sofisticati, potrebbe neutralizzare i missili nemici in arrivo anche subito dopo il loro decollo e prima che raggiungano gli States. Un esempio? Proviamo a immaginare che un giorno la Cina decida di lanciare un missile contro gli Stati Uniti. Grazie al Golden Dome, i satelliti americani rileverebbero le sue scie luminose. E, mentre il missile sarebbe ancora nella sua fase di “spinta”, uno degli intercettori spaziali sparerebbe un laser, o una munizione alternativa, per far esplodere il missile ed eliminare la minaccia. Il nuovo sistema di difesa si estenderà su terra, mare e spazio. Servirà per neutralizzare un’ampia gamma di minacce aeree “di nuova generazione”, tra cui missili da crociera, balistici e ipersonici. Questi ultimi, in particolare, sono i più difficili da abbattere per la loro manovrabilità ad alta velocità.  Il Golden Dome dovrebbe fermare i missili in tutte e quattro le fasi di un potenziale attacco: rilevamento e distruzione prima di un’offensiva, intercettazione precoce, arresto a metà volo e arresto durante la discesa verso un obiettivo. E lo farà grazie a una flotta di satelliti di sorveglianza e a una rete separata di satelliti d’attacco. La “Cupola d’oro” fermerà anche i sistemi di fractional orbital bombardment (Fob, Sistema di Bombardamento Orbitale Frazionale) in grado sparare testate dallo spazio. IN CAMPO I GIGANTI DELLE ARMI Fiutando un’opportunità di business senza precedenti, i giganti dell’industria militare americana – L3Harris Technologies, Lockheed Martin e RTX Corp – si sono già schierati in prima fila. L3Harris ha investito 150 milioni di dollari nella costruzione di un nuovo stabilimento a Fort Wayne, nell’Indiana, dove produce satelliti per sensori spaziali che fanno parte degli sforzi del Pentagono per rilevare e tracciare le armi ipersoniche. Al 40esimo Space Symposium di Colorado Springs, Lockheed Martin ha invece diffuso un video promozionale che mostra una Cupola d’oro che scherma le strade deserte e notturne delle città americane. Per 25 miliardi di dollari, la Booz Allen Hamilton, società di consulenza tecnologica della Virginia, sostiene di poter lanciare in orbita duemila satelliti per rilevare ed eliminare i missili nemici. Mentre dall’US Space Force, in qualità di vicecapo delle operazioni, il generale Michael A. Guetlein, a cui Trump ha affidato la regia del mega progetto, ha assicurato che il Golden Dome sarà operativo entro la fine del suo mandato nel 2030. Il finanziamento di quest’opera, però, è una sfida enorme. Per ora sul piatto ci sono 25 miliardi di dollari: un settimo della spesa totale ipotizzata. Il governo stima infatti che la Cupola d’oro possa costare fino a 175 miliardi di dollari, una cifra che il Congressional Budget Office punta a far rientrare nel più corposo bilancio da 542 miliardi che gli Stati Uniti intendono spendere in progetti spaziali nei prossimi vent’anni. Un’iniziativa cara come l’oro, dunque. Anche perché Trump, sembra ossessionato dal prezioso metallo (il suo ufficio alla Casa Bianca è stato del resto letteralmente dorato: dalle tende al telecomando della Tv). UOMINI D’ORO E CONFLITTO DI INTERESSE Mentre i colossi della difesa e dello spazio fiutano l’affare, nel resto degli Stati Uniti divampano gli scontri su costi e appalti. Perché a costruire la Cupola d’oro si sono candidati uomini d’oro: in pole position c’è il miliardario Elon Musk, proprietario di SpaceX e della costellazione Starlink, ex braccio destro di Trump prima che la loro liaison finisse, con il magnate che ha lasciato la Casa Bianca sbattendo la porta.  Un voltafaccia che il presidente non ha digerito: sebbene SpaceX rimanga il frontrunner del settore, l’amministrazione USA è a caccia di nuovi partner spaziali da imbarcare nel progetto, a cominciare dal Project Kuiper di Amazon di Jeff Bezos, insieme alle startup Stoke Space e Rocket Lab, mentre la Northrop Grumman sta alla finestra consapevole di poter essere il vincitore nel lungo periodo. Siccome il Golden Dome sarà un concentrato tecnologico, in campo ci sono anche Palantir, società di analisi dei big data del tycoon conservatore Peter Thiel, e Anduril di Palmer Luckey, azienda specializzata in sistemi autonomi avanzati, dall’intelligenza artificiale alla robotica. Intanto un gruppo di 42 membri del partito Democratico ha scritto all’ispettore generale del Pentagono per aprire un’indagine, dopo che si è saputo che SpaceX potrebbe aggiudicarsi un maxi contratto per la costruzione del Golden Dome. Con in testa la senatrice Elizabeth Warren, i democratici chiedono trasparenza ed esprimono timori per possibili “conflitti di interesse” tra l’amministrazione Trump, Musk e le altre aziende americane. LO SCETTICISMO DEI MILITARI Passando dal fronte economico a quello militare, più di un esperto è scettico sull’efficacia del Golden Dome Shield: malgrado Trump continui a dire che frenerà le minacce al 97%, sul progetto aleggia più di un interrogativo. Anzitutto, come saranno gli intercettori? È ancora da decidere. Un dirigente della stessa Lockheed non ha nascosto, parlando con il sito Defense One, che intercettare un missile nella sua fase di spinta è “terribilmente difficile” e che si potrebbe metterlo fuori combattimento solo “nelle fasi relativamente lente dopo il suo lancio”.  Per Thomas Withington, esperto di electronic e cyber warfare del Royal United Services Institute, i raggi laser sono preferibili ai missili, pesano meno e riducono il costo di lancio dell’intercettore. Ma ammette che questa tecnologia non è mai stata testata nello spazio. Un gruppo indipendente dell’American Physical Society ha calcolato che servirebbero 16mila intercettori per mettere fuori uso 10 missili intercontinentali simili all’ipersonico Hwasong-18 nordcoreano. Per questo motivo, su The Spectator, Fabian Hoffmann, ricercatore di tecnologia missilistica del Centre for European Policy Analysis, ha definito il Golden Dome un “progetto mangiasoldi”. UNA NUOVA GUERRA FREDDA Negli Stati Uniti non mancano i perplessi. L’ufficio indipendente del bilancio del Congresso ha avvertito che il progetto potrebbe costare fino a 524 miliardi di dollari e richiedere 20 anni per essere realizzato. Ma i dubbi riguardano anche la validità e utilità dello scudo spaziale. Scienziati come Laura Grego, intervistata dal MIT Technology Review, definiscono il progetto, da sempre,  “tecnicamente irraggiungibile, economicamente insostenibile e strategicamente poco saggio”. E poi ci sono le conseguenze geopolitiche, che potrebbero minare gli equilibri delle superpotenze. La Cina ha già espresso la sua preoccupazione su questo progetto. Il Cremlino è pronto a parlare con Washington di armi tattiche e nucleari. Nel prossimo decennio, il pericolo è che si inneschi una spirale incontrollata, con una corsa agli armamenti anti-satellite per bucare il Golden Dome. Come all’inizio di una nuova Guerra Fredda, è possibile che Trump stia cercando di costringere i suoi nemici a investire in tecnologie costose al fine di indebolirne l’economia, così come le “guerre stellari” di Reagan avevano contribuito a mandare in bancarotta l’Unione Sovietica. Ma c’è anche il rovescio della medaglia: se la prossima amministrazione statunitense decidesse di cancellare il Golden Dome, a quel punto a finire in un buco nero sarebbero decine di miliardi di dollari statunitensi. L'articolo Che cos’è il Golden Dome, lo scudo spaziale di Donald Trump proviene da Guerre di Rete.