Tag - gdpr

Il figlio che non muore
Lutto digitale, consenso e la menzogna che paghiamo a rate C’è un’anziana signora di ottant’anni, cardiopatica, che vive in una provincia dello Shandong, in Cina. Ogni giorno squilla il videotelefono. Suo figlio la saluta nel dialetto di casa, le dice che è tutto a posto, che è ancora troppo occupato per tornare, ma che le vuole bene. Lei aspetta. Lui promette. Suo figlio è morto in un incidente stradale all’inizio del 2025. Quello che parla è un clone costruito dall’intelligenza artificiale, commissionato dal nipote a un’azienda che si chiama Superbrain. Centinaia di foto, video, registrazioni audio del padre defunto, elaborate per ricostruirne la voce, il volto, il modo di parlare. Il fondatore dell’azienda, Zanguei, ha spiegato il modello di business con una franchezza che lascia senza parole: deceiving people’s emotion, ingannare le emozioni delle persone. Aggiunge che, in fondo, è quello che fanno dalla mattina alla sera: consolare chi resta. La storia l’ha raccontata il South China Morning Post nell’aprile del 2026, ripresa e analizzata da Matteo Flora nel suo Ciao Internet. Vale la pena fermarsi, perché questa non è una distopia futura. È già adesso. UN’INDUSTRIA, NON UN CASO ISOLATO In Cina esiste da anni una piccola — ma non troppo — industria del lutto digitale, documentata già nel 2024 dall’MIT Technology Review. Aziende come Silicon Intelligence, Superbrain e FushU ricreano voci, volti, conversazioni dei defunti. I prezzi vanno dai cinquanta dollari per un’app di base ai millequattrocento per il pacchetto premium, completo di tablet dedicato. Silicon Intelligence dichiara circa mille clienti attivi. Un’altra piattaforma, su Douyin — il TikTok cinese — ha raggiunto duemila abbonati a sette dollari al mese in pochi mesi, così in fretta che la piattaforma stessa ha dovuto emettere avvisi contro le ricreazioni non autorizzate di persone morte. Non è una stranezza orientale. Nel 2020 Joshua Barbeau, uno scrittore canadese, parlò per dieci ore consecutive con un clone GPT-3 della sua fidanzata morta, finché la storia sul San Francisco Chronicle costrinse OpenAI a restringere l’uso del modello. Nello stesso anno Kanye West regalò a Kim Kardashian un ologramma del padre Robert, morto nel 2003, che pronunciava parole costruite ad arte. Negli Stati Uniti operano già HereAfter AI, StoryFile, Project December: versioni più edulcorate dello stesso servizio. Un paper del maggio 2024 del Centre for the Future of Intelligence di Cambridge, pubblicato su Philosophy & Technology, ha identificato cinque rischi concreti che nessuno sta ancora regolando: * il deadbot che inserisce pubblicità nella voce del defunto; * il digital stalking con notifiche spam al sopravvissuto; * il danno psicologico da interazioni quotidiane troppo intense; * l’impossibilità per i sopravvissuti di spegnere il clone; * la manipolazione di bambini attraverso simulazioni dei genitori morti. Cinque rischi concreti. Zero risposte normative strutturate. LA GABBIA PIENA DI CUSCINI Prima ancora delle questioni giuridiche, c’è una questione umana che vale la pena guardare in faccia. Il lutto ha una funzione biologica e sociale. Gli esseri umani hanno passato centomila anni a ritualizzarlo: le veglie funebri, i riti di sepoltura, le lettere di condoglianze, i racconti sul nonno davanti al camino. Non sono convenzioni sentimentali: sono il modo in cui la specie ha imparato a elaborare la perdita, a integrare l’assenza, a continuare a vivere sapendo che qualcuno non c’è più. Ogni chiamata del clone alla signora di Shandong conferma una possibilità alternativa: il figlio è lontano, non è morto. Il processo di elaborazione viene sospeso indefinitamente. Flora richiama in questo contesto la learned helplessness, l’impotenza appresa teorizzata da Seligman nel 1975: quando il controllo sulla realtà viene sistematicamente sottratto, il soggetto smette di cercare risposte autonome. La tenerezza della famiglia che vuole proteggere la nonna dal dolore si trasforma, senza volerlo, in una gabbia piena di cuscini. C’è poi un secondo livello, più sottile. Un clone costruito per consolare non dirà mai nulla che disturbi. Non farà domande scomode. Non porterà conflitto, né crescita. La macchina premia la versione di chi resta che non deve fare i conti con la perdita, perché è quella versione che continua a pagare l’abbonamento. Il clone del figlio non è un sostituto imperfetto: è un sostituto ottimizzato per non far guarire. CHI HA CHIESTO IL PERMESSO? Arriviamo al punto che più dovrebbe preoccupare chi si occupa di diritto, di etica, di politica. In Italia, la materia è sfiorata dall’articolo 2-terdecies del Codice della Privacy, che riconosce ai familiari alcuni diritti sul trattamento dei dati del defunto. Ma non esiste ancora una cornice specifica per l’addestramento di modelli generativi sulla voce, sul volto, sulla gestualità di una persona morta. Il GDPR non si occupa dei morti. L’AI Act europeo non affronta il tema del consenso post mortem in modo diretto. Il risultato è una lacuna enorme. Chi ha autorizzato la clonazione? Chi detiene i server su cui gira il clone? Cosa succede quando scade l’abbonamento? Chi decide quando spegnere il sistema? Nessun ordinamento giuridico europeo ha una risposta strutturata. LA VERITÀ CONDIVISA COME BENE COMUNE «La verità condivisa è la base della dignità delle persone, anche quando fa male.» Non si tratta di demonizzare ogni forma di lutto digitale. Conservare la voce di una persona amata può essere legittimo. La questione è un’altra: cosa succede quando il clone diventa più presente del morto nella memoria di chi resta? Zanguei dice che il suo lavoro è consolare chi resta. Tecnica­mente è vero. Ma queste tecnologie non sono neutrali: sono progettate per trattenere, non per lasciare andare. L’ultima volta che la signora di Shandong ha sentito davvero la voce di suo figlio, lui era vivo. La prossima volta che crederà di sentirlo, quella voce girerà su un server gestito da un estraneo. Qualcuno parla al posto di suo figlio, a sua madre. E nessuno gli ha chiesto il permesso. South China Morning Post, aprile 2026 https://www.scmp.com/news/people-culture/trending-china/article/3349344/china-family-creates-ai-clone-comfort-elderly-mum-after-only-son-dies-car-accident Matteo Flora, Ciao Internet, ep. 1549, aprile 2026 https://www.youtube.com/watch?v=bUnfFGuo9O4 Centre for the Future of Intelligence, University of Cambridge, “Deadbots and the Right to Rest in Peace”, Philosophy & Technology, maggio 2024 https://link.springer.com/article/10.1007/s13347-024-00761-4 Francesco Russo
April 22, 2026
Pressenza
Digital Omnibus: il nodo della definizione di dato personale Verso un’austerity dei diritti digitali (e non solo)
Con l’approvazione della direttiva “Omnibus I” il 13 novembre, il parlamento europeo ha dato il via libera al primo “pacchetto” di “semplificazioni”, misure che riducono gli standard di tutela ambientale per le imprese che operano nel mercato unico, voluto dalla commissione von der Leyen.[1] . Nel linguaggio dell’esecutivo UE, “semplificazione” è un eufemismo che nasconde un indebolimento delle tutele per i cittadini, in particolare in tema di protezione dell’ambiente (pacchetto Omnibus I – appena approvato), di uso dei dati nell’economia digitale e di investimenti nella tecnologia militare (rispettivamente i pacchetti Omnibus IV[2] e V[3], in via di approvazione). Questo articolo si concentra sulle norme che riguardano il digitale, cioè l’Omnibus IV e, soprattutto, la proposta di regolamento “Digital Omnibus” pubblicata in versione finale il 19 novembre e che inizia ora l’iter di discussione.[4] Entrambi mirano a “semplificare” le regole sull’uso dei dati personali da parte delle aziende del digitale, in particolare quelle che sviluppano modelli di intelligenza artificiale (IA), con interventi diretti sul testo del Regolamento generale per la protezione dei dati personali (GDPR). Non è un dettaglio irrilevante, come vedremo, che il GDPR abbia trovato estesa applicazione nei confronti dei pochi colossi statunitensi che controllano il mercato digitale europeo. Leggi l'articolo sul sito de Il Forum Disuguaglianze e Diversità o ForumDD leggi l'articolo "Digital Omnibus: il nodo della definizione di dato personale" sul sito Altalex
GDPR Omnibus
CLOUDFLARE Oggi Cloudflare si è rotta e con lei mezzo internet, cogliamo l’occasione per fare l’ennesimo pippone su piracy shield e su come aziende come Cloudfare stanno facendo lobby negli USA per ostacolare questo tipo di leggi che si stanno diffondendo in europa. DI INTELLLLLLIGENZE ARTIFICIALI Delirio illogico che serve ad alimentare una bolla E ANCORA GDPR Dopo che Draghi aveva bastonato la GDPR come retrograda e inibitrice del boom delle AI in EU (https://www.politico.eu/article/mario-dragi-eu-policy-donald-trump-clean-industrial-deal/) arriva la bozza omnibus a modificarne sostanzialmente il contenuto, e una modifica importante riguarda proprio rendere i nostri dati masticabili dalle AI. Secondo la bozza ottenuta del pacchetto Omnibus (che verrà ufficialmente presentato domani) che avrà delle enormi ripercussioni sulla GDPR, in breve:     1) Le aziende potranno usare quelli che prima erano definiti dati sensibili (salute, opinioni politche e religiose etc.) per addestrare le loro AI.     2) I dati pseudoanonimizzati non saranno considerati dati personali.     3) Introduzione di maggiori giustificazioni per il tracciamento online degli utenti via i cookie, che vanno oltre il semplice accettare le policy.     Sempre secondo Politico non ci sarebbe il consenso da parte di tutti i paesi.     La GDPR è stata comunque oggetto di enormi campagne di lobbying da parte delle aziende high-tech, che hanno speso più di qualsiasi altra industria nel finanziare i lobbisti di Bruxells. Questo anche perché sta oggettivamente bloccando il rilascio di alcune soluzioni basate su AI (X, MEta e Linkedin hanno evitato, Google per Bard è sotto inchiesta dal DPA irlandese).
November 23, 2025
Radio Blackout
[Le Dita nella Presa] Nel ventre dell'IA (1/4: Puntata completa)
Intervistiamo Antonio Casilli sul lavoro nascosto e senza diritti che fa funzionare l'Intelligenza Artificiale; di questi temi parleremo meglio Giovedì 20 al Forte Prenestino con la proiezione di In the belly of AI. Segnaliamo alcune iniziative, poi le notiziole: l'Unione Europea attacca il GDPR per favorire le grandi imprese dell'IA; Google censura video che documentano il genocidio in Palestina: quali alternative? Nella lunga intervista con Antonio Casilli, professore ordinario all'Istituto Politecnico di Parigi e cofondatore del DiPLab, abbiamo parlato del rapporto tra Intelligenza Artificiale e lavoro: la quantità di lavoro diminuisce a causa dell'intelligenza artificiale? quali sono i nuovi lavori che crea? come si situano nella società le data workers, ovvero le persone che fanno questi lavori? come è strutturata la divisione (internazionale) del lavoro che fa funzionare l'intelligenza artificiale? è vero che sostituisce il lavoro umano? Per approfondire: * Questi alcuni siti di lavoratori che si organizzano menzionati durante la trasmissione: * https://data-workers.org/ * https://datalabelers.org/  * https://turkopticon.net/  * https://www.alphabetworkersunion.org/ * L'approfondimento di Entropia Massima, sempre con Antonio Casilli * L'approfondimento di StakkaStakka di Luglio 2024, sempre con Antonio Casilli Tra le iniziative: * lo Scanlendario 2026 a sostegno di Gazaweb * 27 Novembre, alle cagne sciolte, presentazione del libro "Server donne" di Marzia Vaccari (Agenzia X, 2025)  
November 16, 2025
Radio Onda Rossa