Tag - ai act

Il figlio che non muore
Lutto digitale, consenso e la menzogna che paghiamo a rate C’è un’anziana signora di ottant’anni, cardiopatica, che vive in una provincia dello Shandong, in Cina. Ogni giorno squilla il videotelefono. Suo figlio la saluta nel dialetto di casa, le dice che è tutto a posto, che è ancora troppo occupato per tornare, ma che le vuole bene. Lei aspetta. Lui promette. Suo figlio è morto in un incidente stradale all’inizio del 2025. Quello che parla è un clone costruito dall’intelligenza artificiale, commissionato dal nipote a un’azienda che si chiama Superbrain. Centinaia di foto, video, registrazioni audio del padre defunto, elaborate per ricostruirne la voce, il volto, il modo di parlare. Il fondatore dell’azienda, Zanguei, ha spiegato il modello di business con una franchezza che lascia senza parole: deceiving people’s emotion, ingannare le emozioni delle persone. Aggiunge che, in fondo, è quello che fanno dalla mattina alla sera: consolare chi resta. La storia l’ha raccontata il South China Morning Post nell’aprile del 2026, ripresa e analizzata da Matteo Flora nel suo Ciao Internet. Vale la pena fermarsi, perché questa non è una distopia futura. È già adesso. UN’INDUSTRIA, NON UN CASO ISOLATO In Cina esiste da anni una piccola — ma non troppo — industria del lutto digitale, documentata già nel 2024 dall’MIT Technology Review. Aziende come Silicon Intelligence, Superbrain e FushU ricreano voci, volti, conversazioni dei defunti. I prezzi vanno dai cinquanta dollari per un’app di base ai millequattrocento per il pacchetto premium, completo di tablet dedicato. Silicon Intelligence dichiara circa mille clienti attivi. Un’altra piattaforma, su Douyin — il TikTok cinese — ha raggiunto duemila abbonati a sette dollari al mese in pochi mesi, così in fretta che la piattaforma stessa ha dovuto emettere avvisi contro le ricreazioni non autorizzate di persone morte. Non è una stranezza orientale. Nel 2020 Joshua Barbeau, uno scrittore canadese, parlò per dieci ore consecutive con un clone GPT-3 della sua fidanzata morta, finché la storia sul San Francisco Chronicle costrinse OpenAI a restringere l’uso del modello. Nello stesso anno Kanye West regalò a Kim Kardashian un ologramma del padre Robert, morto nel 2003, che pronunciava parole costruite ad arte. Negli Stati Uniti operano già HereAfter AI, StoryFile, Project December: versioni più edulcorate dello stesso servizio. Un paper del maggio 2024 del Centre for the Future of Intelligence di Cambridge, pubblicato su Philosophy & Technology, ha identificato cinque rischi concreti che nessuno sta ancora regolando: * il deadbot che inserisce pubblicità nella voce del defunto; * il digital stalking con notifiche spam al sopravvissuto; * il danno psicologico da interazioni quotidiane troppo intense; * l’impossibilità per i sopravvissuti di spegnere il clone; * la manipolazione di bambini attraverso simulazioni dei genitori morti. Cinque rischi concreti. Zero risposte normative strutturate. LA GABBIA PIENA DI CUSCINI Prima ancora delle questioni giuridiche, c’è una questione umana che vale la pena guardare in faccia. Il lutto ha una funzione biologica e sociale. Gli esseri umani hanno passato centomila anni a ritualizzarlo: le veglie funebri, i riti di sepoltura, le lettere di condoglianze, i racconti sul nonno davanti al camino. Non sono convenzioni sentimentali: sono il modo in cui la specie ha imparato a elaborare la perdita, a integrare l’assenza, a continuare a vivere sapendo che qualcuno non c’è più. Ogni chiamata del clone alla signora di Shandong conferma una possibilità alternativa: il figlio è lontano, non è morto. Il processo di elaborazione viene sospeso indefinitamente. Flora richiama in questo contesto la learned helplessness, l’impotenza appresa teorizzata da Seligman nel 1975: quando il controllo sulla realtà viene sistematicamente sottratto, il soggetto smette di cercare risposte autonome. La tenerezza della famiglia che vuole proteggere la nonna dal dolore si trasforma, senza volerlo, in una gabbia piena di cuscini. C’è poi un secondo livello, più sottile. Un clone costruito per consolare non dirà mai nulla che disturbi. Non farà domande scomode. Non porterà conflitto, né crescita. La macchina premia la versione di chi resta che non deve fare i conti con la perdita, perché è quella versione che continua a pagare l’abbonamento. Il clone del figlio non è un sostituto imperfetto: è un sostituto ottimizzato per non far guarire. CHI HA CHIESTO IL PERMESSO? Arriviamo al punto che più dovrebbe preoccupare chi si occupa di diritto, di etica, di politica. In Italia, la materia è sfiorata dall’articolo 2-terdecies del Codice della Privacy, che riconosce ai familiari alcuni diritti sul trattamento dei dati del defunto. Ma non esiste ancora una cornice specifica per l’addestramento di modelli generativi sulla voce, sul volto, sulla gestualità di una persona morta. Il GDPR non si occupa dei morti. L’AI Act europeo non affronta il tema del consenso post mortem in modo diretto. Il risultato è una lacuna enorme. Chi ha autorizzato la clonazione? Chi detiene i server su cui gira il clone? Cosa succede quando scade l’abbonamento? Chi decide quando spegnere il sistema? Nessun ordinamento giuridico europeo ha una risposta strutturata. LA VERITÀ CONDIVISA COME BENE COMUNE «La verità condivisa è la base della dignità delle persone, anche quando fa male.» Non si tratta di demonizzare ogni forma di lutto digitale. Conservare la voce di una persona amata può essere legittimo. La questione è un’altra: cosa succede quando il clone diventa più presente del morto nella memoria di chi resta? Zanguei dice che il suo lavoro è consolare chi resta. Tecnica­mente è vero. Ma queste tecnologie non sono neutrali: sono progettate per trattenere, non per lasciare andare. L’ultima volta che la signora di Shandong ha sentito davvero la voce di suo figlio, lui era vivo. La prossima volta che crederà di sentirlo, quella voce girerà su un server gestito da un estraneo. Qualcuno parla al posto di suo figlio, a sua madre. E nessuno gli ha chiesto il permesso. South China Morning Post, aprile 2026 https://www.scmp.com/news/people-culture/trending-china/article/3349344/china-family-creates-ai-clone-comfort-elderly-mum-after-only-son-dies-car-accident Matteo Flora, Ciao Internet, ep. 1549, aprile 2026 https://www.youtube.com/watch?v=bUnfFGuo9O4 Centre for the Future of Intelligence, University of Cambridge, “Deadbots and the Right to Rest in Peace”, Philosophy & Technology, maggio 2024 https://link.springer.com/article/10.1007/s13347-024-00761-4 Francesco Russo
April 22, 2026
Pressenza
Quando l’intelligenza artificiale è un adolescente. E nessuno sa ancora come crescerla
Dario Amodei — uno degli uomini che più di chiunque altro ha contribuito a costruire l’intelligenza artificiale così come la conosciamo oggi — ha scritto un saggio che dovrebbe essere letto ben oltre le cerchie tecnologiche. Non perché spieghi come funziona l’AI. Ma perché ammette qualcosa che raramente chi costruisce il futuro è disposto a riconoscere: non sappiamo ancora come governarlo. La tesi di Amodei è racchiusa in una metafora: la tecnologia contemporanea si trova in una fase adolescenziale. Cresce a una velocità straordinaria, sviluppa capacità sempre più potenti, ma le istituzioni che dovrebbero orientarla e contenerla non riescono a starle dietro. Come un adolescente che ha già la forza di un adulto ma non ancora la saggezza per usarla, l’intelligenza artificiale esiste oggi in uno spazio pericolosamente privo di tutele adeguate. Vale la pena fermarsi su questa immagine. Perché non è retorica. È una diagnosi politica. Ogni grande trasformazione tecnologica ha prodotto, prima o poi, un conflitto tra la velocità dell’innovazione e la lentezza delle istituzioni. È accaduto con la rivoluzione industriale, con l’energia nucleare, con internet. In ciascuno di questi casi, il ritardo nella risposta istituzionale ha avuto un costo: incidenti, soprusi, concentrazioni di potere difficili da smantellare in seguito. Con l’intelligenza artificiale, questo ritardo rischia di essere più profondo e più rapido allo stesso tempo. L’AI non è una macchina che fabbrica oggetti. È un sistema che produce decisioni, previsioni, raccomandazioni. Decide chi ottiene un prestito, chi viene segnalato come sospetto, chi vede quale contenuto, quale candidato viene selezionato per un colloquio di lavoro. Agisce, in modo sempre più pervasivo, nei gangli della vita quotidiana delle persone. E lo fa, per lo più, in modo opaco. Senza che i destinatari di quelle decisioni possano capire perché sono state prese, contestarle, chiedere conto a qualcuno. Nel 2024, l’Unione europea ha adottato il primo grande quadro normativo dedicato all’intelligenza artificiale: il Regolamento UE 2024/1689, noto come AI Act. Non è una legge perfetta. Ma è un tentativo serio di costruire strutture istituzionali capaci di accompagnare, e non subire, la trasformazione in corso. L’approccio europeo si fonda su una logica di gradazione del rischio. Alcuni usi dell’intelligenza artificiale sono vietati senza eccezioni: la manipolazione subliminale del comportamento umano, la classificazione sociale delle persone da parte delle autorità pubbliche, il riconoscimento biometrico di massa negli spazi pubblici. Altri usi, quelli che toccano la vita concreta delle persone — la selezione del personale, la valutazione degli studenti, le decisioni in campo sanitario — sono soggetti a requisiti stringenti di trasparenza, controllo umano, responsabilità. È un’architettura che parte da un’idea semplice quanto necessaria: non tutta l’innovazione si equivale, e il grado di scrutinio deve essere proporzionale alla posta in gioco per le persone. Il problema che Amodei solleva non si risolve con una legge, per quanto ben congegnata. Si tratta di qualcosa di più profondo: la capacità collettiva di ragionare su tecnologie che la maggior parte delle persone — incluse quelle che le governano — non comprende davvero. Le decisioni più importanti sull’intelligenza artificiale vengono prese oggi in ambienti tecnici e aziendali che restano largamente estranei alla deliberazione democratica. Chi decide quali valori devono essere codificati nei modelli di AI? Chi stabilisce quali bias sono accettabili e quali no? Chi risponde quando un sistema automatizzato sbaglia e produce danno? Queste non sono domande tecniche. Sono domande politiche. E finché restano confinate nei laboratori e nelle sale riunioni delle grandi aziende tecnologiche, la risposta viene data senza che la società abbia voce. La metafora adolescenziale di Amodei vale anche qui. Un adolescente cresce meglio quando intorno a lui ci sono adulti capaci di accompagnarlo, non di bloccarlo né di abbandonarlo a sé stesso. La governance dell’AI richiede la stessa combinazione: presenza, responsabilità, capacità di ascolto. Non paura del futuro, ma rifiuto della delega incondizionata. C’è un rischio nell’uso della metafora evolutiva applicata alla tecnologia: quello di farci credere che lo sviluppo segua una traiettoria naturale, e che il nostro compito sia solo quello di adattarci. Non è così. Le tecnologie non crescono da sole. Crescono nella direzione che le scelte umane — economiche, politiche, regolative — decidono di dargli. L’AI Act europeo è importante non solo per ciò che prescrive, ma per il messaggio implicito che veicola: le società democratiche hanno il diritto e il dovere di porre condizioni allo sviluppo tecnologico. Non in nome della paura, ma in nome di una visione di futuro in cui la tecnologia serva le persone e non le assoggetti. Che questa visione si affermi o meno dipenderà, nei prossimi anni, da scelte concrete: sulla distribuzione dei benefici dell’automazione, sulla tutela del lavoro, sull’accesso equo alle tecnologie, sulla trasparenza degli algoritmi che già oggi influenzano la vita di milioni di persone. Amodei chiude il suo saggio con un’affermazione che suona quasi come un appello: la sfida più grande non è la tecnologia in sé, ma la nostra capacità di gestirla con saggezza. Ma la saggezza non è una virtù individuale. È il prodotto di processi collettivi, di istituzioni funzionanti, di spazi pubblici in cui le decisioni possano essere discusse, contestate, cambiate. L’adolescenza dell’intelligenza artificiale non finirà da sola. E la qualità dell’età adulta che verrà dipende da chi parteciperà alla sua educazione. La domanda è: la società civile sarà presente a quel tavolo, o lo lasceremo solo ai costruttori? Redazione Napoli
April 15, 2026
Pressenza