Il figlio che non muore
Lutto digitale, consenso e la menzogna che paghiamo a rate
C’è un’anziana signora di ottant’anni, cardiopatica, che vive in una provincia
dello Shandong, in Cina. Ogni giorno squilla il videotelefono. Suo figlio la
saluta nel dialetto di casa, le dice che è tutto a posto, che è ancora troppo
occupato per tornare, ma che le vuole bene. Lei aspetta. Lui promette.
Suo figlio è morto in un incidente stradale all’inizio del 2025.
Quello che parla è un clone costruito dall’intelligenza artificiale,
commissionato dal nipote a un’azienda che si chiama Superbrain. Centinaia di
foto, video, registrazioni audio del padre defunto, elaborate per ricostruirne
la voce, il volto, il modo di parlare.
Il fondatore dell’azienda, Zanguei, ha spiegato il modello di business con una
franchezza che lascia senza parole: deceiving people’s emotion, ingannare le
emozioni delle persone. Aggiunge che, in fondo, è quello che fanno dalla mattina
alla sera: consolare chi resta.
La storia l’ha raccontata il South China Morning Post nell’aprile del 2026,
ripresa e analizzata da Matteo Flora nel suo Ciao Internet. Vale la pena
fermarsi, perché questa non è una distopia futura. È già adesso.
UN’INDUSTRIA, NON UN CASO ISOLATO
In Cina esiste da anni una piccola — ma non troppo — industria del lutto
digitale, documentata già nel 2024 dall’MIT Technology Review. Aziende come
Silicon Intelligence, Superbrain e FushU ricreano voci, volti, conversazioni dei
defunti.
I prezzi vanno dai cinquanta dollari per un’app di base ai millequattrocento per
il pacchetto premium, completo di tablet dedicato. Silicon Intelligence dichiara
circa mille clienti attivi. Un’altra piattaforma, su Douyin — il TikTok cinese —
ha raggiunto duemila abbonati a sette dollari al mese in pochi mesi, così in
fretta che la piattaforma stessa ha dovuto emettere avvisi contro le ricreazioni
non autorizzate di persone morte.
Non è una stranezza orientale.
Nel 2020 Joshua Barbeau, uno scrittore canadese, parlò per dieci ore consecutive
con un clone GPT-3 della sua fidanzata morta, finché la storia sul San Francisco
Chronicle costrinse OpenAI a restringere l’uso del modello. Nello stesso anno
Kanye West regalò a Kim Kardashian un ologramma del padre Robert, morto nel
2003, che pronunciava parole costruite ad arte.
Negli Stati Uniti operano già HereAfter AI, StoryFile, Project December:
versioni più edulcorate dello stesso servizio.
Un paper del maggio 2024 del Centre for the Future of Intelligence di Cambridge,
pubblicato su Philosophy & Technology, ha identificato cinque rischi concreti
che nessuno sta ancora regolando:
* il deadbot che inserisce pubblicità nella voce del defunto;
* il digital stalking con notifiche spam al sopravvissuto;
* il danno psicologico da interazioni quotidiane troppo intense;
* l’impossibilità per i sopravvissuti di spegnere il clone;
* la manipolazione di bambini attraverso simulazioni dei genitori morti.
Cinque rischi concreti. Zero risposte normative strutturate.
LA GABBIA PIENA DI CUSCINI
Prima ancora delle questioni giuridiche, c’è una questione umana che vale la
pena guardare in faccia.
Il lutto ha una funzione biologica e sociale. Gli esseri umani hanno passato
centomila anni a ritualizzarlo: le veglie funebri, i riti di sepoltura, le
lettere di condoglianze, i racconti sul nonno davanti al camino.
Non sono convenzioni sentimentali: sono il modo in cui la specie ha imparato a
elaborare la perdita, a integrare l’assenza, a continuare a vivere sapendo che
qualcuno non c’è più.
Ogni chiamata del clone alla signora di Shandong conferma una possibilità
alternativa: il figlio è lontano, non è morto. Il processo di elaborazione viene
sospeso indefinitamente.
Flora richiama in questo contesto la learned helplessness, l’impotenza appresa
teorizzata da Seligman nel 1975: quando il controllo sulla realtà viene
sistematicamente sottratto, il soggetto smette di cercare risposte autonome.
La tenerezza della famiglia che vuole proteggere la nonna dal dolore si
trasforma, senza volerlo, in una gabbia piena di cuscini.
C’è poi un secondo livello, più sottile. Un clone costruito per consolare non
dirà mai nulla che disturbi. Non farà domande scomode. Non porterà conflitto, né
crescita.
La macchina premia la versione di chi resta che non deve fare i conti con la
perdita, perché è quella versione che continua a pagare l’abbonamento.
Il clone del figlio non è un sostituto imperfetto: è un sostituto ottimizzato
per non far guarire.
CHI HA CHIESTO IL PERMESSO?
Arriviamo al punto che più dovrebbe preoccupare chi si occupa di diritto, di
etica, di politica.
In Italia, la materia è sfiorata dall’articolo 2-terdecies del Codice della
Privacy, che riconosce ai familiari alcuni diritti sul trattamento dei dati del
defunto.
Ma non esiste ancora una cornice specifica per l’addestramento di modelli
generativi sulla voce, sul volto, sulla gestualità di una persona morta.
Il GDPR non si occupa dei morti. L’AI Act europeo non affronta il tema del
consenso post mortem in modo diretto.
Il risultato è una lacuna enorme.
Chi ha autorizzato la clonazione?
Chi detiene i server su cui gira il clone?
Cosa succede quando scade l’abbonamento?
Chi decide quando spegnere il sistema?
Nessun ordinamento giuridico europeo ha una risposta strutturata.
LA VERITÀ CONDIVISA COME BENE COMUNE
«La verità condivisa è la base della dignità delle persone, anche quando fa
male.»
Non si tratta di demonizzare ogni forma di lutto digitale. Conservare la voce di
una persona amata può essere legittimo.
La questione è un’altra: cosa succede quando il clone diventa più presente del
morto nella memoria di chi resta?
Zanguei dice che il suo lavoro è consolare chi resta. Tecnicamente è vero.
Ma queste tecnologie non sono neutrali: sono progettate per trattenere, non per
lasciare andare.
L’ultima volta che la signora di Shandong ha sentito davvero la voce di suo
figlio, lui era vivo.
La prossima volta che crederà di sentirlo, quella voce girerà su un server
gestito da un estraneo.
Qualcuno parla al posto di suo figlio, a sua madre.
E nessuno gli ha chiesto il permesso.
South China Morning Post, aprile 2026
https://www.scmp.com/news/people-culture/trending-china/article/3349344/china-family-creates-ai-clone-comfort-elderly-mum-after-only-son-dies-car-accident
Matteo Flora, Ciao Internet, ep. 1549, aprile 2026
https://www.youtube.com/watch?v=bUnfFGuo9O4
Centre for the Future of Intelligence, University of Cambridge,
“Deadbots and the Right to Rest in Peace”, Philosophy & Technology, maggio 2024
https://link.springer.com/article/10.1007/s13347-024-00761-4
Francesco Russo