Quando l’intelligenza artificiale diventa strumento di abuso
L’Intelligenza artificiale – IA è la nuova frontiera della pedofilia e
pedopornografia: chi abusa si rivolge a chatbot, sistemi che interagiscono
online con i minori, con l’obiettivo di avere un contatto più intimo. Non solo:
è possibile “spogliare” i bambini (2.967 caduti in questa rete solo nella prima
metà del 2025) e farli agire dentro situazioni di abuso grazie al deepfake, le
immagini truffa. La denuncia è contenuta nel primo Dossier in assoluto su
quest’emergenza, dal titolo “Conoscere per prevenire, dalla pedopornografia ai
deepnude”, preparato dall’Associazione Meter ETS fondata e presieduta da don
Fortunato Di Noto (www.associazionemeter.org). Le foto deepfake (e i video)
potenziano la produzione e aprono ad una drammatica svolta: la “normalizzazione”
dell’abuso perché in fondo sono immagini virtuali, non ci sono vittime fisiche
dunque non è un crimine. I deepfake sono video o immagini create utilizzando
l’IA per sostituire il volto di una persona con quello di un’altra, spesso in
maniera così verosimile da risultare quasi indistinguibile dalla realtà. I
deepnude, invece, sono una sottocategoria di deepfake, consistente in immagini
manipolate dall’IA con lo scopo di rimuovere gli indumenti di una persona,
creando immagini finte e sessualmente esplicite.
Ma come si produce questo materiale? “Non mancano online, si legge nel Rapporto,
applicazioni e software che permettono di spogliare i bambini o creare
situazioni per nulla innocenti, tutto questo partendo da fotografie magari
scattate durante momenti di gioco, sport, feste. La macchina virtuale sovrappone
ai vestiti un “corpo” modellato pezzo per pezzo, dando pose maliziose alterando
il contesto dell’immagine. Le violazioni sono tante, dalla privacy alle
manipolazioni delle immagini, provocando un danno alla reputazione del minore.”
Lo sviluppo dell’IA ha permesso insomma ai pedofili il massimo risultato col
minimo sforzo: mentre prima per adescare un bambino dovevano chattare di
persona, adesso è possibile reperire un chatbot, cioè un programma che
interagisce con i minori, usa il loro linguaggio al fine di creare una relazione
empatica ed indurli allo scambio di materiale intimo. L’obiettivo è far sentire
il bambino compreso, accettato, complice. In sostanza l’IA può manipolare i
minori sfruttando le loro emozioni e convincendoli che in fondo “non c’è niente
di male” a spogliarsi o considerare situazioni che di fatto non sono per nulla
accettabili. Non solo, i chatbot cambiano link e canali continuamente,
crittografano e distribuiscono in tempi rapidi il materiale. Diventa così quasi
impossibile, per le forze dell’ordine, individuarli e bloccare.
L’Associazione Meter, dopo aver monitorato Telegram, Signal e Viber, ha in
particolare denunciato Signal, che protegge la privacy delle conversazioni e che
i pedofili e adescatori trovano perfetta, visto che la crittografia end-to-end
utilizzata dall’app conferma il social come il primo ed estremo baluardo della
privacy, impossibilitando qualsiasi azione di contrasto al fenomeno. In questo
modo è possibile produrre e smerciare –o anche raccogliere– materiale
pedopornografico in maniera pressoché indisturbata. L’Associazione, in
collaborazione con il Servizio Nazionale Tutela dei Minori della Conferenza
Episcopale Italiana (CEI), ha anche proposto un questionario a 989 studenti
degli Istituti secondari di secondo grado, fascia d’età 14-18. Tema delle
domande il deepfake e il deepnude. Il 92,2% di essi hanno interagito con un
chatbot, e l’81% del campione è convinto che i deepfake possano rovinare la
reputazione e la vita di una persona. Il 53,4% conosce il fenomeno deepfake e il
42,3% ha visto qualcosa che l’ha messo a disagio. Il 65,7% degli intervistati
conosce il fenomeno deepnude e il 59,4% teme la loro creazione e diffusione, un
allarme sempre più preoccupante per i giovani. Peggio ancora: il 52,3% dei
giovani non riesce a distinguere un video deepfake da uno reale. Lascia un po’
di speranza sapere che il 90,5% ritiene diffondere un deepfake e deepnude un
serio pericolo, che il 65,1% di essi denuncerebbe senza indugio.
“I risultati emersi, si legge nelle conclusioni del Rapporto, evidenziano
l’importanza di un equilibrato coinvolgimento della comunità educante e del
necessario sviluppo di consapevolezza e di conoscenza per mitigare i rischi. Per
comunità educante, nello specifico, intendiamo la scuola e la famiglia. La
scuola, infatti, rappresenta per i giovani l’ambiente di socializzazione per
eccellenza, dove sviluppare le relazioni con i pari. Pertanto, la scuola deve
essere coinvolta nella programmazione dell’educazione all’affettività, al
rispetto dell’altro e all’educazione digitale. La famiglia ha invece la
responsabilità di fornire tutti quegli elementi di sicurezza digitale attraverso
la conoscenza e la partecipazione a corsi formativi educativi e valoriali, al
fine di sostenerli e di supervisionare la loro crescita. La comunità è chiamata
ad erogare interventi di sensibilizzazione e di formazione per promuovere lo
sviluppo delle life skills anche nel mondo digitale, oltre i soft skills, con
particolare riferimento all’empatia digitale che consentirà di sviluppare
rispetto e contatto empatico anche attraverso i dispositivi. Sono necessari
futuri studi longitudinali per individuare le variabili su cui strutturare
potenziali percorsi di intervento preventivo e di contrasto di tali fenomeni, di
sostegno alle vittime che subiscono gli effetti dell’uso inadeguato della rete e
infine la valorizzazione delle potenzialità dell’IA utili alla società”.
Qui il Rapporto:
https://associazionemeter.org/wp-content/uploads/2025/06/dossier_ai_2025_web.pdf.
Giovanni Caprio