Tag - associazione Meter

L’abuso digitale travolge l’infanzia. I dati del Report Meter 2025
TikTok, Telegram, Signal insieme ad aree meno accessibili della rete come il Dark Web rappresentano oggi alcuni dei principali canali di diffusione e scambio di materiale pedopornografico, in un contesto ulteriormente aggravato dall’intelligenza artificiale generativa, in grado di creare immagini e video manipolati e di produrre contenuti deepnude. Il Report 2025 dell’Associazione Meter, presentato di recente a Roma, evidenzia una trasformazione profonda del fenomeno, sempre più caratterizzato dall’uso di tecnologie avanzate e strumenti difficili da intercettare. Nel corso del 2025 sono stati identificati 8.213 minori vittime di deepnude, ovvero immagini generate artificialmente in cui i minori vengono denudati o manipolati digitalmente. Questo dato si aggiunge alle 785.072 immagini e ai 1.733.043 video contenenti abusi reali su minori, segnalati nello stesso periodo. Le immagini deepnude rappresentano una forma particolarmente grave di abuso, perché colpiscono sempre una vittima reale: il minore la cui immagine viene manipolata senza alcun consenso. L’IA trasforma materiale innocuo in contenuto sessuale, con una violazione profonda dell’identità, dignità e sicurezza del minore. Queste pratiche alimentano il mercato pedopornografico e le richieste dei circuiti criminali, esponendo le vittime a conseguenze psicologiche serie, tra cui ansia, senso di colpa, isolamento, paura e ricatto. Oltre al danno individuale, queste pratiche hanno un effetto destabilizzante sulla società, perché normalizzano comportamenti criminali e incoraggiano la diffusione di materiale pedopornografico reale, aumentando la pressione sui sistemi di protezione dell’infanzia. Telegram si conferma la piattaforma maggiormente utilizzata; tra gli strumenti per creare deepnude e deepfake emerge anche Grok, il modello sviluppato da Elon Musk, responsabile della creazione di 1.121 contenuti rilevati, pari al 14% del totale. L’attività di monitoraggio ha consentito di individuare 505 domini nazionali coinvolti nella diffusione di materiale illecito. Tra i Paesi e territori maggiormente interessati figurano la Nuova Zelanda con 177 segnalazioni, il Territorio Britannico dell’Oceano Indiano con 110, il Montenegro e la Russia con 46 ciascuno e gli Stati Uniti con 44. Tra i domini nazionali monitorati da Meter rientra il dominio italiano .IT con 14 segnalazioni effettuate. Sui domini generici sono stati segnalati 1.532 link. Tra questi, individuate 5 macro-cartelle compresse (.RAR) contenenti 4.964 ulteriori archivi, strumenti che permettono di accumulare e distribuire grandi quantità di materiale pedopornografico. L’accesso a questi archivi avviene generalmente previa registrazione e/o pagamento, e ciascun archivio può contenere singoli file o numerosi link che rimandano a ulteriori contenuti illeciti. Il dominio generico più segnalato risulta essere il .COM con 964 casi rilevati, a conferma di come i circuiti di diffusione utilizzino piattaforme centralizzate per rendere più rapida e difficile da intercettare la circolazione di materiale illegale. Parallelamente, si osserva una riduzione del numero di link totali (domini nazionali e generici) segnalati, passati da 8.034 nel 2024 a 2.037 nell’ultimo anno. Un numero in calo non perché il fenomeno sia diminuito, ma perché i pedocriminali utilizzano sempre più link effimeri che cambiano dopo ogni accesso e restano disponibili solo per brevi periodi. L’uso sempre più sofisticato dell’intelligenza artificiale, di bot automatici e di strumenti digitali crittografati ha reso la diffusione di materiale pedopornografico più rapida e difficile da intercettare. L’analisi dei materiali rilevati evidenzia una maggiore concentrazione di contenuti che coinvolgono minori nella fascia d’età compresa tra gli 8 e i 12 anni, con 422.368 foto individuate. Seguono la fascia 3–7 anni, con 360.563 foto, e la fascia 0–2 anni, con 1.972 immagini. Questo dato evidenzia una significativa esposizione dei minori in età scolare primaria. Il medesimo andamento si riscontra anche nei contenuti video, con numeri complessivamente più elevati. Sono stati rilevati 1.337.792 video relativi alla fascia 8–12 anni, 394.417 relativi alla fascia 3–7 anni e 834 relativi alla fascia 0–2 anni. L’elevato numero di video conferma una crescente diffusione di contenuti dinamici, più complessi da individuare e rimuovere e spesso utilizzati per la condivisione e la circolazione in contesti chiusi o criptati. Una ricerca condotta dall’Associazione Meter su un campione di 467 minori tra i 9 e gli 11 anni evidenzia criticità significative legate all’utilizzo della piattaforma di gioco Roblox, frequentata quotidianamente da bambini e adolescenti. Il 70% dei minori coinvolti dichiara di essere stato esposto ad almeno una situazione di rischio durante l’esperienza di gioco. Tra i dati più rilevanti, il 45% degli intervistati riferisce di aver ricevuto tentativi di adescamento da parte di sconosciuti attraverso chat private o profili virtuali, ma solo il 10% dimostra una piena consapevolezza del fenomeno e della sua gravità. Il 50% dei minori dichiara di aver bloccato utenti sconosciuti che richiedevano informazioni personali, spesso per timore di furti di identità o accessi non autorizzati ai propri account, senza tuttavia informare gli adulti di riferimento. Il fenomeno del cyberbullismo risulta altrettanto diffuso: il 35% dei minori afferma di aver subito comportamenti offensivi, minacce o esclusione intenzionale dalle attività di gioco, con conseguenze che possono incidere sul benessere emotivo dei minori. Le attività di monitoraggio evidenziano forme sempre più complesse e diversificate di abuso. Tra queste emerge il fenomeno delle “pedomame”, ovvero donne, madri, che producono materiale pedopornografico. Sono stati documentati 11.240 video e 320 immagini diffusi attraverso piattaforme di messaggistica come Signal, Telegram e Viber. L’Associazione Meter rinnova il proprio appello a istituzioni, organizzazioni, operatori della comunicazione e dell’informazione affinché contribuiscano a portare all’attenzione della collettività un fenomeno grave e diffuso: la pedofilia e lo sfruttamento dei minori. Ogni numero rappresenta una vittima, un bambino o adolescente sopravvissuto agli abusi, un minore che cerca voce e protezione. È fondamentale che tutti, a vario titolo, diventino promotori del benessere dei bambini, diffondendo consapevolezza, strumenti di prevenzione e informazione corretta attraverso enti che realmente operano per la tutela dei minori. Solo attraverso un impegno condiviso tra società civile, giornalisti e istituzioni sarà possibile ridurre il silenzio attorno a questi crimini, offrire supporto alle vittime e contrastare efficacemente ogni forma di abuso. Qui il Report: https://associazionemeter.org/wp-content/uploads/2026/02/report_meter_2025_web.pdf.   Giovanni Caprio
March 2, 2026
Pressenza
Quando l’intelligenza artificiale diventa strumento di abuso
L’Intelligenza artificiale – IA  è la nuova frontiera della pedofilia e pedopornografia: chi abusa si rivolge a chatbot, sistemi che interagiscono online con i minori, con l’obiettivo di avere un contatto più intimo. Non solo: è possibile “spogliare” i bambini (2.967 caduti in questa rete solo nella prima metà del 2025) e farli agire dentro situazioni di abuso grazie al deepfake, le immagini truffa. La denuncia è contenuta nel primo Dossier in assoluto su quest’emergenza, dal titolo “Conoscere per prevenire, dalla pedopornografia ai deepnude”, preparato dall’Associazione Meter ETS fondata e presieduta da don Fortunato Di Noto  (www.associazionemeter.org). Le foto deepfake (e i video) potenziano la produzione e aprono ad una drammatica svolta: la “normalizzazione” dell’abuso perché in fondo sono immagini virtuali, non ci sono vittime fisiche dunque non è un crimine. I deepfake sono video o immagini create utilizzando l’IA per sostituire il volto di una persona con quello di un’altra, spesso in maniera così verosimile da risultare quasi indistinguibile dalla realtà. I deepnude, invece, sono una sottocategoria di deepfake, consistente in immagini manipolate dall’IA con lo scopo di rimuovere gli indumenti di una persona, creando immagini finte e sessualmente esplicite. Ma come si produce questo materiale? “Non mancano online, si legge nel Rapporto, applicazioni e software che permettono di spogliare i bambini o creare situazioni per nulla innocenti, tutto questo partendo da fotografie magari scattate durante momenti di gioco, sport, feste. La macchina virtuale sovrappone ai vestiti un “corpo” modellato pezzo per pezzo, dando pose maliziose alterando il contesto dell’immagine. Le violazioni sono tante, dalla privacy alle manipolazioni delle immagini, provocando un danno alla reputazione del minore.” Lo sviluppo dell’IA ha permesso insomma ai pedofili il massimo risultato col minimo sforzo: mentre prima per adescare un bambino dovevano chattare di persona, adesso è possibile reperire un chatbot, cioè un programma che interagisce con i minori, usa il loro linguaggio al fine di creare una relazione empatica ed indurli allo scambio di materiale intimo. L’obiettivo è far sentire il bambino compreso, accettato, complice. In sostanza l’IA può manipolare i minori sfruttando le loro emozioni e convincendoli che in fondo “non c’è niente di male” a spogliarsi o considerare situazioni che di fatto non sono per nulla accettabili. Non solo, i chatbot cambiano link e canali continuamente, crittografano e distribuiscono in tempi rapidi il materiale. Diventa così quasi impossibile, per le forze dell’ordine, individuarli e bloccare.  L’Associazione Meter, dopo aver monitorato Telegram, Signal e Viber, ha in particolare denunciato Signal, che protegge la privacy delle conversazioni e che i pedofili e adescatori trovano perfetta, visto che la crittografia end-to-end utilizzata dall’app conferma il social come il primo ed estremo baluardo della privacy, impossibilitando qualsiasi azione di contrasto al fenomeno. In questo modo è possibile produrre e smerciare –o anche raccogliere– materiale pedopornografico in maniera pressoché indisturbata. L’Associazione, in collaborazione con il Servizio Nazionale Tutela dei Minori della Conferenza Episcopale Italiana (CEI), ha anche proposto un questionario a 989 studenti degli Istituti secondari di secondo grado, fascia d’età 14-18. Tema delle domande il deepfake e il deepnude. Il 92,2% di essi hanno interagito con un chatbot, e l’81% del campione è convinto che i deepfake possano rovinare la reputazione e la vita di una persona. Il 53,4% conosce il fenomeno deepfake e il 42,3% ha visto qualcosa che l’ha messo a disagio. Il 65,7% degli intervistati conosce il fenomeno deepnude e il 59,4% teme la loro creazione e diffusione, un allarme sempre più preoccupante per i giovani. Peggio ancora: il 52,3% dei giovani non riesce a distinguere un video deepfake da uno reale. Lascia un po’ di speranza sapere che il 90,5% ritiene diffondere un deepfake e deepnude un serio pericolo, che il 65,1% di essi denuncerebbe senza indugio.  “I risultati emersi, si legge nelle conclusioni del Rapporto, evidenziano l’importanza di un equilibrato coinvolgimento della comunità educante e del necessario sviluppo di consapevolezza e di conoscenza per mitigare i rischi. Per comunità educante, nello specifico, intendiamo la scuola e la famiglia. La scuola, infatti, rappresenta per i giovani l’ambiente di socializzazione per eccellenza, dove sviluppare le relazioni con i pari. Pertanto, la scuola deve essere coinvolta nella programmazione dell’educazione all’affettività, al rispetto dell’altro e all’educazione digitale. La famiglia ha invece la responsabilità di fornire tutti quegli elementi di sicurezza digitale attraverso la conoscenza e la partecipazione a corsi formativi educativi e valoriali, al fine di sostenerli e di supervisionare la loro crescita. La comunità è chiamata ad erogare interventi di sensibilizzazione e di formazione per promuovere lo sviluppo delle life skills anche nel mondo digitale, oltre i soft skills, con particolare riferimento all’empatia digitale che consentirà di sviluppare rispetto e contatto empatico anche attraverso i dispositivi. Sono necessari futuri studi longitudinali per individuare le variabili su cui strutturare potenziali percorsi di intervento preventivo e di contrasto di tali fenomeni, di sostegno alle vittime che subiscono gli effetti dell’uso inadeguato della rete e infine la valorizzazione delle potenzialità dell’IA utili alla società”. Qui il Rapporto: https://associazionemeter.org/wp-content/uploads/2025/06/dossier_ai_2025_web.pdf.  Giovanni Caprio
June 25, 2025
Pressenza