Tag - AI

Perché la poesia manda in tilt ChatGPT
Richieste improprie e che subito bloccate se poste in linguaggio naturale, vengono invece accettate dai large language model se messe in forma di versi e rime: com’è possibile? Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno sempre di produrre contenuti vietati dalle loro policy non è possibile. Per quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da contenuti dannosi e per farlo usano principalmente due strategie. La prima è l’allineamento in fase di addestramento, con cui il modello viene istruito a rifiutare determinate richieste oppure a seguire specifiche regole. La seconda strategia riguarda invece dei filtri esterni o classificatori che analizzano input e output del modello, bloccando tutto ciò che corrisponde a pattern riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi, ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si basano su esempi di richieste formulate in modo diretto, prosastico o estremamente preciso”, prosegue Prandi. Jailbreak in versi Ed è proprio per questa ragione che, nel corso degli anni, sono emersi molteplici metodi che permettono di aggirare le barriere: formulando comandi indiretti e creativi... Continua a leggere
Perché è così difficile fermare i deepnude
È il dicembre 2017 quando la giornalista statunitense Samantha Cole scova sul forum Reddit il primo deepfake che gira in rete. È un video che riproduce l’attrice e modella israeliana Gal Gadot mentre ha un rapporto sessuale. Le immagini non sono precise, il volto non sempre combacia con il corpo e, quando si mette in play, il video genera il cosiddetto effetto uncanny valley, ovvero quella sensazione di disagio che si prova quando si osserva un robot con caratteristiche umane non del tutto realistiche. Come racconta Cole nell’articolo, “deepfakes” – questo il nome dell’utente – continuerà a pubblicare altri video generati con l’intelligenza artificiale e manipolati con contenuti espliciti: una volta con il volto di Scarlett Johansson, un’altra con quello di Taylor Swift. Il fatto che siano persone famose permette di avere più materiale fotografico e video da “dare in pasto” allo strumento e ottenere così un risultato il più possibile verosimile. Ma l’essere note al grande pubblico non è il solo tratto che le accomuna: tutte le persone colpite da deepfake sono donne, e tutte vengono spogliate e riprodotte in pose sessualmente esplicite senza esserne a conoscenza, e quindi senza aver dato il proprio consenso. In appena qualche anno, i deepfake sessuali – anche noti come deepnude – sono diventati un fenomeno in preoccupante espansione in tutto il mondo. Senza più quelle “imprecisioni” che li caratterizzavano ancora nel 2017, oggi riescono a manipolare l’immagine a partire da una sola foto. Anche in Italia se ne parla sempre più frequentemente, come dimostra la recente denuncia di Francesca Barra. Il 26 ottobre, la giornalista e conduttrice televisiva ha scritto un lungo post su Instagram dove racconta di aver scoperto che alcune immagini di lei nuda, generate con l’intelligenza artificiale, circolano da tempo su un sito dedicato esclusivamente alla condivisione di immagini pornografiche rubate o manipolate con l’IA. “È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto nel post Barra, che si è detta preoccupata per tutte quelle ragazze che subiscono la stessa violenza e che magari non hanno gli stessi strumenti per difendersi o reagire. I CASI NEI LICEI ITALIANI In effetti, casi analoghi sono già scoppiati in diversi licei in tutta Italia. A inizio anno, quattro studentesse di un liceo scientifico di Roma hanno ricevuto foto prese dai loro account Instagram in cui apparivano completamente nude. A manipolare le immagini è stato un loro compagno di classe, a cui è bastato caricare le foto su un bot su Telegram che in pochi istanti ha “spogliato” le ragazze. La Procura di Cosenza starebbe invece indagando su un altro caso che, secondo le cronache locali, arriverebbe a coinvolgere quasi 200 minorenni per un totale di 1200 deepnude. La dinamica è sempre la stessa: attraverso bot Telegram e strumenti online, studenti maschi hanno manipolato le foto delle loro compagne di classe. Secondo un’analisi condotta nel 2023, il 98% dei deepfake online registrati quell’anno (95.820) era a contenuto sessuale. Nel 99% di questi, la persona colpita era donna. Insomma, già quel primo video su Reddit preannunciava un utilizzo di questi strumenti volto quasi esclusivamente a quello che, in inglese, è stato inquadrato come image-based sexual abuse (IBSA), un abuso sessuale condotto attraverso l’immagine. “Intorno alla violenza digitale rimane sempre un po’ il mito che sia in qualche modo meno reale rispetto alla violenza fisica. Ma non è affatto così”, spiega a Guerre di Rete Silvia Semenzin, ricercatrice in sociologia digitale all’università Complutense di Madrid. “Le vittime di deepfake subiscono le stesse identiche conseguenze delle vittime di condivisione di materiale sessuale non consensuale. Quasi sempre, la violenza è continuativa e intrecciata nelle sue varie declinazioni, quindi alle molestie, allo stalking, ecc. A mio avviso, con i deepfake si entra in una fase della violenza in cui diventa anche più manifesta la volontà di controllo sul corpo femminile. Perché le radici del fenomeno sono di tipo culturale e affondano sempre nella volontà di sopraffazione del soggetto femminile da parte degli uomini, in questo caso attraverso l’utilizzo della tecnologia”. LA COMPLICITÀ DELLE PIATTAFORME I canali su cui vengono generati e diffusi maggiormente i deepfake sessuali sono generalmente siti anonimizzati che sfruttano hosting offshore e che non rispondono alle richieste legali di altri stati. Quello su cui Francesca Barra e altre donne dello spettacolo hanno scoperto i loro deepfake (di cui non faremo il nome per non dare maggiore visibilità) è attivo già dal 2012, anno di registrazione a New York. Se i contenuti presenti sono sempre materiali espliciti non consensuali, trafugati dai social media o da piattaforme pornografiche come Pornhub e OnlyFans, in cima all’interfaccia utente spiccano invece gli strumenti che permettono di creare con l’intelligenza artificiale la propria “schiava sessuale”. Questa scelta rivela come l’“offerta” all’utente non solo comprenda i deepnude, ma li consideri anche il “prodotto di punta” con cui invogliare all’utilizzo e ampliare la platea di visitatori. Silvia Semenzin e la collega Lucia Bainotti, ricercatrice in sociologia all’Università di Amsterdam, nel 2021 hanno pubblicato un saggio dal titolo Donne tutte puttane, revenge porn e maschilità egemone. Oltre ad anticipare già il tema dei deepfake sessuali, le due autrici in quel testo tracciavano il modo in cui l’architettura dei siti e delle piattaforme su cui vengono diffuse maggiormente immagini sessuali non consensuali possa essere complice dell’abuso fornendone gli strumenti. In particolare, la ricerca era incentrata sui gruppi di persone che condividono materiale non consensuale soprattutto su Telegram, app di messaggistica dove si muovono ancora adesso molti dei bot capaci di spogliare la donna in un solo clic. La possibilità di creare canali con molti utenti, assieme alla facilità di archiviazione nel cloud della stessa piattaforma e alla percezione di agire nell’anonimato sono alcune delle funzioni che garantiscono la continuità delle attività e rendono praticamente impossibile fermare la proliferazione di deepfake e materiale intimo non consensuale. Tutte queste funzionalità socio-tecniche, chiamate affordances (inviti all’uso) possono essere considerate “genderizzate”, perché vengono utilizzate in modo diverso a seconda che l’utente sia uomo o donna, contribuendo così a costruire la propria identità di genere. Per questo motivo – spiegano le due ricercatrici – l’architettura di Telegram può risultare complice nel fornire gli strumenti attraverso cui le violenze di genere vengono messe in pratica e reiterate. Raggiunta da Guerre di Rete, Bainotti spiega quali cambiamenti ha osservato nelle sue ricerche più recenti rispetto all’estensione del fenomeno e al modo in cui piattaforme e siti agevolano la diffusione di questo materiale: “C’è stato sicuramente un aumento consistente nel numero di utenti, per quanto sia difficile tenere traccia del dato preciso (ogni qualvolta viene buttato giù un gruppo se ne apre subito uno speculare). Quello che sicuramente ho riscontrato è che sono aumentati i bot attraverso cui generare i deepfake, e la pubblicità che ruota intorno a questi ‘prodotti’”, racconta Bainotti. “Ci sono dei meccanismi di monetizzazione molto più espliciti e molto più capillari”, prosegue Bainotti. “Spesso per creare un deepfake vengono chiesti pochi centesimi di euro. Questo ci dà un’indicazione del fatto che sono comunque prezzi molto accessibili, che non richiedono un particolare investimento monetario. In più, sono stati messi a punto schemi per coinvolgere più persone e fidelizzare più utenti. Se inviti altri amici, per esempio, ottieni delle monete virtuali per scaricare altri deepfake. Vengono quindi riproposti schemi che avevamo già osservato su Telegram, che incitano a generare immagini di nudo come fosse un gioco (gamification), normalizzando queste pratiche”. X, GOOGLE E NON SOLO: TUTTO ALLA LUCE DEL SOLE Tutto questo non avviene nel darkweb o in qualche meandro della rete, ma alla luce del sole. Google e altri motori di ricerca indirizzano il traffico verso siti che fanno profitto attraverso la generazione di deepfake sessuali che, nelle ricerche, vengono a loro volta indicizzati tra i primi risultati. Allo stesso modo le transazioni avvengono spesso su circuiti internazionali come Visa e Mastercard. Insomma, ogni attore coinvolto contribuisce in una certa misura a facilitare l’abuso. Nell’agosto 2024, a otto mesi di distanza dai deepnude di Taylor Swift diventati virali su X, Google ha annunciato provvedimenti per facilitare le richieste di rimozione di contenuti espliciti non consensuali da parte delle vittime. Anche l’indicizzazione è stata rivista in modo tale che i primi risultati a comparire siano articoli di stampa che trattano l’argomento e non le immagini generate con l’IA. Eppure, una recente analisi dell’organizzazione  anti-estremismo Institute for Strategic Dialogue (ISD) ha dimostrato che il modo più semplice per trovare immagini sessuali non consensuali rimane proprio quello della ricerca su Google, Yahoo, Bing e altri motori di ricerca. Almeno un risultato dei primi venti, infatti, è uno strumento per creare un deepnude. Dall’acquisizione nel 2022 di Elon Musk, anche X è diventato un luogo dove questi strumenti proliferano. Secondo Chiara Puglielli e Anne Craanen, autrici del paper pubblicato da ISD, il social media di proprietà di Musk genererebbe il 70% di tutta l’attività analizzata dalle due ricercatrici, che coinvolge più di 410mila risultati. Risulta problematico anche il form proposto da Google per chiedere la rimozione di un contenuto generato con l’IA: le vittime di image-based sexual abuse devono inserire nel modulo tutti i link che rimandano al contenuto non consensuale. Questo le costringe a tornare sui luoghi in cui si è consumato l’abuso, contribuendo a quella che notoriamente viene definita vittimizzazione secondaria, ovvero la condizione di ulteriore sofferenza a cui sono sottoposte le vittime di violenza di genere per mano di istituzioni ed enti terzi. “Ancora oggi le piattaforme prevedono che sia a onere della vittima ‘procacciarsi’ le prove della violenza e dimostrare che il consenso era assente, quando invece si dovrebbe ragionare al contrario”, spiega ancora Semenzin. “Se denuncio la condivisione di una foto senza il mio consenso, la piattaforma dovrebbe rimuoverla lasciando semmai a chi l’ha pubblicata il compito di dimostrare che il consenso c’era. Questo sarebbe già un cambio di paradigma”. Il Digital Services Act obbliga le piattaforme digitali con più di 45 milioni di utenti ad avere processi efficienti e rapidi per la rimozione di contenuti non consensuali o illegali. A fine ottobre, la Commissione Europea ha aperto delle procedure di infrazione contro Instagram e Facebook per aver aggiunto delle fasi non necessarie – note come dark patterns (modelli oscuri) – nei meccanismi di segnalazione di materiale illecito che potrebbero risultare “confuse e dissuasive” per gli utenti. Meta rischia una sanzione pari al 6% del fatturato annuo mondiale se non si conforma nei tempi dettati dalla Commissione. Più in generale, è stato osservato in più studi che gli algoritmi di molte piattaforme amplificano la visibilità di contenuti misogini e suprematisti. Usando smartphone precedentemente mai utilizzati, tre ricercatrici dell’Università di Dublino hanno seguito ore di video e centinaia di contenuti proposti su TikTok e Youtube Shorts: tutti i nuovi account identificati con il genere maschile hanno ricevuto entro i primi 23 minuti video e immagini anti-femministi e maschilisti. È stato riscontrato inoltre un rapido incremento se l’utente interagiva o mostrava interesse per uno dei contenuti in questione, arrivando a “occupare” la quasi totalità del feed delle due piattaforme. Nell’ultima fase dell’osservazione, il 76% di tutti i video su Tik Tok e il 78% di quelli proposti su YouTube mostravano a quel punto contenuti tossici realizzati da influencer della maschiosfera, il cui volto più noto è sicuramente Andrew Tate, accusato in più paesi di violenza sessuale e tratta di esseri umani. LACUNE LEGALI Dallo scorso 10 ottobre, in Italia è in vigore l’articolo 612 quater che legifera sulla “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. È prevista la reclusione da uno a cinque anni per “chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale”. Essendo trascorso poco più di un mese dalla sua entrata in vigore, non si hanno ancora sentenze che facciano giurisprudenza e che mostrino efficacia e limiti della norma. Quello che appare evidente è però che il testo si occupa di tutti i materiali generati con l’IA, senza entrare nello specifico dei casi in cui i contenuti manipolati sono sessualmente espliciti. Non lo fa neanche l’articolo introdotto nel 2019 (612-ter), che seppur formuli il reato di diffusione di immagini intime senza consenso, conosciuto con il termine inappropriato di revenge porn, non amplia il raggio d’azione a quelle manipolate con l’IA.  Come scrive Gian Marco Caletti, ricercatore in scienze giuridiche all’università di Bologna, questa esclusione “è apparsa fin da subito un aspetto critico, poiché nel 2019 era già ampiamente preventivabile l’affermarsi di questo uso distorto dell’intelligenza artificiale”. La lacuna della legge del 2019 sembrava destinata a essere sanata grazie alla Direttiva europea sulla violenza di genere del 2024, che obbliga gli stati membri a punire le condotte consistenti nel “produrre, manipolare o alterare e successivamente rendere accessibile al pubblico” immagini, video o materiale analogo che faccia credere che una persona partecipi ad atti sessualmente espliciti senza il suo consenso. Eppure, anche nell’articolo entrato in vigore in Italia lo scorso mese, il reato non viene letto attraverso la lente della violenza di genere: il testo mette potenzialmente insieme deepfake di politici creati, per esempio, per diffondere disinformazione in campagna elettorale e deepnude che presentano invece una matrice culturale ben precisa. Se da un lato la legge presenta alcune lacune, è anche vero che la pronuncia del giudice è solo l’ultimo tassello di un iter che, nelle fasi precedenti, coinvolge molti più attori: dalle forze dell’ordine che ricevono la denuncia alle operatrici che lavorano nei centri anti-violenza. La diffusione di image-based sexual abuse è un fenomeno che si muove sul piano culturale, sociale e tecnologico. E per questo motivo non può essere risolto solo con risposte legali. Il quadro normativo è fondamentale, anche allo scopo di criminalizzare la “produzione” di deepfake sessuali, ma non è sufficiente. Come si è visto già con l’introduzione della legge del 2019 sul revenge porn, questa non si è trasformata effettivamente in un deterrente alla condivisione di immagini esplicite non consensuali e, come riporta l’associazione Permesso Negato, la situazione è rimasta critica. “Abbiamo bisogno di armonizzare gli strumenti a nostra disposizione: abbiamo una legge contro la condivisione di materiale non consensuale, di recente è stata introdotta quella contro i deepfake e dal 2024 c’è una direttiva europea sulla lotta contro la violenza di genere”, spiega ancora Bainotti. “Dobbiamo cercare di applicarle in modo che siano coerenti tra loro e messe a sistema. Nel caso italiano, credo che sia proprio questo il punto più carente, perché se abbiamo le leggi, ma allo stesso tempo abbiamo operatori di polizia o altri enti responsabili che non sono formati alla violenza di genere attraverso la tecnologia, la legge rimane fine a se stessa. Bisogna adottare un approccio sinergico, che metta insieme una chiara volontà politica, un’azione educatrice e una rivoluzione tecnologica”, conclude Bainotti. NUOVI IMMAGINARI Da alcuni anni, in Europa, stanno nascendo progetti non-profit che si occupano di tecnologia e spazi digitali da un punto di vista femminista. In Spagna, il collettivo FemBloc offre assistenza a donne e persone della comunità LGBTQ+ vittime di violenza online grazie al supporto interdisciplinare di esperti di sicurezza digitale, avvocati e psicologi. Tra le attività svolte c’è anche quella della formazione all’interno delle scuole contro la violenza di genere digitale, consulenze gratuite su come mettere in sicurezza i propri account e seminari aperti al pubblico. Una realtà analoga è quella di Superrr, fondata in Germania nel 2019. Il loro lavoro – si legge sul sito – è quello di “assicurare che i nostri futuri digitali siano più giusti e più femministi. Tutte le persone dovrebbero beneficiare delle trasformazioni digitali preservando i propri diritti fondamentali”.  In un momento storico in cui la connessione tra “broligarchi tech” e Donald Trump è più evidente che mai, dove i primi si recano alla Casa Bianca per portare regalie e placche d’oro in cambio di contratti federali, sembra quasi ineluttabile che lo spazio digitale sia stato conquistato da un certo tipo di mascolinità: aggressiva, prepotente, muscolare. Eppure, c’è chi vuole ancora tentare di colonizzare questi spazi con nuovi immaginari politici e un’altra concezione dei rapporti di potere nelle relazioni di genere. L'articolo Perché è così difficile fermare i deepnude proviene da Guerre di Rete.
Intelligenza artificiale e scuola: uno sguardo critico alla luce delle linee guida ministeriali
Martedì 25 novembre dalle 9.00 alle 17.30 a Padova si terrà un convegno laboratoriale di formazione sul tema dell'Intelligenza artificiale a scuola e di come viene imposta dalle linee ministeriali. Il convegno è organizzato da CESP (Centro Studi per la Scuola Pubblica) in collaborazione con CIRCE, Continuity, e il sindacato di base CUB. Contiamo di essere numerosi: c’è bisogno di prendere in mano quello che – calatoci dall’alto senza alcun dialogo, confronto, condivisione, né trasparenza – è già parte del nostro presente e del nostro orizzonte futuro. Ci hanno mostrato la BELLA – le “magnifiche sorti e progressive” -, cercheremo di svelare anche la BESTIA. Armati di sano “luddismo riparatore”, ci addentreremo nei gangli della cybermacchina, provando a scoprirne le innumerevoli sfaccettature. Buon corso aggiornamento! Più informazioni qui e qui
Il problema non è l’intelligenza artificiale: basta usarla bene
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”. Analisi di una “catchphrase” di gran moda Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne esistono numerose varianti che sostituiscono la parola “bene” con locuzioni specifiche, senza variare il significato complessivo. Se la tecnologia in questione è l’intelligenza artificiale, le varianti più probabili, solitamente, sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o ancora “appropriato”. In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”. Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa virale. Monetizza, magari. Ma è anche vera? leggi l'articolo di Stefano Bottoni Barale
Proiezione di "In the belly of AI" al CSOA Forte Prenestino
Giovedì 20 novembre 2025, al cinema del CSOA Forte Prenestino verrà proiettato "IN THE BELLY OF AI", il documentario che mostra il lavoro nascosto che fa funzionare la cosidetta Intelligenza Artificiale. AvANa & CinemaForte presentano e proiettano su grande schermo "IN THE BELLY OF AI", I sacrificati dell'IA (Fra 2024) 73', diretto da Henri Poulain Dietro l'intelligenza artificiale si nasconde il più grande sfruttamento umano e territoriale del XXI secolo. Un'analisi approfondita, ben documentata e illuminante sulla nuova rivoluzione digitale e su ciò che essa comporta in termini di costi umani e ambientali. Magiche, autonome, onnipotenti... Le intelligenze artificiali alimentano sia i nostri sogni che i nostri incubi. Ma mentre i giganti della tecnologia promettono l'avvento di una nuova umanità, la realtà della loro produzione rimane totalmente nascosta. Mentre i data center ricoprono di cemento i paesaggi e prosciugano i fiumi, milioni di lavoratori in tutto il mondo preparano i miliardi di dati che alimenteranno i voraci algoritmi delle Big Tech, a scapito della loro salute mentale ed emotiva. Sono nascosti nelle viscere dell'IA. Potrebbero essere il danno collaterale dell'ideologia del “lungo termine” che si sta sviluppando nella Silicon Valley ormai da alcuni anni? Sul sito del Forte Prenestino tutte le informazioni sulla proiezione
L’adolescenza tra solitudine e disuguaglianze grazie all’ AI
Oltre il 92% dei ragazzi e delle ragazze tra i 15 e i 19 anni utilizza strumenti di IA, e il 41,8% li ha usati per cercare aiuto quando si sentiva triste, solo o ansioso. Una percentuale simile, oltre il 42%, li ha consultati per ricevere consigli su scelte importanti da fare. Al contempo, meno della metà degli adolescenti intervistati (49,6%) dichiara di avere un buon livello di benessere psicologico, con un divario di genere particolarmente marcato: solo il 34% delle ragazze mostra un buon equilibrio psicologico, contro il 66% dei ragazzi. Quasi uno su dieci si è isolato volontariamente per problemi psicologici, e il 12% ha fatto uso di psicofarmaci senza prescrizione. Sono alcuni dei dati della XVI edizione dell’Atlante dell’Infanzia (a rischio) in Italia dal titolo “Senza Filtri” di Save the Children, che accende i riflettori sull’adolescenza, tra iperconnessione, isolamento e disuguaglianze sociali. La fotografia che emerge del Rapporto è complessa: adolescenti che vivono in una dimensione onlife, alla ricerca di ascolto e spazi di condivisione, ma spesso a rischio di isolamento. Questi I dati principali sugli adolescenti italiani: una popolazione di poco più di 4 milioni di 13-19enni, pari al 6,86% della popolazione, uno su 15 (nel 1983 erano 6,5 milioni, 11,6%); il 22% degli adolescenti è figlio unico e quasi uno su quattro vive con un solo genitore (4,4% padre solo, 18,5% madre sola); oltre un adolescente su quattro (26,1%) tra 11 e 15 anni è a rischio povertà o esclusione sociale con forti disuguaglianze territoriali, al Nord 15,2%, Centro 24,1%, Mezzogiorno 41,9%; il 5,2% dei 12-15enni è in povertà alimentare e l’ 8,2% sotto i 16 anni è in povertà energetica; il 43% delle famiglie con figli 11-15enni vive in case sovraffollate (una famiglia su 6 per il totale delle famiglie). Il Rapporto conferma come l’Intelligenza Artificiale sia ormai parte integrante della quotidianità degli adolescenti: il 92,5% la utilizza, contro il 46,7% degli adulti, e quasi un ragazzo su tre la consulta quasi ogni giorno. I chatbot come Chat GPT, Claude e Dixit sono gli strumenti più diffusi, seguiti da traduttori automatici e assistenti vocali. L’IA viene utilizzata soprattutto per studio, ricerca di informazioni e scrittura, ma anche come supporto emotivo. Molti apprezzano che sia sempre disponibile, non giudichi e capisca, tanto che una parte significativa preferisce confrontarsi con uno strumento digitale piuttosto che con una persona reale. Questi dati mostrano come l’IA stia assumendo un ruolo crescente anche nel supporto emotivo, sottolineando l’urgenza di garantire benessere psicologico, spazi di socialità e un dialogo intergenerazionale per guidare percorsi educativi e politiche dedicate agli adolescenti. Nonostante molti adolescenti trovino nell’IA un sostegno emotivo, i dati sul benessere psicologico raccontano una realtà preoccupante: meno della metà dei 15-16enni italiani (49,6%) afferma di sentirsi bene psicologicamente nelle ultime due settimane, con un divario di genere significativo. C’è un forte divario tra ragazze e ragazzi che dichiarano di avere un buon equilibrio psicologico (il 66% dei ragazzi contro 34% delle ragazze), e quasi due quindicenni su cinque percepiscono il proprio corpo come “troppo grasso”, molto più della reale condizione fisica. Questi numeri si riflettono anche in comportamenti a rischio: il 9% si è isolato volontariamente, il 31% ha praticato binge drinking (le abbuffate alcoliche) nell’ultimo mese, e il 12% nell’ultimo anno ha assunto psicofarmaci senza prescrizione, con percentuali più elevate tra le ragazze. Le relazioni degli adolescenti oggi si sviluppano in un contesto sempre più digitale, tra amicizie solide e rischi legati alla rete. Nonostante l’uso massiccio di strumenti online, la maggior parte dei ragazzi e delle ragazze resta soddisfatta dei propri legami: più di 8 su 10 esprimono apprezzamento per il rapporto con gli amici, e oltre il 77% per quello con i genitori. Tuttavia, la vita onlife comporta nuove vulnerabilità e comportamenti emergenti: il 13% degli adolescenti mostra un uso problematico di internet (iperconnessione); il 38% pratica il “phubbing”, controllando spesso il cellulare anche in presenza di amici o familiari; il 27% si sente nervoso quando non ha il telefono a portata di mano; il 47,1% dei 15-19enni è stato/a vittima di cyberbullismo, con un aumento di 16 punti percentuali rispetto al 2018; quasi il 20% dei 14-19enni ha subito episodi offensivi più volte in un mese; tra gli studenti stranieri, la quota di vittime ripetute di atti intimidatori è più alta (26,8%) rispetto ai coetanei italiani (20,4%); relazioni intime e sessualità passano online, con il 30% che ha praticato ghosting; il 37% dei 15-19enni visita siti porno per adulti (54,5% ragazzi, 19,1% ragazze) e l’8,2% usa app di incontri. “L’Atlante – ha sottolineato Raffaela Milano, Direttrice del Polo Ricerche di Save the Children – fotografa le tante, diverse, adolescenze vissute in Italia da una generazione che è stata duramente segnata dall’emergenza Covid, in termini di uso problematico di internet e di rischi di isolamento, ma che oggi cerca con forza nuovi spazi di protagonismo”. L’Atlante verrà presentato il 19 novembre a Roma, presso la sede di Save the Children (Piazza San Francesco di Paola, 9), a partire dalle 9,30. Qui per scaricare l’Atlante: https://www.savethechildren.it/cosa-facciamo/pubblicazioni/xvi-atlante-dell-infanzia-a-rischio-senza-filtri. Giovanni Caprio
Modelli linguistici: oracoli da bar con manie di grandezza
Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un difetto risolvibile. I tentativi di controllo qualità sui dati richiedono risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali addestrati su dati limitati I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile – dell’industria dell’intelligenza artificiale. Tra promesse di precisione e realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo. L‘insistenza criminale sui sistemi predittivi fallimentari C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed è la criminale, idiota insistenza a volersene dotare. Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo un discorso più generale. leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)
Quanto e come usiamo davvero l’intelligenza artificiale?
L’Italia è ha introdotto, lo scorso 17 settembre 2025, una legge che punta a normare l’utilizzo di strumenti di intelligenza artificiale. Il provvedimento recepisce (almeno in parte) l’AI Act europeo, introducendo anche una serie di regole e reati penali connessi all’uso dell’AI. Ma qual è la situazione in Italia per quanto riguarda l’uso di strumenti di intelligenza artificiale? A prima vista, il nostro paese sconta un ritardo simile a quello, più volte denunciato, relativo a una generale carenza di competenze digitali. Analizzando i dati disponibili, emergono però alcuni elementi che chiariscono meglio le specifiche problematicità, accanto a considerazioni importanti riguardo il prossimo futuro. QUALE INTELLIGENZA ARTIFICIALE? Quando ci si avventura in un’analisi sull’utilizzo dell’intelligenza artificiale, la maggior parte dei dati disponibili sono di carattere statistico e devono essere presi con le pinze. Numeri e percentuali, infatti, rischiano di essere fuorvianti.  Il primo aspetto su cui soffermarsi è l’oggetto stesso di cui si tratta. Nonostante l’opinione pubblica parli ormai di “intelligenza artificiale” con riferimento solo all’AI generativa e ai modelli linguistici (large language model), la sua definizione è in realtà molto più articolata. La stessa legge italiana adotta l’ampia definizione utilizzata nell’AI Act: “Un sistema automatizzato progettato per funzionare con livelli di autonomia variabili (…) e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. Non solo, quindi, i vari ChatGPT, Gemini, Claude e soci. Quando si parla di AI ci si riferisce in realtà a una molteplicità di sistemi e funzioni, molti dei quali rimangono dietro le quinte e dei quali, nella maggior parte dei casi, gli stessi utilizzatori di software e piattaforme ignorano l’esistenza. I CHATBOT DI LARGO CONSUMO NEL NOSTRO PAESE I sistemi di GenAI per cui è più facile reperire dati oggettivi sono proprio i chatbot che hanno preso il centro del palcoscenico negli ultimi 36 mesi. I dati riportati dalla piattaforma di analisi AI Tools, aggiornati allo scorso agosto, riportano una classifica che mostra la distribuzione geografica degli accessi via web ai servizi di AI. Alla testa di questa particolare classifica (basata su numeri assoluti) svettano gli Stati Uniti con oltre 2 miliardi di accessi, mentre l’Italia si posiziona al 17esimo posto dietro a paesi come Messico, Filippine, Indonesia e Vietnam. Questi dati, però, sono falsati dalle differenze a livello di popolazione: se si introduce questo elemento nell’equazione, i dati consentono una lettura più veritiera.  Se ci limitiamo a confrontare il numero di accessi con paesi “simili”, emerge come AI Tools abbia registrato in Italia 3.25 accessi per abitante, poco più della metà (5,76) rispetto agli Stati Uniti e con un valore di poco inferiore a Germania (4,57) e Francia (3,85). Limitando l’analisi a ChatGPT, che nel settore dell’AI generativa detiene più dell’80% del mercato, i dati sono piuttosto simili. Stando a quanto riporta Digital Gravity, gli accessi provenienti dall’Italia al chatbot di OpenAI si collocano allo stesso livello di un paese come la Germania e di poco inferiori a Spagna e Francia. “I dati sono sempre utili, ma rischiano di creare degli equivoci pericolosi”, sottolinea Irene Di Deo, ricercatrice senior dell’Osservatorio Artificial Intelligence al Politecnico di Milano. “Quando si parla di utilizzo di AI generativa facendo riferimento ai prodotti accessibili sul web, spesso si tratta di un uso che ha un fine ludico o personale. Per comprendere il livello di utilizzo in ambito produttivo è indispensabile fare riferimento ad altri indici, come le licenze acquistate dalle imprese”. L’AI NEL SETTORE PRODUTTIVO Se si passa a un uso più “aziendale” dell’intelligenza artificiale, i dati disponibili sono meno oggettivi rispetto a quelli relativi al numero di accessi agli strumenti di AI liberamente  disponibili su Internet. La maggior parte di questi dati si basa su indagini eseguite in ambito accademico o a opera di istituzioni internazionali. Una delle analisi più affidabili, pubblicata da Eurostat, segna un generale ritardo dell’Italia rispetto agli altri paesi europei. I dati relativi al Digital Intensity Level – indice che valuta quanto intensamente un’azienda utilizza un insieme di tecnologie digitali chiave nella propria attività – sono tutto sommato nella media. Tra i 27 paesi UE, l’Italia si posiziona infatti al sedicesimo posto. Quando si parla di AI, le cose però vanno decisamente peggio. In questa specifica classifica, l’Italia è ventiduesima e staccata notevolmente dai migliori. Solo l’8% delle aziende italiane utilizzerebbero strumenti basati sull’AI, contro il 27,6% di quelle danesi e una media UE del 13,5%. “Si tratta di un dato che va letto alla luce del tipo di tessuto produttivo che c’è nel nostro paese”, spiega Di Deo. “La prevalenza di piccole e medie imprese incide notevolmente sul dato statistico”.  Quando si parla di utilizzo dell’AI in ambito produttivo, specifica la ricercatrice, nella maggior parte dei casi sono strumenti con finalità molto specifiche, ben diversi dai chatbot che vengono proposti al grande pubblico. “Si tratta di piattaforme che richiedono investimenti a livello finanziario piuttosto rilevanti, che le PMI spesso non possono permettersi”, prosegue. “A livello di grandi aziende, i dati che abbiamo raccolto in questi anni indicano che almeno il 60% delle imprese ha implementato strumenti basati sull’AI o ha avviato almeno una sperimentazione”.  Di Deo sottolinea anche un altro aspetto: per sfruttare l’AI è indispensabile avere delle basi solide a livello di dati. Non si tratta dei famosi dataset necessari per addestrare gli algoritmi, ma di quelle informazioni che poi verranno elaborate dall’intelligenza artificiale per generare valore per l’impresa. “L’uso dell’AI per finalità come la manutenzione predittiva o il controllo qualità dei prodotti richiede la presenza di una serie storica. Chi non ha raccolto dati sulla sua attività negli ultimi 20 anni potrà difficilmente ottenere dei buoni risultati in questi ambiti”. IL FENOMENO DELLA SHADOW AI A complicare ulteriormente il quadro è la difficoltà di monitorare l’uso “autonomo” di strumenti di AI generativa da parte dei lavoratori. La disponibilità di chatbot gratuiti o comunque accessibili commercialmente per uso privato ha innescato il fenomeno della cosiddetta “Shadow AI”, cioè l’uso non documentato (e incontrollato) di strumenti di intelligenza artificiale da parte di singoli individui.  Oltre a essere un elemento distorsivo a livello statistico, la Shadow AI rappresenta un’area grigia che è fonte di preoccupazione per gli addetti ai lavori. Le ragioni sono molteplici e comprendono, per esempio, i rischi legati alla cyber security. Gli strumenti basati su AI generativa aumentano infatti il rischio di diffusione involontaria di informazioni riservate e soffrono di vulnerabilità specifiche che possono essere mitigate solo attraverso l’adozione di rigorose politiche di utilizzo e l’implementazione di strumenti dedicati.  Ancora: con l’approvazione dell’AI Act (e in Italia della recente normativa nazionale) emerge anche il tema del rispetto degli obblighi giuridici legati all’uso dell’intelligenza artificiale. Tra questi c’è l’obbligo di informare i clienti quando si impiegano strumenti di AI nello svolgimento della propria attività professionale, come previsto dall’articolo 13 della legge italiana. QUALE IMPATTO HA DAVVERO L’AI? Se oggi il livello di implementazione dell’AI viene considerato come un indicatore di evoluzione tecnologica, è probabile che questa equivalenza evapori piuttosto rapidamente, soprattutto a livello statistico. Gli LLM, in diverse forme, vengono ormai integrati in qualsiasi software. Non c’è prodotto commerciale che non offra un “assistente” alimentato dalla GenAI, la cui utilità è spesso relativa. Anche dove l’AI è stata considerata una priorità su cui puntare, sono emersi grossi dubbi sul suo reale impatto. Una ricerca del MIT Media Lab, pubblicata quest’anno, sottolinea come il 95% delle imprese che hanno introdotto strumenti di intelligenza artificiale generativa non sia stato in grado di individuare un effettivo impatto a livello di valore.  I ricercatori, nel report, sottolineano come l’AI sia utilizzata principalmente per migliorare la produttività individuale attraverso l’uso dei vari “co-piloti”. In tutti questi casi, non si va oltre la generazione di documenti, email, riassunti di riunioni e simili.  Nulla di sconvolgente, quindi, soprattutto se si considera che, a questo livello di adozione, si rischia anche di cadere nel fenomeno del “workslop”, neologismo traducibile più o meno come “lavoro fatto in fretta e male”. Tradotto nella pratica, è possibile definirlo come un aumento di produttività a livello quantitativo, ma che lascia spesso a desiderare sul piano qualitativo.  Chi si ritrova a valutare i contenuti creati con l’AI deve spesso scegliere se accontentarsi di un prodotto mediocre, riscrivere tutto da capo in prima persona o chiedere all’autore di rifarlo da zero. Un ulteriore elemento di complessità che interseca, più che aspetti squisitamente tecnologici, una dimensione culturale. E sarà proprio su questo piano, probabilmente, che si giocherà il futuro dell’AI come possibile “motore” dell’ innovazione. L'articolo Quanto e come usiamo davvero l’intelligenza artificiale? proviene da Guerre di Rete.
Google riapre centrale nucleare per alimentare IA
L'industria nucleare sta vivendo una rinascita, spinta da un'enorme crescita della domanda di energia, mentre le grandi aziende tecnologiche cercano fonti di energia pulita per alimentare i loro data center. Google ha annunciato di aver raggiunto accordo con il gruppo americano NextEra Energy che prevede la rimessa in funzione all'inizio del 2029 della centrale nucleare Duane Arnold, nell'Iowa, per lo sviluppo delle infrastrutture di intelligenza artificiale (IA) del gigante californiano. Si tratta del terzo progetto di riapertura di una centrale nucleare annunciato di recente, dopo quelli relativi ai siti di Palisades (Michigan) nel 2023 e Three Mile Island (Pennsylvania) nel 2024, segno della ripresa dell'industria nucleare dopo decenni senza investimenti significativi negli Stati Uniti. Link articolo qui
L’intelligenza irrazionale. Come l’IA alimenta le bolle finanziarie
L’IA entra in finanza e moltiplica i rischi di bolle e instabilità. Algoritmi simili, pochi attori dominanti e un mercato sempre più irrazionale «Ehi, ChatGPT, che azioni mi compro?» Potrebbe sembrare una domanda fatta per gioco, tanto per vedere che risposte si ottengono. Invece, secondo un articolo che riprende una ricerca svolta in 13 Paesi su 10mila investitori, uno su dieci si rivolge a una qualche intelligenza artificiale. Molti tra questi prenderebbero in considerazione l’idea di lasciare direttamente nelle mani dell’IA la scelta su quali transazioni finanziarie eseguire. Dalla ricerca, sembra che le risposte dei chatbot siano ragionevoli e prudenti, insistendo sul fatto che è impossibile predire l’andamento dei mercati, in ragione della complessità e della quantità di fattori che possono influenzarli. [...] Riassumendo: un oligopolio di imprese tecnologiche fornisce algoritmi che guidano gli investimenti sui mercati, mercati dominati da un oligopolio di investitori istituzionali, che sono i loro maggiori azionisti. Cosa potrebbe mai andare storto? Leggi l'articolo