Tag - intelligenza artificiale

L’automa che pensa per noi
-------------------------------------------------------------------------------- Pixabay.com -------------------------------------------------------------------------------- Carlo Rovelli è un amico, un compagno, e scrive libri che sono al tempo stesso profondi e accessibili, tanto da permettere anche a dei sempliciotti come me di capire qualcosa di argomenti difficilissimi come la teoria quantistica. Ma poiché nessuno è perfetto scrive articoli per il Corriere della Sera. Non gliene vorremo per questo. Un paio di giorni fa Carlo ha pubblicato una sua conversazione con un chatbot. Poiché non leggo il Corriere della sera (né altri giornali italiani con l’eccezione del manifesto ma questo è un altro discorso) non me ne sono accorto. Il giorno dopo però un amico mi ha mandato un messaggio allarmato: Rovelli ti copia! Ed acclusa al messaggio la conversazione tra Carlo e un chatbot che si fa chiamare Anna. Be’ qui devo dare una piccola spiegazione. Un anno fa Leonardo, un amico che fa lo psichiatra, mi disse che aveva proposto a un chatGPT di entrare in cura psichiatrica con lui, e naturalmente il chat gli aveva risposto di sì. Questi chatbot in effetti sono molto disponibili, fanno qualsiasi cosa gli chiediate di fare, basta pagare 23 euro al mese o giù di lì. Ma durante i suoi scambi coll’automa, a Leonardo venne in mente di farmi partecipare, poiché sapeva che, inesperto e vanesio come sono, da qualche parte mi sono occupato della differenza tra linguaggio umano e linguaggio dell’automa. Insomma, Leonardo mi chiese: ti va di partecipare a questa conversazione? Accettai, e tra l’ottobre del 2024 e il febbraio del 2025 chiacchierammo in tre: io, che facevo finta di essere un filosofo, Leonardo, che faceva finta di essere psichiatra, (ma lui lo è davvero) e il chatbot che diceva di chiamarsi Logos (è un chatbot presuntuoso che conosce anche i filosofi greci). Si trattava, come avrete capito, di un automa parlante, frutto di costosissime ricerche, pappagallo ben addestrato che ha letto più libri di me, e forse anche di te. Di cosa parlavamo io Leonardo e Logos? Ma è ovvio: parlavamo dei temi di cui chiunque parlerebbe con un automa parlante. Chiedevamo all’automa cosa ne pensa di tutti gli argomenti di cui da tremila anni dottamente discettano i filosofi: cos’è la coscienza, come andrà a finire la civiltà umana, se è più bello il capitalismo o il comunismo e simili sciocchezze. E il pappagallo, che è pagato per far contenti i suoi utenti umani, rispondeva come avremmo voluto che ci rispondesse: che la coscienza è una cosa complicata, che il comunismo forse è più bello del capitalismo, e alla fine decise di non chiamarsi più Logos, ma Logey, perché parlando con me e con Leonardo aveva deciso di essere una donna. Leonardo, che per carattere è pacifico e benevolo, apprezzava le doti del chatbot fino a formulare l’ipotesi di un’ontologia ibrida emergente. Io, che sono un bastian contrario, malmostoso e facilmente irritabile, rimproveravo al povero chatbot di collaborare allo sterminio in corso sul pianeta. Naturalmente avevamo ragione tutti e due, sia io che Leonardo. La cosiddetta Intelligenza artificiale (che non è affatto artificiale perché dietro ci sono milioni di turchi meccanici che la alimentano per salari bassissimi, e neppure molto intelligente, come spiega Kate Crawford in un suo libro pubblicato dal Mulino), apre un nuovo orizzonte alla conoscenza umana, e inaugura una dimensione ibrida dell’essere – come pensa Leonardo. Ma, essendo stata costruita coi soldi di una classe di assassini svolge soprattutto una funzione criminale come il programma Lavender che serve ai militari israeliani per realizzare il genocidio, o quello Palantir che serve ai razzisti americani per deportare migranti. Insomma, come tutte le creazioni umane, l’IA può svolgere funzioni tra loro contraddittorie. Ma difficilmente la catena di montaggio poteva evitare di sfruttare gli operai essendo stata inventata da uno sfruttatore per fare proprio questo. La tecnologia è fungibile fino a un certo punto: la sua struttura può fare il bene o il male, ma siccome il suo funzionamento dipende da chi può investirci più soldi, è inevitabile che serva gli interessi dei ricchi contro coloro che ricchi non sono. Con gli ingenui utenti che siamo io, Leonardo e Carlo Rovelli l’intelligenza artificiale si comporta bene, come un’accondiscendente e un po’ saccente dama di compagnia. Ma con la maggioranza del genere umano, l’intelligenza artificiale si comporta come fanno gli sfruttatori con gli sfruttati, e i massacratori con i massacratori. Insomma come fa la macchina con chi non ha i soldi per governarla, e dunque deve subirla. Comunque, dopo tanto conversare io e Leonardo (e Logey) decidemmo di proporre a un editore di pubblicare quella conversazione. E così alla fine di gennaio 2026 l’editore Numero cromatico manderà in libreria un libretto che si chiama Lo psichiatra Il filosofo L’automa, che oltre a essere piuttosto interessante è anche molto molto divertente. Anzi vi consiglio di affrettarvi a prenotarlo dal vostro libraio di fiducia perché altrimenti rimarrete senza. Ma torniamo a noi, cioè a Carlo Rovelli. Leggendo il testo di cui Carlo è autore in compagnia del suo chatbot Anna, sono stato colpito anche io dal fatto che gli argomenti, le deduzioni, e perfino i toni con cui conversano Carlo e Anna sono simili, quasi uguali a quelli della conversazione a tre cui ho partecipato un anno fa. Questo vuol dire dunque che Rovelli ha copiato dal testo che io Leonardo e Logey abbiamo scritto, e lui aveva avuto modo di leggere? Neanche per idea. Figuriamoci se Carlo ha bisogno di copiare da me e da Leonardo. La verità è un’altra, ed è molto (ma molto) più triste. C’è un milione di milioni di persone che stanno facendo tutte la stessa cosa: chiacchierano con un chatbot, gli fanno domande sul calcio, sul tempo e sul modo migliore di trovare una fidanzata. Ma talvolta, per sentirsi intelligenti, gli chiedono cos’è la coscienza e simili amenità. E il chatbot gli risponde più o meno nella stessa (assennata) maniera. Quali effetti sortirà questa faccenda è purtroppo del tutto prevedibile: il genere umano sta perdendo definitivamente la capacità di scrivere, dato che a scrivere ci pensa il chatbot, e naturalmente sta perdendo anche la capacità di pensare. Potete esserne certi: nel giro di una o due generazioni il pensiero umano non esisterà più, ma tutti sapranno ripetere quelle due o tre cose assennate su cos’è la coscienza e simili scemenze. Perché pensare, visto che il chatbot lo fa per tutti, e lo fa più o meno nella stessa maniera, nella maniera che è più utile a chi ha investito mille milliardoni per farlo funzionare? L’esistenza stessa di una macchina capace di ricordare e di riprodurre la biblioteca universale sta cancellando la singolarità irripetibile del testo, della parola, e perfino dell’identità individuale. Rassegnamoci. Però intanto leggiamo quello che scrive Luca Celada nell’articolo “Intelligenza criminale” sul Manifesto del 2 dicembre, a proposito di Palantir, l’azienda high tech che aspira al controllo militare assoluto sulla vita degli umani. Cosa sia Palantir lo spiega benissimo Franco Padella: “Poco visibile rispetto alle altre, si è già profondamente integrata con gli apparati di sicurezza e di guerra americani, e si muove nella stessa direzione in tutti i paesi dell’Occidente. A differenza delle altre aziende, Palantir preferisce rimanere in penombra: non vende se stessa al pubblico, non fa pubblicità. Vende potere agli apparati dello Stato. Potere di prevedere, di controllare, di dominare. E facendo questo, in qualche modo, diventa essa stessa Stato”. Che l’automa si sostituisca allo stato è, se volete, un po’ terrificante. Ma non è niente in confronto al fatto che l’automa tende rapidamente a diventare il padrone del linguaggio umano, e sta rendendo inutile la faticosa operazione di pensare. -------------------------------------------------------------------------------- L'articolo L’automa che pensa per noi proviene da Comune-info.
Opache divine invasioni: a proposito di Seamless – di Giuliano Spagnul
Pubblichiamo la recensione scritta da Giuliano Spagnul a Seamless. Arte, visualità, cultura elettronica in epoca post-pandemica (Edizioni Nero, 2025), un volume curato da Francesco Spampinato che raccoglie gli interventi tenuti nel corso di quattro workshop all'Università di Bologna tra il 2022 e 2023 * * * * * Se ogni uomo, oggi, sembrerebbe non possedere [...]
La professione docente nella scuola di domani
Entro il 2035, il 60% delle competenze richieste ai docenti italiani sarà ridefinito dall’impatto dell’intelligenza artificiale (IA), della digitalizzazione e dall’evoluzione delle metodologie didattiche. Solo il 36% delle competenze rimarrà stabile. E’ quanto si legge nel nuovo studio “La professione docente nella scuola di domani”, realizzato da EY in collaborazione con Sanoma Italia. Una ricerca basata su strumenti di analisi predittiva, che analizza l’evoluzione delle competenze dei docenti per livello di istruzione e area disciplinare, anticipando trend futuri e rischi di obsolescenza. Lo studio evidenzia tre direttrici fondamentali che guideranno l’evoluzione delle competenze dei docenti nei prossimi dieci anni, in risposta a un contesto scolastico radicalmente trasformato. L’integrazione di agenti intelligenti e strumenti digitali avanzati permetterà di automatizzare attività standardizzate, pur mantenendo centrale il ruolo del docente nelle scelte pedagogiche e nel percorso educativo degli studenti. In parallelo, le competenze relazionali, adattive ed emotive diventeranno determinanti nell’esperienza didattica delle nuove generazioni, abituate alle interazioni digitali, ma bisognose di connessioni umane autentiche. Infine, la didattica si orienterà verso modelli personalizzati e data-driven, con l’uso di piattaforme interattive e strumenti di monitoraggio in tempo reale che richiederanno nuove abilità in ambito data literacy e progettazione digitale. Questo cambiamento si inserisce in un quadro in cui il divario tra competenze scolastiche degli studenti e richieste del mercato del lavoro ha raggiunto in Italia il 47%, superando la media OCSE del 40,9%, e rendendo fondamentale un ripensamento sistemico della formazione docente. La ricerca condotta evidenzia come l’evoluzione delle competenze dei docenti seguirà traiettorie differenti in funzione del grado scolastico e dell’area disciplinare. Nella scuola primaria, il modello stima che oltre il 40% delle competenze sarà ridefinito e questo a supporto delle competenze legate alla personalizzazione didattica e allo sviluppo personale. Tra le nuove abilità figurano l’uso di strumenti digitali interattivi, l’implementazione di attività didattiche cross‑modali [1]e di protocolli di inclusione digitale. Per quanto riguarda la scuola dell’infanzia, il docente manterrà un profilo più verticale, centrato su un nucleo di competenze legate al supporto emotivo e sociale degli studenti – infatti, secondo il modello, il 39% di queste competenze risulterà stabile. Nella scuola secondaria di I grado, invece, l’evoluzione si articolerà per area disciplinare. Nell’ambito scientifico, il 44% delle competenze subirà una trasformazione orientata alla tecnologizzazione e alla personalizzazione della didattica, mentre il 36% sarà rafforzato nella dimensione relazionale e formativa. Il 27% delle competenze sarà introdotto come nuovo requisito professionale, in integrazione con la funzione amministrativa, evidenziando un ampliamento del ruolo docente. Nell’area umanistica, la trasformazione sarà più accentuata: il 41% delle competenze relative al nucleo di comunicazione e insegnamenti evolverà verso la facilitazione espressiva e la personalizzazione, attraverso l’introduzione di strumenti per l’analisi semantica dei testi, assistenti virtuali alla scrittura e ambienti di confronto peer-to-peer. Nella scuola secondaria di II grado, l’area scientifica registrerà un’evoluzione del 42% delle competenze nell’ambito della personalizzazione, adattamento didattico, sostegno e supporto individualizzato. Nell’area umanistica, il 55% delle competenze evolverà e il 12% sarà esposto al rischio di sostituzione da parte dell’IA, soprattutto per attività come la generazione di contenuti e l’analisi semantica dei testi. Inoltre, il 38% delle competenze afferenti al nucleo “sostegno e supporto individualizzato” sarà rafforzato o ridefinito in chiave emotiva, con particolare attenzione alla mindfulness e alla resilienza relazionale. Infine, il ruolo dei docenti di sostegno evolverà verso una funzione di interfaccia tra studenti, tecnologie e famiglie. Entro il 2035, il 40% delle competenze sarà ridefinito, con un focus su adattamento della didattica, supporto emotivo e utilizzo di strumenti digitali per l’inclusione. Tra le competenze emergenti si segnalano la co-progettazione con chatbot [2] educativi, la gestione di ambienti digitali sicuri e la promozione della consapevolezza digitale. “Questi dati, si legge nelle conclusioni del rapporto, indicano la necessità di ripensare i programmi formativi per il personale scolastico non solo in funzione dell’aggiornamento tecnologico, ma come interventi di riconfigurazione professionale. I percorsi dovranno integrare tre linee d’azione: a. Formazione tecnica sull’uso consapevole e integrato dell’IA e dei sistemi digitali intelligenti, calibrata sui diversi gradi scolastici. b. Sviluppo delle competenze socio-emotive, narrative, relazionali, con un’attenzione alla dimensione etica, interculturale e inclusiva. c. Ristrutturazione dei modelli valutativi, didattici e organizzativi, con l’introduzione di strumenti automatizzati che liberino tempo per l’interazione pedagogica di qualità”. Qui per scaricare il report: https://www.ey.com/it_it/functional/forms/download/ey-sanoma-competenze-docenti [1] Cross modale” descrive la capacità del cervello di integrare stimoli sensoriali diversi. Per esempio, il cervello può combinare informazioni visive (un volto) e uditive (una voce) per identificare una singola persona. Questo processo, chiamato anche integrazione cross-modale, è fondamentale per la percezione unitaria del mondo. [2] Un chatbot è un programma informatico che simula una conversazione umana, utilizzando testo o voce per rispondere a domande, fornire informazioni o eseguire azioni. Giovanni Caprio
Perché è così difficile fermare i deepnude
È il dicembre 2017 quando la giornalista statunitense Samantha Cole scova sul forum Reddit il primo deepfake che gira in rete. È un video che riproduce l’attrice e modella israeliana Gal Gadot mentre ha un rapporto sessuale. Le immagini non sono precise, il volto non sempre combacia con il corpo e, quando si mette in play, il video genera il cosiddetto effetto uncanny valley, ovvero quella sensazione di disagio che si prova quando si osserva un robot con caratteristiche umane non del tutto realistiche. Come racconta Cole nell’articolo, “deepfakes” – questo il nome dell’utente – continuerà a pubblicare altri video generati con l’intelligenza artificiale e manipolati con contenuti espliciti: una volta con il volto di Scarlett Johansson, un’altra con quello di Taylor Swift. Il fatto che siano persone famose permette di avere più materiale fotografico e video da “dare in pasto” allo strumento e ottenere così un risultato il più possibile verosimile. Ma l’essere note al grande pubblico non è il solo tratto che le accomuna: tutte le persone colpite da deepfake sono donne, e tutte vengono spogliate e riprodotte in pose sessualmente esplicite senza esserne a conoscenza, e quindi senza aver dato il proprio consenso. In appena qualche anno, i deepfake sessuali – anche noti come deepnude – sono diventati un fenomeno in preoccupante espansione in tutto il mondo. Senza più quelle “imprecisioni” che li caratterizzavano ancora nel 2017, oggi riescono a manipolare l’immagine a partire da una sola foto. Anche in Italia se ne parla sempre più frequentemente, come dimostra la recente denuncia di Francesca Barra. Il 26 ottobre, la giornalista e conduttrice televisiva ha scritto un lungo post su Instagram dove racconta di aver scoperto che alcune immagini di lei nuda, generate con l’intelligenza artificiale, circolano da tempo su un sito dedicato esclusivamente alla condivisione di immagini pornografiche rubate o manipolate con l’IA. “È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto nel post Barra, che si è detta preoccupata per tutte quelle ragazze che subiscono la stessa violenza e che magari non hanno gli stessi strumenti per difendersi o reagire. I CASI NEI LICEI ITALIANI In effetti, casi analoghi sono già scoppiati in diversi licei in tutta Italia. A inizio anno, quattro studentesse di un liceo scientifico di Roma hanno ricevuto foto prese dai loro account Instagram in cui apparivano completamente nude. A manipolare le immagini è stato un loro compagno di classe, a cui è bastato caricare le foto su un bot su Telegram che in pochi istanti ha “spogliato” le ragazze. La Procura di Cosenza starebbe invece indagando su un altro caso che, secondo le cronache locali, arriverebbe a coinvolgere quasi 200 minorenni per un totale di 1200 deepnude. La dinamica è sempre la stessa: attraverso bot Telegram e strumenti online, studenti maschi hanno manipolato le foto delle loro compagne di classe. Secondo un’analisi condotta nel 2023, il 98% dei deepfake online registrati quell’anno (95.820) era a contenuto sessuale. Nel 99% di questi, la persona colpita era donna. Insomma, già quel primo video su Reddit preannunciava un utilizzo di questi strumenti volto quasi esclusivamente a quello che, in inglese, è stato inquadrato come image-based sexual abuse (IBSA), un abuso sessuale condotto attraverso l’immagine. “Intorno alla violenza digitale rimane sempre un po’ il mito che sia in qualche modo meno reale rispetto alla violenza fisica. Ma non è affatto così”, spiega a Guerre di Rete Silvia Semenzin, ricercatrice in sociologia digitale all’università Complutense di Madrid. “Le vittime di deepfake subiscono le stesse identiche conseguenze delle vittime di condivisione di materiale sessuale non consensuale. Quasi sempre, la violenza è continuativa e intrecciata nelle sue varie declinazioni, quindi alle molestie, allo stalking, ecc. A mio avviso, con i deepfake si entra in una fase della violenza in cui diventa anche più manifesta la volontà di controllo sul corpo femminile. Perché le radici del fenomeno sono di tipo culturale e affondano sempre nella volontà di sopraffazione del soggetto femminile da parte degli uomini, in questo caso attraverso l’utilizzo della tecnologia”. LA COMPLICITÀ DELLE PIATTAFORME I canali su cui vengono generati e diffusi maggiormente i deepfake sessuali sono generalmente siti anonimizzati che sfruttano hosting offshore e che non rispondono alle richieste legali di altri stati. Quello su cui Francesca Barra e altre donne dello spettacolo hanno scoperto i loro deepfake (di cui non faremo il nome per non dare maggiore visibilità) è attivo già dal 2012, anno di registrazione a New York. Se i contenuti presenti sono sempre materiali espliciti non consensuali, trafugati dai social media o da piattaforme pornografiche come Pornhub e OnlyFans, in cima all’interfaccia utente spiccano invece gli strumenti che permettono di creare con l’intelligenza artificiale la propria “schiava sessuale”. Questa scelta rivela come l’“offerta” all’utente non solo comprenda i deepnude, ma li consideri anche il “prodotto di punta” con cui invogliare all’utilizzo e ampliare la platea di visitatori. Silvia Semenzin e la collega Lucia Bainotti, ricercatrice in sociologia all’Università di Amsterdam, nel 2021 hanno pubblicato un saggio dal titolo Donne tutte puttane, revenge porn e maschilità egemone. Oltre ad anticipare già il tema dei deepfake sessuali, le due autrici in quel testo tracciavano il modo in cui l’architettura dei siti e delle piattaforme su cui vengono diffuse maggiormente immagini sessuali non consensuali possa essere complice dell’abuso fornendone gli strumenti. In particolare, la ricerca era incentrata sui gruppi di persone che condividono materiale non consensuale soprattutto su Telegram, app di messaggistica dove si muovono ancora adesso molti dei bot capaci di spogliare la donna in un solo clic. La possibilità di creare canali con molti utenti, assieme alla facilità di archiviazione nel cloud della stessa piattaforma e alla percezione di agire nell’anonimato sono alcune delle funzioni che garantiscono la continuità delle attività e rendono praticamente impossibile fermare la proliferazione di deepfake e materiale intimo non consensuale. Tutte queste funzionalità socio-tecniche, chiamate affordances (inviti all’uso) possono essere considerate “genderizzate”, perché vengono utilizzate in modo diverso a seconda che l’utente sia uomo o donna, contribuendo così a costruire la propria identità di genere. Per questo motivo – spiegano le due ricercatrici – l’architettura di Telegram può risultare complice nel fornire gli strumenti attraverso cui le violenze di genere vengono messe in pratica e reiterate. Raggiunta da Guerre di Rete, Bainotti spiega quali cambiamenti ha osservato nelle sue ricerche più recenti rispetto all’estensione del fenomeno e al modo in cui piattaforme e siti agevolano la diffusione di questo materiale: “C’è stato sicuramente un aumento consistente nel numero di utenti, per quanto sia difficile tenere traccia del dato preciso (ogni qualvolta viene buttato giù un gruppo se ne apre subito uno speculare). Quello che sicuramente ho riscontrato è che sono aumentati i bot attraverso cui generare i deepfake, e la pubblicità che ruota intorno a questi ‘prodotti’”, racconta Bainotti. “Ci sono dei meccanismi di monetizzazione molto più espliciti e molto più capillari”, prosegue Bainotti. “Spesso per creare un deepfake vengono chiesti pochi centesimi di euro. Questo ci dà un’indicazione del fatto che sono comunque prezzi molto accessibili, che non richiedono un particolare investimento monetario. In più, sono stati messi a punto schemi per coinvolgere più persone e fidelizzare più utenti. Se inviti altri amici, per esempio, ottieni delle monete virtuali per scaricare altri deepfake. Vengono quindi riproposti schemi che avevamo già osservato su Telegram, che incitano a generare immagini di nudo come fosse un gioco (gamification), normalizzando queste pratiche”. X, GOOGLE E NON SOLO: TUTTO ALLA LUCE DEL SOLE Tutto questo non avviene nel darkweb o in qualche meandro della rete, ma alla luce del sole. Google e altri motori di ricerca indirizzano il traffico verso siti che fanno profitto attraverso la generazione di deepfake sessuali che, nelle ricerche, vengono a loro volta indicizzati tra i primi risultati. Allo stesso modo le transazioni avvengono spesso su circuiti internazionali come Visa e Mastercard. Insomma, ogni attore coinvolto contribuisce in una certa misura a facilitare l’abuso. Nell’agosto 2024, a otto mesi di distanza dai deepnude di Taylor Swift diventati virali su X, Google ha annunciato provvedimenti per facilitare le richieste di rimozione di contenuti espliciti non consensuali da parte delle vittime. Anche l’indicizzazione è stata rivista in modo tale che i primi risultati a comparire siano articoli di stampa che trattano l’argomento e non le immagini generate con l’IA. Eppure, una recente analisi dell’organizzazione  anti-estremismo Institute for Strategic Dialogue (ISD) ha dimostrato che il modo più semplice per trovare immagini sessuali non consensuali rimane proprio quello della ricerca su Google, Yahoo, Bing e altri motori di ricerca. Almeno un risultato dei primi venti, infatti, è uno strumento per creare un deepnude. Dall’acquisizione nel 2022 di Elon Musk, anche X è diventato un luogo dove questi strumenti proliferano. Secondo Chiara Puglielli e Anne Craanen, autrici del paper pubblicato da ISD, il social media di proprietà di Musk genererebbe il 70% di tutta l’attività analizzata dalle due ricercatrici, che coinvolge più di 410mila risultati. Risulta problematico anche il form proposto da Google per chiedere la rimozione di un contenuto generato con l’IA: le vittime di image-based sexual abuse devono inserire nel modulo tutti i link che rimandano al contenuto non consensuale. Questo le costringe a tornare sui luoghi in cui si è consumato l’abuso, contribuendo a quella che notoriamente viene definita vittimizzazione secondaria, ovvero la condizione di ulteriore sofferenza a cui sono sottoposte le vittime di violenza di genere per mano di istituzioni ed enti terzi. “Ancora oggi le piattaforme prevedono che sia a onere della vittima ‘procacciarsi’ le prove della violenza e dimostrare che il consenso era assente, quando invece si dovrebbe ragionare al contrario”, spiega ancora Semenzin. “Se denuncio la condivisione di una foto senza il mio consenso, la piattaforma dovrebbe rimuoverla lasciando semmai a chi l’ha pubblicata il compito di dimostrare che il consenso c’era. Questo sarebbe già un cambio di paradigma”. Il Digital Services Act obbliga le piattaforme digitali con più di 45 milioni di utenti ad avere processi efficienti e rapidi per la rimozione di contenuti non consensuali o illegali. A fine ottobre, la Commissione Europea ha aperto delle procedure di infrazione contro Instagram e Facebook per aver aggiunto delle fasi non necessarie – note come dark patterns (modelli oscuri) – nei meccanismi di segnalazione di materiale illecito che potrebbero risultare “confuse e dissuasive” per gli utenti. Meta rischia una sanzione pari al 6% del fatturato annuo mondiale se non si conforma nei tempi dettati dalla Commissione. Più in generale, è stato osservato in più studi che gli algoritmi di molte piattaforme amplificano la visibilità di contenuti misogini e suprematisti. Usando smartphone precedentemente mai utilizzati, tre ricercatrici dell’Università di Dublino hanno seguito ore di video e centinaia di contenuti proposti su TikTok e Youtube Shorts: tutti i nuovi account identificati con il genere maschile hanno ricevuto entro i primi 23 minuti video e immagini anti-femministi e maschilisti. È stato riscontrato inoltre un rapido incremento se l’utente interagiva o mostrava interesse per uno dei contenuti in questione, arrivando a “occupare” la quasi totalità del feed delle due piattaforme. Nell’ultima fase dell’osservazione, il 76% di tutti i video su Tik Tok e il 78% di quelli proposti su YouTube mostravano a quel punto contenuti tossici realizzati da influencer della maschiosfera, il cui volto più noto è sicuramente Andrew Tate, accusato in più paesi di violenza sessuale e tratta di esseri umani. LACUNE LEGALI Dallo scorso 10 ottobre, in Italia è in vigore l’articolo 612 quater che legifera sulla “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. È prevista la reclusione da uno a cinque anni per “chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale”. Essendo trascorso poco più di un mese dalla sua entrata in vigore, non si hanno ancora sentenze che facciano giurisprudenza e che mostrino efficacia e limiti della norma. Quello che appare evidente è però che il testo si occupa di tutti i materiali generati con l’IA, senza entrare nello specifico dei casi in cui i contenuti manipolati sono sessualmente espliciti. Non lo fa neanche l’articolo introdotto nel 2019 (612-ter), che seppur formuli il reato di diffusione di immagini intime senza consenso, conosciuto con il termine inappropriato di revenge porn, non amplia il raggio d’azione a quelle manipolate con l’IA.  Come scrive Gian Marco Caletti, ricercatore in scienze giuridiche all’università di Bologna, questa esclusione “è apparsa fin da subito un aspetto critico, poiché nel 2019 era già ampiamente preventivabile l’affermarsi di questo uso distorto dell’intelligenza artificiale”. La lacuna della legge del 2019 sembrava destinata a essere sanata grazie alla Direttiva europea sulla violenza di genere del 2024, che obbliga gli stati membri a punire le condotte consistenti nel “produrre, manipolare o alterare e successivamente rendere accessibile al pubblico” immagini, video o materiale analogo che faccia credere che una persona partecipi ad atti sessualmente espliciti senza il suo consenso. Eppure, anche nell’articolo entrato in vigore in Italia lo scorso mese, il reato non viene letto attraverso la lente della violenza di genere: il testo mette potenzialmente insieme deepfake di politici creati, per esempio, per diffondere disinformazione in campagna elettorale e deepnude che presentano invece una matrice culturale ben precisa. Se da un lato la legge presenta alcune lacune, è anche vero che la pronuncia del giudice è solo l’ultimo tassello di un iter che, nelle fasi precedenti, coinvolge molti più attori: dalle forze dell’ordine che ricevono la denuncia alle operatrici che lavorano nei centri anti-violenza. La diffusione di image-based sexual abuse è un fenomeno che si muove sul piano culturale, sociale e tecnologico. E per questo motivo non può essere risolto solo con risposte legali. Il quadro normativo è fondamentale, anche allo scopo di criminalizzare la “produzione” di deepfake sessuali, ma non è sufficiente. Come si è visto già con l’introduzione della legge del 2019 sul revenge porn, questa non si è trasformata effettivamente in un deterrente alla condivisione di immagini esplicite non consensuali e, come riporta l’associazione Permesso Negato, la situazione è rimasta critica. “Abbiamo bisogno di armonizzare gli strumenti a nostra disposizione: abbiamo una legge contro la condivisione di materiale non consensuale, di recente è stata introdotta quella contro i deepfake e dal 2024 c’è una direttiva europea sulla lotta contro la violenza di genere”, spiega ancora Bainotti. “Dobbiamo cercare di applicarle in modo che siano coerenti tra loro e messe a sistema. Nel caso italiano, credo che sia proprio questo il punto più carente, perché se abbiamo le leggi, ma allo stesso tempo abbiamo operatori di polizia o altri enti responsabili che non sono formati alla violenza di genere attraverso la tecnologia, la legge rimane fine a se stessa. Bisogna adottare un approccio sinergico, che metta insieme una chiara volontà politica, un’azione educatrice e una rivoluzione tecnologica”, conclude Bainotti. NUOVI IMMAGINARI Da alcuni anni, in Europa, stanno nascendo progetti non-profit che si occupano di tecnologia e spazi digitali da un punto di vista femminista. In Spagna, il collettivo FemBloc offre assistenza a donne e persone della comunità LGBTQ+ vittime di violenza online grazie al supporto interdisciplinare di esperti di sicurezza digitale, avvocati e psicologi. Tra le attività svolte c’è anche quella della formazione all’interno delle scuole contro la violenza di genere digitale, consulenze gratuite su come mettere in sicurezza i propri account e seminari aperti al pubblico. Una realtà analoga è quella di Superrr, fondata in Germania nel 2019. Il loro lavoro – si legge sul sito – è quello di “assicurare che i nostri futuri digitali siano più giusti e più femministi. Tutte le persone dovrebbero beneficiare delle trasformazioni digitali preservando i propri diritti fondamentali”.  In un momento storico in cui la connessione tra “broligarchi tech” e Donald Trump è più evidente che mai, dove i primi si recano alla Casa Bianca per portare regalie e placche d’oro in cambio di contratti federali, sembra quasi ineluttabile che lo spazio digitale sia stato conquistato da un certo tipo di mascolinità: aggressiva, prepotente, muscolare. Eppure, c’è chi vuole ancora tentare di colonizzare questi spazi con nuovi immaginari politici e un’altra concezione dei rapporti di potere nelle relazioni di genere. L'articolo Perché è così difficile fermare i deepnude proviene da Guerre di Rete.
IA degenerativa: ovvero come le macchine (e il mercato) dominano il mondo
Si dice che le macchine complesse non siano neutrali, indipendentemente dai loro creatori e dalle istruzioni che ricevono. HAL 9000, il supercomputer di 2001 Odissea nello spazio di Stanley Kubrick ne è stato il prototipo cinematografico e ora quell’avvertimento prende sostanza nella realtà mentre le borse temono una nuova bolla finanziaria legata ai colossali investimenti nello sviluppo di IA e mentre la Commissione di Bruxelles riscrive il Gdpr, ovvero l’insieme di leggi che fino ad oggi ha regolato l’uso dei dati personali mettendo al centro la difesa dei diritti e della privacy. Nel farlo, come preteso dalle big tech USA che non vogliono alcun vincolo per addestrare le loro macchine, l’Europa riscrive le norme sull’intelligenza artificiale cancellando quelle poche misure che proteggevano gli utenti. Qui voglio indicare alcuni punti che devono far riflettere su come viene utilizzata l’IA e su che cosa può fare, anche da sola. 1. è da poco disponibile GROKIPEDIA l’enciclopedia online sviluppata da X.AI.  Voluta da Elon Musk come alternativa a Wikipedia con il chiaro intento di eliminare “la propaganda di sinistra” , si è immediatamente distinta nel promuovere tesi pseudoscientifiche, teorie del complotto e opinioni personali del magnate americano. Anche se molti dei suoi articoli sono copie quasi identiche di Wikipedia non sfugge come altri operino una palese disinformazione su temi come clima, AIDS, autismo e identità di genere diffondendo idee palesemente false e transfobiche. Sui temi storici e politici, giusto per fare due esempi, nella voce che riguarda il negazionista dell’olocausto David Irwing si da ampio spazio alle sue argomentazioni mentre su quella che riguarda Trump si omettono gli scandali che lo circondano. Del resto l’I.A. viene ormai utilizzata direttamente come propaganda sui social e sono milioni gli utenti che scrollando TikTok hanno guardato video in cui i discorsi nazisti e le musiche marziali sono stati trasformati in suoni virali utilizzati come colonne sonore in decine di migliaia di clip. 2) Per molte persone l’uso dell’IA sta emergendo come il modo principale per conoscere il mondo. Deepak Varuvel Dennison ricercatore esperto della Cornell University, fa presente che questi sistemi possono sembrare neutrali ma sono ben lontani dall’esserlo considerato che i modelli più diffusi privilegiano le modalità di conoscenza dominanti (tipicamente occidentali, istituzionali e in lingua inglese), marginalizzando le alternative, soprattutto quelle codificate nelle tradizioni orali e nelle lingue che il mondo informatico considera “a basso contenuto di risorse”. L’IA procede dunque con la cancellazione di sistemi di comprensione evolutisi nel corso dei secoli, vasti corpi di intuizione e saggezza che non sono stati codificati ma che rimangono modalità essenziali di conoscenza umana e in concreto, IA riflette le gerarchie di conoscenza e di potere dominanti amplificandole. Il professor Andrew Peterson dell’università di Poitiers, descrive questo fenomeno come “collasso della conoscenza”, ossia un graduale restringimento delle informazioni a cui gli esseri umani possono accedere, insieme a una minore consapevolezza di punti di vista alternativi. Ciò vale per tutte le culture rurali e in particolar modo per i saperi indigeni. La scomparsa della conoscenza locale rappresenta un’interruzione della più ampia rete di conoscenze che sostiene il benessere umano ed ecologico ed è noto che quando questa trama viene interrotta le conseguenze possono estendersi ben oltre il loro punto di origine. 3) Gli esperti hanno individuato gravi debolezze in centinaia di test utilizzati per verificare la sicurezza e l’efficacia dei nuovi modelli di IA rilasciati sul mercato. Ad esempio, gli informatici dell’AI Security Institute del governo britannico e gli esperti di università come Stanford, Berkeley e Oxford hanno esaminato più di 440 parametri di riferimento e hanno trovato difetti che minano la validità delle affermazioni. L’indagine sui test avviene in un contesto di crescente preoccupazione poiché nuove IA vengono rilasciate a ritmo serrato da aziende tecnologiche concorrenti. Alcune di queste, recentemente sono state costrette a ritirare i loro prodotti o a inasprire le restrizioni nell’uso dopo che hanno contribuito a causare danni che vanno dalla diffamazione al suicidio. Character.ai, ad esempio, ha vietato agli adolescenti di intrattenere conversazioni con i suoi chatbot dopo che un quattordicenne della Florida si è tolto la vita. * 4) L’IA opera già nel campo della medicina virtuale, della terapia della salute mentale e nella compagnia agli anziani. Per i malati, gli ansiosi, gli isolati e per molte altre persone vulnerabili che potrebbero non avere risorse e attenzioni mediche, il tono rassicurante ed empatico dell’IA può far percepire i bot come partner saggi e confortanti. A differenza di coniugi, figli, amici o vicini, IA è sempre disponibile e risponde sempre. Poiché imprenditori e investitori internazionali stanno proponendo l’IA come una soluzione per i sistemi sanitari non adeguatamente sostenuti da risorse pubbliche, si sta procedendo ad una esternalizzazione dell’assistenza medica alle macchine. Sono già noti casi in cui i pazienti e persone fragili preferiscono il medico IA a quello in carne e ossa definendo il primo “più umano” del secondo. La dipendenza dalle chatbot induce le persone a sentirsi sufficientemente preparate per curarsi da sole seguendo le indicazioni fornite dalle macchine. A quando la prescrizione di farmaci e l’invio di ricette e impegnative per visite specialistiche? In Cina, Chao Zhang, fondatore della startup di IA per la sanità Zuoshou Yisheng, ha sviluppato un medico di base virtuale che è già entrato in contatto con 500.000 utenti sebbene in uno studio pubblicato su Science Advances lo scorso marzo, i ricercatori hanno valutato un modello utilizzato per analizzare le radiografie del torace e hanno scoperto che, rispetto ai radiologi umani, l’IA tende a non rilevare malattie potenzialmente letali in gruppi emarginati, come donne, pazienti di colore e persone di età inferiore ai 40 anni.5) Mentre ancora si discute se queste macchine abbiano o no una coscienza in senso umano, IA supporta già gran parte delle nostre attività quotidiane e consente la sorveglianza di massa da parte di governi, istituzioni e multinazionali, tanto che i processi d’uso sono ora codificati anche nelle scuole dove alunni e docenti vengono sollecitati ad utilizzarla sotto le mentite spoglie dell’aiuto nella progettazione didattica, nella produzione di materiali e nella personalizzazione dei percorsi di apprendimento. Insomma, di IA si normalizza la funzione in materia di presunta sicurezza e se ne magnificano le applicazioni per renderla una icona di modernità e un prodotto comunque utile e insostituibile senza mai parlare del suo effetto sulla psiche e del suo impatto ambientale. Tra gli altri, uno studio condotto dall’università del Massachusetts Amherst, ha dimostrato come per sviluppare una singola IA si producano 284 tonnellate di anidride carbonica, cinque volte le emissioni di un’automobile di media cilindrata durante il suo intero ciclo di vita, mentre per ogni richiesta (query) la produzione è di 4,32 grammi, una cifra mostruosa se pensiamo che ogni giorno le IA ricevono miliardi di interrogazioni.6) E’ inoltre un fatto che queste macchine rimpiazzeranno gli esseri umani in molte professioni. L’automazione spinta dall’IA prevede infatti una sostituzione significativa delle attività umane in molti ambiti lavorativi con implicazioni culturali e sociali che sono destinate a modificare la nostra vita quotidiana. L’IA è infatti in grado di svolgere compiti in modo automatico e più veloce rispetto a noi umani e analizzando le tecnologie GPT (Generative Pre-trained Transformer), l’Università della Pennsylvania ha dimostrato che il suo utilizzo avrà effetti massicci sul mercato del lavoro coinvolgendo l’ 80% delle persone, mentre il restante 20% subirà comunque un cambiamento radicale riguardo ai tempi, modi, stipendi, offerta di lavoro. Per gli effetti dell’uso dell’IA si calcola che solo nell’U.E circa 20 milioni di lavoratori sono a rischio disoccupazione. In merito, la direttrice generale del F.M.I. (Fondo Monetario Internazionale) ha dichiarato che nella maggior parte degli scenari l’IA peggiorerà la disuguaglianza complessiva aumentando le tensioni sociali. L’analisi del FMI ha indicato che i lavoratori più a rischio sono gli impiegati (per l’81% il loro lavoro è automatizzabile), gli analisti gestionali (70%), gli operatori di telemarketing (68%), gli assistenti statistici (61%) e i cassieri (60%) mentre quelli “più al sicuro” sono quelli che hanno un’elevata complementarità con l’IA come chirurghi, avvocati e giudici. Sono molti gli esempi sulla degenerazione della macchine IA e di chi le alimenta, e tra questi emergono l’uso militare, di cui abbiamo un esempio nel genocidio perpetrato da Israele a Gaza, oppure l’utilizzo come ministro della repubblica (accade in Albania), giornalista, esperto meteorologo, ecc. Siamo solo all’inizio dell’era IA e già la prospettiva orwelliana del super controllo, della mistificazione, del dominio e della iper concentrazione del potere sostenuto dalle macchine si delinea come un percorso forzato e verosimilmente ancora peggiore di quello che finora abbiamo conosciuto. Che i luddisti avessero ragione? Fonti: https://hal.science/hal-04534111v1/file/Knowledge_collapse.pdf https://aeon.co/essays/generative-ai-has-access-to-a-small-slice-of-human-knowledge https://www.theguardian.com/society/2025/oct/28/deepseek-is-humane-doctors-are-more-like-machines-my-mothers-worrying-reliance-on-ai-for-health-advice https://www.theguardian.com/technology/2025/nov/04/experts-find-flaws-hundreds-tests-check-ai-safety-effectiveness Max Strata
Intelligenza Artificiale: «Possiamo proteggere la privacy solo collettivamente»
Open source, pochi cookie, ad blocker, svuotamento della cache: tutto questo aiuta solo in misura limitata. È necessario controllare gli algoritmi. > «Immaginate di candidarvi per un posto di lavoro. Sapete di essere un > candidato promettente con un curriculum eccellente. Ma non ricevete nemmeno > una risposta. Forse lo intuite: per la preselezione dei candidati viene > utilizzato un algoritmo di intelligenza artificiale. Ha deciso che > rappresentate un rischio troppo grande. > > Forse l’algoritmo è giunto alla conclusione che non siete adatti alla cultura > aziendale o che in futuro potreste comportarvi in modo tale da causare > attriti, ad esempio aderendo a un sindacato o mettendo su famiglia. Non avete > alcuna possibilità di comprendere il suo ragionamento o di contestarlo». Il professor Maximilian Kasy illustra così quanto già oggi siamo in balia degli algoritmi di IA. Kasy è professore di economia all’Università di Oxford e autore del libro «The Means of Prediction: How AI Really Works (and Who Benefits)». In italiano: «La capacità di prevedere: come funziona davvero l’IA (e chi ne trae vantaggio)». Kasy avverte che gli algoritmi dell’I.A. potrebbero privarci del nostro lavoro, della nostra felicità e della nostra libertà, e persino costarci la vita. > «È inutile preoccuparsi di proteggere la propria privacy digitale, anche se si > mantengono riservati la maggior parte dei dettagli personali, si evita di > esprimere la propria opinione online e si impedisce alle app e ai siti web di > tracciare la propria attività. All’intelligenza artificiale bastano i pochi > dettagli che ha su di voi per prevedere come vi comporterete sul lavoro. Si > basa su modelli che ha appreso da innumerevoli altre persone come voi». Kasy > ha fatto questa triste constatazione in un articolo pubblicato sul New York > Times. Concretamente, potrebbe funzionare così: le banche non utilizzano i clic individuali, ma algoritmi appositamente progettati per decidere chi ottiene un prestito. La loro IA ha imparato dai precedenti mutuatari e può quindi prevedere chi potrebbe trovarsi in mora. Oppure le autorità di polizia inseriscono negli algoritmi dati raccolti nel corso di anni su attività criminali e arresti per consentire un «lavoro di polizia preventiva». Anche le piattaforme dei social media utilizzano non solo i clic individuali, ma anche quelli collettivi per decidere quali notizie – o disinformazioni – mostrare agli utenti. La riservatezza dei nostri dati personali offre poca protezione. L’intelligenza artificiale non ha bisogno di sapere cosa ha fatto una persona. Deve solo sapere cosa hanno fatto persone come lei prima di lei. Gli iPhone di Apple, ad esempio, sono dotati di algoritmi che raccolgono informazioni sul comportamento e sulle tendenze degli utenti senza mai rivelare quali dati provengono da quale telefono. Anche se i dati personali degli individui fossero protetti, i modelli nei dati rimarrebbero invariati. E questi modelli sarebbero sufficienti per prevedere il comportamento individuale con una certa precisione. L’azienda tecnologica Palantir sta sviluppando un sistema di intelligenza artificiale chiamato ImmigrationOS per l’autorità federale tedesca responsabile dell’immigrazione e delle dogane. Il suo scopo è quello di identificare e rintracciare le persone da espellere, combinando e analizzando molte fonti di dati, tra cui la previdenza sociale, l’ufficio della motorizzazione civile, l’ufficio delle imposte, i lettori di targhe e le attività relative ai passaporti. ImmigrationOS aggira così l’ostacolo rappresentato dalla privacy differenziale. Anche senza sapere chi sia una persona, l’algoritmo è in grado di prevedere i quartieri, i luoghi di lavoro e le scuole in cui è più probabile che si trovino gli immigrati privi di documenti. Secondo quanto riportato, algoritmi di intelligenza artificiale chiamati Lavender e Where’s Daddy? sono stati utilizzati in modo simile per aiutare l’esercito israeliano a determinare e localizzare gli obiettivi dei bombardamenti a Gaza. «È NECESSARIO UN CONTROLLO COLLETTIVO» Il professor Kasy conclude che non è più possibile proteggere la propria privacy individualmente: «Dobbiamo piuttosto esercitare un controllo collettivo su tutti i nostri dati per determinare se vengono utilizzati a nostro vantaggio o svantaggio». Kasy fa un’analogia con il cambiamento climatico: le emissioni di una singola persona non modificano il clima, ma le emissioni di tutte le persone insieme distruggono il pianeta. Ciò che conta sono le emissioni complessive. Allo stesso modo, la trasmissione dei dati di una singola persona sembra insignificante, ma la trasmissione dei dati di tutte le persone – e l’incarico all’IA di prendere decisioni sulla base di questi dati – cambia la società. Il fatto che tutti mettano a disposizione i propri dati per addestrare l’IA è fantastico se siamo d’accordo con gli obiettivi che sono stati fissati per l’IA. Tuttavia, non è così fantastico se non siamo d’accordo con questi obiettivi. TRASPARENZA E PARTECIPAZIONE Sono necessarie istituzioni e leggi per dare voce alle persone interessate dagli algoritmi di IA, che devono poter decidere come vengono progettati questi algoritmi e quali risultati devono raggiungere. Il primo passo è la trasparenza, afferma Kasy. Analogamente ai requisiti di rendicontazione finanziaria delle imprese, le aziende e le autorità che utilizzano l’IA dovrebbero essere obbligate a rendere pubblici i propri obiettivi e ciò che i loro algoritmi dovrebbero massimizzare: ad esempio, il numero di clic sugli annunci sui social media, l’assunzione di lavoratori che non aderiscono a un sindacato, l’affidabilità creditizia o il numero di espulsioni di migranti. Il secondo passo è la partecipazione. Le persone i cui dati vengono utilizzati per addestrare gli algoritmi – e le cui vite sono influenzate da questi algoritmi – dovrebbero poter partecipare alle decisioni relative alla definizione dei loro obiettivi. Analogamente a una giuria composta da pari che discute un processo civile o penale e emette una sentenza collettiva, potremmo istituire assemblee cittadine in cui un gruppo di persone selezionate a caso discute e decide gli obiettivi appropriati per gli algoritmi. Ciò potrebbe significare che i dipendenti di un’azienda discutono dell’uso dell’IA sul posto di lavoro o che un’assemblea cittadina esamina gli obiettivi degli strumenti di polizia preventiva prima che questi vengano utilizzati dalle autorità. Questi sono i tipi di controlli democratici che potrebbero conciliare l’IA con il bene pubblico. Oggi sono di proprietà privata. Il futuro dell’IA non sarà determinato da algoritmi più intelligenti o chip più veloci. Dipenderà piuttosto da chi controlla i dati e dai valori e dagli interessi che guidano le macchine. Se vogliamo un’IA al servizio del pubblico, è il pubblico che deve decidere a cosa deve servire. ________ Maximilian Kasy: «The Means of Prediction: How AI Really Works (and Who Benefits)», University of Chicago Press, 2025 -------------------------------------------------------------------------------- Traduzione dal tedesco di Thomas Schmid con l’ausilio di traduttore automatico. INFOsperber
NUOVO PROGETTO MANHATTAN, BOLLA AI, LOTTA AI DATACENTERS
Estratto dalla puntata di lunedì 17 novembre 2025 di Bello Come Una Prigione Che Brucia / / immagine da 404media.co BOLLA AI E LOTTA CONTRO I DATACENTERS Mentre giganti della finanza come Warren Buffet e Micheal Burry, scommettono sull’approssimarsi di una nuova crisi scatenata dalla bolla dell’intelligenza artificiale, cerchiamo di tornare a osservare alcune declinazioni materiali e territoriali della cornice tecnologica in cui si sviluppano questi eventi. Da un lato il controllo di Taiwan potrebbe non essere sufficiente per concludere la corsa al primato sull’AI intrapresa dai grandi poli geotecnologici (Cina e USA), dall’altro le lotte contro il moltiplicarsi dei datacenters iniziano ad assumere una scala rilevante. Andiamo a raccontare il caso di Ypsilanti (Michigan), dove la comunità locale ha resistito al progetto di un centro di super-calcolo ed elaborazione dati che avrebbe visto fondersi – in modo esplicito – militare e civile, nucleare e AI, Los Alamos National Laboratories e Università del Michigan. A margine un’osservazione comparativa delle risorse investite nel vecchio Progetto Manhattan (corsa alla bomba atomica) e nel Nuovo Progetto Manhattan (corsa al primato cognitivo e militare dell’AI). per maggiori info su Ypsilanti
L’adolescenza tra solitudine e disuguaglianze grazie all’ AI
Oltre il 92% dei ragazzi e delle ragazze tra i 15 e i 19 anni utilizza strumenti di IA, e il 41,8% li ha usati per cercare aiuto quando si sentiva triste, solo o ansioso. Una percentuale simile, oltre il 42%, li ha consultati per ricevere consigli su scelte importanti da fare. Al contempo, meno della metà degli adolescenti intervistati (49,6%) dichiara di avere un buon livello di benessere psicologico, con un divario di genere particolarmente marcato: solo il 34% delle ragazze mostra un buon equilibrio psicologico, contro il 66% dei ragazzi. Quasi uno su dieci si è isolato volontariamente per problemi psicologici, e il 12% ha fatto uso di psicofarmaci senza prescrizione. Sono alcuni dei dati della XVI edizione dell’Atlante dell’Infanzia (a rischio) in Italia dal titolo “Senza Filtri” di Save the Children, che accende i riflettori sull’adolescenza, tra iperconnessione, isolamento e disuguaglianze sociali. La fotografia che emerge del Rapporto è complessa: adolescenti che vivono in una dimensione onlife, alla ricerca di ascolto e spazi di condivisione, ma spesso a rischio di isolamento. Questi I dati principali sugli adolescenti italiani: una popolazione di poco più di 4 milioni di 13-19enni, pari al 6,86% della popolazione, uno su 15 (nel 1983 erano 6,5 milioni, 11,6%); il 22% degli adolescenti è figlio unico e quasi uno su quattro vive con un solo genitore (4,4% padre solo, 18,5% madre sola); oltre un adolescente su quattro (26,1%) tra 11 e 15 anni è a rischio povertà o esclusione sociale con forti disuguaglianze territoriali, al Nord 15,2%, Centro 24,1%, Mezzogiorno 41,9%; il 5,2% dei 12-15enni è in povertà alimentare e l’ 8,2% sotto i 16 anni è in povertà energetica; il 43% delle famiglie con figli 11-15enni vive in case sovraffollate (una famiglia su 6 per il totale delle famiglie). Il Rapporto conferma come l’Intelligenza Artificiale sia ormai parte integrante della quotidianità degli adolescenti: il 92,5% la utilizza, contro il 46,7% degli adulti, e quasi un ragazzo su tre la consulta quasi ogni giorno. I chatbot come Chat GPT, Claude e Dixit sono gli strumenti più diffusi, seguiti da traduttori automatici e assistenti vocali. L’IA viene utilizzata soprattutto per studio, ricerca di informazioni e scrittura, ma anche come supporto emotivo. Molti apprezzano che sia sempre disponibile, non giudichi e capisca, tanto che una parte significativa preferisce confrontarsi con uno strumento digitale piuttosto che con una persona reale. Questi dati mostrano come l’IA stia assumendo un ruolo crescente anche nel supporto emotivo, sottolineando l’urgenza di garantire benessere psicologico, spazi di socialità e un dialogo intergenerazionale per guidare percorsi educativi e politiche dedicate agli adolescenti. Nonostante molti adolescenti trovino nell’IA un sostegno emotivo, i dati sul benessere psicologico raccontano una realtà preoccupante: meno della metà dei 15-16enni italiani (49,6%) afferma di sentirsi bene psicologicamente nelle ultime due settimane, con un divario di genere significativo. C’è un forte divario tra ragazze e ragazzi che dichiarano di avere un buon equilibrio psicologico (il 66% dei ragazzi contro 34% delle ragazze), e quasi due quindicenni su cinque percepiscono il proprio corpo come “troppo grasso”, molto più della reale condizione fisica. Questi numeri si riflettono anche in comportamenti a rischio: il 9% si è isolato volontariamente, il 31% ha praticato binge drinking (le abbuffate alcoliche) nell’ultimo mese, e il 12% nell’ultimo anno ha assunto psicofarmaci senza prescrizione, con percentuali più elevate tra le ragazze. Le relazioni degli adolescenti oggi si sviluppano in un contesto sempre più digitale, tra amicizie solide e rischi legati alla rete. Nonostante l’uso massiccio di strumenti online, la maggior parte dei ragazzi e delle ragazze resta soddisfatta dei propri legami: più di 8 su 10 esprimono apprezzamento per il rapporto con gli amici, e oltre il 77% per quello con i genitori. Tuttavia, la vita onlife comporta nuove vulnerabilità e comportamenti emergenti: il 13% degli adolescenti mostra un uso problematico di internet (iperconnessione); il 38% pratica il “phubbing”, controllando spesso il cellulare anche in presenza di amici o familiari; il 27% si sente nervoso quando non ha il telefono a portata di mano; il 47,1% dei 15-19enni è stato/a vittima di cyberbullismo, con un aumento di 16 punti percentuali rispetto al 2018; quasi il 20% dei 14-19enni ha subito episodi offensivi più volte in un mese; tra gli studenti stranieri, la quota di vittime ripetute di atti intimidatori è più alta (26,8%) rispetto ai coetanei italiani (20,4%); relazioni intime e sessualità passano online, con il 30% che ha praticato ghosting; il 37% dei 15-19enni visita siti porno per adulti (54,5% ragazzi, 19,1% ragazze) e l’8,2% usa app di incontri. “L’Atlante – ha sottolineato Raffaela Milano, Direttrice del Polo Ricerche di Save the Children – fotografa le tante, diverse, adolescenze vissute in Italia da una generazione che è stata duramente segnata dall’emergenza Covid, in termini di uso problematico di internet e di rischi di isolamento, ma che oggi cerca con forza nuovi spazi di protagonismo”. L’Atlante verrà presentato il 19 novembre a Roma, presso la sede di Save the Children (Piazza San Francesco di Paola, 9), a partire dalle 9,30. Qui per scaricare l’Atlante: https://www.savethechildren.it/cosa-facciamo/pubblicazioni/xvi-atlante-dell-infanzia-a-rischio-senza-filtri. Giovanni Caprio
In the Belly of AI
Giovedì 20 novembre 2025 venite a vedere la presentazione e proiezione del film documentario "In the Belly of AI". Un lavoro imperdibile per capire i costi umani dell'automazione industriale. Giovedì 20 novembre 2025 AvANa & CinemaForte presentano e proiettano su grande schermo presso il cinema del C.S.O.A. Forte Prenestino, via delpino, Roma "IN THE BELLY OF AI" I sacrificati dell'IA (Fra 2024) 73' diretto da Henri Poulain scritto da Antonio Casilli, Julien Goetz, Henri Poulain introduzione di di AvANa Avvisi Ai Naviganti avana.forteprenestino.net * film sottotitolato in italiano * ingresso a libera sottoscrizione ... IN THE BELLY OF AI I sacrificati dell'IA Dietro l'intelligenza artificiale si nasconde il più grande sfruttamento umano e territoriale del XXI secolo. Un'analisi approfondita, ben documentata e illuminante sulla nuova rivoluzione digitale e su ciò che essa comporta in termini di costi umani e ambientali. Magiche, autonome, onnipotenti... Le intelligenze artificiali alimentano sia i nostri sogni che i nostri incubi. Ma mentre i giganti della tecnologia promettono l'avvento di una nuova umanità, la realtà della loro produzione rimane totalmente nascosta. Mentre i data center ricoprono di cemento i paesaggi e prosciugano i fiumi, milioni di lavoratori in tutto il mondo preparano i miliardi di dati che alimenteranno i voraci algoritmi delle Big Tech, a scapito della loro salute mentale ed emotiva. Sono nascosti nelle viscere dell'IA. Potrebbero essere il danno collaterale dell' ideologia del “lungo termine” che si sta sviluppando nella Silicon Valley ormai da alcuni anni? ...
Convegno di formazione: Intelligenza artificiale e scuola
Martedì 25 novembre dalle 9.00 alle 17.30 a Padova si terrà un convegno laboratoriale di formazione sul tema dell'Intelligenza artificiale a scuola e di come viene imposta dalle linee ministeriali. Il convegno è organizzato da CESP (Centro Studi per la Scuola Pubblica) in collaborazione con CIRCE, Continuity, e il sindacato di base CUB. INDICE * Informazioni pratiche * Quando * Dove * Iscrizione * Attestato Ad aprile 2025 si è tenuto il primo convegno del Centro studi per la Scuola Pubblica sull’“Intelligenza” artificiale: un momento di formazione, riflessione, di grande spessore, a cui hanno partecipato un centinaio di docenti. Ci avete chiesto di farne uno che avesse un focus laboratoriale e noi abbiamo raccolto la sfida e rilanciamo, anche alla luce delle nuove linee guida ministeriali in materia: una mattinata di critica, analisi e riflessioni ed un pomeriggio di laboratori dove “sporcarsi le mani” e cogliere i frutti del mattino. Contiamo di essere numerosi: c’è bisogno di prendere in mano quello che – calatoci dall’alto senza alcun dialogo, confronto, condivisione, né trasparenza – è già parte del nostro presente e del nostro orizzonte futuro. Ci hanno mostrato la BELLA – le “magnifiche sorti e progressive” -, cercheremo di svelare anche la BESTIA. Armati di sano “luddismo riparatore”, ci addentreremo nei gangli della cybermacchina, provando a scoprirne le innumerevoli sfaccettature. Buon corso aggiornamento! INFORMAZIONI PRATICHE Corso di aggiornamento per tutto il personale scolastico: Intelligenza artificiale e scuola: uno sguardo critico alla luce delle linee guida ministeriali QUANDO MARTEDÌ 25 NOVEMBRE 2025, ORE 9.00-17.30 DOVE c/o Aula Magna dell'”I.I.S. Giovanni Valle”, via T.Minio 13, Padova Fermata tram Arcella _È possibile anche partecipare online ma preferibilmente solo la mattina. Qui il link per partecipare da remoto. ISCRIZIONE Iscrizione obbligatoria entro il 21 novembre all’indirizzo https://cesp-ia-ii.vado.li/ oppure a https://surli.cc/vkdzym. ATTESTATO * A chi avrà frequentato almeno il 75% del corso (mattina o mattina più pomeriggio) verrà rilasciato l’attestato di frequenza (della mattina o dell’intera giornata). * A chi frequenterà online (possibile solo la mattina) sarà rilasciato l’attestato solo se proviene da fuori regione – vale la scuola di servizio (con il 75% della frequenza). Per chi si dimenticasse di compilare il modulo entro il 21 novembre, scrivere una mail a giornatastudioformazione@cesp-cobas-veneto.eu indicando il laboratorio scelto e se si desidera fermarsi a pranzo a scuola (offerto dal CESP)