Tag - Intelligenza Artificiale

Perché la poesia manda in tilt ChatGPT
Richieste improprie e che subito bloccate se poste in linguaggio naturale, vengono invece accettate dai large language model se messe in forma di versi e rime: com’è possibile? Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno sempre di produrre contenuti vietati dalle loro policy non è possibile. Per quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da contenuti dannosi e per farlo usano principalmente due strategie. La prima è l’allineamento in fase di addestramento, con cui il modello viene istruito a rifiutare determinate richieste oppure a seguire specifiche regole. La seconda strategia riguarda invece dei filtri esterni o classificatori che analizzano input e output del modello, bloccando tutto ciò che corrisponde a pattern riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi, ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si basano su esempi di richieste formulate in modo diretto, prosastico o estremamente preciso”, prosegue Prandi. Jailbreak in versi Ed è proprio per questa ragione che, nel corso degli anni, sono emersi molteplici metodi che permettono di aggirare le barriere: formulando comandi indiretti e creativi... Continua a leggere
Perché è così difficile fermare i deepnude
È il dicembre 2017 quando la giornalista statunitense Samantha Cole scova sul forum Reddit il primo deepfake che gira in rete. È un video che riproduce l’attrice e modella israeliana Gal Gadot mentre ha un rapporto sessuale. Le immagini non sono precise, il volto non sempre combacia con il corpo e, quando si mette in play, il video genera il cosiddetto effetto uncanny valley, ovvero quella sensazione di disagio che si prova quando si osserva un robot con caratteristiche umane non del tutto realistiche. Come racconta Cole nell’articolo, “deepfakes” – questo il nome dell’utente – continuerà a pubblicare altri video generati con l’intelligenza artificiale e manipolati con contenuti espliciti: una volta con il volto di Scarlett Johansson, un’altra con quello di Taylor Swift. Il fatto che siano persone famose permette di avere più materiale fotografico e video da “dare in pasto” allo strumento e ottenere così un risultato il più possibile verosimile. Ma l’essere note al grande pubblico non è il solo tratto che le accomuna: tutte le persone colpite da deepfake sono donne, e tutte vengono spogliate e riprodotte in pose sessualmente esplicite senza esserne a conoscenza, e quindi senza aver dato il proprio consenso. In appena qualche anno, i deepfake sessuali – anche noti come deepnude – sono diventati un fenomeno in preoccupante espansione in tutto il mondo. Senza più quelle “imprecisioni” che li caratterizzavano ancora nel 2017, oggi riescono a manipolare l’immagine a partire da una sola foto. Anche in Italia se ne parla sempre più frequentemente, come dimostra la recente denuncia di Francesca Barra. Il 26 ottobre, la giornalista e conduttrice televisiva ha scritto un lungo post su Instagram dove racconta di aver scoperto che alcune immagini di lei nuda, generate con l’intelligenza artificiale, circolano da tempo su un sito dedicato esclusivamente alla condivisione di immagini pornografiche rubate o manipolate con l’IA. “È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto nel post Barra, che si è detta preoccupata per tutte quelle ragazze che subiscono la stessa violenza e che magari non hanno gli stessi strumenti per difendersi o reagire. I CASI NEI LICEI ITALIANI In effetti, casi analoghi sono già scoppiati in diversi licei in tutta Italia. A inizio anno, quattro studentesse di un liceo scientifico di Roma hanno ricevuto foto prese dai loro account Instagram in cui apparivano completamente nude. A manipolare le immagini è stato un loro compagno di classe, a cui è bastato caricare le foto su un bot su Telegram che in pochi istanti ha “spogliato” le ragazze. La Procura di Cosenza starebbe invece indagando su un altro caso che, secondo le cronache locali, arriverebbe a coinvolgere quasi 200 minorenni per un totale di 1200 deepnude. La dinamica è sempre la stessa: attraverso bot Telegram e strumenti online, studenti maschi hanno manipolato le foto delle loro compagne di classe. Secondo un’analisi condotta nel 2023, il 98% dei deepfake online registrati quell’anno (95.820) era a contenuto sessuale. Nel 99% di questi, la persona colpita era donna. Insomma, già quel primo video su Reddit preannunciava un utilizzo di questi strumenti volto quasi esclusivamente a quello che, in inglese, è stato inquadrato come image-based sexual abuse (IBSA), un abuso sessuale condotto attraverso l’immagine. “Intorno alla violenza digitale rimane sempre un po’ il mito che sia in qualche modo meno reale rispetto alla violenza fisica. Ma non è affatto così”, spiega a Guerre di Rete Silvia Semenzin, ricercatrice in sociologia digitale all’università Complutense di Madrid. “Le vittime di deepfake subiscono le stesse identiche conseguenze delle vittime di condivisione di materiale sessuale non consensuale. Quasi sempre, la violenza è continuativa e intrecciata nelle sue varie declinazioni, quindi alle molestie, allo stalking, ecc. A mio avviso, con i deepfake si entra in una fase della violenza in cui diventa anche più manifesta la volontà di controllo sul corpo femminile. Perché le radici del fenomeno sono di tipo culturale e affondano sempre nella volontà di sopraffazione del soggetto femminile da parte degli uomini, in questo caso attraverso l’utilizzo della tecnologia”. LA COMPLICITÀ DELLE PIATTAFORME I canali su cui vengono generati e diffusi maggiormente i deepfake sessuali sono generalmente siti anonimizzati che sfruttano hosting offshore e che non rispondono alle richieste legali di altri stati. Quello su cui Francesca Barra e altre donne dello spettacolo hanno scoperto i loro deepfake (di cui non faremo il nome per non dare maggiore visibilità) è attivo già dal 2012, anno di registrazione a New York. Se i contenuti presenti sono sempre materiali espliciti non consensuali, trafugati dai social media o da piattaforme pornografiche come Pornhub e OnlyFans, in cima all’interfaccia utente spiccano invece gli strumenti che permettono di creare con l’intelligenza artificiale la propria “schiava sessuale”. Questa scelta rivela come l’“offerta” all’utente non solo comprenda i deepnude, ma li consideri anche il “prodotto di punta” con cui invogliare all’utilizzo e ampliare la platea di visitatori. Silvia Semenzin e la collega Lucia Bainotti, ricercatrice in sociologia all’Università di Amsterdam, nel 2021 hanno pubblicato un saggio dal titolo Donne tutte puttane, revenge porn e maschilità egemone. Oltre ad anticipare già il tema dei deepfake sessuali, le due autrici in quel testo tracciavano il modo in cui l’architettura dei siti e delle piattaforme su cui vengono diffuse maggiormente immagini sessuali non consensuali possa essere complice dell’abuso fornendone gli strumenti. In particolare, la ricerca era incentrata sui gruppi di persone che condividono materiale non consensuale soprattutto su Telegram, app di messaggistica dove si muovono ancora adesso molti dei bot capaci di spogliare la donna in un solo clic. La possibilità di creare canali con molti utenti, assieme alla facilità di archiviazione nel cloud della stessa piattaforma e alla percezione di agire nell’anonimato sono alcune delle funzioni che garantiscono la continuità delle attività e rendono praticamente impossibile fermare la proliferazione di deepfake e materiale intimo non consensuale. Tutte queste funzionalità socio-tecniche, chiamate affordances (inviti all’uso) possono essere considerate “genderizzate”, perché vengono utilizzate in modo diverso a seconda che l’utente sia uomo o donna, contribuendo così a costruire la propria identità di genere. Per questo motivo – spiegano le due ricercatrici – l’architettura di Telegram può risultare complice nel fornire gli strumenti attraverso cui le violenze di genere vengono messe in pratica e reiterate. Raggiunta da Guerre di Rete, Bainotti spiega quali cambiamenti ha osservato nelle sue ricerche più recenti rispetto all’estensione del fenomeno e al modo in cui piattaforme e siti agevolano la diffusione di questo materiale: “C’è stato sicuramente un aumento consistente nel numero di utenti, per quanto sia difficile tenere traccia del dato preciso (ogni qualvolta viene buttato giù un gruppo se ne apre subito uno speculare). Quello che sicuramente ho riscontrato è che sono aumentati i bot attraverso cui generare i deepfake, e la pubblicità che ruota intorno a questi ‘prodotti’”, racconta Bainotti. “Ci sono dei meccanismi di monetizzazione molto più espliciti e molto più capillari”, prosegue Bainotti. “Spesso per creare un deepfake vengono chiesti pochi centesimi di euro. Questo ci dà un’indicazione del fatto che sono comunque prezzi molto accessibili, che non richiedono un particolare investimento monetario. In più, sono stati messi a punto schemi per coinvolgere più persone e fidelizzare più utenti. Se inviti altri amici, per esempio, ottieni delle monete virtuali per scaricare altri deepfake. Vengono quindi riproposti schemi che avevamo già osservato su Telegram, che incitano a generare immagini di nudo come fosse un gioco (gamification), normalizzando queste pratiche”. X, GOOGLE E NON SOLO: TUTTO ALLA LUCE DEL SOLE Tutto questo non avviene nel darkweb o in qualche meandro della rete, ma alla luce del sole. Google e altri motori di ricerca indirizzano il traffico verso siti che fanno profitto attraverso la generazione di deepfake sessuali che, nelle ricerche, vengono a loro volta indicizzati tra i primi risultati. Allo stesso modo le transazioni avvengono spesso su circuiti internazionali come Visa e Mastercard. Insomma, ogni attore coinvolto contribuisce in una certa misura a facilitare l’abuso. Nell’agosto 2024, a otto mesi di distanza dai deepnude di Taylor Swift diventati virali su X, Google ha annunciato provvedimenti per facilitare le richieste di rimozione di contenuti espliciti non consensuali da parte delle vittime. Anche l’indicizzazione è stata rivista in modo tale che i primi risultati a comparire siano articoli di stampa che trattano l’argomento e non le immagini generate con l’IA. Eppure, una recente analisi dell’organizzazione  anti-estremismo Institute for Strategic Dialogue (ISD) ha dimostrato che il modo più semplice per trovare immagini sessuali non consensuali rimane proprio quello della ricerca su Google, Yahoo, Bing e altri motori di ricerca. Almeno un risultato dei primi venti, infatti, è uno strumento per creare un deepnude. Dall’acquisizione nel 2022 di Elon Musk, anche X è diventato un luogo dove questi strumenti proliferano. Secondo Chiara Puglielli e Anne Craanen, autrici del paper pubblicato da ISD, il social media di proprietà di Musk genererebbe il 70% di tutta l’attività analizzata dalle due ricercatrici, che coinvolge più di 410mila risultati. Risulta problematico anche il form proposto da Google per chiedere la rimozione di un contenuto generato con l’IA: le vittime di image-based sexual abuse devono inserire nel modulo tutti i link che rimandano al contenuto non consensuale. Questo le costringe a tornare sui luoghi in cui si è consumato l’abuso, contribuendo a quella che notoriamente viene definita vittimizzazione secondaria, ovvero la condizione di ulteriore sofferenza a cui sono sottoposte le vittime di violenza di genere per mano di istituzioni ed enti terzi. “Ancora oggi le piattaforme prevedono che sia a onere della vittima ‘procacciarsi’ le prove della violenza e dimostrare che il consenso era assente, quando invece si dovrebbe ragionare al contrario”, spiega ancora Semenzin. “Se denuncio la condivisione di una foto senza il mio consenso, la piattaforma dovrebbe rimuoverla lasciando semmai a chi l’ha pubblicata il compito di dimostrare che il consenso c’era. Questo sarebbe già un cambio di paradigma”. Il Digital Services Act obbliga le piattaforme digitali con più di 45 milioni di utenti ad avere processi efficienti e rapidi per la rimozione di contenuti non consensuali o illegali. A fine ottobre, la Commissione Europea ha aperto delle procedure di infrazione contro Instagram e Facebook per aver aggiunto delle fasi non necessarie – note come dark patterns (modelli oscuri) – nei meccanismi di segnalazione di materiale illecito che potrebbero risultare “confuse e dissuasive” per gli utenti. Meta rischia una sanzione pari al 6% del fatturato annuo mondiale se non si conforma nei tempi dettati dalla Commissione. Più in generale, è stato osservato in più studi che gli algoritmi di molte piattaforme amplificano la visibilità di contenuti misogini e suprematisti. Usando smartphone precedentemente mai utilizzati, tre ricercatrici dell’Università di Dublino hanno seguito ore di video e centinaia di contenuti proposti su TikTok e Youtube Shorts: tutti i nuovi account identificati con il genere maschile hanno ricevuto entro i primi 23 minuti video e immagini anti-femministi e maschilisti. È stato riscontrato inoltre un rapido incremento se l’utente interagiva o mostrava interesse per uno dei contenuti in questione, arrivando a “occupare” la quasi totalità del feed delle due piattaforme. Nell’ultima fase dell’osservazione, il 76% di tutti i video su Tik Tok e il 78% di quelli proposti su YouTube mostravano a quel punto contenuti tossici realizzati da influencer della maschiosfera, il cui volto più noto è sicuramente Andrew Tate, accusato in più paesi di violenza sessuale e tratta di esseri umani. LACUNE LEGALI Dallo scorso 10 ottobre, in Italia è in vigore l’articolo 612 quater che legifera sulla “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. È prevista la reclusione da uno a cinque anni per “chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale”. Essendo trascorso poco più di un mese dalla sua entrata in vigore, non si hanno ancora sentenze che facciano giurisprudenza e che mostrino efficacia e limiti della norma. Quello che appare evidente è però che il testo si occupa di tutti i materiali generati con l’IA, senza entrare nello specifico dei casi in cui i contenuti manipolati sono sessualmente espliciti. Non lo fa neanche l’articolo introdotto nel 2019 (612-ter), che seppur formuli il reato di diffusione di immagini intime senza consenso, conosciuto con il termine inappropriato di revenge porn, non amplia il raggio d’azione a quelle manipolate con l’IA.  Come scrive Gian Marco Caletti, ricercatore in scienze giuridiche all’università di Bologna, questa esclusione “è apparsa fin da subito un aspetto critico, poiché nel 2019 era già ampiamente preventivabile l’affermarsi di questo uso distorto dell’intelligenza artificiale”. La lacuna della legge del 2019 sembrava destinata a essere sanata grazie alla Direttiva europea sulla violenza di genere del 2024, che obbliga gli stati membri a punire le condotte consistenti nel “produrre, manipolare o alterare e successivamente rendere accessibile al pubblico” immagini, video o materiale analogo che faccia credere che una persona partecipi ad atti sessualmente espliciti senza il suo consenso. Eppure, anche nell’articolo entrato in vigore in Italia lo scorso mese, il reato non viene letto attraverso la lente della violenza di genere: il testo mette potenzialmente insieme deepfake di politici creati, per esempio, per diffondere disinformazione in campagna elettorale e deepnude che presentano invece una matrice culturale ben precisa. Se da un lato la legge presenta alcune lacune, è anche vero che la pronuncia del giudice è solo l’ultimo tassello di un iter che, nelle fasi precedenti, coinvolge molti più attori: dalle forze dell’ordine che ricevono la denuncia alle operatrici che lavorano nei centri anti-violenza. La diffusione di image-based sexual abuse è un fenomeno che si muove sul piano culturale, sociale e tecnologico. E per questo motivo non può essere risolto solo con risposte legali. Il quadro normativo è fondamentale, anche allo scopo di criminalizzare la “produzione” di deepfake sessuali, ma non è sufficiente. Come si è visto già con l’introduzione della legge del 2019 sul revenge porn, questa non si è trasformata effettivamente in un deterrente alla condivisione di immagini esplicite non consensuali e, come riporta l’associazione Permesso Negato, la situazione è rimasta critica. “Abbiamo bisogno di armonizzare gli strumenti a nostra disposizione: abbiamo una legge contro la condivisione di materiale non consensuale, di recente è stata introdotta quella contro i deepfake e dal 2024 c’è una direttiva europea sulla lotta contro la violenza di genere”, spiega ancora Bainotti. “Dobbiamo cercare di applicarle in modo che siano coerenti tra loro e messe a sistema. Nel caso italiano, credo che sia proprio questo il punto più carente, perché se abbiamo le leggi, ma allo stesso tempo abbiamo operatori di polizia o altri enti responsabili che non sono formati alla violenza di genere attraverso la tecnologia, la legge rimane fine a se stessa. Bisogna adottare un approccio sinergico, che metta insieme una chiara volontà politica, un’azione educatrice e una rivoluzione tecnologica”, conclude Bainotti. NUOVI IMMAGINARI Da alcuni anni, in Europa, stanno nascendo progetti non-profit che si occupano di tecnologia e spazi digitali da un punto di vista femminista. In Spagna, il collettivo FemBloc offre assistenza a donne e persone della comunità LGBTQ+ vittime di violenza online grazie al supporto interdisciplinare di esperti di sicurezza digitale, avvocati e psicologi. Tra le attività svolte c’è anche quella della formazione all’interno delle scuole contro la violenza di genere digitale, consulenze gratuite su come mettere in sicurezza i propri account e seminari aperti al pubblico. Una realtà analoga è quella di Superrr, fondata in Germania nel 2019. Il loro lavoro – si legge sul sito – è quello di “assicurare che i nostri futuri digitali siano più giusti e più femministi. Tutte le persone dovrebbero beneficiare delle trasformazioni digitali preservando i propri diritti fondamentali”.  In un momento storico in cui la connessione tra “broligarchi tech” e Donald Trump è più evidente che mai, dove i primi si recano alla Casa Bianca per portare regalie e placche d’oro in cambio di contratti federali, sembra quasi ineluttabile che lo spazio digitale sia stato conquistato da un certo tipo di mascolinità: aggressiva, prepotente, muscolare. Eppure, c’è chi vuole ancora tentare di colonizzare questi spazi con nuovi immaginari politici e un’altra concezione dei rapporti di potere nelle relazioni di genere. L'articolo Perché è così difficile fermare i deepnude proviene da Guerre di Rete.
[Le Dita nella Presa] Per un femminismo della rete (1/4: Puntata completa)
prima parte intervista a Marzia Vaccari, autrice di Server Donne -> appuntamento alle cagne sciolte (via ostiense 137b) giovedì 27 novembre dalle 19 per una presentazione del libro con discussione abbiamo parlato di infrastrutture e tecnologie femministe, menzionando alcuni server femministi autogestiti, del rapporto problematico e complesso tra femminismi e digitale, dell'importanza della memoria storica e dell'archiviazione come atto politico, della necessitò di un femminismo della rete anche per non lasciare il campo ai misogini della "manosfera", di risorse e spunti preziosi da Abya Yala  e non solo.. che lavorano sull'autonomia delle infrastrutture ma sull'autodifesa femminista digitale contro le violenze di genere alcuni spazi femministi digitali liberi&open source da esplorare: https://tube.systerserver.net (PeerTube) https://systerserver.town (Mastodon) seconda parte Al telefono con un compagno di Torino parliamo di hackrocchio, l'appuntamento annuale di avvicinamento ad hackmeeting organizzato dall'hacklab underscore. Notiziole: * aggiornamenti sul caso Paragon * in California ritirato il progetto Dragnet, con cui la polizia monitorava i consumi elettrici dell'intera popolazione di Sacramento con l'intento dichiarato di trovare persone che coltivavano cannabis in casa * varie su IA e quanto non funziona * copyright: Cloudflare multato in Giappone per non aver favorito la rimozione di contenuti "pirata" * l'annoso caso del chip sottopelle  
Il problema non è l’intelligenza artificiale: basta usarla bene
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”. Analisi di una “catchphrase” di gran moda Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne esistono numerose varianti che sostituiscono la parola “bene” con locuzioni specifiche, senza variare il significato complessivo. Se la tecnologia in questione è l’intelligenza artificiale, le varianti più probabili, solitamente, sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o ancora “appropriato”. In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”. Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa virale. Monetizza, magari. Ma è anche vera? leggi l'articolo di Stefano Bottoni Barale
Proiezione di "In the belly of AI" al CSOA Forte Prenestino
Giovedì 20 novembre 2025, al cinema del CSOA Forte Prenestino verrà proiettato "IN THE BELLY OF AI", il documentario che mostra il lavoro nascosto che fa funzionare la cosidetta Intelligenza Artificiale. AvANa & CinemaForte presentano e proiettano su grande schermo "IN THE BELLY OF AI", I sacrificati dell'IA (Fra 2024) 73', diretto da Henri Poulain Dietro l'intelligenza artificiale si nasconde il più grande sfruttamento umano e territoriale del XXI secolo. Un'analisi approfondita, ben documentata e illuminante sulla nuova rivoluzione digitale e su ciò che essa comporta in termini di costi umani e ambientali. Magiche, autonome, onnipotenti... Le intelligenze artificiali alimentano sia i nostri sogni che i nostri incubi. Ma mentre i giganti della tecnologia promettono l'avvento di una nuova umanità, la realtà della loro produzione rimane totalmente nascosta. Mentre i data center ricoprono di cemento i paesaggi e prosciugano i fiumi, milioni di lavoratori in tutto il mondo preparano i miliardi di dati che alimenteranno i voraci algoritmi delle Big Tech, a scapito della loro salute mentale ed emotiva. Sono nascosti nelle viscere dell'IA. Potrebbero essere il danno collaterale dell'ideologia del “lungo termine” che si sta sviluppando nella Silicon Valley ormai da alcuni anni? Sul sito del Forte Prenestino tutte le informazioni sulla proiezione
Le Dita Nella Presa - Nel ventre dell'IA
Nella puntata di domenenica 17 novembre intervistiamo Antonio Casilli sul lavoro nascosto e senza diritti che fa funzionare l'Intelligenza Artificiale; di questi temi parleremo meglio Giovedì 20 al Forte Prenestino con la proiezione di In the belly of AI. Segnaliamo alcune iniziative, poi le notiziole: l'Unione Europea attacca il GDPR per favorire le grandi imprese dell'IA; Google censura video che documentano il genocidio in Palestina: quali alternative? Nella lunga intervista con Antonio Casilli, professore ordinario all'Istituto Politecnico di Parigi e cofondatore del DiPLab, abbiamo parlato del rapporto tra Intelligenza Artificiale e lavoro: la quantità di lavoro diminuisce a causa dell'intelligenza artificiale? quali sono i nuovi lavori che crea? come si situano nella società le data workers, ovvero le persone che fanno questi lavori? come è strutturata la divisione (internazionale) del lavoro che fa funzionare l'intelligenza artificiale? è vero che sostituisce il lavoro umano? Per approfondire questi sono alcuni siti di lavoratori che si organizzano menzionati durante la trasmissione: * https://data-workers.org/ * https://datalabelers.org/ * https://turkopticon.net/ * https://www.alphabetworkersunion.org/ Inoltre: * L'approfondimento di Entropia Massima, sempre con Antonio Casilli * L'approfondimento di StakkaStakka di Luglio 2024, sempre con Antonio Casilli Tra le iniziative: * lo Scanlendario 2026 a sostegno di Gazaweb * 27 Novembre, alle cagne sciolte, presentazione del libro "Server donne" di Marzia Vaccari (Agenzia X, 2025) Ascolta la puntata intera o l'audio dei singoli temi trattati sul sito di Radio Onda Rossa
[Le Dita nella Presa] Nel ventre dell'IA (1/4: Puntata completa)
Intervistiamo Antonio Casilli sul lavoro nascosto e senza diritti che fa funzionare l'Intelligenza Artificiale; di questi temi parleremo meglio Giovedì 20 al Forte Prenestino con la proiezione di In the belly of AI. Segnaliamo alcune iniziative, poi le notiziole: l'Unione Europea attacca il GDPR per favorire le grandi imprese dell'IA; Google censura video che documentano il genocidio in Palestina: quali alternative? Nella lunga intervista con Antonio Casilli, professore ordinario all'Istituto Politecnico di Parigi e cofondatore del DiPLab, abbiamo parlato del rapporto tra Intelligenza Artificiale e lavoro: la quantità di lavoro diminuisce a causa dell'intelligenza artificiale? quali sono i nuovi lavori che crea? come si situano nella società le data workers, ovvero le persone che fanno questi lavori? come è strutturata la divisione (internazionale) del lavoro che fa funzionare l'intelligenza artificiale? è vero che sostituisce il lavoro umano? Per approfondire: * Questi alcuni siti di lavoratori che si organizzano menzionati durante la trasmissione: * https://data-workers.org/ * https://datalabelers.org/  * https://turkopticon.net/  * https://www.alphabetworkersunion.org/ * L'approfondimento di Entropia Massima, sempre con Antonio Casilli * L'approfondimento di StakkaStakka di Luglio 2024, sempre con Antonio Casilli Tra le iniziative: * lo Scanlendario 2026 a sostegno di Gazaweb * 27 Novembre, alle cagne sciolte, presentazione del libro "Server donne" di Marzia Vaccari (Agenzia X, 2025)  
Un nuovo test OCSE per misurare le competenze in intelligenza artificiale
L’OCSE ha annunciato un nuovo test internazionale sulla “competenza in materia di intelligenza artificiale” dei giovani. Il test, che fornirà una misurazione globale delle competenze per interagire con l’intelligenza artificiale, dovrebbe svolgersi nel 2029, con risultati attesi per la fine del 2031. I tempi potrebbero essere lunghi, ma come per tutte le valutazioni OCSE, il problema è come i responsabili dei sistemi educativi e gli educatori potrebbero reagire.   -------------------------------------------------------------------------------- L’OCSE ha annunciato un nuovo test internazionale sulla “competenza in materia di intelligenza artificiale” dei giovani. Il test, che fornirà una misurazione globale delle competenze per interagire con l’intelligenza artificiale, dovrebbe svolgersi nel 2029, con risultati attesi per la fine del 2031. I tempi potrebbero essere lunghi, ma come per tutte le valutazioni OCSE, il problema è come i responsabili dei sistemi educativi e gli educatori potrebbero reagire. Inquadrato come parte dell’esercitazione PISA 2029, > La valutazione PISA 2029 Media & Artificial Intelligence Literacy (MAIL) farà > luce sulle opportunità che i giovani studenti hanno avuto di apprendere e di > impegnarsi in modo proattivo e critico in un mondo in cui la produzione, la > partecipazione e i social network sono sempre più mediati da strumenti > digitali e di intelligenza artificiale. L’alfabetizzazione all’intelligenza artificiale è un tema di grande attualità. Per molti commentatori, è “l’imperativo” principale per l’istruzione. Numerose definizioni e quadri di riferimento circolano regolarmente sui social media. Data la duratura influenza dell’OCSE attraverso i test educativi, il suo intervento sull’alfabetizzazione all’intelligenza artificiale potrebbe quindi avere un impatto significativo nel definire lo standard internazionale in relazione alle competenze degli studenti nell’interazione con l’intelligenza artificiale. Ciò che il test OCSE si propone di fare è fornire una definizione globale concreta di alfabetizzazione all’intelligenza artificiale, sottoporla a misurazioni quantitative e comparative e incoraggiare insegnanti e studenti a “mettersi alla prova”. Questo articolo è un tentativo di analizzare il funzionamento del test OCSE di alfabetizzazione all’intelligenza artificiale e le sue potenziali implicazioni. DEFINIZIONE Il primo passo per impostare un test di qualsiasi competenza è fornire una definizione chiara di ciò che deve essere testato. L’OCSE offre la sua attuale definizione di Media & AI Literacy come “l’insieme delle competenze per interagire con contenuti e piattaforme digitali in modo efficace, etico e responsabile“. Si afferma che: > “é essenziale valutare e sviluppare le competenze di cui gli studenti hanno > bisogno per comprendere come funzionano gli strumenti digitali e di > intelligenza artificiale, il ruolo umano negli strumenti e nei media digitali, > le conseguenze sociali ed etiche dell’utilizzo di strumenti digitali e di > intelligenza artificiale, come comunicare e collaborare efficacemente con > strumenti digitali e di intelligenza artificiale e come valutare criticamente > i contenuti dei media”. Combinando l’alfabetizzazione ai media digitali con l’alfabetizzazione all’intelligenza artificiale, l’OCSE si è posta una sfida significativa. Esiste una lunga storia di tentativi di concettualizzare varie forme di alfabetizzazione mediatica, digitale, dei dati e dell’intelligenza artificiale, e tutte comportano lotte di potere sulla definizione. Gli educatori dei media, ad esempio, hanno a lungo cercato di inquadrare l’alfabetizzazione mediatica in termini di “consumo”, “creazione” e “critica”. Allo stesso modo, gli educatori focalizzati sull'”alfabetizzazione digitale” hanno sostenuto che gli studenti dovrebbero essere informati criticamente sulle tecnologie, i fornitori e i discorsi digitali, piuttosto che limitarsi a essere consumatori passivi e creatori di contenuti.   Quali tipi di alfabetizzazione vengano insegnati ai giovani è sempre una questione politica, che contribuisce a definire l’orientamento degli studenti come lettori e scrittori, o consumatori e produttori, nei loro contesti sociali e tecnologici. Ciò aumenta il rischio di escludere determinati tipi di alfabetizzazione. E nell’attuale contesto politico, l’intelligenza artificiale non è semplicemente uno “strumento” per nuove forme di creatività e consumo, ma una tecnologia profondamente politica che richiede specifiche competenze critiche. James O’Sullivan ha recentemente sostenuto, in modo provocatorio e convincente, la tesi dell'” analfabetismo in materia di intelligenza artificiale “, osservando che la maggior parte delle discussioni inquadra l’alfabetizzazione in materia di intelligenza artificiale “come una forma di conformità: si imparano gli strumenti per non restare indietro”: > Naturalmente, l’alfabetizzazione all’intelligenza artificiale ha il suo posto, > in particolare laddove consente una critica informata, una resistenza etica o > una co-creazione significativa. Ma dobbiamo essere cauti nel trattarla come un > bene universale. C’è una differenza tra comprendere a sufficienza per > criticare e assorbire così tanti dettagli tecnici da iniziare a scambiare la > funzionalità per verità. L’illusione di comprendere – la convinzione che > essere in grado di attivare efficacemente un chatbot costituisca una > conoscenza approfondita – può essere più pericolosa dell’ignoranza. L’idea provocatoria di analfabetismo in materia di intelligenza artificiale mette quindi in primo piano la politica di richiesta di standard universali di alfabetizzazione in materia di intelligenza artificiale e i tipi di esclusioni in termini di conoscenza, apprendimento e competenze che la maggior parte delle definizioni impone. L’OCSE non è un attore neutrale quando si tratta di IA: da diversi anni promuove l’uso dell’IA nell’istruzione e rilascia regolarmente dichiarazioni epocali sui suoi effetti trasformativi. Gran parte della sua attenzione è rivolta agli effetti dell’IA sull’economia, e quindi al mantenimento della produttività e del progresso economico attraverso l’aggiornamento tecnologico. Ora, attraverso il test di alfabetizzazione in materia di IA, sta esercitando la sua autorità politica su come definire e valutare le competenze in IA. Il suo obiettivo è produrre una definizione standardizzata a livello globale di alfabetizzazione all’intelligenza artificiale, che probabilmente cancellerà le sfumature e la diversità negli approcci alla riflessione sull’interazione dei giovani con questa famiglia di tecnologie e sui loro effetti controversi. Resta da vedere quanta parte della dimensione critica dell’educazione ai media sopravviverà, una volta che l’OCSE l’ha definita in termini di “abilità di valutazione”; si può tuttavia immaginare che essa venga ridotta a una questione misurabile, come verificare se un utente controlla o meno l’accuratezza di una risposta generata da un prompt.  Oltre alle decisioni politiche che dovrà prendere sulla definizione dell’alfabetizzazione in materia di intelligenza artificiale e su cosa includere o escludere dal test, l’OCSE si trova ad affrontare anche una sfida tecnica e metodologica: come renderla operativa come una serie di elementi di test misurabili. QUANTIFICAZIONE La documentazione disponibile indica che gli sviluppatori dei test dell’OCSE stanno attualmente lavorando agli strumenti per la prova. L’OCSE si è da tempo posizionata come fonte di competenza e innovazione nel campo delle metriche educative. Ciò significa che ora sta traducendo l’alfabetizzazione all’intelligenza artificiale in elementi misurabili tramite test in grado di generare risultati quantitativi e confrontabili. Come apparirà esattamente il test, quali dati genererà e come verranno analizzati, rimane ancora poco chiaro. Un caso illuminante è il precedente test dell’OCSE sulle competenze socio-emotive, che prevedeva la produzione di uno schema psicometrico condensato per l’ enumerazione delle emozioni degli studenti . Ciò significava che l’OCSE aveva condotto un’ampia revisione degli strumenti psicometrici disponibili, prima di giungere infine a una versione adattata del modello delle caratteristiche di personalità “Big 5”. In questo processo, ha cancellato altri modelli concorrenti per la misurazione dell’apprendimento socio-emotivo, imponendo un quadro globale in base al quale tali competenze o qualità possono essere misurate e confrontate a livello internazionale. In questo modo, ha prodotto un modo distintivo di intendere le “emozioni” come questione educativa. È probabile che il modello per la valutazione dell’alfabetizzazione in materia di IA segua un percorso simile. Richiederà che l’alfabetizzazione in materia di IA sia scomposta in una serie di unità misurabili che possano essere utilizzate come elementi verificabili. Di fatto, l’OCSE ha già iniziato a quantificare le capacità dell’IA stessa al fine di effettuare confronti con le competenze umane, come base per evidenziare le competenze necessarie che i sistemi educativi devono insegnare.   Nella descrizione della valutazione dell’alfabetizzazione in materia di intelligenza artificiale, l’OCSE afferma di stare esplorando innovazioni nella valutazione per catturare queste capacità umane: > Questa nuova valutazione è concepita come un ambiente simulato che consente di > raccogliere evidenze relative a diverse competenze del modello di > alfabetizzazione. > Tali competenze vengono valutate attraverso una varietà di strumenti > funzionali, accessibili agli studenti in modo realistico durante tutta la > prova (ad esempio, simulazioni realistiche di Internet, dei social media e di > strumenti di intelligenza artificiale generativa). In quanto tale, la valutazione non sarà un test convenzionale, ma sarà organizzata come una serie di simulazioni che faranno uso di “strumenti” esistenti e accessibili. Tali strumenti saranno utilizzati per mettere alla prova un “modello” specificamente definito di alfabetizzazione all’intelligenza artificiale (AI literacy) e le sue “competenze” componenti. Il risultato finale della valutazione, come per tutti i test dell’OCSE, dovrà tradursi in numeri che consentano di valutare e confrontare programmi, sistemi e Paesi. L’alfabetizzazione all’IA dovrà quindi diventare “alfabetizzazione all’IA in forma di numeri”, soggetta alle tecniche metriche e resa comparabile. Non è difficile immaginare che in futuro emergeranno dei vincitori nelle classifiche dell’alfabetizzazione all’IA. È probabile che ciò incoraggi i responsabili politici – in particolare negli Stati Uniti, in Cina e in Europa – a competere per posizionarsi nella scala ordinale della competenza in AI literacy. Ed è proprio su questi numeri, naturalmente, che l’OCSE potrà far leva per individuare le migliori pratiche da proporre come modello agli altri. PERFORMATIVITÀ Come per tutti i test OCSE, l’importanza della valutazione dell’alfabetizzazione in materia di IA non risiede necessariamente nei risultati quantitativi che produrrà tra più di cinque anni. È l’attività che stimola nei sistemi educativi in previsione della valutazione. L’esistenza di un test stimola sforzi significativi per preparare gli studenti a sostenerlo. In questo caso, tale sforzo contribuirebbe alla visione globale dell’OCSE dell’IA come forza trasformativa sociale ed economica che richiede la partecipazione di una popolazione alfabetizzata in materia di IA. L’OCSE, infatti, non si limita a produrre un test di alfabetizzazione all’intelligenza artificiale, ma ha collaborato con la Commissione europea su un ” Quadro di riferimento per l’alfabetizzazione all’intelligenza artificiale “, lanciato per la consultazione alla fine di maggio 2025. Il quadro consiste in “conoscenze, competenze e atteggiamenti che prepareranno adeguatamente gli studenti nell’istruzione primaria e secondaria”: > L’iniziativa fornirà inoltre le basi per la prima valutazione > dell’alfabetizzazione all’intelligenza artificiale nell’ambito del Programma > OCSE per la valutazione internazionale degli studenti (PISA) e sosterrà gli > obiettivi dell’UE di promuovere un’istruzione e competenze digitali di qualità > e inclusive. > > Al centro dell’iniziativa c’è l’integrazione dell’alfabetizzazione > all’intelligenza artificiale in tutte le materie scolastiche. Ciò include > insegnare agli studenti a utilizzare gli strumenti di intelligenza > artificiale, nonché a co-creare con essi e a riflettere su un utilizzo > responsabile ed etico. Oltre a offrire le “fondamenta” per il test, questo quadro sembra normalizzare l’idea di integrare l’IA nella scuola stessa. Affinché i soggetti sottoposti al test abbiano una competenza in materia di IA, questa non deve solo essere insegnata, ma diventare parte integrante delle normali routine di insegnamento e apprendimento. L’integrazione dell’IA nella scuola è fortemente contestata, con almeno un argomento chiave (tra i tanti ) che sostiene che essa serva gli interessi di mercato delle aziende tecnologiche e dell’edtech, che vedono opportunità redditizie nell’introduzione dell’IA nelle scuole. Oltre all’OCSE e alla CE, un altro partner è code.org, l’organizzazione che ha promosso “l’apprendimento del coding” a livello internazionale ed è stata recentemente una delle principali sostenitrici dell’Ordine Esecutivo statunitense che “rende obbligatorio” l’uso dell’IA e la promozione dell’alfabetizzazione all’IA nell’istruzione americana. Audrey Watters sostiene che il tipo di alfabetizzazione all’intelligenza artificiale promosso da questa direttiva risponde agli interessi governativi e commerciali, ma è destinato a mancare di qualsiasi dimensione critica, a causa dell’ostilità dell’amministrazione statunitense nei confronti delle idee legate al pregiudizio e alla discriminazione.. Più prosaicamente, il coinvolgimento di code.org, in quanto organizzazione incentrata sull’industria, lascia intendere che il quadro di riferimento per l’alfabetizzazione all’IA possa concentrarsi soprattutto sulle abilità d’uso dell’intelligenza artificiale (“imparare a fare prompt” come il nuovo “imparare a programmare”), piuttosto che su un reale coinvolgimento critico  con l’IA come problema sociale e pubblico. Nella sua forma più attenuata, l’alfabetizzazione all’IA può apparire come una sorta di formazione tecnica all’uso efficiente dell’IA – ciò che altrove ho chiamato corsi e lezioni ” pedagoGPT “. Per alcuni, formare gli studenti con competenze in materia di IA è addirittura principalmente una questione geopolitica ed economica, mentre le nazioni competono per i talenti e il predominio in una nuova ” corsa allo spazio “. Luci Pangrazio ha sostenuto che programmi simili di “alfabetizzazione digitale” sponsorizzati da aziende tecnologiche ora funzionano come una forma di governance nelle scuole : > Se l’alfabetizzazione digitale viene definita e sviluppata in relazione alle > diverse piattaforme e app nelle scuole, e se le piattaforme e le app nelle > scuole vengono sempre più progettate per monitorare e sorvegliare > (controllare) il personale e gli studenti perché è così che si dimostra > l’apprendimento, allora l’alfabetizzazione digitale è diventata un modo > efficace per governare sia gli insegnanti che gli studenti nelle scuole. In altre parole, l‘appropriazione commerciale dell'”alfabetizzazione digitale” ha già portato a trasformarla in una sorta di formazione tecnica che abitua e educa studenti e insegnanti all’uso della tecnologia, influenzandone anche la pratica. Estrapolando da questo caso, possiamo vedere come il test di alfabetizzazione all’intelligenza artificiale dell’OCSE e il relativo framework potrebbero esercitare una sorta di pressione governativa su scuole, educatori e studenti affinché agiscano di conseguenza. L’uso di un test per stimolare azioni anticipatrici è spesso definito “performatività”. In questo contesto, la performatività si riferisce specificamente al modo in cui le misurazioni, come quelle prodotte da un test, spingono i dirigenti scolastici e gli insegnanti a “insegnare in funzione del test” per ottenere buoni risultati nell’esercizio di misurazione. Il test PISA dell’OCSE è noto per essere un motore di performatività, che stimola i decisori politici e i leader di sistema ad agire per migliorare le “prestazioni” al fine di ottenere un punteggio elevato nei risultati. I test PISA consentono la governance statistica dell’istruzione, spingendo le persone a comportarsi in risposta alla classifica. Nell’ambito del PISA 2029, l’alfabetizzazione all’intelligenza artificiale sembra destinata a diventare parte integrante della classifica educativa internazionale attraverso test standardizzati internazionali. Insegnanti e dirigenti potrebbero sentirsi in dovere di agire secondo il framework OCSE/EC/code.org per ottenere risultati efficaci nel test. Ciò rafforzerà la definizione di alfabetizzazione all’intelligenza artificiale definita dall’OCSE, trasformando le competenze e le abilità in intelligenza artificiale in indicatori standardizzati e comparabili a livello globale. L’alfabetizzazione all’intelligenza artificiale espressa sotto forma di numero potrebbe rendere l’azione sull’intelligenza artificiale una preoccupazione centrale dei sistemi scolastici. INFRASTRUTTURARE L’ALFABETIZZAZIONE DELL’IA Sebbene si tratti necessariamente di un’ipotesi un po’ speculativa, è importante ricordare l’influenza dell’OCSE sui sistemi educativi di tutto il mondo. Le sue infrastrutture di test consentono la produzione di dati quantitativi su larga scala e guidano i processi decisionali e le agende politiche in ambito educativo. Vale la pena prestare attenzione a questi sforzi politici in corso per integrare l’alfabetizzazione all’intelligenza artificiale nelle scuole e all’infrastruttura di test che l’OCSE sta creando per enumerare le competenze e le abilità degli studenti in materia di intelligenza artificiale. Gli sforzi dell’OCSE dovrebbero essere intesi come un tentativo di infrastrutturare l’alfabetizzazione all’IA . Infrastrutturare l’alfabetizzazione all’IA significa costruire, mantenere e attuare un sistema di valutazione e misurazione che non solo enumererà le competenze in materia di IA, ma renderà l’alfabetizzazione all’IA una preoccupazione e un obiettivo centrale dei sistemi scolastici. Funzionerebbe come un’infrastruttura di misurazione che richiederebbe la partecipazione di insegnanti e studenti per costruire dati standardizzati a livello internazionale sull’alfabetizzazione all’intelligenza artificiale. Per “contare”, questi dovrebbero rispettare gli standard di misurazione integrati nell’infrastruttura, seguendo le prescrizioni del framework per l’alfabetizzazione all’intelligenza artificiale. Tracciare in modo più approfondito lo sviluppo e l’evoluzione della valutazione dell’alfabetizzazione all’intelligenza artificiale contribuirà a chiarire come l’intelligenza artificiale verrà concepita come un problema educativo, come verrà integrata nei sistemi metrologici e come un esercizio di misurazione che si protrarrà per diversi anni potrà stimolare azioni preventive in ambito educativo. In che modo educatori e studenti verranno coinvolti in questa infrastruttura OCSE di misurazione dell’alfabetizzazione all’IA, e come metteranno in pratica tale alfabetizzazione prima della valutazione?   Questo articolo è stato pubblicato sul blog: https://codeactsineducation.wordpress.com/ il 30.4.2025.
Modelli linguistici: oracoli da bar con manie di grandezza
Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un difetto risolvibile. I tentativi di controllo qualità sui dati richiedono risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali addestrati su dati limitati I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile – dell’industria dell’intelligenza artificiale. Tra promesse di precisione e realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo. L‘insistenza criminale sui sistemi predittivi fallimentari C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed è la criminale, idiota insistenza a volersene dotare. Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo un discorso più generale. leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)
Quanto e come usiamo davvero l’intelligenza artificiale?
L’Italia è ha introdotto, lo scorso 17 settembre 2025, una legge che punta a normare l’utilizzo di strumenti di intelligenza artificiale. Il provvedimento recepisce (almeno in parte) l’AI Act europeo, introducendo anche una serie di regole e reati penali connessi all’uso dell’AI. Ma qual è la situazione in Italia per quanto riguarda l’uso di strumenti di intelligenza artificiale? A prima vista, il nostro paese sconta un ritardo simile a quello, più volte denunciato, relativo a una generale carenza di competenze digitali. Analizzando i dati disponibili, emergono però alcuni elementi che chiariscono meglio le specifiche problematicità, accanto a considerazioni importanti riguardo il prossimo futuro. QUALE INTELLIGENZA ARTIFICIALE? Quando ci si avventura in un’analisi sull’utilizzo dell’intelligenza artificiale, la maggior parte dei dati disponibili sono di carattere statistico e devono essere presi con le pinze. Numeri e percentuali, infatti, rischiano di essere fuorvianti.  Il primo aspetto su cui soffermarsi è l’oggetto stesso di cui si tratta. Nonostante l’opinione pubblica parli ormai di “intelligenza artificiale” con riferimento solo all’AI generativa e ai modelli linguistici (large language model), la sua definizione è in realtà molto più articolata. La stessa legge italiana adotta l’ampia definizione utilizzata nell’AI Act: “Un sistema automatizzato progettato per funzionare con livelli di autonomia variabili (…) e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. Non solo, quindi, i vari ChatGPT, Gemini, Claude e soci. Quando si parla di AI ci si riferisce in realtà a una molteplicità di sistemi e funzioni, molti dei quali rimangono dietro le quinte e dei quali, nella maggior parte dei casi, gli stessi utilizzatori di software e piattaforme ignorano l’esistenza. I CHATBOT DI LARGO CONSUMO NEL NOSTRO PAESE I sistemi di GenAI per cui è più facile reperire dati oggettivi sono proprio i chatbot che hanno preso il centro del palcoscenico negli ultimi 36 mesi. I dati riportati dalla piattaforma di analisi AI Tools, aggiornati allo scorso agosto, riportano una classifica che mostra la distribuzione geografica degli accessi via web ai servizi di AI. Alla testa di questa particolare classifica (basata su numeri assoluti) svettano gli Stati Uniti con oltre 2 miliardi di accessi, mentre l’Italia si posiziona al 17esimo posto dietro a paesi come Messico, Filippine, Indonesia e Vietnam. Questi dati, però, sono falsati dalle differenze a livello di popolazione: se si introduce questo elemento nell’equazione, i dati consentono una lettura più veritiera.  Se ci limitiamo a confrontare il numero di accessi con paesi “simili”, emerge come AI Tools abbia registrato in Italia 3.25 accessi per abitante, poco più della metà (5,76) rispetto agli Stati Uniti e con un valore di poco inferiore a Germania (4,57) e Francia (3,85). Limitando l’analisi a ChatGPT, che nel settore dell’AI generativa detiene più dell’80% del mercato, i dati sono piuttosto simili. Stando a quanto riporta Digital Gravity, gli accessi provenienti dall’Italia al chatbot di OpenAI si collocano allo stesso livello di un paese come la Germania e di poco inferiori a Spagna e Francia. “I dati sono sempre utili, ma rischiano di creare degli equivoci pericolosi”, sottolinea Irene Di Deo, ricercatrice senior dell’Osservatorio Artificial Intelligence al Politecnico di Milano. “Quando si parla di utilizzo di AI generativa facendo riferimento ai prodotti accessibili sul web, spesso si tratta di un uso che ha un fine ludico o personale. Per comprendere il livello di utilizzo in ambito produttivo è indispensabile fare riferimento ad altri indici, come le licenze acquistate dalle imprese”. L’AI NEL SETTORE PRODUTTIVO Se si passa a un uso più “aziendale” dell’intelligenza artificiale, i dati disponibili sono meno oggettivi rispetto a quelli relativi al numero di accessi agli strumenti di AI liberamente  disponibili su Internet. La maggior parte di questi dati si basa su indagini eseguite in ambito accademico o a opera di istituzioni internazionali. Una delle analisi più affidabili, pubblicata da Eurostat, segna un generale ritardo dell’Italia rispetto agli altri paesi europei. I dati relativi al Digital Intensity Level – indice che valuta quanto intensamente un’azienda utilizza un insieme di tecnologie digitali chiave nella propria attività – sono tutto sommato nella media. Tra i 27 paesi UE, l’Italia si posiziona infatti al sedicesimo posto. Quando si parla di AI, le cose però vanno decisamente peggio. In questa specifica classifica, l’Italia è ventiduesima e staccata notevolmente dai migliori. Solo l’8% delle aziende italiane utilizzerebbero strumenti basati sull’AI, contro il 27,6% di quelle danesi e una media UE del 13,5%. “Si tratta di un dato che va letto alla luce del tipo di tessuto produttivo che c’è nel nostro paese”, spiega Di Deo. “La prevalenza di piccole e medie imprese incide notevolmente sul dato statistico”.  Quando si parla di utilizzo dell’AI in ambito produttivo, specifica la ricercatrice, nella maggior parte dei casi sono strumenti con finalità molto specifiche, ben diversi dai chatbot che vengono proposti al grande pubblico. “Si tratta di piattaforme che richiedono investimenti a livello finanziario piuttosto rilevanti, che le PMI spesso non possono permettersi”, prosegue. “A livello di grandi aziende, i dati che abbiamo raccolto in questi anni indicano che almeno il 60% delle imprese ha implementato strumenti basati sull’AI o ha avviato almeno una sperimentazione”.  Di Deo sottolinea anche un altro aspetto: per sfruttare l’AI è indispensabile avere delle basi solide a livello di dati. Non si tratta dei famosi dataset necessari per addestrare gli algoritmi, ma di quelle informazioni che poi verranno elaborate dall’intelligenza artificiale per generare valore per l’impresa. “L’uso dell’AI per finalità come la manutenzione predittiva o il controllo qualità dei prodotti richiede la presenza di una serie storica. Chi non ha raccolto dati sulla sua attività negli ultimi 20 anni potrà difficilmente ottenere dei buoni risultati in questi ambiti”. IL FENOMENO DELLA SHADOW AI A complicare ulteriormente il quadro è la difficoltà di monitorare l’uso “autonomo” di strumenti di AI generativa da parte dei lavoratori. La disponibilità di chatbot gratuiti o comunque accessibili commercialmente per uso privato ha innescato il fenomeno della cosiddetta “Shadow AI”, cioè l’uso non documentato (e incontrollato) di strumenti di intelligenza artificiale da parte di singoli individui.  Oltre a essere un elemento distorsivo a livello statistico, la Shadow AI rappresenta un’area grigia che è fonte di preoccupazione per gli addetti ai lavori. Le ragioni sono molteplici e comprendono, per esempio, i rischi legati alla cyber security. Gli strumenti basati su AI generativa aumentano infatti il rischio di diffusione involontaria di informazioni riservate e soffrono di vulnerabilità specifiche che possono essere mitigate solo attraverso l’adozione di rigorose politiche di utilizzo e l’implementazione di strumenti dedicati.  Ancora: con l’approvazione dell’AI Act (e in Italia della recente normativa nazionale) emerge anche il tema del rispetto degli obblighi giuridici legati all’uso dell’intelligenza artificiale. Tra questi c’è l’obbligo di informare i clienti quando si impiegano strumenti di AI nello svolgimento della propria attività professionale, come previsto dall’articolo 13 della legge italiana. QUALE IMPATTO HA DAVVERO L’AI? Se oggi il livello di implementazione dell’AI viene considerato come un indicatore di evoluzione tecnologica, è probabile che questa equivalenza evapori piuttosto rapidamente, soprattutto a livello statistico. Gli LLM, in diverse forme, vengono ormai integrati in qualsiasi software. Non c’è prodotto commerciale che non offra un “assistente” alimentato dalla GenAI, la cui utilità è spesso relativa. Anche dove l’AI è stata considerata una priorità su cui puntare, sono emersi grossi dubbi sul suo reale impatto. Una ricerca del MIT Media Lab, pubblicata quest’anno, sottolinea come il 95% delle imprese che hanno introdotto strumenti di intelligenza artificiale generativa non sia stato in grado di individuare un effettivo impatto a livello di valore.  I ricercatori, nel report, sottolineano come l’AI sia utilizzata principalmente per migliorare la produttività individuale attraverso l’uso dei vari “co-piloti”. In tutti questi casi, non si va oltre la generazione di documenti, email, riassunti di riunioni e simili.  Nulla di sconvolgente, quindi, soprattutto se si considera che, a questo livello di adozione, si rischia anche di cadere nel fenomeno del “workslop”, neologismo traducibile più o meno come “lavoro fatto in fretta e male”. Tradotto nella pratica, è possibile definirlo come un aumento di produttività a livello quantitativo, ma che lascia spesso a desiderare sul piano qualitativo.  Chi si ritrova a valutare i contenuti creati con l’AI deve spesso scegliere se accontentarsi di un prodotto mediocre, riscrivere tutto da capo in prima persona o chiedere all’autore di rifarlo da zero. Un ulteriore elemento di complessità che interseca, più che aspetti squisitamente tecnologici, una dimensione culturale. E sarà proprio su questo piano, probabilmente, che si giocherà il futuro dell’AI come possibile “motore” dell’ innovazione. L'articolo Quanto e come usiamo davvero l’intelligenza artificiale? proviene da Guerre di Rete.