Tag - IA

Intelligenza Artificiale: «Possiamo proteggere la privacy solo collettivamente»
Open source, pochi cookie, ad blocker, svuotamento della cache: tutto questo aiuta solo in misura limitata. È necessario controllare gli algoritmi. > «Immaginate di candidarvi per un posto di lavoro. Sapete di essere un > candidato promettente con un curriculum eccellente. Ma non ricevete nemmeno > una risposta. Forse lo intuite: per la preselezione dei candidati viene > utilizzato un algoritmo di intelligenza artificiale. Ha deciso che > rappresentate un rischio troppo grande. > > Forse l’algoritmo è giunto alla conclusione che non siete adatti alla cultura > aziendale o che in futuro potreste comportarvi in modo tale da causare > attriti, ad esempio aderendo a un sindacato o mettendo su famiglia. Non avete > alcuna possibilità di comprendere il suo ragionamento o di contestarlo». Il professor Maximilian Kasy illustra così quanto già oggi siamo in balia degli algoritmi di IA. Kasy è professore di economia all’Università di Oxford e autore del libro «The Means of Prediction: How AI Really Works (and Who Benefits)». In italiano: «La capacità di prevedere: come funziona davvero l’IA (e chi ne trae vantaggio)». Kasy avverte che gli algoritmi dell’I.A. potrebbero privarci del nostro lavoro, della nostra felicità e della nostra libertà, e persino costarci la vita. > «È inutile preoccuparsi di proteggere la propria privacy digitale, anche se si > mantengono riservati la maggior parte dei dettagli personali, si evita di > esprimere la propria opinione online e si impedisce alle app e ai siti web di > tracciare la propria attività. All’intelligenza artificiale bastano i pochi > dettagli che ha su di voi per prevedere come vi comporterete sul lavoro. Si > basa su modelli che ha appreso da innumerevoli altre persone come voi». Kasy > ha fatto questa triste constatazione in un articolo pubblicato sul New York > Times. Concretamente, potrebbe funzionare così: le banche non utilizzano i clic individuali, ma algoritmi appositamente progettati per decidere chi ottiene un prestito. La loro IA ha imparato dai precedenti mutuatari e può quindi prevedere chi potrebbe trovarsi in mora. Oppure le autorità di polizia inseriscono negli algoritmi dati raccolti nel corso di anni su attività criminali e arresti per consentire un «lavoro di polizia preventiva». Anche le piattaforme dei social media utilizzano non solo i clic individuali, ma anche quelli collettivi per decidere quali notizie – o disinformazioni – mostrare agli utenti. La riservatezza dei nostri dati personali offre poca protezione. L’intelligenza artificiale non ha bisogno di sapere cosa ha fatto una persona. Deve solo sapere cosa hanno fatto persone come lei prima di lei. Gli iPhone di Apple, ad esempio, sono dotati di algoritmi che raccolgono informazioni sul comportamento e sulle tendenze degli utenti senza mai rivelare quali dati provengono da quale telefono. Anche se i dati personali degli individui fossero protetti, i modelli nei dati rimarrebbero invariati. E questi modelli sarebbero sufficienti per prevedere il comportamento individuale con una certa precisione. L’azienda tecnologica Palantir sta sviluppando un sistema di intelligenza artificiale chiamato ImmigrationOS per l’autorità federale tedesca responsabile dell’immigrazione e delle dogane. Il suo scopo è quello di identificare e rintracciare le persone da espellere, combinando e analizzando molte fonti di dati, tra cui la previdenza sociale, l’ufficio della motorizzazione civile, l’ufficio delle imposte, i lettori di targhe e le attività relative ai passaporti. ImmigrationOS aggira così l’ostacolo rappresentato dalla privacy differenziale. Anche senza sapere chi sia una persona, l’algoritmo è in grado di prevedere i quartieri, i luoghi di lavoro e le scuole in cui è più probabile che si trovino gli immigrati privi di documenti. Secondo quanto riportato, algoritmi di intelligenza artificiale chiamati Lavender e Where’s Daddy? sono stati utilizzati in modo simile per aiutare l’esercito israeliano a determinare e localizzare gli obiettivi dei bombardamenti a Gaza. «È NECESSARIO UN CONTROLLO COLLETTIVO» Il professor Kasy conclude che non è più possibile proteggere la propria privacy individualmente: «Dobbiamo piuttosto esercitare un controllo collettivo su tutti i nostri dati per determinare se vengono utilizzati a nostro vantaggio o svantaggio». Kasy fa un’analogia con il cambiamento climatico: le emissioni di una singola persona non modificano il clima, ma le emissioni di tutte le persone insieme distruggono il pianeta. Ciò che conta sono le emissioni complessive. Allo stesso modo, la trasmissione dei dati di una singola persona sembra insignificante, ma la trasmissione dei dati di tutte le persone – e l’incarico all’IA di prendere decisioni sulla base di questi dati – cambia la società. Il fatto che tutti mettano a disposizione i propri dati per addestrare l’IA è fantastico se siamo d’accordo con gli obiettivi che sono stati fissati per l’IA. Tuttavia, non è così fantastico se non siamo d’accordo con questi obiettivi. TRASPARENZA E PARTECIPAZIONE Sono necessarie istituzioni e leggi per dare voce alle persone interessate dagli algoritmi di IA, che devono poter decidere come vengono progettati questi algoritmi e quali risultati devono raggiungere. Il primo passo è la trasparenza, afferma Kasy. Analogamente ai requisiti di rendicontazione finanziaria delle imprese, le aziende e le autorità che utilizzano l’IA dovrebbero essere obbligate a rendere pubblici i propri obiettivi e ciò che i loro algoritmi dovrebbero massimizzare: ad esempio, il numero di clic sugli annunci sui social media, l’assunzione di lavoratori che non aderiscono a un sindacato, l’affidabilità creditizia o il numero di espulsioni di migranti. Il secondo passo è la partecipazione. Le persone i cui dati vengono utilizzati per addestrare gli algoritmi – e le cui vite sono influenzate da questi algoritmi – dovrebbero poter partecipare alle decisioni relative alla definizione dei loro obiettivi. Analogamente a una giuria composta da pari che discute un processo civile o penale e emette una sentenza collettiva, potremmo istituire assemblee cittadine in cui un gruppo di persone selezionate a caso discute e decide gli obiettivi appropriati per gli algoritmi. Ciò potrebbe significare che i dipendenti di un’azienda discutono dell’uso dell’IA sul posto di lavoro o che un’assemblea cittadina esamina gli obiettivi degli strumenti di polizia preventiva prima che questi vengano utilizzati dalle autorità. Questi sono i tipi di controlli democratici che potrebbero conciliare l’IA con il bene pubblico. Oggi sono di proprietà privata. Il futuro dell’IA non sarà determinato da algoritmi più intelligenti o chip più veloci. Dipenderà piuttosto da chi controlla i dati e dai valori e dagli interessi che guidano le macchine. Se vogliamo un’IA al servizio del pubblico, è il pubblico che deve decidere a cosa deve servire. ________ Maximilian Kasy: «The Means of Prediction: How AI Really Works (and Who Benefits)», University of Chicago Press, 2025 -------------------------------------------------------------------------------- Traduzione dal tedesco di Thomas Schmid con l’ausilio di traduttore automatico. INFOsperber
Un nuovo test OCSE per misurare le competenze in intelligenza artificiale
L’OCSE ha annunciato un nuovo test internazionale sulla “competenza in materia di intelligenza artificiale” dei giovani. Il test, che fornirà una misurazione globale delle competenze per interagire con l’intelligenza artificiale, dovrebbe svolgersi nel 2029, con risultati attesi per la fine del 2031. I tempi potrebbero essere lunghi, ma come per tutte le valutazioni OCSE, il problema è come i responsabili dei sistemi educativi e gli educatori potrebbero reagire.   -------------------------------------------------------------------------------- L’OCSE ha annunciato un nuovo test internazionale sulla “competenza in materia di intelligenza artificiale” dei giovani. Il test, che fornirà una misurazione globale delle competenze per interagire con l’intelligenza artificiale, dovrebbe svolgersi nel 2029, con risultati attesi per la fine del 2031. I tempi potrebbero essere lunghi, ma come per tutte le valutazioni OCSE, il problema è come i responsabili dei sistemi educativi e gli educatori potrebbero reagire. Inquadrato come parte dell’esercitazione PISA 2029, > La valutazione PISA 2029 Media & Artificial Intelligence Literacy (MAIL) farà > luce sulle opportunità che i giovani studenti hanno avuto di apprendere e di > impegnarsi in modo proattivo e critico in un mondo in cui la produzione, la > partecipazione e i social network sono sempre più mediati da strumenti > digitali e di intelligenza artificiale. L’alfabetizzazione all’intelligenza artificiale è un tema di grande attualità. Per molti commentatori, è “l’imperativo” principale per l’istruzione. Numerose definizioni e quadri di riferimento circolano regolarmente sui social media. Data la duratura influenza dell’OCSE attraverso i test educativi, il suo intervento sull’alfabetizzazione all’intelligenza artificiale potrebbe quindi avere un impatto significativo nel definire lo standard internazionale in relazione alle competenze degli studenti nell’interazione con l’intelligenza artificiale. Ciò che il test OCSE si propone di fare è fornire una definizione globale concreta di alfabetizzazione all’intelligenza artificiale, sottoporla a misurazioni quantitative e comparative e incoraggiare insegnanti e studenti a “mettersi alla prova”. Questo articolo è un tentativo di analizzare il funzionamento del test OCSE di alfabetizzazione all’intelligenza artificiale e le sue potenziali implicazioni. DEFINIZIONE Il primo passo per impostare un test di qualsiasi competenza è fornire una definizione chiara di ciò che deve essere testato. L’OCSE offre la sua attuale definizione di Media & AI Literacy come “l’insieme delle competenze per interagire con contenuti e piattaforme digitali in modo efficace, etico e responsabile“. Si afferma che: > “é essenziale valutare e sviluppare le competenze di cui gli studenti hanno > bisogno per comprendere come funzionano gli strumenti digitali e di > intelligenza artificiale, il ruolo umano negli strumenti e nei media digitali, > le conseguenze sociali ed etiche dell’utilizzo di strumenti digitali e di > intelligenza artificiale, come comunicare e collaborare efficacemente con > strumenti digitali e di intelligenza artificiale e come valutare criticamente > i contenuti dei media”. Combinando l’alfabetizzazione ai media digitali con l’alfabetizzazione all’intelligenza artificiale, l’OCSE si è posta una sfida significativa. Esiste una lunga storia di tentativi di concettualizzare varie forme di alfabetizzazione mediatica, digitale, dei dati e dell’intelligenza artificiale, e tutte comportano lotte di potere sulla definizione. Gli educatori dei media, ad esempio, hanno a lungo cercato di inquadrare l’alfabetizzazione mediatica in termini di “consumo”, “creazione” e “critica”. Allo stesso modo, gli educatori focalizzati sull'”alfabetizzazione digitale” hanno sostenuto che gli studenti dovrebbero essere informati criticamente sulle tecnologie, i fornitori e i discorsi digitali, piuttosto che limitarsi a essere consumatori passivi e creatori di contenuti.   Quali tipi di alfabetizzazione vengano insegnati ai giovani è sempre una questione politica, che contribuisce a definire l’orientamento degli studenti come lettori e scrittori, o consumatori e produttori, nei loro contesti sociali e tecnologici. Ciò aumenta il rischio di escludere determinati tipi di alfabetizzazione. E nell’attuale contesto politico, l’intelligenza artificiale non è semplicemente uno “strumento” per nuove forme di creatività e consumo, ma una tecnologia profondamente politica che richiede specifiche competenze critiche. James O’Sullivan ha recentemente sostenuto, in modo provocatorio e convincente, la tesi dell'” analfabetismo in materia di intelligenza artificiale “, osservando che la maggior parte delle discussioni inquadra l’alfabetizzazione in materia di intelligenza artificiale “come una forma di conformità: si imparano gli strumenti per non restare indietro”: > Naturalmente, l’alfabetizzazione all’intelligenza artificiale ha il suo posto, > in particolare laddove consente una critica informata, una resistenza etica o > una co-creazione significativa. Ma dobbiamo essere cauti nel trattarla come un > bene universale. C’è una differenza tra comprendere a sufficienza per > criticare e assorbire così tanti dettagli tecnici da iniziare a scambiare la > funzionalità per verità. L’illusione di comprendere – la convinzione che > essere in grado di attivare efficacemente un chatbot costituisca una > conoscenza approfondita – può essere più pericolosa dell’ignoranza. L’idea provocatoria di analfabetismo in materia di intelligenza artificiale mette quindi in primo piano la politica di richiesta di standard universali di alfabetizzazione in materia di intelligenza artificiale e i tipi di esclusioni in termini di conoscenza, apprendimento e competenze che la maggior parte delle definizioni impone. L’OCSE non è un attore neutrale quando si tratta di IA: da diversi anni promuove l’uso dell’IA nell’istruzione e rilascia regolarmente dichiarazioni epocali sui suoi effetti trasformativi. Gran parte della sua attenzione è rivolta agli effetti dell’IA sull’economia, e quindi al mantenimento della produttività e del progresso economico attraverso l’aggiornamento tecnologico. Ora, attraverso il test di alfabetizzazione in materia di IA, sta esercitando la sua autorità politica su come definire e valutare le competenze in IA. Il suo obiettivo è produrre una definizione standardizzata a livello globale di alfabetizzazione all’intelligenza artificiale, che probabilmente cancellerà le sfumature e la diversità negli approcci alla riflessione sull’interazione dei giovani con questa famiglia di tecnologie e sui loro effetti controversi. Resta da vedere quanta parte della dimensione critica dell’educazione ai media sopravviverà, una volta che l’OCSE l’ha definita in termini di “abilità di valutazione”; si può tuttavia immaginare che essa venga ridotta a una questione misurabile, come verificare se un utente controlla o meno l’accuratezza di una risposta generata da un prompt.  Oltre alle decisioni politiche che dovrà prendere sulla definizione dell’alfabetizzazione in materia di intelligenza artificiale e su cosa includere o escludere dal test, l’OCSE si trova ad affrontare anche una sfida tecnica e metodologica: come renderla operativa come una serie di elementi di test misurabili. QUANTIFICAZIONE La documentazione disponibile indica che gli sviluppatori dei test dell’OCSE stanno attualmente lavorando agli strumenti per la prova. L’OCSE si è da tempo posizionata come fonte di competenza e innovazione nel campo delle metriche educative. Ciò significa che ora sta traducendo l’alfabetizzazione all’intelligenza artificiale in elementi misurabili tramite test in grado di generare risultati quantitativi e confrontabili. Come apparirà esattamente il test, quali dati genererà e come verranno analizzati, rimane ancora poco chiaro. Un caso illuminante è il precedente test dell’OCSE sulle competenze socio-emotive, che prevedeva la produzione di uno schema psicometrico condensato per l’ enumerazione delle emozioni degli studenti . Ciò significava che l’OCSE aveva condotto un’ampia revisione degli strumenti psicometrici disponibili, prima di giungere infine a una versione adattata del modello delle caratteristiche di personalità “Big 5”. In questo processo, ha cancellato altri modelli concorrenti per la misurazione dell’apprendimento socio-emotivo, imponendo un quadro globale in base al quale tali competenze o qualità possono essere misurate e confrontate a livello internazionale. In questo modo, ha prodotto un modo distintivo di intendere le “emozioni” come questione educativa. È probabile che il modello per la valutazione dell’alfabetizzazione in materia di IA segua un percorso simile. Richiederà che l’alfabetizzazione in materia di IA sia scomposta in una serie di unità misurabili che possano essere utilizzate come elementi verificabili. Di fatto, l’OCSE ha già iniziato a quantificare le capacità dell’IA stessa al fine di effettuare confronti con le competenze umane, come base per evidenziare le competenze necessarie che i sistemi educativi devono insegnare.   Nella descrizione della valutazione dell’alfabetizzazione in materia di intelligenza artificiale, l’OCSE afferma di stare esplorando innovazioni nella valutazione per catturare queste capacità umane: > Questa nuova valutazione è concepita come un ambiente simulato che consente di > raccogliere evidenze relative a diverse competenze del modello di > alfabetizzazione. > Tali competenze vengono valutate attraverso una varietà di strumenti > funzionali, accessibili agli studenti in modo realistico durante tutta la > prova (ad esempio, simulazioni realistiche di Internet, dei social media e di > strumenti di intelligenza artificiale generativa). In quanto tale, la valutazione non sarà un test convenzionale, ma sarà organizzata come una serie di simulazioni che faranno uso di “strumenti” esistenti e accessibili. Tali strumenti saranno utilizzati per mettere alla prova un “modello” specificamente definito di alfabetizzazione all’intelligenza artificiale (AI literacy) e le sue “competenze” componenti. Il risultato finale della valutazione, come per tutti i test dell’OCSE, dovrà tradursi in numeri che consentano di valutare e confrontare programmi, sistemi e Paesi. L’alfabetizzazione all’IA dovrà quindi diventare “alfabetizzazione all’IA in forma di numeri”, soggetta alle tecniche metriche e resa comparabile. Non è difficile immaginare che in futuro emergeranno dei vincitori nelle classifiche dell’alfabetizzazione all’IA. È probabile che ciò incoraggi i responsabili politici – in particolare negli Stati Uniti, in Cina e in Europa – a competere per posizionarsi nella scala ordinale della competenza in AI literacy. Ed è proprio su questi numeri, naturalmente, che l’OCSE potrà far leva per individuare le migliori pratiche da proporre come modello agli altri. PERFORMATIVITÀ Come per tutti i test OCSE, l’importanza della valutazione dell’alfabetizzazione in materia di IA non risiede necessariamente nei risultati quantitativi che produrrà tra più di cinque anni. È l’attività che stimola nei sistemi educativi in previsione della valutazione. L’esistenza di un test stimola sforzi significativi per preparare gli studenti a sostenerlo. In questo caso, tale sforzo contribuirebbe alla visione globale dell’OCSE dell’IA come forza trasformativa sociale ed economica che richiede la partecipazione di una popolazione alfabetizzata in materia di IA. L’OCSE, infatti, non si limita a produrre un test di alfabetizzazione all’intelligenza artificiale, ma ha collaborato con la Commissione europea su un ” Quadro di riferimento per l’alfabetizzazione all’intelligenza artificiale “, lanciato per la consultazione alla fine di maggio 2025. Il quadro consiste in “conoscenze, competenze e atteggiamenti che prepareranno adeguatamente gli studenti nell’istruzione primaria e secondaria”: > L’iniziativa fornirà inoltre le basi per la prima valutazione > dell’alfabetizzazione all’intelligenza artificiale nell’ambito del Programma > OCSE per la valutazione internazionale degli studenti (PISA) e sosterrà gli > obiettivi dell’UE di promuovere un’istruzione e competenze digitali di qualità > e inclusive. > > Al centro dell’iniziativa c’è l’integrazione dell’alfabetizzazione > all’intelligenza artificiale in tutte le materie scolastiche. Ciò include > insegnare agli studenti a utilizzare gli strumenti di intelligenza > artificiale, nonché a co-creare con essi e a riflettere su un utilizzo > responsabile ed etico. Oltre a offrire le “fondamenta” per il test, questo quadro sembra normalizzare l’idea di integrare l’IA nella scuola stessa. Affinché i soggetti sottoposti al test abbiano una competenza in materia di IA, questa non deve solo essere insegnata, ma diventare parte integrante delle normali routine di insegnamento e apprendimento. L’integrazione dell’IA nella scuola è fortemente contestata, con almeno un argomento chiave (tra i tanti ) che sostiene che essa serva gli interessi di mercato delle aziende tecnologiche e dell’edtech, che vedono opportunità redditizie nell’introduzione dell’IA nelle scuole. Oltre all’OCSE e alla CE, un altro partner è code.org, l’organizzazione che ha promosso “l’apprendimento del coding” a livello internazionale ed è stata recentemente una delle principali sostenitrici dell’Ordine Esecutivo statunitense che “rende obbligatorio” l’uso dell’IA e la promozione dell’alfabetizzazione all’IA nell’istruzione americana. Audrey Watters sostiene che il tipo di alfabetizzazione all’intelligenza artificiale promosso da questa direttiva risponde agli interessi governativi e commerciali, ma è destinato a mancare di qualsiasi dimensione critica, a causa dell’ostilità dell’amministrazione statunitense nei confronti delle idee legate al pregiudizio e alla discriminazione.. Più prosaicamente, il coinvolgimento di code.org, in quanto organizzazione incentrata sull’industria, lascia intendere che il quadro di riferimento per l’alfabetizzazione all’IA possa concentrarsi soprattutto sulle abilità d’uso dell’intelligenza artificiale (“imparare a fare prompt” come il nuovo “imparare a programmare”), piuttosto che su un reale coinvolgimento critico  con l’IA come problema sociale e pubblico. Nella sua forma più attenuata, l’alfabetizzazione all’IA può apparire come una sorta di formazione tecnica all’uso efficiente dell’IA – ciò che altrove ho chiamato corsi e lezioni ” pedagoGPT “. Per alcuni, formare gli studenti con competenze in materia di IA è addirittura principalmente una questione geopolitica ed economica, mentre le nazioni competono per i talenti e il predominio in una nuova ” corsa allo spazio “. Luci Pangrazio ha sostenuto che programmi simili di “alfabetizzazione digitale” sponsorizzati da aziende tecnologiche ora funzionano come una forma di governance nelle scuole : > Se l’alfabetizzazione digitale viene definita e sviluppata in relazione alle > diverse piattaforme e app nelle scuole, e se le piattaforme e le app nelle > scuole vengono sempre più progettate per monitorare e sorvegliare > (controllare) il personale e gli studenti perché è così che si dimostra > l’apprendimento, allora l’alfabetizzazione digitale è diventata un modo > efficace per governare sia gli insegnanti che gli studenti nelle scuole. In altre parole, l‘appropriazione commerciale dell'”alfabetizzazione digitale” ha già portato a trasformarla in una sorta di formazione tecnica che abitua e educa studenti e insegnanti all’uso della tecnologia, influenzandone anche la pratica. Estrapolando da questo caso, possiamo vedere come il test di alfabetizzazione all’intelligenza artificiale dell’OCSE e il relativo framework potrebbero esercitare una sorta di pressione governativa su scuole, educatori e studenti affinché agiscano di conseguenza. L’uso di un test per stimolare azioni anticipatrici è spesso definito “performatività”. In questo contesto, la performatività si riferisce specificamente al modo in cui le misurazioni, come quelle prodotte da un test, spingono i dirigenti scolastici e gli insegnanti a “insegnare in funzione del test” per ottenere buoni risultati nell’esercizio di misurazione. Il test PISA dell’OCSE è noto per essere un motore di performatività, che stimola i decisori politici e i leader di sistema ad agire per migliorare le “prestazioni” al fine di ottenere un punteggio elevato nei risultati. I test PISA consentono la governance statistica dell’istruzione, spingendo le persone a comportarsi in risposta alla classifica. Nell’ambito del PISA 2029, l’alfabetizzazione all’intelligenza artificiale sembra destinata a diventare parte integrante della classifica educativa internazionale attraverso test standardizzati internazionali. Insegnanti e dirigenti potrebbero sentirsi in dovere di agire secondo il framework OCSE/EC/code.org per ottenere risultati efficaci nel test. Ciò rafforzerà la definizione di alfabetizzazione all’intelligenza artificiale definita dall’OCSE, trasformando le competenze e le abilità in intelligenza artificiale in indicatori standardizzati e comparabili a livello globale. L’alfabetizzazione all’intelligenza artificiale espressa sotto forma di numero potrebbe rendere l’azione sull’intelligenza artificiale una preoccupazione centrale dei sistemi scolastici. INFRASTRUTTURARE L’ALFABETIZZAZIONE DELL’IA Sebbene si tratti necessariamente di un’ipotesi un po’ speculativa, è importante ricordare l’influenza dell’OCSE sui sistemi educativi di tutto il mondo. Le sue infrastrutture di test consentono la produzione di dati quantitativi su larga scala e guidano i processi decisionali e le agende politiche in ambito educativo. Vale la pena prestare attenzione a questi sforzi politici in corso per integrare l’alfabetizzazione all’intelligenza artificiale nelle scuole e all’infrastruttura di test che l’OCSE sta creando per enumerare le competenze e le abilità degli studenti in materia di intelligenza artificiale. Gli sforzi dell’OCSE dovrebbero essere intesi come un tentativo di infrastrutturare l’alfabetizzazione all’IA . Infrastrutturare l’alfabetizzazione all’IA significa costruire, mantenere e attuare un sistema di valutazione e misurazione che non solo enumererà le competenze in materia di IA, ma renderà l’alfabetizzazione all’IA una preoccupazione e un obiettivo centrale dei sistemi scolastici. Funzionerebbe come un’infrastruttura di misurazione che richiederebbe la partecipazione di insegnanti e studenti per costruire dati standardizzati a livello internazionale sull’alfabetizzazione all’intelligenza artificiale. Per “contare”, questi dovrebbero rispettare gli standard di misurazione integrati nell’infrastruttura, seguendo le prescrizioni del framework per l’alfabetizzazione all’intelligenza artificiale. Tracciare in modo più approfondito lo sviluppo e l’evoluzione della valutazione dell’alfabetizzazione all’intelligenza artificiale contribuirà a chiarire come l’intelligenza artificiale verrà concepita come un problema educativo, come verrà integrata nei sistemi metrologici e come un esercizio di misurazione che si protrarrà per diversi anni potrà stimolare azioni preventive in ambito educativo. In che modo educatori e studenti verranno coinvolti in questa infrastruttura OCSE di misurazione dell’alfabetizzazione all’IA, e come metteranno in pratica tale alfabetizzazione prima della valutazione?   Questo articolo è stato pubblicato sul blog: https://codeactsineducation.wordpress.com/ il 30.4.2025.
[entropia massima] Estrattivismo dei dati
Puntata 5 di EM, prima del ciclo Estrattivismo dei Dati, parliamo di intelligenza artificiale dal punto di vista dello sfruttamento socio-ambientale che la rende possibile: consumo di risorse materiali, energetiche, acqua, suolo, impatti sulle popolazioni locali. Lo facciamo con un’ospite che ci ha raggiunto nella nostra redazione di San Lorenzo a Roma6, Sara Marcucci, ricercatrice e membro del collettivo AI + Planetary Justice Alliance, che si occupa proprio di rendere visibili gli impatti planetari dell’intelligenza artificiale. Dopo la prima parte di presentazione delle attività del collettivo e di alcuni degli strumenti di cui si è dotato per analizzare gli impatti dell’AI nei più disparati scenari globali, nella seconda parte parliamo degli AI Hyperscaler Data Center, fabbriche di calcolo a scala mastodontica, spesso dislocate in regioni già fragili, dove causano scarsità d’acqua e di energia, con aumenti straordinari dei costi in bolletta e dove le persone cominciano a ribellarsi. Nella terza parte, proviamo a ragionare su cosa si può fare per non cedere all’inevitabilismo tecnologico, a partire dalla divulgazione e dalla diffusione di conoscenza, fino all’advocacy politica e all’autorganizzazione dal basso per la resistenza ai soprusi dei Big Tech.
British Standards Institution: “Allarme jobpocalypse, gravissima crisi nel mondo del lavoro causata dall’AI”
Era il 2020 quando l’ambientalista Sonia Savioli nel suo libro-inchiesta “Il giallo del Coronavirus. Una pandemia nella società del controllo”, metteva in guarda sugli effetti di quella che sarebbe stata la rigenerazione economica del tecnocapitalismo, durante la crisi sanitaria da Covid-19, che avrebbe avuto inizio nel 2021 con il Piano Great Reset del World Economic Forum di Davos (WEF): la Quarta Rivoluzione Industriale. Tra le innumerevoli operazioni di greenwashing spacciate per “sostenibili” (continui finanziamenti alla pesca intensiva e agli allevamenti intensivi, sfruttamento dei mari e degli oceani tramite attività estrattive, l’ingresso della cibernetica nei settori dell’economia, sanità, welfare e finanza), stando ai dati del World Economic Forum – affermava Sonia Savioli – la Quarta Rivoluzione Industriale sarebbe iniziata con l’eliminazione di circa 800 milioni di posti di lavoro nel mondo industrializzato a causa dell’irruzione sistematica dell’Intelligenza Artificiale nel mercato del lavoro. Un numero che, nonostante la grande consistenza, non fece allarmare nessun giornalista mainstream e nessun analista nostrano. A confermare questo dato però, sistematicamente ignorato, è stato il recente report “Evolving Together: AI, automation and building the skilled workforce of the future“ pubblicato dal British Standards Institution (l’ente certificatore nazionale inglese, l’equivalente del nostro Rina) (BSI), basato su interviste a 853 business leader aziendali in 8 Paesi (Cina, Giappone, Australia, Germania, Stati Uniti, Regno Unito, Francia e India), svolte da agosto 2025, analizzando anche i report annuali di 123 aziende attraverso strumenti di analisi AI. Secondo i leader globali stiamo vivendo quella che viene definita “jobpocalypse”: un collasso sistemico del modello tradizionale di ingresso nel mondo del lavoro. A darne notizia approfonditamente è stato  The Guardian. L’AI infatti sta cancellando tutte le posizioni di lavoro pensate per neoassunti o personale giovane, con competenze di base e poca (o nessuna) esperienza lavorativa. Perché investire su personale da formare senza competenze specialistiche quando quelle funzioni possono essere svolte da una AI? Secondo il BSI le riduzioni di personale sarebbero già in calo ed in numeri parlano chiaro: * 41% dei leader afferma che l’IA sta consentendo riduzioni dirette del personale; * 50% dichiara esplicitamente che l’AI sta aiutando a ridurre il numero di dipendenti; * 18% delle aziende investe in IA specificamente per ridurre il personale; Se per decenni il paradigma capitalista classico affermava “Il lavoro lo fanno le persone, le macchine aiutano”, oggi si sta invertendo la rotta: “Il lavoro lo fanno i sistemi AI, le persone intervengono quando necessario”. Si sta istituzionalizzando sempre più un diverso modo, da parte delle aziende, di pensare al mondo lavoro e lo studio lo constata senza mezzi termini: * 31% delle organizzazioni oggi esplora soluzioni AI prima di considerare l’assunzione di persone; * 40% prevede che questo diventerà la norma entro 5 anni; * 61% investe in IA principalmente per aumentare produttività ed efficienza; * 49% per ridurre i costi operativi; Il dato più allarmante riguarda anche i lavori entry-level, quelli tradizionalmente destinati a chi inizia la carriera: * 39% delle aziende ha già ridotto o eliminato posizioni junior grazie all’IA; * 43% prevede ulteriori tagli nei prossimi 12 mesi; * 55% dei leader ritiene che i benefici dell’IA compensino le distruzioni sulla forza lavoro; Le mansioni entry-level che l’IA sta eliminando non riguardano solo il “lavoro produttivo”, ma anche lo spazio formativo, dal momento che è proprio nei “primi lavori” che si insegnano competenze che nessuna scuola o università può dare: * Gestire il tempo quando hai troppe cose da fare * Comunicare in modo efficace in contesti professionali * Capire come funzionano davvero le dinamiche aziendali * Riconoscere le priorità vere da quelle apparenti * Reggere lo stress e la pressione * Imparare a sbagliare e correggersi * Costruire relazioni professionali * Navigare la politica aziendale L’IA può fare ricerche, compilare report, gestire agende, rispondere a email routine, ma non può insegnare queste meta-competenze che si sviluppano solo attraverso l’esperienza vissuta. Il report evidenzia dunque la skills latency (“latenza delle competenze”), un pericolo strutturale che fa emergere un ritardo generazionale nello sviluppo delle capacità professionali. Se un’intera generazione non ha accesso ai ruoli formativi entry-level, chi ricoprirà i ruoli senior tra 10-15 anni? Come si formeranno i futuri manager se non potranno fare esperienza sul campo? Le aziende stanno ottimizzando per l’efficienza di oggi, ma stanno creando un problema di talento per il domani. Sono gli stessi business leader globali ad ammettere questa situazione di latenza, dichiarandosi “fortunati” ad essere nati e cresciuti in un mondo pre-AI: * 56% dichiara di essere stato “fortunato” ad aver iniziato la carriera prima che l’IA trasformasse il proprio settore; * 43% ammette che non avrebbe sviluppato le competenze attuali se l’IA fosse stata disponibile all’inizio della carriera; * 28% si aspetta che il proprio ruolo attuale non esisterà più entro il 2030. Dall’analisi AI dei 123 report annuali esaminati dal BSI emerge che il termine “automation” è citato quasi 7 volte più frequentemente di “upskilling”, “training” o “education”. Le aziende comunicano l’IA principalmente come: driver di innovazione, vantaggio competitivo e strumento di efficienza. Di conseguenza c’è molta meno enfasi sulle implicazioni sulla forza lavoro, sugli investimenti in capitale umano, sulla preparazione dei dipendenti al futuro. Solo il 34% delle aziende intervistate ha un programma di formazione strutturato per preparare i dipendenti all’uso dell’IA. In Giappone questa percentuale scende al 16%, mentre in India sale al 64%. A livello geografico, a guidare questa trasformazione drastica e allarmante è l’India con il 50% delle aziende che hanno ridotto ruoli junior. Seguono Australia (57% dichiara che l’AI aiuta a ridurre il personale a livello junior) e Cina (61% prevede riduzioni future). In Italia e in Europa, il fenomeno è in crescita ma ancora meno aggressivo rispetto all’Asia-Pacifico.   Il rischio di questa jobpocalypse però è che si crei una contrazione tale della forza lavoro da portare a una mancata formazione professionale di un’intera generazione. Ancora una volta infatti ad essere penalizzate sono le giovani generazioni. Il report BSI introduce un termine nuovo e inquietante “Generation Jaded” – dall’acronimo “Jobs Automated, Dreams Eroded” (“lavori automatizzati, sogni erosi”), riferendosi a quella generazione che: 1. Ha già subito danni nella formazione scolastica a causa del Covid-19; 2. Si trova ora di fronte a un mercato del lavoro che elimina proprio i ruoli pensati per chi inizia; 3. Rischia di non sviluppare mai le competenze che si acquisivano attraverso l’esperienza entry-level. Gli studenti freschi di diploma o laurea per trovare il primo lavoro oggi non devono solo fare i conti con la concorrenza dei loro coetanei, ma anche e soprattutto con quella dell’Intelligenza Artificiale. Le conseguenze sociali ed economiche della Quarta Rivoluzione Industriale potrebbero essere devastanti, tanto da far ritenere a molti che una jobpocalypse sia solo questione di tempo anche qui in Occidente.   https://www.blog-lavoroesalute.org/sul-great-reset-e-lignoranza-dei-giornalisti-mainstream/ https://www.blog-lavoroesalute.org/il-piano-great-reset-del-world-economic-forum-per-i-profitti-delle-industrie-agro-chimiche-alimentari/ https://www.blog-lavoroesalute.org/il-grande-reset/ https://www.blog-lavoroesalute.org/tecno-bio-capitalismo/ https://documenti.camera.it/leg18/resoconti/assemblea/html/sed0610/leg.18.sed0610.allegato_b.pdf > Secondo una ricerca sta per arrivare la jobpocalypse, cioè una gravissima > crisi nel mondo del lavoro causata dall’AI > Jobpocalypse: è iniziata la rivoluzione del lavoro nell’era della IA   Lorenzo Poli
Madhumita Murgia/ L’unione fa la forza
Fin dal titolo, deliberatamente agli antipodi dell’argomento di cui parla, Essere umani si presenta come un libro diverso. Ci risparmia le spiegazioni riduttive e quelle ipercomplicate. Va dritto al cuore del problema: cosa stanno facendo, gli esseri umani, con questo potentissimo strumento? Di base, Madhumita Murgia è ottimista. La sofisticazione, la complessità e le capacità dell’intelligenza artificiale ci potrebbero davvero aiutare a migliorare la vita nostra e degli altri. Giornalista che si occupa da più di dieci anni di tecnologia per testate come “Wired” e “Financial Times”, Murgia ha cominciato a indagare sugli usi dell’IA andando a cercare le persone la cui vita, grazie a questo strumento, è cambiata. Non sempre e non del tutto in meglio, anche se non è facile capire quale è il meglio e quale è il peggio. I migranti che lavorano da remoto inserendo dati, gli autisti di Uber, i rider che portano il cibo pronto, sono tra le persone che beneficiano dell’intelligenza artificiale e nel contempo ne sono le vittime. Gli algoritmi con cui lavorano le piattaforme che gestiscono questi lavori sono opache e le persone che ci lavorano non li conoscono; non hanno alcun controllo, alcuna comprensione. Tutto è anonimo ed estraneo, e quando c’è un problema, quando qualcosa non torna, non esiste un interlocutore, non esiste un referente. Gli algoritmi sembrano neutri ma sono in realtà pensati e scritti da esseri umani, con pregiudizi e convinzioni da cui sono guidati nel loro lavoro, anche senza esserne consapevoli. I siti di pornografia (uno degli ambiti più lucrativi) rubano immagini di volti “qualunque”, volti di persone normali a cui aggiungono un corpo che segue l’immaginario maschile (quello deformato della pornografia ovviamente) e che esegue gli atti e i comportamenti che quell’immaginario richiede. Sono violenti, totalmente irrispettosi delle donne. Vedere la propria immagine trattata così è un’esperienza devastante da cui è difficile uscire. Il riconoscimento facciale è praticato da moltissime amministrazioni pubbliche attraverso telecamere poste nei luoghi di passaggio, piazze, metropolitane, angoli di strade, senza che i cittadini lo sappiano e senza alcuna considerazione per la tanto decantata privacy. Con la scusa della sicurezza, può essere utilizzato contro chiunque. Anche le applicazioni di IA a problemi sanitari o di assistenza sociale o di prevenzione dei crimini si sono rivelati fallaci e spesso dannosi. I casi dell’Olanda e dell’Argentina, in cui l’IA è stata applicata per predire la delinquenza giovanile o le gravidanze adolescenziali, hanno mostrato come i dati su cui i sistemi di IA si basano sono parziali e soprattutto di parte, e possono generare delle soluzioni che danneggiano le persone che si immaginavano di aiutare. Ma chi altro se ne accorge oltre le vittime? Di certo non le amministrazioni pubbliche o i servizi sociali, che anzi tendono a pensare di aver finalmente trovato nei sistemi di IA la soluzione poco costosa e funzionale dei loro problemi. La statistica non è una fotografia neutra della realtà. Altri esempi ci vengono dall’uso di ChatGPT. Si tratta dell’IA generativa, un sistema che impara man mano che interagisce con l’utente. Di base quello che ha imparato viene da tutto quello che nell’arco degli ultimi vent’anni abbiamo messo dentro internet: libri, articoli, blog, commenti, pubblicità, video, musica, immagini. ChatGPT lo usano in tanti e spesso in modo innocuo e pigro, per risparmiare tempo, per scrivere senza fare la fatica di pensare cosa e come scrivere. E già così ci si può immaginare che l’IA possa sostituire alcune professioni, copywriter e disegnatori in primis, e lo fa dopo avere imparato senza pagare una lira e senza riconoscere alcun merito alle fonti. Non stupisce che la questione del diritto d’autore sia delle più delicate e urgenti. Ma c’è un aspetto che Murgia mette in evidenza e che disturba assai: ChatGPT (e chissà i suoi successori) sono programmati per dare delle risposte. Se non le sanno se le inventano. Frugano tra i miliardi di dati che hanno e tirano fuori qualcosa. È successo a un avvocato, di farsi assistere da una chatbot per preparare un’udienza, e trovarsi in aula con dei riferimenti a sentenze inesistenti: si è vergognato oltremodo. Sono anche programmati (diciamo che “li disegnano così”) per dare delle risposte gradite, accondiscendenti: fungono da psicoterapeuti per persone che cercano conferme e mai confronti. Addirittura, secondo un recente articolo di “The Atlantic”, guidano passo passo una persona che dice di volersi tagliare le vene. Inquietante. Ma non è un saggio politico, questo libro. Nell’aprirci gli occhi sugli effetti indesiderati dell’IA, nel ricordarci che si tratta di un potentissimo strumento statistico e non di un’intelligenza come quella umana, con le sue sfumature e le sue qualità emotive e sentimentali, Murgia ci ricorda anche che viviamo in una società, che apparteniamo a una comunità, che non siamo individui isolati. Anche se spesso sembra che ognuno stia chiuso nella sua bolla e abbia pochissimi contatti con gli altri, è nel momento in cui le persone si parlano, si raccontano le proprie esperienze, si mettono insieme per agire, che lo strumento IA diventa meno potente. L’unico modo per far fronte allo strapotere dell’intelligenza artificiale (e dei gruppi che se ne avvantaggiano economicamente) è quello di unire le forze, di confrontare i vissuti, di agire insieme. Una ricetta vecchia come il mondo, e non facile da applicare, ma che tuttora è l’unica che funziona. Come dice la stessa Murgia: «Se l’IA sta già modificando, nel piccolo e nel grande, ciò che significa essere umani, cosa accadrebbe se, tutti insieme, rivendicassimo la nostra umanità?» L'articolo Madhumita Murgia/ L’unione fa la forza proviene da Pulp Magazine.
ELSA, l’intelligenza artificiale della FDA che sta inventando studi inesistenti
A darne la notizia è la CNN che in un articolo di Sarah Owermohle – scritto con l’aiuto di Meg Tirrell, Dugald McConnell e Annie Grayer – afferma chiaramente che anche l’intelligenza artificiale ha imparato a mentire ed inventa cose che non esistono. E’ il caso dell’intelligenza artificiale adottata dalla Food and Drug Administration, la quale è arrivata a Washington per accelerare l’immissione sul mercato di nuovi farmaci salvavita, semplificare il lavoro nelle vaste agenzie sanitarie multimiliardarie e svolgere un ruolo fondamentale nel tentativo di ridurre gli sprechi di spesa pubblica senza compromettere il lavoro del governo stesso. Ad affermarlo sono proprio i funzionari sanitari dell’amministrazione Trump: “La rivoluzione dell’intelligenza artificiale è arrivata”, ha dichiarato il Segretario della Salute e dei Servizi Umani Robert F. Kennedy Jr. durante le udienze del Congresso tenutesi negli ultimi mesi. Di cosa si tratta? Stiamo parlando di ELSA (Efficient Language System for Analysis), modello di intelligenza artificiale introdotto dal Sistema Sanitario Nazionale Americano (HHS) con lo scopo di sveltire le pratiche di approvazione dei nuovi medicinali e dispositivi medici, conducendo ricerche su larga scala su tutta la documentazione scientifica già esistente. Le prime versioni di Elsa erano state sviluppate sulla base di un precedente modello di intelligenza artificiale su cui la FDA aveva iniziato a lavorare durante l’amministrazione Biden. “Stiamo già utilizzando questa tecnologia all’HHS per gestire i dati sanitari, in modo perfettamente sicuro, e per accelerare le approvazioni dei farmaci” – ha dichiarato alla Commissione Energia e Commercio della Camera a giugno. L’entusiasmo – almeno tra alcuni – era palpabile. Funzionari della FDA hanno dichiarato alla CNN che Elsa può essere utile per generare appunti e riepiloghi di riunioni o modelli di e-mail e comunicati. Ma, finchè si tratta di fare il riassunto di migliaia di ricerche scientifiche già pubblicate, ELSA è sicuramente uno strumento molto efficace. Il problema nasce quando le si chiede di dare una sua valutazione sulla eventuale efficacia e sicurezza di un nuovo farmaco, perchè a quel punto si è scoperto che ELSA si inventa anche ricerche scientifiche che non sono mai esistite: le famose “allucinazioni dell’IA”. A darne testimonianza sono tre attuali dipendenti della FDA e documenti visionati dalla CNN, mostrando chiaramente l’inaffidabilità del suo lavoro più critico. I dipendenti che hanno parlato con la CNN hanno testato le conoscenze di Elsa ponendogli domande come quanti farmaci di una certa classe siano autorizzati per l’uso sui bambini o quanti farmaci siano approvati: in entrambi i casi, ha dato risposte sbagliate. Un dipendente ha raccontato che Elsa aveva contato in modo errato il numero di prodotti con una particolare etichetta. Quando le è stato detto che era sbagliato, l’IA ha ammesso di aver commesso un errore. “Ma non ti aiuta comunque a rispondere alla domanda”, ha detto quell’impiegato. L’algoritmo ricorda poi agli utenti che si tratta solo di un assistente AI e che è necessario verificarne il funzionamento. “Tutto ciò che non si ha il tempo di ricontrollare è inaffidabile. È un’allucinazione di sicurezza” – ha detto un dipendente, ben lontano da quanto promesso pubblicamente – “L’intelligenza artificiale dovrebbe farci risparmiare tempo, ma vi garantisco che spreco un sacco di tempo extra solo a causa della maggiore vigilanza che devo avere” per verificare la presenza di studi falsi o travisati, ha affermato un secondo dipendente della FDA. Ad ammettere queste allucinazioni è anche Jeremy Walsh, responsabile dell’intelligenza artificiale della FDA: “Elsa non è diversa da molti [grandi modelli linguistici] e dall’intelligenza artificiale generativa “ , ha detto alla CNN. “Potrebbero potenzialmente avere allucinazioni”. Attualmente, Elsa non può contribuire al lavoro di revisione, il lungo processo di valutazione che gli scienziati dell’agenzia intraprendono per determinare se farmaci e dispositivi siano sicuri ed efficaci,  perché non può accedere a molti documenti rilevanti, come le richieste di autorizzazione dell’industria, per rispondere a domande di base come, per esempio, sul numero di volte in cui un’azienda ha presentato domanda di approvazione alla FDA; sula presenza sul mercato dei suoi prodotti correlati o altre informazioni specifiche dell’azienda. Tutto ciò solleva seri dubbi sull’integrità di uno strumento che, come ha affermato il commissario della FDA, il dott. Marty Makary, trasformerà il sistema di approvazione dei farmaci e dei dispositivi medici negli Stati Uniti, in una situazione completamente fuori controllo. Ad oggi non vi è alcun controllo federale per la valutazione dell’uso dell’intelligenza artificiale in medicina. “L’agenzia sta già utilizzando Elsa per accelerare le revisioni dei protocolli clinici, ridurre i tempi necessari per le valutazioni scientifiche e identificare obiettivi di ispezione ad alta priorità”, ha affermato la FDA in una dichiarazione sul suo lancio a giugno. Ma parlando con la CNN questa settimana presso la sede centrale della FDA a White Oak, Makary ha affermato che al momento la maggior parte degli scienziati dell’agenzia utilizza Elsa per le sue “capacità organizzative”, come la ricerca di studi e la sintesi di riunioni. Intanto i leader della FDA discutono sull’uso dello strumento di intelligenza artificiale dell’agenzia. Si parlava già da tempo di integrare l’intelligenza artificiale nel lavoro delle agenzie sanitarie statunitensi, prima che la seconda amministrazione Trump desse il via agli sforzi, ma la velocità con cui Elsa è entrata in funzione è stata insolita. Alcuni esperti sottolinearono gli sforzi del governo per sviluppare seriamente i piani sull’intelligenza artificiale nel 2018, quando il Pentagono iniziò a valutarne il potenziale per la sicurezza nazionale. Nel 2024, l’Unione Europea ha approvato e attuato l’AI Act, una legge “per proteggere i diritti fondamentali, la democrazia e lo stato di diritto” in merito all’uso rischioso dell’intelligenza artificiale, anche in ambito sanitario, promuovendo al contempo modelli di intelligenza artificiale trasformativi. Negli Stati Uniti non esistono queste norme e tutele di questo tipo. Un gruppo di lavoro governativo formato durante l’amministrazione Biden per esaminare la definizione di normative sull’uso dell’intelligenza artificiale, anche in ambito sanitario, è stato sciolto l’anno scorso con l’inizio della nuova Amministrazione Trump. A giugno 2025, un gruppo bipartisan di membri della Camera ha presentato una proposta di legge incentrata principalmente sul mantenimento del predominio degli Stati Uniti nella corsa all’intelligenza artificiale. Nello stesso mese, due senatori hanno presentato un disegno di legge mirato a impedire l’uso da parte degli Stati Uniti di un’intelligenza artificiale “avversaria” da parte di governi stranieri, tra cui la Cina. Altri sforzi, come un disegno di legge che richiederebbe test e supervisione normativa per i sistemi di intelligenza artificiale ad alto rischio (molto simili agli standard europei), sono rimasti bloccati. La versione precedente del “One Big Beautiful Bill”, l’ampia legge fiscale e di spesa del presidente Donald Trump, avrebbe incluso la prima legge radicale del Congresso sull’intelligenza artificiale: una moratoria decennale sull’applicazione delle normative statali sulla tecnologia. Ma il Senato ha bocciato la disposizione . Elsa è arrivata mentre il Congresso era alle prese con l’approccio legislativo alla regolamentazione dell’IA. Sebbene le commissioni del Congresso abbiano tenuto audizioni sui rischi dell’IA, come modelli distorti e minacce alla sicurezza informatica, il Congresso non ha approvato alcuna legge sostanziale per regolamentare l’IA. Trump, che ha fatto dello sviluppo e degli investimenti nell’intelligenza artificiale una priorità assoluta nella sua seconda amministrazione, ha annunciato un futuro luminoso per la tecnologia con l’aiuto dei suoi amici e sostenitori miliardari tecnofascisti. La scorsa settimana, durante un vertice sull’energia in Pennsylvania, ha dichiarato ai partecipanti: “Siamo qui oggi perché crediamo che il destino dell’America sia quello di dominare ogni settore ed essere i primi in ogni tecnologia, e questo include essere la superpotenza numero uno al mondo nell’intelligenza artificiale”. Senza normative federali, è difficile dire come sarebbe questa superpotenza. “L’intelligenza artificiale fa un sacco di cose, ma non è magia”, ha affermato il Dott. Jonathan Chen, professore associato di medicina alla Stanford University, che ha studiato l’uso dell’intelligenza artificiale in ambito clinico. Sarebbe fantastico se potesse aiutare gli esperti a individuare la falsificazione dei dati o a fornire analisi rigorose sulla sicurezza dei pazienti, ma “questi problemi sono molto più sfumati” di ciò che una macchina può fare, ha aggiunto. “È davvero un po’ il Far West in questo momento. La tecnologia avanza così velocemente che è difficile persino capire esattamente di cosa si tratta.” – ha aggiunto Chen. Ulteriori informazioni: https://luogocomune.net/scienza-e-tecnologia/l%E2%80%99intelligenza-artificiale-ha-imparato-a-mentire https://edition.cnn.com/2025/07/23/politics/fda-ai-elsa-drug-regulation-makary The Application of Elsa Speak Software in English Teachingat Can Tho University of Technology – A Case Study https://ijsshr.in/v7i10/Doc/29.pdf https://www.fda.gov/news-events/press-announcements/fda-launches-agency-wide-ai-tool-optimize-performance-american-people   Lorenzo Poli
[entropia massima] Estrattivismo dei dati
Puntata 27, ottava del ciclo Estrattivismo dei dati, parliamo di digitale e psicoanalisi. Presentiamo "I Popoli dell’Es", il nuovo libro di Chiara Buoncristiani e Tommaso Romani, entrambi psicoanalisti e ricercatori a Roma. Tra riflessioni sul nostro rapporto con le tecnologie e l’ibridazione delle soggettività. PRIMA PARTE: ISTITUZIONI DIGITALI E APOCALISSE QUOTIDIANA Si parte dal rito del doomscrolling, che rivela come i feed personalizzati abbiano preso il posto di scuole, famiglie e chiese: le “istituzioni” che un tempo garantivano orientamento psichico, vengono oggi sostituite da algoritmi e flussi informativi. L’attenzione, moneta del capitalismo cognitivo, ci cala in un sentimento apocalittico — inteso sia come rovina sia come rivelazione — che da un lato manifesta la crisi di poteri gerarchici e, dall’altro, apre spazi di desiderio politico orizzontale. Tra i rischi di fake news e neo-verità, emerge però la possibilità che molte voci marginali trovino finalmente ascolto. SECONDA PARTE: IBRIDAZIONE E SCRITTURA COLLETTIVA Il cuore del libro pulsa in un approccio assemblage, dove mondi interiori e realtà digitali non si fronteggiano ma si intrecciano in un “tra” di soggettività multiple. La scrittura diventa pratica politica: non un dialogo a due, ma un montaggio di frasi e contributi — da psicoanalisti, antropologi, filosofi, teorici queer e artisti — che dà forma a un «collettivo» di voci. Il capitolo “Nexa”, realizzato in forma collettiva, incarna l’idea deleuziana di concatenamento, mostrando come ogni soggettività sia a sua volta un piccolo arcipelago di relazioni. TERZA PARTE: TECNOLOGIE, CORPO E INTELLIGENZA ARTIFICIALE Conclude la puntata un’immersione nell’ibridazione tra corpo reale e “corpo algoritmico”: protesi, botox, like sui social diventano spinte pulsionali che rimodellano i nostri desideri. Dal cyber-femminismo alla nozione di “soggetto nomade”, si esplora come le IA non ci rispecchino passivamente, ma diventino l’altro con cui negoziare un «macro-organismo» postumano. Tra visioni transumaniste di potenza e prospettive postumane più democratiche, il futuro si gioca nella capacità di coesistere — umani, altre specie e macchine — in un equilibrio dinamico e ancora tutto da raccontare.   TRASCRIZIONE INTEGRALE DELLA PUNTATA.  
L’ex sindaco di Koper/Capodistria e MEP Aurelio Juri sul riarmo della Slovenia
IA – Intelligenza Artificiale. Perché l’uomo l’ha creata? Considerati i tempi in cui viviamo e gli eventi che la segnano e la determinano, direi che perché il suo creatore non ce l’ha più. L’ha certamente creata per aiutarsi, per trarne quanti più consigli utili e di facile utilizzo su cosa, quando e come fare, per rendersi la vita più facile e bella. Chiediamole quindi delle decisioni che sempre più spesso vengono prese dai leader di Bruxelles e di altre capitali europee, compresa la nostra, in materia di armamenti. Il 2% del PIL per la difesa non basta più, almeno il 3%, e poiché Trump minaccia di ritirare lo scudo americano sull’Europa se non passa al 5%, alleggerendo così finanziariamente gli Stati Uniti, anche questo obiettivo è già scritto. Il piano di Leyen per il riarmo dell’Europa – 800 miliardi di euro nei prossimi 4 anni – è perfettamente in linea con i desideri della più grande e pericolosa caricatura mai esistita del leader della potenza più potente del mondo. Il motivo – affermano le signore e i signori a capo della NATO e dell’UE – è la minaccia posta alla nostra sicurezza, ai nostri valori, al nostro stile di vita, all’esistenza della civiltà occidentale… dalla Federazione Russa, che mostra ogni intenzione di attaccare e soggiogare l’intero continente una volta finita con l’Ucraina. Dopo tre anni di guerra, ha preso il controllo del 20% dell’Ucraina e deve difendersi dai suoi droni anche nel profondo del suo territorio. Ebbene, i leader sanno già di cosa è capace Putin, con cui tutti sono stati buoni amici fino al 24 febbraio 2022, 25 anni dopo la sua ascesa al potere. Ma chiediamo all’IA cosa pensa dell’ultimo trend dell’Occidente: gli armamenti. Ho attivato ChatGPT e ho ricevuto questa risposta: 1. Aumento delle tensioni: una militarizzazione accelerata potrebbe innescare una corsa agli armamenti e indebolire ulteriormente i rapporti con la Russia o altre superpotenze. 2. Costi elevati: l’aumento del bilancio militare potrebbe andare a scapito delle politiche sociali ed economiche, il che potrebbe causare disaccordi interni all’Unione Europea. 3. Soluzione diplomatica: invece dell’espansione militare, l’Europa potrebbe investire nella diplomazia, nei negoziati e nel rafforzamento delle alleanze internazionali. Dipende dagli obiettivi strategici. Se volesse mantenere la pace e la stabilità, l’UE potrebbe cercare altre strade, come la diplomazia, l’indipendenza energetica e lo sviluppo tecnologico. Oddio! – direbbe il nuovo cancelliere tedesco Friedrich Merz se leggesse questo. E ha aggiunto: “Chi ha permesso alle forze di pace di intrufolarsi tra i creatori dell’IA?!”. Beh, non c’è dubbio che tutto questo lo sappia benissimo, ma non corrisponde all’obiettivo che si era prefissato, ovvero creare la prima superpotenza militare europea dalla Germania, proprio come il suo predecessore 90 anni fa. E poiché il suo collega francese Emmanuel Macron e il polacco Donald Tusk non vogliono rimanere indietro, anche per il bene della memoria storica, hanno accettato la sfida e tutti e tre, seguiti da tutti gli altri, compresi i nostri, stanno già gareggiando avidamente nel gioco di “chi sarà di più”. E l’IA? Ah, è solo una macchina senz’anima. E poiché non abbiamo dato all’intelligenza artificiale il diritto di decidere, coloro che non hanno abbastanza del diritto divino di decidere decidono, ma sono quindi chiamati a farlo. Secondo la volontà del popolo, che non ha quasi più volontà, viziata e tesa come accade sempre più spesso. Ogni volta e ovunque qualcuno proponga una richiesta riguardante l’aumento dei bilanci della difesa, che la gente creda di più nell’IA o che le autorità sostengano e stanziano più soldi dei contribuenti per armare lo Stato, quest’ultimo elenca tutte le possibili ragioni per rendere impossibile verificare la volontà del popolo. Questo è finalmente il caso. L’Assemblea Nazionale, in conformità con la volontà del governo Golob, favorevole alla NATO, e con i desideri del Ministro della Difesa Sajović, ha adottato giovedì una nuova risoluzione sulla difesa, questa volta su un programma a lungo termine per lo sviluppo e l’equipaggiamento dell’esercito sloveno fino al 2040, che, a differenza della precedente, prevede un aumento radicale di tali spese al 2% del PIL già quest’anno (la precedente fino al 2030) e gradualmente al 3% entro il 2030. La Sinistra, che si oppone, sta cercando di indire un referendum al riguardo, ma i suoi membri più fedeli del maggiore partito di coalizione, Svoboda, stanno già dicendo loro di non preoccuparsene, perché faranno in modo che non ci sia alcun referendum. Il motivo? La risposta è a portata di mano: ne hanno paura, sanno che la gente mostrerebbe il cartellino rosso al governo, dicendogli che si fida più dell’intelligenza artificiale che della sua! E… lunga vita all’IA! Aurelio Juri Capodistria, 13.6.2025 Redazione Friuli Venezia Giulia
Intelligenza artificiale, minaccia o opportunità per l’umanità?
> Nel corso degli anni 2010, l’intelligenza artificiale (IA) è stata impiegata > in applicazioni reali come gli assistenti vocali, la traduzione automatica e > il riconoscimento facciale, e sta crescendo in modo esponenziale. Ma dal > momento in cui è stata messa a disposizione della collettività l’IA è > diventata un argomento di grande attualità, invadendo ogni conversazione e > ogni ambito della vita – politico, scientifico, filosofico, sociologico, > psicologico e persino religioso, suscitando reazioni contrastanti, che > oscillano dal fascino alla preoccupazione. INTELLIGENZA ARTIFICIALE TRA FASCINO, ABERRAZIONI E PAURE “Tra gli estremi, ci sono i Transumanisti per i quali l’IA è il futuro dell’umanità. I fan incondizionati delle macchine ritengono che l’essere umano debba essere “potenziato” per far fronte alla complessità del mondo. Meglio ancora! Seguendo una concezione meccanicistica dell’essere umano, lo vedono come una macchina a obsolescenza programmata, la cui salvezza – e persino immortalità – arriverà dalla tecnologia. Si chiedono almeno a cosa servirebbe vivere 5.000 anni per affrontare la complessità del mondo? Purtroppo, questi ideologi sono a capo delle grandi aziende tecnologiche da cui dipende in larga misura lo sviluppo dell’IA (GAMAM [1] per gli Stati Uniti; BATX [2] per la Cina). E c’è da temere che, incuranti di condividere i possibili contributi positivi dell’IA, ne indirizzino lo sviluppo verso una società di controllo, di condizionamento dei comportamenti e di rincretinimento, come già avviene. Molte persone sono entusiaste dell’IA perché permette loro di fare il meno possibile e persino di compensare il vuoto emotivo [3] generato dalla nostra società. Tuttavia, sappiamo che così facendo, l’IA apre anche la strada a una forma di comodità, alla perdita di punti di riferimento tra il reale e il virtuale, alla dipendenza e all’isolamento sociale. È quindi ragionevole preoccuparsi dell’uso indiscriminato, non misurato e acritico dell’IA, che porterebbe a una perdita di competenze e a una regressione cognitiva e sociale che, lungi dal contribuire allo sviluppo della coscienza umana, ci farebbe sprofondare in una sorta di letargo e di ottundimento collettivo [4]. Questi legittimi timori, insieme a quelli del riscaldamento globale e a quelli più fantasiosi di una sottomissione dell’uomo da parte dei robot, alimentano gli altri estremi: quelli che rifiutano in toto l’IA. Va detto che queste preoccupazioni rimarranno reali finché l’IA verrà impiegata in un sistema socio-economico dominato da un capitalismo caratterizzato dall’appetito infinito delle aziende tecnologiche, tutte pronte a impiegare l’IA al posto di dipendenti meno efficienti, meno produttivi e troppo costosi. Questo è già osservabile in molti settori [5], anche i più improbabili, come il diritto, la sanità, l’istruzione, la cultura e persino la creazione (musica, immagine, cinema), dove molte professioni – in particolare quelle di “natura intellettuale” finora protette dai progressi tecnici – sono minacciate. E mentre i nostri leader e i loro seguaci miliardari possono rassicurarci con improbabili promesse di riconversione professionale o di creazione di nuovi tipi di occupazione, è chiaro che l’IA sconvolgerà l’intera organizzazione economica e sociale, e con essa i nostri comportamenti, le nostre abitudini e le nostre convinzioni, accelerando forse la crisi esistenziale che stiamo vivendo. VERSO UN USO CONSAPEVOLE E UMANISTA DELL’INTELLIGENZA ARTIFICIALE Tuttavia, poiché lo sviluppo dell’intelligenza artificiale si sta rivelando inevitabile, potrebbe essere saggio vedere questa accelerazione come un’opportunità per prevedere non solo una nuova organizzazione sociale, ma anche dei progressi per gli esseri umani. Questo è già il caso quando l’IA offre un facile accesso alla conoscenza, consentendo di fare scoperte e realizzare delle ricerche in molte aree. Questo vale anche quando si aprono nuovi orizzonti per il benessere umano: nella salute, con diagnosi più accurate e presto rimedi su misura per ogni individuo; nell’istruzione, con programmi di formazione per il progresso dell’insegnamento su misura per ogni alunno; nell’ambiente, con una strategia completa e piani d’azione… Alcuni utopisti la vedono come un’opportunità per liberarsi dall’alienazione del lavoro, anche se l’IA sta attualmente fornendo posti di lavoro non qualificati, soprattutto nei Paesi più poveri. Ma altri ritengono che passeremo dall’alienazione dal lavoro all’alienazione dalla macchina. Infine, l’ambito di lavoro è anche un luogo di socializzazione, un ambiente che deve essere preservato. Alla luce di queste considerazioni, la penetrazione dell’IA nell’economia “produttiva” è un’occasione per ripensare il ruolo di alcune professioni, come i medici, gli insegnanti e gli psicologi, in cui l’interazione umana ha la precedenza. È anche un’opportunità per rivedere in profondità l’attuale organizzazione socio-economica [6]. Su un piano più esistenziale, l’essere umano – “non occupato” grazie all’IA, sia professionalmente che nello svolgimento di compiti quotidiani che considererebbe noiosi – potrebbe guadagnare tempo ed energia da dedicare allo sviluppo del proprio potenziale. È proprio questo potenziale che va specificato, visto che l’IA riproduce una serie di facoltà finora ritenute specifiche dell’uomo: strutturare il pensiero, prevedere, creare, interagire con gli esseri umani, provare empatia e persino, in un prossimo futuro, con l’IA generale, provare emozioni e comprendere il significato profondo delle proprie azioni. L’IA sta diventando così potente che stiamo già mettendo in dubbio l’origine umana di molti dei suoi risultati e delle sue creazioni. Va detto che, con l’IA, l’essere umano sta facendo un ulteriore passo avanti verso l’esternalizzazione del funzionamento della sua psiche: memoria che si nutre di ciò che fa, consentendo l’autoapprendimento; sensi per catturare ciò che viene percepito dagli occhi, dalle orecchie e dal tatto; capacità motorie sempre più fini nei robot; strutturazione di tutti i dati acquisiti per fornire risposte, automatizzate o meno, nel mondo. Tuttavia, qualora l’IA si preparasse a provare emozioni, riuscirà a sentire anche il dolore del corpo e la sofferenza legata alla paura di sapere di essere mortale? Se è creativa, sarà inventiva? E se può prevedere il futuro, sarà in grado di immaginarlo? Queste sono solo alcune delle domande etiche, psicologiche e persino filosofiche che l’IA, specchio o simulacro dell’essere umano, può sollevare, invitandoci a ridefinire chi siamo, a cosa serviamo e dove stiamo andando. È ancora difficile immaginare le trasformazioni che l’IA potrebbe produrre. Tuttavia, due cose sono certe: * Questo strumento cambierà l’essere umano che lo ha ideato e che lo usa, così come la padronanza del fuoco ha cambiato il destino dell’uomo (a meno che il destino non fosse proprio quello di padroneggiare il fuoco… o di produrre l’IA) * Affinché questa trasformazione avvenga a favore dello sviluppo umano, e non come nel caso dello smartphone adottato senza riflessione e controllo, i cittadini, gli intellettuali, gli artisti, gli educatori, gli assistenti, i filosofi, in breve, tutte le forze vive devono occuparsi di questo tema per definirne tutti insieme il suo impiego.   NOTE [1] anche Google, Apple, Meta, Amazon e Microsoft [2] Baïli, Alibaba, Tencent, Xiami) [3] https://www.lemonde.fr/pixels/article/2024/08/06/comment-l-ia-bouscule-le-milieu-de-la-sante-mentale-plutot-que-de-payer-une-nouvelle-seance-chez-le-psy-j-allais-sur-chatgpt_6270640_4408996.html [4] Questo fa venire in mente il film Idiocracy, una satira o una fiction profetica su una società in cui “gli schermi sono ovunque, e per estensione la pubblicità, il consumo e in definitiva una trappola, quella di diventare un pozzo di informazioni futili che ci sclerotizzerebbe nell’inattività, incapaci di sviluppare conoscenze essenziali e meccanismi intellettuali”. Una società in cui “l’essere umano moderno è una sorta di entità passiva, decerebrata, senza spazio per il pensiero critico, che viene alimentata con una visione del mondo preconfezionata”; una società “totalmente lobotomizzata dall’assurdità in ogni campo (politico, economico, educativo, culturale, ecc.)”. [5] Agricoltura, industria, trasporti, logistica, amministrazione – gestione, contabilità, risorse umane. [6] Ad esempio, potrebbe essere l’occasione per separare la nozione di lavoro da quella di reddito, con l’introduzione di un reddito di base o di un salario a vita. -------------------------------------------------------------------------------- Traduzione dal francese di Maria Rosaria Leggieri. Revisione di Thomas Schmid. Perspectives Humanistes