Tag - Blog_AI

Il computer sa cosa guardi
(Fonte) Max Kozlov – 14 novembre 2025 Una nuova tecnica basata sull’intelligenza artificiale, chiamata mind captioning, è in grado di generare descrizioni molto accurate di ciò che una persona sta guardando, semplicemente analizzando la sua attività cerebrale. Presentata su Science Advances, questa tecnologia offre nuove informazioni su come il cervello rappresenta il mondo prima che i pensieri vengano trasformati in parole e potrebbe rivelarsi utile per aiutare persone con disturbi del linguaggio — ad esempio dopo un ictus — a comunicare meglio. Secondo il neuroscienziato Alex Huth, il modello riesce a ricostruire con notevole dettaglio ciò che l’osservatore vede, un risultato sorprendente vista la complessità del compito. Da oltre dieci anni i ricercatori sanno ricostruire ciò che una persona vede o sente analizzando lattività cerebrale, ma decodificare contenuti complessi, come brevi video, è sempre stato difficile. I tentativi precedenti riuscivano a estrarre solo parole chiave, senza cogliere il contesto completo. Il neuroscienziato Tomoyasu Horikawa ha sviluppato un nuovo approccio: prima ha creato una “firma di significato” digitale per più di duemila video, analizzandone i sottotitoli con un modello linguistico. Poi ha addestrato un’altra IA a collegare queste firme ai pattern di attività cerebrale osservati in sei volontari tramite risonanza magnetica. Quando il sistema analizza una nuova scansione celebrale mentre qualcuno guarda un video, riesce a prevedere la relativa firma di significato, e un generatore di testo trova la frase che meglio la rappresenta. Così, da un semplice video di una persona che salta da una cascata, il modello è riuscito passo dopo passo a ricostruire una descrizione completa e accurata. Il metodo ha funzionato anche quando i partecipanti richiamavano alla memoria video già visti: l’IA ha generato descrizioni basate sui ricordi, suggerendo che il cervello utilizza rappresentazioni simili per visione e memoria. Timori per la privacy  La nuova tecnica, basata su risonanza magnetica funzionale non invasiva, potrebbe migliorare le interfacce neurali impiantate che mirano a trasformare direttamente in testo le rappresentazioni mentali non verbali. Secondo Alex Huth – che nel 2023 ha sviluppato un modello simile per decodificare il linguaggio da registrazioni cerebrali non invasive – questi progressi potrebbero aiutare persone con difficoltà comunicative. Allo stesso tempo, però, emergono timori sulla privacy mentale: la possibilità di rivelare pensieri, emozioni o condizioni di salute potrebbe essere sfruttata per sorveglianza o discriminazione. Huth e Horikawa sottolineano che i loro modelli non oltrepassano questo limite: richiedono il consenso dei partecipanti e non sono in grado di leggere pensieri privati, una capacità che – ribadisce Huth – nessuno ha ancora dimostrato. The post Il computer sa cosa guardi first appeared on Lavoratrici e Lavoratori Aci Informatica.
Mentre i data center AI subiscono ritardi, inizia il gioco delle accuse
(Fonte) Anissa Gardizy – 24 novembre 2025 Nel settore dei data center per l’IA l’euforia iniziale sta lasciando spazio a tensioni e accuse, perché molti mega-progetti da gigawatt stanno subendo ritardi. Le scadenze mancate sono  sufficienti a far emergere responsabilità e frizioni, soprattutto mentre le grandi aziende di IA — OpenAI, Google, Meta, Anthropic e xAI — competono ferocemente per ottenere capacità di calcolo. Il caso più evidente riguarda CoreWeave: il CEO ha avvertito che i ricavi trimestrali caleranno di 100–200 milioni di dollari per colpa di un “ritardo” attribuito a un partner esterno. Molti nel settore ritengono che il problema sia legato a Core Scientific, già coinvolta in ritardi in un data center a Denton (Texas) che serve Microsoft e OpenAI. Nonostante ciò, OpenAI ha firmato un contratto quinquennale da 12 miliardi con CoreWeave per usare quella struttura. La vicenda solleva un interrogativo su chi debba rispondere dei mancati ricavi: CoreWeave o Core Scientific? Il CEO di Core Scientific afferma che molte tempistiche promesse nel settore sono semplicemente irrealistiche se non si pianificano per tempo attrezzature critiche, appaltatori esperti e manodopera. Con l’avvicinarsi delle scadenze, sostiene, il divario tra annunci e realtà diventerà sempre più evidente. A complicare il quadro potrebbe esserci anche la decisione degli azionisti di Core Scientific di rifiutare l’offerta di acquisizione da 9 miliardi avanzata da CoreWeave. In ogni caso, i ritardi non sono insoliti nel mondo dei data center, dove problemi con le forniture di energia o con l’arrivo delle attrezzature sono piuttosto comuni. Voci alzate Ma la posta in gioco è diversa ora, data l’urgenza di completare i data center basati sull’intelligenza artificiale. All’inizio di quest’anno, i dirigenti di Oracle hanno alzato la voce presso gli appaltatori di Abilene, in Texas, mentre aumentava la pressione sull’azienda affinché consegnasse i server funzionanti al suo cliente, OpenAI. Per i fornitori di servizi cloud GPU con margini di profitto lordi già ridotti sull’affitto dei server , questi problemi possono alterare materialmente i loro risultati finanziari. Per gestire la domanda futura, anche grandi sviluppatori come Meta stanno preparando i data center in anticipo, lasciando pronti i siti senza installare ancora i rack GPU, creando così buffer per aumentare rapidamente la capacità quando necessario. L’industria si trova quindi a confrontarsi con limiti fisici di manodopera, attrezzature e infrastrutture, in un contesto di domanda crescente e pressioni economiche elevate. The post Mentre i data center AI subiscono ritardi, inizia il gioco delle accuse first appeared on Lavoratrici e Lavoratori Aci Informatica.
I dati sintetici salveranno l’intelligenza artificiale?
(Fonte) Andrea Signorelli – 19 marzo 2025 Gli esperti avvertono che i modelli di intelligenza artificiale potrebbero presto affrontare una “carestia di dati”. I large language model consumano enormi quantità di testi per l’addestramento, ma le fonti disponibili sul web – come Common Crawl, Wikipedia o Reddit – stanno raggiungendo un limite, il cosiddetto data wall, cioè il punto in cui tutti i dati utili sono già stati utilizzati o diventano inaccessibili. La crescita della domanda è enorme: GPT-3 ha richiesto 500 miliardi di token, mentre GPT-4 ne avrebbe utilizzati circa 13 mila miliardi. Tuttavia, il volume di contenuti testuali online non aumenta abbastanza velocemente per sostenere modelli sempre più grandi, che secondo la legge di scala richiedono più parametri, più potenza computazionale e soprattutto molti più dati. Questo rischio potrebbe frenare lo sviluppo futuro dell’IA. Secondo uno studio di EpochAI, continuando le attuali tendenze, gli LLM esauriranno tutti i testi pubblici disponibili tra il 2026 e il 2032, entrando così in una possibile “carestia di dati”. Ma il problema potrebbe arrivare prima:  secondo quanto riporta TechCrunch, molti dati stanno diventando inaccessibili. Un altro studio ha stimato che il 25% dei dati provenienti da fonti di “alta qualità” (quasi sempre testate giornalistiche prestigiose e in lingua inglese, come il Guardian o il New York Times) è oggi inaccessibile ai principali dataset impiegati per l’addestramento delle intelligenze artificiali. La chiusura dei siti deriva da controversie su copyright e uso improprio dei contenuti, come le cause intentate da testate quali il New York Times. Per sbloccare l’accesso, molte piattaforme hanno iniziato a monetizzare i propri dati: Stack Overflow, Reddit e diverse testate (WSJ, AP, Gedi) hanno firmato accordi a pagamento con le aziende di IA, così come archivi di immagini come Shutterstock. Il mercato dei dati  La crescente domanda di dati per addestrare l’IA ha fatto nascere un mercato miliardario dell’etichettatura dei dati, oggi valutato circa 850 milioni di dollari e destinato a raggiungere i 10 miliardi nei prossimi dieci anni,  secondo Dimension Market Research. La crescita è spinta sia dall’aumento del volume di dati necessari sia dalla maggiore complessità dei contenuti da etichettare, che richiede personale specializzato e più costoso, mentre i lavori più semplici sono spesso svolti da lavoratori poco pagati nei Paesi in via di sviluppo. Parallelamente, l’accesso ai dati sta diventando più oneroso per via degli accordi commerciali che molte piattaforme impongono alle aziende di IA. Il risultato è un forte aumento dei costi per creare nuovi dataset. Questa dinamica danneggia soprattutto piccole aziende e ricercatori, che dipendono da dataset pubblici come Common Crawl e non possono permettersi licenze costose. Se i dataset pubblici perdono accesso a contenuti di alta qualità, il rischio è una crescente concentrazione del potere tecnologico nelle mani delle grandi società di IA. Il collasso del modello Il problema della scarsità di dati è aggravato dal fatto che una quota crescente dei contenuti online è generata direttamente da modelli di IA. Questi testi – spesso di bassa qualità – vengono poi raccolti dagli scraper e riutilizzati come dati di addestramento, creando un circolo vizioso: l’IA si allena su contenuti prodotti da altre IA, degradando progressivamente la qualità del modello. Uno studio pubblicato su Naturemostra che addestrare modelli su output generati da altri modelli porta al model collapse, una progressiva perdita di coerenza paragonabile a fare copie successive di una fotografia, fino ad avere solo “rumore”. Esperimenti controllati hanno mostrato che, dopo varie iterazioni, il modello finisce per produrre frasi completamente senza senso. Il problema è urgente perché i contenuti sintetici stanno crescendo rapidamente: tra il 2022 e il 2023 i post generati da IA sono aumentati del 68% su Reddit e del 131% sui siti online di bassa qualità, alimentando ulteriormente il rischio di un collasso dei modelli. Il lato buono dei dati sintetici I dati sintetici, se generati appositamente e con tecniche corrette, potrebbero rappresentare una soluzione alla futura “carestia di dati” per l’IA. “Se è vero che ‘i dati sono il nuovo petrolio’, allora i dati sintetici sono il biocarburante, generabili senza tutte le esternalità negative dell’originale”, ha spiegato Os Keyes, ricercatore che si occupa di Etica delle nuove tecnologie.  Sono testi creati direttamente dai modelli, che possono ampliare artificialmente i dataset senza rischi di copyright e con meno contenuti tossici. La qualità dipende però da un uso accurato del prompting: per ottenere dati utili servono istruzioni precise, come generare testi in stile “manuale scolastico”. Molti modelli recenti – tra cui Claude 3.5 Sonnet, Llama 3.1 e GPT-4.5 – usano già dati sintetici, che permettono anche forti risparmi economici: si stima che Palmyra X 004, un modello sviluppato quasi esclusivamente su dati sintetici da Writer (società di intelligenze artificiali generative a uso aziendale) sia costato 700mila dollari, contro i 4,6 milioni per un modello di dimensioni equiparabili addestrato nel modo classico. Sempre Hugging Face, che è una piattaforma collaborativa per strumenti di intelligenza artificiale, ha recentemente dichiarato di aver creato il più grande set di dati sintetici, chiamato SmolLM-Corpus. Restano però rischi significativi: i dati sintetici ereditano e amplificano pregiudizi e squilibri già presenti nei dati originali. Uno studio del 2023 condotto da ricercatori della Rice University e di Stanford ha scoperto che un’eccessiva dipendenza dai dati sintetici durante l’addestramento può portare a modelli la cui “qualità o diversità diminuisce progressivamente”. Il rischio di model collapse esiste anche quando si usano dati sintetici prodotti intenzionalmente: se vengono riutilizzati senza filtri, la qualità del modello degrada rapidamente. Tuttavia, questo esito non è inevitabile. Filtrando e valutando gli output – ad esempio facendo giudicare a un modello la qualità dei dati generati da un altro e selezionando solo quelli migliori – i dataset sintetici possono risultare persino più puliti e controllati di quelli reali. Il pericolo di un circolo vizioso rimane, ma la ricerca suggerisce che con un uso attento e selettivo dei dati sintetici si può mantenere, o persino migliorare, la qualità complessiva. The post I dati sintetici salveranno l’intelligenza artificiale? first appeared on Lavoratrici e Lavoratori Aci Informatica.
Intelligenza artificiale, così l’Africa vuole liberarsi dai pregiudizi
(Fonte) Alberto Magnani – 20 novembre 2025 Julian Purdy, ex funzionario del Dipartimento del Lavoro degli Stati Uniti, ha sperimentato direttamente i bias dell’intelligenza artificiale mentre lavorava a un sistema che traducesse competenze militari in profili professionali civili. L’algoritmo, addestrato su dati della forza lavoro americana — storicamente sbilanciata a favore degli uomini bianchi — ha finito per produrre risultati discriminatori su base razziale e di genere, replicando le disuguaglianze strutturali presenti nel dataset. Secondo Purdy, gli sviluppatori non avevano intenzioni discriminatorie, ma l’uso di dati storicamente distorti ha perpetuato le stesse ingiustizie che il progetto mirava a contrastare. Il problema non riguarda solo gli Stati Uniti: i bias delle IA diventano ancora più gravi quando si considerano interi continenti esclusi dai benefici dell’innovazione digitale, come l’Africa. Questi temi sono stati al centro della Global Artificial Intelligence Innovation Movement and Evolution (GAIME) Conference tenutasi a Kampala, che ha messo in evidenza la necessità di una collaborazione inclusiva per affrontare le discriminazioni razziali ed euro- o asiatocentriche insite nelle tecnologie AI. In un settore dominato da Stati Uniti e Cina, l’Africa rimane ai margini del boom globale dell’intelligenza artificiale, nonostante il suo enorme potenziale economico e demografico. Secondo dati ONU, entro il 2030 l’IA potrebbe aggiungere 15.700 miliardi di dollari al PIL globale, ma quasi tutto il valore si concentrerà in Asia, Nord America ed Europa. L’Africa, invece, contribuisce in modo minimo sia al mercato sia ai finanziamenti e fornisce meno del 2% dei dati utilizzati per addestrare i modelli di IA, nonostante si avvii a superare i 2,5 miliardi di abitanti. Questo squilibrio quantitativo si traduce in un deficit qualitativo: sistemi incapaci di comprendere utenti africani. Le principali barriere sono la mancanza di rappresentanza nei dataset — che rende “invisibili” i giovani africani nei processi decisionali algoritmici — e il problema linguistico, dato il numero ridotto di lingue locali integrate nei modelli. La scarsa comprensione delle varianti linguistiche africane porta l’IA a fraintendere significati, segnalare erroneamente contenuti innocui o generare risposte irrilevanti. Sedici Paesi africani hanno già avviato strategie nazionali sull’IA, mentre l’Unione Africana sta sviluppando una propria iniziativa “Africa-centrica”. Tuttavia, le sfide infrastrutturali e finanziarie restano enormi: il continente rappresenta solo l’1% della capacità globale dei data center e meno del 40% della popolazione ha accesso a Internet. Gli investimenti in IA in Africa sono stati di 1,25 miliardi di dollari tra il 2019 e il 2024, una cifra minuscola rispetto ai 184 miliardi investiti negli Stati Uniti nel solo 2024. The post Intelligenza artificiale, così l’Africa vuole liberarsi dai pregiudizi first appeared on Lavoratrici e Lavoratori Aci Informatica.
La polizia europea vuole che l’intelligenza artificiale combatta la criminalità. Sostiene che la burocrazia sia un ostacolo.
(Fonte) Ellen O’Regan – 7 novembre 2025 Negli ultimi anni Europol ha ampliato significativamente le proprie capacità tecnologiche, soprattutto nell’uso di big data e nella decifratura delle comunicazioni criminali, in risposta alla criminalità informatica alimentata dall’IA. La Commissione Europea, con Ursula von der Leyen, punta a trasformare Europol in un attore molto più potente, con personale raddoppiato e una proposta legislativa prevista per il 2026. Tuttavia, accademici e attivisti sollevano forti preoccupazioni sul rischio di concedere alle autorità un uso incontrollato dell’intelligenza artificiale. Durante un incontro a Malta, il responsabile della polizia Ebner ha chiesto procedure accelerate che permettano di impiegare strumenti IA in situazioni di emergenza senza dover attendere i lunghi processi di valutazione richiesti da GDPR e AI Act, che possono durare fino a sei-otto mesi. Ebner sostiene che tali procedure rapide non violerebbero i divieti fondamentali, come quelli sulla profilazione o sul riconoscimento facciale in tempo reale. Nonostante restrizioni e tutele dell’AI Act, le forze dell’ordine godono già di alcune eccezioni, inclusa la possibilità per gli Stati membri di autorizzare l’uso del riconoscimento facciale in tempo reale per reati particolarmente gravi. I legislatori e i gruppi per i diritti digitali hanno espresso preoccupazione riguardo a queste eccezioni, garantite dai paesi dell’UE durante la negoziazione della legge. Le indagini di polizia hanno ormai quasi sempre una componente digitale e le forze dell’ordine investono molto in tecnologie costose come IA, piattaforme di decrittazione e, in futuro, computazione quantistica. Europol discute con le polizie nazionali la propria espansione e il ruolo crescente nell’innovazione tecnologica e nella cooperazione con soggetti privati, anche attraverso l’invio di analisti specializzati nelle indagini locali. Nonostante la spinta ad accrescere le capacità digitali europee, i paesi dell’UE restano riluttanti a cedere maggiore potere operativo alla dimensione sovranazionale. Europol ribadisce che il rafforzamento dell’agenzia non comporterà poteri diretti di polizia, come arresti o perquisizioni: tali prerogative resteranno esclusivamente agli Stati membri, poiché conferirele all’agenzia non sarebbe né necessario né utile. The post La polizia europea vuole che l’intelligenza artificiale combatta la criminalità. Sostiene che la burocrazia sia un ostacolo. first appeared on Lavoratrici e Lavoratori Aci Informatica.
Intelligenza artificiale, la Ue rinvia e semplifica le norme
(Fonte) Beda Romano – 19 novembre 2025 L’Unione Europea sta accelerando su nuovi pacchetti legislativi pensati per semplificare le norme in vari settori. Nel digitale, la Commissione europea ha presentato modifiche che includono, per l’intelligenza artificiale, la proposta di rinviare fino a 16 mesi l’entrata in vigore delle norme dell’AI Act relative agli usi considerati ad alto rischio. Il regolamento europeo sull’intelligenza artificiale (AI Act), in vigore da agosto 2024 e pienamente applicabile da agosto 2026, stabilisce un sistema di classificazione degli usi dell’IA basato sul rischio. Sono vietati gli utilizzi considerati inaccettabili perché pericolosi per la sicurezza, la vita o i diritti delle persone. Gli altri impieghi sono suddivisi in tre livelli — rischio alto, limitato e minimo — con la categoria ad alto rischio che include, tra l’altro, l’erogazione dei servizi essenziali. In un comunicato diffuso ieri, la Commissione europea ha proposto di rinviare di massimo 16 mesi — quindi fino a dicembre 2027 — l’applicazione delle norme dell’AI Act relative agli usi ad alto rischio ovvero «una volta che l’esecutivo comunitario potrà toccare con mano la disponibilità degli standard e degli strumenti di sostegno necessari» e che le imprese potranno applicare pienamente le nuove regole europee. Da tempo a Bruxelles si discuteva di un possibile rinvio dell’AI Act, sostenuto da chi chiedeva regole meno stringenti per permettere alle aziende europee di competere con quelle statunitensi e cinesi. Il rinvio è ora stato deciso, anche se ufficialmente motivato dalla necessità di disporre di standard tecnici realmente applicabili. Oltre al posticipo, la Commissione europea ha inoltre proposto modifiche di carattere più sostanziale al regolamento. La Commissione propone, tra le varie modifiche, di ampliare le semplificazioni già previste per le piccole e medie imprese e per le small mid-cap, introducendo requisiti tecnici e documentali più leggeri che dovrebbero generare risparmi stimati in almeno 225 milioni di euro l’anno. Sono previste inoltre modifiche a diversi testi legislativi, tra cui il GDPR, il regolamento europeo sulla protezione dei dati personali online. La Commissione europea propone di modificare le regole sui cookie per ridurre l’eccesso di pop-up, consentendo ai siti di memorizzare stabilmente le preferenze degli utenti. Ha inoltre suggerito cambiamenti al Data Act, introducendo esenzioni mirate per agevolare la migrazione delle PMI e delle small mid-cap verso servizi cloud, per facilitare l’accesso ai dati generati tramite sistemi di intelligenza artificiale. The post Intelligenza artificiale, la Ue rinvia e semplifica le norme first appeared on Lavoratrici e Lavoratori Aci Informatica.
Rifiutare l’intelligenza artificiale e il “destino manifesto” nucleare
(Fonte) Koohan Paik-Mander – 8 agosto 2025 Negli ultimi secoli, i popoli indigeni e le loro terre sono stati sfruttati e saccheggiati da potenze esterne. Oggi, questa dinamica si ripete in forma tecnologica: il “tecnocolonialismo” legato all’espansione dell’Intelligenza Artificiale (IA). Nel XXI secolo, la nuova corsa all’estrazione riguarda non solo risorse naturali (come minerali e acqua), ma anche dati e DNA, considerati materie prime essenziali per l’economia dell’IA. Un esempio emblematico è il “Progetto Stargate”, annunciato dal Presidente Trump nel 2025: un piano da mezzo trilione di dollari per costruire enormi data center che rendano l’IA un servizio pubblico essenziale. A sostenerlo sono i grandi oligarchi della tecnologia, che promettono benefici sociali e ambientali, mentre in realtà favoriscono la deregolamentazione ambientale, nucleare e della privacy, e l’espansione dell’IA militare. L’economia dell’IA si fonda su due pilastri:la costruzione di data center, ossia infrastrutture fisiche di elaborazione e una rete globale di sorveglianza e raccolta dati, che alimenta costantemente i modelli. Senza questi due elementi, l’intero sistema non può funzionare — e proprio qui si collocano i principali punti di intervento per resistere al tecnocolonialismo. I chatbot, come ChatGPT, non sono realmente intelligenti, ma si configurano come un complesso sistema di riconoscimento di pattern, basato sulla raccolta massiva di dati (testi, immagini, suoni, DNA). I dati sono tradotti in linguaggio matematico per consentire alla macchina di riconoscere schemi e formulare previsioni, come completare frasi o generare immagini coerenti con i prompt ricevuti. Le aziende biotecnologiche hanno sottratto milioni di campioni biologici da comunità indigene ed emarginate per addestrare modelli di intelligenza artificiale, spesso senza trasparenza sull’origine dei dati genetici. Grazie a tali dati, possono persino generare sequenze genetiche artificiali con caratteristiche pericolose, come virus potenzialmente utilizzabili nella guerra biologica. Parallelamente, il governo statunitense, sotto l’amministrazione Trump, ha centralizzato i dati pubblici in mano alla Palantir Corporation, nota per l’uso dell’IA nella sorveglianza militare e nel tracciamento dei migranti. Attraverso la cosiddetta “Internet delle Cose” (rete di elettrodomestici e gadget intelligenti, di riconoscimento vocale e facciale e di sensori biometrici), milioni di dispositivi “intelligenti” — telefoni, elettrodomestici, auto, sensori — raccolgono e inviano dati personali in modo continuo. Ogni azione quotidiana diventa così parte del flusso di estrazione digitale, alimentando un sistema globale di controllo e sorveglianza. L’avidità di potere e profitto alimenta la corsa ai dati, considerati “il nuovo petrolio”, mentre i data center ne rappresentano le “raffinerie”. Queste strutture, fulcro dell’economia dell’Intelligenza Artificiale, elaborano enormi quantità di informazioni ma consumano quantità immense di energia e acqua, causando gravi danni ambientali e sociali. Giganteschi complessi come quelli del Progetto Stargate o i data center di Microsoft, Amazon e Google prosciugano risorse idriche e devastano territori, come accade a Querétaro (Messico). Nonostante vengano pubblicizzati come infrastrutture “verdi”, le comunità indigene — come la Nazione Cree di Sturgeon Lake — si oppongono fermamente a questi progetti per la loro impatto ecologico e coloniale. Anche negli Stati Uniti, come a Memphis (Tennessee), i data center inquinano l’aria e compromettono la salute delle popolazioni locali. L’Agenzia Internazionale per l’Energia prevede che entro il 2030 i data center consumeranno più elettricità dell’intera industria globale dell’acciaio, del cemento e della chimica messe insieme. Di fronte a questo disastro annunciato, magnati come Bezos, Gates e Altman propongono una presunta “rinascita dell’energia nucleare” “, come se questa potesse essere una valida alternativa al consumo eccessivo di energia basata sul carbonio., ma che in realtà non affronta la causa principale: la crescente dipendenza energetica e l’impatto ambientale di un’economia costruita sull’IA. I magnati della Silicon Valley stanno promuovendo lo sviluppo di piccoli reattori modulari (SMR) per fornire energia ai data center dell’Intelligenza Artificiale, riaprendo così la strada a un nuovo ciclo di sfruttamento nucleare. In attesa che tali reattori diventino operativi, continua la dipendenza da fonti fossili e dall’estrazione di uranio, con gravi conseguenze per le comunità indigene. Il New Mexico, epicentro storico dell’industria nucleare sin da quando J. Robert Oppenheimer ha sviluppato la bomba atomica, è stato devastato in ogni fase del ciclo atomico — estrazione, arricchimento, test e smaltimento — e rischia ora di subire un ulteriore impatto con la “rinascita nucleare” legata all’IA. Non è casuale che l’intelligenza artificiale abbia origini a Los Alamos, dove nacque la bomba atomica: IA e nucleare sono intrecciati sin dall’inizio, uniti da una logica militare e distruttiva che oggi si perpetua nel nome del progresso tecnologico. Gli attivisti indigeni, come Petuuche Gilbert del popolo Acoma, denunciano la falsa separazione tra energia e armi nucleari, ricordando che entrambe violano l’equilibrio vitale tra terra, aria, acqua e persone. Per la visione indigena, ogni forma di industria nucleare è incompatibile con la coesistenza armoniosa tra gli esseri viventi e la natura. Gli attivisti antinucleari giapponesi definiscono energia e armi nucleari come “due teste dello stesso serpente”, poiché condividono gli stessi processi distruttivi — estrazione dell’uranio, arricchimento e smaltimento dei rifiuti radioattivi — che devastano terre, acque e comunità indigene. Il Los Alamos National Laboratory ha ripreso la produzione di testate nucleari dopo decenni di inattività, puntando a realizzare fino a 100 bombe all’anno entro il 2030, ognuna con una potenza venti volte superiore a quella di Hiroshima. Questo ritorno alla corsa agli armamenti implica anche la possibile ripresa dei test nucleari sotterranei, riaprendo ferite mai guarite tra le popolazioni indigene che vivono a valle dei siti nucleari, ancora oggi afflitte da gravi conseguenze sanitarie e ambientali. L’aumento della produzione di uranio e lo sviluppo dei piccoli reattori modulari (SMR) hanno fatto impennare il valore delle scorte di uranio, ignorando del tutto l’impatto devastante sulle comunità indigene e il loro diritto al consenso libero, previo e informato. Dal 1940, i popoli del sud-ovest degli Stati Uniti si oppongono all’industria nucleare, che ha provocato malattie croniche, tumori, difetti congeniti e contaminazione ambientale. Nella sola Nazione Navajo esistono oltre 500 miniere di uranio abbandonate, ancora fonte di gravi rischi sanitari e ambientali. Il New Mexico ospita anche il Waste Isolation Pilot Plant (WIPP), destinato allo stoccaggio dei rifiuti radioattivi militari. Inaugurato nel 1999 come progetto temporaneo, avrebbe dovuto chiudere nel 2024, ma il governo ha deciso di estenderne l’attività per altri 69 anni, ampliandolo nonostante la vicinanza a pozzi di fracking e gli incidenti già avvenuti nel trasporto dei rifiuti. Ancora una volta, il peso dell’industria nucleare — con la sua eredità tossica e coloniale — ricade sproporzionatamente sulle terre e sulle vite dei popoli indigeni del New Mexico e di tutto il Nord America. L’attivista Petuuche Gilbert denuncia la mancanza di piani concreti per lo smaltimento dei rifiuti radioattivi prodotti dai futuri reattori modulari (SMR) destinati ad alimentare l’Intelligenza Artificiale. L’arricchimento dell’uranio necessario per questi reattori — quasi a livello militare — comporta gravi rischi ambientali e sanitari, aggravando la vulnerabilità delle comunità indigene del sud-ovest degli Stati Uniti, già colpite da decenni di inquinamento nucleare. Questa nuova ondata di espansione nucleare a supporto dell’economia dell’IA rappresenta una minaccia esistenziale per la terra, l’acqua, la salute e la sovranità dei popoli nativi, una realtà spesso esclusa dalle discussioni pubbliche sulla tecnologia. Secondo l’attivista Koohan Paik-Mander, l’economia dell’IA non è ancora inevitabile: la sua infrastruttura — basata su data center, energia nucleare e sistemi di sorveglianza globale — è ancora in costruzione. Bloccarne lo sviluppo rappresenta quindi un atto di resistenza strategica. Possiamo frenare il colosso dell’intelligenza artificiale semplicemente bloccando la costruzione di data center a ogni passo e rimanendo offline il più possibile. Fermare i data center. Fermare la biopirateria. Fermare le armi nucleari. Fermare l’intelligenza artificiale. Fermare la sorveglianza. Sono tutti interconnessi. Mantenere l’uranio nel sottosuolo. Rispettare i diritti dei popoli indigeni. The post Rifiutare l’intelligenza artificiale e il “destino manifesto” nucleare first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’ICE, l’agenzia federale americana che si occupa di immigrazione, ha appena acquistato un bot per la sorveglianza dei social media
(Fonte) Katya Schwenk – 23 ottobre 2025 Secondo i registri degli appalti federali,l’agenzia statunitense Immigration and Customs Enforcement (ICE) avrebbe speso 5,7 milioni di dollari per un software di sorveglianza dei social media basato sull’intelligenza artificiale. Il contratto quinquennale con l’intermediario tecnologico governativo Carahsoft Technology fornisce licenze all’Immigration and Customs Enforcement (ICE) per un prodotto chiamato Zignal Labs, una piattaforma di monitoraggio dei social media utilizzata dall’esercito israeliano e dal Pentagono. Il software analizza oltre 8 miliardi di post al giorno per fornire analisi e allerte in tempo reale, permettendo alle forze dell’ordine di individuare “minacce” con maggiore rapidità. Le licenze saranno destinate alla divisione di intelligence dell’ICE, Homeland Security Investigations, per supportare indagini penali. Si tratta del primo contratto noto che garantisca all’ICE accesso diretto a Zignal, che va ad aggiungersi a un ampio arsenale di strumenti di monitoraggio online basati su IA. L’espansione di queste capacità solleva preoccupazioni per il potenziale uso della sorveglianza dei social media come strumento di controllo e repressione dell’immigrazione, una tendenza già rafforzata durante l’amministrazione Trump. Negli Stati Uniti, diversi attivisti filo-palestinesi — tra cui Mahmoud Khalil — sono stati presi di mira e arrestati dalle autorità per l’immigrazione dopo essere stati esposti da siti di destra filo-israeliani come Canary Mission. Recenti incursioni dell’ICE contro venditori ambulanti a New York sono seguite alla pubblicazione di video online da parte di alcuni influencer. Parallelamente, sindacati hanno intentato una causa contro l’uso crescente della sorveglianza dei social media da parte del governo, denunciando un “programma di sorveglianza di massa basato sulle opinioni politiche”. Secondo Wired, l’ICE intende espandere queste attività con un team di monitoraggio attivo 24 ore su 24, anche grazie all’uso di strumenti come quelli di Zignal Labs. Gruppi per i diritti civili, come l’ACLU, denunciano che tali tecnologie di analisi automatica dei social media minacciano la libertà di espressione e vengono implementate senza trasparenza né controllo pubblico. Zignal Labs, azienda fondata nella Silicon Valley nel 2011 per il monitoraggio dei media e delle campagne politiche, ha progressivamente spostato il proprio focus verso il settore della difesa e dell’intelligence. Dal 2021 collabora con enti militari, tra cui l’esercito israeliano — per il quale fornisce “intelligence tattica” a Gaza — i Marines statunitensi e il Dipartimento di Stato. La società, che non ha commentato il suo contratto con l’ICE, è parte di un più ampio ecosistema di strumenti di sorveglianza digitale utilizzati dal governo statunitense. Una causa promossa da sindacati denuncia l’uso di questi strumenti da parte dell’ICE, già dotato di software come ShadowDragon e Babel X, capaci di tracciare l’attività online e collegare dati personali e sociali dei bersagli. Secondo l’avvocata Julie Mao di Just Futures Law, i contratti di sorveglianza dell’ICE sono in costante aumento, sollevando gravi preoccupazioni per la privacy e i diritti civili. L’ICE ha firmato un contratto da 7 milioni di dollari con SOS International LLC (SOSi) per servizi di skip tracing, cioè il tracciamento degli spostamenti di individui. L’accordo segue di pochi mesi l’assunzione da parte di SOSi di Andre Watson, ex dirigente dell’intelligence dell’ICE, per ampliare le attività dell’azienda nel campo della sicurezza. Nel frattempo, l’ICE ha anche stretto un contratto con Carahsoft per l’uso delle licenze Zignal Labs, il cui software di sorveglianza potenziato dall’intelligenza artificiale consente di analizzare dati digitali globali in tempo reale per identificare potenziali “minacce”. Secondo i sindacati e gruppi per le libertà civili, come l’Electronic Frontier Foundation e la Yale Media Freedom Clinic, l’impiego di IA e strumenti automatizzati per la sorveglianza online rappresenta una grave minaccia alla privacy e alla libertà di espressione, rafforzando il rischio di un controllo di massa basato sulle opinioni politiche. The post L’ICE, l’agenzia federale americana che si occupa di immigrazione, ha appena acquistato un bot per la sorveglianza dei social media first appeared on Lavoratrici e Lavoratori Aci Informatica.
OpenAI non è più solo una no-profit, Microsoft se ne prende il 27% per 135 miliardi
(Fonte) Biagio Simonetta – 28 ottobre 2025 OpenAI ha completato la sua trasformazione in società a scopo di lucro, siglando un accordo che ridefinisce gli equilibri del settore dell’intelligenza artificiale: Microsoft ha acquisito il 27% della società, per un valore di circa 135 miliardi di dollari. In cambio, ottiene l’accesso esclusivo alla tecnologia di OpenAI fino al 2032, inclusi eventuali futuri modelli di intelligenza artificiale generale (AGI). L’intesa conclude un lungo periodo di trattative, durante il quale altri grandi attori come SoftBank e Nvidia avevano mostrato interesse, consolidando di fatto il ruolo dominante di Microsoft nell’ecosistema OpenAI. Con il nuovo accordo, OpenAI diventa una public benefit corporation (OpenAI Group PBC) controllata dalla OpenAI Foundation, una fondazione non profit che deterrà il 26% della società. La trasformazione consente l’ingresso di nuovi capitali. La fondazione riceverà inoltre un warrant che le permetterà di aumentare la propria quota se il valore di OpenAI crescerà significativamente nei prossimi 15 anni. Tuttavia, la vera svolta è l’ulteriore consolidamento di Microsoft, che con questo accordo si riafferma come attore dominante nel settore dell’intelligenza artificiale. OpenAI e Microsoft hanno confermato la solidità della loro partnership, ma con una nuova struttura: Microsoft riceverà il 20% dei ricavi di OpenAI fino al raggiungimento dell’intelligenza artificiale generale (AGI), momento in cui la quota si azzererà. L’accordo, approvato dalle autorità del Delaware e della California, è stato giudicato conforme all’interesse pubblico. OpenAI continuerà a basarsi sul cloud Azure, con nuovi impegni per 250 miliardi di dollari, ma potrà collaborare anche con altri fornitori come Oracle. Sam Altman, CEO di OpenAI, non avrà partecipazioni nella nuova struttura, per evitare conflitti tra profitto e missione etica. I mercati hanno reagito positivamente: le azioni Microsoft sono salite del 4,2%, segno di fiducia nella stabilità del nuovo assetto. Il principale vantaggio per Microsoft è il mantenimento dei diritti di proprietà intellettuale sui modelli di OpenAI fino al 2032, che potrà integrare nei propri prodotti Copilot e utilizzare per sviluppare soluzioni autonome. L’alleanza tra le due società, quindi, non si interrompe ma si trasforma: OpenAI diventa un attore pienamente commerciale orientato verso l’obiettivo dell’intelligenza artificiale generale, mentre Microsoft consolida la propria posizione di leadership nella corsa globale all’AI The post OpenAI non è più solo una no-profit, Microsoft se ne prende il 27% per 135 miliardi first appeared on Lavoratrici e Lavoratori Aci Informatica.
Le sfide regolatorie dell’intelligenza artificiale nel diritto del lavoro
(Fonte) Tiziano Treu – 28 ottobre 2025 L’intelligenza artificiale pone sfide inedite alla regolazione, poiché permea ogni ambito produttivo e si evolve secondo logiche non umane, rendendo difficile un controllo pieno del fenomeno. Il legislatore europeo, riconoscendo i limiti degli strumenti tradizionali del diritto del lavoro, ha introdotto nei recenti regolamenti — in particolare quelli su protezione dei dati e IA — un approccio procedurale basato su obblighi per le imprese. Queste devono garantire trasparenza, fornendo informazioni chiare e tempestive sull’uso dell’IA nei rapporti di lavoro, e condurre analisi dei rischi legati alle tecnologie impiegate. Poiché l’uso dell’IA nella gestione del personale è considerato ad alto rischio, il regolamento impone misure preventive e correttive per mitigare eventuali pericoli. L’attuazione di tali norme richiede alle imprese di sviluppare nuove competenze e assetti organizzativi per gestire in modo responsabile l’impiego dell’intelligenza artificiale. Diffusione dell’IA nelle imprese italiane Le ricerche mostrano che l’adozione dell’intelligenza artificiale nelle imprese italiane è ancora limitata, ma in rapida crescita, soprattutto nella gestione del personale: selezione e valutazione dei candidati, analisi delle performance, procedure di compliance e sicurezza sul lavoro. Un ambito particolarmente critico riguarda l’esercizio del potere direttivo, che con l’uso dell’IA tende a fondersi con il potere di controllo, permettendo forme di monitoraggio anche non trasparenti per i lavoratori. Per questo le normative europee impongono vincoli stringenti sull’uso dell’IA a fini di controllo. Il Regolamento 2016/679 (GDPR) tutela la privacy richiedendo che la raccolta dei dati sia trasparente, corretta e proporzionata, riconoscendo inoltre il diritto a non essere soggetti a decisioni automatizzate e a opporsi a trattamenti lesivi. Lo stesso regolamento vieta pratiche di profilazione e social scoring, in linea con i principi dell’art. 8 dello Statuto dei lavoratori. Tali divieti sono rafforzati da linee guida europee e da pronunce della Corte di giustizia, volte a garantire il rispetto dei diritti fondamentali dei lavoratori nell’uso dell’intelligenza artificiale. Profilazione e monitoraggio: rischi e diritti dei lavoratori Nonostante la chiarezza dei principi europei in materia, la distinzione tra pratiche di profilazione legittime e vietate resta incerta, come evidenziato da una recente sentenza della Corte di giustizia europea (205/2025). La delicatezza dei valori coinvolti impone alle imprese di definire con precisione procedure e criteri decisionali, prestando particolare attenzione alle attività di monitoraggio e indagine interna condotte tramite IA, che possono comportare forme indirette di controllo sui lavoratori. Tali pratiche, considerate ad alto rischio, sono soggette a obblighi di informazione e valutazione del rischio, come previsto dall’art. 1-bis del d.lgs. 152/1997 e dal Regolamento IA (art. 27 e considerando 57). La decisione della Corte introduce un principio generale di trasparenza nei processi decisionali automatizzati, riconoscendo il diritto della persona interessata a ottenere una spiegazione sul funzionamento e sugli esiti delle decisioni dell’IA. Tale spiegazione deve essere intelligibile, accessibile e adeguata, così da garantire una reale comprensione del processo algoritmico e la tutela effettiva dei diritti individuali. Il diritto alla giustificazione e l’inversione dell’onere della prova La decisione conferma il principio sancito dal Regolamento sull’IA (art. 81) e dalla Direttiva 2024/283 sul lavoro tramite piattaforme digitali (art. 11.1), che riconosce il diritto a ottenere una giustificazione delle decisioni algoritmiche. Questo diritto assume particolare rilievo poiché è difficile verificare preventivamente la logica dei processi decisionali automatizzati e individuare eventuali effetti lesivi dei diritti dei lavoratori, anche attraverso le valutazioni del rischio raccomandate dalla Commissione europea. I controlli ex ante e in itinere, pur necessari, non sempre bastano a prevenire discriminazioni o violazioni dei diritti fondamentali; per questo, il diritto alla spiegazione costituisce uno strumento essenziale di tutela. In mancanza di una giustificazione adeguata, si potrebbe configurare una inversione dell’onere della prova, ponendo a carico dell’impresa o della piattaforma l’obbligo di dimostrare la non discriminazione della decisione, come previsto in altri ambiti dal principio di trasparenza retributiva della direttiva 2023/970 (art. 18). La direttiva consente inoltre all’impresa di rettificare o compensare le decisioni non giustificate (art. 8.3). La normativa europea richiama spesso l’art. 4 dello Statuto dei lavoratori, relativo ai controlli a distanza, meno frequentemente l’art. 8, che pure tutela principi rilevanti in materia di privacy e libertà individuale. L’interpretazione dell’art. 4, modificato nel 2015, ha chiarito che le garanzie sui controlli non si applicano agli strumenti utilizzati dal lavoratore per svolgere la prestazione, ma tali strumenti non possono essere usati in modo occulto (ad esempio tramite sistemi audiovisivi o software di monitoraggio della posta elettronica o dell’accesso a internet). Intelligenza artificiale e controllo a distanza: limiti normativi e ruolo degli accordi sindacali L’uso di strumenti basati su intelligenza artificiale nei luoghi di lavoro ripropone il problema dell’applicazione dell’art. 4 dello Statuto dei lavoratori. Secondo l’interpretazione restrittiva indicata dal Garante per la protezione dei dati (provv. 29 aprile 2025), gli “strumenti utilizzati dal lavoratore per rendere la prestazione” — come computer, smartphone e tablet — possono essere usati senza accordo sindacale o autorizzazione amministrativa solo se privi di componenti di IA. Quando tali strumenti integrano applicazioni come copiloti o ChatGPT, che consentono un controllo continuativo e potenzialmente occulto sull’attività del lavoratore, si applicano invece i vincoli dell’art. 4, oltre alle garanzie previste dal Regolamento europeo sulla protezione dei dati (informazione, opposizione e valutazione d’impatto). Il Garante, con il provvedimento del 29 aprile 2025, ha infatti dichiarato illecito il trattamento dei metadati di posta elettronica dei dipendenti della Regione Lombardia, richiedendo misure per impedire l’identificazione dei singoli lavoratori. Poiché l’IA tende a permeare sempre più le attività produttive, diventa difficile separare le sue funzioni operative da quelle di controllo a distanza, rendendo centrale il ricorso all’accordo sindacale come strumento per bilanciare l’uso dell’IA con la tutela della privacy e dei diritti fondamentali. Un esempio significativo è l’accordo del 28 luglio 2025 tra Glaxo Smith Kline, ViiV Healthcare e le RSU, che promuove un impiego responsabile e trasparente dell’IA come supporto al processo decisionale umano, tutela l’anonimato dei partecipanti e istituisce un osservatorio paritetico sull’innovazione tecnologica. Tale esperienza mostra come la contrattazione collettiva possa contribuire in modo proattivo alla regolazione etica e partecipata dell’intelligenza artificiale nel lavoro, in coerenza con i principi e le direttive europee. Nello specifico si intende avviare un progetto pilota volto a personalizzare le interazioni tra medici e informatori scientifici, con il supporto della IA generativa per trascrivere, analizzare e fornire feed back sui contenuti degli scambi di opinioni fra questi soggetti con l’obiettivo di migliorare la qualità della informazione scientifica. L’ adesione al progetto è volontaria e può essere revocata. E’ prevista la rimozione di informazioni relative alla identificazione del personale partecipante con strumenti di anonimizzazione. I file audio sono conservati per il tempo necessario, mentre le trascrizioni per un periodo massimo di due anni per permettere una corretta calibrazione dell’ algoritmo. In ogni caso viene assicurato il rispetto dell’art. 4 dello Statuto dei lavoratori. L’accordo così concluso segnala come l’ intervento della IA nei rapporti di lavoro offra una occasione preziosa alle parti sociali di contribuire direttamente a una regolazione di questa tecnologia che sia in linea con le direttive europee e che ne chiarisca le modalità d’ uso per imprese e lavoratori. The post Le sfide regolatorie dell’intelligenza artificiale nel diritto del lavoro first appeared on Lavoratrici e Lavoratori Aci Informatica.