Tag - Ai&Energia

Mentre i data center AI subiscono ritardi, inizia il gioco delle accuse
(Fonte) Anissa Gardizy – 24 novembre 2025 Nel settore dei data center per l’IA l’euforia iniziale sta lasciando spazio a tensioni e accuse, perché molti mega-progetti da gigawatt stanno subendo ritardi. Le scadenze mancate sono  sufficienti a far emergere responsabilità e frizioni, soprattutto mentre le grandi aziende di IA — OpenAI, Google, Meta, Anthropic e xAI — competono ferocemente per ottenere capacità di calcolo. Il caso più evidente riguarda CoreWeave: il CEO ha avvertito che i ricavi trimestrali caleranno di 100–200 milioni di dollari per colpa di un “ritardo” attribuito a un partner esterno. Molti nel settore ritengono che il problema sia legato a Core Scientific, già coinvolta in ritardi in un data center a Denton (Texas) che serve Microsoft e OpenAI. Nonostante ciò, OpenAI ha firmato un contratto quinquennale da 12 miliardi con CoreWeave per usare quella struttura. La vicenda solleva un interrogativo su chi debba rispondere dei mancati ricavi: CoreWeave o Core Scientific? Il CEO di Core Scientific afferma che molte tempistiche promesse nel settore sono semplicemente irrealistiche se non si pianificano per tempo attrezzature critiche, appaltatori esperti e manodopera. Con l’avvicinarsi delle scadenze, sostiene, il divario tra annunci e realtà diventerà sempre più evidente. A complicare il quadro potrebbe esserci anche la decisione degli azionisti di Core Scientific di rifiutare l’offerta di acquisizione da 9 miliardi avanzata da CoreWeave. In ogni caso, i ritardi non sono insoliti nel mondo dei data center, dove problemi con le forniture di energia o con l’arrivo delle attrezzature sono piuttosto comuni. Voci alzate Ma la posta in gioco è diversa ora, data l’urgenza di completare i data center basati sull’intelligenza artificiale. All’inizio di quest’anno, i dirigenti di Oracle hanno alzato la voce presso gli appaltatori di Abilene, in Texas, mentre aumentava la pressione sull’azienda affinché consegnasse i server funzionanti al suo cliente, OpenAI. Per i fornitori di servizi cloud GPU con margini di profitto lordi già ridotti sull’affitto dei server , questi problemi possono alterare materialmente i loro risultati finanziari. Per gestire la domanda futura, anche grandi sviluppatori come Meta stanno preparando i data center in anticipo, lasciando pronti i siti senza installare ancora i rack GPU, creando così buffer per aumentare rapidamente la capacità quando necessario. L’industria si trova quindi a confrontarsi con limiti fisici di manodopera, attrezzature e infrastrutture, in un contesto di domanda crescente e pressioni economiche elevate. The post Mentre i data center AI subiscono ritardi, inizia il gioco delle accuse first appeared on Lavoratrici e Lavoratori Aci Informatica.
Rifiutare l’intelligenza artificiale e il “destino manifesto” nucleare
(Fonte) Koohan Paik-Mander – 8 agosto 2025 Negli ultimi secoli, i popoli indigeni e le loro terre sono stati sfruttati e saccheggiati da potenze esterne. Oggi, questa dinamica si ripete in forma tecnologica: il “tecnocolonialismo” legato all’espansione dell’Intelligenza Artificiale (IA). Nel XXI secolo, la nuova corsa all’estrazione riguarda non solo risorse naturali (come minerali e acqua), ma anche dati e DNA, considerati materie prime essenziali per l’economia dell’IA. Un esempio emblematico è il “Progetto Stargate”, annunciato dal Presidente Trump nel 2025: un piano da mezzo trilione di dollari per costruire enormi data center che rendano l’IA un servizio pubblico essenziale. A sostenerlo sono i grandi oligarchi della tecnologia, che promettono benefici sociali e ambientali, mentre in realtà favoriscono la deregolamentazione ambientale, nucleare e della privacy, e l’espansione dell’IA militare. L’economia dell’IA si fonda su due pilastri:la costruzione di data center, ossia infrastrutture fisiche di elaborazione e una rete globale di sorveglianza e raccolta dati, che alimenta costantemente i modelli. Senza questi due elementi, l’intero sistema non può funzionare — e proprio qui si collocano i principali punti di intervento per resistere al tecnocolonialismo. I chatbot, come ChatGPT, non sono realmente intelligenti, ma si configurano come un complesso sistema di riconoscimento di pattern, basato sulla raccolta massiva di dati (testi, immagini, suoni, DNA). I dati sono tradotti in linguaggio matematico per consentire alla macchina di riconoscere schemi e formulare previsioni, come completare frasi o generare immagini coerenti con i prompt ricevuti. Le aziende biotecnologiche hanno sottratto milioni di campioni biologici da comunità indigene ed emarginate per addestrare modelli di intelligenza artificiale, spesso senza trasparenza sull’origine dei dati genetici. Grazie a tali dati, possono persino generare sequenze genetiche artificiali con caratteristiche pericolose, come virus potenzialmente utilizzabili nella guerra biologica. Parallelamente, il governo statunitense, sotto l’amministrazione Trump, ha centralizzato i dati pubblici in mano alla Palantir Corporation, nota per l’uso dell’IA nella sorveglianza militare e nel tracciamento dei migranti. Attraverso la cosiddetta “Internet delle Cose” (rete di elettrodomestici e gadget intelligenti, di riconoscimento vocale e facciale e di sensori biometrici), milioni di dispositivi “intelligenti” — telefoni, elettrodomestici, auto, sensori — raccolgono e inviano dati personali in modo continuo. Ogni azione quotidiana diventa così parte del flusso di estrazione digitale, alimentando un sistema globale di controllo e sorveglianza. L’avidità di potere e profitto alimenta la corsa ai dati, considerati “il nuovo petrolio”, mentre i data center ne rappresentano le “raffinerie”. Queste strutture, fulcro dell’economia dell’Intelligenza Artificiale, elaborano enormi quantità di informazioni ma consumano quantità immense di energia e acqua, causando gravi danni ambientali e sociali. Giganteschi complessi come quelli del Progetto Stargate o i data center di Microsoft, Amazon e Google prosciugano risorse idriche e devastano territori, come accade a Querétaro (Messico). Nonostante vengano pubblicizzati come infrastrutture “verdi”, le comunità indigene — come la Nazione Cree di Sturgeon Lake — si oppongono fermamente a questi progetti per la loro impatto ecologico e coloniale. Anche negli Stati Uniti, come a Memphis (Tennessee), i data center inquinano l’aria e compromettono la salute delle popolazioni locali. L’Agenzia Internazionale per l’Energia prevede che entro il 2030 i data center consumeranno più elettricità dell’intera industria globale dell’acciaio, del cemento e della chimica messe insieme. Di fronte a questo disastro annunciato, magnati come Bezos, Gates e Altman propongono una presunta “rinascita dell’energia nucleare” “, come se questa potesse essere una valida alternativa al consumo eccessivo di energia basata sul carbonio., ma che in realtà non affronta la causa principale: la crescente dipendenza energetica e l’impatto ambientale di un’economia costruita sull’IA. I magnati della Silicon Valley stanno promuovendo lo sviluppo di piccoli reattori modulari (SMR) per fornire energia ai data center dell’Intelligenza Artificiale, riaprendo così la strada a un nuovo ciclo di sfruttamento nucleare. In attesa che tali reattori diventino operativi, continua la dipendenza da fonti fossili e dall’estrazione di uranio, con gravi conseguenze per le comunità indigene. Il New Mexico, epicentro storico dell’industria nucleare sin da quando J. Robert Oppenheimer ha sviluppato la bomba atomica, è stato devastato in ogni fase del ciclo atomico — estrazione, arricchimento, test e smaltimento — e rischia ora di subire un ulteriore impatto con la “rinascita nucleare” legata all’IA. Non è casuale che l’intelligenza artificiale abbia origini a Los Alamos, dove nacque la bomba atomica: IA e nucleare sono intrecciati sin dall’inizio, uniti da una logica militare e distruttiva che oggi si perpetua nel nome del progresso tecnologico. Gli attivisti indigeni, come Petuuche Gilbert del popolo Acoma, denunciano la falsa separazione tra energia e armi nucleari, ricordando che entrambe violano l’equilibrio vitale tra terra, aria, acqua e persone. Per la visione indigena, ogni forma di industria nucleare è incompatibile con la coesistenza armoniosa tra gli esseri viventi e la natura. Gli attivisti antinucleari giapponesi definiscono energia e armi nucleari come “due teste dello stesso serpente”, poiché condividono gli stessi processi distruttivi — estrazione dell’uranio, arricchimento e smaltimento dei rifiuti radioattivi — che devastano terre, acque e comunità indigene. Il Los Alamos National Laboratory ha ripreso la produzione di testate nucleari dopo decenni di inattività, puntando a realizzare fino a 100 bombe all’anno entro il 2030, ognuna con una potenza venti volte superiore a quella di Hiroshima. Questo ritorno alla corsa agli armamenti implica anche la possibile ripresa dei test nucleari sotterranei, riaprendo ferite mai guarite tra le popolazioni indigene che vivono a valle dei siti nucleari, ancora oggi afflitte da gravi conseguenze sanitarie e ambientali. L’aumento della produzione di uranio e lo sviluppo dei piccoli reattori modulari (SMR) hanno fatto impennare il valore delle scorte di uranio, ignorando del tutto l’impatto devastante sulle comunità indigene e il loro diritto al consenso libero, previo e informato. Dal 1940, i popoli del sud-ovest degli Stati Uniti si oppongono all’industria nucleare, che ha provocato malattie croniche, tumori, difetti congeniti e contaminazione ambientale. Nella sola Nazione Navajo esistono oltre 500 miniere di uranio abbandonate, ancora fonte di gravi rischi sanitari e ambientali. Il New Mexico ospita anche il Waste Isolation Pilot Plant (WIPP), destinato allo stoccaggio dei rifiuti radioattivi militari. Inaugurato nel 1999 come progetto temporaneo, avrebbe dovuto chiudere nel 2024, ma il governo ha deciso di estenderne l’attività per altri 69 anni, ampliandolo nonostante la vicinanza a pozzi di fracking e gli incidenti già avvenuti nel trasporto dei rifiuti. Ancora una volta, il peso dell’industria nucleare — con la sua eredità tossica e coloniale — ricade sproporzionatamente sulle terre e sulle vite dei popoli indigeni del New Mexico e di tutto il Nord America. L’attivista Petuuche Gilbert denuncia la mancanza di piani concreti per lo smaltimento dei rifiuti radioattivi prodotti dai futuri reattori modulari (SMR) destinati ad alimentare l’Intelligenza Artificiale. L’arricchimento dell’uranio necessario per questi reattori — quasi a livello militare — comporta gravi rischi ambientali e sanitari, aggravando la vulnerabilità delle comunità indigene del sud-ovest degli Stati Uniti, già colpite da decenni di inquinamento nucleare. Questa nuova ondata di espansione nucleare a supporto dell’economia dell’IA rappresenta una minaccia esistenziale per la terra, l’acqua, la salute e la sovranità dei popoli nativi, una realtà spesso esclusa dalle discussioni pubbliche sulla tecnologia. Secondo l’attivista Koohan Paik-Mander, l’economia dell’IA non è ancora inevitabile: la sua infrastruttura — basata su data center, energia nucleare e sistemi di sorveglianza globale — è ancora in costruzione. Bloccarne lo sviluppo rappresenta quindi un atto di resistenza strategica. Possiamo frenare il colosso dell’intelligenza artificiale semplicemente bloccando la costruzione di data center a ogni passo e rimanendo offline il più possibile. Fermare i data center. Fermare la biopirateria. Fermare le armi nucleari. Fermare l’intelligenza artificiale. Fermare la sorveglianza. Sono tutti interconnessi. Mantenere l’uranio nel sottosuolo. Rispettare i diritti dei popoli indigeni. The post Rifiutare l’intelligenza artificiale e il “destino manifesto” nucleare first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’enorme richiesta di energia dell’IA e lo spettro della disuguaglianza
(Fonte) Paolo Benanti – 17 settembre 2025 L’innovazione nell’IA promette prestazioni sempre maggiori, ma a costo di un enorme consumo energetico. Uno studio del TeraLab del Kaist (Korea Advanced Institute of Science and Technology) prevede che entro il 2035 i chip di nuova generazione possano arrivare a richiedere fino a 15.360 watt per modulo, a causa dell’evoluzione delle memorie HBM (da HBM4 a HBM8) e dell’aumento della potenza delle GPU (da 800W nel 2026 a 1.200W nel 2035). Questo scenario, cruciale per applicazioni come i grandi modelli linguistici, pone l’energia come principale collo di bottiglia dello sviluppo dell’IA. Le conseguenze non riguardano solo i chip, ma anche data center, reti elettriche e logistica del raffreddamento: un singolo modulo da 15KW modifica la distribuzione della potenza nei rack, i sistemi di raffreddamento e la gestione termica delle strutture. Poiché il raffreddamento rappresenta già quasi il 40% del consumo dei data center, i chip futuri rischiano di spingere ancora più in alto questa quota. La crescita dei data center e dei carichi energetici richiesti dall’IA rischia di entrare in conflitto con i tempi lunghi di adeguamento delle infrastrutture elettriche (7-15 anni). L’accesso all’energia sta diventando il vero fattore competitivo, come mostrano le moratorie a Dublino o i limiti a Francoforte e Singapore. Un modulo da 15 kW può costare fino a 20.000 dollari l’anno in energia, trasformando l’elettricità da semplice costo operativo a variabile decisiva di fattibilità e ritorno degli investimenti. La geografia dell’IA si ridisegna: regioni ricche di energia (Paesi nordici, Midwest USA, stati del Golfo) attraggono data center, mentre aree con reti congestionate rischiano di diventare “deserti dell’IA”. Per l’Italia, con una capacità installata di circa 120 GW ma già segnata da colli di bottiglia e saturazione virtuale, la sfida è cruciale. La domanda crescente, soprattutto nelle aree metropolitane come Milano, mette sotto pressione il sistema elettrico e le cabine primarie: il ritardo potrebbe tradursi in disuguaglianze o deindustrializzazione. The post L’enorme richiesta di energia dell’IA e lo spettro della disuguaglianza first appeared on Lavoratrici e Lavoratori Aci Informatica.
Data center, boom di progetti in Italia: 342 richieste di connessione alla rete
(Fonte) – Celestina Dominelli – 26 agosto 2025 Negli ultimi anni in Italia si è registrato un boom di progetti per nuovi data center: secondo Terna, oggi le richieste complessive ammontano a 55 GW distribuiti su 342 istanze, a fronte di appena 1 GW tra il 2019 e il 2021 e oltre 5 GW nel 2023. La maggior parte delle domande si concentra nel Nord, in particolare in Lombardia (210 richieste per 30,2 GW, soprattutto nell’area di Milano), seguita da Piemonte, Lazio ed Emilia-Romagna. Cresce soprattutto la domanda di grandi data center, spinta dall’evoluzione tecnologica: i consumi previsti al 2030 raggiungeranno 11 TWh, circa il 3% del fabbisogno nazionale, in linea con le proiezioni europee (eccetto l’Irlanda). Il nodo principale resta quello autorizzativo: gli operatori chiedono procedure più snelle, soprattutto nei casi in cui i data center siano affiancati da nuovi impianti energetici. È in preparazione una norma proposta dal ministro Pichetto Fratin che introduce un procedimento unico: fino a 300 MW l’autorizzazione spetterebbe alle Regioni, oltre tale soglia al ministero. L’iter non potrà superare i 10 mesi, con tempi dimezzati per le valutazioni ambientali (salvo il periodo minimo di 30 giorni per le osservazioni pubbliche). Per i progetti di interesse strategico nazionale scatterebbe invece una procedura accelerata con commissario straordinario, prevista dal decreto 104/2023. The post Data center, boom di progetti in Italia: 342 richieste di connessione alla rete first appeared on Lavoratrici e Lavoratori Aci Informatica.