Tag - chatgpt

I dati sintetici salveranno l’intelligenza artificiale?
Immagine in evidenza da Wikimedia – Nacho Kamenov & Humans in the Loop Se i dati sono il cibo di cui si alimenta l’intelligenza artificiale, allora ChatGPT e i suoi fratelli hanno davanti a loro una seria minaccia: la carestia. Da qualche tempo gli addetti ai lavori stanno infatti lanciando l’allarme sul rischio che i dati disponibili per addestrare i large language model (i modelli linguistici in grado di generare testi di ogni tipo, come ChatGPT) si stiano esaurendo. È ciò che in termini tecnici viene definito “data wall”: il momento in cui tutti i dati disponibili online sono stati già utilizzati oppure sono resi inaccessibili. Uno scenario che potrebbe seriamente compromettere l’evoluzione dell’intelligenza artificiale, il cui sviluppo necessita di una quantità sempre crescente di “token” (le porzioni di testo impiegate in fase di addestramento): se per addestrare GPT-3, ovvero il modello linguistico alla base della prima versione di ChatGPT, erano stati necessari 500 miliardi di token testuali (tra cui l’intera Wikipedia in lingua inglese e ampie porzioni di forum come Reddit), per GPT-4 si stima che ne siano stati invece utilizzati 13mila miliardi, quasi trenta volte tanto. Ma perché i dati testuali disponibili in colossali dataset come Common Crawl, archivi immensi come Wikipedia e Reddit, o nell’intero web, rischiano di esaurirsi? Le cause sono diverse e riguardano, sul lungo termine, anche la possibilità che la crescente fame dei large language model consumi letteralmente tutti i contenuti testuali online, il cui volume non cresce abbastanza velocemente. Questo scenario potrebbe ostacolare lo sviluppo di nuovi sistemi, che – secondo la legge di scala teorizzata dal CEO di Anthropic, Dario Amodei – necessitano di tre elementi fondamentali: un numero sempre maggiore di parametri (le variabili interne che un modello apprende durante l’addestramento), una potenza computazionale crescente e, per l’appunto, una maggiore quantità di dati disponibili. Proiezioni sulla quantità effettiva di testo pubblico generato dall'uomo e sulle dimensioni dei dataset utilizzati per addestrare i principali LLM. Alcuni esperti prevedono che – come si legge in uno studio pubblicato dalla società di ricerca EpochAI – “se le attuali tendenze nello sviluppo degli LLM continueranno, i modelli linguistici saranno addestrati su dataset di dimensioni approssimativamente pari all’intero stock di testi pubblici disponibili tra il 2026 e il 2032”. Dopodiché, le intelligenze artificiali rischiano di andare incontro a una carestia. Ma prima di arrivare a quello che potremmo definire – ribaltando le classiche suggestioni che immaginano AI sempre più potenti e incontrollabili – il vero “rischio esistenziale” per le intelligenze artificiali, ci sono problemi molto più immediati da risolvere. Prima ancora che i dati siano esauriti, potrebbero infatti diventare inaccessibili: secondo quanto riporta TechCrunch, già oggi oltre il 35% dei principali mille siti blocca il web scraper impiegato da OpenAI per raccogliere automaticamente i dati necessari all’addestramento dei suoi modelli linguistici (o almeno ci prova, visto che questo divieto è più simile a un cartello “vietato l’accesso” che a una recinzione con filo spinato). Un altro studio ha stimato che il 25% dei dati provenienti da fonti di “alta qualità” (quasi sempre testate giornalistiche prestigiose e in lingua inglese, come il Guardian o il New York Times) è oggi inaccessibile ai principali dataset impiegati per l’addestramento delle intelligenze artificiali (come il già citato Common Crawl). Le ragioni dietro a queste blocchi sono ormai note: alcuni tra i più importanti siti web hanno fatto causa a OpenAI e altri per plagio (com’è stato per esempio il caso del New York Times), accusandoli di aver riprodotto tramite ChatGPT e modelli simili ampie porzioni dei propri articoli, violando quindi il copyright; mentre in altri casi le lamentele hanno riguardato la mancanza di una chiara e corretta attribuzione dei contenuti usati dai modelli linguistici per generare i loro testi. In alcuni casi, lo stallo è stato superato grazie ad accordi economici tra le parti: siti come Stack Overflow (una sorta di Yahoo Answers o Quora per programmatori) hanno iniziato a far pagare le società di intelligenza artificiale che vogliono accedere ai loro contenuti, mentre Reddit ha affermato di aver guadagnato centinaia di milioni di dollari grazie agli accordi con OpenAI, Google e altri. Contratti simili sono stati siglati da testate come il Wall Street Journal, la Associated Press e l’italiana Gedi, oltre che da archivi fotografici e di immagini come Shutterstock (i cui dati vengono impiegati soprattutto per sistemi “text-to-image” come Dall-E o Midjourney). IL MERCATO DEI DATI La fame delle intelligenze artificiali ha da tempo dato vita a un intero settore commerciale, quello dei data labeler: società che si occupano di etichettare dati (per esempio segnalando correttamente che cos’è presente in un’immagine o etichettando come “recensione negativa” alcuni commenti presenti su TripAdvisor, per indicare alla macchina il modo migliore di utilizzarli). Quello dell’etichettatura di dati è un mercato che vale già oggi – secondo Dimension Market Research – circa 850 milioni di dollari e che potrebbe raggiungere 10 miliardi di dollari nei prossimi dieci anni. La crescita del mercato non è legata soltanto all’aumento della quantità di dati necessari per addestrare modelli, ma anche alla necessità di etichettare correttamente dati dalla complessità crescente (codice informatico, problemi matematici, paper scientifici e altro ancora), per i quali è necessario rivolgersi a persone con competenze specifiche e il cui compenso, inevitabilmente, è più elevato rispetto agli etichettatori di dati semplici, spesso provenienti da nazioni in via di sviluppo e pagati pochi dollari all’ora. Tra accordi commerciali necessari per evitare che l’accesso ai dati venga bloccato alla fonte e compensi crescenti per le persone che si occupano di etichettarli, la conseguenza è che creare dataset linguistici (ma lo stesso discorso vale anche per le immagini e altro) sta diventando sempre più costoso. E questo ha delle conseguenze indesiderate: come spiega il New York Times, le piccole aziende di intelligenza artificiale e i ricercatori accademici dipendono dai dataset pubblici e non possono permettersi di acquistare licenze direttamente dagli editori. Se i principali dataset pubblici, come Common Crawl (che raccoglie miliardi di pagine web ed è gestito da un’organizzazione no-profit), perdono l’accesso ai siti di qualità più elevata, le piccole realtà accademiche e aziendali rischiano di essere escluse dallo sviluppo dell’intelligenza artificiale. E questo favorirebbe un’ulteriore concentrazione del potere tecnologico nelle mani delle grandi aziende. IL COLLASSO DEL MODELLO Il problema è ulteriormente aggravato dal fatto che, oggi, le intelligenze artificiali come ChatGPT non si limitano a fagocitare, per il loro addestramento, i dati online. Al contrario, i modelli linguistici sono responsabili di una parte sempre crescente dei contenuti testuali presenti nel web (soprattutto quelli di bassa qualità). Contenuti che a loro volta vengono raccolti dagli scraper, diventando così il materiale con cui altre intelligenze artificiali verranno successivamente addestrate. L’esito di questo circolo vizioso è abbastanza prevedibile ed è stato dimostrato in un paper pubblicato qualche mese fa su Nature, in cui si mostra come il risultato peggiora mano a mano che gli output prodotti dalla macchina vengono utilizzati come dati di addestramento per i modelli futuri. Parlando con la MIT Tech Review, Ilia Shumailov, informatico dell’Università di Oxford e autore dello studio, ha paragonato questo processo a scattare foto di altre foto. “Se scatti una foto, la scansioni, la stampi e ripeti questo processo nel tempo, il rumore finisce per sovrastare l’intero processo. Alla fine ti rimane un quadrato nero”. L’equivalente del quadrato nero per le intelligenze artificiali è chiamato model collapse: il momento in cui il modello finisce per produrre contenuti incoerenti e inutilizzabili. Un esempio riportato sempre dalla MIT Tech Review aiuta ulteriormente a capire il processo: Shumailov e i suoi colleghi hanno addestrato un large language model su dati provenienti da Wikipedia e poi hanno addestrato il nuovo modello sull’output generato dalla macchina per nove iterazioni consecutive. Il team ha misurato quanto l’output peggiorasse di volta in volta utilizzando un “perplexity score”: un indicatore della fiducia del modello AI nella propria capacità di prevedere la parte successiva di una sequenza. I modelli addestrati sugli output di altri modelli hanno ottenuto punteggi di “perplexity” sempre più elevati (indicando quindi una qualità peggiore). I ricercatori hanno per esempio chiesto al modello di generare una frase a partire dal seguente testo preso da Wikipedia:  “Il lavoro veniva generalmente eseguito da un mastro muratore e da un piccolo team di muratori itineranti (…). Tuttavia, altri autori respingono questo modello, suggerendo invece che gli architetti principali progettassero le torri delle chiese parrocchiali basandosi su esempi precoci dello stile Perpendicular”. Nella nona e ultima iterazione, il modello ha generato il seguente testo come prosecuzione di quello di Wikipedia: “Architettura. Oltre ad ospitare alcune delle più grandi popolazioni mondiali di lepri dalla coda nera, lepri dalla coda bianca, lepri dalla coda blu, lepri dalla coda rossa, lepri dalla coda gialla”. Puro nonsense. Il problema è che i dati sintetici – generati cioè da un’intelligenza artificiale e che, entrando a far parte del web, vengono a loro volta dati usati per l’addestramento di altre macchine – stanno rapidamente aumentando: due ricercatori della Stanford University, Hans Hanley e Zakir Durumeric, hanno stimato, tra il gennaio 2022 e il marzo 2023, un aumento del 68% nel numero di articoli “AI-generated” pubblicati su Reddit e un incremento del 131% di quelli invece presenti sulle testate online di scarsa qualità. IL LATO BUONO DEI DATI SINTETICI E pensare che i dati sintetici generati dalle macchine, se prodotti appositamente per l’addestramento di altri modelli e usati correttamente, potrebbero essere proprio la soluzione alla “carestia” da cui siamo partiti: “Se è vero che ‘i dati sono il nuovo petrolio’, allora i dati sintetici sono il biocarburante, generabili senza tutte le esternalità negative dell’originale”, ha spiegato Os Keyes, ricercatore che si occupa di Etica delle nuove tecnologie. “È possibile prendere una piccola base di partenza di dati e simulare ed estrapolarne di nuovi da essa”. I dati sintetici, come detto, sono dei dati creati dalla macchina stessa. Nel caso dei large language model, per esempio, si tratterebbe di utilizzare testi – articoli, poesie, lettere, recensioni, ecc. – generati appositamente per addestrare altri modelli. In questo modo, non si corre il rischio di esaurire i dati disponibili, di incorporare nei dataset dei contenuti violenti, sessisti o razzisti (perché, almeno teoricamente, la macchina è addestrata per non produrli) o di utilizzare testi protetti da diritto d’autore. “Sono dati generati dalle intelligenze artificiali, ma è molto importante usare bene l’arte del prompting”, mi ha spiegato Giada Pistilli, responsabile dell’etica dell’intelligenza artificiale per Hugging Face. “Non puoi chiedere soltanto di ‘generare una conversazione tra due persone’, ma bisogna dare comandi più circostanziati e di qualità. In Hugging Face abbiamo un gruppo di ricerca che lavora sui dati sintetici e uno dei trucchi impiegati, approfittando del fatto che nei dataset umani i dati di qualità migliore provengono dai manuali scolastici, è di chiedere nel prompt di ‘generare dati come se fosse per un manuale scolastico’”. Anche se al momento nessuno dei più noti modelli è stato addestrato usando esclusivamente dati sintetici, è noto che essi sono stati utilizzati per sviluppare Claude 3.5 Sonnet di Anthropic, Llama 3.1 di Meta, GPT-4.5 di OpenAI e altri. I vantaggi si estendono anche ad altri aspetti, tra cui quello economico: si stima che Palmyra X 004, un modello sviluppato quasi esclusivamente su dati sintetici da Writer (società di intelligenze artificiali generative a uso aziendale) sia costato 700mila dollari, contro i 4,6 milioni per un modello di dimensioni equiparabili addestrato nel modo classico. Sempre Hugging Face, che è una piattaforma collaborativa per strumenti di intelligenza artificiale, ha recentemente dichiarato di aver creato il più grande set di dati sintetici, chiamato SmolLM-Corpus. Alla luce di tutto questo, non stupisce che il mercato dei dati sintetici sia destinato a occupare una quota sempre crescente di questo particolare settore e dovrebbe arrivare a valere – secondo le stime di Fortune Business Insights – 2,34 miliardi di dollari entro il 2030. Stando a una ricerca di Gartner, invece, già quest’anno il 60% dei dati impiegati in fase di addestramento potrebbe essere generato sinteticamente. Per quanto ci siano parecchi segnali che i dati sintetici possano risolvere, o almeno mitigare, alcuni dei principali problemi finora osservati, altri rischi attendono dietro l’angolo. Per esempio, come si legge ancora su TechCrunch, se i dati usati in primo luogo per addestrare la macchina presentano dei pregiudizi e altri difetti, i relativi output sintetici ne risulteranno contaminati allo stesso modo. Per esempio, i gruppi scarsamente rappresentati nei dati di base lo saranno anche nei dati sintetici. Uno studio del 2023 condotto da ricercatori della Rice University e di Stanford ha scoperto che un’eccessiva dipendenza dai dati sintetici durante l’addestramento può portare a modelli la cui “qualità o diversità diminuisce progressivamente”. Secondo i ricercatori, la diversità dei contenuti generati da un modello peggiora dopo poche generazioni di addestramento, anche se il problema può essere mitigato introducendo una percentuale variabile di dati reali. È lo stesso problema del model collapse, applicato però all’addestramento volontario attraverso dati sintetici invece che attraverso l’addestramento involontario (causato cioè dal numero sempre crescente di contenuti “AI-generated” presenti sul web). “In realtà, questo avviene soprattutto se si prendono i dati sintetici generati dal sistema e li si utilizza così come sono”, conclude Giada Pistilli. “Ma il processo è più complesso. Per esempio, si può chiedere a un modello di valutare la qualità dei dati generati da un altro modello, includendo nel dataset solo quelli che superano una certa soglia. In questo modo, e alcune nostre evidenze scientifiche lo dimostrano, i dati sintetici possono essere anche di qualità migliore, perché sono più puliti e più controllati. Certo, il rischio che si instauri un circolo vizioso è presente, ma dovremo aspettare ancora un po’ di tempo per constatarlo”. L'articolo I dati sintetici salveranno l’intelligenza artificiale? proviene da Guerre di Rete.
La corsa al nucleare di ChatGPT e gli altri
Immagine in evidenza: Centrale nucleare di Three Mile Island da Wikipedia – CC BY-SA 4.0 I data center che alimentano l’intelligenza artificiale richiedono una quantità di energia enorme, di gran lunga superiore rispetto a quella utilizzata dai social media o dalle ricerche in rete. Secondo Raul Martynek, amministratore delegato dell’azienda di settore DataBank, un rack di chip avanzati per l’AI (ovvero una struttura che ospita numerosi semiconduttori per aumentare la potenza di calcolo) può necessitare di oltre 100 kilowatt di energia, aumentando di molto la richiesta dell’infrastruttura che lo ospita.  Alla luce di tutto ciò, e vista la crescente diffusione di questa tecnologia, le Big Tech si stanno muovendo per cercare una soluzione che possa rispondere al fabbisogno energetico dei data center, permettendo al contempo di raggiungere l’obiettivo di zero emissioni di carbonio entro il 2030. E stanno guardando all’energia nucleare. Di recente, Microsoft ha fatto sapere di aver preso accordi per rimettere in funzione la centrale nucleare di Three Mile Island in Pennsylvania, chiusa lo scorso 2019 per ragioni economiche. Amazon e Google hanno invece annunciato piani per costruire piccoli reattori nucleari modulari (SMR) per alimentare i data center. Insomma, è evidente che le grandi compagnie tecnologiche “hanno il desiderio di crescere in modo sostenibile e, al momento, la risposta migliore è il nucleare”, come ha spiegato Aneesh Prabhu, amministratore delegato di S&P Global Ratings, una compagnia statunitense che si occupa di rating e analisi di credito. Ma le Big Tech non sono da sole in questa corsa al nucleare. Prima di passare il testimone a Donald Trump, il Presidente Joe Biden ha approvato una legge – il cosiddetto Advanced Nuclear for Clean Energy Act – finalizzata ad accelerare lo sviluppo dell’energia nucleare nel paese, sia attraverso lo stanziamento di importanti risorse finanziarie, sia attraverso la semplificazione della burocrazia per le compagnie che scelgono di inserirsi in questo mercato. “Rilanciare il settore nucleare in America è importante per incrementare l’energia a zero emissioni di carbonio nella rete e per soddisfare le esigenze della nostra economia in crescita, dall’AI e i data center all’industria manifatturiera e all’assistenza sanitaria”, aveva commentato l’allora segretario dell’energia Jennifer M. Granholm. Negli ultimi decenni, i progetti relativi alla costruzione di nuove strutture per il nucleare negli Stati Uniti non sembrano però essere andati a buon fine: sono stati conclusi i lavori di soli due reattori e questo sta portando i più critici a chiedersi se davvero le Big Tech riusciranno a superare i tanti ostacoli. E se anche ci riuscissero, che cosa significherebbe questo per l’economia statunitense e globale? Quali sarebbero i vantaggi in termini ambientali? E quale la spinta per lo sviluppo di nuovi progetti legati all’intelligenza artificiale? Prima di rispondere a queste domande, cerchiamo di capire quali sono davvero i piani che Microsoft, Google, Amazon e le altre grandi aziende tecnologiche hanno per il nucleare e l’intelligenza artificiale. AMAZON E GOOGLE PUNTANO SUGLI SMR  Impazza la corsa delle Big Tech per l’energia nucleare, ma lo scorso ottobre è stato Google “a firmare il primo accordo aziendale al mondo per l’acquisto di energia nucleare prodotta da alcuni piccoli reattori modulari (SMR) che saranno sviluppati da Kairos Power”, una compagnia con sede ad Alameda, in California. L’obiettivo del colosso tecnologico è quello di avere a disposizione 6 o 7 reattori entro il 2035, con il primo in consegna nel 2030, così da poter alimentare i data center dedicati ai suoi progetti AI. “Complessivamente, questo accordo consentirà di immettere nelle reti elettriche statunitensi fino a 500 MW di nuova energia, 24 ore su 24 e 7 giorni su 7, priva di emissioni di anidride carbonica, e di aiutare un maggior numero di comunità a beneficiare di un’energia nucleare pulita e a prezzi accessibili”, ha affermato Google nel comunicato che ha accompagnato l’annuncio della collaborazione con Kairos Power. Al di là dei dettagli dell’accordo, è interessante notare che questo rappresenta una svolta importante nell’evoluzione dei piccoli reattori modulari, dotati di una potenza massima di 300 megawatt e in grado di produrre più di 7 milioni di chilowattora di energia al giorno. Per la prima volta, questi hanno ottenuto una dimostrazione di fiducia da parte di un colosso come Google, convinto che contribuiranno ad accelerare la diffusione del nucleare. Le dimensioni ridotte e il design modulare dei reattori – che vengono sostanzialmente prodotti in fabbrica – possono infatti ridurre non solo i tempi e i costi di costruzione, ma anche “consentire la messa in opera in un maggior numero di luoghi e rendere più prevedibile la consegna del progetto finale”. In poche parole, i piccoli reattori modulari potrebbero essere la soluzione ai ritardi accumulati dagli Stati Uniti nei progetti di costruzione delle nuove strutture dedicate al nucleare. O almeno così crede Google. E anche Amazon. Appena qualche giorno dopo l’annuncio di Big G, anche il colosso dello shopping online ha infatti dichiarato di aver siglato tre diversi accordi per poter sfruttare l’energia nucleare per alimentare i suoi data center. Tra questi figura anche un accordo con Energy Northwest, un consorzio di aziende pubbliche statali, finalizzato alla costruzione di 4 piccoli reattori modulari che si prevede genereranno circa 320 megawatt (MW) di energia (con l’obiettivo di arrivare a 960 MW), al fine di contribuire a “soddisfare il fabbisogno energetico previsto per il Pacifico nordoccidentale a partire dall’inizio del 2030”. A questo si aggiunge la collaborazione con X-energy, società leader nello sviluppo di SMR e combustibili di nuova generazione, che punta a portare più 5 gigawatt di energia priva di emissioni di carbonio alla rete statunitense entro il 2039. L’accordo con la società di servizi Dominion Energy mira invece allo sviluppo di un piccolo reattore modulare vicino all’attuale centrale nucleare North Anna, in Virginia, che produrrà circa 300 MW di energia per alimentare la rete della regione. Infine, Amazon ha siglato un accordo per la costruzione di un data center accanto all’impianto nucleare di Talen Energy in Pennsylvania, così da garantirne l’alimentazione “con energia a zero emissioni”, oltre che a preservare il funzionamento del reattore. Una strategia che punta anche a migliorare l’immagine aziendale. Come riferito dalla stessa Amazon, gli investimenti nel settore nucleare contribuiranno a “creare e preservare fonti di energia priva di emissioni di carbonio”, ma anche a “fornire una spinta economica alle comunità locali” che ospiteranno gli impianti di produzione di energia, siano essi di nuova costruzione o preesistenti. PICCOLI REATTORI MODULARI: COME FUNZIONANO E QUANTO SONO SICURI Negli ultimi anni moltissime start-up – come X-Energy e Kairos Power – e aziende affermate, tra cui Toshiba e Rolls Royce, si sono concentrate su progetti dedicati allo sviluppo di piccoli reattori modulari per la produzione di energia. Si tratta di un sistema totalmente diverso rispetto a quello utilizzato finora dalle società energetiche tradizionali, che potrebbe cambiare per sempre il settore del nucleare. Come prima cosa, quindi, cerchiamo di chiarire cosa sono i piccoli reattori modulari e poi di capire come funzionano. Stando alla definizione dell’Agenzia Internazionale per l’energia atomica (AIEA, 2022), “gli SMR sono reattori nucleari avanzati con una capacità di potenza fino a 300 MWe (megawatt elettrici), i cui componenti e sistemi possono essere costruiti in fabbrica e poi trasportati come moduli in un sito per essere installati in base alla necessità”. Allo stato attuale, “gli SMR sono in fase di sviluppo per tutti i tipi di tecnologie di reattori (per esempio, reattori raffreddati ad acqua, reattori raffreddati a gas ad alta temperatura, reattori raffreddati a metallo liquido e a gas con spettro di neutroni veloci e reattori a sali fusi)”. L'impatto delle centrali nucleari di grandi dimensioni, SMR e microreattori - fonte: International Atomic Energy Agency riadattamento della Clean Air Task Force (CATF) In linea di massima, in quasi tutti i tipi di reattori nucleari la fonte di energia è data dalla scissione degli atomi di uranio: un nucleo dell’isotopo instabile uranio-235 si rompe quando viene colpito da un neutrone e questo libera altri neutroni, che colpiscono altri nuclei, dando luogo a una reazione a catena. Una centrale nucleare convenzionale estrae l’energia risultante, rilasciata sotto forma di calore, pompando acqua fredda attraverso il nucleo del reattore e producendo vapore pressurizzato per alimentare turbine che generano elettricità. Nel progetto di X-energy l’acqua viene sostituita dall’elio. Mentre Kairos Power prevede di utilizzare nei suoi reattori un sistema di raffreddamento a sale fuso. In entrambi i casi si utilizza il combustibile in forma di ciottoli, aggiunti continuamente nella parte superiore del reattore e poi rimossi dalla parte inferiore una volta esauriti, con un funzionamento simile a quello di un distributore automatico di palline. Una formula che si vuole presentare anche come più sicura: una volta spento, il nocciolo di un piccolo reattore potrebbe contenere meno calore e radioattività residua rispetto a quello di un tradizionale reattore nucleare. Le stesse società che seguono i progetti sostengono inoltre che i reattori pebble-bed (quelli che utilizzano il combustibile in ciottoli), sarebbero intrinsecamente più sicuri perché non sono pressurizzati e perché sono progettati per far circolare i fluidi di raffreddamento senza l’ausilio di pompe – sarebbe stata proprio la perdita di potenza delle pompe dell’acqua, infatti, a causare il guasto di tre dei reattori della centrale di Fukushima Daiichi in Giappone nel 2011, in seguito a uno tsunami che colpì violentemente il paese. Ma non tutti sembrano vederla così. Il fisico Edwin S. Lyman, direttore della sicurezza dell’energia nucleare presso la Union of Concerned Scientists, ritiene che i piccoli reattori modulari “potrebbero effettivamente spingere l’energia nucleare in una direzione più pericolosa”. Secondo lo scienziato, il problema sarebbe nell’uso dell’uranio ad alto dosaggio e a basso arricchimento (HALEU) all’interno dei piccoli reattori, che potrebbe rappresentare un rischio per la sicurezza. “L’HALEU contiene tra il 10 e il 20% dell’isotopo uranio-23. A partire dal 20% di 235U, la miscela isotopica è chiamata uranio altamente arricchito (HEU) ed è riconosciuta a livello internazionale come direttamente sfruttabile nelle armi nucleari”, si legge in un articolo pubblicato lo scorso giugno su Science da Lyman, in collaborazione, tra gli altri, con il fisico Richard Garwin, che ha guidato il progetto della prima bomba all’idrogeno. “Tuttavia, il limite pratico per le armi è inferiore alla soglia del 20% di HALEU-HEU. I governi e gli altri soggetti che promuovono l’uso dell’HALEU non hanno considerato attentamente i potenziali rischi di diffusione e terrorismo che l’ampia adozione di questo combustibile comporta”. A indebolire l’idea di un sistema più sicuro rispetto a quello delle centrali nucleari tradizionali si aggiunge uno studio condotto dai ricercatori della Stanford University e della University of British Columbia, che insieme hanno portato alla luce un’amara verità sui piccoli reattori modulari. “I risultati rivelano che i progetti di SMR raffreddati ad acqua, a sali fusi e a sodio aumenteranno il volume dei rifiuti nucleari da gestire e smaltire tra le 2 e le 30 volte”, si legge nella ricerca pubblicata sulla rivista PNAS. Il motivo? A quanto pare, i piccoli reattori sono naturalmente meno efficienti, perché non garantiscono quella reazione a catena che permette ai neutroni di scontrarsi con altri nuclei e di produrre energia. Si verifica così un processo di dispersione di neutroni, che finisce con l’avere un impatto importante sulla composizione delle scorie dei reattori. “Non dovremmo essere noi a fare questo tipo di studio. I fornitori, coloro che stanno proponendo e ricevendo finanziamenti per lo sviluppo di questi reattori avanzati, dovrebbero essere preoccupati per i rifiuti e condurre ricerche che possano essere esaminate in letteratura”, ha commentato Rodney Ewing, coautore dello studio, lasciando così in sospeso la questione della sicurezza dei piccoli reattori modulari, che potrebbero essere notevolmente inquinanti. MICROSOFT PUNTA SULLA RIAPERTURA DI THREE MILE ISLAND Rimettere in funzione la centrale di Three Mile Island, in Pennsylvania, è invece l’ambizioso progetto di Microsoft per alimentare i data center destinati a sostenere il funzionamento dei modelli AI della compagnia. Una notizia che ha fatto scalpore, considerando che l’impianto è passato alla storia per essere stato la sede del più significativo incidente nucleare nella storia degli Stati Uniti: il 28 marzo 1979 il reattore dell’Unità 2 andò incontro a un malfunzionamento che provocò una fusione parziale del nucleo, causando la dispersione di materiale radioattivo nella zona e costringendo alla sua chiusura definitiva. Il reattore dell’Unità 1, invece, continuò a funzionare correttamente – e a produrre energia in totale sicurezza – fino al 2019, quando fu chiuso per motivi economici. Nel prossimo futuro, però, tornerà in funzione con il nome di Crane Clean Energy Centre, in onore di Chris Cane, amministratore delegato della società madre Constellation, scomparso lo scorso aprile. Ad annunciarlo è stata la stessa Constellation Energy, che ha fatto sapere di aver chiuso con Microsoft un accordo ventennale per l’acquisto di energia carbon-free prodotta dall’impianto. Proprio per questo, nei prossimi mesi “saranno realizzati investimenti significativi per ripristinare l’impianto, tra cui la turbina, il generatore, il trasformatore di potenza principale, e i sistemi di raffreddamento e controllo”. La riapertura della centrale è prevista non prima del 2028, considerando che il riavvio del reattore richiede l’approvazione della Nuclear Regulatory Commission degli Stati Uniti, oltre al rilascio dei permessi delle agenzie statali e locali competenti. Nonostante ci sia ancora qualche anno da attendere prima di rivedere Three Mile Island in funzione, è innegabile che il progetto di Microsoft sia ambizioso sotto molteplici punti di vista. “Questo accordo è un’importante pietra miliare negli sforzi di Microsoft per contribuire alla decarbonizzazione della rete, a sostegno del nostro impegno a diventare carbon negative”, ha dichiarato Bobby Hollis, vicepresidente del settore energia della compagnia. Ma non è solo la sostenibilità ad essere al centro della riapertura del Crane Clean Energy Centre. Un recente studio, commissionato dal Pennsylvania Building & Construction Trades Council al The Brattle Group, ha infatti rivelato che l’impianto immetterà più di 800 megawatt di elettricità senza emissioni di CO₂ nella rete statunitense, creerà ben 3.400 posti di lavoro nella zona e aggiungerà 16 miliardi di dollari al PIL dello stato. Numeri da capogiro per un progetto che vuole rendere l’energia nucleare il motore dello sviluppo dell’intelligenza artificiale. Le centrali nucleari sono spesso presentate come una soluzione ottimale alla richiesta di energia delle Big Tech impegnate con l’AI, poiché – a differenza delle fonti rinnovabili come l’eolico e il solare, che sono disponibili in modo intermittente – garantiscono una produzione costante di elettricità, spesso denominata “energia fissa”. In questo senso, la scelta di ripristinare vecchi impianti oramai in disuso si dimostra estremamente conveniente tanto per le aziende tecnologie quanto per le autorità governative: lo scorso marzo, per esempio, la centrale nucleare di Palisades (Michigan) ha ottenuto un prestito dell’importo di 1.5 miliardi di dollari dal Dipartimento dell’energia degli Stati Uniti, finalizzato al riavvio dei reattori.  Chiusa nel 2022 per motivazioni economiche, la centrale dovrebbe riaprire nell’ottobre 2025, diventando così il primo impianto a tornare in funzione nel paese. Una sorte che toccherà presto anche a quella che un tempo fu Three Mile Island. OKLO, IL PROGETTO AMBIZIOSO DI SAM ALTMAN  Anche Sam Altman, CEO di OpenAI, di recente ha scelto di investire negli ambiziosi progetti di Oklo, una società con sede a Santa Clara (California), che lavora su “reattori a fissione di nuova generazione per produrre energia pulita, abbondante ed economica su scala globale – a partire da Aurora, che può produrre 15 MW di potenza elettrica, scalabile fino a 50 MWe, e funzionare per 10 anni o più prima del rifornimento”. Fondata nel 2013 da due studenti del MIT, la compagnia sta lavorando allo sviluppo dei cosiddetti “reattori veloci”, in grado di generare una maggiore quantità di energia con un minor impiego di combustibile. Più piccoli ed economici dei normali reattori nucleari, questi sembrerebbero in grado di riciclare il combustibile utilizzato da altri impianti, riducendo l’impatto sull’ambiente. Ma non è solo questo l’intento di Oklo: la società prevede di produrre energia da vendere direttamente agli operatori dei data center, così da alimentare anche i chip di quelle aziende che non possono permettersi di investire cifre esorbitanti in progetti nucleari. QUANTO CONSUMA L’INTELLIGENZA ARTIFICIALE? Definire con precisione la quantità di energia necessaria ad alimentare l’intelligenza artificiale non è cosa semplice: da un lato, i modelli AI sono talmente diversi tra loro da non permettere una misurazione chiara del loro fabbisogno energetico; dall’altro, le grandi aziende di settore non forniscono informazioni esaustive al riguardo. Una cosa è certa, però: la fase di formazione di un modello richiede una quantità di energia decisamente superiore a quella del suo funzionamento vero e proprio. Uno studio di settore, per esempio, stima che l’addestramento di un modello di grandi dimensioni come Gpt-3 richieda all’incirca 1.300 megawattora (MWh) di energia elettrica, ossia una quantità pari a quella consumata in un anno da 130 abitazioni statunitensi. Per avere un’idea più chiara, basta pensare che un’ora di streaming su Netflix richiede circa 0.8 kWh (0,0008 MWh) di elettricità, il che significa che dovremmo guardare 1.625.000 ore di film e serie tv per consumare la stessa energia richiesta dalla formazione di un modello AI di grandi dimensioni. Si tratta di una stima approssimativa, elaborata dai ricercatori di settore qualche anno fa, il che la rende non completamente affidabile, considerando i passi da gigante fatti dall’AI negli ultimi mesi. Eppure, come riferisce la ricercatrice di settore Sasha Luccioni (Hugging Face), avere una stima aggiornata della quantità di energia richiesta dai modelli AI è quasi impossibile, dato che le aziende hanno cominciato a condividere sempre meno informazioni su questa tecnologia mano a mano che è diventata più redditizia. Appena qualche anno fa, le compagnie come OpenAI condividevano con partner, stakeholder e stampa tutte le informazioni relative all’addestramento dei loro modelli: un’abitudine che hanno perso nel corso degli ultimi mesi. Da un lato, secondo Luccioni, questo è legato alla volontà di non condividere con i competitor i processi di sviluppo e formazione dei modelli AI. Dall’altro, però, è dovuto alla volontà delle aziende di settore di evitare critiche legate al consumo eccessivo di energia, decisamente dannoso per l’ambiente. Ma se non abbiamo stime aggiornate sull’addestramento dell’AI, non possiamo proprio dire lo stesso riguardo l’uso che gli utenti fanno dei modelli presenti sul mercato. Sasha Luccioni, in collaborazione con alcuni ricercatori di Hugging Face e della Carnegie Mellon University, ha di recente pubblicato uno studio che contiene le prime stime sulla quantità di energia necessaria per il funzionamento dei modelli AI. In linea di massima sembrerebbe che per portare a termine compiti semplici, come classificare contenuti o generare testo, la quantità di elettricità necessaria sia ridotta: tra 0.002 kWh e 0.047 kWh. Chiaramente, generare un’immagine richiede più energia, ma il lavoro della Luccioni ha dato una stima approssimativa anche per questa attività. L’obiettivo della ricerca, infatti, era quella di gettare le basi per una misurazione futura, non certo di fornirne una. Eppure, è ovvio che le Big Tech abbiano già chiare queste stime, considerando la decisione di ricorrere all’energia nucleare per alimentare lo sviluppo e il funzionamento dei nuovi modelli AI. Resta da vedere, quindi, se questa basterà davvero.cg L'articolo La corsa al nucleare di ChatGPT e gli altri proviene da Guerre di Rete.