Tag - amazon

L’Europa abbandona Big Tech?
Per conformarsi a un ordine esecutivo del presidente americano Donald Trump, nei mesi scorsi Microsoft ha sospeso l’account email di Karim Khan, procuratore della Corte penale internazionale che stava investigando su Israele per crimini di guerra. Per anni, scrive il New York Times, Microsoft ha fornito servizi email al tribunale con sede a L’Aja, riconosciuto da 125 paesi tra cui l’Italia (ma non da Stati Uniti, Israele, Cina, Russia e altri).  All’improvviso, il colosso di Redmond ha staccato la spina al magistrato per via dell’ordine esecutivo firmato da Trump che impedisce alle aziende americane di fornirgli servizi: secondo il successore di Biden, le azioni della Corte contro Netanyahu “costituiscono una inusuale e straordinaria minaccia alla sicurezza nazionale e alla politica estera degli Stati Uniti”.  Così, di punto in bianco, il procuratore non ha più potuto comunicare con i colleghi.  C’è stata una mediazione, ricostruisce il New York Times: dopo una riunione tra Redmond e i vertici della Corte si è deciso che la Cpi avrebbe potuto continuare a utilizzare i servizi di Microsoft. Anche perché l’azienda, secondo la ricostruzione del quotidiano, sarebbe stata fondamentale per la cybersecurity dell’organizzazione, finita nel mirino degli hacker russi dopo l’inchiesta per i crimini di guerra in Ucraina.  Il discorso, però, non vale per Khan, il cui account resta bloccato: cittadini e aziende statunitensi rischiano conseguenze serie – multe e persino l’arresto – se forniscono “supporto finanziario, materiale e tecnologico” a chi viene identificato come pericoloso per la sicurezza nazionale (spesso sulla base di ragionamenti dal sapore politico). Insomma, in una paradossale inversione di ruoli, il procuratore è diventato un criminale, trattato alla stregua di un nemico pubblico.  Le conseguenze non si sono fatte attendere. Tre dipendenti con contezza della situazione hanno rivelato al quotidiano newyorchese che alcuni membri dello staff della Corte si sarebbero rivolti all’azienda svizzera Protonmail per poter continuare a lavorare in sicurezza. Il giornale non chiarisce il perché della decisione, né se tra essi vi sia lo stesso Khan. Una conferma al riguardo arriva dall’agenzia Associated Press. Protonmail, contattata da Guerre di Rete, non ha commentato, spiegando di non rivelare informazioni personali sui clienti per questioni di privacy e di sicurezza. UNO CHOC PER LE CANCELLERIE Quello che conta è che la situazione ha scioccato le cancellerie europee: quasi tutte – e  il quasi è un mero ossequio al dubbio giornalistico – impiegano software, servizi e infrastrutture statunitensi per le proprie normali attività. Ma nel clima pesante di questi mesi sono saltate le classiche e paludate convenzioni della diplomazia: Trump negozia nelle cancellerie come farebbe con i colleghi palazzinari, senza andare troppo per il sottile. Non è possibile, non lo è per nessuno, prevedere la prossima mossa. Il punto è che correre ai ripari non è semplice: sia perché  uscire dalla “gabbia” creata dalle aziende, il cosiddetto “vendor lock in”, richiede tempo, formazione, strategia; sia perché esistono contratti in essere e la questione può diventare spinosa dal punto di vista giuridico. Ma anche perché – ed è una questione centrale – al momento le alternative, quando esistono, sono poco visibili. La situazione è seria. Per dare un’idea, l’Irish Council for Civil Liberties ha rivelato che il parlamento europeo ha un contratto di fornitura di servizi cloud con Amazon. L’accordo imporrebbe di utilizzare solo modelli linguistici di grandi dimensioni “ospitati” su Amazon Web Services. Somo, ong olandese che si occupa da cinquant’anni di monitorare l’attività delle multinazionali, ha rivelato in un recente rapporto gli accordi capestro che le società di intelligenza artificiale hanno dovuto sottoscrivere con Big Tech per sostenere i costi di sviluppo dell’AI (comprese società europee come Mistral e Aleph Alpha).  E tutte le aziende di riferimento, da Microsoft ad Amazon a Oracle a Google a Intel, sono statunitensi e possono quindi potenzialmente ricadere tra i destinatari degli ordini esecutivi di Trump.  LA DIFESA DI MICROSOFT Per riguadagnare fiducia e mercato – i clienti governativi spostano cifre importanti anche per una Big Tech – nei mesi scorsi Microsoft ha cercato di rassicurare i propri utenti europei.  Il presidente Brad Smith a fine aprile ha schierato l’azienda a fianco di Bruxelles: “Oggi ci impegniamo solennemente”, ha detto in una conferenza del think tank Atlantic Council. “Se in futuro un qualsiasi governo, in qualsiasi parte del mondo, dovesse emettere un ordine che intenda obbligare Microsoft a sospendere o cessare le operazioni e l’assistenza per l’Europa, faremo ricorso al tribunale. Percorreremo ogni via legale per opporci a un simile ordine”. Non solo: se le cause fossero, alla fine, perse, “i nostri partner europei avrebbero accesso al nostro codice sorgente di cui conserviamo una copia in un repository sicuro in Svizzera”, paese neutrale per antonomasia.  CHI STA GIÀ LASCIANDO LE BIG TECH Ma c’è qualcuno che, nonostante tutto, sta già lasciando le Big Tech? Due città danesi (Copenhagen e Aarhus) starebbero abbandonando Microsoft per il timore di finire tra le braccia di un monopolista. Il parlamento olandese, dal canto proprio, nelle scorse settimane ha approvato alcune mozioni per spingere il governo a non fare più affidamento sulla tecnologia cloud statunitense. Il timore è il cosiddetto vendor lock in, cioè la politica commerciale alla base della creazione degli ecosistemi in stile Apple: tutto griffato, tutto dello stesso brand, o dentro o fuori. Chi usa un certo elaboratore di testi avrà, così, la strada spianata se sceglierà di impiegare anche il foglio di calcolo e l’applicazione di videoconferenze della stessa società; andrà, invece, incontro a parecchie (e strategicamente posizionate) difficoltà nel caso dovesse decidere di avvalersi dei servizi di un’azienda concorrente. Ricordate i tempi in cui cambiare operatore di cellulare richiedeva di accollarsi il rischio di restare settimane senza telefono? Funziona esattamente allo stesso modo: uscire non è facile, perché l’obiettivo è proprio complicare la vita a chi decide di farlo.  Ma in questo caso la posta in gioco è molto più alta, perché non parliamo di singoli, per quanto importanti come i giudici di una corte internazionale, ma di intere amministrazioni. Lo US CLOUD Act firmato da Trump nel corso del primo mandato consente alle forze dell’ordine di imporre alle società tech di fornire accesso ai dati custoditi nella “nuvola” per investigare crimini particolarmente gravi: difficile mettersi al riparo.  Dall’altra parte, a un esame anche basilare di cybersecurity molti politici sarebbero bocciati: un’indagine della Corte dei conti olandese ha scoperto che molti ministri del governo hanno usato cloud di Google, Microsoft, Amazon senza essere consapevoli dei rischi potenziali. E non c’è ragione per pensare che altrove vada meglio. Italia compresa.    Qualcosa sta cambiando? Guerre di rete ha chiesto ad alcuni soggetti direttamente coinvolti se la copertura mediatica degli ultimi anni abbia alzato il livello di consapevolezza del pubblico e delle aziende sul tema.  “Negli ultimi dieci anni aziende e consumatori hanno cominciato a cambiare”, afferma al telefono Alexander Sander, policy consultant della Free software foundation. “Il problema è sbarazzarsi del vendor lock in, che significa essere ostaggio dell’ecosistema del fornitore: oggi è difficile passare da un prodotto all’altro, tutto funziona bene e facilmente solo se si utilizzano servizi di una sola azienda. Lo si è visto chiaramente nel periodo pandemico, quando la gente cercava disperatamente servizi di videoconferenza e tendeva a scegliere quelli dell’azienda con cui già lavorava: oggi vale anche per l’intelligenza artificiale, che devi pagare anche se non ti interessa, non ne hai bisogno o semplicemente preferisci usare quella di un’altra società”. Questo, prosegue l’esperto, “significa che alla fine costruisci una relazione con un solo marchio: migrare è complicato e costoso. Non solo: molti dei servizi commercializzati in Europa, lo vediamo, non rispettano le norme continentali dal punto di vista della privacy e della cybersecurity: il Patriot Act non rispecchia le nostre normative, e quindi – nel caso di un’azienda Usa che vende servizi in Europa – i servizi segreti possono avere accesso ai file”.  Sander suggerisce di usare software open source, “il cui codice sorgente è pubblico e in cui si possono anche cercare eventuali backdoor: se le individui puoi sistemarle tu stesso, o incaricare qualcun altro di fare le modifiche del caso. Con il software delle grandi multinazionali del tech, invece, devi scrivere all’azienda, che a propria volta ti risponderà se può o meno mettere mano al codice”. E, come visto, oltre alle decisioni di business conta anche il clima politico.  C’è un altro tema, rimarca Sander: “Un conto è negoziare con un paese come l’Italia o la Spagna, un conto è quando al tavolo si siede una piccola azienda”. In questo caso le tutele sono rasenti lo zero.  C’è un’azienda che fa peggio delle altre, chiediamo, in termini di rispetto dei diritti digitali? “In realtà, credo sia più un problema di modello di business. Dobbiamo crearci delle alternative. E penso che Stati e governi dovrebbero avere un ruolo nello stimolare i mercati in questo senso. L’Europa si è mossa bene con il Digital markets act: qui non ci mancano tanto le idee, quanto l’implementazione. E poi bisogna educare cittadini e consumatori a comprendere come funzionano certi modelli di business”.  Qualche passo in avanti si comincia a vedere: in Francia c’è il progetto La Suite numerique, che offre una serie completa di servizi digitali sotto la bandiera del governo di Parigi. In Germania c’è Open Desk di ZenDis, il Centro per la sovranità digitale di Berlino fondato nel 2022 come società a responsabilità limitata di proprietà del governo federale. Anche qui, c’è tutto il necessario per una pubblica amministrazione. La strada, però, è ancora lunga. LA VERSIONE DI PROTONMAIL E poi ci sono i privati. Protonmail (lo abbiamo già incontrato poco sopra) è un servizio email sicuro nato nel 2014 da scienziati che si sono incontrati al Cern di Ginevra. “Lo abbiamo creato per fornire una risposta alla crescente domanda di sicurezza e privacy nella posta elettronica, e anche perché ci siamo resi conto che internet non stava più lavorando nell’interesse degli utenti”, dice a Guerre di Rete Anant Vijay Singh, head of product della società elvetica. “L’email non rappresenta solo uno strumento di comunicazione importante, ma anche la nostra identità online. Noi assicuriamo all’utente di avere il pieno controllo sui  propri dati: li criptiamo, per cui nemmeno noi possiamo analizzare, monetizzare o accedere a informazioni personali. È così che siamo diventati attraenti per chi è stanco di società che sfruttano i dati personali per farci soldi, spesso senza il consenso degli utenti”.  Singh afferma che l’azienda si basa solo sugli abbonamenti: il servizio di base è gratuito, gli upgrade a pagamento. “Il maggiore azionista è la Proton Foundation, che è una non profit, il che significa che quando pensiamo a un prodotto mettiamo davanti le persone, e non i soldi. E questo in definitiva porta a un’esperienza utente migliore”.  Il manager conferma che qualcosa si muove. “Negli anni scorsi abbiamo visto che la gente ha cominciato a rifiutare il capitalismo della sorveglianza e a cercare alternative più sicure e rispettose della privacy: nel 2023 abbiamo superato i 100 milioni di account, e questa tendenza ha accelerato negli ultimi mesi su entrambe le sponde dell’Atlantico”.  Proton, assicura Singh, opera sotto la legge svizzera, “che sulla privacy è tra le più stringenti al mondo. Ma le normative cambiano, e se non bastassero c’è sempre la matematica [cioè la crittografia, ndr] a difendere gli utenti”. “Inoltre tutti i nostri prodotti sono open source e sottoposti a regolari verifiche sulla sicurezza da terze parti indipendenti”. I dati sono conservati in Svizzera, ma alcune porzioni, prosegue, anche in Germania e Norvegia. Singh non nasconde che la Rete ha tradito le aspettative dei creatori. “Per anni i giganti del web l’hanno plasmata sulla base dei propri interessi e la natura centralizzata di molti servizi ha esacerbato i problemi: grandi società controllano enormi quantità di dati. Anche la sorveglianza governativa ha giocato un ruolo nell’erodere la fiducia: le rivelazioni sui programmi di sorveglianza di massa hanno mostrato quanto sia grande il potere degli esecutivi nel monitorare le attività online”. Ma la gente “è sempre più consapevole che alternative esistono, e vuole acquistare ‘europeo’, perché conscia della eccessiva dipendenza da servizi americani”.    L’alternativa elvetica a WeTransfer C’è un altro servizio, sempre basato in Svizzera, che sta spopolando da qualche tempo e tra i clienti vanta molti grossi nomi corporate. Si chiama Swiss Transfer ed è l’alternativa al notissimo WeTransfer, nato olandese e recentemente comprato dall’italiana Bending Spoons. Infomaniak è la società madre. “Abbiamo creato Swiss Transfer innanzitutto per testare su larga scala la nostra infrastruttura basata su OpenStack Swift”, dice a Guerre di Rete Thomas Jacobsen, a capo della comunicazione e del marketing. “Offrire un servizio free e utile al pubblico è  un modo per dimostrare l’affidabilità e la robustezza delle nostre soluzioni. Ma, al di là dell’aspetto tecnico, è anche un modo per aumentare la consapevolezza di cosa sia Infomaniak senza fare affidamento sui tradizionali canali promozionali, come Facebook, Instagram, Google e Linkedin, che richiedono grossi budget per acquisire visibilità. Abbiamo preferito creare un tool che parla da sé, rispetta la privacy, non traccia e offre un valore quotidiano all’utente. E funziona. Milioni di persone usano Swiss Transfer, spesso senza sapere che dietro ci siamo noi. Direi, anzi, che è ironico: in alcuni paesi il brand è più conosciuto della società che ci sta dietro. Ma lo consideriamo un successo”.  Le informazioni, spiega Jacobsen, sono custodite in data center proprietari in Svizzera, protetti dalla legge elvetica. “E dal momento che lavoriamo con l’Europa, ci conformiamo al Gdpr”.  Il modello di business è particolare. “Infomaniak è una società svizzera indipendente, posseduta dai propri stessi dipendenti: oggi gli azionisti sono circa trenta. Questa autonomia assicura indipendenza, e il rispetto dei nostri valori: protezione della privacy, sostenibilità ambientale e supporto per l’economia locale. Tutto è prodotto e sviluppato in Svizzera: i nostri team sono qui, sia quello di sviluppo che il customer care, il che ci dà il controllo totale su tutta la catena del valore, senza intermediari. Significa trasparenza, massima reattività e alta confidenzialità dei dati del cliente, che non verranno mai usati per altri fini se non quello di fornire i servizi richiesti”.   Chiediamo: ma siete davvero sicuri di essere in grado di sostituire i prodotti delle grandi multinazionali? “Sì. È sbagliato pensare che solo le Big Tech possano soddisfare le esigenze di grandi organizzazioni: lavoriamo già con oltre tremila media company tra cui radio e televisioni, ma anche banche centrali, università, governi locali e anche infrastrutture critiche”. Jacobsen sa che uno dei colli di bottiglia è la paura delle difficoltà nella migrazione, e parla di supporto personalizzato 24/7 . “La nostra filosofia è semplice: ci guadagnamo da vivere solo con i nostri clienti, non con i loro dati. Non li vendiamo e i servizi gratuiti sono interamente finanziati da quelli a pagamento: può sembrare strano, ma paghiamo tutti i nostri stipendi in Svizzera, e nonostante ciò  spesso riusciamo a offrire prezzi più competitivi. E funziona da trent’anni”. I dipendenti sono trecento, in crescita: “Ma siamo per la biodiversità digitale: il mondo ha bisogno di alternative locali dovunque”. Jacobsen va oltre: “I dati sono le materie prime dell’intelligenza artificiale e un asset strategico, ma l’Europa continua a spendere milioni di euro di soldi pubblici in soluzioni proprietarie come quelle di Microsoft, Amazon o Google senza reali benefici locali [sul tema lavora anche la campagna Public money, public code, ndr]. Queste piattaforme portano i profitti in America, creano posti di lavoro lì e aumentano la nostra dipendenza. Ma c’è di più: Big Tech investe un sacco di soldi per portare via i nostri migliori ingegneri e ricercatori, spesso formati con denaro pubblico. Per esempio, Meta ha recentemente assunto tre ricercatori dell’ufficio di Zurigo di OpenAI con offerte che a quanto pare hanno raggiunto i cento milioni di dollari. Nel frattempo, quando si presenta una necessità tecnologica negli Stati Uniti, il governo federale non esita ad aprire linee di credito eccezionali per supportare i player locali con contratti da miliardi di dollari, come nel caso di Palantir, OpenAI o cloud provider come Oracle. E l’Europa? Che sta facendo? Firma contratti con società straniere, anche se esistono alternative forti vicino a casa: noi in Svizzera, ma anche Scaleway  e OvhCloud in Francia, Aruba in Italia o Hetzner in Germania”.  Se davvero conquisteremo la biodiversità digitale, lo scopriremo nei prossimi anni. Certo, per cambiare rotta, ci vuole coraggio. E, come dice ancora Sanders, tempo. “C’è un movimento verso il software libero più o meno in tutti i paesi. Dieci anni fa era molto più difficile. Oggi governi e amministrazioni stanno cercando di cambiare passo dopo passo per uscire da questo vendor lock in, e non solo per i pc desktop: si stanno rendendo conto che si tratta anche delle infrastrutture, come i server.Il processo  non è immediato, un’amministrazione non dice all’improvviso: voglio passare al software libero. Ma piuttosto, quando si pone la necessità di acquistare un servizio, comincia a considerare le alternative”. Del resto, se ci sono voluti trent’anni per arrivare fin qui, è difficile immaginare che si possa invertire la rotta dall’oggi al domani L'articolo L’Europa abbandona Big Tech? proviene da Guerre di Rete.
La corsa al nucleare di ChatGPT e gli altri
Immagine in evidenza: Centrale nucleare di Three Mile Island da Wikipedia – CC BY-SA 4.0 I data center che alimentano l’intelligenza artificiale richiedono una quantità di energia enorme, di gran lunga superiore rispetto a quella utilizzata dai social media o dalle ricerche in rete. Secondo Raul Martynek, amministratore delegato dell’azienda di settore DataBank, un rack di chip avanzati per l’AI (ovvero una struttura che ospita numerosi semiconduttori per aumentare la potenza di calcolo) può necessitare di oltre 100 kilowatt di energia, aumentando di molto la richiesta dell’infrastruttura che lo ospita.  Alla luce di tutto ciò, e vista la crescente diffusione di questa tecnologia, le Big Tech si stanno muovendo per cercare una soluzione che possa rispondere al fabbisogno energetico dei data center, permettendo al contempo di raggiungere l’obiettivo di zero emissioni di carbonio entro il 2030. E stanno guardando all’energia nucleare. Di recente, Microsoft ha fatto sapere di aver preso accordi per rimettere in funzione la centrale nucleare di Three Mile Island in Pennsylvania, chiusa lo scorso 2019 per ragioni economiche. Amazon e Google hanno invece annunciato piani per costruire piccoli reattori nucleari modulari (SMR) per alimentare i data center. Insomma, è evidente che le grandi compagnie tecnologiche “hanno il desiderio di crescere in modo sostenibile e, al momento, la risposta migliore è il nucleare”, come ha spiegato Aneesh Prabhu, amministratore delegato di S&P Global Ratings, una compagnia statunitense che si occupa di rating e analisi di credito. Ma le Big Tech non sono da sole in questa corsa al nucleare. Prima di passare il testimone a Donald Trump, il Presidente Joe Biden ha approvato una legge – il cosiddetto Advanced Nuclear for Clean Energy Act – finalizzata ad accelerare lo sviluppo dell’energia nucleare nel paese, sia attraverso lo stanziamento di importanti risorse finanziarie, sia attraverso la semplificazione della burocrazia per le compagnie che scelgono di inserirsi in questo mercato. “Rilanciare il settore nucleare in America è importante per incrementare l’energia a zero emissioni di carbonio nella rete e per soddisfare le esigenze della nostra economia in crescita, dall’AI e i data center all’industria manifatturiera e all’assistenza sanitaria”, aveva commentato l’allora segretario dell’energia Jennifer M. Granholm. Negli ultimi decenni, i progetti relativi alla costruzione di nuove strutture per il nucleare negli Stati Uniti non sembrano però essere andati a buon fine: sono stati conclusi i lavori di soli due reattori e questo sta portando i più critici a chiedersi se davvero le Big Tech riusciranno a superare i tanti ostacoli. E se anche ci riuscissero, che cosa significherebbe questo per l’economia statunitense e globale? Quali sarebbero i vantaggi in termini ambientali? E quale la spinta per lo sviluppo di nuovi progetti legati all’intelligenza artificiale? Prima di rispondere a queste domande, cerchiamo di capire quali sono davvero i piani che Microsoft, Google, Amazon e le altre grandi aziende tecnologiche hanno per il nucleare e l’intelligenza artificiale. AMAZON E GOOGLE PUNTANO SUGLI SMR  Impazza la corsa delle Big Tech per l’energia nucleare, ma lo scorso ottobre è stato Google “a firmare il primo accordo aziendale al mondo per l’acquisto di energia nucleare prodotta da alcuni piccoli reattori modulari (SMR) che saranno sviluppati da Kairos Power”, una compagnia con sede ad Alameda, in California. L’obiettivo del colosso tecnologico è quello di avere a disposizione 6 o 7 reattori entro il 2035, con il primo in consegna nel 2030, così da poter alimentare i data center dedicati ai suoi progetti AI. “Complessivamente, questo accordo consentirà di immettere nelle reti elettriche statunitensi fino a 500 MW di nuova energia, 24 ore su 24 e 7 giorni su 7, priva di emissioni di anidride carbonica, e di aiutare un maggior numero di comunità a beneficiare di un’energia nucleare pulita e a prezzi accessibili”, ha affermato Google nel comunicato che ha accompagnato l’annuncio della collaborazione con Kairos Power. Al di là dei dettagli dell’accordo, è interessante notare che questo rappresenta una svolta importante nell’evoluzione dei piccoli reattori modulari, dotati di una potenza massima di 300 megawatt e in grado di produrre più di 7 milioni di chilowattora di energia al giorno. Per la prima volta, questi hanno ottenuto una dimostrazione di fiducia da parte di un colosso come Google, convinto che contribuiranno ad accelerare la diffusione del nucleare. Le dimensioni ridotte e il design modulare dei reattori – che vengono sostanzialmente prodotti in fabbrica – possono infatti ridurre non solo i tempi e i costi di costruzione, ma anche “consentire la messa in opera in un maggior numero di luoghi e rendere più prevedibile la consegna del progetto finale”. In poche parole, i piccoli reattori modulari potrebbero essere la soluzione ai ritardi accumulati dagli Stati Uniti nei progetti di costruzione delle nuove strutture dedicate al nucleare. O almeno così crede Google. E anche Amazon. Appena qualche giorno dopo l’annuncio di Big G, anche il colosso dello shopping online ha infatti dichiarato di aver siglato tre diversi accordi per poter sfruttare l’energia nucleare per alimentare i suoi data center. Tra questi figura anche un accordo con Energy Northwest, un consorzio di aziende pubbliche statali, finalizzato alla costruzione di 4 piccoli reattori modulari che si prevede genereranno circa 320 megawatt (MW) di energia (con l’obiettivo di arrivare a 960 MW), al fine di contribuire a “soddisfare il fabbisogno energetico previsto per il Pacifico nordoccidentale a partire dall’inizio del 2030”. A questo si aggiunge la collaborazione con X-energy, società leader nello sviluppo di SMR e combustibili di nuova generazione, che punta a portare più 5 gigawatt di energia priva di emissioni di carbonio alla rete statunitense entro il 2039. L’accordo con la società di servizi Dominion Energy mira invece allo sviluppo di un piccolo reattore modulare vicino all’attuale centrale nucleare North Anna, in Virginia, che produrrà circa 300 MW di energia per alimentare la rete della regione. Infine, Amazon ha siglato un accordo per la costruzione di un data center accanto all’impianto nucleare di Talen Energy in Pennsylvania, così da garantirne l’alimentazione “con energia a zero emissioni”, oltre che a preservare il funzionamento del reattore. Una strategia che punta anche a migliorare l’immagine aziendale. Come riferito dalla stessa Amazon, gli investimenti nel settore nucleare contribuiranno a “creare e preservare fonti di energia priva di emissioni di carbonio”, ma anche a “fornire una spinta economica alle comunità locali” che ospiteranno gli impianti di produzione di energia, siano essi di nuova costruzione o preesistenti. PICCOLI REATTORI MODULARI: COME FUNZIONANO E QUANTO SONO SICURI Negli ultimi anni moltissime start-up – come X-Energy e Kairos Power – e aziende affermate, tra cui Toshiba e Rolls Royce, si sono concentrate su progetti dedicati allo sviluppo di piccoli reattori modulari per la produzione di energia. Si tratta di un sistema totalmente diverso rispetto a quello utilizzato finora dalle società energetiche tradizionali, che potrebbe cambiare per sempre il settore del nucleare. Come prima cosa, quindi, cerchiamo di chiarire cosa sono i piccoli reattori modulari e poi di capire come funzionano. Stando alla definizione dell’Agenzia Internazionale per l’energia atomica (AIEA, 2022), “gli SMR sono reattori nucleari avanzati con una capacità di potenza fino a 300 MWe (megawatt elettrici), i cui componenti e sistemi possono essere costruiti in fabbrica e poi trasportati come moduli in un sito per essere installati in base alla necessità”. Allo stato attuale, “gli SMR sono in fase di sviluppo per tutti i tipi di tecnologie di reattori (per esempio, reattori raffreddati ad acqua, reattori raffreddati a gas ad alta temperatura, reattori raffreddati a metallo liquido e a gas con spettro di neutroni veloci e reattori a sali fusi)”. L'impatto delle centrali nucleari di grandi dimensioni, SMR e microreattori - fonte: International Atomic Energy Agency riadattamento della Clean Air Task Force (CATF) In linea di massima, in quasi tutti i tipi di reattori nucleari la fonte di energia è data dalla scissione degli atomi di uranio: un nucleo dell’isotopo instabile uranio-235 si rompe quando viene colpito da un neutrone e questo libera altri neutroni, che colpiscono altri nuclei, dando luogo a una reazione a catena. Una centrale nucleare convenzionale estrae l’energia risultante, rilasciata sotto forma di calore, pompando acqua fredda attraverso il nucleo del reattore e producendo vapore pressurizzato per alimentare turbine che generano elettricità. Nel progetto di X-energy l’acqua viene sostituita dall’elio. Mentre Kairos Power prevede di utilizzare nei suoi reattori un sistema di raffreddamento a sale fuso. In entrambi i casi si utilizza il combustibile in forma di ciottoli, aggiunti continuamente nella parte superiore del reattore e poi rimossi dalla parte inferiore una volta esauriti, con un funzionamento simile a quello di un distributore automatico di palline. Una formula che si vuole presentare anche come più sicura: una volta spento, il nocciolo di un piccolo reattore potrebbe contenere meno calore e radioattività residua rispetto a quello di un tradizionale reattore nucleare. Le stesse società che seguono i progetti sostengono inoltre che i reattori pebble-bed (quelli che utilizzano il combustibile in ciottoli), sarebbero intrinsecamente più sicuri perché non sono pressurizzati e perché sono progettati per far circolare i fluidi di raffreddamento senza l’ausilio di pompe – sarebbe stata proprio la perdita di potenza delle pompe dell’acqua, infatti, a causare il guasto di tre dei reattori della centrale di Fukushima Daiichi in Giappone nel 2011, in seguito a uno tsunami che colpì violentemente il paese. Ma non tutti sembrano vederla così. Il fisico Edwin S. Lyman, direttore della sicurezza dell’energia nucleare presso la Union of Concerned Scientists, ritiene che i piccoli reattori modulari “potrebbero effettivamente spingere l’energia nucleare in una direzione più pericolosa”. Secondo lo scienziato, il problema sarebbe nell’uso dell’uranio ad alto dosaggio e a basso arricchimento (HALEU) all’interno dei piccoli reattori, che potrebbe rappresentare un rischio per la sicurezza. “L’HALEU contiene tra il 10 e il 20% dell’isotopo uranio-23. A partire dal 20% di 235U, la miscela isotopica è chiamata uranio altamente arricchito (HEU) ed è riconosciuta a livello internazionale come direttamente sfruttabile nelle armi nucleari”, si legge in un articolo pubblicato lo scorso giugno su Science da Lyman, in collaborazione, tra gli altri, con il fisico Richard Garwin, che ha guidato il progetto della prima bomba all’idrogeno. “Tuttavia, il limite pratico per le armi è inferiore alla soglia del 20% di HALEU-HEU. I governi e gli altri soggetti che promuovono l’uso dell’HALEU non hanno considerato attentamente i potenziali rischi di diffusione e terrorismo che l’ampia adozione di questo combustibile comporta”. A indebolire l’idea di un sistema più sicuro rispetto a quello delle centrali nucleari tradizionali si aggiunge uno studio condotto dai ricercatori della Stanford University e della University of British Columbia, che insieme hanno portato alla luce un’amara verità sui piccoli reattori modulari. “I risultati rivelano che i progetti di SMR raffreddati ad acqua, a sali fusi e a sodio aumenteranno il volume dei rifiuti nucleari da gestire e smaltire tra le 2 e le 30 volte”, si legge nella ricerca pubblicata sulla rivista PNAS. Il motivo? A quanto pare, i piccoli reattori sono naturalmente meno efficienti, perché non garantiscono quella reazione a catena che permette ai neutroni di scontrarsi con altri nuclei e di produrre energia. Si verifica così un processo di dispersione di neutroni, che finisce con l’avere un impatto importante sulla composizione delle scorie dei reattori. “Non dovremmo essere noi a fare questo tipo di studio. I fornitori, coloro che stanno proponendo e ricevendo finanziamenti per lo sviluppo di questi reattori avanzati, dovrebbero essere preoccupati per i rifiuti e condurre ricerche che possano essere esaminate in letteratura”, ha commentato Rodney Ewing, coautore dello studio, lasciando così in sospeso la questione della sicurezza dei piccoli reattori modulari, che potrebbero essere notevolmente inquinanti. MICROSOFT PUNTA SULLA RIAPERTURA DI THREE MILE ISLAND Rimettere in funzione la centrale di Three Mile Island, in Pennsylvania, è invece l’ambizioso progetto di Microsoft per alimentare i data center destinati a sostenere il funzionamento dei modelli AI della compagnia. Una notizia che ha fatto scalpore, considerando che l’impianto è passato alla storia per essere stato la sede del più significativo incidente nucleare nella storia degli Stati Uniti: il 28 marzo 1979 il reattore dell’Unità 2 andò incontro a un malfunzionamento che provocò una fusione parziale del nucleo, causando la dispersione di materiale radioattivo nella zona e costringendo alla sua chiusura definitiva. Il reattore dell’Unità 1, invece, continuò a funzionare correttamente – e a produrre energia in totale sicurezza – fino al 2019, quando fu chiuso per motivi economici. Nel prossimo futuro, però, tornerà in funzione con il nome di Crane Clean Energy Centre, in onore di Chris Cane, amministratore delegato della società madre Constellation, scomparso lo scorso aprile. Ad annunciarlo è stata la stessa Constellation Energy, che ha fatto sapere di aver chiuso con Microsoft un accordo ventennale per l’acquisto di energia carbon-free prodotta dall’impianto. Proprio per questo, nei prossimi mesi “saranno realizzati investimenti significativi per ripristinare l’impianto, tra cui la turbina, il generatore, il trasformatore di potenza principale, e i sistemi di raffreddamento e controllo”. La riapertura della centrale è prevista non prima del 2028, considerando che il riavvio del reattore richiede l’approvazione della Nuclear Regulatory Commission degli Stati Uniti, oltre al rilascio dei permessi delle agenzie statali e locali competenti. Nonostante ci sia ancora qualche anno da attendere prima di rivedere Three Mile Island in funzione, è innegabile che il progetto di Microsoft sia ambizioso sotto molteplici punti di vista. “Questo accordo è un’importante pietra miliare negli sforzi di Microsoft per contribuire alla decarbonizzazione della rete, a sostegno del nostro impegno a diventare carbon negative”, ha dichiarato Bobby Hollis, vicepresidente del settore energia della compagnia. Ma non è solo la sostenibilità ad essere al centro della riapertura del Crane Clean Energy Centre. Un recente studio, commissionato dal Pennsylvania Building & Construction Trades Council al The Brattle Group, ha infatti rivelato che l’impianto immetterà più di 800 megawatt di elettricità senza emissioni di CO₂ nella rete statunitense, creerà ben 3.400 posti di lavoro nella zona e aggiungerà 16 miliardi di dollari al PIL dello stato. Numeri da capogiro per un progetto che vuole rendere l’energia nucleare il motore dello sviluppo dell’intelligenza artificiale. Le centrali nucleari sono spesso presentate come una soluzione ottimale alla richiesta di energia delle Big Tech impegnate con l’AI, poiché – a differenza delle fonti rinnovabili come l’eolico e il solare, che sono disponibili in modo intermittente – garantiscono una produzione costante di elettricità, spesso denominata “energia fissa”. In questo senso, la scelta di ripristinare vecchi impianti oramai in disuso si dimostra estremamente conveniente tanto per le aziende tecnologie quanto per le autorità governative: lo scorso marzo, per esempio, la centrale nucleare di Palisades (Michigan) ha ottenuto un prestito dell’importo di 1.5 miliardi di dollari dal Dipartimento dell’energia degli Stati Uniti, finalizzato al riavvio dei reattori.  Chiusa nel 2022 per motivazioni economiche, la centrale dovrebbe riaprire nell’ottobre 2025, diventando così il primo impianto a tornare in funzione nel paese. Una sorte che toccherà presto anche a quella che un tempo fu Three Mile Island. OKLO, IL PROGETTO AMBIZIOSO DI SAM ALTMAN  Anche Sam Altman, CEO di OpenAI, di recente ha scelto di investire negli ambiziosi progetti di Oklo, una società con sede a Santa Clara (California), che lavora su “reattori a fissione di nuova generazione per produrre energia pulita, abbondante ed economica su scala globale – a partire da Aurora, che può produrre 15 MW di potenza elettrica, scalabile fino a 50 MWe, e funzionare per 10 anni o più prima del rifornimento”. Fondata nel 2013 da due studenti del MIT, la compagnia sta lavorando allo sviluppo dei cosiddetti “reattori veloci”, in grado di generare una maggiore quantità di energia con un minor impiego di combustibile. Più piccoli ed economici dei normali reattori nucleari, questi sembrerebbero in grado di riciclare il combustibile utilizzato da altri impianti, riducendo l’impatto sull’ambiente. Ma non è solo questo l’intento di Oklo: la società prevede di produrre energia da vendere direttamente agli operatori dei data center, così da alimentare anche i chip di quelle aziende che non possono permettersi di investire cifre esorbitanti in progetti nucleari. QUANTO CONSUMA L’INTELLIGENZA ARTIFICIALE? Definire con precisione la quantità di energia necessaria ad alimentare l’intelligenza artificiale non è cosa semplice: da un lato, i modelli AI sono talmente diversi tra loro da non permettere una misurazione chiara del loro fabbisogno energetico; dall’altro, le grandi aziende di settore non forniscono informazioni esaustive al riguardo. Una cosa è certa, però: la fase di formazione di un modello richiede una quantità di energia decisamente superiore a quella del suo funzionamento vero e proprio. Uno studio di settore, per esempio, stima che l’addestramento di un modello di grandi dimensioni come Gpt-3 richieda all’incirca 1.300 megawattora (MWh) di energia elettrica, ossia una quantità pari a quella consumata in un anno da 130 abitazioni statunitensi. Per avere un’idea più chiara, basta pensare che un’ora di streaming su Netflix richiede circa 0.8 kWh (0,0008 MWh) di elettricità, il che significa che dovremmo guardare 1.625.000 ore di film e serie tv per consumare la stessa energia richiesta dalla formazione di un modello AI di grandi dimensioni. Si tratta di una stima approssimativa, elaborata dai ricercatori di settore qualche anno fa, il che la rende non completamente affidabile, considerando i passi da gigante fatti dall’AI negli ultimi mesi. Eppure, come riferisce la ricercatrice di settore Sasha Luccioni (Hugging Face), avere una stima aggiornata della quantità di energia richiesta dai modelli AI è quasi impossibile, dato che le aziende hanno cominciato a condividere sempre meno informazioni su questa tecnologia mano a mano che è diventata più redditizia. Appena qualche anno fa, le compagnie come OpenAI condividevano con partner, stakeholder e stampa tutte le informazioni relative all’addestramento dei loro modelli: un’abitudine che hanno perso nel corso degli ultimi mesi. Da un lato, secondo Luccioni, questo è legato alla volontà di non condividere con i competitor i processi di sviluppo e formazione dei modelli AI. Dall’altro, però, è dovuto alla volontà delle aziende di settore di evitare critiche legate al consumo eccessivo di energia, decisamente dannoso per l’ambiente. Ma se non abbiamo stime aggiornate sull’addestramento dell’AI, non possiamo proprio dire lo stesso riguardo l’uso che gli utenti fanno dei modelli presenti sul mercato. Sasha Luccioni, in collaborazione con alcuni ricercatori di Hugging Face e della Carnegie Mellon University, ha di recente pubblicato uno studio che contiene le prime stime sulla quantità di energia necessaria per il funzionamento dei modelli AI. In linea di massima sembrerebbe che per portare a termine compiti semplici, come classificare contenuti o generare testo, la quantità di elettricità necessaria sia ridotta: tra 0.002 kWh e 0.047 kWh. Chiaramente, generare un’immagine richiede più energia, ma il lavoro della Luccioni ha dato una stima approssimativa anche per questa attività. L’obiettivo della ricerca, infatti, era quella di gettare le basi per una misurazione futura, non certo di fornirne una. Eppure, è ovvio che le Big Tech abbiano già chiare queste stime, considerando la decisione di ricorrere all’energia nucleare per alimentare lo sviluppo e il funzionamento dei nuovi modelli AI. Resta da vedere, quindi, se questa basterà davvero.cg L'articolo La corsa al nucleare di ChatGPT e gli altri proviene da Guerre di Rete.