Tag - Tech

L’Europa abbandona Big Tech?
Per conformarsi a un ordine esecutivo del presidente americano Donald Trump, nei mesi scorsi Microsoft ha sospeso l’account email di Karim Khan, procuratore della Corte penale internazionale che stava investigando su Israele per crimini di guerra. Per anni, scrive il New York Times, Microsoft ha fornito servizi email al tribunale con sede a L’Aja, riconosciuto da 125 paesi tra cui l’Italia (ma non da Stati Uniti, Israele, Cina, Russia e altri).  All’improvviso, il colosso di Redmond ha staccato la spina al magistrato per via dell’ordine esecutivo firmato da Trump che impedisce alle aziende americane di fornirgli servizi: secondo il successore di Biden, le azioni della Corte contro Netanyahu “costituiscono una inusuale e straordinaria minaccia alla sicurezza nazionale e alla politica estera degli Stati Uniti”.  Così, di punto in bianco, il procuratore non ha più potuto comunicare con i colleghi.  C’è stata una mediazione, ricostruisce il New York Times: dopo una riunione tra Redmond e i vertici della Corte si è deciso che la Cpi avrebbe potuto continuare a utilizzare i servizi di Microsoft. Anche perché l’azienda, secondo la ricostruzione del quotidiano, sarebbe stata fondamentale per la cybersecurity dell’organizzazione, finita nel mirino degli hacker russi dopo l’inchiesta per i crimini di guerra in Ucraina.  Il discorso, però, non vale per Khan, il cui account resta bloccato: cittadini e aziende statunitensi rischiano conseguenze serie – multe e persino l’arresto – se forniscono “supporto finanziario, materiale e tecnologico” a chi viene identificato come pericoloso per la sicurezza nazionale (spesso sulla base di ragionamenti dal sapore politico). Insomma, in una paradossale inversione di ruoli, il procuratore è diventato un criminale, trattato alla stregua di un nemico pubblico.  Le conseguenze non si sono fatte attendere. Tre dipendenti con contezza della situazione hanno rivelato al quotidiano newyorchese che alcuni membri dello staff della Corte si sarebbero rivolti all’azienda svizzera Protonmail per poter continuare a lavorare in sicurezza. Il giornale non chiarisce il perché della decisione, né se tra essi vi sia lo stesso Khan. Una conferma al riguardo arriva dall’agenzia Associated Press. Protonmail, contattata da Guerre di Rete, non ha commentato, spiegando di non rivelare informazioni personali sui clienti per questioni di privacy e di sicurezza. UNO CHOC PER LE CANCELLERIE Quello che conta è che la situazione ha scioccato le cancellerie europee: quasi tutte – e  il quasi è un mero ossequio al dubbio giornalistico – impiegano software, servizi e infrastrutture statunitensi per le proprie normali attività. Ma nel clima pesante di questi mesi sono saltate le classiche e paludate convenzioni della diplomazia: Trump negozia nelle cancellerie come farebbe con i colleghi palazzinari, senza andare troppo per il sottile. Non è possibile, non lo è per nessuno, prevedere la prossima mossa. Il punto è che correre ai ripari non è semplice: sia perché  uscire dalla “gabbia” creata dalle aziende, il cosiddetto “vendor lock in”, richiede tempo, formazione, strategia; sia perché esistono contratti in essere e la questione può diventare spinosa dal punto di vista giuridico. Ma anche perché – ed è una questione centrale – al momento le alternative, quando esistono, sono poco visibili. La situazione è seria. Per dare un’idea, l’Irish Council for Civil Liberties ha rivelato che il parlamento europeo ha un contratto di fornitura di servizi cloud con Amazon. L’accordo imporrebbe di utilizzare solo modelli linguistici di grandi dimensioni “ospitati” su Amazon Web Services. Somo, ong olandese che si occupa da cinquant’anni di monitorare l’attività delle multinazionali, ha rivelato in un recente rapporto gli accordi capestro che le società di intelligenza artificiale hanno dovuto sottoscrivere con Big Tech per sostenere i costi di sviluppo dell’AI (comprese società europee come Mistral e Aleph Alpha).  E tutte le aziende di riferimento, da Microsoft ad Amazon a Oracle a Google a Intel, sono statunitensi e possono quindi potenzialmente ricadere tra i destinatari degli ordini esecutivi di Trump.  LA DIFESA DI MICROSOFT Per riguadagnare fiducia e mercato – i clienti governativi spostano cifre importanti anche per una Big Tech – nei mesi scorsi Microsoft ha cercato di rassicurare i propri utenti europei.  Il presidente Brad Smith a fine aprile ha schierato l’azienda a fianco di Bruxelles: “Oggi ci impegniamo solennemente”, ha detto in una conferenza del think tank Atlantic Council. “Se in futuro un qualsiasi governo, in qualsiasi parte del mondo, dovesse emettere un ordine che intenda obbligare Microsoft a sospendere o cessare le operazioni e l’assistenza per l’Europa, faremo ricorso al tribunale. Percorreremo ogni via legale per opporci a un simile ordine”. Non solo: se le cause fossero, alla fine, perse, “i nostri partner europei avrebbero accesso al nostro codice sorgente di cui conserviamo una copia in un repository sicuro in Svizzera”, paese neutrale per antonomasia.  CHI STA GIÀ LASCIANDO LE BIG TECH Ma c’è qualcuno che, nonostante tutto, sta già lasciando le Big Tech? Due città danesi (Copenhagen e Aarhus) starebbero abbandonando Microsoft per il timore di finire tra le braccia di un monopolista. Il parlamento olandese, dal canto proprio, nelle scorse settimane ha approvato alcune mozioni per spingere il governo a non fare più affidamento sulla tecnologia cloud statunitense. Il timore è il cosiddetto vendor lock in, cioè la politica commerciale alla base della creazione degli ecosistemi in stile Apple: tutto griffato, tutto dello stesso brand, o dentro o fuori. Chi usa un certo elaboratore di testi avrà, così, la strada spianata se sceglierà di impiegare anche il foglio di calcolo e l’applicazione di videoconferenze della stessa società; andrà, invece, incontro a parecchie (e strategicamente posizionate) difficoltà nel caso dovesse decidere di avvalersi dei servizi di un’azienda concorrente. Ricordate i tempi in cui cambiare operatore di cellulare richiedeva di accollarsi il rischio di restare settimane senza telefono? Funziona esattamente allo stesso modo: uscire non è facile, perché l’obiettivo è proprio complicare la vita a chi decide di farlo.  Ma in questo caso la posta in gioco è molto più alta, perché non parliamo di singoli, per quanto importanti come i giudici di una corte internazionale, ma di intere amministrazioni. Lo US CLOUD Act firmato da Trump nel corso del primo mandato consente alle forze dell’ordine di imporre alle società tech di fornire accesso ai dati custoditi nella “nuvola” per investigare crimini particolarmente gravi: difficile mettersi al riparo.  Dall’altra parte, a un esame anche basilare di cybersecurity molti politici sarebbero bocciati: un’indagine della Corte dei conti olandese ha scoperto che molti ministri del governo hanno usato cloud di Google, Microsoft, Amazon senza essere consapevoli dei rischi potenziali. E non c’è ragione per pensare che altrove vada meglio. Italia compresa.    Qualcosa sta cambiando? Guerre di rete ha chiesto ad alcuni soggetti direttamente coinvolti se la copertura mediatica degli ultimi anni abbia alzato il livello di consapevolezza del pubblico e delle aziende sul tema.  “Negli ultimi dieci anni aziende e consumatori hanno cominciato a cambiare”, afferma al telefono Alexander Sander, policy consultant della Free software foundation. “Il problema è sbarazzarsi del vendor lock in, che significa essere ostaggio dell’ecosistema del fornitore: oggi è difficile passare da un prodotto all’altro, tutto funziona bene e facilmente solo se si utilizzano servizi di una sola azienda. Lo si è visto chiaramente nel periodo pandemico, quando la gente cercava disperatamente servizi di videoconferenza e tendeva a scegliere quelli dell’azienda con cui già lavorava: oggi vale anche per l’intelligenza artificiale, che devi pagare anche se non ti interessa, non ne hai bisogno o semplicemente preferisci usare quella di un’altra società”. Questo, prosegue l’esperto, “significa che alla fine costruisci una relazione con un solo marchio: migrare è complicato e costoso. Non solo: molti dei servizi commercializzati in Europa, lo vediamo, non rispettano le norme continentali dal punto di vista della privacy e della cybersecurity: il Patriot Act non rispecchia le nostre normative, e quindi – nel caso di un’azienda Usa che vende servizi in Europa – i servizi segreti possono avere accesso ai file”.  Sander suggerisce di usare software open source, “il cui codice sorgente è pubblico e in cui si possono anche cercare eventuali backdoor: se le individui puoi sistemarle tu stesso, o incaricare qualcun altro di fare le modifiche del caso. Con il software delle grandi multinazionali del tech, invece, devi scrivere all’azienda, che a propria volta ti risponderà se può o meno mettere mano al codice”. E, come visto, oltre alle decisioni di business conta anche il clima politico.  C’è un altro tema, rimarca Sander: “Un conto è negoziare con un paese come l’Italia o la Spagna, un conto è quando al tavolo si siede una piccola azienda”. In questo caso le tutele sono rasenti lo zero.  C’è un’azienda che fa peggio delle altre, chiediamo, in termini di rispetto dei diritti digitali? “In realtà, credo sia più un problema di modello di business. Dobbiamo crearci delle alternative. E penso che Stati e governi dovrebbero avere un ruolo nello stimolare i mercati in questo senso. L’Europa si è mossa bene con il Digital markets act: qui non ci mancano tanto le idee, quanto l’implementazione. E poi bisogna educare cittadini e consumatori a comprendere come funzionano certi modelli di business”.  Qualche passo in avanti si comincia a vedere: in Francia c’è il progetto La Suite numerique, che offre una serie completa di servizi digitali sotto la bandiera del governo di Parigi. In Germania c’è Open Desk di ZenDis, il Centro per la sovranità digitale di Berlino fondato nel 2022 come società a responsabilità limitata di proprietà del governo federale. Anche qui, c’è tutto il necessario per una pubblica amministrazione. La strada, però, è ancora lunga. LA VERSIONE DI PROTONMAIL E poi ci sono i privati. Protonmail (lo abbiamo già incontrato poco sopra) è un servizio email sicuro nato nel 2014 da scienziati che si sono incontrati al Cern di Ginevra. “Lo abbiamo creato per fornire una risposta alla crescente domanda di sicurezza e privacy nella posta elettronica, e anche perché ci siamo resi conto che internet non stava più lavorando nell’interesse degli utenti”, dice a Guerre di Rete Anant Vijay Singh, head of product della società elvetica. “L’email non rappresenta solo uno strumento di comunicazione importante, ma anche la nostra identità online. Noi assicuriamo all’utente di avere il pieno controllo sui  propri dati: li criptiamo, per cui nemmeno noi possiamo analizzare, monetizzare o accedere a informazioni personali. È così che siamo diventati attraenti per chi è stanco di società che sfruttano i dati personali per farci soldi, spesso senza il consenso degli utenti”.  Singh afferma che l’azienda si basa solo sugli abbonamenti: il servizio di base è gratuito, gli upgrade a pagamento. “Il maggiore azionista è la Proton Foundation, che è una non profit, il che significa che quando pensiamo a un prodotto mettiamo davanti le persone, e non i soldi. E questo in definitiva porta a un’esperienza utente migliore”.  Il manager conferma che qualcosa si muove. “Negli anni scorsi abbiamo visto che la gente ha cominciato a rifiutare il capitalismo della sorveglianza e a cercare alternative più sicure e rispettose della privacy: nel 2023 abbiamo superato i 100 milioni di account, e questa tendenza ha accelerato negli ultimi mesi su entrambe le sponde dell’Atlantico”.  Proton, assicura Singh, opera sotto la legge svizzera, “che sulla privacy è tra le più stringenti al mondo. Ma le normative cambiano, e se non bastassero c’è sempre la matematica [cioè la crittografia, ndr] a difendere gli utenti”. “Inoltre tutti i nostri prodotti sono open source e sottoposti a regolari verifiche sulla sicurezza da terze parti indipendenti”. I dati sono conservati in Svizzera, ma alcune porzioni, prosegue, anche in Germania e Norvegia. Singh non nasconde che la Rete ha tradito le aspettative dei creatori. “Per anni i giganti del web l’hanno plasmata sulla base dei propri interessi e la natura centralizzata di molti servizi ha esacerbato i problemi: grandi società controllano enormi quantità di dati. Anche la sorveglianza governativa ha giocato un ruolo nell’erodere la fiducia: le rivelazioni sui programmi di sorveglianza di massa hanno mostrato quanto sia grande il potere degli esecutivi nel monitorare le attività online”. Ma la gente “è sempre più consapevole che alternative esistono, e vuole acquistare ‘europeo’, perché conscia della eccessiva dipendenza da servizi americani”.    L’alternativa elvetica a WeTransfer C’è un altro servizio, sempre basato in Svizzera, che sta spopolando da qualche tempo e tra i clienti vanta molti grossi nomi corporate. Si chiama Swiss Transfer ed è l’alternativa al notissimo WeTransfer, nato olandese e recentemente comprato dall’italiana Bending Spoons. Infomaniak è la società madre. “Abbiamo creato Swiss Transfer innanzitutto per testare su larga scala la nostra infrastruttura basata su OpenStack Swift”, dice a Guerre di Rete Thomas Jacobsen, a capo della comunicazione e del marketing. “Offrire un servizio free e utile al pubblico è  un modo per dimostrare l’affidabilità e la robustezza delle nostre soluzioni. Ma, al di là dell’aspetto tecnico, è anche un modo per aumentare la consapevolezza di cosa sia Infomaniak senza fare affidamento sui tradizionali canali promozionali, come Facebook, Instagram, Google e Linkedin, che richiedono grossi budget per acquisire visibilità. Abbiamo preferito creare un tool che parla da sé, rispetta la privacy, non traccia e offre un valore quotidiano all’utente. E funziona. Milioni di persone usano Swiss Transfer, spesso senza sapere che dietro ci siamo noi. Direi, anzi, che è ironico: in alcuni paesi il brand è più conosciuto della società che ci sta dietro. Ma lo consideriamo un successo”.  Le informazioni, spiega Jacobsen, sono custodite in data center proprietari in Svizzera, protetti dalla legge elvetica. “E dal momento che lavoriamo con l’Europa, ci conformiamo al Gdpr”.  Il modello di business è particolare. “Infomaniak è una società svizzera indipendente, posseduta dai propri stessi dipendenti: oggi gli azionisti sono circa trenta. Questa autonomia assicura indipendenza, e il rispetto dei nostri valori: protezione della privacy, sostenibilità ambientale e supporto per l’economia locale. Tutto è prodotto e sviluppato in Svizzera: i nostri team sono qui, sia quello di sviluppo che il customer care, il che ci dà il controllo totale su tutta la catena del valore, senza intermediari. Significa trasparenza, massima reattività e alta confidenzialità dei dati del cliente, che non verranno mai usati per altri fini se non quello di fornire i servizi richiesti”.   Chiediamo: ma siete davvero sicuri di essere in grado di sostituire i prodotti delle grandi multinazionali? “Sì. È sbagliato pensare che solo le Big Tech possano soddisfare le esigenze di grandi organizzazioni: lavoriamo già con oltre tremila media company tra cui radio e televisioni, ma anche banche centrali, università, governi locali e anche infrastrutture critiche”. Jacobsen sa che uno dei colli di bottiglia è la paura delle difficoltà nella migrazione, e parla di supporto personalizzato 24/7 . “La nostra filosofia è semplice: ci guadagnamo da vivere solo con i nostri clienti, non con i loro dati. Non li vendiamo e i servizi gratuiti sono interamente finanziati da quelli a pagamento: può sembrare strano, ma paghiamo tutti i nostri stipendi in Svizzera, e nonostante ciò  spesso riusciamo a offrire prezzi più competitivi. E funziona da trent’anni”. I dipendenti sono trecento, in crescita: “Ma siamo per la biodiversità digitale: il mondo ha bisogno di alternative locali dovunque”. Jacobsen va oltre: “I dati sono le materie prime dell’intelligenza artificiale e un asset strategico, ma l’Europa continua a spendere milioni di euro di soldi pubblici in soluzioni proprietarie come quelle di Microsoft, Amazon o Google senza reali benefici locali [sul tema lavora anche la campagna Public money, public code, ndr]. Queste piattaforme portano i profitti in America, creano posti di lavoro lì e aumentano la nostra dipendenza. Ma c’è di più: Big Tech investe un sacco di soldi per portare via i nostri migliori ingegneri e ricercatori, spesso formati con denaro pubblico. Per esempio, Meta ha recentemente assunto tre ricercatori dell’ufficio di Zurigo di OpenAI con offerte che a quanto pare hanno raggiunto i cento milioni di dollari. Nel frattempo, quando si presenta una necessità tecnologica negli Stati Uniti, il governo federale non esita ad aprire linee di credito eccezionali per supportare i player locali con contratti da miliardi di dollari, come nel caso di Palantir, OpenAI o cloud provider come Oracle. E l’Europa? Che sta facendo? Firma contratti con società straniere, anche se esistono alternative forti vicino a casa: noi in Svizzera, ma anche Scaleway  e OvhCloud in Francia, Aruba in Italia o Hetzner in Germania”.  Se davvero conquisteremo la biodiversità digitale, lo scopriremo nei prossimi anni. Certo, per cambiare rotta, ci vuole coraggio. E, come dice ancora Sanders, tempo. “C’è un movimento verso il software libero più o meno in tutti i paesi. Dieci anni fa era molto più difficile. Oggi governi e amministrazioni stanno cercando di cambiare passo dopo passo per uscire da questo vendor lock in, e non solo per i pc desktop: si stanno rendendo conto che si tratta anche delle infrastrutture, come i server.Il processo  non è immediato, un’amministrazione non dice all’improvviso: voglio passare al software libero. Ma piuttosto, quando si pone la necessità di acquistare un servizio, comincia a considerare le alternative”. Del resto, se ci sono voluti trent’anni per arrivare fin qui, è difficile immaginare che si possa invertire la rotta dall’oggi al domani L'articolo L’Europa abbandona Big Tech? proviene da Guerre di Rete.
Come la Cina ha conquistato l’auto elettrica
Immagine in evidenza di myenergi da Unsplash Negli ultimi anni, l’auto elettrica è diventata uno dei simboli più discussi della transizione ecologica. Spinta o respinta dai governi, sostenuta o affossata dall’industria, osannata o temuta dall’opinione pubblica, la mobilità a batteria è un tema che divide. Da una parte viene raccontata come un passaggio inevitabile verso un futuro libero dai combustibili fossili, dall’altra viene bollata come una tecnologia immatura o addirittura come un cavallo di Troia per interessi cinesi e imposizioni “ecologiste”. Entrambe le narrazioni tendono a semplificare – e a polarizzare – un fenomeno complesso e in evoluzione. Proviamo allora a gettare lo sguardo oltre le trincee dell’ideologia e a offrire una lettura il più “atea” possibile della questione, soprattutto per quanto riguarda le sue implicazioni geopolitiche. Per cominciare, vanno chiarite due cose. La prima è che la diffusione dell’auto elettrica non è uniforme. Da un lato gli electric vehicles (EV) rappresentano ancora una quota trascurabile (il 4%, pari a 58 milioni di veicoli) del parco macchine mondiale. Dall’altro hanno rappresentato circa il 20% delle nuove immatricolazioni nel 2024. Il dato è caratterizzato da forti concentrazioni geografiche, ma è in crescita del 25% rispetto all’anno precedente. Stiamo quindi parlando di un prodotto che, a livello di mercato planetario, si sta muovendo da una nicchia molto piccola a un segmento significativo. Basti pensare che nel 2024 le vendite sono aumentate di 3,5 milioni di unità rispetto al 2023, più di quanto si fosse venduto in tutto il 2020. La Cina domina il mercato, sia dal lato della domanda che dell’offerta, con quasi il 75% del venduto globale (11 milioni di EV). In Europa, invece, si registra ogni anno una leggera crescita delle nuove immatricolazioni (1,8% in più nel 2024), ma questa è altamente dipendente da incentivi statali e dalle strategie industriali nazionali. Nel 2025 si prevede che le vendite europee supereranno i 4 milioni di unità, con una quota di mercato del 25%, ma anche in questo caso si registrano grandi differenze tra paesi, in particolare tra Europa del Nord e del Sud. Negli Stati Uniti il settore è stato finora trainato da Tesla e da sussidi pubblici introdotti da Biden (e appena tagliati da Trump), ma la penetrazione resta limitata al di fuori delle aree urbane. In tutto il 2024 sono state vendute solo 1,6 milioni di auto elettriche, per una quota di mercato del 10% e con un rallentamento della crescita rispetto all’anno precedente. Per quanto riguarda i paesi emergenti, in America Latina e in Africa le vendite di EV sono aumentate nel 2024 rispettivamente del 100% e del 120%. In Brasile il mercato è dominato dalle importazioni cinesi (oltre l’85% nel 2024), mentre negli altri paesi della regione e in Africa le percentuali sono leggermente inferiori ma comunque preponderanti. Questi dati sono utili a inquadrare un fatto: l’impronta dell’investimento nei veicoli elettrici non è uguale in tutte le zone economiche, così come diseguale è lo sviluppo del mercato e dell’industria. In particolare, è evidente come la Cina si trovi in una fase molto più avanzata rispetto al resto del mondo. Questo non si traduce solo in una leadership produttiva o commerciale, ma in un’esposizione più profonda e strutturale al destino della mobilità elettrica.  A differenza di altre economie, dove l’auto elettrica rappresenta ancora una scelta sperimentale, in Cina è ormai una componente sistemica del mercato e della strategia industriale del Paese. Ne derivano, inevitabilmente, una grande forza industriale, ma anche una vulnerabilità più elevata in caso di contraccolpi globali e, proprio per questo motivo, un maggiore impegno (geo)politico da parte dello Stato cinese nello sviluppo e nella difesa del settore. La seconda cosa da chiarire è che, dal punto di vista della produzione, le differenze tra un’auto tradizionale e un’auto elettrica sono così numerose e profonde che è come se si trattasse di due prodotti completamente diversi. Per certi versi si può dire che, più che di un processo di transizione industriale, lo sviluppo della mobilità elettrica andrebbe inquadrato come la nascita di una nuova industria. È importante evidenziare questo punto, poiché è una delle ragioni per cui la transizione elettrica dell’auto sta comportando cambiamenti così profondi delle geografie delle risorse e della geopolitica delle filiere. Il passaggio dall’auto a motore a combustione interna (ICE) al veicolo elettrico non comporta soltanto un cambiamento nelle modalità di alimentazione, ma implica una rivoluzione tecnologica che investe l’intera filiera produttiva. Le competenze richieste per progettare, costruire e mantenere un’auto elettrica – a cominciare dal suo componente più cruciale, la batteria – sono radicalmente diverse rispetto a quelle necessarie per i veicoli tradizionali: servono ingegneri specializzati in elettronica di potenza, software, gestione termica e chimica dei materiali, piuttosto che esperti di meccanica e di fluidodinamica dei motori termici. Questo ha implicazioni politiche nella misura in cui paesi come la Cina investono da quasi due decenni nella formazione di figure professionali e di ricercatori specializzati in questi ambiti, mentre Europa e USA hanno preferito continuare a puntare su competenze più tradizionali, col risultato che oggi le loro industrie non solo faticano a reperire le figure necessarie alla transizione, ma rischiano di dover operare ampi (e socialmente costosi) tagli del personale. Può non sembrarlo, ma anche questo è un tema geopolitico, in quanto ha direttamente a che fare con la resilienza dei corpi sociali dei paesi.  Un tema ancor più spinoso è quello delle materie prime critiche per la produzione di batterie. A causa della transizione energetica (non solo quella dell’automotive), negli ultimi anni litio, cobalto, nichel, grafite e terre rare ( di cui abbiamo appena scritto su Guerredirete.it, ndr) hanno assunto un’importanza strategica simile a quella del petrolio o dell’acciaio. L’approvvigionamento, la raffinazione e la lavorazione di questi materiali sono oggi al centro di una corsa globale, in cui le geografie della potenza economica si stanno rapidamente riorganizzando. Anche in questo caso la Cina si è mossa con grande anticipo. A partire dai primi 2000, Pechino ha investito nello sviluppo di una filiera completa e integrata della mobilità elettrica, dalla proprietà delle miniere all’estero (in Africa, America Latina e Australia), fino alla raffinazione dei minerali, alla produzione di celle per batterie, e infine alla progettazione e vendita di veicoli completi. Aziende cinesi specializzate in batterie per EV, come CATL, e produttori di veicoli elettrici come BYD e NIO non solo dominano il mercato domestico, ma stanno progressivamente espandendo la loro presenza internazionale, soprattutto in Europa. A oggi, la Cina raffina oltre il 60% del litio globale, il 70% del cobalto, e quasi il 90% delle terre rare, numeri che ne fanno un attore insostituibile in tutte le fasi della catena del valore dei componenti decisivi di un’auto elettrica, ovvero quelli elettronici, magnetici e chimici usati all’interno di software, sensori, motori e batterie. Questa concentrazione rappresenta un punto di vulnerabilità per le case automobilistiche non cinesi, che rischiano interruzioni di fornitura critiche. Non è quindi un caso che – già prima del ritorno di Trump alla Casa Bianca – proprio il tema della “terre rare” sia finito al centro delle trattative sul commercio tra Cina e Stati Uniti. Proprio le trattative tra blocchi economici in risposta alla minaccia dei dazi di Trump ci ricordano che, come molti altri settori strategici, negli ultimi anni anche quello dell’automotive ha assistito a un prepotente ritorno degli Stati nella regolazione della vita economica e industriale. L’avvento della mobilità elettrica sta riportando al centro del dibattito concetti come “sovranità tecnologica” e “politica industriale”, costringendo governi e istituzioni a confrontarsi con il fatto che la competizione globale non si gioca più solo sul mercato, ma sulla capacità di presidiare le filiere produttive. Si tratta di una materia in continua evoluzione, complessa e altamente tecnica, che spesso i governi faticano a comprendere appieno. In molti casi, mancano sia le informazioni aggiornate che le competenze per analizzarla con la precisione e la profondità necessaria. La geopolitica della mobilità EV si muove infatti lungo coordinate altamente mobili, in cui innovazione tecnologica, instabilità internazionale e politiche pubbliche interagiscono in modo non lineare. Per questo, la vera posta in gioco non è solo industriale, ma cognitiva e culturale: la capacità di capire per tempo quale traiettoria tecnologica emergerà come dominante (che, retrospettivamente, è la ragione dell’attuale vantaggio cinese). Uno scenario cruciale per il futuro riguarda, per esempio, l’evoluzione delle batterie. Se le tecnologie allo stato solido, oggi in fase avanzata di sviluppo presso aziende come Toyota, QuantumScape e CATL, dovessero arrivare alla maturità industriale nei prossimi 5 anni, si assisterebbe a una vera discontinuità tecnologica: densità energetica superiore, tempi di ricarica più brevi, minore infiammabilità e, soprattutto, una diminuzione della dipendenza da materie prime come litio e cobalto. Questo ridurrebbe l’influenza dei paesi oggi dominanti in queste risorse, ma potrebbe farne emergere altri (tra cui Giappone e Corea del Sud, tra i più avanzati nello sviluppo di batterie allo stato solido), a dimostrazione di quanto la partita dell’EV, e la sua traiettoria evolutiva, sia tutt’altro che chiusa o definita, come invece la raccontano tanto gli entusiasti quanto i detrattori.  L’autore di questo articolo ha pubblicato da poco proprio un libro sul tema automotive: Velocissima). L'articolo Come la Cina ha conquistato l’auto elettrica proviene da Guerre di Rete.
Chi controlla le terre rare controlla il mondo
Immagine in evidenza da Unsplash Quando a fine anni ’80 Deng Xiaoping affermò che “il Medio Oriente ha il petrolio, la Cina le terre rare”, in pochi diedero il giusto peso alla dichiarazione dell’allora leader della Repubblica Popolare cinese. Come invece sempre più spesso accade, il Dragone asiatico dimostrò di avere la capacità di immaginare e mettere in atto strategie di lungo termine: le terre rare, infatti, rappresentano oggi uno dei maggiori motivi di frizione geopolitica nel mondo, a causa dell’elevata richiesta e del loro complesso approvvigionamento, di cui la Cina detiene il monopolio. Praticamente nessun settore industriale ad alta tecnologia può farne a meno, da quello militare – per missili guidati, droni, radar e sottomarini – a quello medico, in cui sono impiegate per risonanze magnetiche, laser chirurgici, protesi intelligenti e molto altro ancora. Non fa eccezione il settore tecnologico e in particolare quello legato allo sviluppo e all’utilizzo dell’intelligenza artificiale. Come spiega Marta Abbà, fisica e giornalista esperta di temi ambientali, le terre rare possiedono qualità magnetiche uniche e sono eccellenti nel condurre elettricità e resistere al calore, e anche per questo risultano essenziali per la fabbricazione di semiconduttori, che forniscono la potenza computazionale che alimenta l’AI, per le unità di elaborazione grafica (GPU), per i circuiti integrati specifici per applicazioni (ASIC) e per i dispositivi logici programmabili (FPGA, un particolare tipo di chip che può essere programmato dopo la produzione per svolgere funzioni diverse).  Sono inoltre cruciali per la produzione di energia sostenibile: disprosio, neodimio, praseodimio e terbio, per esempio, sono essenziali per la produzione dei magneti utilizzati nelle turbine eoliche.  Senza terre rare, quindi, si bloccherebbe non solo lo sviluppo dell’intelligenza artificiale, ma anche quella transizione energetica che, almeno in teoria, dovrebbe accompagnarne la diffusione rendendola più sostenibile. Insomma, tutte le grandi potenze vogliono le terre rare e tutte ne hanno bisogno, ma pochi le posseggono. TERRE RARE, MINERALI CRITICI E AI Le terre rare (REE) sono un gruppo di 17 elementi chimici con proprietà simili e spesso presenti insieme nei minerali: lantanio, cerio, praseodimio, neodimio, promezio, samario, europio, gadolinio, terbio, disprosio, olmio, erbio, tulio, itterbio, lutezio, ittrio e scandio. Le materie prime critiche, di cui possono far parte anche alcune terre rare, sono invece quei materiali identificati dai vari governi come economicamente e strategicamente essenziali, ma che presentano un alto rischio di approvvigionamento a causa della concentrazione delle fonti e della mancanza di sostituti validi e a prezzi accessibili. Nel 2024 il Consiglio dell’Unione Europea ha adottato il Regolamento europeo sulle materie prime critiche, elencandone 34, di cui 17 definite “strategiche”, il cui controllo o accesso influisce direttamente su obiettivi di sicurezza, sviluppo tecnologico e autonomia industriale. Le terre rare, in realtà, spiega ancora Marta Abbà, non sono rare, ma la loro presenza nel mondo non è omogenea e l’estrazione e la lavorazione risultano molto costose e inquinanti.  Le maggiori riserve sono possedute dalla Cina, in cui ammontano, secondo le stime, a 44 milioni di tonnellate, con una capacità estrattiva che nel 2024 ha toccato la cifra di 270mila tonnellate all’anno. Altri stati che possiedono significative riserve sono il Brasile (21 milioni di tonnellate, attualmente ancora pochissimo sfruttate), l’Australia (5,7 milioni di tonnellate), l’India (6,9 milioni di tonnellate), la Russia (3,8 milioni di tonnellate) e il Vietnam (3,5 milioni di tonnellate).  A questo gruppo di paesi si è aggiunta di recente la Groenlandia, salita alla ribalta delle cronache per i suoi enormi giacimenti di materie prime critiche e per il conseguente interesse mostrato da Stati Uniti, Unione Europea e Cina. Il sito più rilevante, Kvanefjeld, nel sud dell’isola, è considerato uno dei più promettenti a livello globale e, secondo le stime della società che ne detiene la licenza estrattiva, potrebbe contenere fino al 15% delle riserve mondiali conosciute di terre rare. A far gola alle grandi potenze tecnologiche sono in particolare l’alluminio, derivato della bauxite, e il silicio, necessari per la produzione dei wafer (la base di silicio su cui vengono costruiti i microchip) e per l’isolamento dei chip, il niobio, utilizzato nei cavi superconduttori, il germanio, necessario per i cavi in fibra ottica utilizzati per la trasmissione di dati ad alta velocità, cruciale per l’AI, e ancora gallio, tungsteno, neodimio, ittrio, tutti componenti essenziali per l’industria dei microchip.    Per via delle loro applicazioni nell’industria high tech, molti di questi materiali ed elementi sono stati identificati come strategici sia dall’Unione Europea che dagli Stati Uniti e sono per questo oggetto di accordi e trattati bilaterali con i paesi produttori.  Nonostante la presenza di alcune riserve di terre rare in entrambe le regioni, il fabbisogno risulta infatti di gran lunga superiore alla capacità produttiva domestica, obbligando di fatto sia Washington che Bruxelles a importare le materie dall’estero, prima di tutto dalla Cina e in secondo luogo, per quanto riguarda l’Unione Europea, dalla Russia.  Per questo motivo, Dewardric L. McNeal, direttore e analista politico della società di consulenza Longview Global, ha affermato alla CNBC che “gli Stati Uniti devono ora trattare le materie prime critiche non come semplici merci, ma come strumenti di potere geopolitico. Come la Cina già fa”. IL POTERE DEL DRAGONE ASIATICO E LE RISPOSTE USA Dopo settimane di tensioni e accuse reciproche per i dazi imposti dall’amministrazione Trump, il governo di Pechino ha deciso di rallentare l’export di terre rare tra aprile e maggio, come già fatto in precedenza sia nel 2023 che nel 2024, quando alla scrivania dello studio ovale sedeva ancora Joe Biden e il tema caldo di discussione era l’isola di Taiwan. Per farsi un’idea della portata di questa mossa, basti pensare che, come stimato dal Servizio Geologico degli Stati Uniti (USGS), se la Cina imponesse un divieto totale sulle esportazioni dei soli gallio e germanio, minerali utilizzati in alcuni semiconduttori e in altre produzioni high tech, il PIL statunitense potrebbe diminuire di 3,4 miliardi di dollari. Anche per questo, il tono di Washington da inizio giugno è diventato più conciliante e il rapporto tra le due potenze si è andato normalizzando, fino ad arrivare il 28 giugno al raggiungimento di un accordo tra i due paesi. Nonostante i dettagli siano ancora scarsi, il segretario al Tesoro degli Stati Uniti, Scott Bessent, ha dichiarato che la Cina ha accettato di facilitare l’acquisizione da parte delle aziende americane di magneti, terre rare cinesi e altri materiali fondamentali per l’industria tecnologica.  Quella che Trump ha festeggiato come una sua grande vittoria diplomatica, ha però reso ancor più evidente come le catene di approvvigionamento dei minerali critici siano molto concentrate, fragili e soprattutto troppo esposte all’influenza e al controllo di Pechino. Come abbiamo visto, la Cina è il paese in cui si trovano le maggiori riserve mondiali di terre rare, ma non è solo questo elemento a spostare l’ago della bilancia geopolitica a favore del dragone asiatico. L’influenza della Cina abbraccia infatti anche i paesi “amici”, come la Mongolia e il Myanmar, secondo produttore mondiale di terre rare pesanti (più scarse e più difficili da separare), le cui principali operazioni minerarie sono significativamente partecipate da Pechino, estendendo ulteriormente il controllo effettivo della potenza asiatica. La posizione dominante della Cina è determinata anche dal fatto di possedere il monopolio di fatto della raffinazione, cioè la complessa operazione metallurgica per trasformare la materia prima grezza in materiali utilizzabili. Un processo non solo complesso, ma altamente inquinante e di conseguenza quasi impossibile da eseguire in Europa o negli Stati Uniti, a causa dei più elevati standard di compliance ambientale che ne farebbero schizzare il costo alle stelle.  Il processo di raffinazione richiede infatti un uso estensivo di sostanze chimiche, in particolare acidi forti (come l’acido solforico, nitrico o cloridrico) per separare le terre rare dai minerali a cui sono legate, creando delle scorie tossiche molto difficili da smaltire, se si seguono, appunto, standard elevati di tutela ambientale. Un esempio del devastante impatto ambientale di questo processo è particolarmente visibile nella città di Baotou, nella vasta area industriale della regione cinese della Mongolia Interna, dove il panorama è dominato da un lago artificiale del diametro di circa 9 chilometri, composto interamente da fanghi neri e sostanze chimiche tossiche, risultato degli sversamenti di rifiuti di scarto derivanti dall’estrazione e raffinazione delle terre rare. L’Occidente, in pratica, ha scelto di esternalizzare le negatività ambientali derivanti dall’estrazione di terre rare in Cina e questa, da parte sua, ha accettato di buon grado, dando priorità al potere economico e geopolitico che ne deriva rispetto alla salute dei suoi cittadini e alla tutela del proprio ambiente naturale. La dipendenza delle catene di approvvigionamento occidentali diventa ancor più evidente se si prende come esempio la miniera di Mountain Pass in California, una delle maggiori operazioni statunitensi nel settore delle terre rare. Nonostante produca circa il 15% degli ossidi di terre rare a livello globale, si trova a dover inviare l’intera produzione in Cina per le fasi di separazione e raffinazione.  Per questo motivo, il Pentagono nel 2020 ha assegnato 9,6 milioni di dollari alla società MP Materials per la realizzazione di un impianto di separazione di terre rare leggere a Mountain Pass. Nel 2022, sono stati investiti ulteriori 35 milioni di dollari per un impianto di trattamento di terre rare pesanti. Questi impianti, spiega il Center for Strategic and International Studies, sarebbero i primi del loro genere negli Stati Uniti, integrando completamente la catena di approvvigionamento delle terre rare, dall’estrazione, separazione e lisciviazione (un processo chimico che serve a sciogliere selettivamente i metalli desiderati dal minerale) a Mountain Pass, fino alla raffinazione e produzione di magneti a Fort Worth, in Texas. Tuttavia, anche quando saranno pienamente operativi, questi impianti saranno in grado di produrre solo mille tonnellate di magneti al neodimio-ferro-boro entro la fine del 2025 — meno dell’1% delle 138mila tonnellate prodotte dalla Cina nel 2018. Non sorprende, dunque, che gli Stati Uniti, come vedremo, stiano cercando strade alternative in grado di diversificare maggiormente la propria catena di approvvigionamento di questi materiali. Ne è un esempio l’accordo fortemente voluto dall’amministrazione USA con l’Ucraina che, dopo un tira e molla di diverse settimane, culminato con la furiosa lite di fine febbraio nello studio ovale tra Donald Trump e JD Vance da una parte e Volodymyr Zelensky dall’altra, ha infine visto la luce a inizio maggio. L’accordo, in estrema sintesi, stabilisce che l’assistenza militare americana sarà considerata parte di un fondo di investimento congiunto dei due paesi per l’estrazione di risorse naturali in Ucraina. Gli Stati Uniti si assicurano inoltre il diritto di prelazione sull’estrazione mineraria pur lasciando a Kiev l’ultima parola sulle materie da estrarre e l’identificazione dei siti minerari. L’accordo stabilisce infine che la proprietà del sottosuolo rimarrà all’Ucraina, cosa non scontata date le precedenti richieste da parte di Washington in tal senso. Quello con l’Ucraina è solo uno dei tanti tavoli di trattativa aperti dalle diverse amministrazioni statunitensi con paesi ricchi di materie critiche: dall’Australia al vicino Canada, passando per il Cile, ricchissimo di litio, e poi ancora il Brasile, dove si estrae il 90% del niobio utilizzato per la produzione di condensatori, superconduttori e altri componenti ad alta tecnologia, e il Vietnam, con cui l’allora presidente Joe Biden ha siglato un accordo di collaborazione nel settembre 2023. È evidente come gli Stati Uniti, da diversi anni, stiano mettendo in campo tutte le risorse economiche e diplomatiche a disposizione per potersi assicurare il necessario approvvigionamento di materie critiche e terre rare, senza le quali la Silicon Valley chiuderebbe i battenti in pochi giorni. LA GLOBAL GATEWAY EUROPEA In Europa la situazione è anche peggiore rispetto agli Stati Uniti. Non solo l’Unione Europea importa oltre il 98% delle terre rare raffinate, con la Cina ovviamente nel ruolo di principale fornitore, ma è anche sprovvista di giacimenti importanti. Uno dei pochi siti promettenti è stato individuato nel 2023 a Kiruna, nella Lapponia svedese, e secondo l’azienda mineraria di stato svedese LKAB potrebbe arrivare a soddisfare, una volta a pieno regime, fino al 18% del fabbisogno europeo di terre rare.  C’è però un enorme problema, oltre a quello già descritto dell’impatto ambientale: è difficile pensare che possa entrare in produzione prima di almeno una decina di anni. Troppi, considerato che le battaglie per la supremazia tecnologica e per la transizione energetica si stanno combattendo ora. Un discorso a parte merita la Groenlandia, territorio autonomo posto sotto la Corona danese, ricchissima di materie prime critiche, terre rare e anche uranio, ma dove le leggi attuali sono molto restrittive in termini di estrazione e che, per di più, è entrata nel mirino dell’amministrazione Trump, diventando oggetto di forti frizioni politiche.  L’interesse dell’Unione Europea nei confronti della grande isola artica è sancito dall’accordo firmato nel novembre del 2023 tra le due parti, che dà il via a un nuovo partenariato strategico tra i due soggetti, il cui cuore pulsante è rappresentato dallo sfruttamento congiunto delle materie prime. Anche in questo caso, però, come per il giacimento di Kiruna, si tratta di un progetto a lungo termine che difficilmente potrà vedere la luce e dare risultati concreti in tempi brevi. L’Unione Europea ha quindi deciso di muoversi sulla scia degli Stati Uniti e della “Nuova Via della Seta” cinese, cercando di chiudere accordi bilaterali di investimento e scambio commerciale con diversi paesi ricchi di materie prime critiche. La strategia “Global Gateway” lanciata nel 2021 rappresenta uno dei più grandi piani geopolitici e di investimento dell’Unione, che ha messo sul tavolo oltre 300 miliardi di euro fino al 2027, con l’obiettivo dichiarato, tra gli altri, di diversificare le fonti di approvvigionamento delle materie critiche. La Global Gateway, a cui si è aggiunto nel 2023 il Critical Raw Material Act, che pone obiettivi specifici di approvvigionamento al 2030, ha portato a diversi accordi fondamentali per la sopravvivenza dei piani di transizione digitale ed energetica del continente: Argentina, Cile e Brasile in America Latina; Kazakistan, Indonesia e Mongolia in Asia; Namibia, Zambia, Uganda e Rwanda in Africa sono alcuni dei paesi con cui la Commissione Europea ha già siglato delle partnership strategiche o ha intavolato delle discussioni di alto livello per agevolare degli investimenti comuni nell’estrazione di terre rare, proprio come fatto dagli Stati Uniti con l’Ucraina.   Considerata la volontà dell’Unione Europea di competere nel settore dell’intelligenza artificiale, quantomeno per ciò che riguarda l’espansione dei data center sul territorio, una robusta e diversificata rete di approvvigionamento delle materie prime critiche è fondamentale. Come si legge infatti sul sito della Commissione Europea, “nel corso del 2025, la Commissione proporrà il Cloud and AI Development Act, con l’obiettivo almeno di triplicare la capacità dei data center europei nei prossimi 5-7 anni e di soddisfare appieno il fabbisogno delle imprese e delle pubbliche amministrazioni europee entro il 2035. La legge semplificherà l’implementazione dei data center, individuando siti idonei e snellendo le procedure autorizzative per i progetti che rispettano criteri di sostenibilità e innovazione. Allo stesso tempo, affronterà la crescente domanda energetica promuovendo l’efficienza energetica, l’adozione di tecnologie innovative per il raffreddamento e la gestione dell’energia, e l’integrazione dei data center all’interno del sistema energetico più ampio”. Il piano non solo è ambizioso in termini di obiettivi, ma tiene strettamente legate le due facce della strategia generale europea, ovvero lo sviluppo tecnologico e la transizione verde entro il quale deve essere inquadrato. Impossibile pensare di fare l’uno o l’altra, tantomeno entrambi, senza le materie prime necessarie.  AFRICA, VECCHIA E NUOVA TERRA DI CONQUISTA In questo quadro geopolitico già di per sé complesso, un discorso a parte meritano i paesi del Sud Globale e in particolare quelli africani, che come si è visto sono quelli in cui si trovano le maggiori riserve di materie prime critiche e terre rare.   Il timore, come già raccontato nel reportage dall’AI Summit di Parigi, è che ancora una volta si vada a configurare un modello di estrattivismo colonialista, in cui i paesi più ricchi, dove avviene la produzione di tecnologia, si arricchiranno ancor di più, mentre i paesi più poveri, da dove vengono prelevate le materie prime, subiranno i devastanti impatti sociali e ambientali di queste politiche. Il rapporto “Rare Earth Elements in Africa: Implications for U.S. National and Economic Security”, pubblicato nel 2022 dal Institute for Defense Analyses, una società senza scopo di lucro statunitense, è molto esplicito nel prevedere un aumento dell’influenza del continente africano nel settore e le problematiche che ciò può comportare. “Man mano che le potenze globali si rivolgono ai mercati africani per rafforzare la propria influenza”, si legge nell’executive summary del rapporto, “è probabile che l’estrazione delle terre rare nel continente aumenti. In Africa si contano quasi 100 giacimenti di terre rare, distribuiti in circa la metà dei paesi del continente. Cinque paesi — Mozambico, Angola, Sudafrica, Namibia e Malawi — ospitano da soli la metà di tutti i siti di giacimento di terre rare in Africa. Attualmente, otto paesi africani registrano attività estrattiva di REE, ma a gennaio 2022 solo il Burundi disponeva di una miniera operativa in grado di produrre a livello commerciale. Tuttavia, altri paesi potrebbero raggiungere presto capacità produttive simili”. La parte che più interessa in questo frangente è però il punto in cui i ricercatori sottolineano come “la gestione delle risorse naturali in Africa e gli indicatori di buona governance devono migliorare, se si vuole garantire che i minerali di valore non portino benefici solo alle imprese americane, ma anche ai cittadini africani”. Considerando che la “Academy of international humanitarian law and human rights” dell’Università di Ginevra ha mappato 35 conflitti armati attualmente in corso nell’Africa subsahariana, di cui molti hanno proprio come causa il possesso delle risorse minerarie, sembra difficile prevedere che questa volta la storia prenda una strada diversa da quella già percorsa in passato. ROTTE ALTERNATIVE In virtù delle complessità descritte per l’approvvigionamento delle terre rare e, più in generale, delle materie prime critiche, alcune società stanno sperimentando delle vie alternative per produrle o sostituirle. La società britannica Materials Nexus, per esempio, ha dichiarato a inizio giugno di essere riuscita a sviluppare, grazie alla propria piattaforma di AI, una formula per produrre magneti permanenti senza l’utilizzo di terre rare. La notizia, ripresa dalle maggiori testate online dedicate agli investimenti nel settore minerario, ha subito destato grande interesse, non solo perché aprirebbe una strada completamente nuova per i settori tecnologico ed energetico, ma perché sarebbe uno dei primi casi in cui è l’intelligenza artificiale stessa a trovare una soluzione alternativa per il suo stesso sviluppo. Secondo Marta Abbà, se anche la notizia data da Material Nexus dovesse essere confermata, ci vorrebbero comunque anni prima di arrivare alla messa in pratica di questa formula alternativa. Sempre che – cosa per nulla scontata – la soluzione non solo funzioni davvero, ma si dimostri anche sostenibile a livello economico e a livello ambientale. È più realistico immaginare lo sviluppo di un’industria tecnologicamente avanzata in grado di riciclare dai rifiuti sia le terre rare che gli altri materiali critici, sostiene Abbà. Prodotti e dispositivi dismessi a elevato contenuto tecnologico possono in tal senso diventare delle vere risorse, tanto che l’Unione Europea ha finanziato 47 progetti sperimentali in questa direzione. Tra questi, c’è anche un promettente progetto italiano: Inspiree, presso il sito industriale di Itelyum Regeneration a Ceccano, in provincia di Frosinone. È il primo impianto in Europa per la produzione di ossidi e carbonati di terre rare (neodimio, praseodimio e disprosio) da riciclo chimico di magneti permanenti esausti. L’impianto di smontaggio, si legge nel comunicato di lancio del progetto, potrà trattare mille tonnellate all’anno di rotori elettrici, mentre l’impianto idrometallurgico a regime potrà trattare duemila tonnellate all’anno di magneti permanenti ottenuti da diverse fonti, tra cui anche hard disk e motori elettrici, con il conseguente recupero di circa cinquecento tonnellate all’anno di ossalati di terre rare, una quantità sufficiente al funzionamento di un milione di hard disk e laptop, e di dieci milioni di magneti permanenti per applicazioni varie nell’automotive elettrico. Nonostante questi progetti, l’obiettivo europeo di coprire entro il 2030 il 25% della domanda di materie prime critiche, tra cui le terre rare, grazie al riciclo, appare ancora molto distante, considerando che a oggi siamo appena all’1%. La strada dell’economia circolare è sicuramente incerta, lunga e tortuosa, ma allo stesso tempo più sostenibile di quella estrattivista e in grado di garantire una strategia di lungo periodo per il continente europeo. L'articolo Chi controlla le terre rare controlla il mondo proviene da Guerre di Rete.
Nell’era Trump, la lotta ai migranti passa anche dalle app
Immagine in evidenza da RawPixel, licenza CC 1.0 Nelle ultime settimane, hanno suscitato grande scalpore alcune applicazioni sviluppate per segnalare alle autorità competenti i cittadini stranieri che vivono illegalmente negli Stati Uniti. In particolare, secondo The Verge, a ricevere il sostegno di Donald Trump e dei filotrumpiani è stata ICERAID, un’app che promette di premiare con una criptovaluta proprietaria, il token RAID, “i cittadini che acquisiscono, caricano e convalidano le prove fotografiche di otto categorie di sospette attività criminali”. Tra queste i maltrattamenti di animali, i rapimenti, gli omicidi, le rapine, gli atti terroristici e, naturalmente, l’immigrazione clandestina.  L’idea alla base dell’applicazione è quella di trasformare i cittadini in veri e propri “cacciatori di taglie”, permettendo loro di combattere la criminalità in collaborazione con le forze dell’ordine e le agenzie di sicurezza. Con ICERAID, gli americani hanno infatti la possibilità di scattare e caricare la foto di un presunto reato in corso, fornendo tutte le informazioni utili per consentire alle autorità competenti di intervenire, ma solo dopo che la veridicità della segnalazione è stata confermata (al netto degli errori) da un’intelligenza artificiale. Ma non è tutto. Come riportato da Newsweek, l’app vanta un “programma di sponsorizzazione” che promette di “ricompensare gli immigrati privi di documenti e senza precedenti penali che si fanno avanti, attraverso un programma di sostegno in cui vengono aiutati a perseguire lo status legale negli Stati Uniti tramite vari percorsi, tra cui l’assistenza per la ricerca di un avvocato specializzato in immigrazione”.  Eppure, nonostante i sostenitori di Trump abbiano promosso ICERAID in ogni modo possibile, l’applicazione non sembra star riscuotendo il successo sperato. Allo stato attuale, risultano solo otto segnalazioni di attività criminali da parte dei cittadini statunitensi, di cui soltanto tre ritenute valide dall’AI dell’applicazione. Una delle ragioni è probabilmente il fatto che l’app è stata rilasciata sul mercato senza che la sua criptovaluta fosse ancora disponibile, il che ha reso gli americani restii a utilizzarla. Ma anche la cattiva reputazione del fondatore del progetto Jason Meyers – accusato di appropriazione indebita di fondi in una delle sue attività precedenti – non ha contribuito alla credibilità di ICERAID. Di certo, i sostenitori di Trump e gli esponenti della destra americana stanno cercando di trasformare i cittadini comuni in “vigilantes” pronti a dare la caccia agli immigrati clandestini, con o senza il supporto della tecnologia. A gennaio un senatore dello Stato del Mississippi ha presentato una proposta di legge che prevedeva una ricompensa di 1.000 dollari per i cacciatori di taglie che avrebbero portato a termine la cattura di immigrati entrati nel paese senza autorizzazione. Fortunatamente, la proposta non è mai diventata legge, ma ha comunque dimostrato qual è la direzione che sta prendendo la destra americana.  TRUMP STA SPINGENDO GLI IMMIGRATI ALL’AUTOESPULSIONE CON UN’APP Il presidente degli Stati Uniti Donald Trump sembra intenzionato a utilizzare ogni mezzo possibile per mantenere la promessa di combattere l’immigrazione clandestina e contenere i flussi di migranti in ingresso al confine sud-occidentale del Paese. Proprio qualche settimana fa, la segretaria alla Sicurezza nazionale Kristi Noem ha infatti annunciato il lancio dell’app Cbp Home, dotata di una funzione specifica che “offre ai cittadini stranieri la possibilità di andarsene ora e di auto-espellersi, il che darebbe loro l’opportunità di tornare legalmente in futuro e vivere il sogno americano”. Più nel dettaglio, l’applicazione non è altro che la versione completamente rinnovata di Cbp One, un’app promossa dall’amministrazione Biden per agevolare i migranti nel fissare un appuntamento per avviare le pratiche di richiesta di asilo negli Stati Uniti. Ora, invece, con Donald Trump l’applicazione ha preso tutta un’altra forma. Secondo quanto riferito da Newsweek, Cbp Home offre alle persone che si trovano illegalmente nel paese, o a cui è stata revocata la libertà vigilata, la possibilità di comunicare al Dipartimento di Sicurezza Nazionale (DHS) la loro volontà di abbandonare gli Stati Uniti, così da evitare “conseguenze più dure”, come la detenzione o l’allontanamento immediato. Per accertarsi che abbiano davvero abbandonato gli Stati Uniti, l’app chiede una conferma della loro espulsione. “Se non lo faranno, li troveremo, li deporteremo e non torneranno mai più”, ha chiosato la segretaria Noem, facendo riferimento all’attuale legge sull’immigrazione degli Stati Uniti, che può impedire a chi è entrato illegalmente nel paese di rientrarvi entro un periodo di tempo che varia dai tre anni a tutta la vita. La nuova funzione di auto-espulsione di Cbp Home, infatti, fa parte di “una più ampia campagna pubblicitaria nazionale e internazionale da 200 milioni di dollari”, che include annunci radiofonici, televisivi e digitali in diverse lingue per dissuadere i migranti dal mettere piede sul suolo statunitense. In questo modo, Donald Trump spera di mantenere la promessa fatta durante la sua campagna elettorale: attuare “il più grande programma di espulsione nella storia del paese”. Ad aprile dello scorso anno, in un’intervista al TIME, l’allora candidato repubblicano aveva dichiarato la sua intenzione di voler espellere dagli Stati Uniti “dai 15 ai 20 milioni di migranti”. Già dal suo primo giorno come presidente, Trump ha dimostrato di voler onorare quanto promesso. Poche ore dopo il suo insediamento, ha firmato una direttiva per dichiarare l’emergenza migratoria nazionale al confine con il Messico, e ha riattivato il programma “Remain in Mexico”, che costringe i richiedenti asilo a rimanere in Messico in attesa che venga elaborato il loro status di immigrati. Inoltre, coerentemente con le sue promesse elettorali, Trump ha presentato una proposta di legge per eliminare la concessione della cittadinanza automatica ai figli degli immigrati nati negli Stati Uniti. LA TECNOLOGIA PER DIFENDERSI DALLA POLITICA DI TRUMP Con l’intensificarsi delle azioni, politiche e non, messe in campo da Donald Trump per combattere l’immigrazione clandestina, anche i migranti stanno ricorrendo alla tecnologia per sfuggire ai raid delle forze dell’ordine e assicurarsi una permanenza nel paese. Secondo quanto riferito da Newsweek, nelle ultime settimane sta riscuotendo un buon successo SignalSafe, un’app di community reporting usata dai migranti o chi li aiuta per segnalare le operazioni degli agenti federali e della polizia locale. Una piattaforma che dichiara di non voler ostacolare le attività dell’ICE (United States Immigration and Customs Enforcement), ma che ha l’obiettivo di “dare potere alle comunità fornendo ai cittadini uno strumento per segnalare e condividere quello che accade negli spazi pubblici”, come riferiscono gli sviluppatori dell’applicazione, che per il momento hanno preferito mantenere segreta la loro identità.  Proprio allo scopo di “garantire la qualità e l’affidabilità” delle informazioni, SignalSafe utilizza “un’intelligenza artificiale avanzata per filtrare le segnalazioni inappropriate o palesemente false non appena arrivano”, che passano poi al vaglio di moderatori umani, i soli a poterle etichettare come verificate o revisionate. In questo modo gli sviluppatori si assicurano che gli utenti abbiano accesso a informazioni veritiere, che possano aiutarli a “prendere decisioni che proteggano se stessi e gli altri”. Negli ultimi anni, l’ICE è stata fortemente contestata per le sue pratiche che includono, tra le atre cose, l’uso di furgoni neri, passamontagna e incursioni improvvise. Una strategia di intervento che fa paura, e che spinge i migranti a rivolgersi alla tecnologia per cercare di tenere al sicuro famiglie, amici e conoscenti. Non stupisce, quindi, che SignalSafe non sia il solo strumento a cui gli immigrati stanno facendo riferimento per evitare l’espulsione dagli Stati Uniti.  Alla fine del mese di marzo, il Washington Post ha riferito che gli immigrati clandestini stanno facendo un largo uso dei social media per “condividere in tempo reale la posizione di veicoli e agenti dell’ICE”, utilizzando parole in codice come “camioncino dei gelati” per segnalare un furgone nero nei paraggi, così da evitare la censura sulle piattaforme e permettere ai loro coetanei di sfuggire ai controlli delle autorità competenti. Questa strategia, com’è facile immaginare, ha irritato i sostenitori di Donald Trump, che hanno reagito mostrando tutta la loro disapprovazione sui social media. Nelle prime due settimane di marzo, stando ai dati della società di analisi Sprout Social, ci sono state quasi 300.000 menzioni dell’ICE nei contenuti pubblicati su X, Reddit e YouTube (un aumento di oltre cinque volte rispetto allo stesso periodo di febbraio), il che dimostra quanto la questione dell’immigrazione clandestina sia al centro del dibattito pubblico.  In queste settimane i sostenitori di Trump stanno pubblicando decine e decine di segnalazioni false sulle attività dell’ICE, così da alimentare i sentimenti di paura e confusione negli immigrati clandestini che cercano di salvaguardare la loro permanenza negli Stati Uniti. Una strategia che non sempre sembra funzionare. Come riferisce il Washington Post, i migranti preferiscono setacciare i social media alla ricerca delle informazioni giuste piuttosto che incontrare le forze dell’ordine, anche se questo richiede più tempo. E hanno valide ragioni per farlo, considerando che i filotrumpiani non perdono occasione per creare scompiglio. Lo dimostra la storia di People Over Papers, una mappa collaborativa che segnala i presunti avvistamenti dell’ICE in tutto il Paese e che ha ricevuto più di 12.000 segnalazioni da quando è diventata virale su TikTok alla fine dello scorso gennaio. Secondo quanto raccontato da Celeste, fondatore del progetto, dopo che gli account X Libs of TikTok e Wall Street Apes hanno pubblicato un post in cui sostenevano che People Over Papers aiutasse i criminali a eludere le forze dell’ordine, la mappa è stata invasa da decine e decine di segnalazioni false. Eliminate una a una dai volontari che seguono il progetto.  GLI STRUMENTO DI SORVEGLIANZA NELL’IMMIGRAZIONE Se ICERAID e SignalSafe sono due applicazioni che coinvolgono i cittadini in materia di immigrazione clandestina negli Stati Uniti, non va dimenticato che già da qualche tempo il governo utilizza la tecnologia per sorvegliare gli immigrati che non godono di uno status legale nel paese, anche se non sono detenuti in carcere o in altre strutture specializzate, applicando loro strumenti di localizzazione come smartwatch e cavigliere. Nello specifico, secondo quanto riferito dal New York Times, le autorità governative stanno utilizzando l’app SmartLink sviluppata da Geo Group, uno dei più grandi fornitori statunitensi in ambito penitenziario, per monitorare la posizione dei clandestini identificati dall’ICE. Grazie al programma “Alternative to detection”, questi possono continuare a vivere nel paese, purché segnalino alle forze dell’ordine la loro posizione attraverso l’applicazione quando richiesto, semplicemente scattandosi un selfie e caricandolo in-app.  Un metodo di sorveglianza imvasivo, il cui uso sembra essere cambiato radicalmente con l’arrivo di Donald Trump alla Casa Bianca. Già dai primi mesi del suo mandato, infatti, l’app sembra sia stata usata per comunicare all’ICE la posizione degli immigrati, facilitandone così l’arresto. Secondo il Dipartimento di Sicurezza Nazionale, nei primi 50 giorni di mandato del nuovo presidente sono infatti stati arrestati più di 30.000 immigrati.  Non c’è da stupirsi, quindi, che Geo Group sia la compagnia che ha ricevuto più finanziamenti governativi di ogni altra. O che le politiche di immigrazione del presidente degli Stati Uniti abbiano fatto impennare il valore delle sue azioni sul mercato. Eppure, nonostante i sostenitori di Trump abbiano elogiato e supportato in ogni modo possibile questa tecnologia, gli esperti di sicurezza ne hanno criticato aspramente l’uso. “Il governo la presenta come un’alternativa alla detenzione”, ha dichiarato Noor Zafar, avvocato senior dell’American Civil Liberties Union, un’organizzazione non governativa per la difesa dei diritti civili e delle libertà individuali negli Stati Uniti. “Ma noi la vediamo come un’espansione della detenzione”. L'articolo Nell’era Trump, la lotta ai migranti passa anche dalle app proviene da Guerre di Rete.
Amore sintetico, come l’AI sta cambiando il mercato delle sex dolls
Immagine in evidenza: “Computer generated image of a human body” di Allison Saeng, acquisita da Unsplash+, licenza Unsplash+, riproduzione riservata Non è raro che vengano scambiate per cadaveri. Abbandonate sulla riva di un fiume, trascinate dalle onde fino a una spiaggia o infilate dentro un trolley. Negli ultimi anni le sex dolls, bambole per adulti create per l’intrattenimento sessuale, hanno generato più di un falso allarme in tutto il mondo. Tra la prima e la seconda ondata di Covid-19 in Giappone, due di queste bambole sono state scambiate per donne annegate. Episodi simili si sono verificati nel Regno Unito, dove una è riaffiorata nel fiume Trent, e in Australia, nel Queensland. In Nuova Zelanda, una donna che passeggiava con il cane a Tapuae Beach ha chiamato la polizia credendo di aver trovato un cadavere nudo e senza testa.  Anche in Italia, nei boschi delle Manie vicino a Finale Ligure, due turisti hanno scambiato per un corpo umano una gamba che spuntava da un trolley abbandonato. In nessuno di questi casi si trattava di una persona reale. A quanto pare, i produttori di sex dolls stanno quindi vincendo la sfida (finora) più ambiziosa: quella con il realismo. Il mondo dei sex toys non è affatto uno sfizio per pochi. È un settore in piena espansione, con numeri che parlano chiaro. Le stime internazionali descrivono un mercato globale da 2,5 miliardi di dollari, destinato a raddoppiare entro il 2033. Come altri giocattoli sessuali, anche le sex dolls sono sempre più normalizzate: i tempi sono cambiati, e i discorsi su sessualità e solitudine, almeno nelle grandi città, sono ormai entrati nel dibattito pubblico. Questo cambiamento culturale ha spinto aziende di tutto il mondo a dedicarsi al settore, investendo nel miglioramento dei prodotti a partire dal materiale, che viene comunemente definito silicone iper realistico.  SOGNI ELETTRICI, DESIDERI UMANI La pandemia non ha fatto solo la fortuna delle grandi aziende tecnologiche: quelle produttrici di sex dolls hanno infatti vissuto un momento d’oro, che ne ha decretato l’entrata sul mercato mondiale. L’isolamento e il distanziamento sociale hanno spinto gli acquisti online anche in questo ambito, per via della discrezione che garantiscono agli utenti. La crescita è stata talmente improvvisa ed elevata che alcune aziende hanno dovuto adattare la produzione per far fronte alla domanda. Un esempio è la Libo Technology di Shandong, in Cina, che nel 2020 ha aumentato il personale addetto alla produzione di sex dolls del 25%, assumendo 400 lavoratori. La responsabile per le vendite estere, Violet Du, ha dichiarato al South China Morning Post che le linee di produzione erano attive 24 ore su 24 e che i dipendenti facevano doppi turni. La Aibei Sex Dolls Company di Dongguan, sempre in Cina, si è trovata a rifiutare ordini a causa dell’eccessivo numero di richieste.  Come è facile intuire, il paese del dragone è leader nella produzione di queste bambole per via dei bassi costi di produzione e di esportazioni vantaggiose verso l’Occidente. Le grandi fabbriche riescono a produrre circa 2.000 unità al mese, mentre quelle più piccole arrivano a una media di 300-500 bambole, come dichiarato dal direttore generale della Aibei. Sebbene, a causa del conservatorismo culturale, in Cina il mercato delle sex dolls rimanga di nicchia, negli Stati Uniti e in Europa è invece in forte espansione, con guadagni significativi. Nel Vecchio continente le stime più aggiornate parlano di un mercato che oscilla tra i 400 e i 600 milioni di dollari nel 2023. Tra i mercati di importazione più attivi ci sono Francia, Regno Unito, Paesi Bassi e anche l’Italia. Nel 2021, La Stampa riportava un aumento del 148% nelle vendite di sex toys cinesi nel nostro Paese, incluse le sex dolls.  Nel 2022, un rivenditore di bambole statunitensi RealDoll ha aperto un negozio fisico nella periferia romana. Accompagnato da un e-commerce attivo già dal 2020, lo spazio fisico “nasce per offrire ai clienti la possibilità di vedere e toccare con mano i prodotti, considerando anche il costo elevato che hanno” spiega il proprietario a Guerre di Rete. Il negozio offre un servizio completo, consentendo ai clienti non solo di osservare, ma anche di toccare le bambole. “Il 60% dei nostri clienti sono uomini in una relazione stabile”, continua il proprietario, aggiungendo che “si tratta spesso di coppie alla ricerca di un elemento di novità nella loro intimità”. Tuttavia, ci sono anche altri tipi di clienti: “L’altro 30% è rappresentato da uomini separati, che si sentono soli e cercano affetto. Vogliono tornare a casa e trovare qualcuno ad aspettarli”. La parte rimanente comprende persone introverse, ma anche appassionati di fotografia, registi e proprietari di locali. Per quanto riguarda l’AI, il proprietario spiega che “oltre a quella che stanno introducendo i produttori cinesi, internamente stiamo sviluppando un device mobile simile ad Alexa, che renderà le bambole capaci di interagire con il proprietario”. COSTRUITE PER AMARE, PROGRAMMATE PER IMPARARE  Essendo ormai ovunque, l’intelligenza artificiale non poteva mancare nemmeno nel mondo delle bambole sessuali, garantendo oltre all’intrattenimento anche l’interazione. È un’innovazione ancora recente, ma che sta cambiando radicalmente il settore. In una sfida globale degna delle grandi potenze, anche in questo campo Stati Uniti e Cina si contendono il primato. Da una parte RealDoll, azienda americana, dall’altra la cinese WMDoll: entrambe hanno cominciato a integrare funzionalità di AI tra il 2016 e il 2017. I primi modelli offrivano movimenti di occhi, testa e altre parti del corpo, accompagnati da una capacità di risposta vocale piuttosto limitata. Più che vere conversazioni, si trattava di semplici repliche a domande preimpostate da parte dell’utente. Lo sviluppo è stato inizialmente lento, come ha spiegato Liu Ding, product manager di WMDoll, che attribuisce la causa anche alla scarsa volontà di investire nell’intelligenza artificiale applicata ai prodotti per adulti. Ma nel 2024 lo scenario è cambiato: l’azienda cinese ha compiuto un deciso passo avanti con il lancio della serie MetaBox, che ha rivoluzionato anche il resto del mercato. Le nuove bambole, equipaggiate con modelli linguistici open source di grandi dimensioni (LLM) come Llama di Meta, offrono un’interazione molto più avanzata, consentendo all’utente di scegliere tra diverse “personalità” delle bambole. Queste ultime sono inoltre in grado di sostenere conversazioni (perlopiù in inglese) anche a distanza di giorni, ricordando quanto detto in precedenza. Questa funzione, tuttavia, richiede una connessione costante ai server cloud e una fonte continua di energia elettrica, mettendo in evidenza uno degli aspetti attualmente più critici dell’AI: il suo elevato consumo energetico. Inoltre, WMDoll sta sviluppando collane, braccialetti, anelli e altri dispositivi pensati per connettere anche i modelli precedenti con il loro proprietario. Display "New Metabox AI Feature From WM Doll" from YouTube Click here to display content from YouTube. Learn more in YouTube’s privacy policy. Mostra sempre i contenuti da YouTube Open "New Metabox AI Feature From WM Doll" directly Nel 2017 la compagnia americana RealDoll ha invece lanciato Harmony, progettata per interagire con gli utenti tramite una combinazione di software di riconoscimento vocale e chatbot, che le permette di dare risposte personalizzate e di simulare conversazioni. “È dotata di un sistema cranico modulare con molteplici punti di attuazione, che consente alla bambola di assumere espressioni, muovere la testa e parlare con te. Anche gli occhi possono muoversi e sbattere le palpebre, creando un’esperienza mai vista prima con una bambola” si legge sul sito. Nella sua evoluzione più recente, Harmony X, RealDoll ha cercato di offrire un servizio sempre più immersivo e realistico, andando oltre l’aspetto fisico della bambola e includendo l’interazione emotiva e psicologica. Una bambola “progettata per funzionare con il software di intelligenza artificiale personalizzabile ‘X-Mode’, che ti permette di creare personalità uniche e controllare la voce del tuo robot”. Al di là dei gusti, il costo rimane un argomento spinoso. Soprattutto se integrate con l’AI, le sex dolls sono al momento appannaggio di pochi. Per gli utenti che vogliono interagire con una bambola sessuale RealDoll, il cui costo a figura intera è di 4.000 dollari, c’è da aggiungere un ulteriore abbonamento mensile di 40 dollari al mese (580 l’anno). Mentre la versione cinese è più economica: con alcune variazioni di dimensioni e materiali, la bambola con AI di WMDolls si aggira sui 1.900 dollari. Mentre l’industria delle sex dolls entra in una nuova fase, alimentata dall’intelligenza artificiale e da tecnologie sempre più sofisticate, emergono interrogativi etici e legali che non possono essere ignorati. L’episodio che ha coinvolto la modella israeliana Yael Cohen Aris, che nel 2019 ha scoperto come l’azienda cinese Iron Dolls avesse usato il suo volto e nome per una delle sue sex dolls, mette in luce i rischi di un mercato dell’intrattenimento sessuale in cui l’identità e il consenso all’uso della propria immagine possono facilmente essere violati. Il mercato delle sex dolls fa però emergere qualcosa di più profondo. Le nuove bambole AI, sempre più capaci di dialogare, ricordare e assumere personalità differenti, stanno dando forma a un’idea fantascientifica: l’amore programmabile. Come in Her o Ex Machina, non c’è solo l’interazione umana con un software, ma la proiezione di desideri, paure e bisogni in una presenza artificiale che sembra restituire qualcosa di autentico. Forse, nel silenzio sintetico delle nuove companion, l’utente non troverà una “risposta”, ma solo un altro modo – programmato e prevedibile – di esplorare le domande più umane. L'articolo Amore sintetico, come l’AI sta cambiando il mercato delle sex dolls proviene da Guerre di Rete.
Il futuro dei computer è fotonico
Immagine in evidenza da Mohammad Honarmand su Unsplash Per decenni, lo sviluppo delle tecnologie informatiche è stato scandito dalla legge di Moore, che ha previsto – e per certi versi guidato – il raddoppio della densità dei transistor ogni due anni, alimentando la crescita esponenziale della potenza di calcolo e la diminuzione dei costi di produzione dei chip. Tuttavia, il ritmo di miniaturizzazione dei componenti elettronici mostra oggi segni di rallentamento, con i limiti fisici e termici dei semiconduttori in silicio che divengono ogni anno più stringenti. Uno dei principali ostacoli è rappresentato dagli effetti quantistici che emergono quando le distanze tra i transistor raggiungono dimensioni di pochi nanometri. A queste scale, gli elettroni possono attraversare barriere isolanti che, secondo la fisica classica, dovrebbero essere invalicabili, causando dispersioni di corrente e malfunzionamenti dei circuiti. Inoltre, il controllo preciso dei singoli elettroni diventa sempre più difficile, compromettendo l’affidabilità dei dispositivi. È in questo contesto che, negli ultimi anni, ha (ri)preso vita la ricerca nell’ambito della computazione fotonica (o ottica): un paradigma di calcolo alternativo che cerca di ripensare i processi fisici alla base del funzionamento dei computer. Invece di usare elettroni che si muovono all’interno di circuiti di silicio – come avviene nei computer tradizionali – la computazione fotonica utilizza fotoni, ovvero particelle (quanti) di luce. A differenza degli elettroni, i fotoni non hanno massa, non generano calore quando viaggiano nei circuiti e possono muoversi a velocità vicine a quelle della luce. Questo significa che, in teoria, un computer fotonico potrebbe essere molto più veloce e molto più efficiente, in termini di consumi, di un computer tradizionale. In un mondo che consuma sempre più energia a scopi di calcolo, non si tratta di un dettaglio banale. Ovviamente, tra il dire e il fare c’è di mezzo il mare. Per prima cosa bisogna riuscire a progettare e a produrre circuiti che riescano a indirizzare i fotoni in modo preciso, quasi fossero sentieri di luce. Inoltre, bisogna trovare il modo di fare interagire i fotoni tra loro poiché, per loro natura, essi non interagiscono come fanno invece gli elettroni nei transistor. Essendo privi di carica elettrica, i fotoni tendono a passare gli uni accanto agli altri senza “notarsi”. Questo rende molto difficile implementare la logica booleana alla base dell’informatica, la quale si fonda su una forma di controllo o modifica del comportamento di un segnale in base alla presenza di un altro (1 o 0; 0 o 1). Computazione fotonica e computazione quantistica Il tema della traducibilità e della coerenza del segnale è uno dei problemi che la computazione fotonica condivide, seppure con grosse differenze fisiche di base, con l’altra branca della computazione sperimentale: la quantistica. Tuttavia va specificato come i due campi siano essenzialmente distinti: mentre la computazione quantistica mira a rivoluzionare i fondamenti logici del calcolo attraverso effetti quantistici come l’entaglement, l’interferenza o la sovrapposizione, la fotonica punta “semplicemente” ad aumentare la rapidità e l’efficienza del calcolo attuale. Vi sono, inoltre, sperimentazioni in cui la computazione quantistica viene implementata attraverso fotoni entangled, in una forma ibrida di quantum photonics Per tutte queste ragioni, la computazione fotonica è più di una semplice evoluzione tecnica e rappresenta, per il momento, ancora una frontiera. Non è detto che sarà conquistata o che sarà quella definitiva, né che sostituirà in toto i modelli attuali. Ma è una delle vie più promettenti per dare risposta al bisogno – sempre più urgente – di ripensare l’infrastruttura materiale su cui si regge la civiltà digitale. FRONTIERA O INTERREGNO? L’idea di utilizzare la luce per elaborare informazioni non è nuova: se ne discute sin dagli anni Settanta. Ma è solo negli ultimi anni, sulla scorta della pressione esercitata dalla crisi della microelettronica tradizionale, che il campo ha cominciato a strutturarsi come un vero e proprio settore tecnologico, attirando finanziamenti e interesse da parte dei grandi operatori del digitale. Una delle aziende più promettenti è Lightmatter. Fondata nel 2017 da tre studenti dell’MIT, nel 2024 ha raccolto 400 milioni di dollari in un quarto round di finanziamenti, raggiungendo una valutazione di 4,4 miliardi di dollari. I prototipi più recenti di Lightmatter combinano moduli ottici e moduli elettronici, creando sistemi di computazione ibridi in cui le interconnessioni tra i diversi dispositivi hardware sono affidate a fotoni anziché elettroni, risolvendo così alcuni problemi specifici del calcolo parallelo con benefici anche  nell’addestramento dei modelli di intelligenza artificiale.  Un’altra startup degna di nota è Ayar Labs, con sede nella Silicon Valley. Nata come spin-off di un progetto congiunto tra il MIT e l’Università di Berkeley, Ayar Labs si è specializzata nell’integrazione di connessioni ottiche direttamente all’interno dei chip, con l’obiettivo di eliminare le limitazioni imposte dai collegamenti elettrici tradizionali.  La loro tecnologia di interconnessione ottica permette una trasmissione dati ultraveloce tra processori, acceleratori e moduli di memoria, riducendo drasticamente la latenza e il consumo energetico delle “very large scale integrations” utilizzate per il calcolo delle AI. Negli ultimi due anni, Ayar Labs ha attirato investimenti e firmato partnership strategiche con alcuni dei nomi più importanti dell’industria dei semiconduttori: da Intel a NVIDIA, da AMD a GlobalFoundries. Ci sono poi aziende che stanno puntando direttamente al bersaglio più grosso: non una simbiosi tra hardware fotonici ed elettrici, ma veri e propri sistemi di computazione ottica al 100%.  Mentre la fotonica del silicio è oggi impiegata principalmente per realizzare interconnessioni ottiche, cioè per trasportare informazioni tra moduli elettronici, il calcolo ottico punta invece a processare direttamente quei dati attraverso la luce.  Per ora, il campo resta limitato a poche operazioni matematiche molto specifiche, le quali però rappresentano oltre il 90% dei compiti di inferenza svolti da una rete neurale. In altre parole: se si riuscisse a sviluppare il calcolo ottico, si otterrebbe una soluzione hardware altamente ottimizzata per i grandi modelli linguistici e generativi, come quelli dietro a ChatGPT.  Un tentativo in questa direzione lo ha compiuto Lightelligence, un’altra startup USA nata da ambienti accademici, che nel 2021 ha presentato PACE (Photonic Arithmetic Computing Engine), un prototipo in grado di fornire – secondo le stime della stessa startup – performance fino a 100 volte superiori a quelle delle GPU più avanzate di allora. Se simili prototipi si tradurranno in realtà resta da vedere. Ma che un numero crescente di aziende e di fondi stia scommettendo sulla luce come nuovo vettore del calcolo è ormai un dato di fatto. Tuttavia, come spesso accade con le tecnologie emergenti, l’entusiasmo della finanza si scontra con il realismo dell’industria. La sfida, infatti, non è tanto dimostrare che la computazione fotonica possa “funzionare”, quanto renderla scalabile. Integrare su un singolo chip milioni di componenti ottici, garantendo al tempo stesso precisione, compatibilità con i sistemi esistenti e bassi costi di produzione, è un’impresa che richiede una supply chain tecnologica complessa e in gran parte da costruire. Di conseguenza, la computazione fotonica esiste oggi in una sorta di interregno tecnologico: troppo promettente per essere ignorata, troppo immatura per essere adottata, al di là di pochi specifici casi. CYBERSICUREZZA E GEOPOLITICA Nel campo della microelettronica, decenni di ricerca hanno portato allo sviluppo di protocolli di protezione contro le forme più note di attacco informatico. Con l’avvento della computazione fotonica, questo patrimonio non può essere semplicemente trasferito. I circuiti fotonici aprono quindi scenari e vulnerabilità inedite. Per esempio, l’interconnessione tra chip di tipo elettrico-ottico – come quella proposta da Lightmatter – moltiplica le occasioni d’attacco potenziali: ogni collegamento ibrido diventa, in teoria, una nuova porta d’accesso per attacchi altrettanto ibridi. Il fatto che i sistemi fotonici possano trasmettere dati a velocità e volumi impensabili pone inoltre ulteriori problemi, rendendo necessario ripensare da zero l’intera architettura della sicurezza informatica, sviluppando protocolli capaci di monitorare, interpretare e, se necessario, bloccare flussi di informazioni che si muovono alla velocità della luce. In questo nuovo contesto, anche i tradizionali strumenti di rilevamento – come i firewall o i sistemi anti-intrusione – rischiano di risultare inadeguati, non solo per limiti di velocità, ma anche per l’assenza di standard consolidati a cui riferirsi.  La stessa complessità dei componenti ottici rischia inoltre di impattare sull’affidabilità dei processi di testing a cui normalmente è sottoposto l’ hardware usato per la  computazione. Ciò aumenta il rischio che eventuali anomalie non vengano rilevate, finendo poi per aprire falle e vulnerabilità nei sistemi in cui i componenti ottici vengono integrati. Per tutte queste ragioni, mentre le giovani aziende del settore proseguono nella ricerca e nell’implementazione di nuovi strumenti di calcolo basati sulla fotonica, mancano ancora le cornici adeguate a inquadrare con precisione i limiti di questa nuova tecnologia. Non è ovviamente un tema da poco, specie se consideriamo che chi riuscirà a influenzare la regolamentazione della computazione fotonica influenzerà anche una porzione significativa del futuro del calcolo. Il che ci porta dritti al cuore delle implicazioni geopolitiche della questione. Come già è accaduto per l’intelligenza artificiale e i semiconduttori avanzati, la competizione fotonica rischia di trasformarsi in un nuovo terreno di scontro sistemico tra Cina e Stati Uniti. La computazione fotonica potrebbe  infatti offrire alla Cina una via di fuga tecnologica dalle restrizioni recentemente imposte dagli USA per rallentare lo sviluppo tecnologico di Pechino. Per utilizzare una formula in voga nel discorso politico-economico cinese, la fotonica potrebbe consentire di “cambiare corsia ed effettuare il sorpasso”.  Dal punto di vista cinese, due qualità della computazione fotonica appaiono particolarmente interessanti. La prima è che la produzione di hardware ottici non richiede l’utilizzo di macchinari di produzione litografici avanzati, a cui la Cina non ha accesso a causa delle restrizioni USA. La seconda è che, aumentando la velocità e l’efficienza delle interconnessioni, la computazione fotonica potrebbe in teoria permettere di sviluppare integrazioni hardware per AI avanzate senza il bisogno di utilizzare chip di ultima generazione, ugualmente sotto embargo americano.   Del tema si è interessato personalmente lo stesso Xi Jinping che, nel 2023, ha presieduto un incontro del Politburo sul tema. Vi ha partecipato anche il rettore dell’Università di Pechino, Gong Qihuang, un fisico con notevole esperienza nel campo delle applicazioni all’intelligenza artificiale della computazione fotonica (che è stata inoltre menzionata esplicitamente nel 14esimo piano quinquennale per lo sviluppo della Cina, relativo al periodo 2021-2025). Constatato tutto questo, non sorprende che il governo americano abbia iniziato a trattare la ricerca fotonica non solo come un tema di innovazione, ma come una questione di sicurezza nazionale. Non è un caso che importanti entità della difesa americana, così come l’agenzia DARPA, abbiano intensificato negli ultimi anni gli investimenti in startup e centri di ricerca attivi sul fronte della fotonica.  Il focus non è solo sull’efficienza o sulla scalabilità, ma anche sulla resilienza: costruire sistemi ottici che siano difficili da sabotare, da intercettare, da replicare. La fotonica viene così inscritta nella più ampia strategia di technological containment con cui gli Stati Uniti cercano di difendere la propria centralità nell’ordine digitale globale. L'articolo Il futuro dei computer è fotonico proviene da Guerre di Rete.
L’invasione dei robot domestici è ancora lontana
Immagine in evidenza: “Sprung a Leak” di Cécile Evans, Haus der Kunst di Monaco, da Wikimedia Che i robot sarebbero definitivamente entrati nelle nostre case è diventato chiaro nel 2008. Quell’anno la società iRobot – fondata nel 1990 da tre ricercatori in robotica del MIT di Boston: Rodney Brooks, Colin Angle e Helen Greiner – annunciò infatti che il robot aspirapolvere Roomba aveva raggiunto i 2,5 milioni di esemplari venduti nel mondo. Sul finire del primo decennio del nuovo millennio, si assistette insomma a un cambiamento epocale: milioni di abitazioni domestiche, al tempo soprattutto negli Stati Uniti, iniziarono a essere popolate da robot in grado di muoversi in autonomia per le nostre case, imparando a navigarle con efficacia sempre maggiore ed entrando per certi versi a far parte dei nuclei familiari. Non è un modo di dire: “Numerosi studi hanno dimostrato che gli umani sono disposti a provare emozioni nei confronti di tutto ciò che si muove”, racconta sul New Yorker Patricia Marx, scrittrice e docente a Princeton. “Di conseguenza, non mi dovrei sorprendere di essere accorsa a liberare il mio Roomba quando si è incastrato sotto il divano. E di essermi sentita in colpa quando le sue ruote si sono incastrate a causa di un filo che aveva raccolto”. In poche parole, attraverso il Roomba e simili robot domestici almeno una parte di esseri umani ha iniziato a provare una sensazione inedita: l’affezione (e l’apprensione) nei confronti di esseri artificiali. Com’è possibile? “Conosco molte storie a riguardo”, mi aveva spiegato nel corso di un’intervista proprio Colin Angle. “Le persone acquistano un robot per le pulizie, lo portano a casa e lo accendono. E lo osservano mentre si muove per casa, in autonomia, lavorando per loro. È la stessa natura umana, il modo in cui il nostro cervello è configurato, che ci spinge a considerare ciò che si muove per conto proprio come se fosse vivo. E infatti la stragrande maggioranza delle persone che hanno una macchina di questo tipo finisce per dargli un nome. Potrebbe anche essere una nuova definizione di robot: una macchina a cui sentiamo di dover dare un nome perché lo percepiamo vivo”. I dati confermano che, effettivamente, la maggior parte dei proprietari di Roomba (o degli altri robot da casa che si sono nel frattempo diffusi) fornisce loro un nome proprio, come se fosse un animale domestico. Di compagni artificiali, d’altra parte, è ormai pieno il mondo: nel solo 2023 sono stati venduti circa 23 milioni di robot per la casa, portando le vendite cumulative poco al di sotto dei 100 milioni complessivi. Gli ultimi anni non sono però stati dei più facili per i robot. Nonostante il successo del Roomba e la crescita dei concorrenti (Roborock, Ecovacs o Dreame, tutti di fabbricazione cinese), non si è assistito a quella moltiplicazione di robot specializzati che si pensava si sarebbero presi cura di ogni aspetto domestico. Al contrario, l’unico altro aiutante robotico che si è parzialmente diffuso è il parente più prossimo del Roomba (anche dal punto di vista del design): il robot tagliaerba. A oltre vent’anni dall’introduzione del Roomba (avvenuta nel 2002) e mentre iRobot, l’azienda simbolo della rivoluzione robotica, è alle prese con parecchie difficoltà finanziarie (causate dall’aumento della concorrenza, dalla mancata acquisizione da parte di Amazon e soprattutto dallo scarso successo degli altri modelli), sembra insomma che l’evoluzione dei collaboratori domestici artificiali si sia fermata. Ancora oggi, i robot aspirapolvere rappresentano oltre il 70% del mercato, mentre molti altri prodotti sono andati incontro al fallimento: i robot tagliaerba, come detto, sono il secondo segmento più diffuso, ma con volumi di vendita molto inferiori. Altri dispositivi – come i robot da cucina, quelli piega-bucato (FoldiMate, Laundroid) o gli assistenti umanoidi – sono stati abbandonati prima del lancio o sono rimasti prototipi a causa dello scarso interesse commerciale. Laundroid, per esempio, ha chiuso nel 2020 dopo anni di hype e investimenti, mentre FoldiMate è stato ritirato prima della commercializzazione. I robot da cucina multifunzione, come il Thermomix, pur essendo molto diffusi, non sono considerabili robot in senso stretto: mancano infatti di mobilità e autonomia. Ed è probabilmente anche alla luce dei tanti fallimenti che, negli ultimi anni, hanno iniziato a farsi largo numerose nuove startup, che stanno ripensando il settore da zero, approfittando dei progressi nel campo della robotica e dell’intelligenza artificiale. E quindi, qual è il futuro dei robot domestici? Prima di tutto, bisogna dare una definizione di “robot domestici”. Secondo la società di ricerca Global Market Insights, un robot domestico è uno strumento che, “utilizzando l’intelligenza artificiale, percepisce e interagisce con l’ambiente circostante, eseguendo dei compiti autonomamente e adattandosi alle preferenze dell’utente”. Questa definizione ci dice però poco di un aspetto cruciale: il robot in questione è tuttofare o specialistico? È un robot in grado di compiere molteplici mansioni o è addestrato per eseguire un solo compito ben definito (pulire i pavimenti o tagliare l’erba)? Fino a questo momento, come detto, il panorama commerciale è stato dominato da quest’ultimo tipo di robot, che però – segnala sempre Global Market Insights – “manca della versatilità necessaria ad affrontare un’ampia gamma di faccende domestiche. Inoltre, questi robot possono avere difficoltà con compiti complessi che richiedono destrezza e capacità di giudizio simili a quelle umane, come piegare il bucato o preparare i pasti”. Se non bastasse, pochi di noi possono permettersi (anche per ragioni di spazio) di ospitare un robot aspirapolvere, uno che pulisce i pavimenti, uno che cucina, uno che piega i vestiti, ecc. Ed è anche per questo che, come ha spiegato al Boston Globe Fady Saad (fondatore di Cybernetix Ventures), “abbiamo visto tantissimi fallimenti nella robotica di consumo e molti dei tentativi di iRobot di creare ulteriori prodotti rispetto al Roomba non hanno avuto successo”. LA STRADA IN SALITA DEL ROBOT TUTTOFARE Allo stesso tempo, l’idea di creare un robot domestico multitasking, in grado quindi di svolgere molteplici mansioni, è incredibilmente complessa: raccogliere la polvere richiede caratteristiche totalmente diverse rispetto a piegare i vestiti o caricare la lavastoviglie. E se bastasse modificarli e riadattarli per permettere loro di portare a termine un numero maggiore di mansioni? “I robot specializzati sono percepiti come dispositivi limitati e adatti a un solo compito”, ha spiegato alla BBC Yoshiaki Shiokawa, ricercatore dell’università di Bath. “Penso che ci siano forti indicazioni che questi robot siano invece sotto-utilizzati”. Per dimostrare la sua tesi, Shiokawa e alcuni suoi colleghi dell’Advanced Interaction and Sensing Lab hanno riadattato un normale Roomba in modo che fosse in grado di annaffiare le piante, caricare il cellulare (e seguire il suo padrone affinché l’avesse sempre a portata di mano), trasportare la spesa dalla macchina alla cucina e anche… giocare con il gatto (anche se è più probabile che sia stato il gatto a compiere questa scelta). Per quanto si sia trattato soltanto di una sperimentazione, lo studio eseguito all’università di Bath indica una possibile strada da seguire, che non implica necessariamente la trasformazione dei robot, ma semmai un ampliamento delle funzionalità praticabili con minime modifiche a livello di design e caratteristiche. Eppure, mano a mano che la ricerca sulla robotica va nella direzione di un assistente domestico tuttofare, sembra quasi inevitabile – a giudicare dai vari prototipi emersi negli ultimi anni – che questo prenda una forma umanoide, dotata di gambe, braccia e anche torso e testa. “Le aziende stanno scommettendo sulla capacità dei robot di fronteggiare una serie più ampia di compiti imitando il modo in cui le persone camminano, si piegano, raggiungono gli oggetti, li afferrano e più generalmente portano a termine le loro mansioni”, si legge sul New York Times. “Poiché le case, gli uffici e i magazzini sono già stati costruiti per gli esseri umani, gli umanoidi sarebbero meglio equipaggiati per navigare il mondo rispetto a ogni altro robot”. Gli esempi non mancano: Optimus di Tesla, H1 e G1 della cinese Unitree o il chiacchieratissimo Neo di X1 (azienda norvegese). Se giudicassimo dai video aziendali caricati su YouTube e su TikTok – che mostrano questi robot umanoidi muoversi agilmente per casa, stirare, afferrare una bibita dal frigorifero e portarla al proprietario, portare fuori il cane e addirittura eseguire balli coreografati – penseremmo che il futuro dei robot domestici sia già diventato realtà. Le cose, in realtà, sono molto diverse. A dimostrarlo è stato un video pubblicato dall’influencer cinese Zhang Genyuan, che dopo aver noleggiato un G1 di Unitree al prezzo di 1.400 dollari al giorno ha mostrato come questo robot combinasse un sacco di danni nel tentativo di dargli una mano in cucina, rompendo le uova e rovesciando ovunque il latte. Forse anche in seguito a questa pubblica umiliazione, Unitree Robotics ha annunciato che, per il momento, non lancerà sul mercato robot umanoidi, segnalando inoltre l’ostacolo – ancora da superare – delle stringenti misure di sicurezza necessarie. “Non è facile prevedere quanto tempo ancora ci vorrà, ma penso che non avverrà prima di altri due o tre anni”, ha spiegato ai giornalisti il cofondatore di Unitree, Wang Xinjing, lo scorso aprile. E poi c’è il flop di Optimus, il robot di Tesla che – stando alle solite irrealizzabili promesse di Elon Musk – avrebbe già dovuto essere in produzione, arrivando alla consegna di 5mila esemplari entro il 2025. In realtà, Optimus è lontanissimo dalla fase di produzione e non è nemmeno chiaro se mai lo sarà: nell’aprile 2025 sono stati pubblicati dei video in cui si vede Optimus camminare in linea retta (qualcosa che era già stato fatto dal robot Wabot-1 nel 1972), ma al momento non si sa nulla di più dei destini commerciali del robot Tesla. Il punto, come segnala Wired,  è che “nonostante gli incredibili progressi degli ultimi anni, nessuno ha ancora capito come rendere questi robot realmente abili o intelligenti”. I robot di oggi possono essere autonomi soltanto se svolgono un compito semplice e ben circoscritto; mentre se si occupano di faccende più complesse – come quelli utilizzati e ormai molto diffusi nelle fabbriche e nei magazzini – devono essere attentamente programmati ed eseguire movimenti definiti con la massima precisione, senza alcuna autonomia. LA SCOMMESSA FINANZIARIA Malgrado questa situazione di stallo, gli analisti si aspettano che il mercato dei robot domestici cresca del 20% annuo da qui al 2032, passando dai 10 miliardi di dollari del 2023 ai 53 miliardi previsti per i primi anni del prossimo decennio. Com’è possibile, considerando la situazione di stallo in cui questo settore attualmente si trova? Come spesso capita nel mondo dell’innovazione tecnologica, l’obiettivo è riversare nella robotica domestica un tale fiume di denaro da permettere di superare tutti gli ostacoli attualmente presenti, dando vita a una sorta di profezia che si autoavvera (grazie alla potenza finanziaria degli investitori). Secondo PitchBook, dal 2015 a oggi gli investitori hanno finanziato oltre 50 startup che si occupano di robot umanoidi con 7,2 miliardi di dollari. Solo lo scorso anno gli investimenti hanno superato 1,6 miliardi, senza includere i soldi che Elon Musk ha sicuramente investito nel già citato Optimus. “Temo che si sia giunti al picco dell’hype”, ha spiegato, parlando con la MIT Tech Review, Leila Takayama, vicepresidente della società di robotica RobustAI. “È in corso una battaglia tra tutte le Big Tech, che devono ostentare e mostrare ciò che sono in grado di fare, promettendo di poter presto fare ancora di meglio”. ROBOT UMANOIDI: IL JOLLY DELL’INTEGRAZIONE COI MODELLI LINGUISTICI Ed è proprio per (provare a) soddisfare le aspettative degli investitori che tantissime startup stanno insistendo sulla strada dei robot umanoidi, nonostante le evidenti difficoltà, i fallimenti e le cautele mostrate anche dai colossi del settore (come la già citata Unitree). Una di queste è Shenzhen Dobot, che dovrebbe commercializzare il suo robot Dobot Atom entro la fine dell’anno al prezzo di circa 30mila euro. E che cosa si ottiene per un prezzo del genere? Nel video di presentazione – in cui è molto probabile che Atom fosse manovrato da remoto, come avviene quasi sempre nei materiali promozionali – lo si vede preparare goffamente la colazione, portare un pacco in ufficio e poco altro. Un po’ poco per una cifra del genere, no? La realtà è che le tantissime startup che stanno lavorando ai robot assistenti umanoidi – tra le altre: FigureAI (valutata 2,6 miliardi di dollari), Cobot (460 milioni), 1X (210 milioni), Sanctuary AI (229 milioni), Plus One (170 milioni) – sono ancora lontanissime dalla commercializzazione a prezzi accessibili di un robot realmente tuttofare. Per lo meno, sembrano però avere le idee chiare su quale sia la strada da seguire per raggiungere questa nuova “next big thing” del mondo tecnologico: l’integrazione dei robot con i large language model, che dovrebbero aiutare i robot a comprendere i comandi espressi in linguaggio naturale (input) e poi elaborarli al fine di trasformarli in un’azione concreta (output). Un esempio di come tutto ciò potrebbe funzionare proviene da Gemini Robotics: i modelli d’intelligenza artificiale sviluppati da Google per il mondo della robotica, basati su Gemini (il large language model di Google) e definiti come “modelli avanzati visione-linguaggio-azione”. Come si legge su Spectrum, “Gemini Robotics può ricevere tutti gli input e restituire istruzioni per azioni fisiche da parte di un robot”. In un video dimostrativo, un ingegnere spiega al robot usato nel laboratorio di “prendere il pallone da basket e schiacciarlo a canestro” (minuto 2:27 nel video qui sotto). Dopo aver ricevuto il comando, il braccio robotico afferra una palla da basket in miniatura e la deposita nel mini-canestro. Display "Gemini Robotics" from YouTube Click here to display content from YouTube. Learn more in YouTube’s privacy policy. Mostra sempre i contenuti da YouTube Open "Gemini Robotics" directly Come spiega la voce narrante nel video, “è un compito per il quale il robot non è mai stato addestrato”, così come gli oggetti che manovra “non erano mai stati visti prima, ma sfruttando la comprensione di concetti come ‘basket’ o ‘schiacciata’ di Gemini il computer ha comunque compreso il compito”. “Questo esempio del basket è uno dei miei preferiti: il robot è stato in grado di collegare questi concetti per portare a termine il compito nel mondo fisico”, ha dichiarato Kanishka Rao, responsabile ingegneristico del progetto, durante una conferenza stampa. L’idea, in sintesi, è che il robot attraverso gli LLM in essi integrati comprenda i comandi e sia in grado di portarli a termine, mettendoli in collegamento con la miriade di azioni diverse che –sfruttando il classico addestramento per tentativi ed errori – ha nel frattempo imparato a eseguire. Questa forma di “embodied intelligence” (intelligenza incorporata o incarnata) potrebbe essere la più promettente per lo sviluppo di robot capaci di assisterci in svariati compiti (come i large language model già fanno in ambito testuale). Gli ostacoli, però, non sono solo tecnici (pensate per esempio a quanto sia difficile per un robot capire che pressione esercitare quando afferra un uovo o avere la destrezza necessaria ad attaccare il guinzaglio al collare di un cane, compiti banali per noi umani), ma anche teorici. Come hanno spiegato i programmatori di Physical Intelligence (altra startup di robotica), “non esiste un archivio di azioni eseguibili dai robot simile ai dati relativi a testi e immagini disponibili per addestrare gli LLM. In ogni caso, ottenere i progressi necessari nel campo della ‘intelligenza fisica’ potrebbe richiedere una mole di dati esponenzialmente superiore”. “Le parole in sequenza, da un punto di vista dimensionale, sono un giocattolino rispetto al movimento e all’attività degli oggetti nel mondo fisico”, ha affermato Illah Nourbakhsh, esperto di robotica della Carnegie Mellon University. “I gradi di libertà che abbiamo nel mondo fisico sono di gran lunga superiori alle semplici lettere dell’alfabeto”. Una possibile soluzione è quella di far vedere ai robot migliaia (milioni?) di ore di video presenti su YouTube, che dovrebbero consentire loro anche di capire quale tipo di forza esercitare a seconda delle mansioni richieste e degli oggetti coinvolti. Un’altra possibile soluzione è di far compiere ogni tipo di azione domestica a degli esseri umani monitorati nei loro movimenti tramite sensori (trasformandoli così in dati analizzabili dalla macchina) oppure di permettere ai robot di esercitarsi liberamente, commettendo tutti gli errori necessari, in ambienti virtuali (in maniera simile a come alcune startup addestrano le auto autonome). È proprio seguendo quest’ultimo metodo che si è svolto l’addestramento di Neo della norvegese 1X. Addestramento però non ancora sufficiente, visto che in una delle sue più recenti dimostrazioni – durante la quale ha caricato una lavastoviglie, raccolto i vestiti da una lavatrice e pulito la superficie della cucina – era comunque manovrato da remoto. La strada, insomma, è ancora lunghissima e costellata di ostacoli, sotto forma di costi, sicurezza, privacy ed effettive abilità ancora molto ridotte. E tutto ciò senza nemmeno prendere in considerazione l’ostacolo forse più importante di tutti: se anche diventeranno effettivamente capaci, vorremo davvero avere un robot di forma umanoide, tuttofare e intelligente in casa nostra? PERCHÉ ROBOT ANTROPOMORFI? Giunti a questo punto, bisogna anche rispondere a un’ultima, cruciale, domanda: ma perché questi robot devono essere antropomorfi? Come detto, molti pensano che questo sia il modo migliore per permettere loro di navigare ambienti pensati dagli umani per gli umani. Ma non è tutto: “Attraverso questo tipo di design umanoide, stiamo vendendo una storia sui robot, come se in qualche modo fossero equivalenti a noi o a ciò che siamo in grado di fare”, ha spiegato alla MIT Tech Review il docente in Robotica Guy Hoffman. In altre parole, se costruisci un robot che assomiglia a un essere umano, le persone daranno per scontato che sia capace quanto un essere umano. Questo, però, potrebbe anche rivelarsi un boomerang: se la forma umana dei robot ci fa pensare ad abilità pari o vicine alle nostre, allora potremmo essere gravemente delusi dai loro movimenti lenti, goffi e scattosi. Forse questo è un primo ambito di design sul quale si può intervenire, e non soltanto per questioni ricollegabili alla Uncanny Valley (ovvero la sensazione di stupore e inquietudine che ci creano esseri artificiali che ricordano da vicino gli umani). Se anche il robot deve muoversi per casa e afferrare oggetti, ciò non significa che debba necessariamente avere delle gambe, possedere un torso o una testa. Potrebbe più semplicemente essere una sorta di “bidone” che si muove su ruote, dotato di due (o tre? Perché non sei?) braccia e che è in grado di inserire gli oggetti che afferra in un apposito scompartimento (semplificando anche il compito, difficilissimo per i robot, di mantenere l’equilibrio dopo aver preso in braccio qualcosa di pesante). “Il movimento bipede è il meno efficiente dal punto di vista energetico ed è la soluzione più dispendiosa: delle strutture cingolate o a ruote possono ottenere la stessa mobilità”, ha confermato Chen Guishun della startup cinese Innovance. D’altra parte, nemmeno gli antenati dell’essere umano si muovevano su due gambe, ci siamo evoluti così nel corso del tempo e ci ricordiamo del prezzo da pagare al cambiamento della nostra postura ogni volta che soffriamo di mal di schiena. Perché dovremmo riprodurre nei robot una delle nostre caratteristiche meno efficaci? Probabilmente, la scelta è ricaduta sui robot umanoidi per una serie di ragioni che hanno poco a che fare con la praticità e funzionalità. La prima è culturale: da oltre un secolo, la fantascienza – da Metropolis di Fritz Lang fino ad Asimov e Terminator – ci ha abituati all’idea che un robot debba avere sembianze umane. Questa immaginazione collettiva ha plasmato non solo le aspettative del pubblico, ma anche le aspirazioni degli ingegneri, influenzando la direzione della ricerca. La seconda ragione è comunicativa. Un robot umanoide, anche solo parzialmente simile a noi, attira immediatamente l’attenzione mediatica e degli investitori. In poche parole, genera hype: qualità fondamentale in un settore che sta ancora muovendo i primi passi. Non è un caso se aziende come Tesla, 1X o Unitree hanno puntato tutto sulla componente visiva: un robot che cammina su due gambe e afferra una tazza col braccio richiama molto più interesse di un sistema efficiente, ma anonimo, su ruote. “I robot umanoidi sono però la soluzione sbagliata per la maggior parte dei compiti e la biomimesi non è la risposta giusta”, ha scritto su Medium Brad Porter, fondatore di Collaborative Robotics. “Le ruote sono la risposta migliore in ogni ambiente commerciale, mentre la stabilità passiva – avere cioè almeno tre punti di contatto con il suolo, meglio se quattro – è di estremo valore. Conservare il carico all’interno del cono di stabilità invece che trasportarlo tra le braccia è anch’essa una soluzione migliore”. In poche parole, tra C1-P8 e D3-BO è molto più funzionale e utile il primo. D’altra parte, chiunque abbia visto la trilogia originale di Star Wars non ne ha mai avuto il minimo dubbio. L'articolo L’invasione dei robot domestici è ancora lontana proviene da Guerre di Rete.
Così si contrabbandano i microchip sotto restrizione
Immagine in evidenza: Hong Kong Island Skyline da Wikimedia Al cuore della competizione tecnologica tra le superpotenze del pianeta si cela un meccanismo che ricorda vagamente il gioco per bambini del “whac-a-mole” (in italiano: “acchiappa la talpa”). Da una parte ci sono gli Stati Uniti (e, in parte, la UE) che tentano di controllare il futuro dell’innovazione con strumenti normativi (embarghi, sanzioni, veti). Dall’altra c’è una rete sempre più fitta di intermediari, snodi logistici, società fantasma che cercano di eludere i controlli sull’export, spuntando dal nulla proprio come la talpa del gioco. Questo fenomeno caratterizza in particolare il settore dei semiconduttori, dove ha ormai assunto il nome di chip laundering (riciclaggio dei chip). Un termine generico che descrive un settore industriale sommerso, nato tra le pieghe della geopolitica dell’hi-tech. Il paragone più immediato è con l’elusione delle sanzioni nel settore energetico, ma il confronto regge solo in parte. A differenza del petrolio, i chip sono minuscoli, facili da trasportare, da camuffare e da occultare. Dietro il contrabbando di semiconduttori c’è più di un semplice mercato nero. C’è un panorama di paesi non allineati e di supply-chain che si rimodulano di continuo per sfuggire al controllo dei grandi centri del potere normativo di questa epoca. Un mondo che ha qualcosa di piratesco (e peraltro condivide alcuni luoghi della pirateria storica), seppur stravolto in chiave cyberpunk. Esploriamo dunque questa zona grigia, dove l’elusione delle sanzioni non è solo una pratica opportunistica. Talvolta, come vedremo, è una necessità di sopravvivenza industriale. IL CONTENIMENTO RUSSO Come è noto, i chip sono oggi componenti essenziali degli arsenali militari. Senza microprocessori, non funzionano i missili, i droni, i radar, i sensori, le comunicazioni criptate, i sistemi di logistica e di tracciamento delle unità. È in virtù di questa pervasività che i semiconduttori sono diventati l’equivalente del carburante in una guerra moderna: senza di essi, l’apparato bellico si inceppa. Nel contesto della guerra in Ucraina, tutto questo ha assunto un’importanza cruciale per la Russia, sottoposta a severe sanzioni nel campo dell’elettronica. Ogni drone contiene infatti chip di fabbricazione occidentale; ogni missile richiede componenti elettronici spesso prodotti in paesi NATO; perfino i sistemi di sparo necessitano di circuiti avanzati per funzionare. Da qui l’esplosione delle forniture parallele. Paesi come Singapore, Hong Kong, la Turchia, gli Emirati e la Bielorussia sono divenuti snodi tecnologico-logistici attraverso cui i componenti occidentali vengono “riciclati”, camuffati come beni civili, e poi reindirizzati verso l’industria bellica russa, con triangolazioni finanziarie che spesso utilizzano banche locali poco trasparenti, criptofinanza e circuiti alternativi di compensazione monetaria, come quelli sino-russi basati sul renminbi. Il risultato è un ecosistema e che prospera nel buio e che rende difficile verificare l’impatto delle sanzioni. Il paradosso, denunciato dallo stesso Zelensky, è che, mentre l’Occidente cerca di limitare il potenziale russo, ogni giorno sull’Ucraina piovono missili che contengono centinaia di brevetti tecnologici di paesi NATO. Da quando la Russia ha invaso l’Ucraina nel 2022, quasi 4 miliardi di dollari di chip soggetti a restrizioni si sarebbero riversati in Russia da oltre 6.000 aziende, alcune delle quali si trovano a Hong Kong, ha scritto lo scorso agosto il New York Times, in un’inchiesta che ha analizzato dati doganali russi (ottenuti da un’azienda terza), registrazioni aziendali, registrazioni di domini e altre informazioni sulle sanzioni. Un altro importante crocevia delle supply chain alternative è rappresentato dalla Malesia, dove diverse aziende locali, talvolta anche consolidate, svolgono la funzione di “camere di compensazione” per chip ad alte prestazioni destinati a Mosca. Alcune di queste aziende, come Jatronics, sono state sanzionate dal Tesoro Usa per aver “facilitato l’approvvigionamento di prodotti a uso duale (dual use) da parte della Federazione Russa”. Torneremo più avanti sulle ragioni per cui persino aziende con una reputazione “ufficiale” da difendere si prestano a questo gioco. I “FALSARI” DEI CHIP Il mercato parallelo dei microchip si nutre attivamente delle vulnerabilità dell’industria stessa. A cominciare da quelle più strutturali come la carenza globale di chip, accelerata dalla pandemia e ormai divenuta una sorta di “new normal” dell’industria. È proprio in questo contesto che gruppi di falsari hanno trovato terreno fertile, spacciando per autentici componenti in realtà provenienti dal riciclo di rifiuti elettronici: vecchi chip smarcati, ribrandizzati e immessi sul mercato millantando prestazioni in realtà nettamente inferiori. Qui il problema non è tanto l’evasione delle sanzioni, ma il rischio concreto che questi componenti pongono ai loro utilizzatori finali. Cosa succede se, per esempio, dei chip contraffatti finiscono nei freni di un treno ad alta velocità? Un ulteriore problema è che la distinzione tra illeciti volontari e falle strutturali è a volte sottile. I produttori di semiconduttori – pur con tutti i dovuti controlli – spesso non riescono a monitorare ciò che accade una volta che i componenti lasciano i canali ufficiali. È qui che la filiera si trasforma in un circuito fatto di documentazioni potenzialmente contraffatte e opportunità di corruzione dal basso. Tra le tipologie di chip più prese di mira dai falsari ci sono, da diversi anni, le GPU: le (costose) schede grafiche in cui si è specializzata NVIDIA e che oggi sono centrali nell’ecosistema AI. Recenti notizie dalla Cina rivelano un’evoluzione impressionante delle tecniche di falsificazione dei prodotti NVIDIA, con falsi talmente simili agli originali da trarre in inganno persino gli operatori del settore. Non si tratta più di semplici imitazioni visive o di prodotti riciclati dai rifiuti elettronici, ma di una vera e propria ingegneria del falso che sfrutta componenti autentici per costruire contraffazioni altamente credibili. Nonostante molti di questi falsi si siano rivelati non performanti, resta incerto se esistano versioni operative in grado di superare anche i controlli software. Strumenti diagnostici come GPU-Z – un software che fornisce informazione sulle caratteristiche e le performance delle schede grafiche – possono essere facilmente ingannati attraverso modifiche al BIOS, una pratica piuttosto comune in Cina. In alcuni casi, come quello della scheda grafica di NVIDIA RTX-4090(D), sono persino comparse sul mercato contraffazioni con memorie superiori a quelle dei prodotti originali (la memoria è uno degli aspetti più frequentemente modificati dei chip. Tutto ciò suggerisce che non si tratti di operazioni artigianali isolate, ma di un’industria parallela di falsificazione su larga scala: un problema non solo per i consumatori – che rischiano di spendere migliaia di dollari per dell’hardware obsoleto – ma anche per la sicurezza informatica a livello globale. In un mondo dove la qualità dei componenti elettronici determina l’affidabilità di interi sistemi, la diffusione di componenti contraffatti rischia di causare danni strutturali e difficili da controllare. DEEPSEEK E SINGAPORE Negli ultimi mesi è stato spesso sollevato il dubbio che DeepSeek funzioni grazie a chip di NVIDIA che, a partire dal 2022, non avrebbero più dovuto essere disponibili in Cina. Il sospetto è che i componenti siano arrivati a Pechino attraverso una catena di “nazioni-ponte” che avrebbe come terminale Singapore, la città-stato che, dal 2022 a oggi, ha visto salire la propria quota sul fatturato globale di NVIDIA dal 9% al 22%, un incremento dalle tempistiche quantomeno sospette. Le autorità locali negano qualsiasi coinvolgimento diretto nella questione (e hanno anzi arrestato nove persone con l’accusa di contrabbando di chip per un valore complessivo di 350 milioni di dollari), tuttavia l’assenza di meccanismi di tracciamento post-vendita lascia aperto un margine di ambiguità sufficiente a far passare una quantità significativa di chip da una parte all’altra del Mar Cinese Meridionale, senza che nessuno possa davvero impedirlo. Secondo quanto emerso da recenti inchieste giudiziarie – confermate a febbraio dal ministro della giustizia di Singapore – uno dei modi con cui i chip di NVIDIA sono giunti in Cina, per il tramite della Malesia e di Singapore, è all’interno di server, prodotti da società americane come Super Micro Computer (SMC) e Dell, e venduti da aziende di paesi asiatici non soggetti a restrizioni dirette. NVIDIA ha perciò chiesto a Dell e SMC di condurre una verifica presso i loro clienti nel Sud-est asiatico, in modo da verificare che fossero ancora in possesso dei server che avevano acquistato. È anche per questioni legate a queste falle se, dopo lo smacco subito a opera di DeepSeek, l’amministrazione Trump ha valutato anche l’inclusione dell’H20 – chip intenzionalmente depotenziato per il mercato cinese – tra i prodotti vietati all’export in Cina (è recentissima la notizia che il CEO di NVIDIA, Jensen Huang, avrebbe convinto Trump a ripensarci nel corso di una sfarzosa cena a Mar-a-Lago). LA MAXI-MULTA A TSMC Il tema si fa ancora più complesso quando entra in gioco la difficile decifrazione delle catene di fornitura “ufficiali”. Un caso emblematico, in tal senso è quello che ha coinvolto Huawei, TSMC e la cinese Sophgo. Secondo un’analisi di TechInsights, una società canadese specializzata nello studio dei semiconduttori,  un componente sotto embargo ordinato da Sophgo a TSMC — apparentemente per scopi legati al mining di criptovalute — si sarebbe rivelato parte integrante dei processori Ascend 910 di Huawei, destinati a sistemi di intelligenza artificiale con potenziali applicazioni militari. Interpellata dai media, Huwaei ha negato qualsiasi violazione delle normative internazionali, sostenendo che è dal 2020, quando cioè sono entrate in vigore le prime restrizioni, che l’azienda non utilizza componenti prodotti direttamente da TSMC.  Ma il Dipartimento del Commercio statunitense ha minacciato una multa superiore al miliardo di dollari contro TSMC, accusata di aver infranto (seppure probabilmente in modo involontario) i veti all’esportazione. È una cifra enorme, che rappresenta un precedente problematico e pericoloso non solo per l’azienda, ma per tutto il settore. TRA NECESSITÀ E AMICI DI COMODO In conclusione, torniamo alla domanda lasciata in precedenza in sospeso. E cioè: perché aziende e paesi con una reputazione da difendere scelgono di compromettersi con il mercato nero dei semiconduttori, mettendosi di traverso a quello che tuttora è il principale potere normativo mondiale? La risposta ha a che fare con l’estrema complessità della filiera dei semiconduttori. In un settore dove ogni componente attraversa decine di confini, passa per centinaia di fornitori e coinvolge processi che richiedono sapere diffuso e anni di sviluppo, esercitare un controllo totale è nei fatti impossibile. Peggio ancora: il tentativo di esercitarlo può generare strozzature tali da minacciare la sopravvivenza di interi comparti industriali. Ogni volta che un ente americano introduce un veto, un embargo o una lista nera, crea inevitabilmente un collo di bottiglia. I chip sono del resto il frutto di una catena che coinvolge materiali grezzi (come il silicio ultra-puro), macchinari di estrema precisione (prodotti da ASML e Tokyo Electron), software avanzati (strumenti di electronic design automation come quelli di Synopsys e Cadence), processi di design (NVIDIA etc), fonderie (TSMC, Samsung, SMIC) e test di validazione finale. Ogni segmento di questa catena è concentrato in poche aziende, e uno squilibrio anche minimo in un singolo anello può compromettere l’intero sistema. È in questo contesto che le aziende, specialmente quelle che operano in paesi che hanno rapporti economici vitali con diversi blocchi geopolitici, si trovano davanti a un bivio: rispettare gli embarghi e rischiare di bloccare la propria attività, perdendo molti soldi e potenzialmente la possibilità di stare sul mercato, o aggirare le sanzioni e continuare a produrre. Per molti non è una scelta etica, ma esistenziale. Nel settore dei chip, la pressione è enorme: la domanda globale cresce esponenzialmente e nessuna azienda può permettersi di restare indietro. E così, pur di tenere in funzione la macchina produttiva, si ricorre a triangolazioni logistiche, a reti di subappaltatori poco tracciabili, alla ricodifica dei componenti, alla creazione di filiali ad hoc in giurisdizioni opache. In alcuni casi, sono gli stessi governi ad adottare un atteggiamento ambiguo, tollerando certe pratiche in cambio di crescita economica e attrazione di investimenti hi-tech. Questo tema si intreccia a doppio filo con quello del cosiddetto “friendshoring”, ovvero l’incentivo alla rilocalizzazione di attività strategiche in paesi teoricamente amici o quantomeno neutrali. Paesi terzi che, in realtà, spesso si rilevano snodi funzionali a entrambi i fronti della nuova “Guerra Fredda” (un fenomeno peraltro già verificatosi nel corso della “prima” Guerra Fredda). La fedeltà geopolitica degli “amici” di convenienza non è del resto mai assoluta, ma soggetta a un costante bilanciamento tra interessi, pressioni e convenienze. Più che alleati o avversari di qualcuno, il realismo geopolitico suggerisce ai paesi “terzi” di comportarsi da broker. Per tutti questi fenomeni, il mondo dei chip somiglia sempre più a un fiume attraversato da correnti sotterranee. Chi vuole davvero comprendere dove sta andando non può ignorare le mosse dei contrabbandieri di silicio. L'articolo Così si contrabbandano i microchip sotto restrizione proviene da Guerre di Rete.
L’automazione non ci ha reso liberi dal lavoro, e dallo sfruttamento
Immagine in evidenza: linea produttiva Ford – Immagine di pubblico dominio da Picryl Il timore che le intelligenze artificiali (AI) possano sostituire i lavoratori è al centro di un dibattito acceso. Un dibattito che però trascura l’impatto di queste tecnologie sulla qualità delle condizioni di lavoro esattamente come in passato è avvenuto per varie forme di automazione industriale. Per approfondire questo tema, ci siamo avvalsi della lente di ingrandimento di Jason Resnikoff, professore di Storia contemporanea all’Università di Groninga (Paesi Bassi) e autore del libro “Labor’s End: How the Promise of Automation Degraded Work”.  Resnikoff è specializzato in storia del lavoro, storia del capitalismo globale, storia intellettuale e storia della tecnologia e ha un’esperienza pregressa tra le file della United Auto Workers, sindacato statunitense che rappresenta i lavoratori dell’industria automobilistica, oltre ad altri settori come l’istruzione superiore, la sanità e il gaming. LE RICADUTE DELL’AUTOMAZIONE SECONDO RESNIKOFF Secondo Resnikoff, l’automazione porta con sé un paradosso: presentata come una spinta verso una società migliore, in realtà ha contribuito ad aumentare, accelerandolo, lo sfruttamento del lavoro. Un argomento che appare molto attuale in relazione all’odierno dibattito sull’impatto dell’AI. In poche parole, si parla molto di come l’AI renderà le imprese più produttive o competitive, o di come le macchine sostituiranno dei lavoratori o faranno lavori noiosi al posto nostro, e si parla molto poco di come invece questa nuova ondata tecnologica potrebbe ampliare lo sfruttamento del lavoro (umano). Labor shortage e skill mismatch Se ci spostiamo negli Stati Uniti,  scopriamo che si stanno verificando due fenomeni in antitesi tra loro. A dicembre del 2023 è stato misurato il cosiddetto labor shortage. In sintesi, c’erano circa 8 milioni di posti di lavoro vacanti e 6,8 milioni di disoccupati, per cui anche occupando tutte le persone senza impiego resterebbero posti vacanti. Parallelamente, il costo della vita spinge molti americani a svolgere più di un lavoro. Il risultato è interessante: le IA, almeno per il momento, non stanno togliendo impiego né stanno sostituendo i lavoratori. Il secondo aspetto, noto come skill mismatch, racconta invece la trasformazione delle competenze richieste dalle imprese. Tra queste troviamo la creatività, il pensiero analitico e l’uso di big data e intelligenze artificiali. Traducendo: le imprese cercano qualifiche che i lavoratori non hanno. Ancora una volta, viene meno il timore della sostituzione di lavoratori com’è stata spesso immaginata. Se anche non ci sono prove che nell’insieme del mondo del lavoro le IA, i robot e le automazioni in genere stiano falcidiando impieghi, ciò non significa che non esistano altri problemi, anche più profondi. C’è dell’altro: l’automazione non crea aumenti salariali in linea con la crescita della produttività a cui questa conduce, perché i maggiori introiti vengono incamerati dalle aziende e non vengono neppure parzialmente redistribuiti ai lavoratori. E questo non è un tema nuovo, già aleggiava nel 2019. Nel suo libro Resnikoff entra nei meandri dell’automazione negli Stati Uniti a partire dalla seconda metà del secolo scorso, rilevando da subito il paradosso secondo il quale, benché dovesse migliorare la società, l’automazione ha portato a un rapido sfruttamento del lavoro. Per Resnikoff, sono la globalizzazione e la sovrapproduzione a causare le maggiori perdite di posti di lavoro e non l’automazione in sé, alla quale però riconosce il demerito di creare “una razza di schiavi costituzionalmente incapaci di ribellione”. Tutto ciò malgrado nei decenni passati molti analisti dell’automazione fossero ottimisti e credessero in un mondo utopico in cui si sarebbe lavorato meno a parità di stipendio, nota il professore, ovvero qualcosa di simile a ciò che si ipotizza oggi parlando delle AI e della robotica. Per capire meglio, gli abbiamo fatto alcune domande. Professor Resnikoff, come e perché pensa che l’automazione degradi il lavoro? “I dati storici mi portano a questa conclusione. Il termine ‘automazione’ è stato coniato dal dipartimento motori della Ford negli anni ’40 per evocare l’idea di progresso tecnologico e contrastare il movimento sindacale industriale, che l’azienda aveva da poco dovuto riconoscere per imposizione del governo federale. Nel dopoguerra, la parola ‘automazione’ non indicava una tecnologia specifica. John Diebold, definito dal New York Times l’evangelista dell’automazione, ha affermato che per i dirigenti d’impresa definire l’automazione era complesso quanto per i teologi definire il peccato. Questo dimostra come il termine fosse usato indiscriminatamente per descrivere qualunque cambiamento tecnologico nel luogo di lavoro. L’automazione è stata soprattutto una narrativa secondo cui il progresso tecnologico porta inevitabilmente a una diminuzione del lavoro umano. Questa idea ha avvantaggiato le grandi aziende, che hanno sfruttato l’utopismo tecnologico e l’ottimismo per sostenere che il lavoro umano non contribuisce (o presto non contribuirà più) al processo produttivo”. Cosa è quindi l’automazione? “È tanto una copertura retorica per il degrado del lavoro quanto un processo materiale. Gli esempi del periodo postbellico sono numerosi: l’introduzione dei computer nel lavoro d’ufficio e l’introduzione degli utensili elettrici nel confezionamento della carne sono due esempi particolarmente toccanti. Oggi, tutto ciò viene fatto dai datori di lavoro invocando l’intelligenza artificiale. Amazon ha affermato che la fatturazione nei negozi fisici fosse automatizzata, ma era svolta da lavoratori in India. Oppure, Presto Automation ha attribuito a sistemi automatizzati il servizio nei fast-food statunitensi, in realtà gestito da lavoratori nelle Filippine. Ciò che viene chiamato ‘automazione’ si potrebbe definire ‘outsourcing’, che peggiora le condizioni dei lavoratori locali obbligandoli a competere con manodopera a basso costo. Dall’inizio della rivoluzione industriale, i datori di lavoro hanno utilizzato macchine per frammentare lavori qualificati, assumendo manodopera meno costosa e aumentando i ritmi di lavoro. Nel dopoguerra, il termine ‘automazione’ ha camuffato questo fenomeno come risultato naturale del progresso tecnologico, nascondendo il vero intento di controllo del processo lavorativo e compressione dei salari”. L’automazione può davvero creare dei “nuovi schiavi” o è una provocazione? “L’automazione, tecnicamente parlando, non fa nulla. Non è un processo tecnologico o storico ben definito. Sostengo che gran parte di ciò che viene chiamato automazione sia ben poco tecnologico, ma piuttosto una narrativa che i datori di lavoro usano per degradare il lavoro (piuttosto che abolirlo tecnologicamente). Piuttosto, suggerirei che questa sia la suggestione legata all’idea di automazione, in particolare per i datori di lavoro, ma talvolta, sorprendentemente, anche per dirigenti sindacali, utopisti di sinistra e alcuni lavoratori stessi. Aristotele sosteneva che alcune persone fossero ‘schiavi naturali’. Nel XX secolo, spesso si è invocata l’idea dell’automazione per sostenere che i nuovi ‘schiavi naturali’ fossero le macchine. Ritengo che questo modo di pensare sia pericoloso per i lavoratori, poiché presuppone che gran parte del lavoro, in teoria, debba essere svolto in condizioni coercitive e degradate. Il problema principale è che i lavoratori umani rimangono (e rimarranno) essenziali per l’economia e, perpetuando questa idea di lavoro, saranno costretti sempre più a lavorare in condizioni degradanti”. Secondo lei, le aziende preferiscono l’automazione o la sostituzione dei lavoratori con altri lavoratori (delocalizzando quindi dove il lavoro costa meno)? “La maggior parte delle aziende non si impegna esclusivamente in una o nell’altra strategia. Generalmente, le aziende di successo puntano a ottenere profitti. Se una macchina aiuta a raggiungere questo obiettivo, utilizzeranno una macchina; se invece è il lavoro umano a essere più vantaggioso, opteranno per quello. In genere, combinano macchine e lavoro umano per ottenere il massimo vantaggio. Le macchine possono essere molto costose e rappresentano costi fissi, ma possono eseguire alcune fasi del lavoro rapidamente o contribuire a rendere più economico il lavoro umano. Le persone possono essere licenziate, ma possono anche essere più difficili da controllare e potrebbero organizzarsi in sindacati. La combinazione tra macchine e lavoro umano varia costantemente. Storicamente, i datori di lavoro hanno usato le macchine per rendere il lavoro umano più economico, ma quel lavoro umano a basso costo è rimasto (e generalmente rimane) essenziale per il processo produttivo. Georges Doriot, professore della Harvard Business School negli anni ’40 e ’50, una volta disse che la fabbrica ideale non avrebbe avuto lavoratori. Tuttavia, quando aziende come la Ford iniziarono a considerare l’idea di costruire fabbriche senza lavoratori (cosa impossibile all’epoca), si resero conto che sarebbe stato incredibilmente costoso, impraticabile e fisicamente irrealizzabile. Quel sogno di automazione completa è semplicemente un sogno manageriale: un sogno in cui non si dovrebbe dipendere da altre persone, ossia dai lavoratori. Quando si tratta di fare profitti, però, quel sogno si rivela essere una fantasia”. È vero, secondo lei, che essere contrari all’automazione significa essere nemici del progresso? “No. Il concetto di progresso è, naturalmente, oggetto di dibattito. La vera domanda è: in una società ideale, le persone lavoreranno? E se sì, che tipo di lavoro faranno? Per quale compenso? Per quante ore alla settimana? E sotto la supervisione di chi, se ce ne sarà una? William Morris immaginava una società utopica in cui le persone lavoravano ancora, ma in condizioni migliori e più significative. In modo molto diverso (e, in parte, inquietante) anche Edward Bellamy aveva una visione simile. Storicamente, lo stesso movimento dei lavoratori ha sostenuto che il progresso significasse ottenere migliori condizioni lavorative per le persone comuni, non necessariamente l’abolizione del lavoro. L’automazione non è l’unico percorso verso il progresso; il miglioramento del lavoro e delle sue condizioni può essere un’alternativa più significativa e sostenibile per il benessere collettivo”. La cooperazione uomo-macchina richiede che le macchine si adattino agli esseri umani? Le macchine possono offrire un vantaggio ai lavoratori? “Le macchine, di per sé, non creano situazioni sociali o politiche. Gli storici della tecnologia definiscono l’idea che le macchine determinino automaticamente tali situazioni come ‘determinismo tecnologico’ e, in generale, hanno respinto questa concezione considerandola un errore storico. Gli esseri umani fanno la propria storia, anche se non sempre nel modo in cui vorrebbero. Il problema non sono le macchine, ma le strutture gerarchiche (o, come alcuni potrebbero sostenere, il capitalismo). Una società veramente democratica utilizzerebbe le macchine in modo diverso rispetto a una fortemente gerarchica. In quel contesto, le macchine potrebbero offrire molti più benefici ai lavoratori rispetto alla nostra società attuale. Il problema non risiede quindi nelle macchine in sé, ma nell’alienazione delle persone comuni dalle macchine stesse”.  Quali sono gli impatti dell’automazione sulla socialità e sulle capacità democratiche dei governi? “Questa è una domanda complessa. Il degrado del lavoro ha avuto conseguenze significative nei paesi che hanno costruito il loro stato sociale sul modello fordista, in cui la classe media veniva sostenuta da salari relativamente alti e dal sostegno dell’industria nazionale. Negli ultimi cinquant’anni, la dissoluzione del modello fordista è andata di pari passo con un aumento delle disuguaglianze di reddito e con l’erosione della classe media. Tuttavia, questo fenomeno non è stato causato direttamente dall’automazione. È stato il risultato di una scelta politica intenzionale da parte della destra, che ha smantellato progressivamente lo stato sociale. Ciò è accaduto contemporaneamente alla frammentazione del modello fordista, che include un uso strategico dei cambiamenti tecnologici per ridurre il potere dei lavoratori. Tra questi, si possono citare la logistica avanzata utilizzata per delocalizzare la produzione, le tecnologie della comunicazione che consentono in modo simile l’esternalizzazione della produzione e l’ascesa dell’economia delle piattaforme che consente la trasformazione di lavori propriamente detti in occupazioni occasionali, eccetera. Questi processi non solo hanno alterato il panorama economico, ma hanno anche avuto un impatto sulla coesione sociale e sulla capacità dei governi di agire democraticamente, poiché i lavoratori, spesso frammentati, hanno perso una parte del loro potere contrattuale collettivo”. Cosa dovrebbero fare i governi e i legislatori per sostenere una transizione ordinata? “Se i governi avessero veramente a cuore il benessere dei lavoratori, dovrebbero prima separare il mantenimento del lavoro dai bisogni più basilari della vita sociale, garantendo che l’accesso all’istruzione, all’assistenza sanitaria, all’alloggio, alle attività ricreative e le pensioni non dipendano dall’occupazione. In secondo luogo, dovrebbero aiutare i sindacati a ottenere un vero potere nel negoziare sui mezzi di produzione stessi. I lavoratori dovrebbero avere un ruolo decisivo nel decidere quali tipi di macchine utilizzare e per quali scopi.  Infine, i governi dovrebbero emanare leggi su come sviluppare e impiegare la tecnologia. Oltre alle condizioni di lavoro (che sono cruciali), questa è attualmente una necessità urgente per evitare i peggiori effetti del cambiamento climatico. Ovviamente, i governi hanno interesse a legiferare su quali tipi di tecnologie dovrebbero esistere e come dovrebbero essere utilizzate. Allo stesso modo in cui dovrebbero emanare leggi sulle emissioni di carbonio, dovrebbero emanare leggi simili riguardanti l’uso della tecnologia per degradare il lavoro. Se un nuovo software aggiunge lavoro a un compito, innanzitutto un lavoratore dovrebbe avere il diritto di rifiutare quel lavoro extra e, almeno, dovrebbe ricevere una compensazione aggiuntiva per il compito svolto. Se un datore di lavoro vuole abolire tecnologicamente un lavoro completamente, dovrebbe dover pagare il lavoratore per il lavoro che ha ora distrutto. Ma soprattutto, i governi dovrebbero sforzarsi di dare ai lavoratori il controllo sui mezzi di produzione. Il controllo dei lavoratori è la risposta più fondamentale a questa questione.” Le sue previsioni per il futuro e, infine, l’ipotesi di un reddito universale da distribuire specialmente a chi perde il lavoro a causa dell’automazione sono davvero plausibili? “In un certo senso, ho già risposto a questa domanda. Penso che i datori di lavoro continueranno a usare le nuove tecnologie per degradare il lavoro piuttosto che eliminarlo del tutto, come fanno fin dall’alba della rivoluzione industriale. Il problema non è che le nuove tecnologie verranno utilizzate per fare qualcosa di completamente nuovo, ma che continueranno a essere impiegate per perpetuare le dinamiche di sfruttamento lavorativo esistenti. Questo rappresenta un problema, almeno dal punto di vista della gente comune. Un reddito universale non è necessariamente un’idea pessima, ma risulta meno efficace rispetto a un solido stato sociale che fornisca servizi indipendentemente dal reddito individuale. Ho scritto di questo argomento di recente: i servizi garantiti da uno stato sociale robusto piacciono a molte persone. Tuttavia, il problema è che, nell’ultimo mezzo secolo, questi servizi sono stati drasticamente sotto finanziati dai neoliberisti”. L'articolo L’automazione non ci ha reso liberi dal lavoro, e dallo sfruttamento proviene da Guerre di Rete.
La corsa al nucleare di ChatGPT e gli altri
Immagine in evidenza: Centrale nucleare di Three Mile Island da Wikipedia – CC BY-SA 4.0 I data center che alimentano l’intelligenza artificiale richiedono una quantità di energia enorme, di gran lunga superiore rispetto a quella utilizzata dai social media o dalle ricerche in rete. Secondo Raul Martynek, amministratore delegato dell’azienda di settore DataBank, un rack di chip avanzati per l’AI (ovvero una struttura che ospita numerosi semiconduttori per aumentare la potenza di calcolo) può necessitare di oltre 100 kilowatt di energia, aumentando di molto la richiesta dell’infrastruttura che lo ospita.  Alla luce di tutto ciò, e vista la crescente diffusione di questa tecnologia, le Big Tech si stanno muovendo per cercare una soluzione che possa rispondere al fabbisogno energetico dei data center, permettendo al contempo di raggiungere l’obiettivo di zero emissioni di carbonio entro il 2030. E stanno guardando all’energia nucleare. Di recente, Microsoft ha fatto sapere di aver preso accordi per rimettere in funzione la centrale nucleare di Three Mile Island in Pennsylvania, chiusa lo scorso 2019 per ragioni economiche. Amazon e Google hanno invece annunciato piani per costruire piccoli reattori nucleari modulari (SMR) per alimentare i data center. Insomma, è evidente che le grandi compagnie tecnologiche “hanno il desiderio di crescere in modo sostenibile e, al momento, la risposta migliore è il nucleare”, come ha spiegato Aneesh Prabhu, amministratore delegato di S&P Global Ratings, una compagnia statunitense che si occupa di rating e analisi di credito. Ma le Big Tech non sono da sole in questa corsa al nucleare. Prima di passare il testimone a Donald Trump, il Presidente Joe Biden ha approvato una legge – il cosiddetto Advanced Nuclear for Clean Energy Act – finalizzata ad accelerare lo sviluppo dell’energia nucleare nel paese, sia attraverso lo stanziamento di importanti risorse finanziarie, sia attraverso la semplificazione della burocrazia per le compagnie che scelgono di inserirsi in questo mercato. “Rilanciare il settore nucleare in America è importante per incrementare l’energia a zero emissioni di carbonio nella rete e per soddisfare le esigenze della nostra economia in crescita, dall’AI e i data center all’industria manifatturiera e all’assistenza sanitaria”, aveva commentato l’allora segretario dell’energia Jennifer M. Granholm. Negli ultimi decenni, i progetti relativi alla costruzione di nuove strutture per il nucleare negli Stati Uniti non sembrano però essere andati a buon fine: sono stati conclusi i lavori di soli due reattori e questo sta portando i più critici a chiedersi se davvero le Big Tech riusciranno a superare i tanti ostacoli. E se anche ci riuscissero, che cosa significherebbe questo per l’economia statunitense e globale? Quali sarebbero i vantaggi in termini ambientali? E quale la spinta per lo sviluppo di nuovi progetti legati all’intelligenza artificiale? Prima di rispondere a queste domande, cerchiamo di capire quali sono davvero i piani che Microsoft, Google, Amazon e le altre grandi aziende tecnologiche hanno per il nucleare e l’intelligenza artificiale. AMAZON E GOOGLE PUNTANO SUGLI SMR  Impazza la corsa delle Big Tech per l’energia nucleare, ma lo scorso ottobre è stato Google “a firmare il primo accordo aziendale al mondo per l’acquisto di energia nucleare prodotta da alcuni piccoli reattori modulari (SMR) che saranno sviluppati da Kairos Power”, una compagnia con sede ad Alameda, in California. L’obiettivo del colosso tecnologico è quello di avere a disposizione 6 o 7 reattori entro il 2035, con il primo in consegna nel 2030, così da poter alimentare i data center dedicati ai suoi progetti AI. “Complessivamente, questo accordo consentirà di immettere nelle reti elettriche statunitensi fino a 500 MW di nuova energia, 24 ore su 24 e 7 giorni su 7, priva di emissioni di anidride carbonica, e di aiutare un maggior numero di comunità a beneficiare di un’energia nucleare pulita e a prezzi accessibili”, ha affermato Google nel comunicato che ha accompagnato l’annuncio della collaborazione con Kairos Power. Al di là dei dettagli dell’accordo, è interessante notare che questo rappresenta una svolta importante nell’evoluzione dei piccoli reattori modulari, dotati di una potenza massima di 300 megawatt e in grado di produrre più di 7 milioni di chilowattora di energia al giorno. Per la prima volta, questi hanno ottenuto una dimostrazione di fiducia da parte di un colosso come Google, convinto che contribuiranno ad accelerare la diffusione del nucleare. Le dimensioni ridotte e il design modulare dei reattori – che vengono sostanzialmente prodotti in fabbrica – possono infatti ridurre non solo i tempi e i costi di costruzione, ma anche “consentire la messa in opera in un maggior numero di luoghi e rendere più prevedibile la consegna del progetto finale”. In poche parole, i piccoli reattori modulari potrebbero essere la soluzione ai ritardi accumulati dagli Stati Uniti nei progetti di costruzione delle nuove strutture dedicate al nucleare. O almeno così crede Google. E anche Amazon. Appena qualche giorno dopo l’annuncio di Big G, anche il colosso dello shopping online ha infatti dichiarato di aver siglato tre diversi accordi per poter sfruttare l’energia nucleare per alimentare i suoi data center. Tra questi figura anche un accordo con Energy Northwest, un consorzio di aziende pubbliche statali, finalizzato alla costruzione di 4 piccoli reattori modulari che si prevede genereranno circa 320 megawatt (MW) di energia (con l’obiettivo di arrivare a 960 MW), al fine di contribuire a “soddisfare il fabbisogno energetico previsto per il Pacifico nordoccidentale a partire dall’inizio del 2030”. A questo si aggiunge la collaborazione con X-energy, società leader nello sviluppo di SMR e combustibili di nuova generazione, che punta a portare più 5 gigawatt di energia priva di emissioni di carbonio alla rete statunitense entro il 2039. L’accordo con la società di servizi Dominion Energy mira invece allo sviluppo di un piccolo reattore modulare vicino all’attuale centrale nucleare North Anna, in Virginia, che produrrà circa 300 MW di energia per alimentare la rete della regione. Infine, Amazon ha siglato un accordo per la costruzione di un data center accanto all’impianto nucleare di Talen Energy in Pennsylvania, così da garantirne l’alimentazione “con energia a zero emissioni”, oltre che a preservare il funzionamento del reattore. Una strategia che punta anche a migliorare l’immagine aziendale. Come riferito dalla stessa Amazon, gli investimenti nel settore nucleare contribuiranno a “creare e preservare fonti di energia priva di emissioni di carbonio”, ma anche a “fornire una spinta economica alle comunità locali” che ospiteranno gli impianti di produzione di energia, siano essi di nuova costruzione o preesistenti. PICCOLI REATTORI MODULARI: COME FUNZIONANO E QUANTO SONO SICURI Negli ultimi anni moltissime start-up – come X-Energy e Kairos Power – e aziende affermate, tra cui Toshiba e Rolls Royce, si sono concentrate su progetti dedicati allo sviluppo di piccoli reattori modulari per la produzione di energia. Si tratta di un sistema totalmente diverso rispetto a quello utilizzato finora dalle società energetiche tradizionali, che potrebbe cambiare per sempre il settore del nucleare. Come prima cosa, quindi, cerchiamo di chiarire cosa sono i piccoli reattori modulari e poi di capire come funzionano. Stando alla definizione dell’Agenzia Internazionale per l’energia atomica (AIEA, 2022), “gli SMR sono reattori nucleari avanzati con una capacità di potenza fino a 300 MWe (megawatt elettrici), i cui componenti e sistemi possono essere costruiti in fabbrica e poi trasportati come moduli in un sito per essere installati in base alla necessità”. Allo stato attuale, “gli SMR sono in fase di sviluppo per tutti i tipi di tecnologie di reattori (per esempio, reattori raffreddati ad acqua, reattori raffreddati a gas ad alta temperatura, reattori raffreddati a metallo liquido e a gas con spettro di neutroni veloci e reattori a sali fusi)”. L'impatto delle centrali nucleari di grandi dimensioni, SMR e microreattori - fonte: International Atomic Energy Agency riadattamento della Clean Air Task Force (CATF) In linea di massima, in quasi tutti i tipi di reattori nucleari la fonte di energia è data dalla scissione degli atomi di uranio: un nucleo dell’isotopo instabile uranio-235 si rompe quando viene colpito da un neutrone e questo libera altri neutroni, che colpiscono altri nuclei, dando luogo a una reazione a catena. Una centrale nucleare convenzionale estrae l’energia risultante, rilasciata sotto forma di calore, pompando acqua fredda attraverso il nucleo del reattore e producendo vapore pressurizzato per alimentare turbine che generano elettricità. Nel progetto di X-energy l’acqua viene sostituita dall’elio. Mentre Kairos Power prevede di utilizzare nei suoi reattori un sistema di raffreddamento a sale fuso. In entrambi i casi si utilizza il combustibile in forma di ciottoli, aggiunti continuamente nella parte superiore del reattore e poi rimossi dalla parte inferiore una volta esauriti, con un funzionamento simile a quello di un distributore automatico di palline. Una formula che si vuole presentare anche come più sicura: una volta spento, il nocciolo di un piccolo reattore potrebbe contenere meno calore e radioattività residua rispetto a quello di un tradizionale reattore nucleare. Le stesse società che seguono i progetti sostengono inoltre che i reattori pebble-bed (quelli che utilizzano il combustibile in ciottoli), sarebbero intrinsecamente più sicuri perché non sono pressurizzati e perché sono progettati per far circolare i fluidi di raffreddamento senza l’ausilio di pompe – sarebbe stata proprio la perdita di potenza delle pompe dell’acqua, infatti, a causare il guasto di tre dei reattori della centrale di Fukushima Daiichi in Giappone nel 2011, in seguito a uno tsunami che colpì violentemente il paese. Ma non tutti sembrano vederla così. Il fisico Edwin S. Lyman, direttore della sicurezza dell’energia nucleare presso la Union of Concerned Scientists, ritiene che i piccoli reattori modulari “potrebbero effettivamente spingere l’energia nucleare in una direzione più pericolosa”. Secondo lo scienziato, il problema sarebbe nell’uso dell’uranio ad alto dosaggio e a basso arricchimento (HALEU) all’interno dei piccoli reattori, che potrebbe rappresentare un rischio per la sicurezza. “L’HALEU contiene tra il 10 e il 20% dell’isotopo uranio-23. A partire dal 20% di 235U, la miscela isotopica è chiamata uranio altamente arricchito (HEU) ed è riconosciuta a livello internazionale come direttamente sfruttabile nelle armi nucleari”, si legge in un articolo pubblicato lo scorso giugno su Science da Lyman, in collaborazione, tra gli altri, con il fisico Richard Garwin, che ha guidato il progetto della prima bomba all’idrogeno. “Tuttavia, il limite pratico per le armi è inferiore alla soglia del 20% di HALEU-HEU. I governi e gli altri soggetti che promuovono l’uso dell’HALEU non hanno considerato attentamente i potenziali rischi di diffusione e terrorismo che l’ampia adozione di questo combustibile comporta”. A indebolire l’idea di un sistema più sicuro rispetto a quello delle centrali nucleari tradizionali si aggiunge uno studio condotto dai ricercatori della Stanford University e della University of British Columbia, che insieme hanno portato alla luce un’amara verità sui piccoli reattori modulari. “I risultati rivelano che i progetti di SMR raffreddati ad acqua, a sali fusi e a sodio aumenteranno il volume dei rifiuti nucleari da gestire e smaltire tra le 2 e le 30 volte”, si legge nella ricerca pubblicata sulla rivista PNAS. Il motivo? A quanto pare, i piccoli reattori sono naturalmente meno efficienti, perché non garantiscono quella reazione a catena che permette ai neutroni di scontrarsi con altri nuclei e di produrre energia. Si verifica così un processo di dispersione di neutroni, che finisce con l’avere un impatto importante sulla composizione delle scorie dei reattori. “Non dovremmo essere noi a fare questo tipo di studio. I fornitori, coloro che stanno proponendo e ricevendo finanziamenti per lo sviluppo di questi reattori avanzati, dovrebbero essere preoccupati per i rifiuti e condurre ricerche che possano essere esaminate in letteratura”, ha commentato Rodney Ewing, coautore dello studio, lasciando così in sospeso la questione della sicurezza dei piccoli reattori modulari, che potrebbero essere notevolmente inquinanti. MICROSOFT PUNTA SULLA RIAPERTURA DI THREE MILE ISLAND Rimettere in funzione la centrale di Three Mile Island, in Pennsylvania, è invece l’ambizioso progetto di Microsoft per alimentare i data center destinati a sostenere il funzionamento dei modelli AI della compagnia. Una notizia che ha fatto scalpore, considerando che l’impianto è passato alla storia per essere stato la sede del più significativo incidente nucleare nella storia degli Stati Uniti: il 28 marzo 1979 il reattore dell’Unità 2 andò incontro a un malfunzionamento che provocò una fusione parziale del nucleo, causando la dispersione di materiale radioattivo nella zona e costringendo alla sua chiusura definitiva. Il reattore dell’Unità 1, invece, continuò a funzionare correttamente – e a produrre energia in totale sicurezza – fino al 2019, quando fu chiuso per motivi economici. Nel prossimo futuro, però, tornerà in funzione con il nome di Crane Clean Energy Centre, in onore di Chris Cane, amministratore delegato della società madre Constellation, scomparso lo scorso aprile. Ad annunciarlo è stata la stessa Constellation Energy, che ha fatto sapere di aver chiuso con Microsoft un accordo ventennale per l’acquisto di energia carbon-free prodotta dall’impianto. Proprio per questo, nei prossimi mesi “saranno realizzati investimenti significativi per ripristinare l’impianto, tra cui la turbina, il generatore, il trasformatore di potenza principale, e i sistemi di raffreddamento e controllo”. La riapertura della centrale è prevista non prima del 2028, considerando che il riavvio del reattore richiede l’approvazione della Nuclear Regulatory Commission degli Stati Uniti, oltre al rilascio dei permessi delle agenzie statali e locali competenti. Nonostante ci sia ancora qualche anno da attendere prima di rivedere Three Mile Island in funzione, è innegabile che il progetto di Microsoft sia ambizioso sotto molteplici punti di vista. “Questo accordo è un’importante pietra miliare negli sforzi di Microsoft per contribuire alla decarbonizzazione della rete, a sostegno del nostro impegno a diventare carbon negative”, ha dichiarato Bobby Hollis, vicepresidente del settore energia della compagnia. Ma non è solo la sostenibilità ad essere al centro della riapertura del Crane Clean Energy Centre. Un recente studio, commissionato dal Pennsylvania Building & Construction Trades Council al The Brattle Group, ha infatti rivelato che l’impianto immetterà più di 800 megawatt di elettricità senza emissioni di CO₂ nella rete statunitense, creerà ben 3.400 posti di lavoro nella zona e aggiungerà 16 miliardi di dollari al PIL dello stato. Numeri da capogiro per un progetto che vuole rendere l’energia nucleare il motore dello sviluppo dell’intelligenza artificiale. Le centrali nucleari sono spesso presentate come una soluzione ottimale alla richiesta di energia delle Big Tech impegnate con l’AI, poiché – a differenza delle fonti rinnovabili come l’eolico e il solare, che sono disponibili in modo intermittente – garantiscono una produzione costante di elettricità, spesso denominata “energia fissa”. In questo senso, la scelta di ripristinare vecchi impianti oramai in disuso si dimostra estremamente conveniente tanto per le aziende tecnologie quanto per le autorità governative: lo scorso marzo, per esempio, la centrale nucleare di Palisades (Michigan) ha ottenuto un prestito dell’importo di 1.5 miliardi di dollari dal Dipartimento dell’energia degli Stati Uniti, finalizzato al riavvio dei reattori.  Chiusa nel 2022 per motivazioni economiche, la centrale dovrebbe riaprire nell’ottobre 2025, diventando così il primo impianto a tornare in funzione nel paese. Una sorte che toccherà presto anche a quella che un tempo fu Three Mile Island. OKLO, IL PROGETTO AMBIZIOSO DI SAM ALTMAN  Anche Sam Altman, CEO di OpenAI, di recente ha scelto di investire negli ambiziosi progetti di Oklo, una società con sede a Santa Clara (California), che lavora su “reattori a fissione di nuova generazione per produrre energia pulita, abbondante ed economica su scala globale – a partire da Aurora, che può produrre 15 MW di potenza elettrica, scalabile fino a 50 MWe, e funzionare per 10 anni o più prima del rifornimento”. Fondata nel 2013 da due studenti del MIT, la compagnia sta lavorando allo sviluppo dei cosiddetti “reattori veloci”, in grado di generare una maggiore quantità di energia con un minor impiego di combustibile. Più piccoli ed economici dei normali reattori nucleari, questi sembrerebbero in grado di riciclare il combustibile utilizzato da altri impianti, riducendo l’impatto sull’ambiente. Ma non è solo questo l’intento di Oklo: la società prevede di produrre energia da vendere direttamente agli operatori dei data center, così da alimentare anche i chip di quelle aziende che non possono permettersi di investire cifre esorbitanti in progetti nucleari. QUANTO CONSUMA L’INTELLIGENZA ARTIFICIALE? Definire con precisione la quantità di energia necessaria ad alimentare l’intelligenza artificiale non è cosa semplice: da un lato, i modelli AI sono talmente diversi tra loro da non permettere una misurazione chiara del loro fabbisogno energetico; dall’altro, le grandi aziende di settore non forniscono informazioni esaustive al riguardo. Una cosa è certa, però: la fase di formazione di un modello richiede una quantità di energia decisamente superiore a quella del suo funzionamento vero e proprio. Uno studio di settore, per esempio, stima che l’addestramento di un modello di grandi dimensioni come Gpt-3 richieda all’incirca 1.300 megawattora (MWh) di energia elettrica, ossia una quantità pari a quella consumata in un anno da 130 abitazioni statunitensi. Per avere un’idea più chiara, basta pensare che un’ora di streaming su Netflix richiede circa 0.8 kWh (0,0008 MWh) di elettricità, il che significa che dovremmo guardare 1.625.000 ore di film e serie tv per consumare la stessa energia richiesta dalla formazione di un modello AI di grandi dimensioni. Si tratta di una stima approssimativa, elaborata dai ricercatori di settore qualche anno fa, il che la rende non completamente affidabile, considerando i passi da gigante fatti dall’AI negli ultimi mesi. Eppure, come riferisce la ricercatrice di settore Sasha Luccioni (Hugging Face), avere una stima aggiornata della quantità di energia richiesta dai modelli AI è quasi impossibile, dato che le aziende hanno cominciato a condividere sempre meno informazioni su questa tecnologia mano a mano che è diventata più redditizia. Appena qualche anno fa, le compagnie come OpenAI condividevano con partner, stakeholder e stampa tutte le informazioni relative all’addestramento dei loro modelli: un’abitudine che hanno perso nel corso degli ultimi mesi. Da un lato, secondo Luccioni, questo è legato alla volontà di non condividere con i competitor i processi di sviluppo e formazione dei modelli AI. Dall’altro, però, è dovuto alla volontà delle aziende di settore di evitare critiche legate al consumo eccessivo di energia, decisamente dannoso per l’ambiente. Ma se non abbiamo stime aggiornate sull’addestramento dell’AI, non possiamo proprio dire lo stesso riguardo l’uso che gli utenti fanno dei modelli presenti sul mercato. Sasha Luccioni, in collaborazione con alcuni ricercatori di Hugging Face e della Carnegie Mellon University, ha di recente pubblicato uno studio che contiene le prime stime sulla quantità di energia necessaria per il funzionamento dei modelli AI. In linea di massima sembrerebbe che per portare a termine compiti semplici, come classificare contenuti o generare testo, la quantità di elettricità necessaria sia ridotta: tra 0.002 kWh e 0.047 kWh. Chiaramente, generare un’immagine richiede più energia, ma il lavoro della Luccioni ha dato una stima approssimativa anche per questa attività. L’obiettivo della ricerca, infatti, era quella di gettare le basi per una misurazione futura, non certo di fornirne una. Eppure, è ovvio che le Big Tech abbiano già chiare queste stime, considerando la decisione di ricorrere all’energia nucleare per alimentare lo sviluppo e il funzionamento dei nuovi modelli AI. Resta da vedere, quindi, se questa basterà davvero.cg L'articolo La corsa al nucleare di ChatGPT e gli altri proviene da Guerre di Rete.