Source - Guerre di Rete

L’Europa abbandona Big Tech?
Per conformarsi a un ordine esecutivo del presidente americano Donald Trump, nei mesi scorsi Microsoft ha sospeso l’account email di Karim Khan, procuratore della Corte penale internazionale che stava investigando su Israele per crimini di guerra. Per anni, scrive il New York Times, Microsoft ha fornito servizi email al tribunale con sede a L’Aja, riconosciuto da 125 paesi tra cui l’Italia (ma non da Stati Uniti, Israele, Cina, Russia e altri).  All’improvviso, il colosso di Redmond ha staccato la spina al magistrato per via dell’ordine esecutivo firmato da Trump che impedisce alle aziende americane di fornirgli servizi: secondo il successore di Biden, le azioni della Corte contro Netanyahu “costituiscono una inusuale e straordinaria minaccia alla sicurezza nazionale e alla politica estera degli Stati Uniti”.  Così, di punto in bianco, il procuratore non ha più potuto comunicare con i colleghi.  C’è stata una mediazione, ricostruisce il New York Times: dopo una riunione tra Redmond e i vertici della Corte si è deciso che la Cpi avrebbe potuto continuare a utilizzare i servizi di Microsoft. Anche perché l’azienda, secondo la ricostruzione del quotidiano, sarebbe stata fondamentale per la cybersecurity dell’organizzazione, finita nel mirino degli hacker russi dopo l’inchiesta per i crimini di guerra in Ucraina.  Il discorso, però, non vale per Khan, il cui account resta bloccato: cittadini e aziende statunitensi rischiano conseguenze serie – multe e persino l’arresto – se forniscono “supporto finanziario, materiale e tecnologico” a chi viene identificato come pericoloso per la sicurezza nazionale (spesso sulla base di ragionamenti dal sapore politico). Insomma, in una paradossale inversione di ruoli, il procuratore è diventato un criminale, trattato alla stregua di un nemico pubblico.  Le conseguenze non si sono fatte attendere. Tre dipendenti con contezza della situazione hanno rivelato al quotidiano newyorchese che alcuni membri dello staff della Corte si sarebbero rivolti all’azienda svizzera Protonmail per poter continuare a lavorare in sicurezza. Il giornale non chiarisce il perché della decisione, né se tra essi vi sia lo stesso Khan. Una conferma al riguardo arriva dall’agenzia Associated Press. Protonmail, contattata da Guerre di Rete, non ha commentato, spiegando di non rivelare informazioni personali sui clienti per questioni di privacy e di sicurezza. UNO CHOC PER LE CANCELLERIE Quello che conta è che la situazione ha scioccato le cancellerie europee: quasi tutte – e  il quasi è un mero ossequio al dubbio giornalistico – impiegano software, servizi e infrastrutture statunitensi per le proprie normali attività. Ma nel clima pesante di questi mesi sono saltate le classiche e paludate convenzioni della diplomazia: Trump negozia nelle cancellerie come farebbe con i colleghi palazzinari, senza andare troppo per il sottile. Non è possibile, non lo è per nessuno, prevedere la prossima mossa. Il punto è che correre ai ripari non è semplice: sia perché  uscire dalla “gabbia” creata dalle aziende, il cosiddetto “vendor lock in”, richiede tempo, formazione, strategia; sia perché esistono contratti in essere e la questione può diventare spinosa dal punto di vista giuridico. Ma anche perché – ed è una questione centrale – al momento le alternative, quando esistono, sono poco visibili. La situazione è seria. Per dare un’idea, l’Irish Council for Civil Liberties ha rivelato che il parlamento europeo ha un contratto di fornitura di servizi cloud con Amazon. L’accordo imporrebbe di utilizzare solo modelli linguistici di grandi dimensioni “ospitati” su Amazon Web Services. Somo, ong olandese che si occupa da cinquant’anni di monitorare l’attività delle multinazionali, ha rivelato in un recente rapporto gli accordi capestro che le società di intelligenza artificiale hanno dovuto sottoscrivere con Big Tech per sostenere i costi di sviluppo dell’AI (comprese società europee come Mistral e Aleph Alpha).  E tutte le aziende di riferimento, da Microsoft ad Amazon a Oracle a Google a Intel, sono statunitensi e possono quindi potenzialmente ricadere tra i destinatari degli ordini esecutivi di Trump.  LA DIFESA DI MICROSOFT Per riguadagnare fiducia e mercato – i clienti governativi spostano cifre importanti anche per una Big Tech – nei mesi scorsi Microsoft ha cercato di rassicurare i propri utenti europei.  Il presidente Brad Smith a fine aprile ha schierato l’azienda a fianco di Bruxelles: “Oggi ci impegniamo solennemente”, ha detto in una conferenza del think tank Atlantic Council. “Se in futuro un qualsiasi governo, in qualsiasi parte del mondo, dovesse emettere un ordine che intenda obbligare Microsoft a sospendere o cessare le operazioni e l’assistenza per l’Europa, faremo ricorso al tribunale. Percorreremo ogni via legale per opporci a un simile ordine”. Non solo: se le cause fossero, alla fine, perse, “i nostri partner europei avrebbero accesso al nostro codice sorgente di cui conserviamo una copia in un repository sicuro in Svizzera”, paese neutrale per antonomasia.  CHI STA GIÀ LASCIANDO LE BIG TECH Ma c’è qualcuno che, nonostante tutto, sta già lasciando le Big Tech? Due città danesi (Copenhagen e Aarhus) starebbero abbandonando Microsoft per il timore di finire tra le braccia di un monopolista. Il parlamento olandese, dal canto proprio, nelle scorse settimane ha approvato alcune mozioni per spingere il governo a non fare più affidamento sulla tecnologia cloud statunitense. Il timore è il cosiddetto vendor lock in, cioè la politica commerciale alla base della creazione degli ecosistemi in stile Apple: tutto griffato, tutto dello stesso brand, o dentro o fuori. Chi usa un certo elaboratore di testi avrà, così, la strada spianata se sceglierà di impiegare anche il foglio di calcolo e l’applicazione di videoconferenze della stessa società; andrà, invece, incontro a parecchie (e strategicamente posizionate) difficoltà nel caso dovesse decidere di avvalersi dei servizi di un’azienda concorrente. Ricordate i tempi in cui cambiare operatore di cellulare richiedeva di accollarsi il rischio di restare settimane senza telefono? Funziona esattamente allo stesso modo: uscire non è facile, perché l’obiettivo è proprio complicare la vita a chi decide di farlo.  Ma in questo caso la posta in gioco è molto più alta, perché non parliamo di singoli, per quanto importanti come i giudici di una corte internazionale, ma di intere amministrazioni. Lo US CLOUD Act firmato da Trump nel corso del primo mandato consente alle forze dell’ordine di imporre alle società tech di fornire accesso ai dati custoditi nella “nuvola” per investigare crimini particolarmente gravi: difficile mettersi al riparo.  Dall’altra parte, a un esame anche basilare di cybersecurity molti politici sarebbero bocciati: un’indagine della Corte dei conti olandese ha scoperto che molti ministri del governo hanno usato cloud di Google, Microsoft, Amazon senza essere consapevoli dei rischi potenziali. E non c’è ragione per pensare che altrove vada meglio. Italia compresa.    Qualcosa sta cambiando? Guerre di rete ha chiesto ad alcuni soggetti direttamente coinvolti se la copertura mediatica degli ultimi anni abbia alzato il livello di consapevolezza del pubblico e delle aziende sul tema.  “Negli ultimi dieci anni aziende e consumatori hanno cominciato a cambiare”, afferma al telefono Alexander Sander, policy consultant della Free software foundation. “Il problema è sbarazzarsi del vendor lock in, che significa essere ostaggio dell’ecosistema del fornitore: oggi è difficile passare da un prodotto all’altro, tutto funziona bene e facilmente solo se si utilizzano servizi di una sola azienda. Lo si è visto chiaramente nel periodo pandemico, quando la gente cercava disperatamente servizi di videoconferenza e tendeva a scegliere quelli dell’azienda con cui già lavorava: oggi vale anche per l’intelligenza artificiale, che devi pagare anche se non ti interessa, non ne hai bisogno o semplicemente preferisci usare quella di un’altra società”. Questo, prosegue l’esperto, “significa che alla fine costruisci una relazione con un solo marchio: migrare è complicato e costoso. Non solo: molti dei servizi commercializzati in Europa, lo vediamo, non rispettano le norme continentali dal punto di vista della privacy e della cybersecurity: il Patriot Act non rispecchia le nostre normative, e quindi – nel caso di un’azienda Usa che vende servizi in Europa – i servizi segreti possono avere accesso ai file”.  Sander suggerisce di usare software open source, “il cui codice sorgente è pubblico e in cui si possono anche cercare eventuali backdoor: se le individui puoi sistemarle tu stesso, o incaricare qualcun altro di fare le modifiche del caso. Con il software delle grandi multinazionali del tech, invece, devi scrivere all’azienda, che a propria volta ti risponderà se può o meno mettere mano al codice”. E, come visto, oltre alle decisioni di business conta anche il clima politico.  C’è un altro tema, rimarca Sander: “Un conto è negoziare con un paese come l’Italia o la Spagna, un conto è quando al tavolo si siede una piccola azienda”. In questo caso le tutele sono rasenti lo zero.  C’è un’azienda che fa peggio delle altre, chiediamo, in termini di rispetto dei diritti digitali? “In realtà, credo sia più un problema di modello di business. Dobbiamo crearci delle alternative. E penso che Stati e governi dovrebbero avere un ruolo nello stimolare i mercati in questo senso. L’Europa si è mossa bene con il Digital markets act: qui non ci mancano tanto le idee, quanto l’implementazione. E poi bisogna educare cittadini e consumatori a comprendere come funzionano certi modelli di business”.  Qualche passo in avanti si comincia a vedere: in Francia c’è il progetto La Suite numerique, che offre una serie completa di servizi digitali sotto la bandiera del governo di Parigi. In Germania c’è Open Desk di ZenDis, il Centro per la sovranità digitale di Berlino fondato nel 2022 come società a responsabilità limitata di proprietà del governo federale. Anche qui, c’è tutto il necessario per una pubblica amministrazione. La strada, però, è ancora lunga. LA VERSIONE DI PROTONMAIL E poi ci sono i privati. Protonmail (lo abbiamo già incontrato poco sopra) è un servizio email sicuro nato nel 2014 da scienziati che si sono incontrati al Cern di Ginevra. “Lo abbiamo creato per fornire una risposta alla crescente domanda di sicurezza e privacy nella posta elettronica, e anche perché ci siamo resi conto che internet non stava più lavorando nell’interesse degli utenti”, dice a Guerre di Rete Anant Vijay Singh, head of product della società elvetica. “L’email non rappresenta solo uno strumento di comunicazione importante, ma anche la nostra identità online. Noi assicuriamo all’utente di avere il pieno controllo sui  propri dati: li criptiamo, per cui nemmeno noi possiamo analizzare, monetizzare o accedere a informazioni personali. È così che siamo diventati attraenti per chi è stanco di società che sfruttano i dati personali per farci soldi, spesso senza il consenso degli utenti”.  Singh afferma che l’azienda si basa solo sugli abbonamenti: il servizio di base è gratuito, gli upgrade a pagamento. “Il maggiore azionista è la Proton Foundation, che è una non profit, il che significa che quando pensiamo a un prodotto mettiamo davanti le persone, e non i soldi. E questo in definitiva porta a un’esperienza utente migliore”.  Il manager conferma che qualcosa si muove. “Negli anni scorsi abbiamo visto che la gente ha cominciato a rifiutare il capitalismo della sorveglianza e a cercare alternative più sicure e rispettose della privacy: nel 2023 abbiamo superato i 100 milioni di account, e questa tendenza ha accelerato negli ultimi mesi su entrambe le sponde dell’Atlantico”.  Proton, assicura Singh, opera sotto la legge svizzera, “che sulla privacy è tra le più stringenti al mondo. Ma le normative cambiano, e se non bastassero c’è sempre la matematica [cioè la crittografia, ndr] a difendere gli utenti”. “Inoltre tutti i nostri prodotti sono open source e sottoposti a regolari verifiche sulla sicurezza da terze parti indipendenti”. I dati sono conservati in Svizzera, ma alcune porzioni, prosegue, anche in Germania e Norvegia. Singh non nasconde che la Rete ha tradito le aspettative dei creatori. “Per anni i giganti del web l’hanno plasmata sulla base dei propri interessi e la natura centralizzata di molti servizi ha esacerbato i problemi: grandi società controllano enormi quantità di dati. Anche la sorveglianza governativa ha giocato un ruolo nell’erodere la fiducia: le rivelazioni sui programmi di sorveglianza di massa hanno mostrato quanto sia grande il potere degli esecutivi nel monitorare le attività online”. Ma la gente “è sempre più consapevole che alternative esistono, e vuole acquistare ‘europeo’, perché conscia della eccessiva dipendenza da servizi americani”.    L’alternativa elvetica a WeTransfer C’è un altro servizio, sempre basato in Svizzera, che sta spopolando da qualche tempo e tra i clienti vanta molti grossi nomi corporate. Si chiama Swiss Transfer ed è l’alternativa al notissimo WeTransfer, nato olandese e recentemente comprato dall’italiana Bending Spoons. Infomaniak è la società madre. “Abbiamo creato Swiss Transfer innanzitutto per testare su larga scala la nostra infrastruttura basata su OpenStack Swift”, dice a Guerre di Rete Thomas Jacobsen, a capo della comunicazione e del marketing. “Offrire un servizio free e utile al pubblico è  un modo per dimostrare l’affidabilità e la robustezza delle nostre soluzioni. Ma, al di là dell’aspetto tecnico, è anche un modo per aumentare la consapevolezza di cosa sia Infomaniak senza fare affidamento sui tradizionali canali promozionali, come Facebook, Instagram, Google e Linkedin, che richiedono grossi budget per acquisire visibilità. Abbiamo preferito creare un tool che parla da sé, rispetta la privacy, non traccia e offre un valore quotidiano all’utente. E funziona. Milioni di persone usano Swiss Transfer, spesso senza sapere che dietro ci siamo noi. Direi, anzi, che è ironico: in alcuni paesi il brand è più conosciuto della società che ci sta dietro. Ma lo consideriamo un successo”.  Le informazioni, spiega Jacobsen, sono custodite in data center proprietari in Svizzera, protetti dalla legge elvetica. “E dal momento che lavoriamo con l’Europa, ci conformiamo al Gdpr”.  Il modello di business è particolare. “Infomaniak è una società svizzera indipendente, posseduta dai propri stessi dipendenti: oggi gli azionisti sono circa trenta. Questa autonomia assicura indipendenza, e il rispetto dei nostri valori: protezione della privacy, sostenibilità ambientale e supporto per l’economia locale. Tutto è prodotto e sviluppato in Svizzera: i nostri team sono qui, sia quello di sviluppo che il customer care, il che ci dà il controllo totale su tutta la catena del valore, senza intermediari. Significa trasparenza, massima reattività e alta confidenzialità dei dati del cliente, che non verranno mai usati per altri fini se non quello di fornire i servizi richiesti”.   Chiediamo: ma siete davvero sicuri di essere in grado di sostituire i prodotti delle grandi multinazionali? “Sì. È sbagliato pensare che solo le Big Tech possano soddisfare le esigenze di grandi organizzazioni: lavoriamo già con oltre tremila media company tra cui radio e televisioni, ma anche banche centrali, università, governi locali e anche infrastrutture critiche”. Jacobsen sa che uno dei colli di bottiglia è la paura delle difficoltà nella migrazione, e parla di supporto personalizzato 24/7 . “La nostra filosofia è semplice: ci guadagnamo da vivere solo con i nostri clienti, non con i loro dati. Non li vendiamo e i servizi gratuiti sono interamente finanziati da quelli a pagamento: può sembrare strano, ma paghiamo tutti i nostri stipendi in Svizzera, e nonostante ciò  spesso riusciamo a offrire prezzi più competitivi. E funziona da trent’anni”. I dipendenti sono trecento, in crescita: “Ma siamo per la biodiversità digitale: il mondo ha bisogno di alternative locali dovunque”. Jacobsen va oltre: “I dati sono le materie prime dell’intelligenza artificiale e un asset strategico, ma l’Europa continua a spendere milioni di euro di soldi pubblici in soluzioni proprietarie come quelle di Microsoft, Amazon o Google senza reali benefici locali [sul tema lavora anche la campagna Public money, public code, ndr]. Queste piattaforme portano i profitti in America, creano posti di lavoro lì e aumentano la nostra dipendenza. Ma c’è di più: Big Tech investe un sacco di soldi per portare via i nostri migliori ingegneri e ricercatori, spesso formati con denaro pubblico. Per esempio, Meta ha recentemente assunto tre ricercatori dell’ufficio di Zurigo di OpenAI con offerte che a quanto pare hanno raggiunto i cento milioni di dollari. Nel frattempo, quando si presenta una necessità tecnologica negli Stati Uniti, il governo federale non esita ad aprire linee di credito eccezionali per supportare i player locali con contratti da miliardi di dollari, come nel caso di Palantir, OpenAI o cloud provider come Oracle. E l’Europa? Che sta facendo? Firma contratti con società straniere, anche se esistono alternative forti vicino a casa: noi in Svizzera, ma anche Scaleway  e OvhCloud in Francia, Aruba in Italia o Hetzner in Germania”.  Se davvero conquisteremo la biodiversità digitale, lo scopriremo nei prossimi anni. Certo, per cambiare rotta, ci vuole coraggio. E, come dice ancora Sanders, tempo. “C’è un movimento verso il software libero più o meno in tutti i paesi. Dieci anni fa era molto più difficile. Oggi governi e amministrazioni stanno cercando di cambiare passo dopo passo per uscire da questo vendor lock in, e non solo per i pc desktop: si stanno rendendo conto che si tratta anche delle infrastrutture, come i server.Il processo  non è immediato, un’amministrazione non dice all’improvviso: voglio passare al software libero. Ma piuttosto, quando si pone la necessità di acquistare un servizio, comincia a considerare le alternative”. Del resto, se ci sono voluti trent’anni per arrivare fin qui, è difficile immaginare che si possa invertire la rotta dall’oggi al domani L'articolo L’Europa abbandona Big Tech? proviene da Guerre di Rete.
Come la Cina ha conquistato l’auto elettrica
Immagine in evidenza di myenergi da Unsplash Negli ultimi anni, l’auto elettrica è diventata uno dei simboli più discussi della transizione ecologica. Spinta o respinta dai governi, sostenuta o affossata dall’industria, osannata o temuta dall’opinione pubblica, la mobilità a batteria è un tema che divide. Da una parte viene raccontata come un passaggio inevitabile verso un futuro libero dai combustibili fossili, dall’altra viene bollata come una tecnologia immatura o addirittura come un cavallo di Troia per interessi cinesi e imposizioni “ecologiste”. Entrambe le narrazioni tendono a semplificare – e a polarizzare – un fenomeno complesso e in evoluzione. Proviamo allora a gettare lo sguardo oltre le trincee dell’ideologia e a offrire una lettura il più “atea” possibile della questione, soprattutto per quanto riguarda le sue implicazioni geopolitiche. Per cominciare, vanno chiarite due cose. La prima è che la diffusione dell’auto elettrica non è uniforme. Da un lato gli electric vehicles (EV) rappresentano ancora una quota trascurabile (il 4%, pari a 58 milioni di veicoli) del parco macchine mondiale. Dall’altro hanno rappresentato circa il 20% delle nuove immatricolazioni nel 2024. Il dato è caratterizzato da forti concentrazioni geografiche, ma è in crescita del 25% rispetto all’anno precedente. Stiamo quindi parlando di un prodotto che, a livello di mercato planetario, si sta muovendo da una nicchia molto piccola a un segmento significativo. Basti pensare che nel 2024 le vendite sono aumentate di 3,5 milioni di unità rispetto al 2023, più di quanto si fosse venduto in tutto il 2020. La Cina domina il mercato, sia dal lato della domanda che dell’offerta, con quasi il 75% del venduto globale (11 milioni di EV). In Europa, invece, si registra ogni anno una leggera crescita delle nuove immatricolazioni (1,8% in più nel 2024), ma questa è altamente dipendente da incentivi statali e dalle strategie industriali nazionali. Nel 2025 si prevede che le vendite europee supereranno i 4 milioni di unità, con una quota di mercato del 25%, ma anche in questo caso si registrano grandi differenze tra paesi, in particolare tra Europa del Nord e del Sud. Negli Stati Uniti il settore è stato finora trainato da Tesla e da sussidi pubblici introdotti da Biden (e appena tagliati da Trump), ma la penetrazione resta limitata al di fuori delle aree urbane. In tutto il 2024 sono state vendute solo 1,6 milioni di auto elettriche, per una quota di mercato del 10% e con un rallentamento della crescita rispetto all’anno precedente. Per quanto riguarda i paesi emergenti, in America Latina e in Africa le vendite di EV sono aumentate nel 2024 rispettivamente del 100% e del 120%. In Brasile il mercato è dominato dalle importazioni cinesi (oltre l’85% nel 2024), mentre negli altri paesi della regione e in Africa le percentuali sono leggermente inferiori ma comunque preponderanti. Questi dati sono utili a inquadrare un fatto: l’impronta dell’investimento nei veicoli elettrici non è uguale in tutte le zone economiche, così come diseguale è lo sviluppo del mercato e dell’industria. In particolare, è evidente come la Cina si trovi in una fase molto più avanzata rispetto al resto del mondo. Questo non si traduce solo in una leadership produttiva o commerciale, ma in un’esposizione più profonda e strutturale al destino della mobilità elettrica.  A differenza di altre economie, dove l’auto elettrica rappresenta ancora una scelta sperimentale, in Cina è ormai una componente sistemica del mercato e della strategia industriale del Paese. Ne derivano, inevitabilmente, una grande forza industriale, ma anche una vulnerabilità più elevata in caso di contraccolpi globali e, proprio per questo motivo, un maggiore impegno (geo)politico da parte dello Stato cinese nello sviluppo e nella difesa del settore. La seconda cosa da chiarire è che, dal punto di vista della produzione, le differenze tra un’auto tradizionale e un’auto elettrica sono così numerose e profonde che è come se si trattasse di due prodotti completamente diversi. Per certi versi si può dire che, più che di un processo di transizione industriale, lo sviluppo della mobilità elettrica andrebbe inquadrato come la nascita di una nuova industria. È importante evidenziare questo punto, poiché è una delle ragioni per cui la transizione elettrica dell’auto sta comportando cambiamenti così profondi delle geografie delle risorse e della geopolitica delle filiere. Il passaggio dall’auto a motore a combustione interna (ICE) al veicolo elettrico non comporta soltanto un cambiamento nelle modalità di alimentazione, ma implica una rivoluzione tecnologica che investe l’intera filiera produttiva. Le competenze richieste per progettare, costruire e mantenere un’auto elettrica – a cominciare dal suo componente più cruciale, la batteria – sono radicalmente diverse rispetto a quelle necessarie per i veicoli tradizionali: servono ingegneri specializzati in elettronica di potenza, software, gestione termica e chimica dei materiali, piuttosto che esperti di meccanica e di fluidodinamica dei motori termici. Questo ha implicazioni politiche nella misura in cui paesi come la Cina investono da quasi due decenni nella formazione di figure professionali e di ricercatori specializzati in questi ambiti, mentre Europa e USA hanno preferito continuare a puntare su competenze più tradizionali, col risultato che oggi le loro industrie non solo faticano a reperire le figure necessarie alla transizione, ma rischiano di dover operare ampi (e socialmente costosi) tagli del personale. Può non sembrarlo, ma anche questo è un tema geopolitico, in quanto ha direttamente a che fare con la resilienza dei corpi sociali dei paesi.  Un tema ancor più spinoso è quello delle materie prime critiche per la produzione di batterie. A causa della transizione energetica (non solo quella dell’automotive), negli ultimi anni litio, cobalto, nichel, grafite e terre rare ( di cui abbiamo appena scritto su Guerredirete.it, ndr) hanno assunto un’importanza strategica simile a quella del petrolio o dell’acciaio. L’approvvigionamento, la raffinazione e la lavorazione di questi materiali sono oggi al centro di una corsa globale, in cui le geografie della potenza economica si stanno rapidamente riorganizzando. Anche in questo caso la Cina si è mossa con grande anticipo. A partire dai primi 2000, Pechino ha investito nello sviluppo di una filiera completa e integrata della mobilità elettrica, dalla proprietà delle miniere all’estero (in Africa, America Latina e Australia), fino alla raffinazione dei minerali, alla produzione di celle per batterie, e infine alla progettazione e vendita di veicoli completi. Aziende cinesi specializzate in batterie per EV, come CATL, e produttori di veicoli elettrici come BYD e NIO non solo dominano il mercato domestico, ma stanno progressivamente espandendo la loro presenza internazionale, soprattutto in Europa. A oggi, la Cina raffina oltre il 60% del litio globale, il 70% del cobalto, e quasi il 90% delle terre rare, numeri che ne fanno un attore insostituibile in tutte le fasi della catena del valore dei componenti decisivi di un’auto elettrica, ovvero quelli elettronici, magnetici e chimici usati all’interno di software, sensori, motori e batterie. Questa concentrazione rappresenta un punto di vulnerabilità per le case automobilistiche non cinesi, che rischiano interruzioni di fornitura critiche. Non è quindi un caso che – già prima del ritorno di Trump alla Casa Bianca – proprio il tema della “terre rare” sia finito al centro delle trattative sul commercio tra Cina e Stati Uniti. Proprio le trattative tra blocchi economici in risposta alla minaccia dei dazi di Trump ci ricordano che, come molti altri settori strategici, negli ultimi anni anche quello dell’automotive ha assistito a un prepotente ritorno degli Stati nella regolazione della vita economica e industriale. L’avvento della mobilità elettrica sta riportando al centro del dibattito concetti come “sovranità tecnologica” e “politica industriale”, costringendo governi e istituzioni a confrontarsi con il fatto che la competizione globale non si gioca più solo sul mercato, ma sulla capacità di presidiare le filiere produttive. Si tratta di una materia in continua evoluzione, complessa e altamente tecnica, che spesso i governi faticano a comprendere appieno. In molti casi, mancano sia le informazioni aggiornate che le competenze per analizzarla con la precisione e la profondità necessaria. La geopolitica della mobilità EV si muove infatti lungo coordinate altamente mobili, in cui innovazione tecnologica, instabilità internazionale e politiche pubbliche interagiscono in modo non lineare. Per questo, la vera posta in gioco non è solo industriale, ma cognitiva e culturale: la capacità di capire per tempo quale traiettoria tecnologica emergerà come dominante (che, retrospettivamente, è la ragione dell’attuale vantaggio cinese). Uno scenario cruciale per il futuro riguarda, per esempio, l’evoluzione delle batterie. Se le tecnologie allo stato solido, oggi in fase avanzata di sviluppo presso aziende come Toyota, QuantumScape e CATL, dovessero arrivare alla maturità industriale nei prossimi 5 anni, si assisterebbe a una vera discontinuità tecnologica: densità energetica superiore, tempi di ricarica più brevi, minore infiammabilità e, soprattutto, una diminuzione della dipendenza da materie prime come litio e cobalto. Questo ridurrebbe l’influenza dei paesi oggi dominanti in queste risorse, ma potrebbe farne emergere altri (tra cui Giappone e Corea del Sud, tra i più avanzati nello sviluppo di batterie allo stato solido), a dimostrazione di quanto la partita dell’EV, e la sua traiettoria evolutiva, sia tutt’altro che chiusa o definita, come invece la raccontano tanto gli entusiasti quanto i detrattori.  L’autore di questo articolo ha pubblicato da poco proprio un libro sul tema automotive: Velocissima). L'articolo Come la Cina ha conquistato l’auto elettrica proviene da Guerre di Rete.
Chi controlla le terre rare controlla il mondo
Immagine in evidenza da Unsplash Quando a fine anni ’80 Deng Xiaoping affermò che “il Medio Oriente ha il petrolio, la Cina le terre rare”, in pochi diedero il giusto peso alla dichiarazione dell’allora leader della Repubblica Popolare cinese. Come invece sempre più spesso accade, il Dragone asiatico dimostrò di avere la capacità di immaginare e mettere in atto strategie di lungo termine: le terre rare, infatti, rappresentano oggi uno dei maggiori motivi di frizione geopolitica nel mondo, a causa dell’elevata richiesta e del loro complesso approvvigionamento, di cui la Cina detiene il monopolio. Praticamente nessun settore industriale ad alta tecnologia può farne a meno, da quello militare – per missili guidati, droni, radar e sottomarini – a quello medico, in cui sono impiegate per risonanze magnetiche, laser chirurgici, protesi intelligenti e molto altro ancora. Non fa eccezione il settore tecnologico e in particolare quello legato allo sviluppo e all’utilizzo dell’intelligenza artificiale. Come spiega Marta Abbà, fisica e giornalista esperta di temi ambientali, le terre rare possiedono qualità magnetiche uniche e sono eccellenti nel condurre elettricità e resistere al calore, e anche per questo risultano essenziali per la fabbricazione di semiconduttori, che forniscono la potenza computazionale che alimenta l’AI, per le unità di elaborazione grafica (GPU), per i circuiti integrati specifici per applicazioni (ASIC) e per i dispositivi logici programmabili (FPGA, un particolare tipo di chip che può essere programmato dopo la produzione per svolgere funzioni diverse).  Sono inoltre cruciali per la produzione di energia sostenibile: disprosio, neodimio, praseodimio e terbio, per esempio, sono essenziali per la produzione dei magneti utilizzati nelle turbine eoliche.  Senza terre rare, quindi, si bloccherebbe non solo lo sviluppo dell’intelligenza artificiale, ma anche quella transizione energetica che, almeno in teoria, dovrebbe accompagnarne la diffusione rendendola più sostenibile. Insomma, tutte le grandi potenze vogliono le terre rare e tutte ne hanno bisogno, ma pochi le posseggono. TERRE RARE, MINERALI CRITICI E AI Le terre rare (REE) sono un gruppo di 17 elementi chimici con proprietà simili e spesso presenti insieme nei minerali: lantanio, cerio, praseodimio, neodimio, promezio, samario, europio, gadolinio, terbio, disprosio, olmio, erbio, tulio, itterbio, lutezio, ittrio e scandio. Le materie prime critiche, di cui possono far parte anche alcune terre rare, sono invece quei materiali identificati dai vari governi come economicamente e strategicamente essenziali, ma che presentano un alto rischio di approvvigionamento a causa della concentrazione delle fonti e della mancanza di sostituti validi e a prezzi accessibili. Nel 2024 il Consiglio dell’Unione Europea ha adottato il Regolamento europeo sulle materie prime critiche, elencandone 34, di cui 17 definite “strategiche”, il cui controllo o accesso influisce direttamente su obiettivi di sicurezza, sviluppo tecnologico e autonomia industriale. Le terre rare, in realtà, spiega ancora Marta Abbà, non sono rare, ma la loro presenza nel mondo non è omogenea e l’estrazione e la lavorazione risultano molto costose e inquinanti.  Le maggiori riserve sono possedute dalla Cina, in cui ammontano, secondo le stime, a 44 milioni di tonnellate, con una capacità estrattiva che nel 2024 ha toccato la cifra di 270mila tonnellate all’anno. Altri stati che possiedono significative riserve sono il Brasile (21 milioni di tonnellate, attualmente ancora pochissimo sfruttate), l’Australia (5,7 milioni di tonnellate), l’India (6,9 milioni di tonnellate), la Russia (3,8 milioni di tonnellate) e il Vietnam (3,5 milioni di tonnellate).  A questo gruppo di paesi si è aggiunta di recente la Groenlandia, salita alla ribalta delle cronache per i suoi enormi giacimenti di materie prime critiche e per il conseguente interesse mostrato da Stati Uniti, Unione Europea e Cina. Il sito più rilevante, Kvanefjeld, nel sud dell’isola, è considerato uno dei più promettenti a livello globale e, secondo le stime della società che ne detiene la licenza estrattiva, potrebbe contenere fino al 15% delle riserve mondiali conosciute di terre rare. A far gola alle grandi potenze tecnologiche sono in particolare l’alluminio, derivato della bauxite, e il silicio, necessari per la produzione dei wafer (la base di silicio su cui vengono costruiti i microchip) e per l’isolamento dei chip, il niobio, utilizzato nei cavi superconduttori, il germanio, necessario per i cavi in fibra ottica utilizzati per la trasmissione di dati ad alta velocità, cruciale per l’AI, e ancora gallio, tungsteno, neodimio, ittrio, tutti componenti essenziali per l’industria dei microchip.    Per via delle loro applicazioni nell’industria high tech, molti di questi materiali ed elementi sono stati identificati come strategici sia dall’Unione Europea che dagli Stati Uniti e sono per questo oggetto di accordi e trattati bilaterali con i paesi produttori.  Nonostante la presenza di alcune riserve di terre rare in entrambe le regioni, il fabbisogno risulta infatti di gran lunga superiore alla capacità produttiva domestica, obbligando di fatto sia Washington che Bruxelles a importare le materie dall’estero, prima di tutto dalla Cina e in secondo luogo, per quanto riguarda l’Unione Europea, dalla Russia.  Per questo motivo, Dewardric L. McNeal, direttore e analista politico della società di consulenza Longview Global, ha affermato alla CNBC che “gli Stati Uniti devono ora trattare le materie prime critiche non come semplici merci, ma come strumenti di potere geopolitico. Come la Cina già fa”. IL POTERE DEL DRAGONE ASIATICO E LE RISPOSTE USA Dopo settimane di tensioni e accuse reciproche per i dazi imposti dall’amministrazione Trump, il governo di Pechino ha deciso di rallentare l’export di terre rare tra aprile e maggio, come già fatto in precedenza sia nel 2023 che nel 2024, quando alla scrivania dello studio ovale sedeva ancora Joe Biden e il tema caldo di discussione era l’isola di Taiwan. Per farsi un’idea della portata di questa mossa, basti pensare che, come stimato dal Servizio Geologico degli Stati Uniti (USGS), se la Cina imponesse un divieto totale sulle esportazioni dei soli gallio e germanio, minerali utilizzati in alcuni semiconduttori e in altre produzioni high tech, il PIL statunitense potrebbe diminuire di 3,4 miliardi di dollari. Anche per questo, il tono di Washington da inizio giugno è diventato più conciliante e il rapporto tra le due potenze si è andato normalizzando, fino ad arrivare il 28 giugno al raggiungimento di un accordo tra i due paesi. Nonostante i dettagli siano ancora scarsi, il segretario al Tesoro degli Stati Uniti, Scott Bessent, ha dichiarato che la Cina ha accettato di facilitare l’acquisizione da parte delle aziende americane di magneti, terre rare cinesi e altri materiali fondamentali per l’industria tecnologica.  Quella che Trump ha festeggiato come una sua grande vittoria diplomatica, ha però reso ancor più evidente come le catene di approvvigionamento dei minerali critici siano molto concentrate, fragili e soprattutto troppo esposte all’influenza e al controllo di Pechino. Come abbiamo visto, la Cina è il paese in cui si trovano le maggiori riserve mondiali di terre rare, ma non è solo questo elemento a spostare l’ago della bilancia geopolitica a favore del dragone asiatico. L’influenza della Cina abbraccia infatti anche i paesi “amici”, come la Mongolia e il Myanmar, secondo produttore mondiale di terre rare pesanti (più scarse e più difficili da separare), le cui principali operazioni minerarie sono significativamente partecipate da Pechino, estendendo ulteriormente il controllo effettivo della potenza asiatica. La posizione dominante della Cina è determinata anche dal fatto di possedere il monopolio di fatto della raffinazione, cioè la complessa operazione metallurgica per trasformare la materia prima grezza in materiali utilizzabili. Un processo non solo complesso, ma altamente inquinante e di conseguenza quasi impossibile da eseguire in Europa o negli Stati Uniti, a causa dei più elevati standard di compliance ambientale che ne farebbero schizzare il costo alle stelle.  Il processo di raffinazione richiede infatti un uso estensivo di sostanze chimiche, in particolare acidi forti (come l’acido solforico, nitrico o cloridrico) per separare le terre rare dai minerali a cui sono legate, creando delle scorie tossiche molto difficili da smaltire, se si seguono, appunto, standard elevati di tutela ambientale. Un esempio del devastante impatto ambientale di questo processo è particolarmente visibile nella città di Baotou, nella vasta area industriale della regione cinese della Mongolia Interna, dove il panorama è dominato da un lago artificiale del diametro di circa 9 chilometri, composto interamente da fanghi neri e sostanze chimiche tossiche, risultato degli sversamenti di rifiuti di scarto derivanti dall’estrazione e raffinazione delle terre rare. L’Occidente, in pratica, ha scelto di esternalizzare le negatività ambientali derivanti dall’estrazione di terre rare in Cina e questa, da parte sua, ha accettato di buon grado, dando priorità al potere economico e geopolitico che ne deriva rispetto alla salute dei suoi cittadini e alla tutela del proprio ambiente naturale. La dipendenza delle catene di approvvigionamento occidentali diventa ancor più evidente se si prende come esempio la miniera di Mountain Pass in California, una delle maggiori operazioni statunitensi nel settore delle terre rare. Nonostante produca circa il 15% degli ossidi di terre rare a livello globale, si trova a dover inviare l’intera produzione in Cina per le fasi di separazione e raffinazione.  Per questo motivo, il Pentagono nel 2020 ha assegnato 9,6 milioni di dollari alla società MP Materials per la realizzazione di un impianto di separazione di terre rare leggere a Mountain Pass. Nel 2022, sono stati investiti ulteriori 35 milioni di dollari per un impianto di trattamento di terre rare pesanti. Questi impianti, spiega il Center for Strategic and International Studies, sarebbero i primi del loro genere negli Stati Uniti, integrando completamente la catena di approvvigionamento delle terre rare, dall’estrazione, separazione e lisciviazione (un processo chimico che serve a sciogliere selettivamente i metalli desiderati dal minerale) a Mountain Pass, fino alla raffinazione e produzione di magneti a Fort Worth, in Texas. Tuttavia, anche quando saranno pienamente operativi, questi impianti saranno in grado di produrre solo mille tonnellate di magneti al neodimio-ferro-boro entro la fine del 2025 — meno dell’1% delle 138mila tonnellate prodotte dalla Cina nel 2018. Non sorprende, dunque, che gli Stati Uniti, come vedremo, stiano cercando strade alternative in grado di diversificare maggiormente la propria catena di approvvigionamento di questi materiali. Ne è un esempio l’accordo fortemente voluto dall’amministrazione USA con l’Ucraina che, dopo un tira e molla di diverse settimane, culminato con la furiosa lite di fine febbraio nello studio ovale tra Donald Trump e JD Vance da una parte e Volodymyr Zelensky dall’altra, ha infine visto la luce a inizio maggio. L’accordo, in estrema sintesi, stabilisce che l’assistenza militare americana sarà considerata parte di un fondo di investimento congiunto dei due paesi per l’estrazione di risorse naturali in Ucraina. Gli Stati Uniti si assicurano inoltre il diritto di prelazione sull’estrazione mineraria pur lasciando a Kiev l’ultima parola sulle materie da estrarre e l’identificazione dei siti minerari. L’accordo stabilisce infine che la proprietà del sottosuolo rimarrà all’Ucraina, cosa non scontata date le precedenti richieste da parte di Washington in tal senso. Quello con l’Ucraina è solo uno dei tanti tavoli di trattativa aperti dalle diverse amministrazioni statunitensi con paesi ricchi di materie critiche: dall’Australia al vicino Canada, passando per il Cile, ricchissimo di litio, e poi ancora il Brasile, dove si estrae il 90% del niobio utilizzato per la produzione di condensatori, superconduttori e altri componenti ad alta tecnologia, e il Vietnam, con cui l’allora presidente Joe Biden ha siglato un accordo di collaborazione nel settembre 2023. È evidente come gli Stati Uniti, da diversi anni, stiano mettendo in campo tutte le risorse economiche e diplomatiche a disposizione per potersi assicurare il necessario approvvigionamento di materie critiche e terre rare, senza le quali la Silicon Valley chiuderebbe i battenti in pochi giorni. LA GLOBAL GATEWAY EUROPEA In Europa la situazione è anche peggiore rispetto agli Stati Uniti. Non solo l’Unione Europea importa oltre il 98% delle terre rare raffinate, con la Cina ovviamente nel ruolo di principale fornitore, ma è anche sprovvista di giacimenti importanti. Uno dei pochi siti promettenti è stato individuato nel 2023 a Kiruna, nella Lapponia svedese, e secondo l’azienda mineraria di stato svedese LKAB potrebbe arrivare a soddisfare, una volta a pieno regime, fino al 18% del fabbisogno europeo di terre rare.  C’è però un enorme problema, oltre a quello già descritto dell’impatto ambientale: è difficile pensare che possa entrare in produzione prima di almeno una decina di anni. Troppi, considerato che le battaglie per la supremazia tecnologica e per la transizione energetica si stanno combattendo ora. Un discorso a parte merita la Groenlandia, territorio autonomo posto sotto la Corona danese, ricchissima di materie prime critiche, terre rare e anche uranio, ma dove le leggi attuali sono molto restrittive in termini di estrazione e che, per di più, è entrata nel mirino dell’amministrazione Trump, diventando oggetto di forti frizioni politiche.  L’interesse dell’Unione Europea nei confronti della grande isola artica è sancito dall’accordo firmato nel novembre del 2023 tra le due parti, che dà il via a un nuovo partenariato strategico tra i due soggetti, il cui cuore pulsante è rappresentato dallo sfruttamento congiunto delle materie prime. Anche in questo caso, però, come per il giacimento di Kiruna, si tratta di un progetto a lungo termine che difficilmente potrà vedere la luce e dare risultati concreti in tempi brevi. L’Unione Europea ha quindi deciso di muoversi sulla scia degli Stati Uniti e della “Nuova Via della Seta” cinese, cercando di chiudere accordi bilaterali di investimento e scambio commerciale con diversi paesi ricchi di materie prime critiche. La strategia “Global Gateway” lanciata nel 2021 rappresenta uno dei più grandi piani geopolitici e di investimento dell’Unione, che ha messo sul tavolo oltre 300 miliardi di euro fino al 2027, con l’obiettivo dichiarato, tra gli altri, di diversificare le fonti di approvvigionamento delle materie critiche. La Global Gateway, a cui si è aggiunto nel 2023 il Critical Raw Material Act, che pone obiettivi specifici di approvvigionamento al 2030, ha portato a diversi accordi fondamentali per la sopravvivenza dei piani di transizione digitale ed energetica del continente: Argentina, Cile e Brasile in America Latina; Kazakistan, Indonesia e Mongolia in Asia; Namibia, Zambia, Uganda e Rwanda in Africa sono alcuni dei paesi con cui la Commissione Europea ha già siglato delle partnership strategiche o ha intavolato delle discussioni di alto livello per agevolare degli investimenti comuni nell’estrazione di terre rare, proprio come fatto dagli Stati Uniti con l’Ucraina.   Considerata la volontà dell’Unione Europea di competere nel settore dell’intelligenza artificiale, quantomeno per ciò che riguarda l’espansione dei data center sul territorio, una robusta e diversificata rete di approvvigionamento delle materie prime critiche è fondamentale. Come si legge infatti sul sito della Commissione Europea, “nel corso del 2025, la Commissione proporrà il Cloud and AI Development Act, con l’obiettivo almeno di triplicare la capacità dei data center europei nei prossimi 5-7 anni e di soddisfare appieno il fabbisogno delle imprese e delle pubbliche amministrazioni europee entro il 2035. La legge semplificherà l’implementazione dei data center, individuando siti idonei e snellendo le procedure autorizzative per i progetti che rispettano criteri di sostenibilità e innovazione. Allo stesso tempo, affronterà la crescente domanda energetica promuovendo l’efficienza energetica, l’adozione di tecnologie innovative per il raffreddamento e la gestione dell’energia, e l’integrazione dei data center all’interno del sistema energetico più ampio”. Il piano non solo è ambizioso in termini di obiettivi, ma tiene strettamente legate le due facce della strategia generale europea, ovvero lo sviluppo tecnologico e la transizione verde entro il quale deve essere inquadrato. Impossibile pensare di fare l’uno o l’altra, tantomeno entrambi, senza le materie prime necessarie.  AFRICA, VECCHIA E NUOVA TERRA DI CONQUISTA In questo quadro geopolitico già di per sé complesso, un discorso a parte meritano i paesi del Sud Globale e in particolare quelli africani, che come si è visto sono quelli in cui si trovano le maggiori riserve di materie prime critiche e terre rare.   Il timore, come già raccontato nel reportage dall’AI Summit di Parigi, è che ancora una volta si vada a configurare un modello di estrattivismo colonialista, in cui i paesi più ricchi, dove avviene la produzione di tecnologia, si arricchiranno ancor di più, mentre i paesi più poveri, da dove vengono prelevate le materie prime, subiranno i devastanti impatti sociali e ambientali di queste politiche. Il rapporto “Rare Earth Elements in Africa: Implications for U.S. National and Economic Security”, pubblicato nel 2022 dal Institute for Defense Analyses, una società senza scopo di lucro statunitense, è molto esplicito nel prevedere un aumento dell’influenza del continente africano nel settore e le problematiche che ciò può comportare. “Man mano che le potenze globali si rivolgono ai mercati africani per rafforzare la propria influenza”, si legge nell’executive summary del rapporto, “è probabile che l’estrazione delle terre rare nel continente aumenti. In Africa si contano quasi 100 giacimenti di terre rare, distribuiti in circa la metà dei paesi del continente. Cinque paesi — Mozambico, Angola, Sudafrica, Namibia e Malawi — ospitano da soli la metà di tutti i siti di giacimento di terre rare in Africa. Attualmente, otto paesi africani registrano attività estrattiva di REE, ma a gennaio 2022 solo il Burundi disponeva di una miniera operativa in grado di produrre a livello commerciale. Tuttavia, altri paesi potrebbero raggiungere presto capacità produttive simili”. La parte che più interessa in questo frangente è però il punto in cui i ricercatori sottolineano come “la gestione delle risorse naturali in Africa e gli indicatori di buona governance devono migliorare, se si vuole garantire che i minerali di valore non portino benefici solo alle imprese americane, ma anche ai cittadini africani”. Considerando che la “Academy of international humanitarian law and human rights” dell’Università di Ginevra ha mappato 35 conflitti armati attualmente in corso nell’Africa subsahariana, di cui molti hanno proprio come causa il possesso delle risorse minerarie, sembra difficile prevedere che questa volta la storia prenda una strada diversa da quella già percorsa in passato. ROTTE ALTERNATIVE In virtù delle complessità descritte per l’approvvigionamento delle terre rare e, più in generale, delle materie prime critiche, alcune società stanno sperimentando delle vie alternative per produrle o sostituirle. La società britannica Materials Nexus, per esempio, ha dichiarato a inizio giugno di essere riuscita a sviluppare, grazie alla propria piattaforma di AI, una formula per produrre magneti permanenti senza l’utilizzo di terre rare. La notizia, ripresa dalle maggiori testate online dedicate agli investimenti nel settore minerario, ha subito destato grande interesse, non solo perché aprirebbe una strada completamente nuova per i settori tecnologico ed energetico, ma perché sarebbe uno dei primi casi in cui è l’intelligenza artificiale stessa a trovare una soluzione alternativa per il suo stesso sviluppo. Secondo Marta Abbà, se anche la notizia data da Material Nexus dovesse essere confermata, ci vorrebbero comunque anni prima di arrivare alla messa in pratica di questa formula alternativa. Sempre che – cosa per nulla scontata – la soluzione non solo funzioni davvero, ma si dimostri anche sostenibile a livello economico e a livello ambientale. È più realistico immaginare lo sviluppo di un’industria tecnologicamente avanzata in grado di riciclare dai rifiuti sia le terre rare che gli altri materiali critici, sostiene Abbà. Prodotti e dispositivi dismessi a elevato contenuto tecnologico possono in tal senso diventare delle vere risorse, tanto che l’Unione Europea ha finanziato 47 progetti sperimentali in questa direzione. Tra questi, c’è anche un promettente progetto italiano: Inspiree, presso il sito industriale di Itelyum Regeneration a Ceccano, in provincia di Frosinone. È il primo impianto in Europa per la produzione di ossidi e carbonati di terre rare (neodimio, praseodimio e disprosio) da riciclo chimico di magneti permanenti esausti. L’impianto di smontaggio, si legge nel comunicato di lancio del progetto, potrà trattare mille tonnellate all’anno di rotori elettrici, mentre l’impianto idrometallurgico a regime potrà trattare duemila tonnellate all’anno di magneti permanenti ottenuti da diverse fonti, tra cui anche hard disk e motori elettrici, con il conseguente recupero di circa cinquecento tonnellate all’anno di ossalati di terre rare, una quantità sufficiente al funzionamento di un milione di hard disk e laptop, e di dieci milioni di magneti permanenti per applicazioni varie nell’automotive elettrico. Nonostante questi progetti, l’obiettivo europeo di coprire entro il 2030 il 25% della domanda di materie prime critiche, tra cui le terre rare, grazie al riciclo, appare ancora molto distante, considerando che a oggi siamo appena all’1%. La strada dell’economia circolare è sicuramente incerta, lunga e tortuosa, ma allo stesso tempo più sostenibile di quella estrattivista e in grado di garantire una strategia di lungo periodo per il continente europeo. L'articolo Chi controlla le terre rare controlla il mondo proviene da Guerre di Rete.
Il fediverso inizia a pensare in grande
Immagine in evidenza da Mastodon Dopo un lungo periodo di graduale apertura, Threads – il social network rivale di X e sviluppato da Meta – ha annunciato nel mese di giugno la sua completa integrazione con il fediverso (che sta per universo federato): l’ecosistema social decentralizzato il cui esponente più noto è Mastodon. In sintesi, tutte le piattaforme che fanno parte del fediverso sfruttano lo stesso protocollo e possono quindi comunicare l’una con l’altra. Di conseguenza, ogni utente che lo desidera potrà vedere all’interno di Threads, anche se in un feed diverso e con qualche altra limitazione, i post pubblicati dagli utenti del fediverso che si è scelto di seguire. E viceversa: gli utenti di Mastodon che lo desiderano – e sempre che la loro istanza lo consenta – potranno integrare i post pubblicati su Threads. Prima di approfondire il funzionamento, i progressi e le sfide del fediverso, è probabilmente il caso di rispondere a una domanda: che cosa ci fa una realtà come Meta all’interno di un ecosistema decentralizzato e nato in larga misura in reazione ai sistemi chiusi e centralizzati (i cosiddetti “walled garden”) di cui la società di Mark Zuckerberg è probabilmente il simbolo? Secondo il Washington Post, “per Meta questa mossa potrebbe essere parte di una strategia più ampia, che ha lo scopo di sfruttare un approccio ‘open’ nei mercati in cui sta rivaleggiando con attori più importanti. Threads è diventato rapidamente l’alternativa più popolare a X, superando i 350 milioni di utenti. X è però ancora parecchio più grande e rilevante: Meta potrebbe quindi vedere nell’alleanza con il fediverso – che al momento consiste di Mastodon e altre, più piccole, app indipendenti – un’opportunità per rosicchiare il primato di X”. Una strategia inattesa da parte di un’azienda che ha trascorso gli ultimi 20 anni a picconare l’open web e a fagocitare o demolire qualunque avversario in grado di metterne in discussione il primato (WhatsApp, Instagram, Snapchat). Nell’interpretazione ottimistica, la decisione di aprire Threads al fediverso potrebbe confermare le speranze di molti sostenitori della decentralizzazione, e cioè che – per usare le parole del responsabile di Threads, Adam Mosseri – “il mercato dei social media testuali in futuro sarà molto più frammentato di quanto non fosse quando Twitter era ancora l’unico protagonista”. Da una parte, la speranza è che la massiccia infrastruttura di Threads possa far crescere la base utenti delle altre piattaforme del fediverso, incrementandone la visibilità; dall’altra, il timore – espresso anche da parecchi utenti – è che un colosso come Meta possa introdurre le logiche del “capitalismo della sorveglianza” in un mondo piccolo, fragile e che soprattutto a queste si è sempre fieramente contrapposto. È anche per questa ragione che molti utenti di Mastodon si oppongono all’integrazione di Threads e hanno espresso la loro intenzione di “defederare” Threads, impedendogli cioè di comunicare con le istanze di Mastodon che gestiscono. CHE COS’È E COME FUNZIONA IL FEDIVERSO A questo punto, è necessario fare un passo indietro: che cos’è e come funziona il fediverso? Come detto, i più noti social network (Facebook, Instagram, TikTok e così via) sono tutti centralizzati e isolati l’uno dall’altro. Per seguire un utente di Facebook e comunicare con esso dobbiamo per forza avere un account Facebook, che possiamo inoltre utilizzare soltanto su quella piattaforma. Ciò che avviene su Facebook, in poche parole, resta su Facebook. E lo stesso vale per tutti gli altri principali social network. Nel fediverso, la situazione è opposta: le realtà che fanno parte di questo ecosistema, come il già citato Mastodon, Lemmy (forum popolare in Corea del Sud), Pleroma (social media diffuso in America del Sud), gli italiani PeerTube (simile a YouTube) e Funkwhale (streaming musicale) o infine Pixelfed (condivisione immagini), possono tutte comunicare l’una con l’altra. Alla base di queste piattaforme c’è un protocollo comune e open source, ActivityPub, che consente a un utente di Mastodon di seguire un utente di PeerTube direttamente dal suo account, vedendo così comparire i video direttamente sul feed di Mastodon e potendo da lì interagire con essi.  Ogni applicazione che implementa il protocollo ActivityPub diventa parte di un network federato, che permette tramite una sola piattaforma di seguire e interagire con gli utenti di ogni altra. Poiché siamo da decenni abituati a usare piattaforme chiuse (cioè che impediscono la comunicazione e il trasferimento di dati dall’una all’altra), il funzionamento di un protocollo come ActivityPub, e il modo in cui le realtà del fediverso comunicano tra loro, non è molto intuitivo. Il paragone più semplice è probabilmente quello con le email: il fatto di avere un account Gmail non impedisce di comunicare con chi invece ha un account Hotmail, perché entrambi utilizzano un protocollo comune a tutti i servizi email (ovvero SMTP: simple mail transfer protocol). Anche il classico world wide web è una realtà decentralizzata: ogni sito può linkare o incorporare elementi di altri siti, consentendo inoltre di utilizzare il browser che si preferisce per la navigazione.  Il fediverso consente inoltre di spostare il proprio account su una qualunque altra piattaforma federata, importando o esportando anche post e follower. Un’altra importante differenza è che il fediverso non è gestito in maniera verticistica, ma direttamente dalla comunità. Per esempio, su Mastodon ogni utente può aprire una propria sezione (chiamata istanza) indipendente da tutte le altre, gestendola in completa autonomia, decidendo le politiche di moderazione, le condizioni di utilizzo e pagando gli eventuali costi di gestione (server e altro). Inoltre, le realtà del fediverso sono storicamente attente alla privacy, non raccolgono dati e sono prive di pubblicità (Mastodon si sostiene tramite le donazioni degli utenti). Anche dalle sue caratteristiche si capisce come, fino a oggi, questo ecosistema alternativo sia sempre stato una realtà relativamente piccola: secondo gli ultimi dati, Mastodon avrebbe circa 8 milioni di utenti iscritti (di cui però circa un milione attivi mensilmente), mentre il fediverso nel suo complesso arriverebbe a circa 15 milioni di iscritti (escludendo ovviamente Threads e anche Bluesky, di cui parleremo tra poco). Realtà piccole (il secondo più grande social del fediverso, PixelFed, conta 769mila iscritti), frequentate quasi esclusivamente (almeno fino a oggi) da utenti politicamente attivi e molto attenti alla privacy e sorte in esplicita contrapposizione ai colossi della Silicon Valley. Una contrapposizione diventata ancora più forte in seguito alle nuove politiche dei grandi social network, che sulla scia di Elon Musk hanno tutti allentato (o praticamente cancellato) le politiche di moderazione dei contenuti, sono diventati sempre più tolleranti nei confronti dell’hate speech e hanno così provocato una sorta di grande scisma dei social media, incentivando il trasferimento di decine di milioni di utenti su piattaforme considerate politicamente più affini. Una tendenza che sembra confermare le previsioni di Mosseri su una sempre maggiore frammentazione dei social e che dà un ulteriore significato all’ambizione del fediverso di unire in un unico ecosistema tanti social indipendenti.  Anche in una fase storica in cui la ragion d’essere di queste piattaforme non è più necessariamente quella di “connettere tutti”, ma spesso, semmai, di collegare persone che condividono valori o interessi comuni, dei social network troppo piccoli e isolati rischierebbero di soccombere a causa della scarsità di contenuti reperibili e di interazioni con gli altri utenti. Il fediverso, almeno teoricamente, elimina questo problema, permettendo a chiunque di scegliere il social più adatto con la consapevolezza che ciò non comporta un isolamento da altre piattaforme e dagli altri utenti, ma anzi fornendo la possibilità di interagire con altre realtà e permettendo di mantenere un totale controllo su questi processi (su Mastodon si può scegliere se aprirsi agli altri social del fediverso completamente, parzialmente o per niente). Anche da queste caratteristiche si intuisce come il fediverso sia un mondo dalle enormi potenzialità, ma anche dalla complessità non trascurabile. Ed è forse per questa ragione che, a quasi 10 anni dalla nascita di Mastodon, il fediverso fatica a crescere organicamente e continua a essere frequentato solo da una piccola nicchia di attivisti digitali. BLUESKY, OVVERO ACTIVITYPUB VS AT PROTOCOL: LA SFIDA DEI FEDIVERSI  Ciò vale a maggior ragione visto che il più noto dei social decentralizzati, ovvero BlueSky, non fa parte del fediverso. Bluesky è infatti un social nato all’interno di Twitter per volontà del fondatore Jack Dorsey (che voleva studiare le applicazioni dei social decentralizzati), ma divenuto indipendente proprio in seguito all’acquisizione di Musk e che si sostiene economicamente grazie agli investimenti ricevuti, per un valore complessivo di 36 milioni di dollari (l’ultimo round da 15 milioni è dell’ottobre 2024). Subito dopo l’elezione di Trump e la conseguente fuga da X, Bluesky ha iniziato a guadagnare milioni di utenti, superando a metà 2025 quota 35 milioni. Numeri enormi rispetto a Mastodon, ma ancora piccoli se confrontati con quelli di X e Threads. Il vero successo di Bluesky è però aver saputo attirare la cosiddetta Twitter-sfera: quell’insieme di giornalisti, attivisti, accademici, politici progressisti e altri che avevano reso Twitter il luogo in cui recarsi per seguire in tempo reale ciò che avveniva nel mondo. Come ha scritto Ian Bogost sull’Atlantic, Bluesky “è ciò che più di ogni altra piattaforma recente mi ha ricordato le origini dei social network”. Visti i numeri e l’importanza che sta iniziando a rivestire (soprattutto negli Stati Uniti), il fatto che BlueSky non sia parte del fediverso è senza dubbio un’occasione mancata. Integrarlo è tecnicamente possibile, ma non sarà facile (e non è nemmeno detto che la CEO Jay Graber lo desideri): se Mastodon e gli altri sfruttano il protocollo Activity Pub, BlueSky utilizza invece un protocollo simile, e sempre open source, ma distinto: AT Protocol. Una scelta compiuta quando il fediverso era già una (embrionale) realtà e che ha creato una sorta di rivalità. Le realtà del fediverso si confrontano annualmente durante il FediForum (l’ultimo si è concluso proprio lo scorso giugno), quelle che utilizzano AT Protocol si riuniscono invece durante la ATmosphere Conference, alla quale lo scorso marzo ha partecipato proprio Graber commentando: “Abbiamo incontrato un sacco di persone che stanno costruendo app di cui non sapevamo nulla, tra cui piattaforme di messaggistica e nuovi strumenti per la moderazione”.  Tra i vari social e servizi che sfruttano questo protocollo troviamo Skylight, un’alternativa a TikTok, e Flashes, che è invece una sorta di Instagram. Come Activity Pub, anche AT Protocol consente a tutte le piattaforme che lo impiegano di comunicare tra di loro: “Il beneficio per gli sviluppatori di AT è che non devono ripartire da zero ogni volta, possono sempre contare su un bacino di 35 milioni di utenti”, ha commentato sempre Graber facendo riferimento agli utenti di BlueSky. Ma ha senso che esistano, di fatto, due fediversi? La risposta, soprattutto vista la sovrapposizione valoriale e ideologica (anche se le piattaforme del “fediverso ufficiale”, quello di ActivityPub, sembrano essere ancora più allergiche a investitori, modelli di business, ecc.), è probabilmente no. Ed è anche per questo che alcuni sviluppatori hanno creato dei protocolli ponte, tra cui Bridgy Fed, che permettono, per esempio, a BlueSky e Mastodon di comunicare. Una pezza che dimostra una volta di più quanto questa dualità rischi di essere dannosa per un mondo che ha bisogno di unirsi per crescere, e non di dividersi ulteriormente. LA DIFFICILE CRESCITA DEL FEDIVERSO A proposito, qual è la strategia del fediverso (o dei fediversi) per crescere, attirare sempre più utenti e non essere soltanto un rifugio per attivisti pro-privacy (Mastodon) ed ex utenti di Twitter che odiano Elon Musk (BlueSky)? Come possono “scalare” dei social che non generano guadagni e in cui gli utenti creano le proprie istanze e ne sostengono i costi dei server e gli altri oneri della gestione? Jay Graber, dal canto suo, ha confermato in ogni occasione che non vuole ospitare pubblicità e che i ricavi arriveranno da varie forme di abbonamento (ancora da lanciare): un’opzione che, soprattutto nel mondo social, si è rivelata fino a oggi molto complessa da far funzionare. Mastodon, che come detto è allergico agli investimenti, punta invece sulle donazioni e ambisce a raccogliere tramite esse 5 milioni di dollari nel 2025: un salto rispetto ai circa 150mila dollari di spese totali sostenute nel 2023 e un segnale della volontà di crescere e supportare l’espansione del fediverso. I costi da sostenere, però, non sono solo economici ma relativi anche alla complessa governance richiesta dalle piattaforme decentralizzate, soprattutto per quanto riguarda la moderazione dei contenuti. Come si legge in un recente paper pubblicato sulla Policy Review, “i progetti online basati sul volontariato o sulla collaborazione non andrebbero interpretati come intrinsecamente anarchici, poiché spesso danno vita a infrastrutture di governance e regole che permettono la cooperazione e la pluralità di approcci”. “A livello tecnico”, prosegue il paper, “Mastodon promuove questa pluralità facendo affidamento sull’auto-hosting e mettendo a disposizione un insieme di strumenti di moderazione per gli amministratori. Il fatto che ogni nuovo utente debba sempre unirsi a una cosiddetta istanza, ovvero a una sezione di Mastodon gestita da persone o organizzazioni indipendenti, sposta le decisioni di moderazione al livello delle singole istanze, che possono stabilire le proprie regole, tra cui scegliere chi è autorizzato a entrare nella comunità e chi no. Alcune istanze sono gruppi chiusi che accettano nuovi membri solo su invito. Altre prevedono un sistema di approvazione per gli utenti con interessi comuni. Alcune, solitamente le più grandi, accettano chiunque senza condizioni particolari”. MODERARE IL FEDIVERSO In nome della decentralizzazione e dell’autogestione, soprattutto nel caso di Activity Pub, agli utenti volontari che animano le piattaforme del fediverso viene richiesto di sostenere un costo economico che, nel caso di istanze con qualche decina di migliaia di utenti, possono arrivare anche a svariate centinaia di euro al mese e di sobbarcarsi un carico di lavoro non indifferente. E anche, come visto in passato, di prendere decisioni difficili. Per esempio, se qualunque piattaforma che utilizza l’apposito protocollo open source può collegarsi al fediverso, come si fa a escludere le realtà indesiderate da un ecosistema che è comunque caratterizzato da un certo ethos ideologico? È una situazione con cui gli utenti di Mastodon hanno già dovuto confrontarsi in passato: uno dei primi social frequentato dall’estrema destra, vale a dire Gab, è basato proprio su Activity Pub. Il suo arrivo nel fediverso, nel 2019, ha creato parecchio scompiglio. La comunità di Mastodon ha reagito decidendo praticamente all’unanimità di “defederare” Gab – ogni singola istanza l’ha quindi inserito in una black list – eliminandolo di fatto dal loro ecosistema. Le grandi possibilità offerte dal fediverso – scegliere a quale social e poi a quale istanza partecipare, condividere la gestione delle policy, contribuire all’aspetto economico e altro ancora – comportano quindi un impegno non comune da parte degli utenti (che infatti tendono, anche qui, a partecipare alle istanze più grandi, generaliste e per certi versi centralizzate). È davvero pensabile che un ecosistema di questo tipo sostituisca i social centralizzati di massa, che non richiedono all’utente nessuna forma di impegno? Messa così, è possibile che il fediverso rimanga un’alternativa piccola ed etica, destinata a una nicchia ben circoscritta di utenti, senza l’ambizione di sostituire i “walled garden”: un po’ come – in campo alimentare – i GAS (gruppi d’acquisto solidale) non hanno l’ambizione di sostituire la grande distribuzione, ed è anzi anche in virtù della loro dimensione ridotta, di alternativa etica, che riescono a essere sostenibili. Eppure, le potenzialità del fediverso continuano ad attirare realtà di un certo calibro. Solo nell’ultimo anno, hanno completato o stanno per completare l’integrazione in questo ecosistema decentralizzato piattaforme come Ghost (principale rivale di Substack), Flipboard (piattaforma di aggregazione e salvataggio articoli) e anche il vecchio Tumblr (ancora oggi più attivo di quanto si creda). È il segnale che qualcosa davvero sta per cambiare oppure il fragile equilibrio del fediverso rischia di essere compromesso dall’arrivo di piattaforme con decine o centinaia di milioni di utenti (e che si reggono su modelli di business tradizionali)? Sognare che le logiche alla base dell’open web contagino infine anche il mondo social non costa nulla. Ma è bene essere pronti a un brusco risveglio. L'articolo Il fediverso inizia a pensare in grande proviene da Guerre di Rete.
Cosa è il tecnopanico e perché non serve a criticare la tecnologia (e Big Tech)
Immagine in evidenza:  unsplash  Non è un mistero il fatto che viviamo in tempi distopici, dove le interconnessioni tra tecnologia e politica illuminano un presente caratterizzato da controversie, diritti violati, potere sempre più concentrato. È una realtà politico-economica che in alcune sue sfumature fa impallidire le narrazioni più scure del cyberpunk, come scrive il collettivo Acid Horizon, ma sono anche tempi che vengono, spesso, molto mal raccontati. Specialmente nei media mainstream, da quasi una decina di anni, i toni attorno alle tecnologie si sono fatti spesso apocalittici: secondo queste narrazioni, la rete ha ucciso la democrazia, mandato al potere il nuovo autoritarismo, ci ha reso soli, stupidi e sudditi. Tutto perché passiamo gran parte del nostro tempo online o interagendo con tecnologie digitali.  Quello che spesso viene chiamato “techlash”, ovvero il clima di manifesta e crescente ostilità verso la tecnologia che si è instaurato nel dibattito pubblico a partire dallo scandalo Cambridge Analytica è un fenomeno ancora in corso che, se da un lato ha favorito fondamentali discussioni critiche attorno alla tecnologia, aperto importanti percorsi legislativi e di regolamentazione e ha chiuso un momento di euforico e acritico entusiasmo nei confronti del “progresso” della Silicon Valley, dall’altro ha anche scoperchiato il vaso di Pandora del catastrofismo più superficiale e vacuo. Peraltro, quel catastrofismo è l’altro lato della medaglia del “tecnoentusiasmo”: un mix di determinismo, ascientificità, hype e profezie che si autoavverano.  TECNOPANICO, IL SAGGIO DI ALBERTO ACERBI Il nuovo saggio di Alberto Acerbi, ricercatore del Dipartimento di sociologia e ricerca sociale dell’Università di Trento, Tecnopanico (Il Mulino) affronta proprio la genesi di quel catastrofismo e delle paure su cui si basa, puntando a smontare alcuni miti e false credenze della vulgata tecnologica contemporanea. Guardando principalmente a quello che pensiamo di sapere su disinformazione, teorie del complotto, algoritmi e implicazioni psicologiche dell’uso dei social media, il saggio di Acerbi fornisce soprattutto una panoramica degli studi sul tema che cerca di portare al centro del dibattito i risultati della ricerca, che in molti casi è sanamente non conclusiva, e lo fa con un sano scetticismo.  Per quanto sia fondamentale non negare le complicazioni e le problematicità di questo momento storico-tecnologico – come dicevamo fortemente distopico – resta importante navigare quei problemi basandosi su dati reali e non su narrazioni di comodo e alternativamente allarmistiche o di acritico entusiasmo. E, soprattutto, senza cadere in un facile panico morale che serve per lo più a sviare la discussione e l’analisi del presente. Anche perché, spiega Acerbi, quasi tutti i “presenti” hanno puntato pigramente il dito contro le nuove tecnologie di quei momenti, che si sono in seguito diffuse e sono divenute tra le più rappresentative di quelle epoche. A ogni tecnologia corrisponde quindi un nuovo “panico”. “Il panico attorno alla tecnologia non si manifesta esclusivamente con le tecnologie di comunicazione e digitali, anzi, uno dei temi principali del libro riguarda proprio l’importanza di assumere una ‘lunga prospettiva’ sulle reazioni alle tecnologie passate. In questo modo possiamo osservare dei pattern comuni e capire meglio quello che sta accadendo oggi”, spiega Acerbi a Guerre di Rete. “Ci sono panici che possiamo avere ma possiamo andare più lontano nel passato: la radio, i romanzi, la stampa o addirittura la scrittura. Pensiamo per esempio alla stampa. Negli anni successivi alla sua diffusione in Europa c’erano preoccupazioni che ricordano quelle di oggi: moltiplicazione incontrollata di informazioni, circolazione di falsità e via dicendo. L’aspetto interessante è che la società si è adattata alla stampa con altre invenzioni, come gli indici analitici e le enciclopedie, e tramite cambiamenti di comportamenti che puntano a risolvere questi problemi”.  UNA CONCEZIONE DETERMINISTICA DELLE TECNOLOGIE Alla base del “tecnopanico” c’è una concezione deterministica delle tecnologie, che le inquadra come forze indipendenti dalla produzione umana o dal contesto socio-politico che le produce, capaci in maniera autonoma di generare effetti diretti nella società, come se non fossero un prodotto di quest’ultima, ma una forza aliena. Secondo Acerbi, in particolare, queste forme di panico “considerano l’introduzione delle tecnologie come un processo a senso unico, in cui una nuova tecnologia cambia in modo deterministico le nostre abitudini, la nostra società e la nostra cultura”. Al contrario, come invece insegnano, per esempio, decenni di studi sulla costruzione sociale della tecnologia, nessuna innovazione, nemmeno quella più potente (come l’AI, ci arriviamo) ha queste capacità. Eppure, il “tecnopanico” è dappertutto e spesso, anzi, guida le scelte di policy e di regolamentazione delle tecnologie digitali, sedendosi ai tavoli dei legislatori più spesso degli esperti. Anche perché il “tecnopanico” ha megafoni molto forti. “Sicuramente oggi il ‘tecnopanico’ è diventato mainstream. Una ragione è l’integrazione capillare della tecnologia nella vita quotidiana: tutti abbiamo un’esperienza personale e diretta di smartphone, social media e via dicendo”, spiega ancora Acerbi. “Questo è un pattern con caratteristiche ricorrenti: il riferimento a un’epoca precedente in cui le cose erano migliori. Pensiamo all’idea di epoca della ‘post-verità’, che necessariamente suppone l’esistenza di un’epoca ‘della verità’. L’amplificazione da parte di media che spesso sono in diretta concorrenza con le tecnologie, come gli attacchi ai social media dai canali di informazione tradizionali, creano una narrazione in cui il pubblico è visto come passivo, vulnerabile, facilmente manipolabile”.  MISINFORMAZIONE, DISINFORMAZIONE E INFORMATION DISORDER La credenza che vuole gli essere umani vulnerabili e manipolabili è al centro, per esempio, del “tecnopanico” con cui spesso si parla di mis- e disinformazione e, in generale, dei fenomeni connessi all’information disorder. “Ci sono varie ragioni che spiegano il successo delle narrazioni allarmistiche riguardo alla disinformazione online. Una è semplicemente che, rispetto all’epoca pre-social media, la disinformazione è visibile e quantificabile. Ma ci sono ragioni più profonde”, spiega l’autore di Tecnopanico. Queste ragioni sono spesso politiche: “La disinformazione fornisce una causa e possibilmente una soluzione semplice a problemi complessi. È facile pensare che le persone che votano diversamente da noi, o che sono contrarie ai vaccini, siano influenzate primariamente dalla disinformazione. In questo modo, però, non si guarda alle cause strutturali, che hanno radici sociali, culturali, ed economiche più complesse”.  Inoltre, siamo naturalmente propensi a pensare che siano le altre persone a essere predisposte a cadere in false credenze e mai noi stessi, un elemento verificato da Acerbi stesso in un esperimento con Sacha Altay (Experimental psychologist dell’Università di Zurigo, nda): “Abbiamo chiesto ai partecipanti quanto pensassero che la disinformazione online fosse diffusa e pericolosa insieme ad altre domande. Il fattore che prediceva meglio quanto i partecipanti fossero preoccupati della disinformazione online era la differenza tra la loro abilità percepita di identificare informazioni false e quello che pensavano degli altri. C’è anche un nome per questo: effetto terza persona”. Ovviamente, la disinformazione esiste, e questo spiega perché si sia vista crescere l’attenzione verso di essa da parte della ricerca, del mondo dell’informazione e della politica. Il problema, però, emerge quando si utilizza questa facile spiegazione per dare ragione di fenomeni sociali e politici profondi, complessi e di lungo periodo. Per esempio, la Brexit non è avvenuta per causa diretta della disinformazione sui social media e Donald Trump non ha vinto – due volte – le elezioni presidenziali a causa solamente della propaganda digitale. Spesso, però, questi fenomeni, che certamente concorrono al clima politico contemporaneo e al rendere le sue dinamiche ancora più complesse, vengono utilizzati come prova conclusiva per dare una giustificazione a rivolgimenti politici radicali.  LA SVOLTA DI CAMBRIDGE ANALYTICA E IL TECHLASH Uno dei momenti di svolta in questi dibattiti, e che viene spesso considerato come l’inizio di questo tipo di techlash, è stato lo scandalo Cambridge Analytica del 2018. Cambridge Analytica ha aperto un varco nel business, per lo più oscuro, della propaganda politica digitale, sollevando enormi interrogativi legati ai temi di data justice e costretto Meta a un’operazione trasparenza inedita. Presto, però, le conseguenze politiche dello scandalo, poiché toccavano Donald Trump e il “Leave” nel contesto della Brexit, hanno preso il sopravvento nella copertura mediatica e anche nella cultura pop. La storia aveva in sé diversi elementi fondativi del “tecnopanico”: l’uso potenzialmente manipolatorio delle tecnologie digitali, la loro applicazione in politica, le connessioni con forze politiche di estrema destra, tratti potenzialmente criminosi e una genesi giornalistica non usuale: un leak. E i toni sensazionalistici hanno presto preso il sopravvento su quella che, invece, poteva essere una necessaria analisi di come l’economia dei dati fosse progressivamente diventata un colabrodo, con conseguenze sui diritti di tutte le personei.  “Da subito, nel caso di Cambridge Analytica, i ricercatori avevano mostrato che gli effetti reali delle campagne di CA erano quantomeno dubbi. C’erano punti importanti: la raccolta e l’uso opaco dei dati personali, le pratiche delle piattaforme digitali, la mancanza di trasparenza e accountability, ma questo veniva oscurato da una narrazione semplificata e drammatica, centrata su un colpevole chiaro e su effetti immediati e spettacolari”, spiega Alberto Acerbi che, in Tecnopanico, dedica un capitolo al caso. Una dinamica simile, in relazione ai rischi “esistenziali” della tecnologia, si vede oggi all’opera nel modo in cui l’intelligenza artificiale viene narrata nel dibattito pubblico, una fucina sempre proficua di “tecnopanico”, con paure, spesso, più fantascientifiche che altro.  “La narrazione semplificata ed esagerata, ripetuta in modo analogo da accusatori e dai CEO delle aziende di AI,  impone un focus su scenari apocalittici o su episodi sensazionalistici, più che su temi cruciali come i bias nei dataset, le implicazioni sul lavoro o il potere di pochi attori nel dettare le regole dello sviluppo tecnologico”, continua Acerbi. “Anche in questo caso, per ora, le ricerche mostrano effetti tutto sommato limitati: per esempio, molti ricercatori e soprattutto i media erano preoccupati dell’influenza dell’AI nell’anno elettorale 2024. Si pensava a falsi e propaganda super-efficace. Oggi possiamo dire che niente di ciò è successo”. L’utilizzo dell’AI a fini di propaganda politica nell’anno in cui la metà della popolazione del pianeta è andata a votare è infatti risultato molto ridotto, come confermato da diverse analisi. Anche i deepfake, una delle tecnologie più dibattute in questo terreno, al momento hanno trovato un’applicazione limitata – ma crescente – nella propaganda politica, mentre continuano invece a essere un fenomeno amplissimo e drammatico nel contesto della misoginia online, della diffusione non consensuale di materiale intimo e della violenza facilitata dalla tecnologia. GLI EFFETTI COLLATERALI DEL TECNOPANICO Uno dei meriti maggiori di Tecnopanico è quello di mostrare come queste narrazioni dedicate alla tecnologia siano spesso molto simili tra loro e adattabili alle caratteristiche delle tecnologie verso cui vengono indirizzate e come abbiano la capacità di diventare molto potenti, specialmente nel mainstream, spesso finendo per indebolire anche le critiche più sostanziali, necessarie e radicali: “Uno degli effetti collaterali più perversi del tecnopanico è proprio questo:  rende molto più difficile articolare obiezioni e analisi ragionate, basate su dati e riflessioni approfondite, senza essere immediatamente inglobati (o respinti) dentro una narrazione allarmistica già saturata”, spiega Acerbi. Questo accade anche alla ricerca accademica, che fatica a spingere i suoi risultati e il suo punto di vista: “Quando ogni critica viene assorbita in un ecosistema comunicativo dominato da titoli sensazionalistici, indignazione morale e profezie apocalittiche, le voci più pacate rischiano di suonare troppo distaccate o addirittura complici del sistema. In realtà penso sia il contrario. Come scrivo nel libro, ho spesso notato una strana convergenza tra tecno-ottimisti e tecno-catastrofisti: entrambi pensano che le tecnologie abbiano un effetto deterministico e dirompente sugli individui e sulla società e che il nostro ruolo sia soprattutto passivo. Come visto negli esempi di cui abbiamo parlato, le narrazioni allarmistiche fanno molto comodo a coloro che controllano questi strumenti: legittimano il loro (presunto) potere e oscurano i problemi più pressanti”, conclude Acerbi.   Questo è particolarmente evidente in relazione all’AI, attorno alla quale il dibattito è ancora sensazionalistico e spesso guidato dalle aziende, che hanno tutto l’interesse a farsi percepire come le uniche depositarie delle soluzioni necessarie a tenere sotto controllo i pericoli connessi alla tecnologia che esse stesse stanno creando. Il risultato è far, di nuovo, passare l’AI come qualcosa di magico, depositario di poteri e tratti inspiegabili e di difficile controllo, forse prossimi alla presa del potere, come vuole il topos narrativo più abusato relativo alla tecnologia. Alla società digitale in cui ci troviamo, però, servono meno narrazioni e più ricerca, meno profezie e più policy e, in definitiva, meno tecnopanico e più critica. L'articolo Cosa è il tecnopanico e perché non serve a criticare la tecnologia (e Big Tech) proviene da Guerre di Rete.
Le frontiere belliche dell’intelligenza artificiale
Immagine in evidenza: il drone ucraino R18 da Wikimedia Nei primi mesi del 2023, una risoluzione proposta dall’allora ministro della Difesa Oleksii Reznikov ha portato all’introduzione del software Delta nelle forze di difesa ucraine. Delta è un software di situational awareness, progettato per offrire una panoramica della situazione tattica e operativa di una porzione del fronte in un dato momento. Lo fa attraverso un’interfaccia che assomiglia molto a quella di un videogame RTS (real time strategy), offrendo in tempo reale una panoramica della situazione a tutti i livelli della catena di comando, con particolare utilità per gli ufficiali intermedi e superiori. Nel 2022, Delta era stato presentato alla NATO Consultation, Command and Control Organisation (NC3O), organismo fondato nel 1996 con l’obiettivo di garantire capacità di comunicazione, comando e controllo coerenti, sicure e interoperabili tra i membri dell’alleanza. Durante la presentazione, Delta ha suscitato notevole interesse per la sua capacità di trasferire informazioni in tempo reale, facilitando decisioni più rapide e consapevoli da parte dei comandanti. Nel 2024, l’interoperabilità di Delta con i sistemi NATO è stata testata durante la CWIX (NATO Allied Command Transformation’s Coalition Warrior Interoperability eXploration, eXperimentation, eXamination eXercise) e, a oggi, è noto che almeno un paese dell’alleanza sta trattando con l’Ucraina l’acquisto del software. Al momento, oltre alle capacità di situational awareness, Delta permette servizi di streaming per gli UAV (Unmanned Aerial Vehicle, veicolo aereo a pilotaggio remoto) e videocamera fisse; chat sicure per la comunicazione; strumenti di pianificazione e matrici di sincronizzazione per il riconoscimento e l’acquisizione di bersagli; integrazione con sistemi robotici e altre funzionalità in corso di sviluppo. RETI E SENSORI Alla base delle prestazioni offerte da Delta nel presentare in tempo reale la situazione di una specifica porzione del fronte c’è la crescente digitalizzazione del campo di battaglia. Come accaduto in contesti civili, anche sul campo di battaglia l’introduzione di connettività e dispositivi digitali ha avuto come conseguenza la diffusione di sensori in grado di generare e raccogliere grandi quantità di dati. Una volta trasformati in informazioni, i dati così raccolti e generati permettono di migliorare la consapevolezza e i processi decisionali. La dottrina militare ha recepito questa trasformazione attraverso il concetto di network centric warfare (“guerra centrata sulle reti”). Questo concetto rappresenta la capacità delle organizzazioni militari di raccogliere dati e distribuire informazioni in tempo reale attraverso dispositivi e reti ad alta velocità. Una capacità che continua a evolversi grazie a quella che Mick Ryan, divulgatore militare e generale in pensione dell’esercito australiano, definisce la “rete a maglie di sensori civili e militari” che avvolge oggi il campo di battaglia. L’invasione dell’Ucraina mostra come, accanto alle reti militari, alla generazione e raccolta di dati contribuiscano oggi anche reti civili. L’open source intelligence o OSINT, l’analisi dei conflitti da parte di civili attraverso dati recuperati dai social network, è possibile grazie alla diffusione di sensori non militari. Sono loro che registrano e trasmettono in tempo reale ciò che accade dentro e intorno al campo di battaglia. Questa trasformazione rende i teatri bellici più trasparenti e amplia le fonti a disposizione delle forze armate. Le reti che nascono da questo intreccio di capacità civili e militari si distinguono per una serie di elementi, caratteristiche e funzionalità: la diffusione di sensori che raccolgono dati su quanto accade, la capacità di condividere e comunicare i dati dal sensore agli operatori, sistemi sicurezza che impediscono ai dati di essere intercettati o inquinati, interfacce capaci di presentare i dati raccolti e trasmessi per dare forma al processo decisionale e infine la presenza di personale umano a cui spetta la responsabilità di trasformare le informazioni in azione, generando effetti sul campo di battaglia. È attraverso reti di questo tipo che le forze armate rispondono all’elevato livello di complessità raggiunto oggi dallo scontro bellico. Un contesto rischioso e competitivo, in cui, per avere successo, le organizzazioni militari devono coordinare tra di loro le risorse a disposizione in tutti e cinque i domini del campo di battaglia: aereo, terrestre, marittimo, spaziale e cyber. Delta fa proprio questo: raccoglie i dati dal fronte e li trasforma in informazioni utili. È così che migliora le decisioni della catena di comando e favorisce un’azione più efficace e coordinata. Il sistema tuttavia presenta un limite di cui tenere conto: la presenza e il ruolo che gli operatori umani svolgono in questo processo. DATI, INFORMAZIONE E INTELLIGENZA ARTIFICIALE La principale caratteristica della “rete a maglie di sensori civili e militari” descritta da Mick Ryan è la sua estensione. Questa rete non è solo ampia, è anche ampiamente distribuita nello spazio. Di conseguenza altrettanto ampia è la quantità di dati che essa è in grado di generare, raccogliere e trasmettere in tempo reale a un sistema che, come Delta, ha il compito di trasformarli in informazioni capaci di influenzare i processi decisionali e determinare le azioni di una forza militare. Il problema è che, per quanto complesso, il cervello umano ha capacità limitate nel processare informazioni. Maggiore è la quantità di informazioni a sua disposizione e minore sarà la capacità di una persona di percepire, ricordare e agire nel mondo in base a essa. Di fronte a questo limite, il rischio che si corre è che l’ampia disponibilità di informazioni finisca per essere d’ostacolo invece che di aiuto per i processi decisionali e la capacità d’azione degli operatori sul campo. Questo rovesciamento avviene non soltanto per la quantità di informazioni che software come Delta riescono a presentare, ma anche per la rapidità con cui lo fanno: più sono rapidi nel trasmettere un’informazione, più gli strumenti di comunicazione accelerano il ritmo con cui gli eventi si susseguono. Lo stress di chi ha la responsabilità di reagire al modo in cui evolvono gli eventi aumenta insieme al loro ritmo. All’esigenza di affrontare e superare i limiti umani nella capacità di gestire l’informazione risponde lo sviluppo e l’integrazione di sistemi di intelligenza artificiale, che ha nei campi di battaglia ucraini uno dei suoi principali laboratori. La rapida e progressiva introduzione di questi sistemi risponde alla visione strategica del paese, che mira a sostituire con sistemi autonomi il maggior numero possibile di personale umano. L’obiettivo finale di questa innovazione è ridurre il numero delle perdite e limitare l’impatto demografico del conflitto. L’autonomia dei principali sistemi d’arma, logistici e di supporto è dunque l’orizzonte ultimo dello sviluppo tecnologico ucraino, ma non è l’unico ambito in cui l’intelligenza artificiale gioca un ruolo chiave. Il caso di Delta mostra quanto questi sistemi siano coinvolti anche nei processi di comando e controllo. In particolare essi assolvono a importanti funzioni sia nella cosiddetta ISR (Intelligence, Surveillance, Reconnaissance ovvero intelligence, sorveglianza e ricognizione), che nella ATR (Automatic Target Recognition, ovvero riconoscimento automatico dei bersagli). L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE SULLE FUNZIONI ISR Nell’ambito delle funzioni di ISR,  l’intelligenza artificiale aiuta il personale umano a superare i propri limiti in termini di capacità di gestire le informazioni, permette di analizzare grandi quantità di dati in tempo reale e di superare le complessità che derivano dalla necessità di sintetizzare dati provenienti da fonti differenti. L’IA rileva, riconosce e classifica in modo automatico obiettivi a partire dall’analisi di video e immagini provenienti da satelliti, droni in volo ad alta e bassa quota, feed di videocamere fisse. Inoltre, applica lo stesso principio anche all’analisi dei pattern sonori provenienti da sistemi acustici. Infine, trascrive metadati ed estrae key entities e insight, analizzando i testi di comunicazioni intercettate, messaggi pubblicati su chat di gruppo o report inoltrati dai civili a chatbot dedicati alla raccolta di informazioni. Un buon esempio di come sistemi di intelligenza artificiale vengano oggi integrati all’interno di Delta per aiutare gli operatori a gestire le funzioni ISR è Zvook, un sistema di analisi sonora usato nella difesa aerea. Sviluppato in collaborazione con Respeecher, una startup ucraina che prima della guerra lavorava alla generazione di voci tramite intelligenza artificiale, Zvook rileva e identifica attraverso il loro suono minacce aeree in volo a quote a cui i radar sono meno efficaci. Per farlo utilizza microfoni ad alta qualità, specchi acustici curvi per concentrare le onde sonore e un computer compatto grande quanto una scatola da scarpe Una stazione Zvook è più economica di un radar tradizionale. Il suo costo è di circa 500 dollari, funziona senza emettere segnali rilevabili e il suo raggio di scoperta è di 4,8 chilometri per i droni e di 6,9 chilometri per i missili da crociera. Il tempo necessario a una stazione Zvook per elaborare e trasmettere i suoi dati a Delta, con il quale è integrata, è di circa 12 secondi e il tasso di falsi positivi dell’1,6%. Tra le informazioni trasmesse da Zvook ci sono il tipo di bersaglio, il suo suono, il luogo in cui è stato rilevato e la direzione in cui si sta muovendo, facilitando così il compito di allertare i sistemi di difesa aerea che hanno il compito di intercettare la minaccia. L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE SULLE FUNZIONI ATR Per quanto riguarda le funzioni di ATR (riconoscimento automatico dei bersagli), l’intelligenza artificiale aiuta il personale umano a distinguere esche e camuffamenti, permette ai sistemi di operare anche in ambienti densi di contromisure elettroniche e contribuisce a migliorare la performance dei sensori in condizioni di scarsa visibilità (nebbia, pioggia, neve, durante la notte) e in ambienti ricchi di infrastrutture come quelli urbani. Per svolgere le funzioni di ATR i sistemi di intelligenza artificiale possono anche essere integrati a bordo dei veicoli senza pilota, operando per migliorare la velocità, la precisione e l’efficacia del processo di acquisizione e tracciamento dei bersagli. Tali sistemi aiutano anche gli operatori umani a determinare quali siano i bersagli prioritari, basandosi su variabili analizzate in tempo reale come il livello di pericolosità, la vicinanza alle unità amiche e gli obiettivi di una missione. Addestrato con dati open source, il sistema di ATR e basato su intelligenza artificiale noto come ZIR, dell’azienda ZIR System, è in grado di identificare un’ampia gamma di bersagli. Tra questi ci sono  personale di fanteria, automobili, minivan, camion, sistemi di difesa aerea, di artiglieria, veicoli blindati e carri armati. Una volta identificato il proprio bersaglio, ZIR, che viene montato direttamente su droni d’attacco, si aggancia a esso da un chilometro di distanza e comanda autonomamente il drone fino a 3 chilometri anche in ambienti densi di contromisure elettroniche. BREVE GUIDA ALL’ECOSISTEMA TECNOLOGICO UCRAINO Oltre all’integrazione dell’intelligenza artificiale per rispondere alle esigenze dei moderni contesti di guerra, ZIR, Zvook e Delta hanno un’altra cosa in comune: sono stati sviluppati tutti e tre in Ucraina, come alcune delle più avanzate soluzioni apparse fin dall’inizio del conflitto nel 2014. Delta, per esempio, nasce nel 2016 grazie al lavoro di Aerozvidka, un gruppo di volontari impegnato a supportare le truppe ucraine impiegate nella difesa del Donbass. Anche prima di venir adottato dalle forze di difesa ucraine, Delta è stato caratterizzato da uno sviluppo costante nel tempo e da un approccio do it yourself basato su un continuo confronto con i militari impegnati al fronte, che fornivano agli sviluppatori riscontri costanti sulle prestazioni del software. Questo approccio è alla base dell’intero ecosistema dell’IA militare ucraino. Un ecosistema di cui l’iniziativa privata, autonoma e spesso volontaria, è stata una componente fondamentale. Molte di queste tecnologie nascono infatti da applicazioni sviluppate per usi civili e commerciali, che solo in seguito all’invasione su larga scala sono state adattate a usi bellici. La dinamica industria tecnologica ucraina e l’aggressione russa sono perciò alla base del rapido sviluppo che le più avanzate tecnologie militari stanno vivendo nel corso di questo conflitto. Un’accelerazione che sta determinando il modo in cui verranno combattute le guerre del futuro. L’invasione ha avuto dunque come effetto indesiderato quello di fare da volano all’industria militare ucraina che, oggi, è una delle più innovative al mondo. Questo ha fatto sì che, mano a mano che l’invasione su larga scala proseguiva, il governo ucraino si è trovato di fronte alla necessità di riconoscere il valore strategico del comparto e regolarlo di conseguenza. Sia i servizi segreti che diversi ministeri – tra cui quello della difesa, quello degli affari interni e quello della trasformazione digitale – gestiscono oggi iniziative e infrastrutture dedicate ad accelerare lo sviluppo e l’adozione di tecnologie militari basate su intelligenza artificiale. Per quanto autonomi e, in parte, indipendenti l’uno dall’altro, tutti questi sforzi condividono lo stesso approccio dal basso verso l’alto all’innovazione, rispettoso dell’indipendenza e della natura fai da te dell’ecosistema tecnologico ucraino. PRESENTE E FUTURO DELL’INTELLIGENZA ARTIFICIALE BELLICA L’analisi del caso ucraino mostra come i conflitti siano il principale motore di sviluppo e adozione di nuove tecnologie militari. La più avanzata di queste è l’intelligenza artificiale e in merito al suo uso bellico è oggi possibile isolare tre tendenze distinte. La prima mostra come l’integrazione dell’intelligenza artificiale nelle organizzazioni militari sia un processo in crescita. La seconda che la sua adozione non può essere predeterminata, ma segue piuttosto logiche contingenti. La terza e ultima è che l’uso delle macchine non dovrebbe rimpiazzare gli operatori umani nelle funzioni di comando e controllo. Priva di supervisione umana, libera di prendere decisioni per suo conto, l’intelligenza artificiale diventerebbe di fatto un attore strategico autonomo. L’intelligenza artificiale non è infatti un semplice moltiplicatore di forze, bensì una tecnologia che approfondisce ed evolve la natura dell’interazione umano-macchina. In questo modo, l’intelligenza artificiale è in grado di riscrivere profondamente i meccanismi psicologici che garantiscono la deterrenza reciproca degli stati. Ciononostante, il dibattito sul grado di autonomia da concedere ai sistemi d’arma dotati di intelligenza artificiale è aperto e si struttura intorno a due posizioni opposte: quella che vede nella piena automazione dell’uso della forza un pericolo con notevoli implicazioni etiche; e quella che per cui l’autonomia condurrà a un futuro di guerre meno distruttive e sanguinose. L’intelligenza artificiale, al crocevia tra opportunità tattiche e rischi strategici, solleva interrogativi che nessuna tecnologia può risolvere da sola. Il futuro della guerra – e forse anche della pace – si giocherà nella capacità delle società democratiche di regolarne lo sviluppo prima che siano forze diverse a farlo. L'articolo Le frontiere belliche dell’intelligenza artificiale proviene da Guerre di Rete.
Nell’era Trump, la lotta ai migranti passa anche dalle app
Immagine in evidenza da RawPixel, licenza CC 1.0 Nelle ultime settimane, hanno suscitato grande scalpore alcune applicazioni sviluppate per segnalare alle autorità competenti i cittadini stranieri che vivono illegalmente negli Stati Uniti. In particolare, secondo The Verge, a ricevere il sostegno di Donald Trump e dei filotrumpiani è stata ICERAID, un’app che promette di premiare con una criptovaluta proprietaria, il token RAID, “i cittadini che acquisiscono, caricano e convalidano le prove fotografiche di otto categorie di sospette attività criminali”. Tra queste i maltrattamenti di animali, i rapimenti, gli omicidi, le rapine, gli atti terroristici e, naturalmente, l’immigrazione clandestina.  L’idea alla base dell’applicazione è quella di trasformare i cittadini in veri e propri “cacciatori di taglie”, permettendo loro di combattere la criminalità in collaborazione con le forze dell’ordine e le agenzie di sicurezza. Con ICERAID, gli americani hanno infatti la possibilità di scattare e caricare la foto di un presunto reato in corso, fornendo tutte le informazioni utili per consentire alle autorità competenti di intervenire, ma solo dopo che la veridicità della segnalazione è stata confermata (al netto degli errori) da un’intelligenza artificiale. Ma non è tutto. Come riportato da Newsweek, l’app vanta un “programma di sponsorizzazione” che promette di “ricompensare gli immigrati privi di documenti e senza precedenti penali che si fanno avanti, attraverso un programma di sostegno in cui vengono aiutati a perseguire lo status legale negli Stati Uniti tramite vari percorsi, tra cui l’assistenza per la ricerca di un avvocato specializzato in immigrazione”.  Eppure, nonostante i sostenitori di Trump abbiano promosso ICERAID in ogni modo possibile, l’applicazione non sembra star riscuotendo il successo sperato. Allo stato attuale, risultano solo otto segnalazioni di attività criminali da parte dei cittadini statunitensi, di cui soltanto tre ritenute valide dall’AI dell’applicazione. Una delle ragioni è probabilmente il fatto che l’app è stata rilasciata sul mercato senza che la sua criptovaluta fosse ancora disponibile, il che ha reso gli americani restii a utilizzarla. Ma anche la cattiva reputazione del fondatore del progetto Jason Meyers – accusato di appropriazione indebita di fondi in una delle sue attività precedenti – non ha contribuito alla credibilità di ICERAID. Di certo, i sostenitori di Trump e gli esponenti della destra americana stanno cercando di trasformare i cittadini comuni in “vigilantes” pronti a dare la caccia agli immigrati clandestini, con o senza il supporto della tecnologia. A gennaio un senatore dello Stato del Mississippi ha presentato una proposta di legge che prevedeva una ricompensa di 1.000 dollari per i cacciatori di taglie che avrebbero portato a termine la cattura di immigrati entrati nel paese senza autorizzazione. Fortunatamente, la proposta non è mai diventata legge, ma ha comunque dimostrato qual è la direzione che sta prendendo la destra americana.  TRUMP STA SPINGENDO GLI IMMIGRATI ALL’AUTOESPULSIONE CON UN’APP Il presidente degli Stati Uniti Donald Trump sembra intenzionato a utilizzare ogni mezzo possibile per mantenere la promessa di combattere l’immigrazione clandestina e contenere i flussi di migranti in ingresso al confine sud-occidentale del Paese. Proprio qualche settimana fa, la segretaria alla Sicurezza nazionale Kristi Noem ha infatti annunciato il lancio dell’app Cbp Home, dotata di una funzione specifica che “offre ai cittadini stranieri la possibilità di andarsene ora e di auto-espellersi, il che darebbe loro l’opportunità di tornare legalmente in futuro e vivere il sogno americano”. Più nel dettaglio, l’applicazione non è altro che la versione completamente rinnovata di Cbp One, un’app promossa dall’amministrazione Biden per agevolare i migranti nel fissare un appuntamento per avviare le pratiche di richiesta di asilo negli Stati Uniti. Ora, invece, con Donald Trump l’applicazione ha preso tutta un’altra forma. Secondo quanto riferito da Newsweek, Cbp Home offre alle persone che si trovano illegalmente nel paese, o a cui è stata revocata la libertà vigilata, la possibilità di comunicare al Dipartimento di Sicurezza Nazionale (DHS) la loro volontà di abbandonare gli Stati Uniti, così da evitare “conseguenze più dure”, come la detenzione o l’allontanamento immediato. Per accertarsi che abbiano davvero abbandonato gli Stati Uniti, l’app chiede una conferma della loro espulsione. “Se non lo faranno, li troveremo, li deporteremo e non torneranno mai più”, ha chiosato la segretaria Noem, facendo riferimento all’attuale legge sull’immigrazione degli Stati Uniti, che può impedire a chi è entrato illegalmente nel paese di rientrarvi entro un periodo di tempo che varia dai tre anni a tutta la vita. La nuova funzione di auto-espulsione di Cbp Home, infatti, fa parte di “una più ampia campagna pubblicitaria nazionale e internazionale da 200 milioni di dollari”, che include annunci radiofonici, televisivi e digitali in diverse lingue per dissuadere i migranti dal mettere piede sul suolo statunitense. In questo modo, Donald Trump spera di mantenere la promessa fatta durante la sua campagna elettorale: attuare “il più grande programma di espulsione nella storia del paese”. Ad aprile dello scorso anno, in un’intervista al TIME, l’allora candidato repubblicano aveva dichiarato la sua intenzione di voler espellere dagli Stati Uniti “dai 15 ai 20 milioni di migranti”. Già dal suo primo giorno come presidente, Trump ha dimostrato di voler onorare quanto promesso. Poche ore dopo il suo insediamento, ha firmato una direttiva per dichiarare l’emergenza migratoria nazionale al confine con il Messico, e ha riattivato il programma “Remain in Mexico”, che costringe i richiedenti asilo a rimanere in Messico in attesa che venga elaborato il loro status di immigrati. Inoltre, coerentemente con le sue promesse elettorali, Trump ha presentato una proposta di legge per eliminare la concessione della cittadinanza automatica ai figli degli immigrati nati negli Stati Uniti. LA TECNOLOGIA PER DIFENDERSI DALLA POLITICA DI TRUMP Con l’intensificarsi delle azioni, politiche e non, messe in campo da Donald Trump per combattere l’immigrazione clandestina, anche i migranti stanno ricorrendo alla tecnologia per sfuggire ai raid delle forze dell’ordine e assicurarsi una permanenza nel paese. Secondo quanto riferito da Newsweek, nelle ultime settimane sta riscuotendo un buon successo SignalSafe, un’app di community reporting usata dai migranti o chi li aiuta per segnalare le operazioni degli agenti federali e della polizia locale. Una piattaforma che dichiara di non voler ostacolare le attività dell’ICE (United States Immigration and Customs Enforcement), ma che ha l’obiettivo di “dare potere alle comunità fornendo ai cittadini uno strumento per segnalare e condividere quello che accade negli spazi pubblici”, come riferiscono gli sviluppatori dell’applicazione, che per il momento hanno preferito mantenere segreta la loro identità.  Proprio allo scopo di “garantire la qualità e l’affidabilità” delle informazioni, SignalSafe utilizza “un’intelligenza artificiale avanzata per filtrare le segnalazioni inappropriate o palesemente false non appena arrivano”, che passano poi al vaglio di moderatori umani, i soli a poterle etichettare come verificate o revisionate. In questo modo gli sviluppatori si assicurano che gli utenti abbiano accesso a informazioni veritiere, che possano aiutarli a “prendere decisioni che proteggano se stessi e gli altri”. Negli ultimi anni, l’ICE è stata fortemente contestata per le sue pratiche che includono, tra le atre cose, l’uso di furgoni neri, passamontagna e incursioni improvvise. Una strategia di intervento che fa paura, e che spinge i migranti a rivolgersi alla tecnologia per cercare di tenere al sicuro famiglie, amici e conoscenti. Non stupisce, quindi, che SignalSafe non sia il solo strumento a cui gli immigrati stanno facendo riferimento per evitare l’espulsione dagli Stati Uniti.  Alla fine del mese di marzo, il Washington Post ha riferito che gli immigrati clandestini stanno facendo un largo uso dei social media per “condividere in tempo reale la posizione di veicoli e agenti dell’ICE”, utilizzando parole in codice come “camioncino dei gelati” per segnalare un furgone nero nei paraggi, così da evitare la censura sulle piattaforme e permettere ai loro coetanei di sfuggire ai controlli delle autorità competenti. Questa strategia, com’è facile immaginare, ha irritato i sostenitori di Donald Trump, che hanno reagito mostrando tutta la loro disapprovazione sui social media. Nelle prime due settimane di marzo, stando ai dati della società di analisi Sprout Social, ci sono state quasi 300.000 menzioni dell’ICE nei contenuti pubblicati su X, Reddit e YouTube (un aumento di oltre cinque volte rispetto allo stesso periodo di febbraio), il che dimostra quanto la questione dell’immigrazione clandestina sia al centro del dibattito pubblico.  In queste settimane i sostenitori di Trump stanno pubblicando decine e decine di segnalazioni false sulle attività dell’ICE, così da alimentare i sentimenti di paura e confusione negli immigrati clandestini che cercano di salvaguardare la loro permanenza negli Stati Uniti. Una strategia che non sempre sembra funzionare. Come riferisce il Washington Post, i migranti preferiscono setacciare i social media alla ricerca delle informazioni giuste piuttosto che incontrare le forze dell’ordine, anche se questo richiede più tempo. E hanno valide ragioni per farlo, considerando che i filotrumpiani non perdono occasione per creare scompiglio. Lo dimostra la storia di People Over Papers, una mappa collaborativa che segnala i presunti avvistamenti dell’ICE in tutto il Paese e che ha ricevuto più di 12.000 segnalazioni da quando è diventata virale su TikTok alla fine dello scorso gennaio. Secondo quanto raccontato da Celeste, fondatore del progetto, dopo che gli account X Libs of TikTok e Wall Street Apes hanno pubblicato un post in cui sostenevano che People Over Papers aiutasse i criminali a eludere le forze dell’ordine, la mappa è stata invasa da decine e decine di segnalazioni false. Eliminate una a una dai volontari che seguono il progetto.  GLI STRUMENTO DI SORVEGLIANZA NELL’IMMIGRAZIONE Se ICERAID e SignalSafe sono due applicazioni che coinvolgono i cittadini in materia di immigrazione clandestina negli Stati Uniti, non va dimenticato che già da qualche tempo il governo utilizza la tecnologia per sorvegliare gli immigrati che non godono di uno status legale nel paese, anche se non sono detenuti in carcere o in altre strutture specializzate, applicando loro strumenti di localizzazione come smartwatch e cavigliere. Nello specifico, secondo quanto riferito dal New York Times, le autorità governative stanno utilizzando l’app SmartLink sviluppata da Geo Group, uno dei più grandi fornitori statunitensi in ambito penitenziario, per monitorare la posizione dei clandestini identificati dall’ICE. Grazie al programma “Alternative to detection”, questi possono continuare a vivere nel paese, purché segnalino alle forze dell’ordine la loro posizione attraverso l’applicazione quando richiesto, semplicemente scattandosi un selfie e caricandolo in-app.  Un metodo di sorveglianza imvasivo, il cui uso sembra essere cambiato radicalmente con l’arrivo di Donald Trump alla Casa Bianca. Già dai primi mesi del suo mandato, infatti, l’app sembra sia stata usata per comunicare all’ICE la posizione degli immigrati, facilitandone così l’arresto. Secondo il Dipartimento di Sicurezza Nazionale, nei primi 50 giorni di mandato del nuovo presidente sono infatti stati arrestati più di 30.000 immigrati.  Non c’è da stupirsi, quindi, che Geo Group sia la compagnia che ha ricevuto più finanziamenti governativi di ogni altra. O che le politiche di immigrazione del presidente degli Stati Uniti abbiano fatto impennare il valore delle sue azioni sul mercato. Eppure, nonostante i sostenitori di Trump abbiano elogiato e supportato in ogni modo possibile questa tecnologia, gli esperti di sicurezza ne hanno criticato aspramente l’uso. “Il governo la presenta come un’alternativa alla detenzione”, ha dichiarato Noor Zafar, avvocato senior dell’American Civil Liberties Union, un’organizzazione non governativa per la difesa dei diritti civili e delle libertà individuali negli Stati Uniti. “Ma noi la vediamo come un’espansione della detenzione”. L'articolo Nell’era Trump, la lotta ai migranti passa anche dalle app proviene da Guerre di Rete.
Amore sintetico, come l’AI sta cambiando il mercato delle sex dolls
Immagine in evidenza: “Computer generated image of a human body” di Allison Saeng, acquisita da Unsplash+, licenza Unsplash+, riproduzione riservata Non è raro che vengano scambiate per cadaveri. Abbandonate sulla riva di un fiume, trascinate dalle onde fino a una spiaggia o infilate dentro un trolley. Negli ultimi anni le sex dolls, bambole per adulti create per l’intrattenimento sessuale, hanno generato più di un falso allarme in tutto il mondo. Tra la prima e la seconda ondata di Covid-19 in Giappone, due di queste bambole sono state scambiate per donne annegate. Episodi simili si sono verificati nel Regno Unito, dove una è riaffiorata nel fiume Trent, e in Australia, nel Queensland. In Nuova Zelanda, una donna che passeggiava con il cane a Tapuae Beach ha chiamato la polizia credendo di aver trovato un cadavere nudo e senza testa.  Anche in Italia, nei boschi delle Manie vicino a Finale Ligure, due turisti hanno scambiato per un corpo umano una gamba che spuntava da un trolley abbandonato. In nessuno di questi casi si trattava di una persona reale. A quanto pare, i produttori di sex dolls stanno quindi vincendo la sfida (finora) più ambiziosa: quella con il realismo. Il mondo dei sex toys non è affatto uno sfizio per pochi. È un settore in piena espansione, con numeri che parlano chiaro. Le stime internazionali descrivono un mercato globale da 2,5 miliardi di dollari, destinato a raddoppiare entro il 2033. Come altri giocattoli sessuali, anche le sex dolls sono sempre più normalizzate: i tempi sono cambiati, e i discorsi su sessualità e solitudine, almeno nelle grandi città, sono ormai entrati nel dibattito pubblico. Questo cambiamento culturale ha spinto aziende di tutto il mondo a dedicarsi al settore, investendo nel miglioramento dei prodotti a partire dal materiale, che viene comunemente definito silicone iper realistico.  SOGNI ELETTRICI, DESIDERI UMANI La pandemia non ha fatto solo la fortuna delle grandi aziende tecnologiche: quelle produttrici di sex dolls hanno infatti vissuto un momento d’oro, che ne ha decretato l’entrata sul mercato mondiale. L’isolamento e il distanziamento sociale hanno spinto gli acquisti online anche in questo ambito, per via della discrezione che garantiscono agli utenti. La crescita è stata talmente improvvisa ed elevata che alcune aziende hanno dovuto adattare la produzione per far fronte alla domanda. Un esempio è la Libo Technology di Shandong, in Cina, che nel 2020 ha aumentato il personale addetto alla produzione di sex dolls del 25%, assumendo 400 lavoratori. La responsabile per le vendite estere, Violet Du, ha dichiarato al South China Morning Post che le linee di produzione erano attive 24 ore su 24 e che i dipendenti facevano doppi turni. La Aibei Sex Dolls Company di Dongguan, sempre in Cina, si è trovata a rifiutare ordini a causa dell’eccessivo numero di richieste.  Come è facile intuire, il paese del dragone è leader nella produzione di queste bambole per via dei bassi costi di produzione e di esportazioni vantaggiose verso l’Occidente. Le grandi fabbriche riescono a produrre circa 2.000 unità al mese, mentre quelle più piccole arrivano a una media di 300-500 bambole, come dichiarato dal direttore generale della Aibei. Sebbene, a causa del conservatorismo culturale, in Cina il mercato delle sex dolls rimanga di nicchia, negli Stati Uniti e in Europa è invece in forte espansione, con guadagni significativi. Nel Vecchio continente le stime più aggiornate parlano di un mercato che oscilla tra i 400 e i 600 milioni di dollari nel 2023. Tra i mercati di importazione più attivi ci sono Francia, Regno Unito, Paesi Bassi e anche l’Italia. Nel 2021, La Stampa riportava un aumento del 148% nelle vendite di sex toys cinesi nel nostro Paese, incluse le sex dolls.  Nel 2022, un rivenditore di bambole statunitensi RealDoll ha aperto un negozio fisico nella periferia romana. Accompagnato da un e-commerce attivo già dal 2020, lo spazio fisico “nasce per offrire ai clienti la possibilità di vedere e toccare con mano i prodotti, considerando anche il costo elevato che hanno” spiega il proprietario a Guerre di Rete. Il negozio offre un servizio completo, consentendo ai clienti non solo di osservare, ma anche di toccare le bambole. “Il 60% dei nostri clienti sono uomini in una relazione stabile”, continua il proprietario, aggiungendo che “si tratta spesso di coppie alla ricerca di un elemento di novità nella loro intimità”. Tuttavia, ci sono anche altri tipi di clienti: “L’altro 30% è rappresentato da uomini separati, che si sentono soli e cercano affetto. Vogliono tornare a casa e trovare qualcuno ad aspettarli”. La parte rimanente comprende persone introverse, ma anche appassionati di fotografia, registi e proprietari di locali. Per quanto riguarda l’AI, il proprietario spiega che “oltre a quella che stanno introducendo i produttori cinesi, internamente stiamo sviluppando un device mobile simile ad Alexa, che renderà le bambole capaci di interagire con il proprietario”. COSTRUITE PER AMARE, PROGRAMMATE PER IMPARARE  Essendo ormai ovunque, l’intelligenza artificiale non poteva mancare nemmeno nel mondo delle bambole sessuali, garantendo oltre all’intrattenimento anche l’interazione. È un’innovazione ancora recente, ma che sta cambiando radicalmente il settore. In una sfida globale degna delle grandi potenze, anche in questo campo Stati Uniti e Cina si contendono il primato. Da una parte RealDoll, azienda americana, dall’altra la cinese WMDoll: entrambe hanno cominciato a integrare funzionalità di AI tra il 2016 e il 2017. I primi modelli offrivano movimenti di occhi, testa e altre parti del corpo, accompagnati da una capacità di risposta vocale piuttosto limitata. Più che vere conversazioni, si trattava di semplici repliche a domande preimpostate da parte dell’utente. Lo sviluppo è stato inizialmente lento, come ha spiegato Liu Ding, product manager di WMDoll, che attribuisce la causa anche alla scarsa volontà di investire nell’intelligenza artificiale applicata ai prodotti per adulti. Ma nel 2024 lo scenario è cambiato: l’azienda cinese ha compiuto un deciso passo avanti con il lancio della serie MetaBox, che ha rivoluzionato anche il resto del mercato. Le nuove bambole, equipaggiate con modelli linguistici open source di grandi dimensioni (LLM) come Llama di Meta, offrono un’interazione molto più avanzata, consentendo all’utente di scegliere tra diverse “personalità” delle bambole. Queste ultime sono inoltre in grado di sostenere conversazioni (perlopiù in inglese) anche a distanza di giorni, ricordando quanto detto in precedenza. Questa funzione, tuttavia, richiede una connessione costante ai server cloud e una fonte continua di energia elettrica, mettendo in evidenza uno degli aspetti attualmente più critici dell’AI: il suo elevato consumo energetico. Inoltre, WMDoll sta sviluppando collane, braccialetti, anelli e altri dispositivi pensati per connettere anche i modelli precedenti con il loro proprietario. Display "New Metabox AI Feature From WM Doll" from YouTube Click here to display content from YouTube. Learn more in YouTube’s privacy policy. Mostra sempre i contenuti da YouTube Open "New Metabox AI Feature From WM Doll" directly Nel 2017 la compagnia americana RealDoll ha invece lanciato Harmony, progettata per interagire con gli utenti tramite una combinazione di software di riconoscimento vocale e chatbot, che le permette di dare risposte personalizzate e di simulare conversazioni. “È dotata di un sistema cranico modulare con molteplici punti di attuazione, che consente alla bambola di assumere espressioni, muovere la testa e parlare con te. Anche gli occhi possono muoversi e sbattere le palpebre, creando un’esperienza mai vista prima con una bambola” si legge sul sito. Nella sua evoluzione più recente, Harmony X, RealDoll ha cercato di offrire un servizio sempre più immersivo e realistico, andando oltre l’aspetto fisico della bambola e includendo l’interazione emotiva e psicologica. Una bambola “progettata per funzionare con il software di intelligenza artificiale personalizzabile ‘X-Mode’, che ti permette di creare personalità uniche e controllare la voce del tuo robot”. Al di là dei gusti, il costo rimane un argomento spinoso. Soprattutto se integrate con l’AI, le sex dolls sono al momento appannaggio di pochi. Per gli utenti che vogliono interagire con una bambola sessuale RealDoll, il cui costo a figura intera è di 4.000 dollari, c’è da aggiungere un ulteriore abbonamento mensile di 40 dollari al mese (580 l’anno). Mentre la versione cinese è più economica: con alcune variazioni di dimensioni e materiali, la bambola con AI di WMDolls si aggira sui 1.900 dollari. Mentre l’industria delle sex dolls entra in una nuova fase, alimentata dall’intelligenza artificiale e da tecnologie sempre più sofisticate, emergono interrogativi etici e legali che non possono essere ignorati. L’episodio che ha coinvolto la modella israeliana Yael Cohen Aris, che nel 2019 ha scoperto come l’azienda cinese Iron Dolls avesse usato il suo volto e nome per una delle sue sex dolls, mette in luce i rischi di un mercato dell’intrattenimento sessuale in cui l’identità e il consenso all’uso della propria immagine possono facilmente essere violati. Il mercato delle sex dolls fa però emergere qualcosa di più profondo. Le nuove bambole AI, sempre più capaci di dialogare, ricordare e assumere personalità differenti, stanno dando forma a un’idea fantascientifica: l’amore programmabile. Come in Her o Ex Machina, non c’è solo l’interazione umana con un software, ma la proiezione di desideri, paure e bisogni in una presenza artificiale che sembra restituire qualcosa di autentico. Forse, nel silenzio sintetico delle nuove companion, l’utente non troverà una “risposta”, ma solo un altro modo – programmato e prevedibile – di esplorare le domande più umane. L'articolo Amore sintetico, come l’AI sta cambiando il mercato delle sex dolls proviene da Guerre di Rete.
Il futuro dei computer è fotonico
Immagine in evidenza da Mohammad Honarmand su Unsplash Per decenni, lo sviluppo delle tecnologie informatiche è stato scandito dalla legge di Moore, che ha previsto – e per certi versi guidato – il raddoppio della densità dei transistor ogni due anni, alimentando la crescita esponenziale della potenza di calcolo e la diminuzione dei costi di produzione dei chip. Tuttavia, il ritmo di miniaturizzazione dei componenti elettronici mostra oggi segni di rallentamento, con i limiti fisici e termici dei semiconduttori in silicio che divengono ogni anno più stringenti. Uno dei principali ostacoli è rappresentato dagli effetti quantistici che emergono quando le distanze tra i transistor raggiungono dimensioni di pochi nanometri. A queste scale, gli elettroni possono attraversare barriere isolanti che, secondo la fisica classica, dovrebbero essere invalicabili, causando dispersioni di corrente e malfunzionamenti dei circuiti. Inoltre, il controllo preciso dei singoli elettroni diventa sempre più difficile, compromettendo l’affidabilità dei dispositivi. È in questo contesto che, negli ultimi anni, ha (ri)preso vita la ricerca nell’ambito della computazione fotonica (o ottica): un paradigma di calcolo alternativo che cerca di ripensare i processi fisici alla base del funzionamento dei computer. Invece di usare elettroni che si muovono all’interno di circuiti di silicio – come avviene nei computer tradizionali – la computazione fotonica utilizza fotoni, ovvero particelle (quanti) di luce. A differenza degli elettroni, i fotoni non hanno massa, non generano calore quando viaggiano nei circuiti e possono muoversi a velocità vicine a quelle della luce. Questo significa che, in teoria, un computer fotonico potrebbe essere molto più veloce e molto più efficiente, in termini di consumi, di un computer tradizionale. In un mondo che consuma sempre più energia a scopi di calcolo, non si tratta di un dettaglio banale. Ovviamente, tra il dire e il fare c’è di mezzo il mare. Per prima cosa bisogna riuscire a progettare e a produrre circuiti che riescano a indirizzare i fotoni in modo preciso, quasi fossero sentieri di luce. Inoltre, bisogna trovare il modo di fare interagire i fotoni tra loro poiché, per loro natura, essi non interagiscono come fanno invece gli elettroni nei transistor. Essendo privi di carica elettrica, i fotoni tendono a passare gli uni accanto agli altri senza “notarsi”. Questo rende molto difficile implementare la logica booleana alla base dell’informatica, la quale si fonda su una forma di controllo o modifica del comportamento di un segnale in base alla presenza di un altro (1 o 0; 0 o 1). Computazione fotonica e computazione quantistica Il tema della traducibilità e della coerenza del segnale è uno dei problemi che la computazione fotonica condivide, seppure con grosse differenze fisiche di base, con l’altra branca della computazione sperimentale: la quantistica. Tuttavia va specificato come i due campi siano essenzialmente distinti: mentre la computazione quantistica mira a rivoluzionare i fondamenti logici del calcolo attraverso effetti quantistici come l’entaglement, l’interferenza o la sovrapposizione, la fotonica punta “semplicemente” ad aumentare la rapidità e l’efficienza del calcolo attuale. Vi sono, inoltre, sperimentazioni in cui la computazione quantistica viene implementata attraverso fotoni entangled, in una forma ibrida di quantum photonics Per tutte queste ragioni, la computazione fotonica è più di una semplice evoluzione tecnica e rappresenta, per il momento, ancora una frontiera. Non è detto che sarà conquistata o che sarà quella definitiva, né che sostituirà in toto i modelli attuali. Ma è una delle vie più promettenti per dare risposta al bisogno – sempre più urgente – di ripensare l’infrastruttura materiale su cui si regge la civiltà digitale. FRONTIERA O INTERREGNO? L’idea di utilizzare la luce per elaborare informazioni non è nuova: se ne discute sin dagli anni Settanta. Ma è solo negli ultimi anni, sulla scorta della pressione esercitata dalla crisi della microelettronica tradizionale, che il campo ha cominciato a strutturarsi come un vero e proprio settore tecnologico, attirando finanziamenti e interesse da parte dei grandi operatori del digitale. Una delle aziende più promettenti è Lightmatter. Fondata nel 2017 da tre studenti dell’MIT, nel 2024 ha raccolto 400 milioni di dollari in un quarto round di finanziamenti, raggiungendo una valutazione di 4,4 miliardi di dollari. I prototipi più recenti di Lightmatter combinano moduli ottici e moduli elettronici, creando sistemi di computazione ibridi in cui le interconnessioni tra i diversi dispositivi hardware sono affidate a fotoni anziché elettroni, risolvendo così alcuni problemi specifici del calcolo parallelo con benefici anche  nell’addestramento dei modelli di intelligenza artificiale.  Un’altra startup degna di nota è Ayar Labs, con sede nella Silicon Valley. Nata come spin-off di un progetto congiunto tra il MIT e l’Università di Berkeley, Ayar Labs si è specializzata nell’integrazione di connessioni ottiche direttamente all’interno dei chip, con l’obiettivo di eliminare le limitazioni imposte dai collegamenti elettrici tradizionali.  La loro tecnologia di interconnessione ottica permette una trasmissione dati ultraveloce tra processori, acceleratori e moduli di memoria, riducendo drasticamente la latenza e il consumo energetico delle “very large scale integrations” utilizzate per il calcolo delle AI. Negli ultimi due anni, Ayar Labs ha attirato investimenti e firmato partnership strategiche con alcuni dei nomi più importanti dell’industria dei semiconduttori: da Intel a NVIDIA, da AMD a GlobalFoundries. Ci sono poi aziende che stanno puntando direttamente al bersaglio più grosso: non una simbiosi tra hardware fotonici ed elettrici, ma veri e propri sistemi di computazione ottica al 100%.  Mentre la fotonica del silicio è oggi impiegata principalmente per realizzare interconnessioni ottiche, cioè per trasportare informazioni tra moduli elettronici, il calcolo ottico punta invece a processare direttamente quei dati attraverso la luce.  Per ora, il campo resta limitato a poche operazioni matematiche molto specifiche, le quali però rappresentano oltre il 90% dei compiti di inferenza svolti da una rete neurale. In altre parole: se si riuscisse a sviluppare il calcolo ottico, si otterrebbe una soluzione hardware altamente ottimizzata per i grandi modelli linguistici e generativi, come quelli dietro a ChatGPT.  Un tentativo in questa direzione lo ha compiuto Lightelligence, un’altra startup USA nata da ambienti accademici, che nel 2021 ha presentato PACE (Photonic Arithmetic Computing Engine), un prototipo in grado di fornire – secondo le stime della stessa startup – performance fino a 100 volte superiori a quelle delle GPU più avanzate di allora. Se simili prototipi si tradurranno in realtà resta da vedere. Ma che un numero crescente di aziende e di fondi stia scommettendo sulla luce come nuovo vettore del calcolo è ormai un dato di fatto. Tuttavia, come spesso accade con le tecnologie emergenti, l’entusiasmo della finanza si scontra con il realismo dell’industria. La sfida, infatti, non è tanto dimostrare che la computazione fotonica possa “funzionare”, quanto renderla scalabile. Integrare su un singolo chip milioni di componenti ottici, garantendo al tempo stesso precisione, compatibilità con i sistemi esistenti e bassi costi di produzione, è un’impresa che richiede una supply chain tecnologica complessa e in gran parte da costruire. Di conseguenza, la computazione fotonica esiste oggi in una sorta di interregno tecnologico: troppo promettente per essere ignorata, troppo immatura per essere adottata, al di là di pochi specifici casi. CYBERSICUREZZA E GEOPOLITICA Nel campo della microelettronica, decenni di ricerca hanno portato allo sviluppo di protocolli di protezione contro le forme più note di attacco informatico. Con l’avvento della computazione fotonica, questo patrimonio non può essere semplicemente trasferito. I circuiti fotonici aprono quindi scenari e vulnerabilità inedite. Per esempio, l’interconnessione tra chip di tipo elettrico-ottico – come quella proposta da Lightmatter – moltiplica le occasioni d’attacco potenziali: ogni collegamento ibrido diventa, in teoria, una nuova porta d’accesso per attacchi altrettanto ibridi. Il fatto che i sistemi fotonici possano trasmettere dati a velocità e volumi impensabili pone inoltre ulteriori problemi, rendendo necessario ripensare da zero l’intera architettura della sicurezza informatica, sviluppando protocolli capaci di monitorare, interpretare e, se necessario, bloccare flussi di informazioni che si muovono alla velocità della luce. In questo nuovo contesto, anche i tradizionali strumenti di rilevamento – come i firewall o i sistemi anti-intrusione – rischiano di risultare inadeguati, non solo per limiti di velocità, ma anche per l’assenza di standard consolidati a cui riferirsi.  La stessa complessità dei componenti ottici rischia inoltre di impattare sull’affidabilità dei processi di testing a cui normalmente è sottoposto l’ hardware usato per la  computazione. Ciò aumenta il rischio che eventuali anomalie non vengano rilevate, finendo poi per aprire falle e vulnerabilità nei sistemi in cui i componenti ottici vengono integrati. Per tutte queste ragioni, mentre le giovani aziende del settore proseguono nella ricerca e nell’implementazione di nuovi strumenti di calcolo basati sulla fotonica, mancano ancora le cornici adeguate a inquadrare con precisione i limiti di questa nuova tecnologia. Non è ovviamente un tema da poco, specie se consideriamo che chi riuscirà a influenzare la regolamentazione della computazione fotonica influenzerà anche una porzione significativa del futuro del calcolo. Il che ci porta dritti al cuore delle implicazioni geopolitiche della questione. Come già è accaduto per l’intelligenza artificiale e i semiconduttori avanzati, la competizione fotonica rischia di trasformarsi in un nuovo terreno di scontro sistemico tra Cina e Stati Uniti. La computazione fotonica potrebbe  infatti offrire alla Cina una via di fuga tecnologica dalle restrizioni recentemente imposte dagli USA per rallentare lo sviluppo tecnologico di Pechino. Per utilizzare una formula in voga nel discorso politico-economico cinese, la fotonica potrebbe consentire di “cambiare corsia ed effettuare il sorpasso”.  Dal punto di vista cinese, due qualità della computazione fotonica appaiono particolarmente interessanti. La prima è che la produzione di hardware ottici non richiede l’utilizzo di macchinari di produzione litografici avanzati, a cui la Cina non ha accesso a causa delle restrizioni USA. La seconda è che, aumentando la velocità e l’efficienza delle interconnessioni, la computazione fotonica potrebbe in teoria permettere di sviluppare integrazioni hardware per AI avanzate senza il bisogno di utilizzare chip di ultima generazione, ugualmente sotto embargo americano.   Del tema si è interessato personalmente lo stesso Xi Jinping che, nel 2023, ha presieduto un incontro del Politburo sul tema. Vi ha partecipato anche il rettore dell’Università di Pechino, Gong Qihuang, un fisico con notevole esperienza nel campo delle applicazioni all’intelligenza artificiale della computazione fotonica (che è stata inoltre menzionata esplicitamente nel 14esimo piano quinquennale per lo sviluppo della Cina, relativo al periodo 2021-2025). Constatato tutto questo, non sorprende che il governo americano abbia iniziato a trattare la ricerca fotonica non solo come un tema di innovazione, ma come una questione di sicurezza nazionale. Non è un caso che importanti entità della difesa americana, così come l’agenzia DARPA, abbiano intensificato negli ultimi anni gli investimenti in startup e centri di ricerca attivi sul fronte della fotonica.  Il focus non è solo sull’efficienza o sulla scalabilità, ma anche sulla resilienza: costruire sistemi ottici che siano difficili da sabotare, da intercettare, da replicare. La fotonica viene così inscritta nella più ampia strategia di technological containment con cui gli Stati Uniti cercano di difendere la propria centralità nell’ordine digitale globale. L'articolo Il futuro dei computer è fotonico proviene da Guerre di Rete.
L’invasione dei robot domestici è ancora lontana
Immagine in evidenza: “Sprung a Leak” di Cécile Evans, Haus der Kunst di Monaco, da Wikimedia Che i robot sarebbero definitivamente entrati nelle nostre case è diventato chiaro nel 2008. Quell’anno la società iRobot – fondata nel 1990 da tre ricercatori in robotica del MIT di Boston: Rodney Brooks, Colin Angle e Helen Greiner – annunciò infatti che il robot aspirapolvere Roomba aveva raggiunto i 2,5 milioni di esemplari venduti nel mondo. Sul finire del primo decennio del nuovo millennio, si assistette insomma a un cambiamento epocale: milioni di abitazioni domestiche, al tempo soprattutto negli Stati Uniti, iniziarono a essere popolate da robot in grado di muoversi in autonomia per le nostre case, imparando a navigarle con efficacia sempre maggiore ed entrando per certi versi a far parte dei nuclei familiari. Non è un modo di dire: “Numerosi studi hanno dimostrato che gli umani sono disposti a provare emozioni nei confronti di tutto ciò che si muove”, racconta sul New Yorker Patricia Marx, scrittrice e docente a Princeton. “Di conseguenza, non mi dovrei sorprendere di essere accorsa a liberare il mio Roomba quando si è incastrato sotto il divano. E di essermi sentita in colpa quando le sue ruote si sono incastrate a causa di un filo che aveva raccolto”. In poche parole, attraverso il Roomba e simili robot domestici almeno una parte di esseri umani ha iniziato a provare una sensazione inedita: l’affezione (e l’apprensione) nei confronti di esseri artificiali. Com’è possibile? “Conosco molte storie a riguardo”, mi aveva spiegato nel corso di un’intervista proprio Colin Angle. “Le persone acquistano un robot per le pulizie, lo portano a casa e lo accendono. E lo osservano mentre si muove per casa, in autonomia, lavorando per loro. È la stessa natura umana, il modo in cui il nostro cervello è configurato, che ci spinge a considerare ciò che si muove per conto proprio come se fosse vivo. E infatti la stragrande maggioranza delle persone che hanno una macchina di questo tipo finisce per dargli un nome. Potrebbe anche essere una nuova definizione di robot: una macchina a cui sentiamo di dover dare un nome perché lo percepiamo vivo”. I dati confermano che, effettivamente, la maggior parte dei proprietari di Roomba (o degli altri robot da casa che si sono nel frattempo diffusi) fornisce loro un nome proprio, come se fosse un animale domestico. Di compagni artificiali, d’altra parte, è ormai pieno il mondo: nel solo 2023 sono stati venduti circa 23 milioni di robot per la casa, portando le vendite cumulative poco al di sotto dei 100 milioni complessivi. Gli ultimi anni non sono però stati dei più facili per i robot. Nonostante il successo del Roomba e la crescita dei concorrenti (Roborock, Ecovacs o Dreame, tutti di fabbricazione cinese), non si è assistito a quella moltiplicazione di robot specializzati che si pensava si sarebbero presi cura di ogni aspetto domestico. Al contrario, l’unico altro aiutante robotico che si è parzialmente diffuso è il parente più prossimo del Roomba (anche dal punto di vista del design): il robot tagliaerba. A oltre vent’anni dall’introduzione del Roomba (avvenuta nel 2002) e mentre iRobot, l’azienda simbolo della rivoluzione robotica, è alle prese con parecchie difficoltà finanziarie (causate dall’aumento della concorrenza, dalla mancata acquisizione da parte di Amazon e soprattutto dallo scarso successo degli altri modelli), sembra insomma che l’evoluzione dei collaboratori domestici artificiali si sia fermata. Ancora oggi, i robot aspirapolvere rappresentano oltre il 70% del mercato, mentre molti altri prodotti sono andati incontro al fallimento: i robot tagliaerba, come detto, sono il secondo segmento più diffuso, ma con volumi di vendita molto inferiori. Altri dispositivi – come i robot da cucina, quelli piega-bucato (FoldiMate, Laundroid) o gli assistenti umanoidi – sono stati abbandonati prima del lancio o sono rimasti prototipi a causa dello scarso interesse commerciale. Laundroid, per esempio, ha chiuso nel 2020 dopo anni di hype e investimenti, mentre FoldiMate è stato ritirato prima della commercializzazione. I robot da cucina multifunzione, come il Thermomix, pur essendo molto diffusi, non sono considerabili robot in senso stretto: mancano infatti di mobilità e autonomia. Ed è probabilmente anche alla luce dei tanti fallimenti che, negli ultimi anni, hanno iniziato a farsi largo numerose nuove startup, che stanno ripensando il settore da zero, approfittando dei progressi nel campo della robotica e dell’intelligenza artificiale. E quindi, qual è il futuro dei robot domestici? Prima di tutto, bisogna dare una definizione di “robot domestici”. Secondo la società di ricerca Global Market Insights, un robot domestico è uno strumento che, “utilizzando l’intelligenza artificiale, percepisce e interagisce con l’ambiente circostante, eseguendo dei compiti autonomamente e adattandosi alle preferenze dell’utente”. Questa definizione ci dice però poco di un aspetto cruciale: il robot in questione è tuttofare o specialistico? È un robot in grado di compiere molteplici mansioni o è addestrato per eseguire un solo compito ben definito (pulire i pavimenti o tagliare l’erba)? Fino a questo momento, come detto, il panorama commerciale è stato dominato da quest’ultimo tipo di robot, che però – segnala sempre Global Market Insights – “manca della versatilità necessaria ad affrontare un’ampia gamma di faccende domestiche. Inoltre, questi robot possono avere difficoltà con compiti complessi che richiedono destrezza e capacità di giudizio simili a quelle umane, come piegare il bucato o preparare i pasti”. Se non bastasse, pochi di noi possono permettersi (anche per ragioni di spazio) di ospitare un robot aspirapolvere, uno che pulisce i pavimenti, uno che cucina, uno che piega i vestiti, ecc. Ed è anche per questo che, come ha spiegato al Boston Globe Fady Saad (fondatore di Cybernetix Ventures), “abbiamo visto tantissimi fallimenti nella robotica di consumo e molti dei tentativi di iRobot di creare ulteriori prodotti rispetto al Roomba non hanno avuto successo”. LA STRADA IN SALITA DEL ROBOT TUTTOFARE Allo stesso tempo, l’idea di creare un robot domestico multitasking, in grado quindi di svolgere molteplici mansioni, è incredibilmente complessa: raccogliere la polvere richiede caratteristiche totalmente diverse rispetto a piegare i vestiti o caricare la lavastoviglie. E se bastasse modificarli e riadattarli per permettere loro di portare a termine un numero maggiore di mansioni? “I robot specializzati sono percepiti come dispositivi limitati e adatti a un solo compito”, ha spiegato alla BBC Yoshiaki Shiokawa, ricercatore dell’università di Bath. “Penso che ci siano forti indicazioni che questi robot siano invece sotto-utilizzati”. Per dimostrare la sua tesi, Shiokawa e alcuni suoi colleghi dell’Advanced Interaction and Sensing Lab hanno riadattato un normale Roomba in modo che fosse in grado di annaffiare le piante, caricare il cellulare (e seguire il suo padrone affinché l’avesse sempre a portata di mano), trasportare la spesa dalla macchina alla cucina e anche… giocare con il gatto (anche se è più probabile che sia stato il gatto a compiere questa scelta). Per quanto si sia trattato soltanto di una sperimentazione, lo studio eseguito all’università di Bath indica una possibile strada da seguire, che non implica necessariamente la trasformazione dei robot, ma semmai un ampliamento delle funzionalità praticabili con minime modifiche a livello di design e caratteristiche. Eppure, mano a mano che la ricerca sulla robotica va nella direzione di un assistente domestico tuttofare, sembra quasi inevitabile – a giudicare dai vari prototipi emersi negli ultimi anni – che questo prenda una forma umanoide, dotata di gambe, braccia e anche torso e testa. “Le aziende stanno scommettendo sulla capacità dei robot di fronteggiare una serie più ampia di compiti imitando il modo in cui le persone camminano, si piegano, raggiungono gli oggetti, li afferrano e più generalmente portano a termine le loro mansioni”, si legge sul New York Times. “Poiché le case, gli uffici e i magazzini sono già stati costruiti per gli esseri umani, gli umanoidi sarebbero meglio equipaggiati per navigare il mondo rispetto a ogni altro robot”. Gli esempi non mancano: Optimus di Tesla, H1 e G1 della cinese Unitree o il chiacchieratissimo Neo di X1 (azienda norvegese). Se giudicassimo dai video aziendali caricati su YouTube e su TikTok – che mostrano questi robot umanoidi muoversi agilmente per casa, stirare, afferrare una bibita dal frigorifero e portarla al proprietario, portare fuori il cane e addirittura eseguire balli coreografati – penseremmo che il futuro dei robot domestici sia già diventato realtà. Le cose, in realtà, sono molto diverse. A dimostrarlo è stato un video pubblicato dall’influencer cinese Zhang Genyuan, che dopo aver noleggiato un G1 di Unitree al prezzo di 1.400 dollari al giorno ha mostrato come questo robot combinasse un sacco di danni nel tentativo di dargli una mano in cucina, rompendo le uova e rovesciando ovunque il latte. Forse anche in seguito a questa pubblica umiliazione, Unitree Robotics ha annunciato che, per il momento, non lancerà sul mercato robot umanoidi, segnalando inoltre l’ostacolo – ancora da superare – delle stringenti misure di sicurezza necessarie. “Non è facile prevedere quanto tempo ancora ci vorrà, ma penso che non avverrà prima di altri due o tre anni”, ha spiegato ai giornalisti il cofondatore di Unitree, Wang Xinjing, lo scorso aprile. E poi c’è il flop di Optimus, il robot di Tesla che – stando alle solite irrealizzabili promesse di Elon Musk – avrebbe già dovuto essere in produzione, arrivando alla consegna di 5mila esemplari entro il 2025. In realtà, Optimus è lontanissimo dalla fase di produzione e non è nemmeno chiaro se mai lo sarà: nell’aprile 2025 sono stati pubblicati dei video in cui si vede Optimus camminare in linea retta (qualcosa che era già stato fatto dal robot Wabot-1 nel 1972), ma al momento non si sa nulla di più dei destini commerciali del robot Tesla. Il punto, come segnala Wired,  è che “nonostante gli incredibili progressi degli ultimi anni, nessuno ha ancora capito come rendere questi robot realmente abili o intelligenti”. I robot di oggi possono essere autonomi soltanto se svolgono un compito semplice e ben circoscritto; mentre se si occupano di faccende più complesse – come quelli utilizzati e ormai molto diffusi nelle fabbriche e nei magazzini – devono essere attentamente programmati ed eseguire movimenti definiti con la massima precisione, senza alcuna autonomia. LA SCOMMESSA FINANZIARIA Malgrado questa situazione di stallo, gli analisti si aspettano che il mercato dei robot domestici cresca del 20% annuo da qui al 2032, passando dai 10 miliardi di dollari del 2023 ai 53 miliardi previsti per i primi anni del prossimo decennio. Com’è possibile, considerando la situazione di stallo in cui questo settore attualmente si trova? Come spesso capita nel mondo dell’innovazione tecnologica, l’obiettivo è riversare nella robotica domestica un tale fiume di denaro da permettere di superare tutti gli ostacoli attualmente presenti, dando vita a una sorta di profezia che si autoavvera (grazie alla potenza finanziaria degli investitori). Secondo PitchBook, dal 2015 a oggi gli investitori hanno finanziato oltre 50 startup che si occupano di robot umanoidi con 7,2 miliardi di dollari. Solo lo scorso anno gli investimenti hanno superato 1,6 miliardi, senza includere i soldi che Elon Musk ha sicuramente investito nel già citato Optimus. “Temo che si sia giunti al picco dell’hype”, ha spiegato, parlando con la MIT Tech Review, Leila Takayama, vicepresidente della società di robotica RobustAI. “È in corso una battaglia tra tutte le Big Tech, che devono ostentare e mostrare ciò che sono in grado di fare, promettendo di poter presto fare ancora di meglio”. ROBOT UMANOIDI: IL JOLLY DELL’INTEGRAZIONE COI MODELLI LINGUISTICI Ed è proprio per (provare a) soddisfare le aspettative degli investitori che tantissime startup stanno insistendo sulla strada dei robot umanoidi, nonostante le evidenti difficoltà, i fallimenti e le cautele mostrate anche dai colossi del settore (come la già citata Unitree). Una di queste è Shenzhen Dobot, che dovrebbe commercializzare il suo robot Dobot Atom entro la fine dell’anno al prezzo di circa 30mila euro. E che cosa si ottiene per un prezzo del genere? Nel video di presentazione – in cui è molto probabile che Atom fosse manovrato da remoto, come avviene quasi sempre nei materiali promozionali – lo si vede preparare goffamente la colazione, portare un pacco in ufficio e poco altro. Un po’ poco per una cifra del genere, no? La realtà è che le tantissime startup che stanno lavorando ai robot assistenti umanoidi – tra le altre: FigureAI (valutata 2,6 miliardi di dollari), Cobot (460 milioni), 1X (210 milioni), Sanctuary AI (229 milioni), Plus One (170 milioni) – sono ancora lontanissime dalla commercializzazione a prezzi accessibili di un robot realmente tuttofare. Per lo meno, sembrano però avere le idee chiare su quale sia la strada da seguire per raggiungere questa nuova “next big thing” del mondo tecnologico: l’integrazione dei robot con i large language model, che dovrebbero aiutare i robot a comprendere i comandi espressi in linguaggio naturale (input) e poi elaborarli al fine di trasformarli in un’azione concreta (output). Un esempio di come tutto ciò potrebbe funzionare proviene da Gemini Robotics: i modelli d’intelligenza artificiale sviluppati da Google per il mondo della robotica, basati su Gemini (il large language model di Google) e definiti come “modelli avanzati visione-linguaggio-azione”. Come si legge su Spectrum, “Gemini Robotics può ricevere tutti gli input e restituire istruzioni per azioni fisiche da parte di un robot”. In un video dimostrativo, un ingegnere spiega al robot usato nel laboratorio di “prendere il pallone da basket e schiacciarlo a canestro” (minuto 2:27 nel video qui sotto). Dopo aver ricevuto il comando, il braccio robotico afferra una palla da basket in miniatura e la deposita nel mini-canestro. Display "Gemini Robotics" from YouTube Click here to display content from YouTube. Learn more in YouTube’s privacy policy. Mostra sempre i contenuti da YouTube Open "Gemini Robotics" directly Come spiega la voce narrante nel video, “è un compito per il quale il robot non è mai stato addestrato”, così come gli oggetti che manovra “non erano mai stati visti prima, ma sfruttando la comprensione di concetti come ‘basket’ o ‘schiacciata’ di Gemini il computer ha comunque compreso il compito”. “Questo esempio del basket è uno dei miei preferiti: il robot è stato in grado di collegare questi concetti per portare a termine il compito nel mondo fisico”, ha dichiarato Kanishka Rao, responsabile ingegneristico del progetto, durante una conferenza stampa. L’idea, in sintesi, è che il robot attraverso gli LLM in essi integrati comprenda i comandi e sia in grado di portarli a termine, mettendoli in collegamento con la miriade di azioni diverse che –sfruttando il classico addestramento per tentativi ed errori – ha nel frattempo imparato a eseguire. Questa forma di “embodied intelligence” (intelligenza incorporata o incarnata) potrebbe essere la più promettente per lo sviluppo di robot capaci di assisterci in svariati compiti (come i large language model già fanno in ambito testuale). Gli ostacoli, però, non sono solo tecnici (pensate per esempio a quanto sia difficile per un robot capire che pressione esercitare quando afferra un uovo o avere la destrezza necessaria ad attaccare il guinzaglio al collare di un cane, compiti banali per noi umani), ma anche teorici. Come hanno spiegato i programmatori di Physical Intelligence (altra startup di robotica), “non esiste un archivio di azioni eseguibili dai robot simile ai dati relativi a testi e immagini disponibili per addestrare gli LLM. In ogni caso, ottenere i progressi necessari nel campo della ‘intelligenza fisica’ potrebbe richiedere una mole di dati esponenzialmente superiore”. “Le parole in sequenza, da un punto di vista dimensionale, sono un giocattolino rispetto al movimento e all’attività degli oggetti nel mondo fisico”, ha affermato Illah Nourbakhsh, esperto di robotica della Carnegie Mellon University. “I gradi di libertà che abbiamo nel mondo fisico sono di gran lunga superiori alle semplici lettere dell’alfabeto”. Una possibile soluzione è quella di far vedere ai robot migliaia (milioni?) di ore di video presenti su YouTube, che dovrebbero consentire loro anche di capire quale tipo di forza esercitare a seconda delle mansioni richieste e degli oggetti coinvolti. Un’altra possibile soluzione è di far compiere ogni tipo di azione domestica a degli esseri umani monitorati nei loro movimenti tramite sensori (trasformandoli così in dati analizzabili dalla macchina) oppure di permettere ai robot di esercitarsi liberamente, commettendo tutti gli errori necessari, in ambienti virtuali (in maniera simile a come alcune startup addestrano le auto autonome). È proprio seguendo quest’ultimo metodo che si è svolto l’addestramento di Neo della norvegese 1X. Addestramento però non ancora sufficiente, visto che in una delle sue più recenti dimostrazioni – durante la quale ha caricato una lavastoviglie, raccolto i vestiti da una lavatrice e pulito la superficie della cucina – era comunque manovrato da remoto. La strada, insomma, è ancora lunghissima e costellata di ostacoli, sotto forma di costi, sicurezza, privacy ed effettive abilità ancora molto ridotte. E tutto ciò senza nemmeno prendere in considerazione l’ostacolo forse più importante di tutti: se anche diventeranno effettivamente capaci, vorremo davvero avere un robot di forma umanoide, tuttofare e intelligente in casa nostra? PERCHÉ ROBOT ANTROPOMORFI? Giunti a questo punto, bisogna anche rispondere a un’ultima, cruciale, domanda: ma perché questi robot devono essere antropomorfi? Come detto, molti pensano che questo sia il modo migliore per permettere loro di navigare ambienti pensati dagli umani per gli umani. Ma non è tutto: “Attraverso questo tipo di design umanoide, stiamo vendendo una storia sui robot, come se in qualche modo fossero equivalenti a noi o a ciò che siamo in grado di fare”, ha spiegato alla MIT Tech Review il docente in Robotica Guy Hoffman. In altre parole, se costruisci un robot che assomiglia a un essere umano, le persone daranno per scontato che sia capace quanto un essere umano. Questo, però, potrebbe anche rivelarsi un boomerang: se la forma umana dei robot ci fa pensare ad abilità pari o vicine alle nostre, allora potremmo essere gravemente delusi dai loro movimenti lenti, goffi e scattosi. Forse questo è un primo ambito di design sul quale si può intervenire, e non soltanto per questioni ricollegabili alla Uncanny Valley (ovvero la sensazione di stupore e inquietudine che ci creano esseri artificiali che ricordano da vicino gli umani). Se anche il robot deve muoversi per casa e afferrare oggetti, ciò non significa che debba necessariamente avere delle gambe, possedere un torso o una testa. Potrebbe più semplicemente essere una sorta di “bidone” che si muove su ruote, dotato di due (o tre? Perché non sei?) braccia e che è in grado di inserire gli oggetti che afferra in un apposito scompartimento (semplificando anche il compito, difficilissimo per i robot, di mantenere l’equilibrio dopo aver preso in braccio qualcosa di pesante). “Il movimento bipede è il meno efficiente dal punto di vista energetico ed è la soluzione più dispendiosa: delle strutture cingolate o a ruote possono ottenere la stessa mobilità”, ha confermato Chen Guishun della startup cinese Innovance. D’altra parte, nemmeno gli antenati dell’essere umano si muovevano su due gambe, ci siamo evoluti così nel corso del tempo e ci ricordiamo del prezzo da pagare al cambiamento della nostra postura ogni volta che soffriamo di mal di schiena. Perché dovremmo riprodurre nei robot una delle nostre caratteristiche meno efficaci? Probabilmente, la scelta è ricaduta sui robot umanoidi per una serie di ragioni che hanno poco a che fare con la praticità e funzionalità. La prima è culturale: da oltre un secolo, la fantascienza – da Metropolis di Fritz Lang fino ad Asimov e Terminator – ci ha abituati all’idea che un robot debba avere sembianze umane. Questa immaginazione collettiva ha plasmato non solo le aspettative del pubblico, ma anche le aspirazioni degli ingegneri, influenzando la direzione della ricerca. La seconda ragione è comunicativa. Un robot umanoide, anche solo parzialmente simile a noi, attira immediatamente l’attenzione mediatica e degli investitori. In poche parole, genera hype: qualità fondamentale in un settore che sta ancora muovendo i primi passi. Non è un caso se aziende come Tesla, 1X o Unitree hanno puntato tutto sulla componente visiva: un robot che cammina su due gambe e afferra una tazza col braccio richiama molto più interesse di un sistema efficiente, ma anonimo, su ruote. “I robot umanoidi sono però la soluzione sbagliata per la maggior parte dei compiti e la biomimesi non è la risposta giusta”, ha scritto su Medium Brad Porter, fondatore di Collaborative Robotics. “Le ruote sono la risposta migliore in ogni ambiente commerciale, mentre la stabilità passiva – avere cioè almeno tre punti di contatto con il suolo, meglio se quattro – è di estremo valore. Conservare il carico all’interno del cono di stabilità invece che trasportarlo tra le braccia è anch’essa una soluzione migliore”. In poche parole, tra C1-P8 e D3-BO è molto più funzionale e utile il primo. D’altra parte, chiunque abbia visto la trilogia originale di Star Wars non ne ha mai avuto il minimo dubbio. L'articolo L’invasione dei robot domestici è ancora lontana proviene da Guerre di Rete.
Sorveglianza in Iran: fuori e dentro la rete
Immagine in evidenza: proteste ad Ottawa da Wikimedia Iran: il 15 marzo, durante una cerimonia a cui ha partecipato il vicepresidente iraniano per la Scienza e la Tecnologia, Hossein Afshin, la Repubblica islamica ha presentato la sua prima piattaforma nazionale di intelligenza artificiale. Una piattaforma, la cui versione finale dovrebbe essere lanciata nel marzo 2026, basata su una tecnologia open source e su un’infrastruttura nazionale che ne garantisce l’operatività anche durante le interruzioni di internet. La piattaforma include funzionalità di base come la visione artificiale, l’elaborazione del linguaggio naturale e il riconoscimento vocale e facciale. Partner chiave della nuova piattaforma è l’Università Sharif, ente sanzionato dall’Unione Europea e da altri Paesi per il suo coinvolgimento in progetti militari e missilistici, e per intrattenere rapporti con il Corpo delle Guardie Rivoluzionarie Islamiche (IRGC), o pasdaran. Il lancio di questa piattaforma giunge esattamente il giorno dopo la pubblicazione del documento delle Nazioni Unite intitolato Report of the independent international fact-finding mission on the Islamic Republic of Iran, presentato al Consiglio dei diritti umani a Ginevra il 18 marzo scorso. Il rapporto, pubblicato dopo due anni di indagini indipendenti che hanno incluso interviste a circa 285 vittime e testimoni e l’analisi di oltre 38.000 prove, rivela come le autorità iraniane, dalla fine del 2022 a oggi, abbiano intensificato l’utilizzo di sistemi di videosorveglianza, droni aerei, applicazioni informatiche e software di riconoscimento facciale per monitorare la condotta dei cittadini, in particolare delle donne e il loro uso dello hijab.  Una “condotta persecutoria verso le donne”, così viene definita nel testo, la cui fase cruciale è coincisa con l’approvazione del piano Noor, lanciato nell’aprile 2024 dal Comando di Polizia della Repubblica Islamica dell’Iran (FARAJA), teso a inasprire ulteriormente le pene per chi violava la legge sull’obbligo di indossare lo hijab. E proprio in questa occasione la Repubblica islamica ha fatto ricorso all’uso dell’applicazione mobile Nazer. NAZER, “L’HIJAB MONITOR” DELLA REPUBBLICA ISLAMICA Nazer è una parola persiana che significa “supervisore” o “sorvegliante”. L’applicazione, riferisce uno studio di Filter Watch (progetto del Gruppo Miaan, organizzazione che lavora per sostenere la libertà di internet e il libero flusso di informazioni in Iran e nel Medio Oriente), funziona esclusivamente sulla National Information Network (NIN), una intranet controllata dallo Stato modellata sul Great Firewall cinese e sul RuNet russo, che mira a isolare l’internet nazionale dalla rete globale. Nazer è accessibile sul sito web della polizia e sul canale Eitaa, un’app di messaggistica domestica. Prima di poter utilizzare Nazer, i potenziali utenti e il loro dispositivo devono essere approvati dalla polizia FARAJA. Lo scopo di questa app è quello di segnalare alla polizia le donne che all’interno delle auto non indossano lo hijab in modo appropriato. La trasgressione può essere comunicata inserendo nell’app la posizione del veicolo, la data, l’ora e il numero di targa, dopodiché partirà in tempo reale un messaggio di testo alla polizia, segnalando così il veicolo. “In Nazer non è presente una tecnologia di riconoscimento facciale, e l’app non è progettata per scattare foto di volti. È possibile però scattare foto delle targhe”, riporta lo studio di Filter Watch. A settembre 2024, riferisce un nuovo report di Filter Watch, Nazer è stata aggiornata per consentire il monitoraggio delle donne presenti in ambulanza, sui mezzi pubblici o sui taxi, suggerendo come per i funzionari governativi l’applicazione delle leggi sull’hijab siano una priorità rispetto a un’emergenza medica. L’app è inoltre dotata di nuove funzioni che in futuro potrebbero essere usate per segnalare altri tipi di violazioni, come persone che protestano, che consumano alcolici, che mangiano o bevono in pubblico durante il Ramadan, e comportamenti considerati contrari alla “moralità pubblica”. Una volta che l’auto viene segnalata, la polizia procede inviando un SMS di avvertimento al proprietario. Qualora la violazione venisse ripetuta una seconda volta, l’auto verrà sequestrata elettronicamente. Alla terza infrazione sarà sequestrata sul posto e successivamente, alla quarta infrazione, sequestrata nei parcheggi designati dalla polizia.  Ottenere dati precisi sul numero delle auto confiscate non è semplice, a causa della pesante censura che vige nella Repubblica Islamica. Si parla comunque di migliaia di veicoli sequestrati in questi mesi. A riferirlo è un recentissimo articolo apparso su Etemad, giornale riformista. L’avvocato Mohsen Borhani, sentito da Etemad, ha denunciato come questi sequestri siano illegali. Borhani ha ribadito che non ci sono statistiche esatte sul numero di sanzioni effettuate, ma sulla base delle dichiarazioni di alcuni funzionari e delle indagini sul campo afferma che a migliaia di cittadini sia stata sequestrata l’auto.  LA VIDEOSORVEGLIANZA, UN’ARMA DI REPRESSIONE Oltre l’uso di applicazioni informatiche, la Repubblica islamica ha in questi ultimi mesi inasprito l’utilizzo dei sistemi di videosorveglianza. In ottobre, sulla scia dell’approvazione della Legge a sostegno della famiglia attraverso la promozione della cultura dell’hijab e della castità, legge pubblicata il 30 novembre ma poi sospesa, è stato lanciato un nuovo sistema di videosorveglianza chiamato Saptam. La funzione di Saptam è monitorare gli spazi pubblici, in particolare gli esercizi commerciali.  Questo sistema, creato in collaborazione con la polizia locale, collega le telecamere installate nei negozi ai server cloud gestiti dal sistema nazionale di telecomunicazioni, consentendo alla polizia locale di accedere ai filmati registrati. L’implementazione del sistema Saptam, riferisce Iran News Update, ha coinvolto inizialmente 39 aziende e circa 280 gruppi commerciali. Sebbene l’introduzione di questo nuovo sistema sia stata giustificata per contrastare reati, per esempio le rapine, molti temono che questa installazione venga utilizzata anche per reprimere il dissenso e monitorare l’abbigliamento delle donne.  Alireza, direttore di una piccola azienda, ha riferito a Iran International: “Non passerà molto tempo prima che installino tali sistemi di sicurezza, o meglio strumenti di controllo statale, in tutte le aziende per far rispettare l’uso dello hijab. Le mie dipendenti non sono tenute a indossare l’hijab nei nostri uffici, ma questo non sarà più possibile se consentiremo alla polizia di accedere alle nostre telecamere, perché potrebbero chiuderci”. Mentre Saeed Souzangar, attivista per i diritti digitali, in un post su X ha denunciato: “Il prossimo passo del regime sarà installare telecamere nelle nostre case. Le aziende devono resistere a questi piani abominevoli invece di arrendersi”.  La repressione attraverso apparati tecnologici non si è arrestata: tutt’altro. A dicembre, Nader Yar Ahmadi – consigliere del ministro dell’Interno e capo del Centro per gli Affari degli Stranieri e degli Immigrati del ministero dell’Interno – ha dichiarato a l’Irna, agenzia di stampa statale, che il ministero dell’Interno utilizzerà test biometrici per individuare i cittadini illegali. Questo metodo è stato adoperato dalle autorità iraniane soprattutto per contrastare l’immigrazione proveniente dall’Afghanistan. Quanto finora esposto conferma che nonostante il cambio di governo avvenuto a seguito della morte del presidente Raisi, il nuovo presidente, Masoud Pezeshkian, eletto a luglio, ha continuato ad attuare una pesante e sistematica repressione verso i cittadini e le cittadine, oltre che un vigilantismo informatico e tecnologico sponsorizzato dallo Stato. IL CONTROLLO NELLO SPAZIO DIGITALE E L’USO DELLE VPN La repressione perpetuata dalla Repubblica islamica non si limita agli spazi fisici, ma include anche un controllo sistematico dello spazio digitale. “Dopo aver imposto blocchi a internet durante le proteste e aver sviluppato la propria National Internet Network, lo Stato ha continuato a limitare l’uso di applicazioni mobili impegnandosi in una sorveglianza diffusa. Questi strumenti non sono stati utilizzati solo per restringere la libertà di opinione ed espressione, ma anche per monitorare e prendere di mira i cittadini, tra cui attivisti e giornalisti, oltre che per intimidire, soffocare il dissenso e mettere a tacere le opinioni critiche”, informa il report UN.  Le autorità iraniane hanno varato specifiche misure per impedire ai cittadini di comunicare liberamente e poter accedere a contenuti non sottoposti a censura. Nel febbraio 2024, il Consiglio supremo del cyberspazio ha per esempio vietato l’uso senza un permesso legale delle VPN (reti private virtuali). Una mossa che è servita al governo per aumentare la propria sorveglianza interna, consentendogli di raccogliere informazioni sugli utenti, nonché di tracciare le loro comunicazioni via internet e le loro attività online. Ciò è stato reso possibile anche perché, al posto delle VPN, gli utenti iraniani sono stati costretti, se volevano usufruire di piattaforme straniere, a usare proxy nazionali approvati dallo Stato, riferisce sempre il report. Per servizi essenziali, come quelli bancari, ai cittadini è stato imposto di adoperare solo app locali. Le VPN in Iran sono diventate necessarie per poter accedere ai social e a contenuti bloccati. Senza le VPN, i cittadini e le cittadine iraniane non avrebbero potuto divulgare le immagini delle proteste connesse al movimento rivoluzionario “Donna, Vita, Libertà”, denunciando così gli attacchi violenti della polizia e delle guardie rivoluzionarie contro i manifestanti, e nemmeno esprimere dissenso e coordinare le proteste. A voler aggirare il filtraggio attuato dal regime sono però anche i proprietari di piccole imprese, letteralmente paralizzate dalle riduzioni quotidiane della velocità di internet e dai contenuti bloccati.  Nonostante il 24 dicembre scorso il Consiglio Supremo del Cyberspazio abbia revocato le restrizioni per WhatsApp e Google Play, l’Iran è tra i paesi meno liberi al mondo per quanto riguarda i diritti digitali, e la rincorsa a sistemi alternativi lo conferma. Oltre alle VPN, in Iran un altro metodo per aggirare la censura è Starlink. STARLINK: UN ALTRO METODO PER AGGIRARE LA CENSURA Starlink, sviluppato da SpaceX e di proprietà del miliardario Elon Musk, è vietato in Iran. Da quando però, sul finire del 2022, gli Stati Uniti hanno revocato alcune restrizioni all’esportazione di servizi internet satellitari, Starlink è stato disponibile per migliaia di persone nella Repubblica islamica. Lunedì 6 gennaio 2025, riporta l’agenzia di stampa ILNA, Pouya Pirhoseinlou, capo del Comitato Internet dell’E-Commerce Association, ha dichiarato che in Iran sono oltre 30.000 gli utenti che utilizzano Starlink. Ciò significa che molto probabilmente si assisterà a un’ulteriore crescita dell’uso di questa tecnologia in futuro. L’accesso illimitato e ad alta velocità (qualità perlopiù assenti nell’internet nazionale iraniano) ha incrementato l’uso sottobanco di Starlink, scriveva Newsweek a gennaio. L’internet satellitare, non necessitando di server nazionali e di transitare per la rete iraniana, funziona in modo indipendente, consentendo agli utenti di accedere ai contenuti e ai siti web oscurati, impedendo inoltre alle autorità di tracciare gli utenti e di monitorare le loro azioni nel cyberspazio. Parlando dell’uso di Starlink in Iran non si può non menzionare l’ordine di acquisto da parte dell’Unità di Crisi italiana – struttura del ministero degli Affari esteri e della Cooperazione internazionale – di 2 antenne e 10 abbonamenti da 50 giga di Starlink da destinare all’ambasciata italiana a Teheran. A comunicarlo è un’inchiesta dell’Espresso pubblicata il 14 Gennaio 2025. Nel documento, riportato nell’inchiesta, si legge che l’acquisto è avvenuto “al fine di assicurare la possibilità alla nostra ambasciata di mantenere attivi i collegamenti internet nel caso di interruzione delle comunicazioni terrestri” .  “La procedura prevede che le antenne vengano attivate solo per testarne il funzionamento e siano poi sospese con l’obiettivo di riattivarle solo ove si rendesse necessario”, ha riferito il ministro per i Rapporti con il Parlamento, Luca Ciriani, rispondendo a un’interrogazione in Senato sul sistema satellitare Starlink. Nella medesima interrogazione del 13 marzo, Ciriani ha inoltre comunicato: “Sono state avviate alcune sperimentazioni con i sistemi satellitari Starlink presso le sedi diplomatiche in Burkina Faso, in Bangladesh, in Libano e in Iran, che dunque sono state dotate di antenne Starlink, anche se nessuna a oggi è attiva”. L'articolo Sorveglianza in Iran: fuori e dentro la rete proviene da Guerre di Rete.
Così si contrabbandano i microchip sotto restrizione
Immagine in evidenza: Hong Kong Island Skyline da Wikimedia Al cuore della competizione tecnologica tra le superpotenze del pianeta si cela un meccanismo che ricorda vagamente il gioco per bambini del “whac-a-mole” (in italiano: “acchiappa la talpa”). Da una parte ci sono gli Stati Uniti (e, in parte, la UE) che tentano di controllare il futuro dell’innovazione con strumenti normativi (embarghi, sanzioni, veti). Dall’altra c’è una rete sempre più fitta di intermediari, snodi logistici, società fantasma che cercano di eludere i controlli sull’export, spuntando dal nulla proprio come la talpa del gioco. Questo fenomeno caratterizza in particolare il settore dei semiconduttori, dove ha ormai assunto il nome di chip laundering (riciclaggio dei chip). Un termine generico che descrive un settore industriale sommerso, nato tra le pieghe della geopolitica dell’hi-tech. Il paragone più immediato è con l’elusione delle sanzioni nel settore energetico, ma il confronto regge solo in parte. A differenza del petrolio, i chip sono minuscoli, facili da trasportare, da camuffare e da occultare. Dietro il contrabbando di semiconduttori c’è più di un semplice mercato nero. C’è un panorama di paesi non allineati e di supply-chain che si rimodulano di continuo per sfuggire al controllo dei grandi centri del potere normativo di questa epoca. Un mondo che ha qualcosa di piratesco (e peraltro condivide alcuni luoghi della pirateria storica), seppur stravolto in chiave cyberpunk. Esploriamo dunque questa zona grigia, dove l’elusione delle sanzioni non è solo una pratica opportunistica. Talvolta, come vedremo, è una necessità di sopravvivenza industriale. IL CONTENIMENTO RUSSO Come è noto, i chip sono oggi componenti essenziali degli arsenali militari. Senza microprocessori, non funzionano i missili, i droni, i radar, i sensori, le comunicazioni criptate, i sistemi di logistica e di tracciamento delle unità. È in virtù di questa pervasività che i semiconduttori sono diventati l’equivalente del carburante in una guerra moderna: senza di essi, l’apparato bellico si inceppa. Nel contesto della guerra in Ucraina, tutto questo ha assunto un’importanza cruciale per la Russia, sottoposta a severe sanzioni nel campo dell’elettronica. Ogni drone contiene infatti chip di fabbricazione occidentale; ogni missile richiede componenti elettronici spesso prodotti in paesi NATO; perfino i sistemi di sparo necessitano di circuiti avanzati per funzionare. Da qui l’esplosione delle forniture parallele. Paesi come Singapore, Hong Kong, la Turchia, gli Emirati e la Bielorussia sono divenuti snodi tecnologico-logistici attraverso cui i componenti occidentali vengono “riciclati”, camuffati come beni civili, e poi reindirizzati verso l’industria bellica russa, con triangolazioni finanziarie che spesso utilizzano banche locali poco trasparenti, criptofinanza e circuiti alternativi di compensazione monetaria, come quelli sino-russi basati sul renminbi. Il risultato è un ecosistema e che prospera nel buio e che rende difficile verificare l’impatto delle sanzioni. Il paradosso, denunciato dallo stesso Zelensky, è che, mentre l’Occidente cerca di limitare il potenziale russo, ogni giorno sull’Ucraina piovono missili che contengono centinaia di brevetti tecnologici di paesi NATO. Da quando la Russia ha invaso l’Ucraina nel 2022, quasi 4 miliardi di dollari di chip soggetti a restrizioni si sarebbero riversati in Russia da oltre 6.000 aziende, alcune delle quali si trovano a Hong Kong, ha scritto lo scorso agosto il New York Times, in un’inchiesta che ha analizzato dati doganali russi (ottenuti da un’azienda terza), registrazioni aziendali, registrazioni di domini e altre informazioni sulle sanzioni. Un altro importante crocevia delle supply chain alternative è rappresentato dalla Malesia, dove diverse aziende locali, talvolta anche consolidate, svolgono la funzione di “camere di compensazione” per chip ad alte prestazioni destinati a Mosca. Alcune di queste aziende, come Jatronics, sono state sanzionate dal Tesoro Usa per aver “facilitato l’approvvigionamento di prodotti a uso duale (dual use) da parte della Federazione Russa”. Torneremo più avanti sulle ragioni per cui persino aziende con una reputazione “ufficiale” da difendere si prestano a questo gioco. I “FALSARI” DEI CHIP Il mercato parallelo dei microchip si nutre attivamente delle vulnerabilità dell’industria stessa. A cominciare da quelle più strutturali come la carenza globale di chip, accelerata dalla pandemia e ormai divenuta una sorta di “new normal” dell’industria. È proprio in questo contesto che gruppi di falsari hanno trovato terreno fertile, spacciando per autentici componenti in realtà provenienti dal riciclo di rifiuti elettronici: vecchi chip smarcati, ribrandizzati e immessi sul mercato millantando prestazioni in realtà nettamente inferiori. Qui il problema non è tanto l’evasione delle sanzioni, ma il rischio concreto che questi componenti pongono ai loro utilizzatori finali. Cosa succede se, per esempio, dei chip contraffatti finiscono nei freni di un treno ad alta velocità? Un ulteriore problema è che la distinzione tra illeciti volontari e falle strutturali è a volte sottile. I produttori di semiconduttori – pur con tutti i dovuti controlli – spesso non riescono a monitorare ciò che accade una volta che i componenti lasciano i canali ufficiali. È qui che la filiera si trasforma in un circuito fatto di documentazioni potenzialmente contraffatte e opportunità di corruzione dal basso. Tra le tipologie di chip più prese di mira dai falsari ci sono, da diversi anni, le GPU: le (costose) schede grafiche in cui si è specializzata NVIDIA e che oggi sono centrali nell’ecosistema AI. Recenti notizie dalla Cina rivelano un’evoluzione impressionante delle tecniche di falsificazione dei prodotti NVIDIA, con falsi talmente simili agli originali da trarre in inganno persino gli operatori del settore. Non si tratta più di semplici imitazioni visive o di prodotti riciclati dai rifiuti elettronici, ma di una vera e propria ingegneria del falso che sfrutta componenti autentici per costruire contraffazioni altamente credibili. Nonostante molti di questi falsi si siano rivelati non performanti, resta incerto se esistano versioni operative in grado di superare anche i controlli software. Strumenti diagnostici come GPU-Z – un software che fornisce informazione sulle caratteristiche e le performance delle schede grafiche – possono essere facilmente ingannati attraverso modifiche al BIOS, una pratica piuttosto comune in Cina. In alcuni casi, come quello della scheda grafica di NVIDIA RTX-4090(D), sono persino comparse sul mercato contraffazioni con memorie superiori a quelle dei prodotti originali (la memoria è uno degli aspetti più frequentemente modificati dei chip. Tutto ciò suggerisce che non si tratti di operazioni artigianali isolate, ma di un’industria parallela di falsificazione su larga scala: un problema non solo per i consumatori – che rischiano di spendere migliaia di dollari per dell’hardware obsoleto – ma anche per la sicurezza informatica a livello globale. In un mondo dove la qualità dei componenti elettronici determina l’affidabilità di interi sistemi, la diffusione di componenti contraffatti rischia di causare danni strutturali e difficili da controllare. DEEPSEEK E SINGAPORE Negli ultimi mesi è stato spesso sollevato il dubbio che DeepSeek funzioni grazie a chip di NVIDIA che, a partire dal 2022, non avrebbero più dovuto essere disponibili in Cina. Il sospetto è che i componenti siano arrivati a Pechino attraverso una catena di “nazioni-ponte” che avrebbe come terminale Singapore, la città-stato che, dal 2022 a oggi, ha visto salire la propria quota sul fatturato globale di NVIDIA dal 9% al 22%, un incremento dalle tempistiche quantomeno sospette. Le autorità locali negano qualsiasi coinvolgimento diretto nella questione (e hanno anzi arrestato nove persone con l’accusa di contrabbando di chip per un valore complessivo di 350 milioni di dollari), tuttavia l’assenza di meccanismi di tracciamento post-vendita lascia aperto un margine di ambiguità sufficiente a far passare una quantità significativa di chip da una parte all’altra del Mar Cinese Meridionale, senza che nessuno possa davvero impedirlo. Secondo quanto emerso da recenti inchieste giudiziarie – confermate a febbraio dal ministro della giustizia di Singapore – uno dei modi con cui i chip di NVIDIA sono giunti in Cina, per il tramite della Malesia e di Singapore, è all’interno di server, prodotti da società americane come Super Micro Computer (SMC) e Dell, e venduti da aziende di paesi asiatici non soggetti a restrizioni dirette. NVIDIA ha perciò chiesto a Dell e SMC di condurre una verifica presso i loro clienti nel Sud-est asiatico, in modo da verificare che fossero ancora in possesso dei server che avevano acquistato. È anche per questioni legate a queste falle se, dopo lo smacco subito a opera di DeepSeek, l’amministrazione Trump ha valutato anche l’inclusione dell’H20 – chip intenzionalmente depotenziato per il mercato cinese – tra i prodotti vietati all’export in Cina (è recentissima la notizia che il CEO di NVIDIA, Jensen Huang, avrebbe convinto Trump a ripensarci nel corso di una sfarzosa cena a Mar-a-Lago). LA MAXI-MULTA A TSMC Il tema si fa ancora più complesso quando entra in gioco la difficile decifrazione delle catene di fornitura “ufficiali”. Un caso emblematico, in tal senso è quello che ha coinvolto Huawei, TSMC e la cinese Sophgo. Secondo un’analisi di TechInsights, una società canadese specializzata nello studio dei semiconduttori,  un componente sotto embargo ordinato da Sophgo a TSMC — apparentemente per scopi legati al mining di criptovalute — si sarebbe rivelato parte integrante dei processori Ascend 910 di Huawei, destinati a sistemi di intelligenza artificiale con potenziali applicazioni militari. Interpellata dai media, Huwaei ha negato qualsiasi violazione delle normative internazionali, sostenendo che è dal 2020, quando cioè sono entrate in vigore le prime restrizioni, che l’azienda non utilizza componenti prodotti direttamente da TSMC.  Ma il Dipartimento del Commercio statunitense ha minacciato una multa superiore al miliardo di dollari contro TSMC, accusata di aver infranto (seppure probabilmente in modo involontario) i veti all’esportazione. È una cifra enorme, che rappresenta un precedente problematico e pericoloso non solo per l’azienda, ma per tutto il settore. TRA NECESSITÀ E AMICI DI COMODO In conclusione, torniamo alla domanda lasciata in precedenza in sospeso. E cioè: perché aziende e paesi con una reputazione da difendere scelgono di compromettersi con il mercato nero dei semiconduttori, mettendosi di traverso a quello che tuttora è il principale potere normativo mondiale? La risposta ha a che fare con l’estrema complessità della filiera dei semiconduttori. In un settore dove ogni componente attraversa decine di confini, passa per centinaia di fornitori e coinvolge processi che richiedono sapere diffuso e anni di sviluppo, esercitare un controllo totale è nei fatti impossibile. Peggio ancora: il tentativo di esercitarlo può generare strozzature tali da minacciare la sopravvivenza di interi comparti industriali. Ogni volta che un ente americano introduce un veto, un embargo o una lista nera, crea inevitabilmente un collo di bottiglia. I chip sono del resto il frutto di una catena che coinvolge materiali grezzi (come il silicio ultra-puro), macchinari di estrema precisione (prodotti da ASML e Tokyo Electron), software avanzati (strumenti di electronic design automation come quelli di Synopsys e Cadence), processi di design (NVIDIA etc), fonderie (TSMC, Samsung, SMIC) e test di validazione finale. Ogni segmento di questa catena è concentrato in poche aziende, e uno squilibrio anche minimo in un singolo anello può compromettere l’intero sistema. È in questo contesto che le aziende, specialmente quelle che operano in paesi che hanno rapporti economici vitali con diversi blocchi geopolitici, si trovano davanti a un bivio: rispettare gli embarghi e rischiare di bloccare la propria attività, perdendo molti soldi e potenzialmente la possibilità di stare sul mercato, o aggirare le sanzioni e continuare a produrre. Per molti non è una scelta etica, ma esistenziale. Nel settore dei chip, la pressione è enorme: la domanda globale cresce esponenzialmente e nessuna azienda può permettersi di restare indietro. E così, pur di tenere in funzione la macchina produttiva, si ricorre a triangolazioni logistiche, a reti di subappaltatori poco tracciabili, alla ricodifica dei componenti, alla creazione di filiali ad hoc in giurisdizioni opache. In alcuni casi, sono gli stessi governi ad adottare un atteggiamento ambiguo, tollerando certe pratiche in cambio di crescita economica e attrazione di investimenti hi-tech. Questo tema si intreccia a doppio filo con quello del cosiddetto “friendshoring”, ovvero l’incentivo alla rilocalizzazione di attività strategiche in paesi teoricamente amici o quantomeno neutrali. Paesi terzi che, in realtà, spesso si rilevano snodi funzionali a entrambi i fronti della nuova “Guerra Fredda” (un fenomeno peraltro già verificatosi nel corso della “prima” Guerra Fredda). La fedeltà geopolitica degli “amici” di convenienza non è del resto mai assoluta, ma soggetta a un costante bilanciamento tra interessi, pressioni e convenienze. Più che alleati o avversari di qualcuno, il realismo geopolitico suggerisce ai paesi “terzi” di comportarsi da broker. Per tutti questi fenomeni, il mondo dei chip somiglia sempre più a un fiume attraversato da correnti sotterranee. Chi vuole davvero comprendere dove sta andando non può ignorare le mosse dei contrabbandieri di silicio. L'articolo Così si contrabbandano i microchip sotto restrizione proviene da Guerre di Rete.