Source - Guerre di Rete

Che cos’è il Golden Dome, lo scudo spaziale di Donald Trump
Immagine in evidenza da White House.gov, licenza Creative Commons Raggi laser sparati dai satelliti. E altri satelliti “sentinella” a sorvegliare il cielo statunitense, oltre a batterie antimissile in allerta 24 ore su 24. Il Golden Dome Shield – la “Cupola d’oro” di Donald Trump — sarà una rivoluzione per la Difesa a stelle e strisce. E potrebbe anche sancire l’avvio di una nuova Guerra Fredda, questa volta combattuta in orbita. Il faraonico scudo spaziale del presidente degli Stati Uniti sta però dividendo il Paese, con una battaglia su un budget da 175 miliardi di dollari e con una raffica di critiche sull’efficacia militare di questo arsenale che “proteggerà la nostra patria”, come ha detto Trump a metà maggio dagli hangar della Al Udeid Air Base, nel deserto del Qatar. Per poi aggiungere, prima dallo Studio Ovale e poi al vertice Nato dell’Aja, che “avremo il miglior sistema mai costruito”. La Cupola d’oro intercetterà i missili “anche se vengono sparati dall’altra parte del mondo” e persino dallo spazio. Trump mira a realizzare oggi il sogno delle Star Wars di Ronald Reagan negli anni ’80: un “ombrello spaziale” che protegga gli Stati Uniti dalla grande paura di un attacco missilistico sferrato dai suoi nemici: Iran, Corea del Nord, Cina o Russia. Oltre al programma del suo predecessore, la Cupola d’oro ha un’altra fonte di ispirazione: l’Iron Dome, lo scudo di Israele che – nonostante i dubbi sollevati sulla sua reale efficacia – ha intercettato razzi e missili dall’Iran e dalle milizie proxy filo-iraniane. Secondo Jeffrey Lewis, esperto di Difesa del californiano Middlebury Institute, la differenza tra quest’ultimo e la proposta di Trump sarebbe pari a quella tra “un kayak (l’Iron Dome) e una corazzata (Il Golden Dome)”. L’ALLARME DEL PENTAGONO Da anni, il Pentagono sostiene che gli Stati Uniti non abbiano tenuto il passo con gli ultimi missili sviluppati da Cina e Russia, che tradotto vuol dire: sono necessarie nuove contromisure. I generali statunitensi hanno rivelato che Mosca e Pechino possiedono centinaia di missili balistici intercontinentali, oltre a migliaia di missili da crociera in grado di colpire la terraferma da New York a Los Angeles. I sistemi di difesa missilistica a terra statunitensi, in Alaska e in California, hanno fallito quasi la metà dei test. All’inizio dell’anno, un alto ufficiale ha avvertito che – in caso di conflitto, magari legato a un’invasione di Taiwan – i missili cinesi potrebbero colpire la base aerea di Edwards, in California. In un’analisi dettagliata sulla rivista Defense News, gli esperti Chuck de Caro e John Warden hanno spiegato perché la Cupola d’oro non è sufficiente per fermare un attacco cinese contro gli Stati Uniti: “Oggi gli Stati Uniti potrebbero trovarsi in una situazione simile a quella della Corea nell’ottobre 1950: sebbene il presidente Donald Trump stia compiendo sforzi intensi per rafforzare la sicurezza nazionale degli Stati Uniti, con iniziative che vanno dall’F-47 e dal B-21 Raider alla promessa di un sistema di difesa aerospaziale denominato Golden Dome, questi sistemi non sono ancora operativi”. Comunque, proseguono gli analisti, “la Cina ha costantemente aumentato il proprio potere offensivo sotto la guida del presidente Xi Jinping”. GOLDEN DOME: COME FUNZIONA Il Golden Dome Shield, sfruttando una costellazione di centinaia di satelliti e grazie a sensori e intercettori sofisticati, potrebbe neutralizzare i missili nemici in arrivo anche subito dopo il loro decollo e prima che raggiungano gli States. Un esempio? Proviamo a immaginare che un giorno la Cina decida di lanciare un missile contro gli Stati Uniti. Grazie al Golden Dome, i satelliti americani rileverebbero le sue scie luminose. E, mentre il missile sarebbe ancora nella sua fase di “spinta”, uno degli intercettori spaziali sparerebbe un laser, o una munizione alternativa, per far esplodere il missile ed eliminare la minaccia. Il nuovo sistema di difesa si estenderà su terra, mare e spazio. Servirà per neutralizzare un’ampia gamma di minacce aeree “di nuova generazione”, tra cui missili da crociera, balistici e ipersonici. Questi ultimi, in particolare, sono i più difficili da abbattere per la loro manovrabilità ad alta velocità.  Il Golden Dome dovrebbe fermare i missili in tutte e quattro le fasi di un potenziale attacco: rilevamento e distruzione prima di un’offensiva, intercettazione precoce, arresto a metà volo e arresto durante la discesa verso un obiettivo. E lo farà grazie a una flotta di satelliti di sorveglianza e a una rete separata di satelliti d’attacco. La “Cupola d’oro” fermerà anche i sistemi di fractional orbital bombardment (Fob, Sistema di Bombardamento Orbitale Frazionale) in grado sparare testate dallo spazio. IN CAMPO I GIGANTI DELLE ARMI Fiutando un’opportunità di business senza precedenti, i giganti dell’industria militare americana – L3Harris Technologies, Lockheed Martin e RTX Corp – si sono già schierati in prima fila. L3Harris ha investito 150 milioni di dollari nella costruzione di un nuovo stabilimento a Fort Wayne, nell’Indiana, dove produce satelliti per sensori spaziali che fanno parte degli sforzi del Pentagono per rilevare e tracciare le armi ipersoniche. Al 40esimo Space Symposium di Colorado Springs, Lockheed Martin ha invece diffuso un video promozionale che mostra una Cupola d’oro che scherma le strade deserte e notturne delle città americane. Per 25 miliardi di dollari, la Booz Allen Hamilton, società di consulenza tecnologica della Virginia, sostiene di poter lanciare in orbita duemila satelliti per rilevare ed eliminare i missili nemici. Mentre dall’US Space Force, in qualità di vicecapo delle operazioni, il generale Michael A. Guetlein, a cui Trump ha affidato la regia del mega progetto, ha assicurato che il Golden Dome sarà operativo entro la fine del suo mandato nel 2030. Il finanziamento di quest’opera, però, è una sfida enorme. Per ora sul piatto ci sono 25 miliardi di dollari: un settimo della spesa totale ipotizzata. Il governo stima infatti che la Cupola d’oro possa costare fino a 175 miliardi di dollari, una cifra che il Congressional Budget Office punta a far rientrare nel più corposo bilancio da 542 miliardi che gli Stati Uniti intendono spendere in progetti spaziali nei prossimi vent’anni. Un’iniziativa cara come l’oro, dunque. Anche perché Trump, sembra ossessionato dal prezioso metallo (il suo ufficio alla Casa Bianca è stato del resto letteralmente dorato: dalle tende al telecomando della Tv). UOMINI D’ORO E CONFLITTO DI INTERESSE Mentre i colossi della difesa e dello spazio fiutano l’affare, nel resto degli Stati Uniti divampano gli scontri su costi e appalti. Perché a costruire la Cupola d’oro si sono candidati uomini d’oro: in pole position c’è il miliardario Elon Musk, proprietario di SpaceX e della costellazione Starlink, ex braccio destro di Trump prima che la loro liaison finisse, con il magnate che ha lasciato la Casa Bianca sbattendo la porta.  Un voltafaccia che il presidente non ha digerito: sebbene SpaceX rimanga il frontrunner del settore, l’amministrazione USA è a caccia di nuovi partner spaziali da imbarcare nel progetto, a cominciare dal Project Kuiper di Amazon di Jeff Bezos, insieme alle startup Stoke Space e Rocket Lab, mentre la Northrop Grumman sta alla finestra consapevole di poter essere il vincitore nel lungo periodo. Siccome il Golden Dome sarà un concentrato tecnologico, in campo ci sono anche Palantir, società di analisi dei big data del tycoon conservatore Peter Thiel, e Anduril di Palmer Luckey, azienda specializzata in sistemi autonomi avanzati, dall’intelligenza artificiale alla robotica. Intanto un gruppo di 42 membri del partito Democratico ha scritto all’ispettore generale del Pentagono per aprire un’indagine, dopo che si è saputo che SpaceX potrebbe aggiudicarsi un maxi contratto per la costruzione del Golden Dome. Con in testa la senatrice Elizabeth Warren, i democratici chiedono trasparenza ed esprimono timori per possibili “conflitti di interesse” tra l’amministrazione Trump, Musk e le altre aziende americane. LO SCETTICISMO DEI MILITARI Passando dal fronte economico a quello militare, più di un esperto è scettico sull’efficacia del Golden Dome Shield: malgrado Trump continui a dire che frenerà le minacce al 97%, sul progetto aleggia più di un interrogativo. Anzitutto, come saranno gli intercettori? È ancora da decidere. Un dirigente della stessa Lockheed non ha nascosto, parlando con il sito Defense One, che intercettare un missile nella sua fase di spinta è “terribilmente difficile” e che si potrebbe metterlo fuori combattimento solo “nelle fasi relativamente lente dopo il suo lancio”.  Per Thomas Withington, esperto di electronic e cyber warfare del Royal United Services Institute, i raggi laser sono preferibili ai missili, pesano meno e riducono il costo di lancio dell’intercettore. Ma ammette che questa tecnologia non è mai stata testata nello spazio. Un gruppo indipendente dell’American Physical Society ha calcolato che servirebbero 16mila intercettori per mettere fuori uso 10 missili intercontinentali simili all’ipersonico Hwasong-18 nordcoreano. Per questo motivo, su The Spectator, Fabian Hoffmann, ricercatore di tecnologia missilistica del Centre for European Policy Analysis, ha definito il Golden Dome un “progetto mangiasoldi”. UNA NUOVA GUERRA FREDDA Negli Stati Uniti non mancano i perplessi. L’ufficio indipendente del bilancio del Congresso ha avvertito che il progetto potrebbe costare fino a 524 miliardi di dollari e richiedere 20 anni per essere realizzato. Ma i dubbi riguardano anche la validità e utilità dello scudo spaziale. Scienziati come Laura Grego, intervistata dal MIT Technology Review, definiscono il progetto, da sempre,  “tecnicamente irraggiungibile, economicamente insostenibile e strategicamente poco saggio”. E poi ci sono le conseguenze geopolitiche, che potrebbero minare gli equilibri delle superpotenze. La Cina ha già espresso la sua preoccupazione su questo progetto. Il Cremlino è pronto a parlare con Washington di armi tattiche e nucleari. Nel prossimo decennio, il pericolo è che si inneschi una spirale incontrollata, con una corsa agli armamenti anti-satellite per bucare il Golden Dome. Come all’inizio di una nuova Guerra Fredda, è possibile che Trump stia cercando di costringere i suoi nemici a investire in tecnologie costose al fine di indebolirne l’economia, così come le “guerre stellari” di Reagan avevano contribuito a mandare in bancarotta l’Unione Sovietica. Ma c’è anche il rovescio della medaglia: se la prossima amministrazione statunitense decidesse di cancellare il Golden Dome, a quel punto a finire in un buco nero sarebbero decine di miliardi di dollari statunitensi. L'articolo Che cos’è il Golden Dome, lo scudo spaziale di Donald Trump proviene da Guerre di Rete.
“Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo
Immagine in evidenza: Jathan Sadowski, credits: Jathan Sadowski Vivere le tecnologie come se fossero qualcosa caduta dall’alto ci rende passivi e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”. È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski, i cui studi si concentrano sulle  dinamiche di potere e profitto connesse all’innovazione tecnologica.  CHI È JATHAN SADOWSKI Senior lecturer presso la Monash University di Melbourne (Australia), è esperto di economia politica e teoria sociale della tecnologia. Oltre al libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, nel 2020 Sadowski ha pubblicato il libro Too Smart – How Digital Capitalism is Extracting Data, Controlling Our Lives, and Taking Over the World. Inoltre conduce il podcast This Machine Kills insieme a Edward Ongweso Jr. È anche autore e co-autore di diversi studi che indagano le conseguenze della tecnologia e della datificazione. L’ERA DEL CAPITALISMO TECNOLOGICO Jathan Sadowski parte da alcuni presupposti. Il primo vuole che tecnologia e capitalismo non siano forze separate ma che si rafforzino in modo reciproco, con le persone relegate al ruolo di osservatori passivi, senza valutarne le ricadute politiche, economiche e sociali. Il secondo presupposto vuole le tecnologie come forma di legislazione che crei regole, definisca diritti, stabilisca cosa è consentito e – a monte – delinei il tipo di società in cui viviamo. Con un impatto anche sul mondo fisico. I magazzini automatizzati sono ambienti costruiti per i robot e non per l’uomo, le strade su cui viaggiano le automobili a guida autonoma sono pensate per quel tipo di veicolo e, ancora, qualsiasi tecnologia futura avrà bisogno di un ambiente fisico adeguato e inedito. Per definire il capitalismo tecnologico, Sadowski fa riferimento a un’idea ampia che si sofferma sugli algoritmi discriminatori, sulle piattaforme che trattano i dati degli utenti, anche i più sensibili, e sulle Big Tech che stipulano ricchi contratti con corpi militari. Tutto ciò porta in superficie le connessioni tra tecnologia e potere, così come mette in risalto la natura politica e le ricadute economico-sociali delle tecnologie. Ciò che andrebbe osservato, e questo è un punto centrale nella narrazione di Sadowski, è il contesto nel quale alcune innovazioni vengono incentivate e altre scartate. Il ruolo dei venture capitalist nell’innovazione capitalista I venture capitalist, investitori privati che finanziano imprese in cambio di quote societarie, definiscono l’innovazione in base a ciò che si adatta ai rispettivi portafogli di investimento e allineano il progresso ai loro obiettivi di profitto. Un modello – critica l’autore – sostenuto da sussidi governativi e agevolazioni fiscali e incentrato sull’ipercrescita (hypergrowth), selezionando startup e tecnologie che possono scalare e dominare il mercato esponenzialmente in breve tempo. Per Sadowski la Silicon Valley siede al tavolo della roulette, decide su quale numero si fermerà la pallina e decide quanto scommettere. Può capitare che la mano non sia vincente ma – sul lungo periodo e sulla quantità di mani giocate – il saldo per i venture capitalist è sempre positivo.   Anche quando il mercato crolla, i venture capitalist al vertice sono in gran parte immuni dai rischi e ottengono comunque profitti significativi. Questo processo crea un “realismo dell’innovazione”, al cui interno il venture capital sembra l’unica via praticabile per sostenere l’innovazione. Dati come capitale e la politica della datificazione L’autore sostiene che le metafore popolari quali “i dati sono il nuovo petrolio” oscurano la vera natura dei dati, che non sono una risorsa naturale, ma sono sempre manufatti. Le aziende inquadrano i dati come una risorsa preziosa, disponibile universalmente e soggetta alle dinamiche di mercato, ma ciò vale solo per quelle imprese che possiedono le tecnologie speciali per scoprirli, estrarli, elaborarli e capitalizzarli. I dati sono una forma di capitale essenziale per la produzione, estrazione e circolazione del valore nei sistemi digitali. Questo spinge le aziende a creare e catturare quanti più dati possibile, da tutte le fonti e con ogni mezzo.  Le acquisizioni aziendali, come l’acquisto di DoubleClick da parte di Google, LinkedIn da parte di Microsoft, WhatsApp da parte di Facebook (ora Meta, ndr) e OneMedical da parte di Amazon, sono spesso fusioni di dati. Una smania per la datificazione che trasforma le persone in dati. Ciò trova conferma, secondo l’autore, per esempio nella ricerca sulla visione artificiale che tende a categorizzare gli esseri umani al pari di oggetti da rilevare, identificare e tracciare, spogliandoli così del loro contesto sociale e della loro umanità. Un’astrazione che fa cadere eventuali resistenze etiche in chi implementa tecnologie di sorveglianza e giustifica – seppure indirettamente – la creazione di oligopoli che trovano forma nelle Big Tech, organizzazioni che fondano le rispettive potenze sui dati, sulla capacità computazionale e sul loro peso geopolitico che le mette in condizione di presentare le tecnologie prodotte al pari di asset strategici nazionali. Il ruolo dei “meccanici” e dei “luddisti” Per il professor Sadowski le parole “mechanic” e “luddite” sono da intendere in un contesto critico. Entrambi, in senso metaforico, incarnano un modo di vivere il capitalismo tecnologico. I “mechanic”, i meccanici, sono le persone che coltivano curiosità su come il mondo funziona, mentre i “luddite” (i luddisti) hanno posizioni più consapevoli delle funzioni intrinseche della tecnologia.  Il termine luddista prende origine dal movimento nato nel Regno Unito durante i primi anni del 1800 che, preoccupato dagli impatti dei macchinari industriali sul lavoro degli artigiani, ha ingaggiato una lotta contro le fabbriche, accusandole di peggiorare le condizioni di vita.  Tanto all’epoca quanto oggi, i luddisti non sono refrattari alle tecnologie in quanto tali ma alle loro implicazioni. Il luddismo odierno è un movimento molto più complesso di quello che, nel XIX secolo, il governo britannico ha represso con la violenza e con leggi ad hoc. In sintesi, il meccanico comprende come funziona un sistema, mentre il luddista sa perché è stato costruito, a quali scopi serve e quando dovrebbe essere smantellato o distrutto. Entrambi i modelli, sostiene Sadowski, sono cruciali per una critica puntuale del tecno-capitalismo.  INTERVISTA CON L’AUTORE Abbiamo approfondito queste posizioni con l’autore del libro. Nel libro emerge un panorama in cui le tecnologie sono sempre più opache (il fenomeno della “scatola nera”), complesse e dominate da interessi aziendali e statali che limitano l’agire umano. Si tratta di uno sviluppo contemporaneo o di un modello ricorrente? “L’idea delle tecnologie come una ‘scatola nera’ esiste da tempo ed è stata a lungo rilevante. È un modello ricorrente nel modo in cui le tecnologie sono progettate e utilizzate. Una scatola nera in cui possiamo vedere gli input e gli output di una tecnologia, di un sistema o di un’organizzazione, ma non possiamo vedere o capire come la cosa effettivamente operi. Se mai, la scatola è diventata semplicemente più opaca col passare del tempo. Che si tratti di intelligenza artificiale o di strumenti finanziari, i meccanismi interni di questi sistemi, che hanno un enorme potere nella società, sono schermati da strati di opacità. Certo, questi sistemi astratti sono complessi, ma sono anche mistificati per design. Ci viene detto che solo pochi eletti sanno come sono stati creati, e ancora meno sanno come effettivamente funzionino. Il risultato è che alla grande maggioranza delle persone viene impedito di conquistare la posizione minacciosa di sapere come le cose funzionano, dire di no al modo in cui funzionano ora e poi pretendere che funzionino diversamente. Consideriamo un modello di machine learning che sta alla base di un sistema di AI. Ora non possiamo nemmeno vedere o comprendere gli input che entrano nel modello perché si tratta di dataset enormi raccolti tramite scraping automatico del web e altre forme di raccolta dati. Nessun essere umano ha mai effettivamente spulciato questi dataset nella loro interezza. Forse qualcuno ha visto solo parti dei dati, o ha solo un’idea generale di che tipo di dati siano inclusi nel dataset. Ma, funzionalmente, il dataset (o input nel sistema) è anch’esso una scatola nera. Le operazioni del modello di machine learning sono anch’esse ‘black-boxed’ poiché questi sistemi computazionali hanno strati nascosti di calcoli probabilistici in cui neppure il creatore della tecnologia sa esattamente cosa stia succedendo. Per di più, persino gli output di questi sistemi sono ora scatole nere: le decisioni prese da questi sistemi di AI e, le loro conseguenze sulla vita delle persone, sono nascoste alla vista del pubblico.  Un decennio fa (era il 2016, nda), il giurista Frank Pasquale scrisse un eccellente libro intitolato The Black Box Society in cui spiegava come le scatole nere si stiano moltiplicando nelle nostre vite grazie a modi tecnici, legali, politici e sociali. Le scatole nere mantengono nascoste le operazioni di questi sistemi.  Quindi, sebbene il fenomeno delle tecnologie a scatola nera sia un modello ricorrente, possiamo sempre più vedere come quelle scatole stanno ora diventando ancora più grandi, inglobando più parti del sistema”. Parliamo dei venture capitalist che plasmano il capitalismo tecnologico anche gonfiando in modo artificioso gli asset speculativi. Come possiamo spezzare questo ciclo dell’hype? Cosa servirebbe per orientare l’innovazione verso il benessere sociale piuttosto che verso l’accumulazione di capitale? “Le nostre aspettative sul futuro sono molto importanti per influenzare dove allocare le risorse e per modellare come e perché costruiamo le tecnologie. Le aspettative sono anche performative del futuro. Andrebbero pensate come prove generali per futuri potenziali che non sono ancora arrivati. Le nostre aspettative creano anticipazione riguardo al futuro e possono aiutare a motivare l’azione nel presente. È per questo che la Silicon Valley spende così tanto tempo e denaro cercando di modellare le nostre aspettative in modi molto specifici che si allineano ai loro desideri e favoriscono i loro interessi. Ecco cosa sono i cicli dell’hype: sono il business della gestione delle aspettative. Gli investimenti speculativi – come quelli che sono la specialità dei venture capitalist e degli imprenditori tecnologici – dipendono dall’hype, dal creare aspettative e motivare all’azione. Questa speculazione è un modo di ricavare valore e profitto da cose che non sono ancora accadute e che potrebbero non accadere mai. Il futuro potrebbe sempre non materializzarsi nel modo in cui la Silicon Valley lo immagina, ma proprio questa incertezza è un elemento cruciale della performance. Significa che la partecipazione del pubblico è necessaria. Nel mio libro chiamo questo il Tinkerbell Effect: le tecnologie speculative esistono solo se ci crediamo abbastanza e battiamo le mani abbastanza forte. Se smettiamo di crederci e smettiamo di applaudire, allora possono cominciare a svanire, diventando sempre più immateriali fino a sparire. Anche investire miliardi di dollari non garantisce la realizzazione di un sogno se le persone smettono di alimentarlo con la loro energia psichica. Gli esempi ci sono, si chiamano Metaverso (un ricordo lontano), Web3 oppure Google Glass (in realtà mai visti davvero sul mercato). Questa natura effimera dell’hype è anche un punto chiave di intervento. Attualmente, molti dei benefici della tecnologia avvengono in modo accidentale e ‘a cascata’. Il loro scopo principale è catturare mercati e creare profitti per grandi aziende. Ci viene detto che questo è l’unico modo possibile e che non dovremmo aspettarci nulla di diverso o migliore. Ma potremmo fare molta strada per orientare l’innovazione in direzioni diverse semplicemente avendo aspettative più alte su come le tecnologie vengono create e a quali scopi servono”. I dati tendono a ridurre le persone a oggetti. Questo processo, intrinseco ai sistemi di intelligenza artificiale, è oggi estremamente rilevante. Quali interventi politici e sociali ritiene necessari per garantire che le tecnologie basate sui dati vengano sviluppate in modi che rispettino la dignità umana? A suo avviso, quali aspetti del capitale umano dovrebbero rimanere al di fuori della portata della datificazione? “Le nuove tecnologie possono catturare quantità di dati così vaste da risultare incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici. Ciò può sembrare banale, come un termometro che può restituire un numero sulla temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure può essere più significativo, come un algoritmo di riconoscimento facciale che può identificare la geometria di un volto, ma non può cogliere l’umanità soggettiva e il contesto sociale della persona. I dati non potranno mai rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni sfumatura della sua vita complessa.  Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati. Se questi sistemi non stanno cercando di comporre un nostro profilo completo e accurato possibile, allora qual è lo scopo? Ecco però un punto importante: chi estrae dati non si interessa a noi come individui isolati, ma come collettivi relazionali. I nostri modi di pensare la raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e individualistiche di sorveglianza e informazione.  Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le possibili forme di intervento sociopolitico in questi sistemi guidati dai dati – per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni “orizzontali’, che non si collocano a livello individuale, ma a scala di popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e le conseguenze dei dati si mescolano in forme impossibili da tracciare se continuiamo a ragionare in termini di relazioni più dirette e individualistiche.  Nel libro spiego che questa realtà delle reti di dati orizzontali indebolisce l’efficacia di interventi troppo concentrati sulla scala dei diritti individuali, piuttosto che sulla giustizia collettiva. Se vogliamo salvaguardare la dignità umana contro la datificazione disumanizzante, allora possiamo farlo solo riconoscendo come i diritti e la sicurezza di tutti i gruppi siano interconnessi attraverso queste reti guidate dai dati. In altre parole, la dignità e la sicurezza di un gruppo di persone colpite da sorveglianza e automazione è legata alla dignità e alla sicurezza di tutte le persone all’interno di questi vasti sistemi sociotecnici che letteralmente connettono ciascuno di noi”. Nel libro esprime il concetto di “AI Potemkin” per descrivere l’illusione di un’automazione che in realtà nasconde enormi quantità di lavoro umano. Un inganno per utenti, investitori e opinione pubblica: che cosa è esattamente questa illusione? “Ci sono tantissime affermazioni altisonanti sulle capacità dei sistemi di intelligenza artificiale. Ci viene fatto credere che queste tecnologie ‘intelligenti’ funzionino unicamente grazie ai loro enormi dataset e alle reti neurali.  In realtà, molte di queste tecnologie non funzionano – e non possono funzionare – nel modo in cui i loro sostenitori dichiarano. La tecnologia non è abbastanza avanzata. Al contrario, molti sistemi dipendono pesantemente dal lavoro umano per colmare le lacune delle loro capacità. In altre parole, il lavoro cognitivo che è essenziale per queste presunte macchine pensanti, proviene in realtà da uffici pieni di lavoratori (mal retribuiti) in popolari destinazioni di outsourcing come le Filippine, l’India o il Kenya. Ci sono stati diversi esempi di alto profilo, come la startup Builder.AI, che affermava di automatizzare il processo di creazione di app e siti web. Un’indagine ha rivelato che il sofisticato ‘sistema di AI’ della startup sostenuta da Microsoft e valutata 1,5 miliardi di dollari  era in realtà alimentato da centinaia di ingegneri software in India, istruiti a fingersi l’AI della società quando interagivano con i clienti. Esempi come questo sono così frequenti che ho coniato il termine AI Potemkin per descriverli. Potemkin si riferisce a una facciata progettata per nascondere la realtà di una situazione (da il villaggio Potemkin, ndr). L’AI Potemkin è collegata al concetto di ‘black boxing’, ma spinge l’occultamento fino alla vera e propria ingannevolezza. Lo scopo non è solo nascondere la realtà, ma mentire sulla realtà delle capacità di una tecnologia, per poter affermare che un sistema sia più potente e prezioso di quanto non sia in realtà. Invece di riconoscere e valorizzare pienamente il lavoro umano, da cui queste tecnologie dipendono, le aziende possono continuare a ignorare e svalutare i componenti umani indispensabili dei loro sistemi. Con così tanti soldi e così poco scetticismo che vengono pompati nel settore tecnologico, l’inganno dell’AI Potemkin continua a crescere a ogni nuovo ciclo di hype della Silicon Valley”. Per concludere, il capitale può eliminare il lavoro umano senza finire, alla lunga, per distruggere sé stesso? “Il capitalismo è un sistema definito da molte contraddizioni che minacciano costantemente di distruggerne le fondamenta e lo gettano di continuo in cicli di crisi. Una contraddizione importante che individuo nel libro è la ricerca del capitale di costruire quella che chiamo la ‘macchina del valore perpetuo’. In breve, questa macchina sarebbe un modo per creare e catturare una quantità infinita di plusvalore senza dover dipendere dal lavoro umano per produrlo. Il capitale persegue questa ricerca da centinaia di anni. Ha motivato enormi quantità di investimenti e innovazioni, nonostante non si sia mai avvicinato a realizzare davvero il sogno di produrre plusvalore senza le persone. Ciò che rende questa una contraddizione è il fatto che gli esseri umani non sono una componente accessoria della produzione di valore; il lavoro umano è parte integrante della produzione di plusvalore. L’AI è l’ultimo – e forse il più grande – tentativo di creare finalmente una macchina del valore perpetuo. Gran parte del discorso sull’automazione, e ora sull’intelligenza artificiale, si concentra sulle affermazioni secondo cui il lavoro umano verrà sostituito da lavoratori robotici, con l’assunzione che si tratti di una sostituzione diretta dei corpi organici con sistemi artificiali, entrambi intenti a fare esattamente la stessa cosa, solo in modi diversi e con intensità diverse. Tuttavia, a un livello fondamentale, l’idea di una macchina del valore perpetuo non può riuscire, perché si basa su un fraintendimento del rapporto tra la produzione di valore e il funzionamento della tecnologia. Il capitale equipara una relazione – gli esseri umani che usano strumenti per produrre valore – a un’altra relazione completamente diversa: gli strumenti che producono valore (con o senza esseri umani). Dal punto di vista del capitale, il problema degli esseri umani è che non sono macchine. Aziende come Amazon non vogliono rinunciare alla fantasia di una macchina del valore perpetuo, ma sanno anche che ci sono molte più alternative che sostituire direttamente gli uomini con le macchine: si possono anche gestire i lavoratori tramite le macchine, renderli subordinati alle macchine e, in ultima analisi, farli diventare sempre più simili a macchine. Questo è un punto cruciale per ripensare il potere dell’AI per il capitalismo e per capire perché le aziende stanno riversando più di mille miliardi di dollari nella costruzione dell’AI. Ai loro occhi, il futuro del capitalismo dipende dall’uso dell’AI per sostituire gli esseri umani come unica fonte di plusvalore o, se questo obiettivo fallisse, dall’obbligare i lavoratori a trasformarsi in oggetti, semplici estensioni delle macchine, costringendo le persone a diventare sempre più meccaniche nel modo in cui lavorano e vivono”. L'articolo “Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo proviene da Guerre di Rete.
L’Europa abbandona Big Tech?
Per conformarsi a un ordine esecutivo del presidente americano Donald Trump, nei mesi scorsi Microsoft ha sospeso l’account email di Karim Khan, procuratore della Corte penale internazionale che stava investigando su Israele per crimini di guerra. Per anni, scrive il New York Times, Microsoft ha fornito servizi email al tribunale con sede a L’Aja, riconosciuto da 125 paesi tra cui l’Italia (ma non da Stati Uniti, Israele, Cina, Russia e altri).  All’improvviso, il colosso di Redmond ha staccato la spina al magistrato per via dell’ordine esecutivo firmato da Trump che impedisce alle aziende americane di fornirgli servizi: secondo il successore di Biden, le azioni della Corte contro Netanyahu “costituiscono una inusuale e straordinaria minaccia alla sicurezza nazionale e alla politica estera degli Stati Uniti”.  Così, di punto in bianco, il procuratore non ha più potuto comunicare con i colleghi.  C’è stata una mediazione, ricostruisce il New York Times: dopo una riunione tra Redmond e i vertici della Corte si è deciso che la Cpi avrebbe potuto continuare a utilizzare i servizi di Microsoft. Anche perché l’azienda, secondo la ricostruzione del quotidiano, sarebbe stata fondamentale per la cybersecurity dell’organizzazione, finita nel mirino degli hacker russi dopo l’inchiesta per i crimini di guerra in Ucraina.  Il discorso, però, non vale per Khan, il cui account resta bloccato: cittadini e aziende statunitensi rischiano conseguenze serie – multe e persino l’arresto – se forniscono “supporto finanziario, materiale e tecnologico” a chi viene identificato come pericoloso per la sicurezza nazionale (spesso sulla base di ragionamenti dal sapore politico). Insomma, in una paradossale inversione di ruoli, il procuratore è diventato un criminale, trattato alla stregua di un nemico pubblico.  Le conseguenze non si sono fatte attendere. Tre dipendenti con contezza della situazione hanno rivelato al quotidiano newyorchese che alcuni membri dello staff della Corte si sarebbero rivolti all’azienda svizzera Protonmail per poter continuare a lavorare in sicurezza. Il giornale non chiarisce il perché della decisione, né se tra essi vi sia lo stesso Khan. Una conferma al riguardo arriva dall’agenzia Associated Press. Protonmail, contattata da Guerre di Rete, non ha commentato, spiegando di non rivelare informazioni personali sui clienti per questioni di privacy e di sicurezza. UNO CHOC PER LE CANCELLERIE Quello che conta è che la situazione ha scioccato le cancellerie europee: quasi tutte – e  il quasi è un mero ossequio al dubbio giornalistico – impiegano software, servizi e infrastrutture statunitensi per le proprie normali attività. Ma nel clima pesante di questi mesi sono saltate le classiche e paludate convenzioni della diplomazia: Trump negozia nelle cancellerie come farebbe con i colleghi palazzinari, senza andare troppo per il sottile. Non è possibile, non lo è per nessuno, prevedere la prossima mossa. Il punto è che correre ai ripari non è semplice: sia perché  uscire dalla “gabbia” creata dalle aziende, il cosiddetto “vendor lock in”, richiede tempo, formazione, strategia; sia perché esistono contratti in essere e la questione può diventare spinosa dal punto di vista giuridico. Ma anche perché – ed è una questione centrale – al momento le alternative, quando esistono, sono poco visibili. La situazione è seria. Per dare un’idea, l’Irish Council for Civil Liberties ha rivelato che il parlamento europeo ha un contratto di fornitura di servizi cloud con Amazon. L’accordo imporrebbe di utilizzare solo modelli linguistici di grandi dimensioni “ospitati” su Amazon Web Services. Somo, ong olandese che si occupa da cinquant’anni di monitorare l’attività delle multinazionali, ha rivelato in un recente rapporto gli accordi capestro che le società di intelligenza artificiale hanno dovuto sottoscrivere con Big Tech per sostenere i costi di sviluppo dell’AI (comprese società europee come Mistral e Aleph Alpha).  E tutte le aziende di riferimento, da Microsoft ad Amazon a Oracle a Google a Intel, sono statunitensi e possono quindi potenzialmente ricadere tra i destinatari degli ordini esecutivi di Trump.  LA DIFESA DI MICROSOFT Per riguadagnare fiducia e mercato – i clienti governativi spostano cifre importanti anche per una Big Tech – nei mesi scorsi Microsoft ha cercato di rassicurare i propri utenti europei.  Il presidente Brad Smith a fine aprile ha schierato l’azienda a fianco di Bruxelles: “Oggi ci impegniamo solennemente”, ha detto in una conferenza del think tank Atlantic Council. “Se in futuro un qualsiasi governo, in qualsiasi parte del mondo, dovesse emettere un ordine che intenda obbligare Microsoft a sospendere o cessare le operazioni e l’assistenza per l’Europa, faremo ricorso al tribunale. Percorreremo ogni via legale per opporci a un simile ordine”. Non solo: se le cause fossero, alla fine, perse, “i nostri partner europei avrebbero accesso al nostro codice sorgente di cui conserviamo una copia in un repository sicuro in Svizzera”, paese neutrale per antonomasia.  CHI STA GIÀ LASCIANDO LE BIG TECH Ma c’è qualcuno che, nonostante tutto, sta già lasciando le Big Tech? Due città danesi (Copenhagen e Aarhus) starebbero abbandonando Microsoft per il timore di finire tra le braccia di un monopolista. Il parlamento olandese, dal canto proprio, nelle scorse settimane ha approvato alcune mozioni per spingere il governo a non fare più affidamento sulla tecnologia cloud statunitense. Il timore è il cosiddetto vendor lock in, cioè la politica commerciale alla base della creazione degli ecosistemi in stile Apple: tutto griffato, tutto dello stesso brand, o dentro o fuori. Chi usa un certo elaboratore di testi avrà, così, la strada spianata se sceglierà di impiegare anche il foglio di calcolo e l’applicazione di videoconferenze della stessa società; andrà, invece, incontro a parecchie (e strategicamente posizionate) difficoltà nel caso dovesse decidere di avvalersi dei servizi di un’azienda concorrente. Ricordate i tempi in cui cambiare operatore di cellulare richiedeva di accollarsi il rischio di restare settimane senza telefono? Funziona esattamente allo stesso modo: uscire non è facile, perché l’obiettivo è proprio complicare la vita a chi decide di farlo.  Ma in questo caso la posta in gioco è molto più alta, perché non parliamo di singoli, per quanto importanti come i giudici di una corte internazionale, ma di intere amministrazioni. Lo US CLOUD Act firmato da Trump nel corso del primo mandato consente alle forze dell’ordine di imporre alle società tech di fornire accesso ai dati custoditi nella “nuvola” per investigare crimini particolarmente gravi: difficile mettersi al riparo.  Dall’altra parte, a un esame anche basilare di cybersecurity molti politici sarebbero bocciati: un’indagine della Corte dei conti olandese ha scoperto che molti ministri del governo hanno usato cloud di Google, Microsoft, Amazon senza essere consapevoli dei rischi potenziali. E non c’è ragione per pensare che altrove vada meglio. Italia compresa.    Qualcosa sta cambiando? Guerre di rete ha chiesto ad alcuni soggetti direttamente coinvolti se la copertura mediatica degli ultimi anni abbia alzato il livello di consapevolezza del pubblico e delle aziende sul tema.  “Negli ultimi dieci anni aziende e consumatori hanno cominciato a cambiare”, afferma al telefono Alexander Sander, policy consultant della Free software foundation. “Il problema è sbarazzarsi del vendor lock in, che significa essere ostaggio dell’ecosistema del fornitore: oggi è difficile passare da un prodotto all’altro, tutto funziona bene e facilmente solo se si utilizzano servizi di una sola azienda. Lo si è visto chiaramente nel periodo pandemico, quando la gente cercava disperatamente servizi di videoconferenza e tendeva a scegliere quelli dell’azienda con cui già lavorava: oggi vale anche per l’intelligenza artificiale, che devi pagare anche se non ti interessa, non ne hai bisogno o semplicemente preferisci usare quella di un’altra società”. Questo, prosegue l’esperto, “significa che alla fine costruisci una relazione con un solo marchio: migrare è complicato e costoso. Non solo: molti dei servizi commercializzati in Europa, lo vediamo, non rispettano le norme continentali dal punto di vista della privacy e della cybersecurity: il Patriot Act non rispecchia le nostre normative, e quindi – nel caso di un’azienda Usa che vende servizi in Europa – i servizi segreti possono avere accesso ai file”.  Sander suggerisce di usare software open source, “il cui codice sorgente è pubblico e in cui si possono anche cercare eventuali backdoor: se le individui puoi sistemarle tu stesso, o incaricare qualcun altro di fare le modifiche del caso. Con il software delle grandi multinazionali del tech, invece, devi scrivere all’azienda, che a propria volta ti risponderà se può o meno mettere mano al codice”. E, come visto, oltre alle decisioni di business conta anche il clima politico.  C’è un altro tema, rimarca Sander: “Un conto è negoziare con un paese come l’Italia o la Spagna, un conto è quando al tavolo si siede una piccola azienda”. In questo caso le tutele sono rasenti lo zero.  C’è un’azienda che fa peggio delle altre, chiediamo, in termini di rispetto dei diritti digitali? “In realtà, credo sia più un problema di modello di business. Dobbiamo crearci delle alternative. E penso che Stati e governi dovrebbero avere un ruolo nello stimolare i mercati in questo senso. L’Europa si è mossa bene con il Digital markets act: qui non ci mancano tanto le idee, quanto l’implementazione. E poi bisogna educare cittadini e consumatori a comprendere come funzionano certi modelli di business”.  Qualche passo in avanti si comincia a vedere: in Francia c’è il progetto La Suite numerique, che offre una serie completa di servizi digitali sotto la bandiera del governo di Parigi. In Germania c’è Open Desk di ZenDis, il Centro per la sovranità digitale di Berlino fondato nel 2022 come società a responsabilità limitata di proprietà del governo federale. Anche qui, c’è tutto il necessario per una pubblica amministrazione. La strada, però, è ancora lunga. LA VERSIONE DI PROTONMAIL E poi ci sono i privati. Protonmail (lo abbiamo già incontrato poco sopra) è un servizio email sicuro nato nel 2014 da scienziati che si sono incontrati al Cern di Ginevra. “Lo abbiamo creato per fornire una risposta alla crescente domanda di sicurezza e privacy nella posta elettronica, e anche perché ci siamo resi conto che internet non stava più lavorando nell’interesse degli utenti”, dice a Guerre di Rete Anant Vijay Singh, head of product della società elvetica. “L’email non rappresenta solo uno strumento di comunicazione importante, ma anche la nostra identità online. Noi assicuriamo all’utente di avere il pieno controllo sui  propri dati: li criptiamo, per cui nemmeno noi possiamo analizzare, monetizzare o accedere a informazioni personali. È così che siamo diventati attraenti per chi è stanco di società che sfruttano i dati personali per farci soldi, spesso senza il consenso degli utenti”.  Singh afferma che l’azienda si basa solo sugli abbonamenti: il servizio di base è gratuito, gli upgrade a pagamento. “Il maggiore azionista è la Proton Foundation, che è una non profit, il che significa che quando pensiamo a un prodotto mettiamo davanti le persone, e non i soldi. E questo in definitiva porta a un’esperienza utente migliore”.  Il manager conferma che qualcosa si muove. “Negli anni scorsi abbiamo visto che la gente ha cominciato a rifiutare il capitalismo della sorveglianza e a cercare alternative più sicure e rispettose della privacy: nel 2023 abbiamo superato i 100 milioni di account, e questa tendenza ha accelerato negli ultimi mesi su entrambe le sponde dell’Atlantico”.  Proton, assicura Singh, opera sotto la legge svizzera, “che sulla privacy è tra le più stringenti al mondo. Ma le normative cambiano, e se non bastassero c’è sempre la matematica [cioè la crittografia, ndr] a difendere gli utenti”. “Inoltre tutti i nostri prodotti sono open source e sottoposti a regolari verifiche sulla sicurezza da terze parti indipendenti”. I dati sono conservati in Svizzera, ma alcune porzioni, prosegue, anche in Germania e Norvegia. Singh non nasconde che la Rete ha tradito le aspettative dei creatori. “Per anni i giganti del web l’hanno plasmata sulla base dei propri interessi e la natura centralizzata di molti servizi ha esacerbato i problemi: grandi società controllano enormi quantità di dati. Anche la sorveglianza governativa ha giocato un ruolo nell’erodere la fiducia: le rivelazioni sui programmi di sorveglianza di massa hanno mostrato quanto sia grande il potere degli esecutivi nel monitorare le attività online”. Ma la gente “è sempre più consapevole che alternative esistono, e vuole acquistare ‘europeo’, perché conscia della eccessiva dipendenza da servizi americani”.    L’alternativa elvetica a WeTransfer C’è un altro servizio, sempre basato in Svizzera, che sta spopolando da qualche tempo e tra i clienti vanta molti grossi nomi corporate. Si chiama Swiss Transfer ed è l’alternativa al notissimo WeTransfer, nato olandese e recentemente comprato dall’italiana Bending Spoons. Infomaniak è la società madre. “Abbiamo creato Swiss Transfer innanzitutto per testare su larga scala la nostra infrastruttura basata su OpenStack Swift”, dice a Guerre di Rete Thomas Jacobsen, a capo della comunicazione e del marketing. “Offrire un servizio free e utile al pubblico è  un modo per dimostrare l’affidabilità e la robustezza delle nostre soluzioni. Ma, al di là dell’aspetto tecnico, è anche un modo per aumentare la consapevolezza di cosa sia Infomaniak senza fare affidamento sui tradizionali canali promozionali, come Facebook, Instagram, Google e Linkedin, che richiedono grossi budget per acquisire visibilità. Abbiamo preferito creare un tool che parla da sé, rispetta la privacy, non traccia e offre un valore quotidiano all’utente. E funziona. Milioni di persone usano Swiss Transfer, spesso senza sapere che dietro ci siamo noi. Direi, anzi, che è ironico: in alcuni paesi il brand è più conosciuto della società che ci sta dietro. Ma lo consideriamo un successo”.  Le informazioni, spiega Jacobsen, sono custodite in data center proprietari in Svizzera, protetti dalla legge elvetica. “E dal momento che lavoriamo con l’Europa, ci conformiamo al Gdpr”.  Il modello di business è particolare. “Infomaniak è una società svizzera indipendente, posseduta dai propri stessi dipendenti: oggi gli azionisti sono circa trenta. Questa autonomia assicura indipendenza, e il rispetto dei nostri valori: protezione della privacy, sostenibilità ambientale e supporto per l’economia locale. Tutto è prodotto e sviluppato in Svizzera: i nostri team sono qui, sia quello di sviluppo che il customer care, il che ci dà il controllo totale su tutta la catena del valore, senza intermediari. Significa trasparenza, massima reattività e alta confidenzialità dei dati del cliente, che non verranno mai usati per altri fini se non quello di fornire i servizi richiesti”.   Chiediamo: ma siete davvero sicuri di essere in grado di sostituire i prodotti delle grandi multinazionali? “Sì. È sbagliato pensare che solo le Big Tech possano soddisfare le esigenze di grandi organizzazioni: lavoriamo già con oltre tremila media company tra cui radio e televisioni, ma anche banche centrali, università, governi locali e anche infrastrutture critiche”. Jacobsen sa che uno dei colli di bottiglia è la paura delle difficoltà nella migrazione, e parla di supporto personalizzato 24/7 . “La nostra filosofia è semplice: ci guadagnamo da vivere solo con i nostri clienti, non con i loro dati. Non li vendiamo e i servizi gratuiti sono interamente finanziati da quelli a pagamento: può sembrare strano, ma paghiamo tutti i nostri stipendi in Svizzera, e nonostante ciò  spesso riusciamo a offrire prezzi più competitivi. E funziona da trent’anni”. I dipendenti sono trecento, in crescita: “Ma siamo per la biodiversità digitale: il mondo ha bisogno di alternative locali dovunque”. Jacobsen va oltre: “I dati sono le materie prime dell’intelligenza artificiale e un asset strategico, ma l’Europa continua a spendere milioni di euro di soldi pubblici in soluzioni proprietarie come quelle di Microsoft, Amazon o Google senza reali benefici locali [sul tema lavora anche la campagna Public money, public code, ndr]. Queste piattaforme portano i profitti in America, creano posti di lavoro lì e aumentano la nostra dipendenza. Ma c’è di più: Big Tech investe un sacco di soldi per portare via i nostri migliori ingegneri e ricercatori, spesso formati con denaro pubblico. Per esempio, Meta ha recentemente assunto tre ricercatori dell’ufficio di Zurigo di OpenAI con offerte che a quanto pare hanno raggiunto i cento milioni di dollari. Nel frattempo, quando si presenta una necessità tecnologica negli Stati Uniti, il governo federale non esita ad aprire linee di credito eccezionali per supportare i player locali con contratti da miliardi di dollari, come nel caso di Palantir, OpenAI o cloud provider come Oracle. E l’Europa? Che sta facendo? Firma contratti con società straniere, anche se esistono alternative forti vicino a casa: noi in Svizzera, ma anche Scaleway  e OvhCloud in Francia, Aruba in Italia o Hetzner in Germania”.  Se davvero conquisteremo la biodiversità digitale, lo scopriremo nei prossimi anni. Certo, per cambiare rotta, ci vuole coraggio. E, come dice ancora Sanders, tempo. “C’è un movimento verso il software libero più o meno in tutti i paesi. Dieci anni fa era molto più difficile. Oggi governi e amministrazioni stanno cercando di cambiare passo dopo passo per uscire da questo vendor lock in, e non solo per i pc desktop: si stanno rendendo conto che si tratta anche delle infrastrutture, come i server.Il processo  non è immediato, un’amministrazione non dice all’improvviso: voglio passare al software libero. Ma piuttosto, quando si pone la necessità di acquistare un servizio, comincia a considerare le alternative”. Del resto, se ci sono voluti trent’anni per arrivare fin qui, è difficile immaginare che si possa invertire la rotta dall’oggi al domani L'articolo L’Europa abbandona Big Tech? proviene da Guerre di Rete.
Come la Cina ha conquistato l’auto elettrica
Immagine in evidenza di myenergi da Unsplash Negli ultimi anni, l’auto elettrica è diventata uno dei simboli più discussi della transizione ecologica. Spinta o respinta dai governi, sostenuta o affossata dall’industria, osannata o temuta dall’opinione pubblica, la mobilità a batteria è un tema che divide. Da una parte viene raccontata come un passaggio inevitabile verso un futuro libero dai combustibili fossili, dall’altra viene bollata come una tecnologia immatura o addirittura come un cavallo di Troia per interessi cinesi e imposizioni “ecologiste”. Entrambe le narrazioni tendono a semplificare – e a polarizzare – un fenomeno complesso e in evoluzione. Proviamo allora a gettare lo sguardo oltre le trincee dell’ideologia e a offrire una lettura il più “atea” possibile della questione, soprattutto per quanto riguarda le sue implicazioni geopolitiche. Per cominciare, vanno chiarite due cose. La prima è che la diffusione dell’auto elettrica non è uniforme. Da un lato gli electric vehicles (EV) rappresentano ancora una quota trascurabile (il 4%, pari a 58 milioni di veicoli) del parco macchine mondiale. Dall’altro hanno rappresentato circa il 20% delle nuove immatricolazioni nel 2024. Il dato è caratterizzato da forti concentrazioni geografiche, ma è in crescita del 25% rispetto all’anno precedente. Stiamo quindi parlando di un prodotto che, a livello di mercato planetario, si sta muovendo da una nicchia molto piccola a un segmento significativo. Basti pensare che nel 2024 le vendite sono aumentate di 3,5 milioni di unità rispetto al 2023, più di quanto si fosse venduto in tutto il 2020. La Cina domina il mercato, sia dal lato della domanda che dell’offerta, con quasi il 75% del venduto globale (11 milioni di EV). In Europa, invece, si registra ogni anno una leggera crescita delle nuove immatricolazioni (1,8% in più nel 2024), ma questa è altamente dipendente da incentivi statali e dalle strategie industriali nazionali. Nel 2025 si prevede che le vendite europee supereranno i 4 milioni di unità, con una quota di mercato del 25%, ma anche in questo caso si registrano grandi differenze tra paesi, in particolare tra Europa del Nord e del Sud. Negli Stati Uniti il settore è stato finora trainato da Tesla e da sussidi pubblici introdotti da Biden (e appena tagliati da Trump), ma la penetrazione resta limitata al di fuori delle aree urbane. In tutto il 2024 sono state vendute solo 1,6 milioni di auto elettriche, per una quota di mercato del 10% e con un rallentamento della crescita rispetto all’anno precedente. Per quanto riguarda i paesi emergenti, in America Latina e in Africa le vendite di EV sono aumentate nel 2024 rispettivamente del 100% e del 120%. In Brasile il mercato è dominato dalle importazioni cinesi (oltre l’85% nel 2024), mentre negli altri paesi della regione e in Africa le percentuali sono leggermente inferiori ma comunque preponderanti. Questi dati sono utili a inquadrare un fatto: l’impronta dell’investimento nei veicoli elettrici non è uguale in tutte le zone economiche, così come diseguale è lo sviluppo del mercato e dell’industria. In particolare, è evidente come la Cina si trovi in una fase molto più avanzata rispetto al resto del mondo. Questo non si traduce solo in una leadership produttiva o commerciale, ma in un’esposizione più profonda e strutturale al destino della mobilità elettrica.  A differenza di altre economie, dove l’auto elettrica rappresenta ancora una scelta sperimentale, in Cina è ormai una componente sistemica del mercato e della strategia industriale del Paese. Ne derivano, inevitabilmente, una grande forza industriale, ma anche una vulnerabilità più elevata in caso di contraccolpi globali e, proprio per questo motivo, un maggiore impegno (geo)politico da parte dello Stato cinese nello sviluppo e nella difesa del settore. La seconda cosa da chiarire è che, dal punto di vista della produzione, le differenze tra un’auto tradizionale e un’auto elettrica sono così numerose e profonde che è come se si trattasse di due prodotti completamente diversi. Per certi versi si può dire che, più che di un processo di transizione industriale, lo sviluppo della mobilità elettrica andrebbe inquadrato come la nascita di una nuova industria. È importante evidenziare questo punto, poiché è una delle ragioni per cui la transizione elettrica dell’auto sta comportando cambiamenti così profondi delle geografie delle risorse e della geopolitica delle filiere. Il passaggio dall’auto a motore a combustione interna (ICE) al veicolo elettrico non comporta soltanto un cambiamento nelle modalità di alimentazione, ma implica una rivoluzione tecnologica che investe l’intera filiera produttiva. Le competenze richieste per progettare, costruire e mantenere un’auto elettrica – a cominciare dal suo componente più cruciale, la batteria – sono radicalmente diverse rispetto a quelle necessarie per i veicoli tradizionali: servono ingegneri specializzati in elettronica di potenza, software, gestione termica e chimica dei materiali, piuttosto che esperti di meccanica e di fluidodinamica dei motori termici. Questo ha implicazioni politiche nella misura in cui paesi come la Cina investono da quasi due decenni nella formazione di figure professionali e di ricercatori specializzati in questi ambiti, mentre Europa e USA hanno preferito continuare a puntare su competenze più tradizionali, col risultato che oggi le loro industrie non solo faticano a reperire le figure necessarie alla transizione, ma rischiano di dover operare ampi (e socialmente costosi) tagli del personale. Può non sembrarlo, ma anche questo è un tema geopolitico, in quanto ha direttamente a che fare con la resilienza dei corpi sociali dei paesi.  Un tema ancor più spinoso è quello delle materie prime critiche per la produzione di batterie. A causa della transizione energetica (non solo quella dell’automotive), negli ultimi anni litio, cobalto, nichel, grafite e terre rare ( di cui abbiamo appena scritto su Guerredirete.it, ndr) hanno assunto un’importanza strategica simile a quella del petrolio o dell’acciaio. L’approvvigionamento, la raffinazione e la lavorazione di questi materiali sono oggi al centro di una corsa globale, in cui le geografie della potenza economica si stanno rapidamente riorganizzando. Anche in questo caso la Cina si è mossa con grande anticipo. A partire dai primi 2000, Pechino ha investito nello sviluppo di una filiera completa e integrata della mobilità elettrica, dalla proprietà delle miniere all’estero (in Africa, America Latina e Australia), fino alla raffinazione dei minerali, alla produzione di celle per batterie, e infine alla progettazione e vendita di veicoli completi. Aziende cinesi specializzate in batterie per EV, come CATL, e produttori di veicoli elettrici come BYD e NIO non solo dominano il mercato domestico, ma stanno progressivamente espandendo la loro presenza internazionale, soprattutto in Europa. A oggi, la Cina raffina oltre il 60% del litio globale, il 70% del cobalto, e quasi il 90% delle terre rare, numeri che ne fanno un attore insostituibile in tutte le fasi della catena del valore dei componenti decisivi di un’auto elettrica, ovvero quelli elettronici, magnetici e chimici usati all’interno di software, sensori, motori e batterie. Questa concentrazione rappresenta un punto di vulnerabilità per le case automobilistiche non cinesi, che rischiano interruzioni di fornitura critiche. Non è quindi un caso che – già prima del ritorno di Trump alla Casa Bianca – proprio il tema della “terre rare” sia finito al centro delle trattative sul commercio tra Cina e Stati Uniti. Proprio le trattative tra blocchi economici in risposta alla minaccia dei dazi di Trump ci ricordano che, come molti altri settori strategici, negli ultimi anni anche quello dell’automotive ha assistito a un prepotente ritorno degli Stati nella regolazione della vita economica e industriale. L’avvento della mobilità elettrica sta riportando al centro del dibattito concetti come “sovranità tecnologica” e “politica industriale”, costringendo governi e istituzioni a confrontarsi con il fatto che la competizione globale non si gioca più solo sul mercato, ma sulla capacità di presidiare le filiere produttive. Si tratta di una materia in continua evoluzione, complessa e altamente tecnica, che spesso i governi faticano a comprendere appieno. In molti casi, mancano sia le informazioni aggiornate che le competenze per analizzarla con la precisione e la profondità necessaria. La geopolitica della mobilità EV si muove infatti lungo coordinate altamente mobili, in cui innovazione tecnologica, instabilità internazionale e politiche pubbliche interagiscono in modo non lineare. Per questo, la vera posta in gioco non è solo industriale, ma cognitiva e culturale: la capacità di capire per tempo quale traiettoria tecnologica emergerà come dominante (che, retrospettivamente, è la ragione dell’attuale vantaggio cinese). Uno scenario cruciale per il futuro riguarda, per esempio, l’evoluzione delle batterie. Se le tecnologie allo stato solido, oggi in fase avanzata di sviluppo presso aziende come Toyota, QuantumScape e CATL, dovessero arrivare alla maturità industriale nei prossimi 5 anni, si assisterebbe a una vera discontinuità tecnologica: densità energetica superiore, tempi di ricarica più brevi, minore infiammabilità e, soprattutto, una diminuzione della dipendenza da materie prime come litio e cobalto. Questo ridurrebbe l’influenza dei paesi oggi dominanti in queste risorse, ma potrebbe farne emergere altri (tra cui Giappone e Corea del Sud, tra i più avanzati nello sviluppo di batterie allo stato solido), a dimostrazione di quanto la partita dell’EV, e la sua traiettoria evolutiva, sia tutt’altro che chiusa o definita, come invece la raccontano tanto gli entusiasti quanto i detrattori.  L’autore di questo articolo ha pubblicato da poco proprio un libro sul tema automotive: Velocissima). L'articolo Come la Cina ha conquistato l’auto elettrica proviene da Guerre di Rete.
Chi controlla le terre rare controlla il mondo
Immagine in evidenza da Unsplash Quando a fine anni ’80 Deng Xiaoping affermò che “il Medio Oriente ha il petrolio, la Cina le terre rare”, in pochi diedero il giusto peso alla dichiarazione dell’allora leader della Repubblica Popolare cinese. Come invece sempre più spesso accade, il Dragone asiatico dimostrò di avere la capacità di immaginare e mettere in atto strategie di lungo termine: le terre rare, infatti, rappresentano oggi uno dei maggiori motivi di frizione geopolitica nel mondo, a causa dell’elevata richiesta e del loro complesso approvvigionamento, di cui la Cina detiene il monopolio. Praticamente nessun settore industriale ad alta tecnologia può farne a meno, da quello militare – per missili guidati, droni, radar e sottomarini – a quello medico, in cui sono impiegate per risonanze magnetiche, laser chirurgici, protesi intelligenti e molto altro ancora. Non fa eccezione il settore tecnologico e in particolare quello legato allo sviluppo e all’utilizzo dell’intelligenza artificiale. Come spiega Marta Abbà, fisica e giornalista esperta di temi ambientali, le terre rare possiedono qualità magnetiche uniche e sono eccellenti nel condurre elettricità e resistere al calore, e anche per questo risultano essenziali per la fabbricazione di semiconduttori, che forniscono la potenza computazionale che alimenta l’AI, per le unità di elaborazione grafica (GPU), per i circuiti integrati specifici per applicazioni (ASIC) e per i dispositivi logici programmabili (FPGA, un particolare tipo di chip che può essere programmato dopo la produzione per svolgere funzioni diverse).  Sono inoltre cruciali per la produzione di energia sostenibile: disprosio, neodimio, praseodimio e terbio, per esempio, sono essenziali per la produzione dei magneti utilizzati nelle turbine eoliche.  Senza terre rare, quindi, si bloccherebbe non solo lo sviluppo dell’intelligenza artificiale, ma anche quella transizione energetica che, almeno in teoria, dovrebbe accompagnarne la diffusione rendendola più sostenibile. Insomma, tutte le grandi potenze vogliono le terre rare e tutte ne hanno bisogno, ma pochi le posseggono. TERRE RARE, MINERALI CRITICI E AI Le terre rare (REE) sono un gruppo di 17 elementi chimici con proprietà simili e spesso presenti insieme nei minerali: lantanio, cerio, praseodimio, neodimio, promezio, samario, europio, gadolinio, terbio, disprosio, olmio, erbio, tulio, itterbio, lutezio, ittrio e scandio. Le materie prime critiche, di cui possono far parte anche alcune terre rare, sono invece quei materiali identificati dai vari governi come economicamente e strategicamente essenziali, ma che presentano un alto rischio di approvvigionamento a causa della concentrazione delle fonti e della mancanza di sostituti validi e a prezzi accessibili. Nel 2024 il Consiglio dell’Unione Europea ha adottato il Regolamento europeo sulle materie prime critiche, elencandone 34, di cui 17 definite “strategiche”, il cui controllo o accesso influisce direttamente su obiettivi di sicurezza, sviluppo tecnologico e autonomia industriale. Le terre rare, in realtà, spiega ancora Marta Abbà, non sono rare, ma la loro presenza nel mondo non è omogenea e l’estrazione e la lavorazione risultano molto costose e inquinanti.  Le maggiori riserve sono possedute dalla Cina, in cui ammontano, secondo le stime, a 44 milioni di tonnellate, con una capacità estrattiva che nel 2024 ha toccato la cifra di 270mila tonnellate all’anno. Altri stati che possiedono significative riserve sono il Brasile (21 milioni di tonnellate, attualmente ancora pochissimo sfruttate), l’Australia (5,7 milioni di tonnellate), l’India (6,9 milioni di tonnellate), la Russia (3,8 milioni di tonnellate) e il Vietnam (3,5 milioni di tonnellate).  A questo gruppo di paesi si è aggiunta di recente la Groenlandia, salita alla ribalta delle cronache per i suoi enormi giacimenti di materie prime critiche e per il conseguente interesse mostrato da Stati Uniti, Unione Europea e Cina. Il sito più rilevante, Kvanefjeld, nel sud dell’isola, è considerato uno dei più promettenti a livello globale e, secondo le stime della società che ne detiene la licenza estrattiva, potrebbe contenere fino al 15% delle riserve mondiali conosciute di terre rare. A far gola alle grandi potenze tecnologiche sono in particolare l’alluminio, derivato della bauxite, e il silicio, necessari per la produzione dei wafer (la base di silicio su cui vengono costruiti i microchip) e per l’isolamento dei chip, il niobio, utilizzato nei cavi superconduttori, il germanio, necessario per i cavi in fibra ottica utilizzati per la trasmissione di dati ad alta velocità, cruciale per l’AI, e ancora gallio, tungsteno, neodimio, ittrio, tutti componenti essenziali per l’industria dei microchip.    Per via delle loro applicazioni nell’industria high tech, molti di questi materiali ed elementi sono stati identificati come strategici sia dall’Unione Europea che dagli Stati Uniti e sono per questo oggetto di accordi e trattati bilaterali con i paesi produttori.  Nonostante la presenza di alcune riserve di terre rare in entrambe le regioni, il fabbisogno risulta infatti di gran lunga superiore alla capacità produttiva domestica, obbligando di fatto sia Washington che Bruxelles a importare le materie dall’estero, prima di tutto dalla Cina e in secondo luogo, per quanto riguarda l’Unione Europea, dalla Russia.  Per questo motivo, Dewardric L. McNeal, direttore e analista politico della società di consulenza Longview Global, ha affermato alla CNBC che “gli Stati Uniti devono ora trattare le materie prime critiche non come semplici merci, ma come strumenti di potere geopolitico. Come la Cina già fa”. IL POTERE DEL DRAGONE ASIATICO E LE RISPOSTE USA Dopo settimane di tensioni e accuse reciproche per i dazi imposti dall’amministrazione Trump, il governo di Pechino ha deciso di rallentare l’export di terre rare tra aprile e maggio, come già fatto in precedenza sia nel 2023 che nel 2024, quando alla scrivania dello studio ovale sedeva ancora Joe Biden e il tema caldo di discussione era l’isola di Taiwan. Per farsi un’idea della portata di questa mossa, basti pensare che, come stimato dal Servizio Geologico degli Stati Uniti (USGS), se la Cina imponesse un divieto totale sulle esportazioni dei soli gallio e germanio, minerali utilizzati in alcuni semiconduttori e in altre produzioni high tech, il PIL statunitense potrebbe diminuire di 3,4 miliardi di dollari. Anche per questo, il tono di Washington da inizio giugno è diventato più conciliante e il rapporto tra le due potenze si è andato normalizzando, fino ad arrivare il 28 giugno al raggiungimento di un accordo tra i due paesi. Nonostante i dettagli siano ancora scarsi, il segretario al Tesoro degli Stati Uniti, Scott Bessent, ha dichiarato che la Cina ha accettato di facilitare l’acquisizione da parte delle aziende americane di magneti, terre rare cinesi e altri materiali fondamentali per l’industria tecnologica.  Quella che Trump ha festeggiato come una sua grande vittoria diplomatica, ha però reso ancor più evidente come le catene di approvvigionamento dei minerali critici siano molto concentrate, fragili e soprattutto troppo esposte all’influenza e al controllo di Pechino. Come abbiamo visto, la Cina è il paese in cui si trovano le maggiori riserve mondiali di terre rare, ma non è solo questo elemento a spostare l’ago della bilancia geopolitica a favore del dragone asiatico. L’influenza della Cina abbraccia infatti anche i paesi “amici”, come la Mongolia e il Myanmar, secondo produttore mondiale di terre rare pesanti (più scarse e più difficili da separare), le cui principali operazioni minerarie sono significativamente partecipate da Pechino, estendendo ulteriormente il controllo effettivo della potenza asiatica. La posizione dominante della Cina è determinata anche dal fatto di possedere il monopolio di fatto della raffinazione, cioè la complessa operazione metallurgica per trasformare la materia prima grezza in materiali utilizzabili. Un processo non solo complesso, ma altamente inquinante e di conseguenza quasi impossibile da eseguire in Europa o negli Stati Uniti, a causa dei più elevati standard di compliance ambientale che ne farebbero schizzare il costo alle stelle.  Il processo di raffinazione richiede infatti un uso estensivo di sostanze chimiche, in particolare acidi forti (come l’acido solforico, nitrico o cloridrico) per separare le terre rare dai minerali a cui sono legate, creando delle scorie tossiche molto difficili da smaltire, se si seguono, appunto, standard elevati di tutela ambientale. Un esempio del devastante impatto ambientale di questo processo è particolarmente visibile nella città di Baotou, nella vasta area industriale della regione cinese della Mongolia Interna, dove il panorama è dominato da un lago artificiale del diametro di circa 9 chilometri, composto interamente da fanghi neri e sostanze chimiche tossiche, risultato degli sversamenti di rifiuti di scarto derivanti dall’estrazione e raffinazione delle terre rare. L’Occidente, in pratica, ha scelto di esternalizzare le negatività ambientali derivanti dall’estrazione di terre rare in Cina e questa, da parte sua, ha accettato di buon grado, dando priorità al potere economico e geopolitico che ne deriva rispetto alla salute dei suoi cittadini e alla tutela del proprio ambiente naturale. La dipendenza delle catene di approvvigionamento occidentali diventa ancor più evidente se si prende come esempio la miniera di Mountain Pass in California, una delle maggiori operazioni statunitensi nel settore delle terre rare. Nonostante produca circa il 15% degli ossidi di terre rare a livello globale, si trova a dover inviare l’intera produzione in Cina per le fasi di separazione e raffinazione.  Per questo motivo, il Pentagono nel 2020 ha assegnato 9,6 milioni di dollari alla società MP Materials per la realizzazione di un impianto di separazione di terre rare leggere a Mountain Pass. Nel 2022, sono stati investiti ulteriori 35 milioni di dollari per un impianto di trattamento di terre rare pesanti. Questi impianti, spiega il Center for Strategic and International Studies, sarebbero i primi del loro genere negli Stati Uniti, integrando completamente la catena di approvvigionamento delle terre rare, dall’estrazione, separazione e lisciviazione (un processo chimico che serve a sciogliere selettivamente i metalli desiderati dal minerale) a Mountain Pass, fino alla raffinazione e produzione di magneti a Fort Worth, in Texas. Tuttavia, anche quando saranno pienamente operativi, questi impianti saranno in grado di produrre solo mille tonnellate di magneti al neodimio-ferro-boro entro la fine del 2025 — meno dell’1% delle 138mila tonnellate prodotte dalla Cina nel 2018. Non sorprende, dunque, che gli Stati Uniti, come vedremo, stiano cercando strade alternative in grado di diversificare maggiormente la propria catena di approvvigionamento di questi materiali. Ne è un esempio l’accordo fortemente voluto dall’amministrazione USA con l’Ucraina che, dopo un tira e molla di diverse settimane, culminato con la furiosa lite di fine febbraio nello studio ovale tra Donald Trump e JD Vance da una parte e Volodymyr Zelensky dall’altra, ha infine visto la luce a inizio maggio. L’accordo, in estrema sintesi, stabilisce che l’assistenza militare americana sarà considerata parte di un fondo di investimento congiunto dei due paesi per l’estrazione di risorse naturali in Ucraina. Gli Stati Uniti si assicurano inoltre il diritto di prelazione sull’estrazione mineraria pur lasciando a Kiev l’ultima parola sulle materie da estrarre e l’identificazione dei siti minerari. L’accordo stabilisce infine che la proprietà del sottosuolo rimarrà all’Ucraina, cosa non scontata date le precedenti richieste da parte di Washington in tal senso. Quello con l’Ucraina è solo uno dei tanti tavoli di trattativa aperti dalle diverse amministrazioni statunitensi con paesi ricchi di materie critiche: dall’Australia al vicino Canada, passando per il Cile, ricchissimo di litio, e poi ancora il Brasile, dove si estrae il 90% del niobio utilizzato per la produzione di condensatori, superconduttori e altri componenti ad alta tecnologia, e il Vietnam, con cui l’allora presidente Joe Biden ha siglato un accordo di collaborazione nel settembre 2023. È evidente come gli Stati Uniti, da diversi anni, stiano mettendo in campo tutte le risorse economiche e diplomatiche a disposizione per potersi assicurare il necessario approvvigionamento di materie critiche e terre rare, senza le quali la Silicon Valley chiuderebbe i battenti in pochi giorni. LA GLOBAL GATEWAY EUROPEA In Europa la situazione è anche peggiore rispetto agli Stati Uniti. Non solo l’Unione Europea importa oltre il 98% delle terre rare raffinate, con la Cina ovviamente nel ruolo di principale fornitore, ma è anche sprovvista di giacimenti importanti. Uno dei pochi siti promettenti è stato individuato nel 2023 a Kiruna, nella Lapponia svedese, e secondo l’azienda mineraria di stato svedese LKAB potrebbe arrivare a soddisfare, una volta a pieno regime, fino al 18% del fabbisogno europeo di terre rare.  C’è però un enorme problema, oltre a quello già descritto dell’impatto ambientale: è difficile pensare che possa entrare in produzione prima di almeno una decina di anni. Troppi, considerato che le battaglie per la supremazia tecnologica e per la transizione energetica si stanno combattendo ora. Un discorso a parte merita la Groenlandia, territorio autonomo posto sotto la Corona danese, ricchissima di materie prime critiche, terre rare e anche uranio, ma dove le leggi attuali sono molto restrittive in termini di estrazione e che, per di più, è entrata nel mirino dell’amministrazione Trump, diventando oggetto di forti frizioni politiche.  L’interesse dell’Unione Europea nei confronti della grande isola artica è sancito dall’accordo firmato nel novembre del 2023 tra le due parti, che dà il via a un nuovo partenariato strategico tra i due soggetti, il cui cuore pulsante è rappresentato dallo sfruttamento congiunto delle materie prime. Anche in questo caso, però, come per il giacimento di Kiruna, si tratta di un progetto a lungo termine che difficilmente potrà vedere la luce e dare risultati concreti in tempi brevi. L’Unione Europea ha quindi deciso di muoversi sulla scia degli Stati Uniti e della “Nuova Via della Seta” cinese, cercando di chiudere accordi bilaterali di investimento e scambio commerciale con diversi paesi ricchi di materie prime critiche. La strategia “Global Gateway” lanciata nel 2021 rappresenta uno dei più grandi piani geopolitici e di investimento dell’Unione, che ha messo sul tavolo oltre 300 miliardi di euro fino al 2027, con l’obiettivo dichiarato, tra gli altri, di diversificare le fonti di approvvigionamento delle materie critiche. La Global Gateway, a cui si è aggiunto nel 2023 il Critical Raw Material Act, che pone obiettivi specifici di approvvigionamento al 2030, ha portato a diversi accordi fondamentali per la sopravvivenza dei piani di transizione digitale ed energetica del continente: Argentina, Cile e Brasile in America Latina; Kazakistan, Indonesia e Mongolia in Asia; Namibia, Zambia, Uganda e Rwanda in Africa sono alcuni dei paesi con cui la Commissione Europea ha già siglato delle partnership strategiche o ha intavolato delle discussioni di alto livello per agevolare degli investimenti comuni nell’estrazione di terre rare, proprio come fatto dagli Stati Uniti con l’Ucraina.   Considerata la volontà dell’Unione Europea di competere nel settore dell’intelligenza artificiale, quantomeno per ciò che riguarda l’espansione dei data center sul territorio, una robusta e diversificata rete di approvvigionamento delle materie prime critiche è fondamentale. Come si legge infatti sul sito della Commissione Europea, “nel corso del 2025, la Commissione proporrà il Cloud and AI Development Act, con l’obiettivo almeno di triplicare la capacità dei data center europei nei prossimi 5-7 anni e di soddisfare appieno il fabbisogno delle imprese e delle pubbliche amministrazioni europee entro il 2035. La legge semplificherà l’implementazione dei data center, individuando siti idonei e snellendo le procedure autorizzative per i progetti che rispettano criteri di sostenibilità e innovazione. Allo stesso tempo, affronterà la crescente domanda energetica promuovendo l’efficienza energetica, l’adozione di tecnologie innovative per il raffreddamento e la gestione dell’energia, e l’integrazione dei data center all’interno del sistema energetico più ampio”. Il piano non solo è ambizioso in termini di obiettivi, ma tiene strettamente legate le due facce della strategia generale europea, ovvero lo sviluppo tecnologico e la transizione verde entro il quale deve essere inquadrato. Impossibile pensare di fare l’uno o l’altra, tantomeno entrambi, senza le materie prime necessarie.  AFRICA, VECCHIA E NUOVA TERRA DI CONQUISTA In questo quadro geopolitico già di per sé complesso, un discorso a parte meritano i paesi del Sud Globale e in particolare quelli africani, che come si è visto sono quelli in cui si trovano le maggiori riserve di materie prime critiche e terre rare.   Il timore, come già raccontato nel reportage dall’AI Summit di Parigi, è che ancora una volta si vada a configurare un modello di estrattivismo colonialista, in cui i paesi più ricchi, dove avviene la produzione di tecnologia, si arricchiranno ancor di più, mentre i paesi più poveri, da dove vengono prelevate le materie prime, subiranno i devastanti impatti sociali e ambientali di queste politiche. Il rapporto “Rare Earth Elements in Africa: Implications for U.S. National and Economic Security”, pubblicato nel 2022 dal Institute for Defense Analyses, una società senza scopo di lucro statunitense, è molto esplicito nel prevedere un aumento dell’influenza del continente africano nel settore e le problematiche che ciò può comportare. “Man mano che le potenze globali si rivolgono ai mercati africani per rafforzare la propria influenza”, si legge nell’executive summary del rapporto, “è probabile che l’estrazione delle terre rare nel continente aumenti. In Africa si contano quasi 100 giacimenti di terre rare, distribuiti in circa la metà dei paesi del continente. Cinque paesi — Mozambico, Angola, Sudafrica, Namibia e Malawi — ospitano da soli la metà di tutti i siti di giacimento di terre rare in Africa. Attualmente, otto paesi africani registrano attività estrattiva di REE, ma a gennaio 2022 solo il Burundi disponeva di una miniera operativa in grado di produrre a livello commerciale. Tuttavia, altri paesi potrebbero raggiungere presto capacità produttive simili”. La parte che più interessa in questo frangente è però il punto in cui i ricercatori sottolineano come “la gestione delle risorse naturali in Africa e gli indicatori di buona governance devono migliorare, se si vuole garantire che i minerali di valore non portino benefici solo alle imprese americane, ma anche ai cittadini africani”. Considerando che la “Academy of international humanitarian law and human rights” dell’Università di Ginevra ha mappato 35 conflitti armati attualmente in corso nell’Africa subsahariana, di cui molti hanno proprio come causa il possesso delle risorse minerarie, sembra difficile prevedere che questa volta la storia prenda una strada diversa da quella già percorsa in passato. ROTTE ALTERNATIVE In virtù delle complessità descritte per l’approvvigionamento delle terre rare e, più in generale, delle materie prime critiche, alcune società stanno sperimentando delle vie alternative per produrle o sostituirle. La società britannica Materials Nexus, per esempio, ha dichiarato a inizio giugno di essere riuscita a sviluppare, grazie alla propria piattaforma di AI, una formula per produrre magneti permanenti senza l’utilizzo di terre rare. La notizia, ripresa dalle maggiori testate online dedicate agli investimenti nel settore minerario, ha subito destato grande interesse, non solo perché aprirebbe una strada completamente nuova per i settori tecnologico ed energetico, ma perché sarebbe uno dei primi casi in cui è l’intelligenza artificiale stessa a trovare una soluzione alternativa per il suo stesso sviluppo. Secondo Marta Abbà, se anche la notizia data da Material Nexus dovesse essere confermata, ci vorrebbero comunque anni prima di arrivare alla messa in pratica di questa formula alternativa. Sempre che – cosa per nulla scontata – la soluzione non solo funzioni davvero, ma si dimostri anche sostenibile a livello economico e a livello ambientale. È più realistico immaginare lo sviluppo di un’industria tecnologicamente avanzata in grado di riciclare dai rifiuti sia le terre rare che gli altri materiali critici, sostiene Abbà. Prodotti e dispositivi dismessi a elevato contenuto tecnologico possono in tal senso diventare delle vere risorse, tanto che l’Unione Europea ha finanziato 47 progetti sperimentali in questa direzione. Tra questi, c’è anche un promettente progetto italiano: Inspiree, presso il sito industriale di Itelyum Regeneration a Ceccano, in provincia di Frosinone. È il primo impianto in Europa per la produzione di ossidi e carbonati di terre rare (neodimio, praseodimio e disprosio) da riciclo chimico di magneti permanenti esausti. L’impianto di smontaggio, si legge nel comunicato di lancio del progetto, potrà trattare mille tonnellate all’anno di rotori elettrici, mentre l’impianto idrometallurgico a regime potrà trattare duemila tonnellate all’anno di magneti permanenti ottenuti da diverse fonti, tra cui anche hard disk e motori elettrici, con il conseguente recupero di circa cinquecento tonnellate all’anno di ossalati di terre rare, una quantità sufficiente al funzionamento di un milione di hard disk e laptop, e di dieci milioni di magneti permanenti per applicazioni varie nell’automotive elettrico. Nonostante questi progetti, l’obiettivo europeo di coprire entro il 2030 il 25% della domanda di materie prime critiche, tra cui le terre rare, grazie al riciclo, appare ancora molto distante, considerando che a oggi siamo appena all’1%. La strada dell’economia circolare è sicuramente incerta, lunga e tortuosa, ma allo stesso tempo più sostenibile di quella estrattivista e in grado di garantire una strategia di lungo periodo per il continente europeo. L'articolo Chi controlla le terre rare controlla il mondo proviene da Guerre di Rete.
Il fediverso inizia a pensare in grande
Immagine in evidenza da Mastodon Dopo un lungo periodo di graduale apertura, Threads – il social network rivale di X e sviluppato da Meta – ha annunciato nel mese di giugno la sua completa integrazione con il fediverso (che sta per universo federato): l’ecosistema social decentralizzato il cui esponente più noto è Mastodon. In sintesi, tutte le piattaforme che fanno parte del fediverso sfruttano lo stesso protocollo e possono quindi comunicare l’una con l’altra. Di conseguenza, ogni utente che lo desidera potrà vedere all’interno di Threads, anche se in un feed diverso e con qualche altra limitazione, i post pubblicati dagli utenti del fediverso che si è scelto di seguire. E viceversa: gli utenti di Mastodon che lo desiderano – e sempre che la loro istanza lo consenta – potranno integrare i post pubblicati su Threads. Prima di approfondire il funzionamento, i progressi e le sfide del fediverso, è probabilmente il caso di rispondere a una domanda: che cosa ci fa una realtà come Meta all’interno di un ecosistema decentralizzato e nato in larga misura in reazione ai sistemi chiusi e centralizzati (i cosiddetti “walled garden”) di cui la società di Mark Zuckerberg è probabilmente il simbolo? Secondo il Washington Post, “per Meta questa mossa potrebbe essere parte di una strategia più ampia, che ha lo scopo di sfruttare un approccio ‘open’ nei mercati in cui sta rivaleggiando con attori più importanti. Threads è diventato rapidamente l’alternativa più popolare a X, superando i 350 milioni di utenti. X è però ancora parecchio più grande e rilevante: Meta potrebbe quindi vedere nell’alleanza con il fediverso – che al momento consiste di Mastodon e altre, più piccole, app indipendenti – un’opportunità per rosicchiare il primato di X”. Una strategia inattesa da parte di un’azienda che ha trascorso gli ultimi 20 anni a picconare l’open web e a fagocitare o demolire qualunque avversario in grado di metterne in discussione il primato (WhatsApp, Instagram, Snapchat). Nell’interpretazione ottimistica, la decisione di aprire Threads al fediverso potrebbe confermare le speranze di molti sostenitori della decentralizzazione, e cioè che – per usare le parole del responsabile di Threads, Adam Mosseri – “il mercato dei social media testuali in futuro sarà molto più frammentato di quanto non fosse quando Twitter era ancora l’unico protagonista”. Da una parte, la speranza è che la massiccia infrastruttura di Threads possa far crescere la base utenti delle altre piattaforme del fediverso, incrementandone la visibilità; dall’altra, il timore – espresso anche da parecchi utenti – è che un colosso come Meta possa introdurre le logiche del “capitalismo della sorveglianza” in un mondo piccolo, fragile e che soprattutto a queste si è sempre fieramente contrapposto. È anche per questa ragione che molti utenti di Mastodon si oppongono all’integrazione di Threads e hanno espresso la loro intenzione di “defederare” Threads, impedendogli cioè di comunicare con le istanze di Mastodon che gestiscono. CHE COS’È E COME FUNZIONA IL FEDIVERSO A questo punto, è necessario fare un passo indietro: che cos’è e come funziona il fediverso? Come detto, i più noti social network (Facebook, Instagram, TikTok e così via) sono tutti centralizzati e isolati l’uno dall’altro. Per seguire un utente di Facebook e comunicare con esso dobbiamo per forza avere un account Facebook, che possiamo inoltre utilizzare soltanto su quella piattaforma. Ciò che avviene su Facebook, in poche parole, resta su Facebook. E lo stesso vale per tutti gli altri principali social network. Nel fediverso, la situazione è opposta: le realtà che fanno parte di questo ecosistema, come il già citato Mastodon, Lemmy (forum popolare in Corea del Sud), Pleroma (social media diffuso in America del Sud), gli italiani PeerTube (simile a YouTube) e Funkwhale (streaming musicale) o infine Pixelfed (condivisione immagini), possono tutte comunicare l’una con l’altra. Alla base di queste piattaforme c’è un protocollo comune e open source, ActivityPub, che consente a un utente di Mastodon di seguire un utente di PeerTube direttamente dal suo account, vedendo così comparire i video direttamente sul feed di Mastodon e potendo da lì interagire con essi.  Ogni applicazione che implementa il protocollo ActivityPub diventa parte di un network federato, che permette tramite una sola piattaforma di seguire e interagire con gli utenti di ogni altra. Poiché siamo da decenni abituati a usare piattaforme chiuse (cioè che impediscono la comunicazione e il trasferimento di dati dall’una all’altra), il funzionamento di un protocollo come ActivityPub, e il modo in cui le realtà del fediverso comunicano tra loro, non è molto intuitivo. Il paragone più semplice è probabilmente quello con le email: il fatto di avere un account Gmail non impedisce di comunicare con chi invece ha un account Hotmail, perché entrambi utilizzano un protocollo comune a tutti i servizi email (ovvero SMTP: simple mail transfer protocol). Anche il classico world wide web è una realtà decentralizzata: ogni sito può linkare o incorporare elementi di altri siti, consentendo inoltre di utilizzare il browser che si preferisce per la navigazione.  Il fediverso consente inoltre di spostare il proprio account su una qualunque altra piattaforma federata, importando o esportando anche post e follower. Un’altra importante differenza è che il fediverso non è gestito in maniera verticistica, ma direttamente dalla comunità. Per esempio, su Mastodon ogni utente può aprire una propria sezione (chiamata istanza) indipendente da tutte le altre, gestendola in completa autonomia, decidendo le politiche di moderazione, le condizioni di utilizzo e pagando gli eventuali costi di gestione (server e altro). Inoltre, le realtà del fediverso sono storicamente attente alla privacy, non raccolgono dati e sono prive di pubblicità (Mastodon si sostiene tramite le donazioni degli utenti). Anche dalle sue caratteristiche si capisce come, fino a oggi, questo ecosistema alternativo sia sempre stato una realtà relativamente piccola: secondo gli ultimi dati, Mastodon avrebbe circa 8 milioni di utenti iscritti (di cui però circa un milione attivi mensilmente), mentre il fediverso nel suo complesso arriverebbe a circa 15 milioni di iscritti (escludendo ovviamente Threads e anche Bluesky, di cui parleremo tra poco). Realtà piccole (il secondo più grande social del fediverso, PixelFed, conta 769mila iscritti), frequentate quasi esclusivamente (almeno fino a oggi) da utenti politicamente attivi e molto attenti alla privacy e sorte in esplicita contrapposizione ai colossi della Silicon Valley. Una contrapposizione diventata ancora più forte in seguito alle nuove politiche dei grandi social network, che sulla scia di Elon Musk hanno tutti allentato (o praticamente cancellato) le politiche di moderazione dei contenuti, sono diventati sempre più tolleranti nei confronti dell’hate speech e hanno così provocato una sorta di grande scisma dei social media, incentivando il trasferimento di decine di milioni di utenti su piattaforme considerate politicamente più affini. Una tendenza che sembra confermare le previsioni di Mosseri su una sempre maggiore frammentazione dei social e che dà un ulteriore significato all’ambizione del fediverso di unire in un unico ecosistema tanti social indipendenti.  Anche in una fase storica in cui la ragion d’essere di queste piattaforme non è più necessariamente quella di “connettere tutti”, ma spesso, semmai, di collegare persone che condividono valori o interessi comuni, dei social network troppo piccoli e isolati rischierebbero di soccombere a causa della scarsità di contenuti reperibili e di interazioni con gli altri utenti. Il fediverso, almeno teoricamente, elimina questo problema, permettendo a chiunque di scegliere il social più adatto con la consapevolezza che ciò non comporta un isolamento da altre piattaforme e dagli altri utenti, ma anzi fornendo la possibilità di interagire con altre realtà e permettendo di mantenere un totale controllo su questi processi (su Mastodon si può scegliere se aprirsi agli altri social del fediverso completamente, parzialmente o per niente). Anche da queste caratteristiche si intuisce come il fediverso sia un mondo dalle enormi potenzialità, ma anche dalla complessità non trascurabile. Ed è forse per questa ragione che, a quasi 10 anni dalla nascita di Mastodon, il fediverso fatica a crescere organicamente e continua a essere frequentato solo da una piccola nicchia di attivisti digitali. BLUESKY, OVVERO ACTIVITYPUB VS AT PROTOCOL: LA SFIDA DEI FEDIVERSI  Ciò vale a maggior ragione visto che il più noto dei social decentralizzati, ovvero BlueSky, non fa parte del fediverso. Bluesky è infatti un social nato all’interno di Twitter per volontà del fondatore Jack Dorsey (che voleva studiare le applicazioni dei social decentralizzati), ma divenuto indipendente proprio in seguito all’acquisizione di Musk e che si sostiene economicamente grazie agli investimenti ricevuti, per un valore complessivo di 36 milioni di dollari (l’ultimo round da 15 milioni è dell’ottobre 2024). Subito dopo l’elezione di Trump e la conseguente fuga da X, Bluesky ha iniziato a guadagnare milioni di utenti, superando a metà 2025 quota 35 milioni. Numeri enormi rispetto a Mastodon, ma ancora piccoli se confrontati con quelli di X e Threads. Il vero successo di Bluesky è però aver saputo attirare la cosiddetta Twitter-sfera: quell’insieme di giornalisti, attivisti, accademici, politici progressisti e altri che avevano reso Twitter il luogo in cui recarsi per seguire in tempo reale ciò che avveniva nel mondo. Come ha scritto Ian Bogost sull’Atlantic, Bluesky “è ciò che più di ogni altra piattaforma recente mi ha ricordato le origini dei social network”. Visti i numeri e l’importanza che sta iniziando a rivestire (soprattutto negli Stati Uniti), il fatto che BlueSky non sia parte del fediverso è senza dubbio un’occasione mancata. Integrarlo è tecnicamente possibile, ma non sarà facile (e non è nemmeno detto che la CEO Jay Graber lo desideri): se Mastodon e gli altri sfruttano il protocollo Activity Pub, BlueSky utilizza invece un protocollo simile, e sempre open source, ma distinto: AT Protocol. Una scelta compiuta quando il fediverso era già una (embrionale) realtà e che ha creato una sorta di rivalità. Le realtà del fediverso si confrontano annualmente durante il FediForum (l’ultimo si è concluso proprio lo scorso giugno), quelle che utilizzano AT Protocol si riuniscono invece durante la ATmosphere Conference, alla quale lo scorso marzo ha partecipato proprio Graber commentando: “Abbiamo incontrato un sacco di persone che stanno costruendo app di cui non sapevamo nulla, tra cui piattaforme di messaggistica e nuovi strumenti per la moderazione”.  Tra i vari social e servizi che sfruttano questo protocollo troviamo Skylight, un’alternativa a TikTok, e Flashes, che è invece una sorta di Instagram. Come Activity Pub, anche AT Protocol consente a tutte le piattaforme che lo impiegano di comunicare tra di loro: “Il beneficio per gli sviluppatori di AT è che non devono ripartire da zero ogni volta, possono sempre contare su un bacino di 35 milioni di utenti”, ha commentato sempre Graber facendo riferimento agli utenti di BlueSky. Ma ha senso che esistano, di fatto, due fediversi? La risposta, soprattutto vista la sovrapposizione valoriale e ideologica (anche se le piattaforme del “fediverso ufficiale”, quello di ActivityPub, sembrano essere ancora più allergiche a investitori, modelli di business, ecc.), è probabilmente no. Ed è anche per questo che alcuni sviluppatori hanno creato dei protocolli ponte, tra cui Bridgy Fed, che permettono, per esempio, a BlueSky e Mastodon di comunicare. Una pezza che dimostra una volta di più quanto questa dualità rischi di essere dannosa per un mondo che ha bisogno di unirsi per crescere, e non di dividersi ulteriormente. LA DIFFICILE CRESCITA DEL FEDIVERSO A proposito, qual è la strategia del fediverso (o dei fediversi) per crescere, attirare sempre più utenti e non essere soltanto un rifugio per attivisti pro-privacy (Mastodon) ed ex utenti di Twitter che odiano Elon Musk (BlueSky)? Come possono “scalare” dei social che non generano guadagni e in cui gli utenti creano le proprie istanze e ne sostengono i costi dei server e gli altri oneri della gestione? Jay Graber, dal canto suo, ha confermato in ogni occasione che non vuole ospitare pubblicità e che i ricavi arriveranno da varie forme di abbonamento (ancora da lanciare): un’opzione che, soprattutto nel mondo social, si è rivelata fino a oggi molto complessa da far funzionare. Mastodon, che come detto è allergico agli investimenti, punta invece sulle donazioni e ambisce a raccogliere tramite esse 5 milioni di dollari nel 2025: un salto rispetto ai circa 150mila dollari di spese totali sostenute nel 2023 e un segnale della volontà di crescere e supportare l’espansione del fediverso. I costi da sostenere, però, non sono solo economici ma relativi anche alla complessa governance richiesta dalle piattaforme decentralizzate, soprattutto per quanto riguarda la moderazione dei contenuti. Come si legge in un recente paper pubblicato sulla Policy Review, “i progetti online basati sul volontariato o sulla collaborazione non andrebbero interpretati come intrinsecamente anarchici, poiché spesso danno vita a infrastrutture di governance e regole che permettono la cooperazione e la pluralità di approcci”. “A livello tecnico”, prosegue il paper, “Mastodon promuove questa pluralità facendo affidamento sull’auto-hosting e mettendo a disposizione un insieme di strumenti di moderazione per gli amministratori. Il fatto che ogni nuovo utente debba sempre unirsi a una cosiddetta istanza, ovvero a una sezione di Mastodon gestita da persone o organizzazioni indipendenti, sposta le decisioni di moderazione al livello delle singole istanze, che possono stabilire le proprie regole, tra cui scegliere chi è autorizzato a entrare nella comunità e chi no. Alcune istanze sono gruppi chiusi che accettano nuovi membri solo su invito. Altre prevedono un sistema di approvazione per gli utenti con interessi comuni. Alcune, solitamente le più grandi, accettano chiunque senza condizioni particolari”. MODERARE IL FEDIVERSO In nome della decentralizzazione e dell’autogestione, soprattutto nel caso di Activity Pub, agli utenti volontari che animano le piattaforme del fediverso viene richiesto di sostenere un costo economico che, nel caso di istanze con qualche decina di migliaia di utenti, possono arrivare anche a svariate centinaia di euro al mese e di sobbarcarsi un carico di lavoro non indifferente. E anche, come visto in passato, di prendere decisioni difficili. Per esempio, se qualunque piattaforma che utilizza l’apposito protocollo open source può collegarsi al fediverso, come si fa a escludere le realtà indesiderate da un ecosistema che è comunque caratterizzato da un certo ethos ideologico? È una situazione con cui gli utenti di Mastodon hanno già dovuto confrontarsi in passato: uno dei primi social frequentato dall’estrema destra, vale a dire Gab, è basato proprio su Activity Pub. Il suo arrivo nel fediverso, nel 2019, ha creato parecchio scompiglio. La comunità di Mastodon ha reagito decidendo praticamente all’unanimità di “defederare” Gab – ogni singola istanza l’ha quindi inserito in una black list – eliminandolo di fatto dal loro ecosistema. Le grandi possibilità offerte dal fediverso – scegliere a quale social e poi a quale istanza partecipare, condividere la gestione delle policy, contribuire all’aspetto economico e altro ancora – comportano quindi un impegno non comune da parte degli utenti (che infatti tendono, anche qui, a partecipare alle istanze più grandi, generaliste e per certi versi centralizzate). È davvero pensabile che un ecosistema di questo tipo sostituisca i social centralizzati di massa, che non richiedono all’utente nessuna forma di impegno? Messa così, è possibile che il fediverso rimanga un’alternativa piccola ed etica, destinata a una nicchia ben circoscritta di utenti, senza l’ambizione di sostituire i “walled garden”: un po’ come – in campo alimentare – i GAS (gruppi d’acquisto solidale) non hanno l’ambizione di sostituire la grande distribuzione, ed è anzi anche in virtù della loro dimensione ridotta, di alternativa etica, che riescono a essere sostenibili. Eppure, le potenzialità del fediverso continuano ad attirare realtà di un certo calibro. Solo nell’ultimo anno, hanno completato o stanno per completare l’integrazione in questo ecosistema decentralizzato piattaforme come Ghost (principale rivale di Substack), Flipboard (piattaforma di aggregazione e salvataggio articoli) e anche il vecchio Tumblr (ancora oggi più attivo di quanto si creda). È il segnale che qualcosa davvero sta per cambiare oppure il fragile equilibrio del fediverso rischia di essere compromesso dall’arrivo di piattaforme con decine o centinaia di milioni di utenti (e che si reggono su modelli di business tradizionali)? Sognare che le logiche alla base dell’open web contagino infine anche il mondo social non costa nulla. Ma è bene essere pronti a un brusco risveglio. L'articolo Il fediverso inizia a pensare in grande proviene da Guerre di Rete.
Cosa è il tecnopanico e perché non serve a criticare la tecnologia (e Big Tech)
Immagine in evidenza:  unsplash  Non è un mistero il fatto che viviamo in tempi distopici, dove le interconnessioni tra tecnologia e politica illuminano un presente caratterizzato da controversie, diritti violati, potere sempre più concentrato. È una realtà politico-economica che in alcune sue sfumature fa impallidire le narrazioni più scure del cyberpunk, come scrive il collettivo Acid Horizon, ma sono anche tempi che vengono, spesso, molto mal raccontati. Specialmente nei media mainstream, da quasi una decina di anni, i toni attorno alle tecnologie si sono fatti spesso apocalittici: secondo queste narrazioni, la rete ha ucciso la democrazia, mandato al potere il nuovo autoritarismo, ci ha reso soli, stupidi e sudditi. Tutto perché passiamo gran parte del nostro tempo online o interagendo con tecnologie digitali.  Quello che spesso viene chiamato “techlash”, ovvero il clima di manifesta e crescente ostilità verso la tecnologia che si è instaurato nel dibattito pubblico a partire dallo scandalo Cambridge Analytica è un fenomeno ancora in corso che, se da un lato ha favorito fondamentali discussioni critiche attorno alla tecnologia, aperto importanti percorsi legislativi e di regolamentazione e ha chiuso un momento di euforico e acritico entusiasmo nei confronti del “progresso” della Silicon Valley, dall’altro ha anche scoperchiato il vaso di Pandora del catastrofismo più superficiale e vacuo. Peraltro, quel catastrofismo è l’altro lato della medaglia del “tecnoentusiasmo”: un mix di determinismo, ascientificità, hype e profezie che si autoavverano.  TECNOPANICO, IL SAGGIO DI ALBERTO ACERBI Il nuovo saggio di Alberto Acerbi, ricercatore del Dipartimento di sociologia e ricerca sociale dell’Università di Trento, Tecnopanico (Il Mulino) affronta proprio la genesi di quel catastrofismo e delle paure su cui si basa, puntando a smontare alcuni miti e false credenze della vulgata tecnologica contemporanea. Guardando principalmente a quello che pensiamo di sapere su disinformazione, teorie del complotto, algoritmi e implicazioni psicologiche dell’uso dei social media, il saggio di Acerbi fornisce soprattutto una panoramica degli studi sul tema che cerca di portare al centro del dibattito i risultati della ricerca, che in molti casi è sanamente non conclusiva, e lo fa con un sano scetticismo.  Per quanto sia fondamentale non negare le complicazioni e le problematicità di questo momento storico-tecnologico – come dicevamo fortemente distopico – resta importante navigare quei problemi basandosi su dati reali e non su narrazioni di comodo e alternativamente allarmistiche o di acritico entusiasmo. E, soprattutto, senza cadere in un facile panico morale che serve per lo più a sviare la discussione e l’analisi del presente. Anche perché, spiega Acerbi, quasi tutti i “presenti” hanno puntato pigramente il dito contro le nuove tecnologie di quei momenti, che si sono in seguito diffuse e sono divenute tra le più rappresentative di quelle epoche. A ogni tecnologia corrisponde quindi un nuovo “panico”. “Il panico attorno alla tecnologia non si manifesta esclusivamente con le tecnologie di comunicazione e digitali, anzi, uno dei temi principali del libro riguarda proprio l’importanza di assumere una ‘lunga prospettiva’ sulle reazioni alle tecnologie passate. In questo modo possiamo osservare dei pattern comuni e capire meglio quello che sta accadendo oggi”, spiega Acerbi a Guerre di Rete. “Ci sono panici che possiamo avere ma possiamo andare più lontano nel passato: la radio, i romanzi, la stampa o addirittura la scrittura. Pensiamo per esempio alla stampa. Negli anni successivi alla sua diffusione in Europa c’erano preoccupazioni che ricordano quelle di oggi: moltiplicazione incontrollata di informazioni, circolazione di falsità e via dicendo. L’aspetto interessante è che la società si è adattata alla stampa con altre invenzioni, come gli indici analitici e le enciclopedie, e tramite cambiamenti di comportamenti che puntano a risolvere questi problemi”.  UNA CONCEZIONE DETERMINISTICA DELLE TECNOLOGIE Alla base del “tecnopanico” c’è una concezione deterministica delle tecnologie, che le inquadra come forze indipendenti dalla produzione umana o dal contesto socio-politico che le produce, capaci in maniera autonoma di generare effetti diretti nella società, come se non fossero un prodotto di quest’ultima, ma una forza aliena. Secondo Acerbi, in particolare, queste forme di panico “considerano l’introduzione delle tecnologie come un processo a senso unico, in cui una nuova tecnologia cambia in modo deterministico le nostre abitudini, la nostra società e la nostra cultura”. Al contrario, come invece insegnano, per esempio, decenni di studi sulla costruzione sociale della tecnologia, nessuna innovazione, nemmeno quella più potente (come l’AI, ci arriviamo) ha queste capacità. Eppure, il “tecnopanico” è dappertutto e spesso, anzi, guida le scelte di policy e di regolamentazione delle tecnologie digitali, sedendosi ai tavoli dei legislatori più spesso degli esperti. Anche perché il “tecnopanico” ha megafoni molto forti. “Sicuramente oggi il ‘tecnopanico’ è diventato mainstream. Una ragione è l’integrazione capillare della tecnologia nella vita quotidiana: tutti abbiamo un’esperienza personale e diretta di smartphone, social media e via dicendo”, spiega ancora Acerbi. “Questo è un pattern con caratteristiche ricorrenti: il riferimento a un’epoca precedente in cui le cose erano migliori. Pensiamo all’idea di epoca della ‘post-verità’, che necessariamente suppone l’esistenza di un’epoca ‘della verità’. L’amplificazione da parte di media che spesso sono in diretta concorrenza con le tecnologie, come gli attacchi ai social media dai canali di informazione tradizionali, creano una narrazione in cui il pubblico è visto come passivo, vulnerabile, facilmente manipolabile”.  MISINFORMAZIONE, DISINFORMAZIONE E INFORMATION DISORDER La credenza che vuole gli essere umani vulnerabili e manipolabili è al centro, per esempio, del “tecnopanico” con cui spesso si parla di mis- e disinformazione e, in generale, dei fenomeni connessi all’information disorder. “Ci sono varie ragioni che spiegano il successo delle narrazioni allarmistiche riguardo alla disinformazione online. Una è semplicemente che, rispetto all’epoca pre-social media, la disinformazione è visibile e quantificabile. Ma ci sono ragioni più profonde”, spiega l’autore di Tecnopanico. Queste ragioni sono spesso politiche: “La disinformazione fornisce una causa e possibilmente una soluzione semplice a problemi complessi. È facile pensare che le persone che votano diversamente da noi, o che sono contrarie ai vaccini, siano influenzate primariamente dalla disinformazione. In questo modo, però, non si guarda alle cause strutturali, che hanno radici sociali, culturali, ed economiche più complesse”.  Inoltre, siamo naturalmente propensi a pensare che siano le altre persone a essere predisposte a cadere in false credenze e mai noi stessi, un elemento verificato da Acerbi stesso in un esperimento con Sacha Altay (Experimental psychologist dell’Università di Zurigo, nda): “Abbiamo chiesto ai partecipanti quanto pensassero che la disinformazione online fosse diffusa e pericolosa insieme ad altre domande. Il fattore che prediceva meglio quanto i partecipanti fossero preoccupati della disinformazione online era la differenza tra la loro abilità percepita di identificare informazioni false e quello che pensavano degli altri. C’è anche un nome per questo: effetto terza persona”. Ovviamente, la disinformazione esiste, e questo spiega perché si sia vista crescere l’attenzione verso di essa da parte della ricerca, del mondo dell’informazione e della politica. Il problema, però, emerge quando si utilizza questa facile spiegazione per dare ragione di fenomeni sociali e politici profondi, complessi e di lungo periodo. Per esempio, la Brexit non è avvenuta per causa diretta della disinformazione sui social media e Donald Trump non ha vinto – due volte – le elezioni presidenziali a causa solamente della propaganda digitale. Spesso, però, questi fenomeni, che certamente concorrono al clima politico contemporaneo e al rendere le sue dinamiche ancora più complesse, vengono utilizzati come prova conclusiva per dare una giustificazione a rivolgimenti politici radicali.  LA SVOLTA DI CAMBRIDGE ANALYTICA E IL TECHLASH Uno dei momenti di svolta in questi dibattiti, e che viene spesso considerato come l’inizio di questo tipo di techlash, è stato lo scandalo Cambridge Analytica del 2018. Cambridge Analytica ha aperto un varco nel business, per lo più oscuro, della propaganda politica digitale, sollevando enormi interrogativi legati ai temi di data justice e costretto Meta a un’operazione trasparenza inedita. Presto, però, le conseguenze politiche dello scandalo, poiché toccavano Donald Trump e il “Leave” nel contesto della Brexit, hanno preso il sopravvento nella copertura mediatica e anche nella cultura pop. La storia aveva in sé diversi elementi fondativi del “tecnopanico”: l’uso potenzialmente manipolatorio delle tecnologie digitali, la loro applicazione in politica, le connessioni con forze politiche di estrema destra, tratti potenzialmente criminosi e una genesi giornalistica non usuale: un leak. E i toni sensazionalistici hanno presto preso il sopravvento su quella che, invece, poteva essere una necessaria analisi di come l’economia dei dati fosse progressivamente diventata un colabrodo, con conseguenze sui diritti di tutte le personei.  “Da subito, nel caso di Cambridge Analytica, i ricercatori avevano mostrato che gli effetti reali delle campagne di CA erano quantomeno dubbi. C’erano punti importanti: la raccolta e l’uso opaco dei dati personali, le pratiche delle piattaforme digitali, la mancanza di trasparenza e accountability, ma questo veniva oscurato da una narrazione semplificata e drammatica, centrata su un colpevole chiaro e su effetti immediati e spettacolari”, spiega Alberto Acerbi che, in Tecnopanico, dedica un capitolo al caso. Una dinamica simile, in relazione ai rischi “esistenziali” della tecnologia, si vede oggi all’opera nel modo in cui l’intelligenza artificiale viene narrata nel dibattito pubblico, una fucina sempre proficua di “tecnopanico”, con paure, spesso, più fantascientifiche che altro.  “La narrazione semplificata ed esagerata, ripetuta in modo analogo da accusatori e dai CEO delle aziende di AI,  impone un focus su scenari apocalittici o su episodi sensazionalistici, più che su temi cruciali come i bias nei dataset, le implicazioni sul lavoro o il potere di pochi attori nel dettare le regole dello sviluppo tecnologico”, continua Acerbi. “Anche in questo caso, per ora, le ricerche mostrano effetti tutto sommato limitati: per esempio, molti ricercatori e soprattutto i media erano preoccupati dell’influenza dell’AI nell’anno elettorale 2024. Si pensava a falsi e propaganda super-efficace. Oggi possiamo dire che niente di ciò è successo”. L’utilizzo dell’AI a fini di propaganda politica nell’anno in cui la metà della popolazione del pianeta è andata a votare è infatti risultato molto ridotto, come confermato da diverse analisi. Anche i deepfake, una delle tecnologie più dibattute in questo terreno, al momento hanno trovato un’applicazione limitata – ma crescente – nella propaganda politica, mentre continuano invece a essere un fenomeno amplissimo e drammatico nel contesto della misoginia online, della diffusione non consensuale di materiale intimo e della violenza facilitata dalla tecnologia. GLI EFFETTI COLLATERALI DEL TECNOPANICO Uno dei meriti maggiori di Tecnopanico è quello di mostrare come queste narrazioni dedicate alla tecnologia siano spesso molto simili tra loro e adattabili alle caratteristiche delle tecnologie verso cui vengono indirizzate e come abbiano la capacità di diventare molto potenti, specialmente nel mainstream, spesso finendo per indebolire anche le critiche più sostanziali, necessarie e radicali: “Uno degli effetti collaterali più perversi del tecnopanico è proprio questo:  rende molto più difficile articolare obiezioni e analisi ragionate, basate su dati e riflessioni approfondite, senza essere immediatamente inglobati (o respinti) dentro una narrazione allarmistica già saturata”, spiega Acerbi. Questo accade anche alla ricerca accademica, che fatica a spingere i suoi risultati e il suo punto di vista: “Quando ogni critica viene assorbita in un ecosistema comunicativo dominato da titoli sensazionalistici, indignazione morale e profezie apocalittiche, le voci più pacate rischiano di suonare troppo distaccate o addirittura complici del sistema. In realtà penso sia il contrario. Come scrivo nel libro, ho spesso notato una strana convergenza tra tecno-ottimisti e tecno-catastrofisti: entrambi pensano che le tecnologie abbiano un effetto deterministico e dirompente sugli individui e sulla società e che il nostro ruolo sia soprattutto passivo. Come visto negli esempi di cui abbiamo parlato, le narrazioni allarmistiche fanno molto comodo a coloro che controllano questi strumenti: legittimano il loro (presunto) potere e oscurano i problemi più pressanti”, conclude Acerbi.   Questo è particolarmente evidente in relazione all’AI, attorno alla quale il dibattito è ancora sensazionalistico e spesso guidato dalle aziende, che hanno tutto l’interesse a farsi percepire come le uniche depositarie delle soluzioni necessarie a tenere sotto controllo i pericoli connessi alla tecnologia che esse stesse stanno creando. Il risultato è far, di nuovo, passare l’AI come qualcosa di magico, depositario di poteri e tratti inspiegabili e di difficile controllo, forse prossimi alla presa del potere, come vuole il topos narrativo più abusato relativo alla tecnologia. Alla società digitale in cui ci troviamo, però, servono meno narrazioni e più ricerca, meno profezie e più policy e, in definitiva, meno tecnopanico e più critica. L'articolo Cosa è il tecnopanico e perché non serve a criticare la tecnologia (e Big Tech) proviene da Guerre di Rete.
Le frontiere belliche dell’intelligenza artificiale
Immagine in evidenza: il drone ucraino R18 da Wikimedia Nei primi mesi del 2023, una risoluzione proposta dall’allora ministro della Difesa Oleksii Reznikov ha portato all’introduzione del software Delta nelle forze di difesa ucraine. Delta è un software di situational awareness, progettato per offrire una panoramica della situazione tattica e operativa di una porzione del fronte in un dato momento. Lo fa attraverso un’interfaccia che assomiglia molto a quella di un videogame RTS (real time strategy), offrendo in tempo reale una panoramica della situazione a tutti i livelli della catena di comando, con particolare utilità per gli ufficiali intermedi e superiori. Nel 2022, Delta era stato presentato alla NATO Consultation, Command and Control Organisation (NC3O), organismo fondato nel 1996 con l’obiettivo di garantire capacità di comunicazione, comando e controllo coerenti, sicure e interoperabili tra i membri dell’alleanza. Durante la presentazione, Delta ha suscitato notevole interesse per la sua capacità di trasferire informazioni in tempo reale, facilitando decisioni più rapide e consapevoli da parte dei comandanti. Nel 2024, l’interoperabilità di Delta con i sistemi NATO è stata testata durante la CWIX (NATO Allied Command Transformation’s Coalition Warrior Interoperability eXploration, eXperimentation, eXamination eXercise) e, a oggi, è noto che almeno un paese dell’alleanza sta trattando con l’Ucraina l’acquisto del software. Al momento, oltre alle capacità di situational awareness, Delta permette servizi di streaming per gli UAV (Unmanned Aerial Vehicle, veicolo aereo a pilotaggio remoto) e videocamera fisse; chat sicure per la comunicazione; strumenti di pianificazione e matrici di sincronizzazione per il riconoscimento e l’acquisizione di bersagli; integrazione con sistemi robotici e altre funzionalità in corso di sviluppo. RETI E SENSORI Alla base delle prestazioni offerte da Delta nel presentare in tempo reale la situazione di una specifica porzione del fronte c’è la crescente digitalizzazione del campo di battaglia. Come accaduto in contesti civili, anche sul campo di battaglia l’introduzione di connettività e dispositivi digitali ha avuto come conseguenza la diffusione di sensori in grado di generare e raccogliere grandi quantità di dati. Una volta trasformati in informazioni, i dati così raccolti e generati permettono di migliorare la consapevolezza e i processi decisionali. La dottrina militare ha recepito questa trasformazione attraverso il concetto di network centric warfare (“guerra centrata sulle reti”). Questo concetto rappresenta la capacità delle organizzazioni militari di raccogliere dati e distribuire informazioni in tempo reale attraverso dispositivi e reti ad alta velocità. Una capacità che continua a evolversi grazie a quella che Mick Ryan, divulgatore militare e generale in pensione dell’esercito australiano, definisce la “rete a maglie di sensori civili e militari” che avvolge oggi il campo di battaglia. L’invasione dell’Ucraina mostra come, accanto alle reti militari, alla generazione e raccolta di dati contribuiscano oggi anche reti civili. L’open source intelligence o OSINT, l’analisi dei conflitti da parte di civili attraverso dati recuperati dai social network, è possibile grazie alla diffusione di sensori non militari. Sono loro che registrano e trasmettono in tempo reale ciò che accade dentro e intorno al campo di battaglia. Questa trasformazione rende i teatri bellici più trasparenti e amplia le fonti a disposizione delle forze armate. Le reti che nascono da questo intreccio di capacità civili e militari si distinguono per una serie di elementi, caratteristiche e funzionalità: la diffusione di sensori che raccolgono dati su quanto accade, la capacità di condividere e comunicare i dati dal sensore agli operatori, sistemi sicurezza che impediscono ai dati di essere intercettati o inquinati, interfacce capaci di presentare i dati raccolti e trasmessi per dare forma al processo decisionale e infine la presenza di personale umano a cui spetta la responsabilità di trasformare le informazioni in azione, generando effetti sul campo di battaglia. È attraverso reti di questo tipo che le forze armate rispondono all’elevato livello di complessità raggiunto oggi dallo scontro bellico. Un contesto rischioso e competitivo, in cui, per avere successo, le organizzazioni militari devono coordinare tra di loro le risorse a disposizione in tutti e cinque i domini del campo di battaglia: aereo, terrestre, marittimo, spaziale e cyber. Delta fa proprio questo: raccoglie i dati dal fronte e li trasforma in informazioni utili. È così che migliora le decisioni della catena di comando e favorisce un’azione più efficace e coordinata. Il sistema tuttavia presenta un limite di cui tenere conto: la presenza e il ruolo che gli operatori umani svolgono in questo processo. DATI, INFORMAZIONE E INTELLIGENZA ARTIFICIALE La principale caratteristica della “rete a maglie di sensori civili e militari” descritta da Mick Ryan è la sua estensione. Questa rete non è solo ampia, è anche ampiamente distribuita nello spazio. Di conseguenza altrettanto ampia è la quantità di dati che essa è in grado di generare, raccogliere e trasmettere in tempo reale a un sistema che, come Delta, ha il compito di trasformarli in informazioni capaci di influenzare i processi decisionali e determinare le azioni di una forza militare. Il problema è che, per quanto complesso, il cervello umano ha capacità limitate nel processare informazioni. Maggiore è la quantità di informazioni a sua disposizione e minore sarà la capacità di una persona di percepire, ricordare e agire nel mondo in base a essa. Di fronte a questo limite, il rischio che si corre è che l’ampia disponibilità di informazioni finisca per essere d’ostacolo invece che di aiuto per i processi decisionali e la capacità d’azione degli operatori sul campo. Questo rovesciamento avviene non soltanto per la quantità di informazioni che software come Delta riescono a presentare, ma anche per la rapidità con cui lo fanno: più sono rapidi nel trasmettere un’informazione, più gli strumenti di comunicazione accelerano il ritmo con cui gli eventi si susseguono. Lo stress di chi ha la responsabilità di reagire al modo in cui evolvono gli eventi aumenta insieme al loro ritmo. All’esigenza di affrontare e superare i limiti umani nella capacità di gestire l’informazione risponde lo sviluppo e l’integrazione di sistemi di intelligenza artificiale, che ha nei campi di battaglia ucraini uno dei suoi principali laboratori. La rapida e progressiva introduzione di questi sistemi risponde alla visione strategica del paese, che mira a sostituire con sistemi autonomi il maggior numero possibile di personale umano. L’obiettivo finale di questa innovazione è ridurre il numero delle perdite e limitare l’impatto demografico del conflitto. L’autonomia dei principali sistemi d’arma, logistici e di supporto è dunque l’orizzonte ultimo dello sviluppo tecnologico ucraino, ma non è l’unico ambito in cui l’intelligenza artificiale gioca un ruolo chiave. Il caso di Delta mostra quanto questi sistemi siano coinvolti anche nei processi di comando e controllo. In particolare essi assolvono a importanti funzioni sia nella cosiddetta ISR (Intelligence, Surveillance, Reconnaissance ovvero intelligence, sorveglianza e ricognizione), che nella ATR (Automatic Target Recognition, ovvero riconoscimento automatico dei bersagli). L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE SULLE FUNZIONI ISR Nell’ambito delle funzioni di ISR,  l’intelligenza artificiale aiuta il personale umano a superare i propri limiti in termini di capacità di gestire le informazioni, permette di analizzare grandi quantità di dati in tempo reale e di superare le complessità che derivano dalla necessità di sintetizzare dati provenienti da fonti differenti. L’IA rileva, riconosce e classifica in modo automatico obiettivi a partire dall’analisi di video e immagini provenienti da satelliti, droni in volo ad alta e bassa quota, feed di videocamere fisse. Inoltre, applica lo stesso principio anche all’analisi dei pattern sonori provenienti da sistemi acustici. Infine, trascrive metadati ed estrae key entities e insight, analizzando i testi di comunicazioni intercettate, messaggi pubblicati su chat di gruppo o report inoltrati dai civili a chatbot dedicati alla raccolta di informazioni. Un buon esempio di come sistemi di intelligenza artificiale vengano oggi integrati all’interno di Delta per aiutare gli operatori a gestire le funzioni ISR è Zvook, un sistema di analisi sonora usato nella difesa aerea. Sviluppato in collaborazione con Respeecher, una startup ucraina che prima della guerra lavorava alla generazione di voci tramite intelligenza artificiale, Zvook rileva e identifica attraverso il loro suono minacce aeree in volo a quote a cui i radar sono meno efficaci. Per farlo utilizza microfoni ad alta qualità, specchi acustici curvi per concentrare le onde sonore e un computer compatto grande quanto una scatola da scarpe Una stazione Zvook è più economica di un radar tradizionale. Il suo costo è di circa 500 dollari, funziona senza emettere segnali rilevabili e il suo raggio di scoperta è di 4,8 chilometri per i droni e di 6,9 chilometri per i missili da crociera. Il tempo necessario a una stazione Zvook per elaborare e trasmettere i suoi dati a Delta, con il quale è integrata, è di circa 12 secondi e il tasso di falsi positivi dell’1,6%. Tra le informazioni trasmesse da Zvook ci sono il tipo di bersaglio, il suo suono, il luogo in cui è stato rilevato e la direzione in cui si sta muovendo, facilitando così il compito di allertare i sistemi di difesa aerea che hanno il compito di intercettare la minaccia. L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE SULLE FUNZIONI ATR Per quanto riguarda le funzioni di ATR (riconoscimento automatico dei bersagli), l’intelligenza artificiale aiuta il personale umano a distinguere esche e camuffamenti, permette ai sistemi di operare anche in ambienti densi di contromisure elettroniche e contribuisce a migliorare la performance dei sensori in condizioni di scarsa visibilità (nebbia, pioggia, neve, durante la notte) e in ambienti ricchi di infrastrutture come quelli urbani. Per svolgere le funzioni di ATR i sistemi di intelligenza artificiale possono anche essere integrati a bordo dei veicoli senza pilota, operando per migliorare la velocità, la precisione e l’efficacia del processo di acquisizione e tracciamento dei bersagli. Tali sistemi aiutano anche gli operatori umani a determinare quali siano i bersagli prioritari, basandosi su variabili analizzate in tempo reale come il livello di pericolosità, la vicinanza alle unità amiche e gli obiettivi di una missione. Addestrato con dati open source, il sistema di ATR e basato su intelligenza artificiale noto come ZIR, dell’azienda ZIR System, è in grado di identificare un’ampia gamma di bersagli. Tra questi ci sono  personale di fanteria, automobili, minivan, camion, sistemi di difesa aerea, di artiglieria, veicoli blindati e carri armati. Una volta identificato il proprio bersaglio, ZIR, che viene montato direttamente su droni d’attacco, si aggancia a esso da un chilometro di distanza e comanda autonomamente il drone fino a 3 chilometri anche in ambienti densi di contromisure elettroniche. BREVE GUIDA ALL’ECOSISTEMA TECNOLOGICO UCRAINO Oltre all’integrazione dell’intelligenza artificiale per rispondere alle esigenze dei moderni contesti di guerra, ZIR, Zvook e Delta hanno un’altra cosa in comune: sono stati sviluppati tutti e tre in Ucraina, come alcune delle più avanzate soluzioni apparse fin dall’inizio del conflitto nel 2014. Delta, per esempio, nasce nel 2016 grazie al lavoro di Aerozvidka, un gruppo di volontari impegnato a supportare le truppe ucraine impiegate nella difesa del Donbass. Anche prima di venir adottato dalle forze di difesa ucraine, Delta è stato caratterizzato da uno sviluppo costante nel tempo e da un approccio do it yourself basato su un continuo confronto con i militari impegnati al fronte, che fornivano agli sviluppatori riscontri costanti sulle prestazioni del software. Questo approccio è alla base dell’intero ecosistema dell’IA militare ucraino. Un ecosistema di cui l’iniziativa privata, autonoma e spesso volontaria, è stata una componente fondamentale. Molte di queste tecnologie nascono infatti da applicazioni sviluppate per usi civili e commerciali, che solo in seguito all’invasione su larga scala sono state adattate a usi bellici. La dinamica industria tecnologica ucraina e l’aggressione russa sono perciò alla base del rapido sviluppo che le più avanzate tecnologie militari stanno vivendo nel corso di questo conflitto. Un’accelerazione che sta determinando il modo in cui verranno combattute le guerre del futuro. L’invasione ha avuto dunque come effetto indesiderato quello di fare da volano all’industria militare ucraina che, oggi, è una delle più innovative al mondo. Questo ha fatto sì che, mano a mano che l’invasione su larga scala proseguiva, il governo ucraino si è trovato di fronte alla necessità di riconoscere il valore strategico del comparto e regolarlo di conseguenza. Sia i servizi segreti che diversi ministeri – tra cui quello della difesa, quello degli affari interni e quello della trasformazione digitale – gestiscono oggi iniziative e infrastrutture dedicate ad accelerare lo sviluppo e l’adozione di tecnologie militari basate su intelligenza artificiale. Per quanto autonomi e, in parte, indipendenti l’uno dall’altro, tutti questi sforzi condividono lo stesso approccio dal basso verso l’alto all’innovazione, rispettoso dell’indipendenza e della natura fai da te dell’ecosistema tecnologico ucraino. PRESENTE E FUTURO DELL’INTELLIGENZA ARTIFICIALE BELLICA L’analisi del caso ucraino mostra come i conflitti siano il principale motore di sviluppo e adozione di nuove tecnologie militari. La più avanzata di queste è l’intelligenza artificiale e in merito al suo uso bellico è oggi possibile isolare tre tendenze distinte. La prima mostra come l’integrazione dell’intelligenza artificiale nelle organizzazioni militari sia un processo in crescita. La seconda che la sua adozione non può essere predeterminata, ma segue piuttosto logiche contingenti. La terza e ultima è che l’uso delle macchine non dovrebbe rimpiazzare gli operatori umani nelle funzioni di comando e controllo. Priva di supervisione umana, libera di prendere decisioni per suo conto, l’intelligenza artificiale diventerebbe di fatto un attore strategico autonomo. L’intelligenza artificiale non è infatti un semplice moltiplicatore di forze, bensì una tecnologia che approfondisce ed evolve la natura dell’interazione umano-macchina. In questo modo, l’intelligenza artificiale è in grado di riscrivere profondamente i meccanismi psicologici che garantiscono la deterrenza reciproca degli stati. Ciononostante, il dibattito sul grado di autonomia da concedere ai sistemi d’arma dotati di intelligenza artificiale è aperto e si struttura intorno a due posizioni opposte: quella che vede nella piena automazione dell’uso della forza un pericolo con notevoli implicazioni etiche; e quella che per cui l’autonomia condurrà a un futuro di guerre meno distruttive e sanguinose. L’intelligenza artificiale, al crocevia tra opportunità tattiche e rischi strategici, solleva interrogativi che nessuna tecnologia può risolvere da sola. Il futuro della guerra – e forse anche della pace – si giocherà nella capacità delle società democratiche di regolarne lo sviluppo prima che siano forze diverse a farlo. L'articolo Le frontiere belliche dell’intelligenza artificiale proviene da Guerre di Rete.
Nell’era Trump, la lotta ai migranti passa anche dalle app
Immagine in evidenza da RawPixel, licenza CC 1.0 Nelle ultime settimane, hanno suscitato grande scalpore alcune applicazioni sviluppate per segnalare alle autorità competenti i cittadini stranieri che vivono illegalmente negli Stati Uniti. In particolare, secondo The Verge, a ricevere il sostegno di Donald Trump e dei filotrumpiani è stata ICERAID, un’app che promette di premiare con una criptovaluta proprietaria, il token RAID, “i cittadini che acquisiscono, caricano e convalidano le prove fotografiche di otto categorie di sospette attività criminali”. Tra queste i maltrattamenti di animali, i rapimenti, gli omicidi, le rapine, gli atti terroristici e, naturalmente, l’immigrazione clandestina.  L’idea alla base dell’applicazione è quella di trasformare i cittadini in veri e propri “cacciatori di taglie”, permettendo loro di combattere la criminalità in collaborazione con le forze dell’ordine e le agenzie di sicurezza. Con ICERAID, gli americani hanno infatti la possibilità di scattare e caricare la foto di un presunto reato in corso, fornendo tutte le informazioni utili per consentire alle autorità competenti di intervenire, ma solo dopo che la veridicità della segnalazione è stata confermata (al netto degli errori) da un’intelligenza artificiale. Ma non è tutto. Come riportato da Newsweek, l’app vanta un “programma di sponsorizzazione” che promette di “ricompensare gli immigrati privi di documenti e senza precedenti penali che si fanno avanti, attraverso un programma di sostegno in cui vengono aiutati a perseguire lo status legale negli Stati Uniti tramite vari percorsi, tra cui l’assistenza per la ricerca di un avvocato specializzato in immigrazione”.  Eppure, nonostante i sostenitori di Trump abbiano promosso ICERAID in ogni modo possibile, l’applicazione non sembra star riscuotendo il successo sperato. Allo stato attuale, risultano solo otto segnalazioni di attività criminali da parte dei cittadini statunitensi, di cui soltanto tre ritenute valide dall’AI dell’applicazione. Una delle ragioni è probabilmente il fatto che l’app è stata rilasciata sul mercato senza che la sua criptovaluta fosse ancora disponibile, il che ha reso gli americani restii a utilizzarla. Ma anche la cattiva reputazione del fondatore del progetto Jason Meyers – accusato di appropriazione indebita di fondi in una delle sue attività precedenti – non ha contribuito alla credibilità di ICERAID. Di certo, i sostenitori di Trump e gli esponenti della destra americana stanno cercando di trasformare i cittadini comuni in “vigilantes” pronti a dare la caccia agli immigrati clandestini, con o senza il supporto della tecnologia. A gennaio un senatore dello Stato del Mississippi ha presentato una proposta di legge che prevedeva una ricompensa di 1.000 dollari per i cacciatori di taglie che avrebbero portato a termine la cattura di immigrati entrati nel paese senza autorizzazione. Fortunatamente, la proposta non è mai diventata legge, ma ha comunque dimostrato qual è la direzione che sta prendendo la destra americana.  TRUMP STA SPINGENDO GLI IMMIGRATI ALL’AUTOESPULSIONE CON UN’APP Il presidente degli Stati Uniti Donald Trump sembra intenzionato a utilizzare ogni mezzo possibile per mantenere la promessa di combattere l’immigrazione clandestina e contenere i flussi di migranti in ingresso al confine sud-occidentale del Paese. Proprio qualche settimana fa, la segretaria alla Sicurezza nazionale Kristi Noem ha infatti annunciato il lancio dell’app Cbp Home, dotata di una funzione specifica che “offre ai cittadini stranieri la possibilità di andarsene ora e di auto-espellersi, il che darebbe loro l’opportunità di tornare legalmente in futuro e vivere il sogno americano”. Più nel dettaglio, l’applicazione non è altro che la versione completamente rinnovata di Cbp One, un’app promossa dall’amministrazione Biden per agevolare i migranti nel fissare un appuntamento per avviare le pratiche di richiesta di asilo negli Stati Uniti. Ora, invece, con Donald Trump l’applicazione ha preso tutta un’altra forma. Secondo quanto riferito da Newsweek, Cbp Home offre alle persone che si trovano illegalmente nel paese, o a cui è stata revocata la libertà vigilata, la possibilità di comunicare al Dipartimento di Sicurezza Nazionale (DHS) la loro volontà di abbandonare gli Stati Uniti, così da evitare “conseguenze più dure”, come la detenzione o l’allontanamento immediato. Per accertarsi che abbiano davvero abbandonato gli Stati Uniti, l’app chiede una conferma della loro espulsione. “Se non lo faranno, li troveremo, li deporteremo e non torneranno mai più”, ha chiosato la segretaria Noem, facendo riferimento all’attuale legge sull’immigrazione degli Stati Uniti, che può impedire a chi è entrato illegalmente nel paese di rientrarvi entro un periodo di tempo che varia dai tre anni a tutta la vita. La nuova funzione di auto-espulsione di Cbp Home, infatti, fa parte di “una più ampia campagna pubblicitaria nazionale e internazionale da 200 milioni di dollari”, che include annunci radiofonici, televisivi e digitali in diverse lingue per dissuadere i migranti dal mettere piede sul suolo statunitense. In questo modo, Donald Trump spera di mantenere la promessa fatta durante la sua campagna elettorale: attuare “il più grande programma di espulsione nella storia del paese”. Ad aprile dello scorso anno, in un’intervista al TIME, l’allora candidato repubblicano aveva dichiarato la sua intenzione di voler espellere dagli Stati Uniti “dai 15 ai 20 milioni di migranti”. Già dal suo primo giorno come presidente, Trump ha dimostrato di voler onorare quanto promesso. Poche ore dopo il suo insediamento, ha firmato una direttiva per dichiarare l’emergenza migratoria nazionale al confine con il Messico, e ha riattivato il programma “Remain in Mexico”, che costringe i richiedenti asilo a rimanere in Messico in attesa che venga elaborato il loro status di immigrati. Inoltre, coerentemente con le sue promesse elettorali, Trump ha presentato una proposta di legge per eliminare la concessione della cittadinanza automatica ai figli degli immigrati nati negli Stati Uniti. LA TECNOLOGIA PER DIFENDERSI DALLA POLITICA DI TRUMP Con l’intensificarsi delle azioni, politiche e non, messe in campo da Donald Trump per combattere l’immigrazione clandestina, anche i migranti stanno ricorrendo alla tecnologia per sfuggire ai raid delle forze dell’ordine e assicurarsi una permanenza nel paese. Secondo quanto riferito da Newsweek, nelle ultime settimane sta riscuotendo un buon successo SignalSafe, un’app di community reporting usata dai migranti o chi li aiuta per segnalare le operazioni degli agenti federali e della polizia locale. Una piattaforma che dichiara di non voler ostacolare le attività dell’ICE (United States Immigration and Customs Enforcement), ma che ha l’obiettivo di “dare potere alle comunità fornendo ai cittadini uno strumento per segnalare e condividere quello che accade negli spazi pubblici”, come riferiscono gli sviluppatori dell’applicazione, che per il momento hanno preferito mantenere segreta la loro identità.  Proprio allo scopo di “garantire la qualità e l’affidabilità” delle informazioni, SignalSafe utilizza “un’intelligenza artificiale avanzata per filtrare le segnalazioni inappropriate o palesemente false non appena arrivano”, che passano poi al vaglio di moderatori umani, i soli a poterle etichettare come verificate o revisionate. In questo modo gli sviluppatori si assicurano che gli utenti abbiano accesso a informazioni veritiere, che possano aiutarli a “prendere decisioni che proteggano se stessi e gli altri”. Negli ultimi anni, l’ICE è stata fortemente contestata per le sue pratiche che includono, tra le atre cose, l’uso di furgoni neri, passamontagna e incursioni improvvise. Una strategia di intervento che fa paura, e che spinge i migranti a rivolgersi alla tecnologia per cercare di tenere al sicuro famiglie, amici e conoscenti. Non stupisce, quindi, che SignalSafe non sia il solo strumento a cui gli immigrati stanno facendo riferimento per evitare l’espulsione dagli Stati Uniti.  Alla fine del mese di marzo, il Washington Post ha riferito che gli immigrati clandestini stanno facendo un largo uso dei social media per “condividere in tempo reale la posizione di veicoli e agenti dell’ICE”, utilizzando parole in codice come “camioncino dei gelati” per segnalare un furgone nero nei paraggi, così da evitare la censura sulle piattaforme e permettere ai loro coetanei di sfuggire ai controlli delle autorità competenti. Questa strategia, com’è facile immaginare, ha irritato i sostenitori di Donald Trump, che hanno reagito mostrando tutta la loro disapprovazione sui social media. Nelle prime due settimane di marzo, stando ai dati della società di analisi Sprout Social, ci sono state quasi 300.000 menzioni dell’ICE nei contenuti pubblicati su X, Reddit e YouTube (un aumento di oltre cinque volte rispetto allo stesso periodo di febbraio), il che dimostra quanto la questione dell’immigrazione clandestina sia al centro del dibattito pubblico.  In queste settimane i sostenitori di Trump stanno pubblicando decine e decine di segnalazioni false sulle attività dell’ICE, così da alimentare i sentimenti di paura e confusione negli immigrati clandestini che cercano di salvaguardare la loro permanenza negli Stati Uniti. Una strategia che non sempre sembra funzionare. Come riferisce il Washington Post, i migranti preferiscono setacciare i social media alla ricerca delle informazioni giuste piuttosto che incontrare le forze dell’ordine, anche se questo richiede più tempo. E hanno valide ragioni per farlo, considerando che i filotrumpiani non perdono occasione per creare scompiglio. Lo dimostra la storia di People Over Papers, una mappa collaborativa che segnala i presunti avvistamenti dell’ICE in tutto il Paese e che ha ricevuto più di 12.000 segnalazioni da quando è diventata virale su TikTok alla fine dello scorso gennaio. Secondo quanto raccontato da Celeste, fondatore del progetto, dopo che gli account X Libs of TikTok e Wall Street Apes hanno pubblicato un post in cui sostenevano che People Over Papers aiutasse i criminali a eludere le forze dell’ordine, la mappa è stata invasa da decine e decine di segnalazioni false. Eliminate una a una dai volontari che seguono il progetto.  GLI STRUMENTO DI SORVEGLIANZA NELL’IMMIGRAZIONE Se ICERAID e SignalSafe sono due applicazioni che coinvolgono i cittadini in materia di immigrazione clandestina negli Stati Uniti, non va dimenticato che già da qualche tempo il governo utilizza la tecnologia per sorvegliare gli immigrati che non godono di uno status legale nel paese, anche se non sono detenuti in carcere o in altre strutture specializzate, applicando loro strumenti di localizzazione come smartwatch e cavigliere. Nello specifico, secondo quanto riferito dal New York Times, le autorità governative stanno utilizzando l’app SmartLink sviluppata da Geo Group, uno dei più grandi fornitori statunitensi in ambito penitenziario, per monitorare la posizione dei clandestini identificati dall’ICE. Grazie al programma “Alternative to detection”, questi possono continuare a vivere nel paese, purché segnalino alle forze dell’ordine la loro posizione attraverso l’applicazione quando richiesto, semplicemente scattandosi un selfie e caricandolo in-app.  Un metodo di sorveglianza imvasivo, il cui uso sembra essere cambiato radicalmente con l’arrivo di Donald Trump alla Casa Bianca. Già dai primi mesi del suo mandato, infatti, l’app sembra sia stata usata per comunicare all’ICE la posizione degli immigrati, facilitandone così l’arresto. Secondo il Dipartimento di Sicurezza Nazionale, nei primi 50 giorni di mandato del nuovo presidente sono infatti stati arrestati più di 30.000 immigrati.  Non c’è da stupirsi, quindi, che Geo Group sia la compagnia che ha ricevuto più finanziamenti governativi di ogni altra. O che le politiche di immigrazione del presidente degli Stati Uniti abbiano fatto impennare il valore delle sue azioni sul mercato. Eppure, nonostante i sostenitori di Trump abbiano elogiato e supportato in ogni modo possibile questa tecnologia, gli esperti di sicurezza ne hanno criticato aspramente l’uso. “Il governo la presenta come un’alternativa alla detenzione”, ha dichiarato Noor Zafar, avvocato senior dell’American Civil Liberties Union, un’organizzazione non governativa per la difesa dei diritti civili e delle libertà individuali negli Stati Uniti. “Ma noi la vediamo come un’espansione della detenzione”. L'articolo Nell’era Trump, la lotta ai migranti passa anche dalle app proviene da Guerre di Rete.
Amore sintetico, come l’AI sta cambiando il mercato delle sex dolls
Immagine in evidenza: “Computer generated image of a human body” di Allison Saeng, acquisita da Unsplash+, licenza Unsplash+, riproduzione riservata Non è raro che vengano scambiate per cadaveri. Abbandonate sulla riva di un fiume, trascinate dalle onde fino a una spiaggia o infilate dentro un trolley. Negli ultimi anni le sex dolls, bambole per adulti create per l’intrattenimento sessuale, hanno generato più di un falso allarme in tutto il mondo. Tra la prima e la seconda ondata di Covid-19 in Giappone, due di queste bambole sono state scambiate per donne annegate. Episodi simili si sono verificati nel Regno Unito, dove una è riaffiorata nel fiume Trent, e in Australia, nel Queensland. In Nuova Zelanda, una donna che passeggiava con il cane a Tapuae Beach ha chiamato la polizia credendo di aver trovato un cadavere nudo e senza testa.  Anche in Italia, nei boschi delle Manie vicino a Finale Ligure, due turisti hanno scambiato per un corpo umano una gamba che spuntava da un trolley abbandonato. In nessuno di questi casi si trattava di una persona reale. A quanto pare, i produttori di sex dolls stanno quindi vincendo la sfida (finora) più ambiziosa: quella con il realismo. Il mondo dei sex toys non è affatto uno sfizio per pochi. È un settore in piena espansione, con numeri che parlano chiaro. Le stime internazionali descrivono un mercato globale da 2,5 miliardi di dollari, destinato a raddoppiare entro il 2033. Come altri giocattoli sessuali, anche le sex dolls sono sempre più normalizzate: i tempi sono cambiati, e i discorsi su sessualità e solitudine, almeno nelle grandi città, sono ormai entrati nel dibattito pubblico. Questo cambiamento culturale ha spinto aziende di tutto il mondo a dedicarsi al settore, investendo nel miglioramento dei prodotti a partire dal materiale, che viene comunemente definito silicone iper realistico.  SOGNI ELETTRICI, DESIDERI UMANI La pandemia non ha fatto solo la fortuna delle grandi aziende tecnologiche: quelle produttrici di sex dolls hanno infatti vissuto un momento d’oro, che ne ha decretato l’entrata sul mercato mondiale. L’isolamento e il distanziamento sociale hanno spinto gli acquisti online anche in questo ambito, per via della discrezione che garantiscono agli utenti. La crescita è stata talmente improvvisa ed elevata che alcune aziende hanno dovuto adattare la produzione per far fronte alla domanda. Un esempio è la Libo Technology di Shandong, in Cina, che nel 2020 ha aumentato il personale addetto alla produzione di sex dolls del 25%, assumendo 400 lavoratori. La responsabile per le vendite estere, Violet Du, ha dichiarato al South China Morning Post che le linee di produzione erano attive 24 ore su 24 e che i dipendenti facevano doppi turni. La Aibei Sex Dolls Company di Dongguan, sempre in Cina, si è trovata a rifiutare ordini a causa dell’eccessivo numero di richieste.  Come è facile intuire, il paese del dragone è leader nella produzione di queste bambole per via dei bassi costi di produzione e di esportazioni vantaggiose verso l’Occidente. Le grandi fabbriche riescono a produrre circa 2.000 unità al mese, mentre quelle più piccole arrivano a una media di 300-500 bambole, come dichiarato dal direttore generale della Aibei. Sebbene, a causa del conservatorismo culturale, in Cina il mercato delle sex dolls rimanga di nicchia, negli Stati Uniti e in Europa è invece in forte espansione, con guadagni significativi. Nel Vecchio continente le stime più aggiornate parlano di un mercato che oscilla tra i 400 e i 600 milioni di dollari nel 2023. Tra i mercati di importazione più attivi ci sono Francia, Regno Unito, Paesi Bassi e anche l’Italia. Nel 2021, La Stampa riportava un aumento del 148% nelle vendite di sex toys cinesi nel nostro Paese, incluse le sex dolls.  Nel 2022, un rivenditore di bambole statunitensi RealDoll ha aperto un negozio fisico nella periferia romana. Accompagnato da un e-commerce attivo già dal 2020, lo spazio fisico “nasce per offrire ai clienti la possibilità di vedere e toccare con mano i prodotti, considerando anche il costo elevato che hanno” spiega il proprietario a Guerre di Rete. Il negozio offre un servizio completo, consentendo ai clienti non solo di osservare, ma anche di toccare le bambole. “Il 60% dei nostri clienti sono uomini in una relazione stabile”, continua il proprietario, aggiungendo che “si tratta spesso di coppie alla ricerca di un elemento di novità nella loro intimità”. Tuttavia, ci sono anche altri tipi di clienti: “L’altro 30% è rappresentato da uomini separati, che si sentono soli e cercano affetto. Vogliono tornare a casa e trovare qualcuno ad aspettarli”. La parte rimanente comprende persone introverse, ma anche appassionati di fotografia, registi e proprietari di locali. Per quanto riguarda l’AI, il proprietario spiega che “oltre a quella che stanno introducendo i produttori cinesi, internamente stiamo sviluppando un device mobile simile ad Alexa, che renderà le bambole capaci di interagire con il proprietario”. COSTRUITE PER AMARE, PROGRAMMATE PER IMPARARE  Essendo ormai ovunque, l’intelligenza artificiale non poteva mancare nemmeno nel mondo delle bambole sessuali, garantendo oltre all’intrattenimento anche l’interazione. È un’innovazione ancora recente, ma che sta cambiando radicalmente il settore. In una sfida globale degna delle grandi potenze, anche in questo campo Stati Uniti e Cina si contendono il primato. Da una parte RealDoll, azienda americana, dall’altra la cinese WMDoll: entrambe hanno cominciato a integrare funzionalità di AI tra il 2016 e il 2017. I primi modelli offrivano movimenti di occhi, testa e altre parti del corpo, accompagnati da una capacità di risposta vocale piuttosto limitata. Più che vere conversazioni, si trattava di semplici repliche a domande preimpostate da parte dell’utente. Lo sviluppo è stato inizialmente lento, come ha spiegato Liu Ding, product manager di WMDoll, che attribuisce la causa anche alla scarsa volontà di investire nell’intelligenza artificiale applicata ai prodotti per adulti. Ma nel 2024 lo scenario è cambiato: l’azienda cinese ha compiuto un deciso passo avanti con il lancio della serie MetaBox, che ha rivoluzionato anche il resto del mercato. Le nuove bambole, equipaggiate con modelli linguistici open source di grandi dimensioni (LLM) come Llama di Meta, offrono un’interazione molto più avanzata, consentendo all’utente di scegliere tra diverse “personalità” delle bambole. Queste ultime sono inoltre in grado di sostenere conversazioni (perlopiù in inglese) anche a distanza di giorni, ricordando quanto detto in precedenza. Questa funzione, tuttavia, richiede una connessione costante ai server cloud e una fonte continua di energia elettrica, mettendo in evidenza uno degli aspetti attualmente più critici dell’AI: il suo elevato consumo energetico. Inoltre, WMDoll sta sviluppando collane, braccialetti, anelli e altri dispositivi pensati per connettere anche i modelli precedenti con il loro proprietario. Display "New Metabox AI Feature From WM Doll" from YouTube Click here to display content from YouTube. Learn more in YouTube’s privacy policy. Mostra sempre i contenuti da YouTube Open "New Metabox AI Feature From WM Doll" directly Nel 2017 la compagnia americana RealDoll ha invece lanciato Harmony, progettata per interagire con gli utenti tramite una combinazione di software di riconoscimento vocale e chatbot, che le permette di dare risposte personalizzate e di simulare conversazioni. “È dotata di un sistema cranico modulare con molteplici punti di attuazione, che consente alla bambola di assumere espressioni, muovere la testa e parlare con te. Anche gli occhi possono muoversi e sbattere le palpebre, creando un’esperienza mai vista prima con una bambola” si legge sul sito. Nella sua evoluzione più recente, Harmony X, RealDoll ha cercato di offrire un servizio sempre più immersivo e realistico, andando oltre l’aspetto fisico della bambola e includendo l’interazione emotiva e psicologica. Una bambola “progettata per funzionare con il software di intelligenza artificiale personalizzabile ‘X-Mode’, che ti permette di creare personalità uniche e controllare la voce del tuo robot”. Al di là dei gusti, il costo rimane un argomento spinoso. Soprattutto se integrate con l’AI, le sex dolls sono al momento appannaggio di pochi. Per gli utenti che vogliono interagire con una bambola sessuale RealDoll, il cui costo a figura intera è di 4.000 dollari, c’è da aggiungere un ulteriore abbonamento mensile di 40 dollari al mese (580 l’anno). Mentre la versione cinese è più economica: con alcune variazioni di dimensioni e materiali, la bambola con AI di WMDolls si aggira sui 1.900 dollari. Mentre l’industria delle sex dolls entra in una nuova fase, alimentata dall’intelligenza artificiale e da tecnologie sempre più sofisticate, emergono interrogativi etici e legali che non possono essere ignorati. L’episodio che ha coinvolto la modella israeliana Yael Cohen Aris, che nel 2019 ha scoperto come l’azienda cinese Iron Dolls avesse usato il suo volto e nome per una delle sue sex dolls, mette in luce i rischi di un mercato dell’intrattenimento sessuale in cui l’identità e il consenso all’uso della propria immagine possono facilmente essere violati. Il mercato delle sex dolls fa però emergere qualcosa di più profondo. Le nuove bambole AI, sempre più capaci di dialogare, ricordare e assumere personalità differenti, stanno dando forma a un’idea fantascientifica: l’amore programmabile. Come in Her o Ex Machina, non c’è solo l’interazione umana con un software, ma la proiezione di desideri, paure e bisogni in una presenza artificiale che sembra restituire qualcosa di autentico. Forse, nel silenzio sintetico delle nuove companion, l’utente non troverà una “risposta”, ma solo un altro modo – programmato e prevedibile – di esplorare le domande più umane. L'articolo Amore sintetico, come l’AI sta cambiando il mercato delle sex dolls proviene da Guerre di Rete.
Il futuro dei computer è fotonico
Immagine in evidenza da Mohammad Honarmand su Unsplash Per decenni, lo sviluppo delle tecnologie informatiche è stato scandito dalla legge di Moore, che ha previsto – e per certi versi guidato – il raddoppio della densità dei transistor ogni due anni, alimentando la crescita esponenziale della potenza di calcolo e la diminuzione dei costi di produzione dei chip. Tuttavia, il ritmo di miniaturizzazione dei componenti elettronici mostra oggi segni di rallentamento, con i limiti fisici e termici dei semiconduttori in silicio che divengono ogni anno più stringenti. Uno dei principali ostacoli è rappresentato dagli effetti quantistici che emergono quando le distanze tra i transistor raggiungono dimensioni di pochi nanometri. A queste scale, gli elettroni possono attraversare barriere isolanti che, secondo la fisica classica, dovrebbero essere invalicabili, causando dispersioni di corrente e malfunzionamenti dei circuiti. Inoltre, il controllo preciso dei singoli elettroni diventa sempre più difficile, compromettendo l’affidabilità dei dispositivi. È in questo contesto che, negli ultimi anni, ha (ri)preso vita la ricerca nell’ambito della computazione fotonica (o ottica): un paradigma di calcolo alternativo che cerca di ripensare i processi fisici alla base del funzionamento dei computer. Invece di usare elettroni che si muovono all’interno di circuiti di silicio – come avviene nei computer tradizionali – la computazione fotonica utilizza fotoni, ovvero particelle (quanti) di luce. A differenza degli elettroni, i fotoni non hanno massa, non generano calore quando viaggiano nei circuiti e possono muoversi a velocità vicine a quelle della luce. Questo significa che, in teoria, un computer fotonico potrebbe essere molto più veloce e molto più efficiente, in termini di consumi, di un computer tradizionale. In un mondo che consuma sempre più energia a scopi di calcolo, non si tratta di un dettaglio banale. Ovviamente, tra il dire e il fare c’è di mezzo il mare. Per prima cosa bisogna riuscire a progettare e a produrre circuiti che riescano a indirizzare i fotoni in modo preciso, quasi fossero sentieri di luce. Inoltre, bisogna trovare il modo di fare interagire i fotoni tra loro poiché, per loro natura, essi non interagiscono come fanno invece gli elettroni nei transistor. Essendo privi di carica elettrica, i fotoni tendono a passare gli uni accanto agli altri senza “notarsi”. Questo rende molto difficile implementare la logica booleana alla base dell’informatica, la quale si fonda su una forma di controllo o modifica del comportamento di un segnale in base alla presenza di un altro (1 o 0; 0 o 1). Computazione fotonica e computazione quantistica Il tema della traducibilità e della coerenza del segnale è uno dei problemi che la computazione fotonica condivide, seppure con grosse differenze fisiche di base, con l’altra branca della computazione sperimentale: la quantistica. Tuttavia va specificato come i due campi siano essenzialmente distinti: mentre la computazione quantistica mira a rivoluzionare i fondamenti logici del calcolo attraverso effetti quantistici come l’entaglement, l’interferenza o la sovrapposizione, la fotonica punta “semplicemente” ad aumentare la rapidità e l’efficienza del calcolo attuale. Vi sono, inoltre, sperimentazioni in cui la computazione quantistica viene implementata attraverso fotoni entangled, in una forma ibrida di quantum photonics Per tutte queste ragioni, la computazione fotonica è più di una semplice evoluzione tecnica e rappresenta, per il momento, ancora una frontiera. Non è detto che sarà conquistata o che sarà quella definitiva, né che sostituirà in toto i modelli attuali. Ma è una delle vie più promettenti per dare risposta al bisogno – sempre più urgente – di ripensare l’infrastruttura materiale su cui si regge la civiltà digitale. FRONTIERA O INTERREGNO? L’idea di utilizzare la luce per elaborare informazioni non è nuova: se ne discute sin dagli anni Settanta. Ma è solo negli ultimi anni, sulla scorta della pressione esercitata dalla crisi della microelettronica tradizionale, che il campo ha cominciato a strutturarsi come un vero e proprio settore tecnologico, attirando finanziamenti e interesse da parte dei grandi operatori del digitale. Una delle aziende più promettenti è Lightmatter. Fondata nel 2017 da tre studenti dell’MIT, nel 2024 ha raccolto 400 milioni di dollari in un quarto round di finanziamenti, raggiungendo una valutazione di 4,4 miliardi di dollari. I prototipi più recenti di Lightmatter combinano moduli ottici e moduli elettronici, creando sistemi di computazione ibridi in cui le interconnessioni tra i diversi dispositivi hardware sono affidate a fotoni anziché elettroni, risolvendo così alcuni problemi specifici del calcolo parallelo con benefici anche  nell’addestramento dei modelli di intelligenza artificiale.  Un’altra startup degna di nota è Ayar Labs, con sede nella Silicon Valley. Nata come spin-off di un progetto congiunto tra il MIT e l’Università di Berkeley, Ayar Labs si è specializzata nell’integrazione di connessioni ottiche direttamente all’interno dei chip, con l’obiettivo di eliminare le limitazioni imposte dai collegamenti elettrici tradizionali.  La loro tecnologia di interconnessione ottica permette una trasmissione dati ultraveloce tra processori, acceleratori e moduli di memoria, riducendo drasticamente la latenza e il consumo energetico delle “very large scale integrations” utilizzate per il calcolo delle AI. Negli ultimi due anni, Ayar Labs ha attirato investimenti e firmato partnership strategiche con alcuni dei nomi più importanti dell’industria dei semiconduttori: da Intel a NVIDIA, da AMD a GlobalFoundries. Ci sono poi aziende che stanno puntando direttamente al bersaglio più grosso: non una simbiosi tra hardware fotonici ed elettrici, ma veri e propri sistemi di computazione ottica al 100%.  Mentre la fotonica del silicio è oggi impiegata principalmente per realizzare interconnessioni ottiche, cioè per trasportare informazioni tra moduli elettronici, il calcolo ottico punta invece a processare direttamente quei dati attraverso la luce.  Per ora, il campo resta limitato a poche operazioni matematiche molto specifiche, le quali però rappresentano oltre il 90% dei compiti di inferenza svolti da una rete neurale. In altre parole: se si riuscisse a sviluppare il calcolo ottico, si otterrebbe una soluzione hardware altamente ottimizzata per i grandi modelli linguistici e generativi, come quelli dietro a ChatGPT.  Un tentativo in questa direzione lo ha compiuto Lightelligence, un’altra startup USA nata da ambienti accademici, che nel 2021 ha presentato PACE (Photonic Arithmetic Computing Engine), un prototipo in grado di fornire – secondo le stime della stessa startup – performance fino a 100 volte superiori a quelle delle GPU più avanzate di allora. Se simili prototipi si tradurranno in realtà resta da vedere. Ma che un numero crescente di aziende e di fondi stia scommettendo sulla luce come nuovo vettore del calcolo è ormai un dato di fatto. Tuttavia, come spesso accade con le tecnologie emergenti, l’entusiasmo della finanza si scontra con il realismo dell’industria. La sfida, infatti, non è tanto dimostrare che la computazione fotonica possa “funzionare”, quanto renderla scalabile. Integrare su un singolo chip milioni di componenti ottici, garantendo al tempo stesso precisione, compatibilità con i sistemi esistenti e bassi costi di produzione, è un’impresa che richiede una supply chain tecnologica complessa e in gran parte da costruire. Di conseguenza, la computazione fotonica esiste oggi in una sorta di interregno tecnologico: troppo promettente per essere ignorata, troppo immatura per essere adottata, al di là di pochi specifici casi. CYBERSICUREZZA E GEOPOLITICA Nel campo della microelettronica, decenni di ricerca hanno portato allo sviluppo di protocolli di protezione contro le forme più note di attacco informatico. Con l’avvento della computazione fotonica, questo patrimonio non può essere semplicemente trasferito. I circuiti fotonici aprono quindi scenari e vulnerabilità inedite. Per esempio, l’interconnessione tra chip di tipo elettrico-ottico – come quella proposta da Lightmatter – moltiplica le occasioni d’attacco potenziali: ogni collegamento ibrido diventa, in teoria, una nuova porta d’accesso per attacchi altrettanto ibridi. Il fatto che i sistemi fotonici possano trasmettere dati a velocità e volumi impensabili pone inoltre ulteriori problemi, rendendo necessario ripensare da zero l’intera architettura della sicurezza informatica, sviluppando protocolli capaci di monitorare, interpretare e, se necessario, bloccare flussi di informazioni che si muovono alla velocità della luce. In questo nuovo contesto, anche i tradizionali strumenti di rilevamento – come i firewall o i sistemi anti-intrusione – rischiano di risultare inadeguati, non solo per limiti di velocità, ma anche per l’assenza di standard consolidati a cui riferirsi.  La stessa complessità dei componenti ottici rischia inoltre di impattare sull’affidabilità dei processi di testing a cui normalmente è sottoposto l’ hardware usato per la  computazione. Ciò aumenta il rischio che eventuali anomalie non vengano rilevate, finendo poi per aprire falle e vulnerabilità nei sistemi in cui i componenti ottici vengono integrati. Per tutte queste ragioni, mentre le giovani aziende del settore proseguono nella ricerca e nell’implementazione di nuovi strumenti di calcolo basati sulla fotonica, mancano ancora le cornici adeguate a inquadrare con precisione i limiti di questa nuova tecnologia. Non è ovviamente un tema da poco, specie se consideriamo che chi riuscirà a influenzare la regolamentazione della computazione fotonica influenzerà anche una porzione significativa del futuro del calcolo. Il che ci porta dritti al cuore delle implicazioni geopolitiche della questione. Come già è accaduto per l’intelligenza artificiale e i semiconduttori avanzati, la competizione fotonica rischia di trasformarsi in un nuovo terreno di scontro sistemico tra Cina e Stati Uniti. La computazione fotonica potrebbe  infatti offrire alla Cina una via di fuga tecnologica dalle restrizioni recentemente imposte dagli USA per rallentare lo sviluppo tecnologico di Pechino. Per utilizzare una formula in voga nel discorso politico-economico cinese, la fotonica potrebbe consentire di “cambiare corsia ed effettuare il sorpasso”.  Dal punto di vista cinese, due qualità della computazione fotonica appaiono particolarmente interessanti. La prima è che la produzione di hardware ottici non richiede l’utilizzo di macchinari di produzione litografici avanzati, a cui la Cina non ha accesso a causa delle restrizioni USA. La seconda è che, aumentando la velocità e l’efficienza delle interconnessioni, la computazione fotonica potrebbe in teoria permettere di sviluppare integrazioni hardware per AI avanzate senza il bisogno di utilizzare chip di ultima generazione, ugualmente sotto embargo americano.   Del tema si è interessato personalmente lo stesso Xi Jinping che, nel 2023, ha presieduto un incontro del Politburo sul tema. Vi ha partecipato anche il rettore dell’Università di Pechino, Gong Qihuang, un fisico con notevole esperienza nel campo delle applicazioni all’intelligenza artificiale della computazione fotonica (che è stata inoltre menzionata esplicitamente nel 14esimo piano quinquennale per lo sviluppo della Cina, relativo al periodo 2021-2025). Constatato tutto questo, non sorprende che il governo americano abbia iniziato a trattare la ricerca fotonica non solo come un tema di innovazione, ma come una questione di sicurezza nazionale. Non è un caso che importanti entità della difesa americana, così come l’agenzia DARPA, abbiano intensificato negli ultimi anni gli investimenti in startup e centri di ricerca attivi sul fronte della fotonica.  Il focus non è solo sull’efficienza o sulla scalabilità, ma anche sulla resilienza: costruire sistemi ottici che siano difficili da sabotare, da intercettare, da replicare. La fotonica viene così inscritta nella più ampia strategia di technological containment con cui gli Stati Uniti cercano di difendere la propria centralità nell’ordine digitale globale. L'articolo Il futuro dei computer è fotonico proviene da Guerre di Rete.
L’invasione dei robot domestici è ancora lontana
Immagine in evidenza: “Sprung a Leak” di Cécile Evans, Haus der Kunst di Monaco, da Wikimedia Che i robot sarebbero definitivamente entrati nelle nostre case è diventato chiaro nel 2008. Quell’anno la società iRobot – fondata nel 1990 da tre ricercatori in robotica del MIT di Boston: Rodney Brooks, Colin Angle e Helen Greiner – annunciò infatti che il robot aspirapolvere Roomba aveva raggiunto i 2,5 milioni di esemplari venduti nel mondo. Sul finire del primo decennio del nuovo millennio, si assistette insomma a un cambiamento epocale: milioni di abitazioni domestiche, al tempo soprattutto negli Stati Uniti, iniziarono a essere popolate da robot in grado di muoversi in autonomia per le nostre case, imparando a navigarle con efficacia sempre maggiore ed entrando per certi versi a far parte dei nuclei familiari. Non è un modo di dire: “Numerosi studi hanno dimostrato che gli umani sono disposti a provare emozioni nei confronti di tutto ciò che si muove”, racconta sul New Yorker Patricia Marx, scrittrice e docente a Princeton. “Di conseguenza, non mi dovrei sorprendere di essere accorsa a liberare il mio Roomba quando si è incastrato sotto il divano. E di essermi sentita in colpa quando le sue ruote si sono incastrate a causa di un filo che aveva raccolto”. In poche parole, attraverso il Roomba e simili robot domestici almeno una parte di esseri umani ha iniziato a provare una sensazione inedita: l’affezione (e l’apprensione) nei confronti di esseri artificiali. Com’è possibile? “Conosco molte storie a riguardo”, mi aveva spiegato nel corso di un’intervista proprio Colin Angle. “Le persone acquistano un robot per le pulizie, lo portano a casa e lo accendono. E lo osservano mentre si muove per casa, in autonomia, lavorando per loro. È la stessa natura umana, il modo in cui il nostro cervello è configurato, che ci spinge a considerare ciò che si muove per conto proprio come se fosse vivo. E infatti la stragrande maggioranza delle persone che hanno una macchina di questo tipo finisce per dargli un nome. Potrebbe anche essere una nuova definizione di robot: una macchina a cui sentiamo di dover dare un nome perché lo percepiamo vivo”. I dati confermano che, effettivamente, la maggior parte dei proprietari di Roomba (o degli altri robot da casa che si sono nel frattempo diffusi) fornisce loro un nome proprio, come se fosse un animale domestico. Di compagni artificiali, d’altra parte, è ormai pieno il mondo: nel solo 2023 sono stati venduti circa 23 milioni di robot per la casa, portando le vendite cumulative poco al di sotto dei 100 milioni complessivi. Gli ultimi anni non sono però stati dei più facili per i robot. Nonostante il successo del Roomba e la crescita dei concorrenti (Roborock, Ecovacs o Dreame, tutti di fabbricazione cinese), non si è assistito a quella moltiplicazione di robot specializzati che si pensava si sarebbero presi cura di ogni aspetto domestico. Al contrario, l’unico altro aiutante robotico che si è parzialmente diffuso è il parente più prossimo del Roomba (anche dal punto di vista del design): il robot tagliaerba. A oltre vent’anni dall’introduzione del Roomba (avvenuta nel 2002) e mentre iRobot, l’azienda simbolo della rivoluzione robotica, è alle prese con parecchie difficoltà finanziarie (causate dall’aumento della concorrenza, dalla mancata acquisizione da parte di Amazon e soprattutto dallo scarso successo degli altri modelli), sembra insomma che l’evoluzione dei collaboratori domestici artificiali si sia fermata. Ancora oggi, i robot aspirapolvere rappresentano oltre il 70% del mercato, mentre molti altri prodotti sono andati incontro al fallimento: i robot tagliaerba, come detto, sono il secondo segmento più diffuso, ma con volumi di vendita molto inferiori. Altri dispositivi – come i robot da cucina, quelli piega-bucato (FoldiMate, Laundroid) o gli assistenti umanoidi – sono stati abbandonati prima del lancio o sono rimasti prototipi a causa dello scarso interesse commerciale. Laundroid, per esempio, ha chiuso nel 2020 dopo anni di hype e investimenti, mentre FoldiMate è stato ritirato prima della commercializzazione. I robot da cucina multifunzione, come il Thermomix, pur essendo molto diffusi, non sono considerabili robot in senso stretto: mancano infatti di mobilità e autonomia. Ed è probabilmente anche alla luce dei tanti fallimenti che, negli ultimi anni, hanno iniziato a farsi largo numerose nuove startup, che stanno ripensando il settore da zero, approfittando dei progressi nel campo della robotica e dell’intelligenza artificiale. E quindi, qual è il futuro dei robot domestici? Prima di tutto, bisogna dare una definizione di “robot domestici”. Secondo la società di ricerca Global Market Insights, un robot domestico è uno strumento che, “utilizzando l’intelligenza artificiale, percepisce e interagisce con l’ambiente circostante, eseguendo dei compiti autonomamente e adattandosi alle preferenze dell’utente”. Questa definizione ci dice però poco di un aspetto cruciale: il robot in questione è tuttofare o specialistico? È un robot in grado di compiere molteplici mansioni o è addestrato per eseguire un solo compito ben definito (pulire i pavimenti o tagliare l’erba)? Fino a questo momento, come detto, il panorama commerciale è stato dominato da quest’ultimo tipo di robot, che però – segnala sempre Global Market Insights – “manca della versatilità necessaria ad affrontare un’ampia gamma di faccende domestiche. Inoltre, questi robot possono avere difficoltà con compiti complessi che richiedono destrezza e capacità di giudizio simili a quelle umane, come piegare il bucato o preparare i pasti”. Se non bastasse, pochi di noi possono permettersi (anche per ragioni di spazio) di ospitare un robot aspirapolvere, uno che pulisce i pavimenti, uno che cucina, uno che piega i vestiti, ecc. Ed è anche per questo che, come ha spiegato al Boston Globe Fady Saad (fondatore di Cybernetix Ventures), “abbiamo visto tantissimi fallimenti nella robotica di consumo e molti dei tentativi di iRobot di creare ulteriori prodotti rispetto al Roomba non hanno avuto successo”. LA STRADA IN SALITA DEL ROBOT TUTTOFARE Allo stesso tempo, l’idea di creare un robot domestico multitasking, in grado quindi di svolgere molteplici mansioni, è incredibilmente complessa: raccogliere la polvere richiede caratteristiche totalmente diverse rispetto a piegare i vestiti o caricare la lavastoviglie. E se bastasse modificarli e riadattarli per permettere loro di portare a termine un numero maggiore di mansioni? “I robot specializzati sono percepiti come dispositivi limitati e adatti a un solo compito”, ha spiegato alla BBC Yoshiaki Shiokawa, ricercatore dell’università di Bath. “Penso che ci siano forti indicazioni che questi robot siano invece sotto-utilizzati”. Per dimostrare la sua tesi, Shiokawa e alcuni suoi colleghi dell’Advanced Interaction and Sensing Lab hanno riadattato un normale Roomba in modo che fosse in grado di annaffiare le piante, caricare il cellulare (e seguire il suo padrone affinché l’avesse sempre a portata di mano), trasportare la spesa dalla macchina alla cucina e anche… giocare con il gatto (anche se è più probabile che sia stato il gatto a compiere questa scelta). Per quanto si sia trattato soltanto di una sperimentazione, lo studio eseguito all’università di Bath indica una possibile strada da seguire, che non implica necessariamente la trasformazione dei robot, ma semmai un ampliamento delle funzionalità praticabili con minime modifiche a livello di design e caratteristiche. Eppure, mano a mano che la ricerca sulla robotica va nella direzione di un assistente domestico tuttofare, sembra quasi inevitabile – a giudicare dai vari prototipi emersi negli ultimi anni – che questo prenda una forma umanoide, dotata di gambe, braccia e anche torso e testa. “Le aziende stanno scommettendo sulla capacità dei robot di fronteggiare una serie più ampia di compiti imitando il modo in cui le persone camminano, si piegano, raggiungono gli oggetti, li afferrano e più generalmente portano a termine le loro mansioni”, si legge sul New York Times. “Poiché le case, gli uffici e i magazzini sono già stati costruiti per gli esseri umani, gli umanoidi sarebbero meglio equipaggiati per navigare il mondo rispetto a ogni altro robot”. Gli esempi non mancano: Optimus di Tesla, H1 e G1 della cinese Unitree o il chiacchieratissimo Neo di X1 (azienda norvegese). Se giudicassimo dai video aziendali caricati su YouTube e su TikTok – che mostrano questi robot umanoidi muoversi agilmente per casa, stirare, afferrare una bibita dal frigorifero e portarla al proprietario, portare fuori il cane e addirittura eseguire balli coreografati – penseremmo che il futuro dei robot domestici sia già diventato realtà. Le cose, in realtà, sono molto diverse. A dimostrarlo è stato un video pubblicato dall’influencer cinese Zhang Genyuan, che dopo aver noleggiato un G1 di Unitree al prezzo di 1.400 dollari al giorno ha mostrato come questo robot combinasse un sacco di danni nel tentativo di dargli una mano in cucina, rompendo le uova e rovesciando ovunque il latte. Forse anche in seguito a questa pubblica umiliazione, Unitree Robotics ha annunciato che, per il momento, non lancerà sul mercato robot umanoidi, segnalando inoltre l’ostacolo – ancora da superare – delle stringenti misure di sicurezza necessarie. “Non è facile prevedere quanto tempo ancora ci vorrà, ma penso che non avverrà prima di altri due o tre anni”, ha spiegato ai giornalisti il cofondatore di Unitree, Wang Xinjing, lo scorso aprile. E poi c’è il flop di Optimus, il robot di Tesla che – stando alle solite irrealizzabili promesse di Elon Musk – avrebbe già dovuto essere in produzione, arrivando alla consegna di 5mila esemplari entro il 2025. In realtà, Optimus è lontanissimo dalla fase di produzione e non è nemmeno chiaro se mai lo sarà: nell’aprile 2025 sono stati pubblicati dei video in cui si vede Optimus camminare in linea retta (qualcosa che era già stato fatto dal robot Wabot-1 nel 1972), ma al momento non si sa nulla di più dei destini commerciali del robot Tesla. Il punto, come segnala Wired,  è che “nonostante gli incredibili progressi degli ultimi anni, nessuno ha ancora capito come rendere questi robot realmente abili o intelligenti”. I robot di oggi possono essere autonomi soltanto se svolgono un compito semplice e ben circoscritto; mentre se si occupano di faccende più complesse – come quelli utilizzati e ormai molto diffusi nelle fabbriche e nei magazzini – devono essere attentamente programmati ed eseguire movimenti definiti con la massima precisione, senza alcuna autonomia. LA SCOMMESSA FINANZIARIA Malgrado questa situazione di stallo, gli analisti si aspettano che il mercato dei robot domestici cresca del 20% annuo da qui al 2032, passando dai 10 miliardi di dollari del 2023 ai 53 miliardi previsti per i primi anni del prossimo decennio. Com’è possibile, considerando la situazione di stallo in cui questo settore attualmente si trova? Come spesso capita nel mondo dell’innovazione tecnologica, l’obiettivo è riversare nella robotica domestica un tale fiume di denaro da permettere di superare tutti gli ostacoli attualmente presenti, dando vita a una sorta di profezia che si autoavvera (grazie alla potenza finanziaria degli investitori). Secondo PitchBook, dal 2015 a oggi gli investitori hanno finanziato oltre 50 startup che si occupano di robot umanoidi con 7,2 miliardi di dollari. Solo lo scorso anno gli investimenti hanno superato 1,6 miliardi, senza includere i soldi che Elon Musk ha sicuramente investito nel già citato Optimus. “Temo che si sia giunti al picco dell’hype”, ha spiegato, parlando con la MIT Tech Review, Leila Takayama, vicepresidente della società di robotica RobustAI. “È in corso una battaglia tra tutte le Big Tech, che devono ostentare e mostrare ciò che sono in grado di fare, promettendo di poter presto fare ancora di meglio”. ROBOT UMANOIDI: IL JOLLY DELL’INTEGRAZIONE COI MODELLI LINGUISTICI Ed è proprio per (provare a) soddisfare le aspettative degli investitori che tantissime startup stanno insistendo sulla strada dei robot umanoidi, nonostante le evidenti difficoltà, i fallimenti e le cautele mostrate anche dai colossi del settore (come la già citata Unitree). Una di queste è Shenzhen Dobot, che dovrebbe commercializzare il suo robot Dobot Atom entro la fine dell’anno al prezzo di circa 30mila euro. E che cosa si ottiene per un prezzo del genere? Nel video di presentazione – in cui è molto probabile che Atom fosse manovrato da remoto, come avviene quasi sempre nei materiali promozionali – lo si vede preparare goffamente la colazione, portare un pacco in ufficio e poco altro. Un po’ poco per una cifra del genere, no? La realtà è che le tantissime startup che stanno lavorando ai robot assistenti umanoidi – tra le altre: FigureAI (valutata 2,6 miliardi di dollari), Cobot (460 milioni), 1X (210 milioni), Sanctuary AI (229 milioni), Plus One (170 milioni) – sono ancora lontanissime dalla commercializzazione a prezzi accessibili di un robot realmente tuttofare. Per lo meno, sembrano però avere le idee chiare su quale sia la strada da seguire per raggiungere questa nuova “next big thing” del mondo tecnologico: l’integrazione dei robot con i large language model, che dovrebbero aiutare i robot a comprendere i comandi espressi in linguaggio naturale (input) e poi elaborarli al fine di trasformarli in un’azione concreta (output). Un esempio di come tutto ciò potrebbe funzionare proviene da Gemini Robotics: i modelli d’intelligenza artificiale sviluppati da Google per il mondo della robotica, basati su Gemini (il large language model di Google) e definiti come “modelli avanzati visione-linguaggio-azione”. Come si legge su Spectrum, “Gemini Robotics può ricevere tutti gli input e restituire istruzioni per azioni fisiche da parte di un robot”. In un video dimostrativo, un ingegnere spiega al robot usato nel laboratorio di “prendere il pallone da basket e schiacciarlo a canestro” (minuto 2:27 nel video qui sotto). Dopo aver ricevuto il comando, il braccio robotico afferra una palla da basket in miniatura e la deposita nel mini-canestro. Display "Gemini Robotics" from YouTube Click here to display content from YouTube. Learn more in YouTube’s privacy policy. Mostra sempre i contenuti da YouTube Open "Gemini Robotics" directly Come spiega la voce narrante nel video, “è un compito per il quale il robot non è mai stato addestrato”, così come gli oggetti che manovra “non erano mai stati visti prima, ma sfruttando la comprensione di concetti come ‘basket’ o ‘schiacciata’ di Gemini il computer ha comunque compreso il compito”. “Questo esempio del basket è uno dei miei preferiti: il robot è stato in grado di collegare questi concetti per portare a termine il compito nel mondo fisico”, ha dichiarato Kanishka Rao, responsabile ingegneristico del progetto, durante una conferenza stampa. L’idea, in sintesi, è che il robot attraverso gli LLM in essi integrati comprenda i comandi e sia in grado di portarli a termine, mettendoli in collegamento con la miriade di azioni diverse che –sfruttando il classico addestramento per tentativi ed errori – ha nel frattempo imparato a eseguire. Questa forma di “embodied intelligence” (intelligenza incorporata o incarnata) potrebbe essere la più promettente per lo sviluppo di robot capaci di assisterci in svariati compiti (come i large language model già fanno in ambito testuale). Gli ostacoli, però, non sono solo tecnici (pensate per esempio a quanto sia difficile per un robot capire che pressione esercitare quando afferra un uovo o avere la destrezza necessaria ad attaccare il guinzaglio al collare di un cane, compiti banali per noi umani), ma anche teorici. Come hanno spiegato i programmatori di Physical Intelligence (altra startup di robotica), “non esiste un archivio di azioni eseguibili dai robot simile ai dati relativi a testi e immagini disponibili per addestrare gli LLM. In ogni caso, ottenere i progressi necessari nel campo della ‘intelligenza fisica’ potrebbe richiedere una mole di dati esponenzialmente superiore”. “Le parole in sequenza, da un punto di vista dimensionale, sono un giocattolino rispetto al movimento e all’attività degli oggetti nel mondo fisico”, ha affermato Illah Nourbakhsh, esperto di robotica della Carnegie Mellon University. “I gradi di libertà che abbiamo nel mondo fisico sono di gran lunga superiori alle semplici lettere dell’alfabeto”. Una possibile soluzione è quella di far vedere ai robot migliaia (milioni?) di ore di video presenti su YouTube, che dovrebbero consentire loro anche di capire quale tipo di forza esercitare a seconda delle mansioni richieste e degli oggetti coinvolti. Un’altra possibile soluzione è di far compiere ogni tipo di azione domestica a degli esseri umani monitorati nei loro movimenti tramite sensori (trasformandoli così in dati analizzabili dalla macchina) oppure di permettere ai robot di esercitarsi liberamente, commettendo tutti gli errori necessari, in ambienti virtuali (in maniera simile a come alcune startup addestrano le auto autonome). È proprio seguendo quest’ultimo metodo che si è svolto l’addestramento di Neo della norvegese 1X. Addestramento però non ancora sufficiente, visto che in una delle sue più recenti dimostrazioni – durante la quale ha caricato una lavastoviglie, raccolto i vestiti da una lavatrice e pulito la superficie della cucina – era comunque manovrato da remoto. La strada, insomma, è ancora lunghissima e costellata di ostacoli, sotto forma di costi, sicurezza, privacy ed effettive abilità ancora molto ridotte. E tutto ciò senza nemmeno prendere in considerazione l’ostacolo forse più importante di tutti: se anche diventeranno effettivamente capaci, vorremo davvero avere un robot di forma umanoide, tuttofare e intelligente in casa nostra? PERCHÉ ROBOT ANTROPOMORFI? Giunti a questo punto, bisogna anche rispondere a un’ultima, cruciale, domanda: ma perché questi robot devono essere antropomorfi? Come detto, molti pensano che questo sia il modo migliore per permettere loro di navigare ambienti pensati dagli umani per gli umani. Ma non è tutto: “Attraverso questo tipo di design umanoide, stiamo vendendo una storia sui robot, come se in qualche modo fossero equivalenti a noi o a ciò che siamo in grado di fare”, ha spiegato alla MIT Tech Review il docente in Robotica Guy Hoffman. In altre parole, se costruisci un robot che assomiglia a un essere umano, le persone daranno per scontato che sia capace quanto un essere umano. Questo, però, potrebbe anche rivelarsi un boomerang: se la forma umana dei robot ci fa pensare ad abilità pari o vicine alle nostre, allora potremmo essere gravemente delusi dai loro movimenti lenti, goffi e scattosi. Forse questo è un primo ambito di design sul quale si può intervenire, e non soltanto per questioni ricollegabili alla Uncanny Valley (ovvero la sensazione di stupore e inquietudine che ci creano esseri artificiali che ricordano da vicino gli umani). Se anche il robot deve muoversi per casa e afferrare oggetti, ciò non significa che debba necessariamente avere delle gambe, possedere un torso o una testa. Potrebbe più semplicemente essere una sorta di “bidone” che si muove su ruote, dotato di due (o tre? Perché non sei?) braccia e che è in grado di inserire gli oggetti che afferra in un apposito scompartimento (semplificando anche il compito, difficilissimo per i robot, di mantenere l’equilibrio dopo aver preso in braccio qualcosa di pesante). “Il movimento bipede è il meno efficiente dal punto di vista energetico ed è la soluzione più dispendiosa: delle strutture cingolate o a ruote possono ottenere la stessa mobilità”, ha confermato Chen Guishun della startup cinese Innovance. D’altra parte, nemmeno gli antenati dell’essere umano si muovevano su due gambe, ci siamo evoluti così nel corso del tempo e ci ricordiamo del prezzo da pagare al cambiamento della nostra postura ogni volta che soffriamo di mal di schiena. Perché dovremmo riprodurre nei robot una delle nostre caratteristiche meno efficaci? Probabilmente, la scelta è ricaduta sui robot umanoidi per una serie di ragioni che hanno poco a che fare con la praticità e funzionalità. La prima è culturale: da oltre un secolo, la fantascienza – da Metropolis di Fritz Lang fino ad Asimov e Terminator – ci ha abituati all’idea che un robot debba avere sembianze umane. Questa immaginazione collettiva ha plasmato non solo le aspettative del pubblico, ma anche le aspirazioni degli ingegneri, influenzando la direzione della ricerca. La seconda ragione è comunicativa. Un robot umanoide, anche solo parzialmente simile a noi, attira immediatamente l’attenzione mediatica e degli investitori. In poche parole, genera hype: qualità fondamentale in un settore che sta ancora muovendo i primi passi. Non è un caso se aziende come Tesla, 1X o Unitree hanno puntato tutto sulla componente visiva: un robot che cammina su due gambe e afferra una tazza col braccio richiama molto più interesse di un sistema efficiente, ma anonimo, su ruote. “I robot umanoidi sono però la soluzione sbagliata per la maggior parte dei compiti e la biomimesi non è la risposta giusta”, ha scritto su Medium Brad Porter, fondatore di Collaborative Robotics. “Le ruote sono la risposta migliore in ogni ambiente commerciale, mentre la stabilità passiva – avere cioè almeno tre punti di contatto con il suolo, meglio se quattro – è di estremo valore. Conservare il carico all’interno del cono di stabilità invece che trasportarlo tra le braccia è anch’essa una soluzione migliore”. In poche parole, tra C1-P8 e D3-BO è molto più funzionale e utile il primo. D’altra parte, chiunque abbia visto la trilogia originale di Star Wars non ne ha mai avuto il minimo dubbio. L'articolo L’invasione dei robot domestici è ancora lontana proviene da Guerre di Rete.