Tag - Tecnologia

Google ha aiutato Israele a diffondere propaganda di guerra a 45 milioni di europei
Uno studio ha rilevato che, da quando ha colpito l’Iran il 13 giugno, l’Agenzia Pubblicitaria del Governo Israeliano ha speso decine di milioni in annunci pubblicitari solo su YouTube. Fonte: English version Di Alan MacLeod – 10 luglio 2025 Mentre continua il suo conflitto con i vicini, Israele sta combattendo un’altra guerra con altrettanta intensità, … Leggi tutto "Google ha aiutato Israele a diffondere propaganda di guerra a 45 milioni di europei" L'articolo Google ha aiutato Israele a diffondere propaganda di guerra a 45 milioni di europei proviene da Invictapalestina.
L’economia del genocidio e le aziende tecnologiche
LO STRAORDINARIO E NON SCONTATO ABBRACCIO DI SOLIDARIETÀ DAL BASSO A FRANCESCA ALBANESE, NEL MIRINO DELLE SANZIONI USA MA DA TEMPO MINACCIATA DI MORTE PER LE SUE POSIZIONI IN DIFESA DEI PALESTINESI, RISCHIA DI METTERE IN OMBRA IL SUO RAPPORTO IN CUI ACCUSA OLTRE SESSANTA MULTINAZIONALI DI TRARRE PROFITTO DAL GENOCIDIO A GAZA E DALL’OCCUPAZIONE DI ALTRI TERRITORI PALESTINESI. SILVIA RIBEIRO IN QUESTO ARTICOLO RICORDA I CONTENUTI DI QUEL RAPPORTO, CITA LE MAGGIORI IMPRESE DENUNCIATE (COME LOCKHEED, MARTIN, CHEVRON, BP, VOLVO, CATERPILLAR, MA ANCHE BOOKING.COM E AIRBNB CHE AFFITTANO CASE NEI TERRITORI OCCUPATI E OVVIAMENTE AZIENDE TECNOLOGICHE COME IBM, MICROSOFT, GOOGLE, AMAZON) E SPIEGA PERCHÉ UN GIORNO POTREBBE ESSERE RICORDATO COME UN PUNTO DI NON RITORNO Foto Casa Bettola Reggio Emilia -------------------------------------------------------------------------------- Il 3 luglio, la Relatrice Speciale delle Nazioni Unite (ONU) sui Territori Palestinesi Occupati, Francesca Albanese, ha presentato un rapporto intitolato “Dall’economia dell’occupazione all’economia del genocidio”, in cui accusa oltre sessanta multinazionali di trarre profitto dal genocidio a Gaza e dall’occupazione di altri territori palestinesi (From economy of occupation to economy of genocide). Menziona le più grandi aziende tecnologiche globali; società dedite al settore bellico, come Lockheed Martin; compagnie petrolifere come Chevron e BP; Volvo, Hyundai, Caterpillar e altre aziende che gestiscono macchinari specificamente progettati per il trasporto, la demolizione e la costruzione nelle aree occupate; Booking.com e Airbnb, che affittano case nei territori occupati; nonché trasportatori, banche, aziende agroalimentari e altri. Indica anche università e istituti accademici che stanno approfittando del disastro per avviare progetti sperimentali, molti dei quali finanziati dal programma Horizon dell’Unione Europea. “Mentre la vita a Gaza viene distrutta e la Cisgiordania è sottoposta a crescenti attacchi, questo rapporto mostra perché il genocidio israeliano continua: perché è redditizio per molti”, dice il rapporto. Le aziende hanno realizzato profitti record fornendo al Paese grandi volumi di armi e altri materiali “per attaccare una popolazione civile praticamente indifesa“. Per le aziende, l’attrattiva non è solo monetaria e di profitto; la guerra di Israele contro la Palestina è servita anche come “banco di prova, senza responsabilità o supervisione”, soprattutto per nuove armi e tecnologie. Sia l’industria bellica che le più grandi aziende tecnologiche globali, tra cui IBM, Microsoft, Google, Amazon, Palantir e Hewlett Packard, hanno sfruttato il genocidio per compiere un salto altamente redditizio nella sperimentazione di prodotti per uso militare. Dal 2024, Microsoft è anche partner strategico di Palantir, un’azienda di software specializzata in strumenti di intelligenza artificiale per scopi militari, forze dell’ordine, sorveglianza e simili. Palantir ha contratti con le forze armate, la polizia e le autorità per l’immigrazione statunitensi, ad esempio, per il tracciamento dei migranti. Nel 2024, ha firmato un contratto strategico con il ministero della Difesa israeliano a supporto dei suoi “sforzi bellici”, un fatto di cui si vanta pubblicamente. Dal 2021, Amazon e Alphabet (proprietaria di Google) si sono aggiudicate un importante contratto con l’esercito israeliano per la fornitura di servizi di archiviazione e utilizzo di database di grandi dimensioni nei loro cloud computing. Questo progetto con l’esercito israeliano è stato criticato dai dipendenti di entrambe le società fin dal momento della firma, ma ciò non ha impedito loro di proseguire con il redditizio progetto, fornendo un’ampia gamma di servizi derivanti dall’utilizzo delle loro piattaforme Azure e Cloud. Rapporti investigativi hanno rivelato che l’esercito israeliano ha utilizzato almeno tre diversi programmi di intelligenza artificiale (Lavender, Gospel e Where is Daddy) per tracciare, monitorare e attaccare i palestinesi, moltiplicando il numero e la velocità dei bombardamenti a Gaza, con impatti devastanti sulla popolazione civile. Non avrebbero potuto farlo senza la collaborazione di Amazon, Google e Microsoft (Inteligencia artificial y genocidio real). Un’altra azienda che ha collaborato attivamente con la guerra, ancor prima di ottenere l’autorizzazione ufficiale a intervenire, è Starlink, la società di internet satellitare di SpaceX, la società di Elon Musk. Questo è stato rivelato, come esempio da seguire, in un webinar per investitori organizzato dal ministero della Difesa israeliano nel maggio 2025, intitolato “Perché i venture capitalist scommettono sulla tecnologia della difesa”. L’evento ha esaltato le possibilità di profitto derivanti dalle attuali politiche di guerra di Israele (Wired). Il ruolo chiave che le grandi aziende tecnologiche stanno svolgendo nel promuovere forme più perverse di guerra, repressione, sorveglianza e controllo è inevitabile. Molte di loro hanno recentemente modificato la loro dichiarazione di “non guerra” per le loro tecnologie. Per ora, il rapporto esorta gli Stati a imporre embarghi e sanzioni su tutto il commercio di armi e altre attività che contribuiscono al genocidio, e la Corte Penale Internazionale a indagare e perseguire i dirigenti delle aziende coinvolte per la loro partecipazione a crimini internazionali. -------------------------------------------------------------------------------- Pubblicato su La Jornada (e qui con l’autorizzazione dell’autrice, traduzione di Comune). -------------------------------------------------------------------------------- LEGGI ANCHE QUESTO ARTICOLO DI MIMMO LUCANO: > Complici di un genocidio in diretta -------------------------------------------------------------------------------- L'articolo L’economia del genocidio e le aziende tecnologiche proviene da Comune-info.
Tutti con lo smartphone e quotidianamente su internet
Il 91% degli italiani ha uno smartphone e due italiani su tre possiedono smart tv e computer portatile. Solo la console e gli assistenti virtuali sono utilizzati soprattutto dalle fasce d’età più giovani, mentre il 90% degli italiani accede a internet tutti i giorni, il 48% per almeno 4 ore. I giovani adulti e gli adulti hanno il più alto livello di consumo, i minori e gli anziani il più basso. Sono alcuni dei risultati di una recente ricerca dell’AGCOM su “I fabbisogni di alfabetizzazione mediatica digitale”. Tra le attività più svolte online prevale l’acquisizione di informazioni e la ricerca di news (in particolare per adulti e anziani), la comunicazione con gli amici (il picco tra i grandi minori) e la fruizione di contenuti audiovisivi. L’80% degli italiani continua ad accedere ai media durante i pasti, guardando programmi televisivi in quattro casi su cinque, mentre il 20% tra i 6 e i 34 anni accede a social network e piattaforme di condivisione video. Otto genitori su dieci regolano poi l’accesso ai media dei figli, mentre il 13% impone il divieto assoluto e il 4,8% lascia totale libertà di utilizzo. Le regole più diffuse (adottate da 2 genitori su 10) sono limiti di tempo e fasce orarie nell’utilizzo dei media, il monitoraggio dell’uso da parte dei genitori e il blocco di specifici contenuti. Il 10,6% dei genitori modifica le impostazioni privacy degli account dei figli, ma solo il 12,5% parla dell’esperienza di navigazione online. I genitori over 45 e laureati utilizzano strategie di monitoraggio e co-using, mentre i più giovani e meno istruiti prediligono le restrizioni. 8 italiani su 10 si dichiarano poi preoccupati da una molteplicità di contenuti e attività considerati fonti di rischio, indifferentemente su tutti i mezzi di comunicazione; in particolare più di 4 italiani su dieci si dichiarano molto preoccupati per hate speech, contenuti illegali di diverso tipo, sfide social, disinformazione e cyberbullismo. Solo il 15% dei cittadini si dichiara molto preoccupato dalla presenza di contenuti audiovisivi non protetti dal diritto d’autore, mentre i minorenni si dichiarano meno preoccupati della media per tutti i contenuti e le attività fonti di rischio, più della metà degli anziani è molto preoccupata per hate speech, contenuti illegali di diverso tipo, sfide social. Dalla ricerca emerge inoltre come più della metà della popolazione italiana si sia imbattuta in contenuti di disinformazione, revenge porn e hate speech, e, in particolare, più di 4 italiani su 10 (43,5%) dichiarano di essersi imbattuti frequentemente in contenuti di disinformazione. Quest’ultima e l’hate speech rappresentano l’unico genere di contenuti analizzati per cui l’aumento del livello di preoccupazione degli utenti è associato a una diretta esperienza di fruizione del fenomeno. Circa tre minorenni su quattro hanno esperienza di fruizione di contenuti potenzialmente afferenti alla categoria di negative user-generated content, come sfide social, cyberbullismo, revenge porn, contenuti che incoraggiano disturbi alimentari e l’uso di sostanze stupefacenti illegali e contenuti di carattere sessuale non desiderati. Più di 8 cittadini su 10 svolgono comunque una qualche azione di contrasto quando si imbattono in attività/contenuti che rappresentano fattori di rischio, e in particolare più della metà evita di accedere a quel canale o testata o sito o piattaforma dopo essersi imbattuto in contenuti o attività fattori di rischio e circa un terzo dei cittadini verifica la fonte del contenuto o della notizia potenzialmente rischiosa. E più è alto il titolo di studio più cresce la frequenza di segnalazioni e verifiche. La maggior parte dei cittadini ripone un qualche livello di fiducia nelle capacità di differenti attori sociali ed economici di tutelare gli utenti. I minori hanno più fiducia nella scuola di altri soggetti e quasi la metà della popolazione (44,1%) non si rivolge ad alcun soggetto per avere indicazioni e suggerimenti per un utilizzo critico e consapevole dei mezzi di comunicazione. Una percentuale considerevole di minorenni si rivolge a famiglia (più della metà), insegnanti (circa un terzo) e, nel caso dei grandi minori, ad amici e compagni di scuola (30%). Più della metà della popolazione italiana dai 14 anni in su (58,9%) è a conoscenza del ruolo degli algoritmi di raccomandazione utilizzati dalle principali piattaforme online, ma con un grande divario tra gli anziani (il 35,9%) e i giovani adulti (il 73,3%). Solo il 7% degli italiani, però, ha un livello ottimale di alfabetizzazione algoritmica, mentre il 64,6% ha un livello nullo o scarso (l’83% tra gli anziani) e poco più di un quarto ha un livello discreto o buono. Il 48% della popolazione italiana è a conoscenza della possibilità di personalizzare la propria esperienza di fruizione sulle piattaforme online attraverso modalità di cura o segnalazione dei contenuti, con un livello di conoscenza superiore alla media per grandi minori e giovani adulti e nettamente inferiore alla media per gli anziani. Tra coloro che sono a conoscenza della possibilità di personalizzare la propria esperienza di fruizione sulle piattaforme online, l’80% dichiara di aver utilizzato almeno uno strumento di curation dei contenuti, e più del 60% di aver utilizzato almeno uno strumento di segnalazione dei contenuti, con differenti pattern di utilizzo tra fasce di età più evidenti per gli strumenti di segnalazione. Qui il Report di ricerca dell’Autorità per le Garanzie nelle Comunicazioni – AGCOM: REPORT MEDIA LITERACY   Giovanni Caprio
Chi controlla le terre rare controlla il mondo
Immagine in evidenza da Unsplash Quando a fine anni ’80 Deng Xiaoping affermò che “il Medio Oriente ha il petrolio, la Cina le terre rare”, in pochi diedero il giusto peso alla dichiarazione dell’allora leader della Repubblica Popolare cinese. Come invece sempre più spesso accade, il Dragone asiatico dimostrò di avere la capacità di immaginare e mettere in atto strategie di lungo termine: le terre rare, infatti, rappresentano oggi uno dei maggiori motivi di frizione geopolitica nel mondo, a causa dell’elevata richiesta e del loro complesso approvvigionamento, di cui la Cina detiene il monopolio. Praticamente nessun settore industriale ad alta tecnologia può farne a meno, da quello militare – per missili guidati, droni, radar e sottomarini – a quello medico, in cui sono impiegate per risonanze magnetiche, laser chirurgici, protesi intelligenti e molto altro ancora. Non fa eccezione il settore tecnologico e in particolare quello legato allo sviluppo e all’utilizzo dell’intelligenza artificiale. Come spiega Marta Abbà, fisica e giornalista esperta di temi ambientali, le terre rare possiedono qualità magnetiche uniche e sono eccellenti nel condurre elettricità e resistere al calore, e anche per questo risultano essenziali per la fabbricazione di semiconduttori, che forniscono la potenza computazionale che alimenta l’AI, per le unità di elaborazione grafica (GPU), per i circuiti integrati specifici per applicazioni (ASIC) e per i dispositivi logici programmabili (FPGA, un particolare tipo di chip che può essere programmato dopo la produzione per svolgere funzioni diverse).  Sono inoltre cruciali per la produzione di energia sostenibile: disprosio, neodimio, praseodimio e terbio, per esempio, sono essenziali per la produzione dei magneti utilizzati nelle turbine eoliche.  Senza terre rare, quindi, si bloccherebbe non solo lo sviluppo dell’intelligenza artificiale, ma anche quella transizione energetica che, almeno in teoria, dovrebbe accompagnarne la diffusione rendendola più sostenibile. Insomma, tutte le grandi potenze vogliono le terre rare e tutte ne hanno bisogno, ma pochi le posseggono. TERRE RARE, MINERALI CRITICI E AI Le terre rare (REE) sono un gruppo di 17 elementi chimici con proprietà simili e spesso presenti insieme nei minerali: lantanio, cerio, praseodimio, neodimio, promezio, samario, europio, gadolinio, terbio, disprosio, olmio, erbio, tulio, itterbio, lutezio, ittrio e scandio. Le materie prime critiche, di cui possono far parte anche alcune terre rare, sono invece quei materiali identificati dai vari governi come economicamente e strategicamente essenziali, ma che presentano un alto rischio di approvvigionamento a causa della concentrazione delle fonti e della mancanza di sostituti validi e a prezzi accessibili. Nel 2024 il Consiglio dell’Unione Europea ha adottato il Regolamento europeo sulle materie prime critiche, elencandone 34, di cui 17 definite “strategiche”, il cui controllo o accesso influisce direttamente su obiettivi di sicurezza, sviluppo tecnologico e autonomia industriale. Le terre rare, in realtà, spiega ancora Marta Abbà, non sono rare, ma la loro presenza nel mondo non è omogenea e l’estrazione e la lavorazione risultano molto costose e inquinanti.  Le maggiori riserve sono possedute dalla Cina, in cui ammontano, secondo le stime, a 44 milioni di tonnellate, con una capacità estrattiva che nel 2024 ha toccato la cifra di 270mila tonnellate all’anno. Altri stati che possiedono significative riserve sono il Brasile (21 milioni di tonnellate, attualmente ancora pochissimo sfruttate), l’Australia (5,7 milioni di tonnellate), l’India (6,9 milioni di tonnellate), la Russia (3,8 milioni di tonnellate) e il Vietnam (3,5 milioni di tonnellate).  A questo gruppo di paesi si è aggiunta di recente la Groenlandia, salita alla ribalta delle cronache per i suoi enormi giacimenti di materie prime critiche e per il conseguente interesse mostrato da Stati Uniti, Unione Europea e Cina. Il sito più rilevante, Kvanefjeld, nel sud dell’isola, è considerato uno dei più promettenti a livello globale e, secondo le stime della società che ne detiene la licenza estrattiva, potrebbe contenere fino al 15% delle riserve mondiali conosciute di terre rare. A far gola alle grandi potenze tecnologiche sono in particolare l’alluminio, derivato della bauxite, e il silicio, necessari per la produzione dei wafer (la base di silicio su cui vengono costruiti i microchip) e per l’isolamento dei chip, il niobio, utilizzato nei cavi superconduttori, il germanio, necessario per i cavi in fibra ottica utilizzati per la trasmissione di dati ad alta velocità, cruciale per l’AI, e ancora gallio, tungsteno, neodimio, ittrio, tutti componenti essenziali per l’industria dei microchip.    Per via delle loro applicazioni nell’industria high tech, molti di questi materiali ed elementi sono stati identificati come strategici sia dall’Unione Europea che dagli Stati Uniti e sono per questo oggetto di accordi e trattati bilaterali con i paesi produttori.  Nonostante la presenza di alcune riserve di terre rare in entrambe le regioni, il fabbisogno risulta infatti di gran lunga superiore alla capacità produttiva domestica, obbligando di fatto sia Washington che Bruxelles a importare le materie dall’estero, prima di tutto dalla Cina e in secondo luogo, per quanto riguarda l’Unione Europea, dalla Russia.  Per questo motivo, Dewardric L. McNeal, direttore e analista politico della società di consulenza Longview Global, ha affermato alla CNBC che “gli Stati Uniti devono ora trattare le materie prime critiche non come semplici merci, ma come strumenti di potere geopolitico. Come la Cina già fa”. IL POTERE DEL DRAGONE ASIATICO E LE RISPOSTE USA Dopo settimane di tensioni e accuse reciproche per i dazi imposti dall’amministrazione Trump, il governo di Pechino ha deciso di rallentare l’export di terre rare tra aprile e maggio, come già fatto in precedenza sia nel 2023 che nel 2024, quando alla scrivania dello studio ovale sedeva ancora Joe Biden e il tema caldo di discussione era l’isola di Taiwan. Per farsi un’idea della portata di questa mossa, basti pensare che, come stimato dal Servizio Geologico degli Stati Uniti (USGS), se la Cina imponesse un divieto totale sulle esportazioni dei soli gallio e germanio, minerali utilizzati in alcuni semiconduttori e in altre produzioni high tech, il PIL statunitense potrebbe diminuire di 3,4 miliardi di dollari. Anche per questo, il tono di Washington da inizio giugno è diventato più conciliante e il rapporto tra le due potenze si è andato normalizzando, fino ad arrivare il 28 giugno al raggiungimento di un accordo tra i due paesi. Nonostante i dettagli siano ancora scarsi, il segretario al Tesoro degli Stati Uniti, Scott Bessent, ha dichiarato che la Cina ha accettato di facilitare l’acquisizione da parte delle aziende americane di magneti, terre rare cinesi e altri materiali fondamentali per l’industria tecnologica.  Quella che Trump ha festeggiato come una sua grande vittoria diplomatica, ha però reso ancor più evidente come le catene di approvvigionamento dei minerali critici siano molto concentrate, fragili e soprattutto troppo esposte all’influenza e al controllo di Pechino. Come abbiamo visto, la Cina è il paese in cui si trovano le maggiori riserve mondiali di terre rare, ma non è solo questo elemento a spostare l’ago della bilancia geopolitica a favore del dragone asiatico. L’influenza della Cina abbraccia infatti anche i paesi “amici”, come la Mongolia e il Myanmar, secondo produttore mondiale di terre rare pesanti (più scarse e più difficili da separare), le cui principali operazioni minerarie sono significativamente partecipate da Pechino, estendendo ulteriormente il controllo effettivo della potenza asiatica. La posizione dominante della Cina è determinata anche dal fatto di possedere il monopolio di fatto della raffinazione, cioè la complessa operazione metallurgica per trasformare la materia prima grezza in materiali utilizzabili. Un processo non solo complesso, ma altamente inquinante e di conseguenza quasi impossibile da eseguire in Europa o negli Stati Uniti, a causa dei più elevati standard di compliance ambientale che ne farebbero schizzare il costo alle stelle.  Il processo di raffinazione richiede infatti un uso estensivo di sostanze chimiche, in particolare acidi forti (come l’acido solforico, nitrico o cloridrico) per separare le terre rare dai minerali a cui sono legate, creando delle scorie tossiche molto difficili da smaltire, se si seguono, appunto, standard elevati di tutela ambientale. Un esempio del devastante impatto ambientale di questo processo è particolarmente visibile nella città di Baotou, nella vasta area industriale della regione cinese della Mongolia Interna, dove il panorama è dominato da un lago artificiale del diametro di circa 9 chilometri, composto interamente da fanghi neri e sostanze chimiche tossiche, risultato degli sversamenti di rifiuti di scarto derivanti dall’estrazione e raffinazione delle terre rare. L’Occidente, in pratica, ha scelto di esternalizzare le negatività ambientali derivanti dall’estrazione di terre rare in Cina e questa, da parte sua, ha accettato di buon grado, dando priorità al potere economico e geopolitico che ne deriva rispetto alla salute dei suoi cittadini e alla tutela del proprio ambiente naturale. La dipendenza delle catene di approvvigionamento occidentali diventa ancor più evidente se si prende come esempio la miniera di Mountain Pass in California, una delle maggiori operazioni statunitensi nel settore delle terre rare. Nonostante produca circa il 15% degli ossidi di terre rare a livello globale, si trova a dover inviare l’intera produzione in Cina per le fasi di separazione e raffinazione.  Per questo motivo, il Pentagono nel 2020 ha assegnato 9,6 milioni di dollari alla società MP Materials per la realizzazione di un impianto di separazione di terre rare leggere a Mountain Pass. Nel 2022, sono stati investiti ulteriori 35 milioni di dollari per un impianto di trattamento di terre rare pesanti. Questi impianti, spiega il Center for Strategic and International Studies, sarebbero i primi del loro genere negli Stati Uniti, integrando completamente la catena di approvvigionamento delle terre rare, dall’estrazione, separazione e lisciviazione (un processo chimico che serve a sciogliere selettivamente i metalli desiderati dal minerale) a Mountain Pass, fino alla raffinazione e produzione di magneti a Fort Worth, in Texas. Tuttavia, anche quando saranno pienamente operativi, questi impianti saranno in grado di produrre solo mille tonnellate di magneti al neodimio-ferro-boro entro la fine del 2025 — meno dell’1% delle 138mila tonnellate prodotte dalla Cina nel 2018. Non sorprende, dunque, che gli Stati Uniti, come vedremo, stiano cercando strade alternative in grado di diversificare maggiormente la propria catena di approvvigionamento di questi materiali. Ne è un esempio l’accordo fortemente voluto dall’amministrazione USA con l’Ucraina che, dopo un tira e molla di diverse settimane, culminato con la furiosa lite di fine febbraio nello studio ovale tra Donald Trump e JD Vance da una parte e Volodymyr Zelensky dall’altra, ha infine visto la luce a inizio maggio. L’accordo, in estrema sintesi, stabilisce che l’assistenza militare americana sarà considerata parte di un fondo di investimento congiunto dei due paesi per l’estrazione di risorse naturali in Ucraina. Gli Stati Uniti si assicurano inoltre il diritto di prelazione sull’estrazione mineraria pur lasciando a Kiev l’ultima parola sulle materie da estrarre e l’identificazione dei siti minerari. L’accordo stabilisce infine che la proprietà del sottosuolo rimarrà all’Ucraina, cosa non scontata date le precedenti richieste da parte di Washington in tal senso. Quello con l’Ucraina è solo uno dei tanti tavoli di trattativa aperti dalle diverse amministrazioni statunitensi con paesi ricchi di materie critiche: dall’Australia al vicino Canada, passando per il Cile, ricchissimo di litio, e poi ancora il Brasile, dove si estrae il 90% del niobio utilizzato per la produzione di condensatori, superconduttori e altri componenti ad alta tecnologia, e il Vietnam, con cui l’allora presidente Joe Biden ha siglato un accordo di collaborazione nel settembre 2023. È evidente come gli Stati Uniti, da diversi anni, stiano mettendo in campo tutte le risorse economiche e diplomatiche a disposizione per potersi assicurare il necessario approvvigionamento di materie critiche e terre rare, senza le quali la Silicon Valley chiuderebbe i battenti in pochi giorni. LA GLOBAL GATEWAY EUROPEA In Europa la situazione è anche peggiore rispetto agli Stati Uniti. Non solo l’Unione Europea importa oltre il 98% delle terre rare raffinate, con la Cina ovviamente nel ruolo di principale fornitore, ma è anche sprovvista di giacimenti importanti. Uno dei pochi siti promettenti è stato individuato nel 2023 a Kiruna, nella Lapponia svedese, e secondo l’azienda mineraria di stato svedese LKAB potrebbe arrivare a soddisfare, una volta a pieno regime, fino al 18% del fabbisogno europeo di terre rare.  C’è però un enorme problema, oltre a quello già descritto dell’impatto ambientale: è difficile pensare che possa entrare in produzione prima di almeno una decina di anni. Troppi, considerato che le battaglie per la supremazia tecnologica e per la transizione energetica si stanno combattendo ora. Un discorso a parte merita la Groenlandia, territorio autonomo posto sotto la Corona danese, ricchissima di materie prime critiche, terre rare e anche uranio, ma dove le leggi attuali sono molto restrittive in termini di estrazione e che, per di più, è entrata nel mirino dell’amministrazione Trump, diventando oggetto di forti frizioni politiche.  L’interesse dell’Unione Europea nei confronti della grande isola artica è sancito dall’accordo firmato nel novembre del 2023 tra le due parti, che dà il via a un nuovo partenariato strategico tra i due soggetti, il cui cuore pulsante è rappresentato dallo sfruttamento congiunto delle materie prime. Anche in questo caso, però, come per il giacimento di Kiruna, si tratta di un progetto a lungo termine che difficilmente potrà vedere la luce e dare risultati concreti in tempi brevi. L’Unione Europea ha quindi deciso di muoversi sulla scia degli Stati Uniti e della “Nuova Via della Seta” cinese, cercando di chiudere accordi bilaterali di investimento e scambio commerciale con diversi paesi ricchi di materie prime critiche. La strategia “Global Gateway” lanciata nel 2021 rappresenta uno dei più grandi piani geopolitici e di investimento dell’Unione, che ha messo sul tavolo oltre 300 miliardi di euro fino al 2027, con l’obiettivo dichiarato, tra gli altri, di diversificare le fonti di approvvigionamento delle materie critiche. La Global Gateway, a cui si è aggiunto nel 2023 il Critical Raw Material Act, che pone obiettivi specifici di approvvigionamento al 2030, ha portato a diversi accordi fondamentali per la sopravvivenza dei piani di transizione digitale ed energetica del continente: Argentina, Cile e Brasile in America Latina; Kazakistan, Indonesia e Mongolia in Asia; Namibia, Zambia, Uganda e Rwanda in Africa sono alcuni dei paesi con cui la Commissione Europea ha già siglato delle partnership strategiche o ha intavolato delle discussioni di alto livello per agevolare degli investimenti comuni nell’estrazione di terre rare, proprio come fatto dagli Stati Uniti con l’Ucraina.   Considerata la volontà dell’Unione Europea di competere nel settore dell’intelligenza artificiale, quantomeno per ciò che riguarda l’espansione dei data center sul territorio, una robusta e diversificata rete di approvvigionamento delle materie prime critiche è fondamentale. Come si legge infatti sul sito della Commissione Europea, “nel corso del 2025, la Commissione proporrà il Cloud and AI Development Act, con l’obiettivo almeno di triplicare la capacità dei data center europei nei prossimi 5-7 anni e di soddisfare appieno il fabbisogno delle imprese e delle pubbliche amministrazioni europee entro il 2035. La legge semplificherà l’implementazione dei data center, individuando siti idonei e snellendo le procedure autorizzative per i progetti che rispettano criteri di sostenibilità e innovazione. Allo stesso tempo, affronterà la crescente domanda energetica promuovendo l’efficienza energetica, l’adozione di tecnologie innovative per il raffreddamento e la gestione dell’energia, e l’integrazione dei data center all’interno del sistema energetico più ampio”. Il piano non solo è ambizioso in termini di obiettivi, ma tiene strettamente legate le due facce della strategia generale europea, ovvero lo sviluppo tecnologico e la transizione verde entro il quale deve essere inquadrato. Impossibile pensare di fare l’uno o l’altra, tantomeno entrambi, senza le materie prime necessarie.  AFRICA, VECCHIA E NUOVA TERRA DI CONQUISTA In questo quadro geopolitico già di per sé complesso, un discorso a parte meritano i paesi del Sud Globale e in particolare quelli africani, che come si è visto sono quelli in cui si trovano le maggiori riserve di materie prime critiche e terre rare.   Il timore, come già raccontato nel reportage dall’AI Summit di Parigi, è che ancora una volta si vada a configurare un modello di estrattivismo colonialista, in cui i paesi più ricchi, dove avviene la produzione di tecnologia, si arricchiranno ancor di più, mentre i paesi più poveri, da dove vengono prelevate le materie prime, subiranno i devastanti impatti sociali e ambientali di queste politiche. Il rapporto “Rare Earth Elements in Africa: Implications for U.S. National and Economic Security”, pubblicato nel 2022 dal Institute for Defense Analyses, una società senza scopo di lucro statunitense, è molto esplicito nel prevedere un aumento dell’influenza del continente africano nel settore e le problematiche che ciò può comportare. “Man mano che le potenze globali si rivolgono ai mercati africani per rafforzare la propria influenza”, si legge nell’executive summary del rapporto, “è probabile che l’estrazione delle terre rare nel continente aumenti. In Africa si contano quasi 100 giacimenti di terre rare, distribuiti in circa la metà dei paesi del continente. Cinque paesi — Mozambico, Angola, Sudafrica, Namibia e Malawi — ospitano da soli la metà di tutti i siti di giacimento di terre rare in Africa. Attualmente, otto paesi africani registrano attività estrattiva di REE, ma a gennaio 2022 solo il Burundi disponeva di una miniera operativa in grado di produrre a livello commerciale. Tuttavia, altri paesi potrebbero raggiungere presto capacità produttive simili”. La parte che più interessa in questo frangente è però il punto in cui i ricercatori sottolineano come “la gestione delle risorse naturali in Africa e gli indicatori di buona governance devono migliorare, se si vuole garantire che i minerali di valore non portino benefici solo alle imprese americane, ma anche ai cittadini africani”. Considerando che la “Academy of international humanitarian law and human rights” dell’Università di Ginevra ha mappato 35 conflitti armati attualmente in corso nell’Africa subsahariana, di cui molti hanno proprio come causa il possesso delle risorse minerarie, sembra difficile prevedere che questa volta la storia prenda una strada diversa da quella già percorsa in passato. ROTTE ALTERNATIVE In virtù delle complessità descritte per l’approvvigionamento delle terre rare e, più in generale, delle materie prime critiche, alcune società stanno sperimentando delle vie alternative per produrle o sostituirle. La società britannica Materials Nexus, per esempio, ha dichiarato a inizio giugno di essere riuscita a sviluppare, grazie alla propria piattaforma di AI, una formula per produrre magneti permanenti senza l’utilizzo di terre rare. La notizia, ripresa dalle maggiori testate online dedicate agli investimenti nel settore minerario, ha subito destato grande interesse, non solo perché aprirebbe una strada completamente nuova per i settori tecnologico ed energetico, ma perché sarebbe uno dei primi casi in cui è l’intelligenza artificiale stessa a trovare una soluzione alternativa per il suo stesso sviluppo. Secondo Marta Abbà, se anche la notizia data da Material Nexus dovesse essere confermata, ci vorrebbero comunque anni prima di arrivare alla messa in pratica di questa formula alternativa. Sempre che – cosa per nulla scontata – la soluzione non solo funzioni davvero, ma si dimostri anche sostenibile a livello economico e a livello ambientale. È più realistico immaginare lo sviluppo di un’industria tecnologicamente avanzata in grado di riciclare dai rifiuti sia le terre rare che gli altri materiali critici, sostiene Abbà. Prodotti e dispositivi dismessi a elevato contenuto tecnologico possono in tal senso diventare delle vere risorse, tanto che l’Unione Europea ha finanziato 47 progetti sperimentali in questa direzione. Tra questi, c’è anche un promettente progetto italiano: Inspiree, presso il sito industriale di Itelyum Regeneration a Ceccano, in provincia di Frosinone. È il primo impianto in Europa per la produzione di ossidi e carbonati di terre rare (neodimio, praseodimio e disprosio) da riciclo chimico di magneti permanenti esausti. L’impianto di smontaggio, si legge nel comunicato di lancio del progetto, potrà trattare mille tonnellate all’anno di rotori elettrici, mentre l’impianto idrometallurgico a regime potrà trattare duemila tonnellate all’anno di magneti permanenti ottenuti da diverse fonti, tra cui anche hard disk e motori elettrici, con il conseguente recupero di circa cinquecento tonnellate all’anno di ossalati di terre rare, una quantità sufficiente al funzionamento di un milione di hard disk e laptop, e di dieci milioni di magneti permanenti per applicazioni varie nell’automotive elettrico. Nonostante questi progetti, l’obiettivo europeo di coprire entro il 2030 il 25% della domanda di materie prime critiche, tra cui le terre rare, grazie al riciclo, appare ancora molto distante, considerando che a oggi siamo appena all’1%. La strada dell’economia circolare è sicuramente incerta, lunga e tortuosa, ma allo stesso tempo più sostenibile di quella estrattivista e in grado di garantire una strategia di lungo periodo per il continente europeo. L'articolo Chi controlla le terre rare controlla il mondo proviene da Guerre di Rete.
I Costi Planetari dell’Intelligenza Artificiale
“Artificial Intelligence is neither artificial nor intelligent.” – Kate Crawford, Atlas of AI CHE COS’È DAVVERO L’INTELLIGENZA ARTIFICIALE? Oggi l’Intelligenza Artificiale (IA) viene spesso presentata come una forza astratta, inevitabile, quasi naturale. È descritta con toni mitici: un’entità autonoma e neutrale capace di apprendere, decidere, persino “pensare”. Tuttavia, questa rappresentazione maschera la sua vera natura: l’IA non è una magia, né una creatura indipendente. È un artefatto tecnico, economico e sociale, costruito da esseri umani in contesti specifici, con obiettivi precisi. I sistemi di intelligenza artificiale non “capiscono” il mondo nel senso umano del termine. Non hanno coscienza, intenzioni o consapevolezza. Funzionano attraverso la raccolta e l’elaborazione di enormi quantità di dati, applicando modelli statistici per individuare schemi, correlazioni e probabilità, categorizzando, classificando, prevedendo e automatizzando. In questo processo, le dimensioni complesse, relazionali e contestuali della vita vengono spesso appiattite in punti dati standardizzati e obiettivi di efficienza. Ciò che non può essere quantificato viene tipicamente escluso; ciò che non può essere previsto viene spesso svalutato. L’IA quindi non è un’entità neutra. È un sistema progettato, addestrato e valutato attraverso scelte umane. Ed è proprio da queste scelte che dobbiamo partire per capirne i costi—non solo computazionali, ma ecologici, sociali, politici. L’IA NON ESISTE SENZA LA TERRA Dietro l’apparente immaterialità dell’Intelligenza Artificiale – assistenti virtuali, generatori di immagini, auto autonome, sistemi di riconoscimento facciale e targeting in scenari di guerra – si nasconde una infrastruttura materiale colossale. L’IA vive in data center, server, cavi sottomarini, satelliti, batterie e sensori. Ogni operazione che sembra avvenire nell’etere si basa su un ciclo estrattivo che parte dalla Terra: litio, cobalto, nichel, rame, silicio. L’industria dell’IA è inseparabile da catene di approvvigionamento globali segnate da sfruttamento umano, disuguaglianze geografiche e impatti ambientali devastanti. Anche a causa della crescente domanda di tecnologie legate all’intelligenza artificiale, la ricerca di nuove fonti di materiali critici ha subito un’accelerazione senza precedenti. Questo processo non solo minaccia ecosistemi fragili e complessi, ma mette seriamente a rischio anche le culture e la sopravvivenza delle popolazioni locali, in particolare nei Paesi del Sud globale. Alcuni esempi sono in Africa australe e subsahariana, nella Repubblica Democratica del Congo dove oltre il 70% del cobalto mondiale viene estratto, o in paesi come il Madagascar, il Mozambico e il Sudafrica, coinvolti nell’estrazione di grafite e terre rare. Il Sud America con il “triangolo del litio” – che comprende Argentina, Bolivia e Cile – al centro di un boom minerario.. Le comunità locali non traggono reale beneficio economico dall’attività estrattiva, ma ne subiscono le conseguenze in termini di inquinamento dell’acqua, deforestazione e conflitti armati alimentati dal controllo delle risorse. Questi fenomeni rivelano come la transizione tecnologica e digitale globale sta riproducendo disuguaglianze profonde, spostando ancora una volta il peso ambientale e sociale sulle spalle delle comunità più vulnerabili. Oltre a ciò, i paesi industrializzati, con quelli europei in prima linea, manifestano una voracità tale per queste materie prime da puntare ora a ricavare le stesse risorse all’interno dei propri confini. Così l’estrazione di materie prime critiche in Europa viene presentata non solo come una scelta geopoliticamente più sicura, ma anche come una svolta etica rispetto allo sfruttamento delle risorse nei paesi del Sud globale. Dietro questa narrazione apparentemente virtuosa, si cela in realtà una continuità profonda con le logiche di potere e appropriazione del passato. Cambiano i luoghi e le giustificazioni, ma il paradigma resta lo stesso: assicurarsi il controllo delle risorse, ovunque esse siano, per mantenere un vantaggio strategico in un’economia globale sempre più competitiva e vorace. I metodi estrattivi sono spesso estremamente invasivi. Le miniere a cielo aperto comportano la rimozione massiccia di suolo e vegetazione, mentre le miniere sotterranee pongono problemi di instabilità del terreno e infiltrazioni. L’estrazione di terre rare trasforma ampie zone in paesaggi lunari, con gravi impatti sulla salute delle comunità locali per via delle polveri tossiche e del rilascio di radionuclidi. Inoltre per poter estrarre le risorse, i territori devono essere resi “accessibili”. Questo comporta la costruzione di strade, impianti di trattamento, oleodotti. Queste infrastrutture, spesso imposte senza consultazione, trasformano aree ecologicamente intatte in distretti industriali.  Una volta estratte, le materie prime devono essere raffinate. Questo processo richiede grandi quantità di acqua, energia e sostanze chimiche aggressive. Gli abitanti vicino ai principali centri di raffinazione delle terre rare soffrono di malattie respiratorie, cancro e infertilità, mentre le acque e i suoli agricoli vengono contaminati da metalli pesanti e altri inquinanti. Tutto questo rimane in gran parte escluso dal dibattito pubblico. L’estrattivismo che sostiene l’IA è spesso geograficamente distante dai centri in cui questa viene progettata, venduta o discussa. Questa distanza genera una forma di dislocazione epistemica e ambientale, che alimenta l’illusione dell’immaterialità del digitale e rende difficile cogliere il vero costo umano ed ecologico della sua produzione. DAI MINERALI AI MICROCHIP – LA PRODUZIONE INVISIBILE L’impatto dell’IA non si esaurisce con l’estrazione delle materie prime: anche la fabbricazione dei semiconduttori – componenti essenziali di ogni dispositivo che impiega intelligenza artificiale – rappresenta una delle attività industriali più complesse, energivore e inquinanti. Eppure, questa fase della filiera produttiva rimane spesso ai margini dell’attenzione pubblica e mediatica, oscurata dal fascino dei prodotti finiti o dalle promesse dell’innovazione. La produzione di un singolo wafer di silicio da 30 cm può richiedere fino a 8.000 litri di acqua ultrapura, necessaria per garantire la precisione estrema dei processi. Nel complesso, il settore dei semiconduttori consuma ogni anno circa 40 miliardi di litri d’acqua (Silicon Valley Water Association), con impatti enormi in termini di stress idrico, consumo energetico e produzione di rifiuti chimici. Secondo l’International Energy Agency (IEA), la domanda di minerali per tecnologie digitali e green è destinata a quadruplicare entro il 2040.  Dopo la produzione, i microchip vengono inviati per l’assemblaggio in grandi impianti situati prevalentemente in Asia: Cina, Malesia e Vietnam rappresentano oggi oltre il 50% della capacità globale in questo campo (OECD, 2023). Questi hub produttivi attraggono investimenti grazie al basso costo della manodopera e a normative poco stringenti. Tuttavia, dietro il mito della “fabbrica efficiente” si nasconde una realtà fatta di salari minimi, turni massacranti e carenza di diritti. Secondo Human Rights Watch, molte lavoratrici e lavoratori del settore elettronico operano in condizioni di forte stress, senza tutele per la salute o la sicurezza, e con scarsa possibilità di migliorare la propria condizione. Prima di arrivare nei negozi e nelle nostre mani, i dispositivi intelligenti vengono testati e confezionati in hub come Shenzhen (Cina), Chennai (India) o Guadalajara (Messico). È qui che si verifica la qualità, si confezionano i prodotti finali e si prepara la loro immissione sul mercato globale.  Ogni tappa aggiunge un ulteriore strato alla rete produttiva: un sistema logistico e industriale ipercomplesso, in cui i passaggi tra continenti sono scanditi da algoritmi, contratti e zone franche. Una rete che si regge su un equilibrio fragile, continuamente esposto a crisi geopolitiche, pandemie, sanzioni commerciali e guerre. Il risultato di questa lunga catena è un ecosistema produttivo che consuma risorse e devasta territori, diretta conseguenza di una dinamica tipica del capitalismo: gli attori responsabili, mossi da una visione miope e ottusa, ignorano deliberatamente le conseguenze pur di massimizzare il profitto a breve termine. ADDESTRARE LA MACCHINA – IL CONSUMO COMPUTAZIONALE L’addestramento dei modelli di IA è oggi una delle operazioni computazionali più costose e impattanti al mondo. È qui che i sistemi “imparano” a riconoscere immagini, comprendere il linguaggio, imitare comportamenti umani, ma a quale prezzo? Per addestrare i cosiddetti modelli di linguaggio di grandi dimensioni (LLM), come GPT o PaLM, occorre elaborare colossali quantità di dati — interi archivi digitali, milioni di siti web, libri, immagini, conversazioni – di cui aziende private si appropriano in maniera indebita, senza alcun limite o consenso. Questo avviene attraverso calcoli ripetuti su enormi cluster di GPU (unità di elaborazione grafica ad alta performance), localizzati in centri dati che consumano enormi quantità di energia e acqua. Secondo uno studio dell’Università del Massachusetts, addestrare un singolo modello di linguaggio può emettere oltre 284 tonnellate di CO₂. Una ricerca più recente pubblicata su Nature Machine Intelligence ha evidenziato che i consumi elettrici possono superare quelli di intere città medie europee, soprattutto se alimentati da fonti fossili. Anche in questa fase si cela un importante consumo idrico. I data center che ospitano i server per l’IA necessitano di sistemi di raffreddamento costanti. Secondo Google, nel solo 2022 i suoi data center hanno consumato oltre 21 miliardi di litri d’acqua per mantenere le infrastrutture a temperature ottimali. IL LAVORO UMANO DIETRO L’AUTOMAZIONE Mentre nei centri del capitalismo tecnologico si esalta la “macchina che pensa”, si oscura deliberatamente la realtà materiale del lavoro vivo che rende possibile l’intelligenza artificiale. L’IA non è il frutto di una generazione spontanea di innovazione, ma una tecnologia costruita sul lavoro umano sistematicamente svalorizzato. Dietro questi algoritmi c’è una forza lavoro globale frammentata e invisibilizzata, impiegata in forme di lavoro digitale che riproducono le stesse dinamiche di sfruttamento del capitalismo industriale, ma su scala planetaria. Milioni di lavoratori e lavoratrici, situati in paesi come Kenya, India, Venezuela e Filippine, svolgono compiti essenziali per l’addestramento dei modelli: annotano dati, classificano immagini, trascrivono testi, filtrano contenuti violenti o sessuali, e forniscono giudizi che orientano ciò che i modelli “imparano”. Si tratta di lavoro alienato, parcellizzato e dequalificato, che viene espropriato del suo valore per essere trasformato nelle mani delle grandi piattaforme dell’IA. Questo esercito industriale-digitale lavora in condizioni precarie, senza tutele né contratti stabili, e spesso con compensi miseri. La loro estraneità al prodotto finale è totale: pur svolgendo un ruolo fondamentale nella formazione delle “intelligenze” artificiali, non hanno alcun controllo né riconoscimento sul valore che producono. Un altro aspetto fondamentale, spesso trascurato, è che il “mondo” che una macchina impara a conoscere non è oggettivo né neutrale, ma il prodotto delle categorie, dei giudizi e delle ideologie dominanti. I sistemi di intelligenza artificiale non apprendono dalla realtà in sé, ma da dati preesistenti che riflettono relazioni sociali, storiche e culturali già segnate da disuguaglianze. Potremmo dire che l’IA interiorizza l’ideologia della classe dominante, naturalizzando criteri e valori che sono tutt’altro che universali. Prima ancora di chiederci se una macchina debba poter “giudicare” un pesce – o qualunque altra cosa – dal suo aspetto, dovremmo chiederci chi decide cosa è rilevante, cosa è giusto, cosa è normale. La macchina non fa altro che replicare, su scala automatizzata, decisioni umane preesistenti, spesso guidate da logiche di efficienza, controllo e standardizzazione.  In altre parole, l’IA non solo automatizza processi cognitivi: automatizza anche i pregiudizi, le esclusioni e le visioni del mondo proprie del contesto storico e sociale in cui viene costruita. È il trionfo dell’ideologia sotto forma di codice: l’apparenza di razionalità tecnica maschera scelte profondamente politiche. E così, ciò che appare come una semplice “classificazione automatica” è in realtà l’estensione di una forma di dominio. IA PER IL CONTROLLO DEL LAVORO L’intelligenza artificiale emerge come l’ennesima forma in cui il capitale mercifica e sussume il lavoro umano: essa esiste solo grazie ad esso, ma allo stesso tempo lo trasforma radicalmente, lo sorveglia e ne riduce il valore. Nel contesto produttivo contemporaneo, l’IA viene presentata come uno strumento per semplificare, aiutare, “liberare” il lavoratore da compiti ripetitivi. In realtà, riduce le mansioni a funzioni meccaniche, standardizzabili, svuotate di contenuto umano e soggettività. Le competenze vengono svalutate e il lavoratore diventa sempre più intercambiabile, subordinato al flusso continuo di comandi generati da sistemi algoritmici. Nei luoghi di lavoro digitalizzati – dalle catene di montaggio ai call center – l’autonomia si dissolve. L’algoritmo assegna compiti, tempi, modalità, e giudica la performance. Questo non è solo un caso di efficienza tecnica, ma una forma avanzata di alienazione, in cui non è più soltanto il corpo ad essere disciplinato, ma anche il pensiero. Come ha osservato Shoshana Zuboff, non siamo solo di fronte a una meccanizzazione dei corpi, ma a una vera e propria automazione del pensiero. Il lavoro cognitivo – la capacità di decidere, valutare, adattarsi – viene progressivamente trasferito al sistema informatico. Non è più l’operaio, il rider o l’operatrice di call center a gestire la propria attività: è la macchina che detta ogni passaggio, riducendo il lavoratore a un esecutore silenzioso. Il rider non può scegliere il percorso migliore: l’app glielo assegna, calcolando tempi e priorità in base a logiche che sfuggono al suo controllo. Analogamente, nei centri di smistamento di Amazon, i lavoratori della logistica sono sottoposti a un controllo algoritmico implacabile: il loro scanner non solo indica quale pacco prendere e dove riporlo, ma monitora costantemente i tempi di esecuzione, segnalando ogni minima deviazione dagli standard prefissati. Questo sistema non lascia spazio a decisioni autonome, come ottimizzare i propri movimenti o gestire pause non previste, trasformando ogni gesto in un anello di una catena determinata da un’intelligenza artificiale. L’operatrice non costruisce un discorso sulla base della conversazione reale: segue uno script generato da un algoritmo che ottimizza efficienza e risultati. In entrambi i casi, la capacità di pensare in modo autonomo, di improvvisare, di usare l’esperienza, viene degradata. L’intelligenza non scompare, ma viene espropriata dal lavoratore e riassegnata alla macchina, che diventa il vero cervello operativo del processo produttivo. Questa logica produce dipendenza funzionale: più l’IA guida, corregge, anticipa, più il lavoratore viene sollevato dallo sforzo — e disabituato all’autonomia. Con il tempo, l’intelletto stesso si atrofizza, in quello che alcuni studiosi definiscono “regresso cognitivo”: capacità un tempo diffuse – orientarsi, scegliere, argomentare – si perdono sotto la pressione di sistemi che “semplificano” per conto nostro. È una forma di sottomissione cognitiva al capitale, mascherata da progresso. L’IA E LA FORMAZIONE Anche in ambito educativo e formativo, questa logica è ormai una realtà consolidata. Le tecnologie di intelligenza artificiale vengono introdotte con la promessa di rendere l’apprendimento più “personalizzato” e accessibile, ma nella pratica stanno contribuendo a standardizzare il pensiero, a uniformare i percorsi formativi e a limitare la libertà di apprendere in modo critico. L’IA, presentata come un catalizzatore di conoscenza, finisce per trasformare il processo formativo in una mera trasmissione di informazioni pre-digerite, riducendo lo spazio per la riflessione autonoma e la costruzione personale del sapere. Sistemi di tutoring automatizzato, valutazione predittiva e scrittura assistita non valorizzano l’errore creativo, la sperimentazione o l’ambiguità: al contrario, tendono a guidare gli studenti e i discenti verso risposte già riconosciute come corrette, riproducendo modelli consolidati e scoraggiando ogni deviazione dal percorso “ottimale” definito dall’algoritmo. Un esempio evidente è l’uso crescente di piattaforme educative come Khan Academy, che oggi integra un assistente AI (Khanmigo) per seguire passo passo gli studenti nei compiti. L’intelligenza artificiale suggerisce risposte, guida la risoluzione degli esercizi e segnala quando uno studente “devia” troppo dal percorso previsto. Anche se viene presentata come una guida, di fatto incanala l’apprendimento entro schemi precostituiti, limitando la possibilità di approcci alternativi o ragionamenti fuori standard. Chi non rientra nel modello – chi pensa lateralmente, chi formula ipotesi insolite – viene corretto o riportato sulla “strada giusta”. Così, i luoghi della formazione si trasformano sempre più in luoghi di addestramento alla conformità. L’insegnamento si piega sempre di più alle logiche dell’ottimizzazione: apprendere non significa più esplorare, sbagliare, costruire un pensiero proprio, ma aderire a un modello ideale predefinito, con il rischio concreto di formare individui capaci di eseguire, ma sempre meno abili a interrogarsi criticamente sulla realtà. TRA USARE ED ESSERE USATI La linea sottile tra l’utilizzo e l’essere utilizzati si sfuma rapidamente quando gli strumenti tecnologici, invece di elevare la nostra consapevolezza, ci soppiantano nel processo di riflessione.  Questa dinamica amplifica il potere del capitale a discapito di quello umano. Le valutazioni e le direttive provengono da sistemi algoritmici opachi, immuni a ogni forma di contestazione. Il lavoratore è così posto in una condizione di impotenza, soggetto a una macchina che arbitra il suo destino lavorativo – valutando, sanzionando e assegnando incarichi – senza trasparenza né possibilità di replica. Le aziende avallano l’adozione di questi sistemi invocando efficienza e imparzialità. Eppure, nella pratica, gli algoritmi spesso riproducono e persino esacerbano disuguaglianze preesistenti. Un’indagine congiunta di MIT e Stanford ha rivelato come i sistemi di pianificazione algoritmica penalizzino sistematicamente lavoratori con responsabilità familiari o disabilità, etichettandoli come “meno disponibili” e, di conseguenza, “meno produttivi”. La direzione è chiara: l’intelligenza artificiale sta riconfigurando il lavoro in una successione di micro-comandi, eseguiti da esseri umani sotto sorveglianza costante. Questa evoluzione ci conduce verso un orizzonte ancora più preoccupante: una società in cui gli individui non solo rinunciano al loro potere decisionale, ma sono assoggettati a una sorveglianza, valutazione e categorizzazione ininterrotta. Quando il nostro senso critico si offusca, la sottomissione a un controllo mascherato da progresso diventa una realtà accettabile. IA PER LA SORVEGLIANZA, IL CONTROLLO E LA DISCRIMINAZIONE Come abbiamo visto le applicazioni dell’intelligenza artificiale non sono semplici strumenti di efficienza tecnica: sono dispositivi politici che rafforzano il potere di chi comanda e disciplinano i corpi di chi subisce. In molti contesti – dalle scuole ai tribunali, dalle città alle frontiere – l’IA viene impiegata per sorvegliare, classificare e punire. Il potere di osservare si trasforma in potere di decidere, senza trasparenza, senza appello, senza controllo. I sistemi di riconoscimento facciale, sempre più diffusi in spazi pubblici e privati, non riconoscono tutti allo stesso modo. Secondo uno studio del MIT Media Lab (2018), i principali software commerciali identificano correttamente quasi tutti i volti maschili bianchi, ma sbagliano fino al 35% delle volte quando si tratta di donne nere. Questo non è un malfunzionamento casuale: è la riproduzione automatica di una gerarchia razziale inscritta nei dati e nelle strutture di potere che li generano. Lo stesso vale per gli algoritmi predittivi, come COMPAS, usato negli Stati Uniti per valutare la “pericolosità” di imputati e prevedere la probabilità che compiano altri reati. Secondo un’indagine di ProPublica, COMPAS sovrastima il rischio per i neri (in oltre il 45% dei casi) e lo sottostima per i bianchi (solo il 23% dei casi), perpetuando un razzismo sistemico. Quando algoritmi come questi vengono addestrati con dati di polizia e tribunali, il risultato è inevitabilmente la codifica dei pregiudizi passati. Ciò significa che le pratiche discriminatorie – come i fermi più frequenti per le minoranze o le sentenze più dure – vengono internalizzate, producendo decisioni automatizzate che, pur sembrando oggettive, perpetuano tali iniquità. Questa automatizzazione del pregiudizio è parte integrante di un sistema che usa la tecnologia per rafforzare il controllo sulle classi subalterne. È il volto “neutrale” della repressione, una nuova forma di governo algoritmico che sostituisce la violenza esplicita con l’arbitrio silenzioso delle macchine. IL CARBURANTE NASCOSTO: I NOSTRI DATI Alla base di tutto questo c’è una logica economica: il capitalismo della sorveglianza. Un modello descritto dall’esperta Shoshana Zuboff, secondo cui le tecnologie digitali non si limitano a raccogliere dati, ma trasformano ogni aspetto dell’esperienza umana in materia prima estraibile, analizzabile, vendibile. Nel cuore di questa logica economica c’è un meccanismo sistematico di estrazione della vita quotidiana. Ogni clic, ogni percorso GPS, ogni parola detta o scritta, ogni battito cardiaco tracciato da un dispositivo indossabile, ogni espressione facciale registrata da una videocamera diventa materia prima grezza per l’addestramento e il perfezionamento dei sistemi di intelligenza artificiale. Questo processo ha una somiglianza con le dinamiche del colonialismo storico: come un tempo si estraevano oro, carbone, petrolio da territori conquistati, oggi si estraggono anche emozioni, pensieri, abitudini e caratteristiche biometriche dalle vite degli individui, spesso senza che questi ne abbiano consapevolezza. È ciò che alcuni definiscono “colonialismo dei dati” o “colonialismo digitale”. In questo scenario, le persone non sono utenti da servire, ma risorse da sfruttare. I nostri comportamenti diventano “beni estraibili”, mentre l’intelligenza artificiale si nutre di ciò che siamo e facciamo.  Questo sistema si fonda su una illusione di consenso. In teoria, gli utenti autorizzano la raccolta dei propri dati. In pratica, tale consenso è spesso forzato, ambiguo o manipolato. Le richieste di autorizzazione sono formulazioni vaghe, nascoste dentro termini di servizio lunghi e poco leggibili, accettati frettolosamente per accedere a una funzione o continuare a usare un’app. Oltre al consenso distorto, c’è un livello di raccolta ancora più subdolo: quello invisibile e passivo. Dispositivi con microfoni e telecamere sempre attivi, sensori biometrici, cookie traccianti, ID pubblicitari nascosti. Tutti questi strumenti continuano a raccogliere dati anche quando non interagiamo direttamente con il servizio o lo smartphone, contribuendo alla creazione di profili dettagliati e persistenti. Il risultato è un mondo in cui la sorveglianza è diventata parte dell’infrastruttura quotidiana, tanto integrata da passare inosservata. La privacy non è più la norma, ma una condizione eccezionale, spesso costosa o tecnicamente complessa da ottenere. E mentre le nostre identità digitali vengono costruite, analizzate e vendute da soggetti terzi, la possibilità di esercitare un controllo reale sul proprio sé digitale si dissolve. Non siamo più solo utenti, ma oggetti di calcolo, target pubblicitari, soggetti monitorati. Più si automatizza la raccolta e l’analisi, meno spazio resta per la consapevolezza individuale e la libertà collettiva. I benefici—potere economico, profitti, capacità predittiva, sorveglianza—sono accentrati nelle mani di pochi attori globali. I costi invece—in termini di privacy, autonomia, dignità—vengono socializzati e ricadono sulla collettività. L’IA IN GUERRA – IL RITORNO DELLA CORSA AGLI ARMAMENTI L’intelligenza artificiale non sta solo modificando il modo in cui viviamo, lavoriamo e comunichiamo. Sta anche ridefinendo radicalmente la natura stessa della guerra. Siamo entrati in una nuova era di conflitti in cui software predittivi, armi autonome, sorveglianza totale e guerra informatica non sono più scenari futuristici, ma pratiche operative che si stanno consolidando con grande rapidità. Uno degli aspetti più inquietanti è la crescente delegazione delle decisioni letali a sistemi di IA. Le armi autonome letali (LAWS – Lethal Autonomous Weapon Systems) possono selezionare e colpire obiettivi senza intervento umano significativo, in base a criteri codificati in algoritmi opachi e inaccessibili. La vita umana viene decisa da un algoritmo, senza spazio per il dubbio, la pietà o il contesto. È la violenza del capitale in forma algoritmica, dove la guerra viene gestita come un calcolo, e l’eliminazione del nemico – spesso migrante, ribelle, civile – diventa una funzione eseguibile. Chi risponde quando una bomba intelligente colpisce una scuola o un mercato? Nessuno. La responsabilità si dissolve in una catena opaca di decisioni automatizzate, coperta da segreti militari e proprietà intellettuale. L’umano viene espulso dal processo di analisi e scelta, ma resta l’esecutore e spesso la vittima. L’AI militare non è solo un problema morale: è il prodotto diretto di un sistema che monetizza la guerra e organizza la morte su scala industriale. Il militarismo digitale è il volto armato del neoliberismo, dove l’automazione della violenza serve a proteggere gli interessi geopolitici, economici e coloniali delle potenze dominanti. IL CASO ISRAELE-GAZA: Un esempio significativo dell’uso aggressivo e sistemico dell’IA in guerra viene dal conflitto a Gaza. Secondo un’inchiesta di The Guardian e altre fonti, a partire dal 7 ottobre 2023, Israele ha impiegato massicciamente sistemi di IA per identificare obiettivi umani. Uno di questi sistemi, noto come “Lavender”, ha incrementato il numero di obiettivi colpiti da circa 50 all’anno a 100 al giorno, basandosi su una classificazione algoritmica della presunta appartenenza o vicinanza ai gruppi combattenti. Il risultato: migliaia di morti civili considerati “danni collaterali accettabili”, all’interno di un sistema automatizzato che opera con criteri di efficienza più che di proporzionalità o umanità. L’adozione dell’IA in ambito militare non è circoscritta a conflitti regionali. La NATO stessa ha annunciato lo sviluppo del suo Multi-Domain Sensing System (MSS), con il supporto di aziende private come Palantir Technologies, celebre per i suoi strumenti di sorveglianza e analisi predittiva. Uno dei vantaggi dichiarati del MSS è proprio la possibilità di accelerare drasticamente il processo decisionale sul campo, integrando dati in tempo reale da più domini (terra, aria, mare, spazio, cyberspazio). Questa “velocità” decisionale comporta però la perdita della riflessione, del contesto e della responsabilità individuale che può portare a errori devastanti, aggravati dall’automation bias, ovvero la tendenza umana a fidarsi ciecamente delle raccomandazioni della macchina. L’algoritmo decide, l’umano esegue. E la responsabilità si dissolve. LA CORSA ALL’IA MILITARE Non siamo di fronte a un semplice aggiornamento tecnologico delle forze armate: la militarizzazione dell’intelligenza artificiale segna una discontinuità storica, un punto di svolta nella concezione stessa della potenza militare. Come la bomba atomica ha segnato il XX secolo, l’IA si candida a essere l’arma strategica per eccellenza del XXI. Questa corsa non ha nulla a che vedere con la difesa dei confini. È piuttosto una lotta per l’egemonia globale, in cui la superiorità tecnologica si traduce in dominio geopolitico, controllo delle risorse e subordinazione dei popoli. Chi riesce a dominare le applicazioni militari dell’IA – dai droni autonomi all’intelligence predittiva – acquista un vantaggio tale da riscrivere gli equilibri internazionali. La supremazia algoritmica infatti agisce su diversi fronti: * Gestione operativa dei conflitti, grazie alla possibilità di anticipare, simulare e neutralizzare le minacce in tempo reale, si aprono nuove opportunità per interventi preventivi, attacchi di precisione e guerre informatiche. * Controllo dell’informazione, con la manipolazione automatizzata di flussi mediatici, fake news e propaganda in grado di influenzare elezioni e destabilizzare interi paesi; * Deterrenza algoritmica, dove il solo possesso di armi autonome e sistemi di sorveglianza totale funziona da strumento di pressione e intimidazione su scala planetaria; * Sovradeterminazione geopolitica, imponendo standard, vendendo tecnologia, e plasmando le alleanze in base alla dipendenza da questi sistemi. Gli Stati Uniti, la Cina, e una manciata di altre potenze stanno investendo somme colossali in questa corsa armata. Università, startup dual-use, aziende private come Palantir, Anduril e Leonardo, e think tank finanziati da ministeri della difesa si integrano nel nuovo complesso industriale-militare-digitale, dove ricerca scientifica e logica bellica si fondono nell’interesse del profitto e del controllo. Questo processo ha conseguenze profonde e devastanti sul piano globale: si sta aprendo una nuova frattura tra chi controlla l’IA militare e chi la subisce. Mentre i paesi ricchi rafforzano la loro superiorità strategica, molti Stati meno sviluppati diventano dipendenti dalle tecnologie prodotte altrove, perdendo ulteriormente sovranità in ambito militare, informativo e persino culturale. Nei territori colonizzati, nei margini del Sud globale e nelle periferie urbane, l’IA bellica viene testata prima su chi non ha voce né diritti: Gaza, come laboratorio di sorveglianza totale e omicidi automatizzati, è solo uno dei tanti esempi. La logica è brutale: chi controlla l’algoritmo, controlla il pianeta. E come sempre, chi ne paga il prezzo è chi sta in basso: lavoratori, minoranze, popolazioni colonizzate. Non siamo di fronte a un rischio tecnico, ma a una minaccia politica, sistemica e strutturale. Come nella Guerra Fredda, accumuliamo potenziale distruttivo. Ma a differenza delle testate nucleari, l’IA militare è invisibile, deregolamentata, scalabile e si moltiplica silenziosamente. L’alternativa non può che essere politica e collettiva: resistere all’uso militare della tecnologia, smascherare l’ideologia della “neutralità” e costruire modelli di ricerca, cooperazione e difesa radicalmente opposti alla logica del dominio. L’IA COME SPECCHIO DEL POTERE L’IA non è una forza naturale, neutrale o autonoma: è una tecnologia modellata da scelte politiche, economiche e culturali ben precise. Di conseguenza, come la maggior parte delle innovazioni, inevitabilmente riflette e amplifica gli equilibri di potere esistenti. L’IA è un’infrastruttura globale complessa, fatta di data center, contratti militari, piattaforme private, algoritmi opachi, lavoro umano invisibile, minerali estratti in territori sfruttati, decisioni politiche prese lontano dalle persone. È una rete che incorpora logiche di sorveglianza, estrazione, controllo, diseguaglianza, all’interno di un preciso sistema economico: quello capitalista. Dietro la retorica dell’efficienza, della personalizzazione e del progresso, l’IA è soprattutto una tecnologia del potere: chi la possiede, chi la governa, chi la subisce, il potere di pochi su molti. Potere di decidere chi viene assunto e chi scartato, chi riceve credito e chi viene escluso, chi è un “rischio” e chi è “affidabile”. È una forma di governance autoritaria che si presenta come oggettiva, ma che riproduce — e spesso amplifica — le stesse gerarchie di razza, genere e classe che strutturano il capitalismo globale. Non è una questione di futuro, ma di presente. Non è solo una questione tecnica, ma profondamente politica: non la politica dei partiti, ma quella dei conflitti reali, delle scelte collettive, delle alternative al dominio. Finché l’intelligenza artificiale sarà sviluppata, governata e posseduta da chi detiene già il potere economico e militare, non potrà che servire a consolidare l’ordine esistente e a disciplinare, sostituire o silenziare chi lavora, chi resiste, chi eccede. TRE DOMANDE PER IL FUTURO In un’epoca in cui l’intelligenza artificiale sembra espandersi in ogni sfera della vita – dal lavoro all’istruzione, dalla guerra alla salute – è urgente rompere l’incantesimo ideologico che la circonda. L’IA non è sostenibile per definizione, in quanto prodotto diretto delle logiche del capitale: energivora, estrattiva, centralizzata, diseguale. 🔹 A chi giova l’espansione dell’IA? A trarne vantaggio sono le multinazionali della tecnologia, i complessi militari-industriali, le potenze che dominano le infrastrutture digitali del pianeta. Il linguaggio dell’efficienza serve a mascherare l’aumento del controllo, la compressione del lavoro, la neutralizzazione del dissenso. Ma quali vantaggi reali ha la collettività? L’IA migliora la vita di tutti o solo il margine operativo di chi la controlla? 🔹 Chi paga i suoi costi invisibili? Il costo reale dell’IA è sostenuto da chi estrae i minerali nei Sud globali, da chi annota e filtra dati per pochi centesimi, da chi vive nei territori devastati dai data center, da chi subisce profilazioni discriminatorie. È sostenuto da chi vede la propria intelligenza ridotta a input per algoritmi proprietari, da chi viene escluso dalle decisioni e sorvegliato nei processi. È un costo sociale, ecologico e umano. 🔹 Quali forme alternative di tecnologia possiamo immaginare? Rifiutare questa IA non significa rifiutare la tecnologia, ma rifiutare il modello economico che la governa. Possiamo e dobbiamo immaginare strumenti orientati ai bisogni reali, sviluppati in modo collettivo e sostenibile. Tecnologie che non estraggano valore ma lo restituiscano, che non sorveglino ma connettano, che non disumanizzino ma potenzino le forme di cooperazione. L’intelligenza artificiale, in definitiva, non è un destino. È una scelta. E come ogni scelta, può essere contestata, decostruita, trasformata. Per farlo serve una nuova alfabetizzazione politica, capace di decifrare il potere nascosto nelle infrastrutture, e una nuova coscienza collettiva che riconosca in questa tecnologia non solo un insieme di strumenti, ma un campo di lotta. Riaprire la possibilità di scegliere che tecnologia vogliamo e per chi è un gesto profondamente politico. Solo rimettendo al centro il conflitto sociale, possiamo rivendicare un futuro non governato dalle macchine del capitale, ma costruito dalla volontà collettiva. -------------------------------------------------------------------------------- FONTI * AI + Planetary Justice Alliance (2025). https://aiplanetaryjustice.com/ * Amnesty International (2021). Ban the Scan campaign. https://banthescan.amnesty.org/index.html * Amnesty International (2023). This is What We Die For – Human Rights Abuses in the Cobalt Supply Chain. https://www.amnesty.org/en/documents/afr62/3183/2016/en/ * Artificial Intelligence and the Future of Warfare. https://www.academia.edu/38373946/Artificial_Intelligence_and_Future_Warfare_Implications_for_International_Security * Digiconomist (2024). Energy Consumption and Carbon Emissions of Artificial Intelligence. https://www.cell.com/joule/fulltext/S2542-4351(23)00365-3 * Michael Kwer (2024). Digital Degrowth https://www.plutobooks.com/9780745349862/digital-degrowth/  * Education Week (2023). AI Tutors in the Classroom: Personalized Help or Standardized Thinking? https://www.edweek.org/technology/opinion-ai-tutors-can-be-both-a-help-and-a-hindrance-in-the-classroom-explain-teachers/2025/05 * Electronic Frontier Foundation (2022). AI Surveillance and Civil Liberties. https://www.eff.org/issues/ai-and-human-rights * Emma Strubell et al. (2019). Energy and Policy Considerations for Deep Learning in NLP. UMass Amherst. https://arxiv.org/abs/1906.02243 * Future of Life Institute (2015). Autonomous Weapons: An Open Letter from AI & Robotics Researchers. https://futureoflife.org/open-letter/open-letter-autonomous-weapons-ai-robotics * Global E-Waste Monitor (2024). https://globalewaste.org/map/ * Google (2023). Environmental Report. https://sustainability.google/reports/google-2023-environmental-report/ * Google (2024). Environmental Report. https://sustainability.google/reports/google-2024-environmental-report/ * Human Rights Watch (2022). Working Conditions in the Electronics Sector in Asia. https://chinalaborwatch.org/labor-conditions-in-chinas-consumer-electronics-sector/ * Human Rights Watch. Stopping Killer Robots campaign. https://www.hrw.org/topic/arms/killer-robots * IEA (2021). The Role of Critical Minerals in Clean Energy Transitions. https://www.iea.org/reports/the-role-of-critical-minerals-in-clean-energy-transitions * ILO (2023). Digital labour platforms and the future of work. https://www.ilo.org/publications/digital-labour-platforms-and-future-work-towards-decent-work-online-world * James Williams (2018). Stand Out of Our Light. Cambridge University Press. https://www.cambridge.org/core/books/stand-out-of-our-light/3F8D7BA2C0FE3A7126A4D9B73A89415D * Journal of Educational Technology (2021). Cognitive Offloading and Student Performance. https://www.researchgate.net/publication/387701784_AI_Tools_in_Society_Impacts_on_Cognitive_Offloading_and_the_Future_of_Critical_Thinking * Kate Crawford (2021). Atlas of AI. Yale University Press. https://katecrawford.net/atlas * Khan Academy (2023). Introducing Khanmigo, the AI-powered tutor. https://www.khanacademy.org/khan-labs * MIT & Stanford (2022). Algorithmic Management and Its Impacts on Workers. https://sloanreview.mit.edu/article/algorithmic-management-the-role-of-ai-in-managing-workforces/ * MIT Media Lab (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. http://gendershades.org/ * MIT Technology Review (2022). The Hidden Environmental Cost of AI. https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117 * Nature Machine Intelligence (2023). Measuring the Carbon Footprint of AI Training. https://www.nature.com/articles/s41599-024-03520-5 * NTSB (2022). Automation Dependency in Aviation. https://www.sciencedirect.com/science/article/pii/S2352146525004041 * OECD (2023). Digital Economy Outlook. https://www.oecd.org/en/publications/oecd-digital-economy-outlook_f0b5c251-en.html * OpenAI (2023). Khan Academy pilots GPT-4 as a tutor. https://openai.com/blog/khan-academy * ProPublica (2016). Machine Bias. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing * Sherry Turkle (2015). Reclaiming Conversation. Penguin Press. https://www.researchgate.net/publication/350521529_Reclaiming_Conversation_The_Power_of_Talk_in_a_Digital_Age * Shoshana Zuboff (2020). Il capitalismo della sorveglianza. Luiss Editore. https://www.hbs.edu/faculty/Pages/item.aspx?num=56791 * The Guardian (2020). AI systems used to fire Amazon workers without human oversight. https://www.theguardian.com/commentisfree/2021/jul/05/amazon-worker-fired-app-dystopia * The Guardian (2024). Israel used AI-driven system to identify targets in Gaza, say sources. https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets * The Verge (2022). Microsoft’s Arizona Data Centers and the Water Crisis. https://www.theverge.com/2022/9/1/23330593/microsoft-arizona-water-shortage-data-centers * Time Magazine (2023). Inside the Secretive World of AI Data Labelers in Kenya. https://time.com/6247678/openai-chatgpt-kenya-workers/ * TSMC (2022–2023). Sustainability Reports. https://esg.tsmc.com/file/public/e-all_2023.pdf * Università di Stanford (2023). Generative AI and Student Learning Outcomes. https://scale.stanford.edu/genai/repository/generative-ai-can-harm-learning
Le applicazioni più vendute create da spie israeliane
Alcune delle applicazioni di Apple e Google più scaricate sono state sviluppate da spie e Criminali di Guerra israeliani, generando miliardi di entrate per l’Economia dell’Apartheid. da InvictaPalestina Fonte: English version Di Niente Panico! – 2 luglio 2025 Gli sviluppatori di centinaia di applicazioni per Android e iPhone con miliardi di scaricamenti sono ex spie israeliane, le cui applicazioni stanno generando entrate significative per l’Economia di Guerra Genocida di Israele. Le applicazioni che ho identificato spaziano da innocue applicazioni di fotoritocco e video a giochi casuali, e la maggior parte degli utenti non si renderà conto di installare prodotti israeliani sui propri telefoni. Molti di questi sviluppatori di applicazioni operano in modo discreto, le loro strutture proprietarie sono opache e l’identità dei loro proprietari non è comunemente nota. L’identificazione di queste applicazioni dovrebbe aprire un’ulteriore frontiera al Movimento di Boicottaggio, Disinvestimento e Sanzioni, poiché offre un modo semplice per la gente comune di evitare i prodotti israeliani che contribuiscono all’Apartheid, al Genocidio e alla Pulizia Etnica. La proliferazione di queste applicazioni sull’App Store di Apple e sul Google Play Store solleva anche interrogativi sulla riservatezza e sulla raccolta di dati personali, data la reputazione della tecnologia israeliana e gli scandali passati riguardanti programmi spia introdotti clandestinamente sui dispositivi da applicazioni create in Israele. Una delle più importanti aziende e sviluppatrici di applicazioni israeliane è ZipoApps, il cui modello è quello di acquisire e monetizzare le applicazioni su larga scala. Le applicazioni di proprietà di Zipo (conosciuta anche con il nome di Rounds.com) includono un pacchetto di applicazioni di fotoritocco di foto e video che ha ricevuto centinaia di milioni di installazioni totali. Tra le singole applicazioni figurano Collage Maker Photo Editor e Instasquare Photo Editor: Neon, entrambe con oltre 50 milioni di installazioni dal Google Play Store. Altri prodotti di ZipoApps includono strumenti di editing e ritocco fotografico per bambini. Nel 2022, il fondatore e amministratore delegato di Zipo, Gal Avidor, ha dichiarato a un intervistatore (nella sua unica intervista ad oggi) che tutti i fondatori dell’azienda sono ex membri dei servizi segreti israeliani dell’Unità 8200. Su Reddit, gli utenti si sono lamentati dell’approccio di ZipoApps alla riservatezza e all’estrazione di dati. Un popolare gruppo di strumenti noto come Simple Gallery è passato da gratuito e di Libero accesso a un prodotto a pagamento con pubblicità e tracciamento appena una settimana dopo l’acquisizione da parte di ZipoApps. Un’altra applicazione di fotoritocco di proprietà israeliana presente sul Play Store è Bazaart, basata sull’Intelligenza Artificiale, fondata da Dror Yaffe e Stas Goferman, due ex ufficiali dei servizi segreti militari delle IDF. Goferman ha superato di gran lunga il suo periodo di servizio obbligatorio, trascorrendo un decennio nelle IDF fino al 2011. Facetune, sviluppata dallo sviluppatore Lightricks e disponibile per Android e iPhone, è un’altra applicazione di fotoritocco israeliana con oltre 50 milioni di installazioni. Gli utenti dell’Apple Store hanno definito Facetune, che richiede l’accesso a identificativi univoci e alla posizione, una truffa. Il co-fondatore di Lightricks, Yaron Inger, ha trascorso cinque anni nell’Unità 8200. Se vi piacciono i giochi per dispositivi mobili o se create giochi per dispositivi mobili da vendere, probabilmente vi sarete imbattuti nell’azienda israeliana Supersonic di Unity, senza saperlo. Con miliardi di installazioni negli ultimi anni, Supersonic è uno dei maggiori editori di giochi per dispositivi mobili al mondo, con un fatturato stimato di circa 23 milioni di dollari (19,5 milioni di euro) all’anno. All’inizio di quest’anno, l’azienda ha dichiarato di possedere tre dei dieci giochi per dispositivi mobili più scaricati al mondo: Build a Queen, Going Balls e Bridge Race. Trash Tycoon è un altro titolo popolare. L’azienda ha anche un gioco chiamato “Conquer Countries” (Conquistare i Paesi), scaricato milioni di volte e che presenta una versione a cartoni animati di Donald Trump sul suo riquadro pubblicitario. Il fondatore di Supersonic, Nadav Ashkenazy, ha trascorso sette anni e mezzo nell’IDF, dove è diventato capo delle operazioni dell’Aeronautica Militare israeliana, gestendo quasi metà del personale a tempo pieno. Potete vedere tutti i giochi di Supersonic qui. Un produttore israeliano di applicazioni per giochi per dispositivi mobili più noto, i cui ricavi non sono da stimare, è Playtika. Quotata al NASDAQ, Playtika genera un fatturato di oltre 2,5 miliardi di dollari (2,1 miliardi di euro), generando tasse significative per la Macchina di Sterminio di Israele. Playtika, che sviluppa applicazioni di gioco d’azzardo, è saldamente invischiata nella Macchina Bellica Genocida israeliana. L’azienda è stata fondata da Uri Shahak, figlio dell’ex capo delle Forze di Difesa Israeliane, Amnon Lipkin-Shahak, e lo scorso anno il suo rapporto annuale ha rivelato che il 14% del suo personale era stato chiamato come riservista per partecipare al Genocidio a Gaza. L’attuale amministratore delegato Robert Antokol afferma che l’azienda ha una “responsabilità” nei confronti di Israele e che le tasse pagate dai suoi dipendenti sono “meravigliose per l’economia israeliana”. Un’altra azienda israeliana le cui applicazioni sono state scaricate miliardi di volte è Crazy Labs. Con un valore aziendale stimato di circa 1 miliardo di dollari (848,5 milioni di euro) e un fatturato stimato fino a 200 milioni di dollari (170 milioni di euro), Crazy Labs è un altro produttore di applicazioni fondamentale per l’economia israeliana. I suoi titoli più venduti sono Phone Case DIY, Miraculous Ladybug & Chat Noir e Sculpt People. Potete consultare l’elenco completo delle applicazioni di Crazy Lab sul Google Play Store. I fondatori di Crazy Labs sono tutti ex-militari israeliani (IDF), incluso Sagi Schliesser, che ha ampiamente superato il servizio obbligatorio rimanendo nell’IDF e contribuendo a costruire l’architettura digitale dell’Apartheid per otto anni. Un’applicazione di cui potreste aver sentito parlare, ma che non sapevate fosse israeliana, è Moovit. L’applicazione per il trasporto urbano è stata fondata da diversi ex soldati dell’IDF, tra cui Nir Erez, che ha trascorso anni presso il centro di calcolo specializzato dell’IDF noto come Mamram, che la propaganda israeliana afferma essere un centro di formazione per “combattenti informatici”. In quanto unità che gestisce l’intranet militare, Mamram è al centro del Genocidio israeliano di Gaza. Moovit, che conta quasi un miliardo di utenti e genera entrate significative per Israele, è stata collaboratrice ufficiale dei Giochi Olimpici, dei Campionati Europei di calcio e collabora anche con Microsoft. Con centinaia di milioni di installazioni, Call App, che filtra le chiamate telefoniche per lo spam, è un altro prodotto dell’economia militare israeliana. Il fondatore e amministratore delegato di Call App, Amit On, ha trascorso tre anni nell’Unità 8200 negli anni 2000. L’applicazione conta oltre 100 milioni di utenti. Sul fronte del servizio di trasporto su richiesta, Gett, focalizzata sui passeggeri aziendali e particolarmente popolare a Londra come metodo per chiamare i taxi neri, è stata fondata dagli ex membri dell’Unità 8200 Roi More e Shahar Waiser. Una menzione particolare va all’applicazione di navigazione GPS Waze, probabilmente l’applicazione israeliana più famosa dell’ultimo decennio, acquisita da Google nel 2013 per 1,3 miliardi di dollari (1,1 miliardi di euro) e anch’essa fondata da ex spie dell’Unità 8200. Un’altra applicazione israeliana in rapida crescita, di cui si è parlato da Oprah, sul New York Times e sulla CNN, è Fooducate, il cui fondatore, HemiWeingarten, ha volato in missioni di bombardamento per l’Aeronautica Militare israeliana. Questa denuncia, che fa seguito a indagini su ex membri dell’IDF e dell’Unità 8200 che lavorano nell’Intelligenza Artificiale per i grandi colossi della tecnologia, e su coloro che lavorano per Meta e Google, conferma ulteriormente quanto Israele sia profondamente e insidiosamente radicato nelle nostre vite digitali. Queste indagini rivelano anche come Israele dipenda fondamentalmente da uno Stato di Dominio permanente sui palestinesi, poiché l’unica cosa di valore che il Paese produce sono le aziende tecnologiche fondate da ex membri dell’IDF. Senza la possibilità di addestrare i propri cittadini come spie e soldati, e di Massacrare i palestinesi a piacimento, l’economia israeliana crollerebbe. Eppure la maggior parte delle persone che utilizzano queste applicazioni le avrà scaricate in buona fede, senza sapere di contribuire all’Economia Israeliana di Occupazione, Apartheid e Genocidio. Inoltre, queste applicazioni raccoglieranno informazioni e dati, comprese grandi quantità di immagini personali, e li forniranno ai devoti di Israele, impegnati a mantenere il Paese come Stato di Apartheid. Niente Panico! è un progetto giornalistico che tratta di malattie, ecologia, tecnologia, potere, impero, capitalismo e società. Traduzione a cura di: Beniamino Rocchetto
[2025-07-04] Zona Warpa Roma 2025 @ CSOA Forte Prenestino
ZONA WARPA ROMA 2025 CSOA Forte Prenestino - via Federico delpino, Roma, Italy (venerdì, 4 luglio 15:00) LA FESTA DEL VIDEOGIOCO RIBELLE E ITINERANTE Vogliamo riaccendere la miccia di una forma di comunicazione ed espressione potentissima, dando spazio a chi sviluppa, a chi vorrebbe formarsi e iniziare a sviluppare, o anche solo a chi vuole giocare e divertirsi. Per l'edizione 2025, Zona Warpa raddoppia con ben due giorni di workshop, talk, videogiochi e musica al Forte Prenestino. 4 LUGLIO TALK & WORKSHOP * 15:00 – 16:00 Breve guida alla degooglizzazione: perché e come dire no a Google di Fabio Kenobit Bortolotti * 16:00 – 17:00 Temi e percorsi di postcolonialità dal caso di Never Alone di Federico Palmieri Di Pietro * 17:00 – 18:00 C'è vita oltre Bartle – tassonomia 2.0 del gamer di David Colangeli * 17:00 – 19:00 Da Console a Glitch Machine: Circuit Bending 3.0 di Pushkar Brand * 18:00 – 19:00 Compendio di videogiochi liberi di Matteo Bini e Zughy * 19:00 – 20:00 Un quasi postmortem di Near Mage di Christopher Sacchi introduce Andrea Ferlito (Roma Game Dev) * = workshop, se le hai porta una console tra SEGA, NES, SNES, PS1, PS2, trapano, saldatore, tester MUSICA * 21:00 – 21:40 mrs bhutan * 21:40 – 22:20 pira * 22:20 – 23:20 aidan * 23:20 – 00:00 nadír * 00:00 – 00:40 cyrix86mpu 5 LUGLIO TALK & WORKSHOP * 15:00 – 16:00 Come creare musica col Game Boy – una breve introduzione di Damiano dag Gualandri * 16:00 – 17:00 L'interfaccia come strumento narrativo di Antonio Vangone * 17:00 – 18:00 Progettare fuori dagli standard di Greta Carrara * 17:00 – 19:00 Pixionary: un singolare workshop di pixel art* di Francesca Zacchia * 18:00 – 19:00 Psicologia & videogiochi: Costruire (o decostruire) un personaggio di Francesca Del Signore * 19:00 – 20:00 Decolonizziamo il gioco di Cosmo M. Esposito * * = workshop MUSICA * 21:30 – 22:30 B2B DJ Set rico\kenobit * 22:30 – 23:30 Dr. Pira Dj Set * 23:30 – 00:00 Nonmateria * 00:00 – 01:00 Flavia Buttinelli * 01:00 – 02:00 Nesso.xyz
Cosa è il tecnopanico e perché non serve a criticare la tecnologia (e Big Tech)
Immagine in evidenza:  unsplash  Non è un mistero il fatto che viviamo in tempi distopici, dove le interconnessioni tra tecnologia e politica illuminano un presente caratterizzato da controversie, diritti violati, potere sempre più concentrato. È una realtà politico-economica che in alcune sue sfumature fa impallidire le narrazioni più scure del cyberpunk, come scrive il collettivo Acid Horizon, ma sono anche tempi che vengono, spesso, molto mal raccontati. Specialmente nei media mainstream, da quasi una decina di anni, i toni attorno alle tecnologie si sono fatti spesso apocalittici: secondo queste narrazioni, la rete ha ucciso la democrazia, mandato al potere il nuovo autoritarismo, ci ha reso soli, stupidi e sudditi. Tutto perché passiamo gran parte del nostro tempo online o interagendo con tecnologie digitali.  Quello che spesso viene chiamato “techlash”, ovvero il clima di manifesta e crescente ostilità verso la tecnologia che si è instaurato nel dibattito pubblico a partire dallo scandalo Cambridge Analytica è un fenomeno ancora in corso che, se da un lato ha favorito fondamentali discussioni critiche attorno alla tecnologia, aperto importanti percorsi legislativi e di regolamentazione e ha chiuso un momento di euforico e acritico entusiasmo nei confronti del “progresso” della Silicon Valley, dall’altro ha anche scoperchiato il vaso di Pandora del catastrofismo più superficiale e vacuo. Peraltro, quel catastrofismo è l’altro lato della medaglia del “tecnoentusiasmo”: un mix di determinismo, ascientificità, hype e profezie che si autoavverano.  TECNOPANICO, IL SAGGIO DI ALBERTO ACERBI Il nuovo saggio di Alberto Acerbi, ricercatore del Dipartimento di sociologia e ricerca sociale dell’Università di Trento, Tecnopanico (Il Mulino) affronta proprio la genesi di quel catastrofismo e delle paure su cui si basa, puntando a smontare alcuni miti e false credenze della vulgata tecnologica contemporanea. Guardando principalmente a quello che pensiamo di sapere su disinformazione, teorie del complotto, algoritmi e implicazioni psicologiche dell’uso dei social media, il saggio di Acerbi fornisce soprattutto una panoramica degli studi sul tema che cerca di portare al centro del dibattito i risultati della ricerca, che in molti casi è sanamente non conclusiva, e lo fa con un sano scetticismo.  Per quanto sia fondamentale non negare le complicazioni e le problematicità di questo momento storico-tecnologico – come dicevamo fortemente distopico – resta importante navigare quei problemi basandosi su dati reali e non su narrazioni di comodo e alternativamente allarmistiche o di acritico entusiasmo. E, soprattutto, senza cadere in un facile panico morale che serve per lo più a sviare la discussione e l’analisi del presente. Anche perché, spiega Acerbi, quasi tutti i “presenti” hanno puntato pigramente il dito contro le nuove tecnologie di quei momenti, che si sono in seguito diffuse e sono divenute tra le più rappresentative di quelle epoche. A ogni tecnologia corrisponde quindi un nuovo “panico”. “Il panico attorno alla tecnologia non si manifesta esclusivamente con le tecnologie di comunicazione e digitali, anzi, uno dei temi principali del libro riguarda proprio l’importanza di assumere una ‘lunga prospettiva’ sulle reazioni alle tecnologie passate. In questo modo possiamo osservare dei pattern comuni e capire meglio quello che sta accadendo oggi”, spiega Acerbi a Guerre di Rete. “Ci sono panici che possiamo avere ma possiamo andare più lontano nel passato: la radio, i romanzi, la stampa o addirittura la scrittura. Pensiamo per esempio alla stampa. Negli anni successivi alla sua diffusione in Europa c’erano preoccupazioni che ricordano quelle di oggi: moltiplicazione incontrollata di informazioni, circolazione di falsità e via dicendo. L’aspetto interessante è che la società si è adattata alla stampa con altre invenzioni, come gli indici analitici e le enciclopedie, e tramite cambiamenti di comportamenti che puntano a risolvere questi problemi”.  UNA CONCEZIONE DETERMINISTICA DELLE TECNOLOGIE Alla base del “tecnopanico” c’è una concezione deterministica delle tecnologie, che le inquadra come forze indipendenti dalla produzione umana o dal contesto socio-politico che le produce, capaci in maniera autonoma di generare effetti diretti nella società, come se non fossero un prodotto di quest’ultima, ma una forza aliena. Secondo Acerbi, in particolare, queste forme di panico “considerano l’introduzione delle tecnologie come un processo a senso unico, in cui una nuova tecnologia cambia in modo deterministico le nostre abitudini, la nostra società e la nostra cultura”. Al contrario, come invece insegnano, per esempio, decenni di studi sulla costruzione sociale della tecnologia, nessuna innovazione, nemmeno quella più potente (come l’AI, ci arriviamo) ha queste capacità. Eppure, il “tecnopanico” è dappertutto e spesso, anzi, guida le scelte di policy e di regolamentazione delle tecnologie digitali, sedendosi ai tavoli dei legislatori più spesso degli esperti. Anche perché il “tecnopanico” ha megafoni molto forti. “Sicuramente oggi il ‘tecnopanico’ è diventato mainstream. Una ragione è l’integrazione capillare della tecnologia nella vita quotidiana: tutti abbiamo un’esperienza personale e diretta di smartphone, social media e via dicendo”, spiega ancora Acerbi. “Questo è un pattern con caratteristiche ricorrenti: il riferimento a un’epoca precedente in cui le cose erano migliori. Pensiamo all’idea di epoca della ‘post-verità’, che necessariamente suppone l’esistenza di un’epoca ‘della verità’. L’amplificazione da parte di media che spesso sono in diretta concorrenza con le tecnologie, come gli attacchi ai social media dai canali di informazione tradizionali, creano una narrazione in cui il pubblico è visto come passivo, vulnerabile, facilmente manipolabile”.  MISINFORMAZIONE, DISINFORMAZIONE E INFORMATION DISORDER La credenza che vuole gli essere umani vulnerabili e manipolabili è al centro, per esempio, del “tecnopanico” con cui spesso si parla di mis- e disinformazione e, in generale, dei fenomeni connessi all’information disorder. “Ci sono varie ragioni che spiegano il successo delle narrazioni allarmistiche riguardo alla disinformazione online. Una è semplicemente che, rispetto all’epoca pre-social media, la disinformazione è visibile e quantificabile. Ma ci sono ragioni più profonde”, spiega l’autore di Tecnopanico. Queste ragioni sono spesso politiche: “La disinformazione fornisce una causa e possibilmente una soluzione semplice a problemi complessi. È facile pensare che le persone che votano diversamente da noi, o che sono contrarie ai vaccini, siano influenzate primariamente dalla disinformazione. In questo modo, però, non si guarda alle cause strutturali, che hanno radici sociali, culturali, ed economiche più complesse”.  Inoltre, siamo naturalmente propensi a pensare che siano le altre persone a essere predisposte a cadere in false credenze e mai noi stessi, un elemento verificato da Acerbi stesso in un esperimento con Sacha Altay (Experimental psychologist dell’Università di Zurigo, nda): “Abbiamo chiesto ai partecipanti quanto pensassero che la disinformazione online fosse diffusa e pericolosa insieme ad altre domande. Il fattore che prediceva meglio quanto i partecipanti fossero preoccupati della disinformazione online era la differenza tra la loro abilità percepita di identificare informazioni false e quello che pensavano degli altri. C’è anche un nome per questo: effetto terza persona”. Ovviamente, la disinformazione esiste, e questo spiega perché si sia vista crescere l’attenzione verso di essa da parte della ricerca, del mondo dell’informazione e della politica. Il problema, però, emerge quando si utilizza questa facile spiegazione per dare ragione di fenomeni sociali e politici profondi, complessi e di lungo periodo. Per esempio, la Brexit non è avvenuta per causa diretta della disinformazione sui social media e Donald Trump non ha vinto – due volte – le elezioni presidenziali a causa solamente della propaganda digitale. Spesso, però, questi fenomeni, che certamente concorrono al clima politico contemporaneo e al rendere le sue dinamiche ancora più complesse, vengono utilizzati come prova conclusiva per dare una giustificazione a rivolgimenti politici radicali.  LA SVOLTA DI CAMBRIDGE ANALYTICA E IL TECHLASH Uno dei momenti di svolta in questi dibattiti, e che viene spesso considerato come l’inizio di questo tipo di techlash, è stato lo scandalo Cambridge Analytica del 2018. Cambridge Analytica ha aperto un varco nel business, per lo più oscuro, della propaganda politica digitale, sollevando enormi interrogativi legati ai temi di data justice e costretto Meta a un’operazione trasparenza inedita. Presto, però, le conseguenze politiche dello scandalo, poiché toccavano Donald Trump e il “Leave” nel contesto della Brexit, hanno preso il sopravvento nella copertura mediatica e anche nella cultura pop. La storia aveva in sé diversi elementi fondativi del “tecnopanico”: l’uso potenzialmente manipolatorio delle tecnologie digitali, la loro applicazione in politica, le connessioni con forze politiche di estrema destra, tratti potenzialmente criminosi e una genesi giornalistica non usuale: un leak. E i toni sensazionalistici hanno presto preso il sopravvento su quella che, invece, poteva essere una necessaria analisi di come l’economia dei dati fosse progressivamente diventata un colabrodo, con conseguenze sui diritti di tutte le personei.  “Da subito, nel caso di Cambridge Analytica, i ricercatori avevano mostrato che gli effetti reali delle campagne di CA erano quantomeno dubbi. C’erano punti importanti: la raccolta e l’uso opaco dei dati personali, le pratiche delle piattaforme digitali, la mancanza di trasparenza e accountability, ma questo veniva oscurato da una narrazione semplificata e drammatica, centrata su un colpevole chiaro e su effetti immediati e spettacolari”, spiega Alberto Acerbi che, in Tecnopanico, dedica un capitolo al caso. Una dinamica simile, in relazione ai rischi “esistenziali” della tecnologia, si vede oggi all’opera nel modo in cui l’intelligenza artificiale viene narrata nel dibattito pubblico, una fucina sempre proficua di “tecnopanico”, con paure, spesso, più fantascientifiche che altro.  “La narrazione semplificata ed esagerata, ripetuta in modo analogo da accusatori e dai CEO delle aziende di AI,  impone un focus su scenari apocalittici o su episodi sensazionalistici, più che su temi cruciali come i bias nei dataset, le implicazioni sul lavoro o il potere di pochi attori nel dettare le regole dello sviluppo tecnologico”, continua Acerbi. “Anche in questo caso, per ora, le ricerche mostrano effetti tutto sommato limitati: per esempio, molti ricercatori e soprattutto i media erano preoccupati dell’influenza dell’AI nell’anno elettorale 2024. Si pensava a falsi e propaganda super-efficace. Oggi possiamo dire che niente di ciò è successo”. L’utilizzo dell’AI a fini di propaganda politica nell’anno in cui la metà della popolazione del pianeta è andata a votare è infatti risultato molto ridotto, come confermato da diverse analisi. Anche i deepfake, una delle tecnologie più dibattute in questo terreno, al momento hanno trovato un’applicazione limitata – ma crescente – nella propaganda politica, mentre continuano invece a essere un fenomeno amplissimo e drammatico nel contesto della misoginia online, della diffusione non consensuale di materiale intimo e della violenza facilitata dalla tecnologia. GLI EFFETTI COLLATERALI DEL TECNOPANICO Uno dei meriti maggiori di Tecnopanico è quello di mostrare come queste narrazioni dedicate alla tecnologia siano spesso molto simili tra loro e adattabili alle caratteristiche delle tecnologie verso cui vengono indirizzate e come abbiano la capacità di diventare molto potenti, specialmente nel mainstream, spesso finendo per indebolire anche le critiche più sostanziali, necessarie e radicali: “Uno degli effetti collaterali più perversi del tecnopanico è proprio questo:  rende molto più difficile articolare obiezioni e analisi ragionate, basate su dati e riflessioni approfondite, senza essere immediatamente inglobati (o respinti) dentro una narrazione allarmistica già saturata”, spiega Acerbi. Questo accade anche alla ricerca accademica, che fatica a spingere i suoi risultati e il suo punto di vista: “Quando ogni critica viene assorbita in un ecosistema comunicativo dominato da titoli sensazionalistici, indignazione morale e profezie apocalittiche, le voci più pacate rischiano di suonare troppo distaccate o addirittura complici del sistema. In realtà penso sia il contrario. Come scrivo nel libro, ho spesso notato una strana convergenza tra tecno-ottimisti e tecno-catastrofisti: entrambi pensano che le tecnologie abbiano un effetto deterministico e dirompente sugli individui e sulla società e che il nostro ruolo sia soprattutto passivo. Come visto negli esempi di cui abbiamo parlato, le narrazioni allarmistiche fanno molto comodo a coloro che controllano questi strumenti: legittimano il loro (presunto) potere e oscurano i problemi più pressanti”, conclude Acerbi.   Questo è particolarmente evidente in relazione all’AI, attorno alla quale il dibattito è ancora sensazionalistico e spesso guidato dalle aziende, che hanno tutto l’interesse a farsi percepire come le uniche depositarie delle soluzioni necessarie a tenere sotto controllo i pericoli connessi alla tecnologia che esse stesse stanno creando. Il risultato è far, di nuovo, passare l’AI come qualcosa di magico, depositario di poteri e tratti inspiegabili e di difficile controllo, forse prossimi alla presa del potere, come vuole il topos narrativo più abusato relativo alla tecnologia. Alla società digitale in cui ci troviamo, però, servono meno narrazioni e più ricerca, meno profezie e più policy e, in definitiva, meno tecnopanico e più critica. L'articolo Cosa è il tecnopanico e perché non serve a criticare la tecnologia (e Big Tech) proviene da Guerre di Rete.
Faciteve ‘e cazze vuoste! A Napoli trovate microspie nelle auto di due compagne
Riceviamo e diffondiamo: Faciteve ‘e cazze vuoste! Trovati a Napoli nelle macchine di due compagne dei dispositivi BO8CH composti da 2 microfoni + GPS collegati a scheda sim della Tim, ben infilati sotto la tappezzeria delle auto lato passeggero e alimentati tramite cavo alla batteria della macchina. Alle orecchie impiccione che ci hanno ascoltato possiamo solo dire che ciò che più ci indispone è l’aver elargito le nostre spassosissime playlist musicali concedendo attimi di gioia alle vostre noiose vite infami. [nella foto il reperto]
Le frontiere belliche dell’intelligenza artificiale
Immagine in evidenza: il drone ucraino R18 da Wikimedia Nei primi mesi del 2023, una risoluzione proposta dall’allora ministro della Difesa Oleksii Reznikov ha portato all’introduzione del software Delta nelle forze di difesa ucraine. Delta è un software di situational awareness, progettato per offrire una panoramica della situazione tattica e operativa di una porzione del fronte in un dato momento. Lo fa attraverso un’interfaccia che assomiglia molto a quella di un videogame RTS (real time strategy), offrendo in tempo reale una panoramica della situazione a tutti i livelli della catena di comando, con particolare utilità per gli ufficiali intermedi e superiori. Nel 2022, Delta era stato presentato alla NATO Consultation, Command and Control Organisation (NC3O), organismo fondato nel 1996 con l’obiettivo di garantire capacità di comunicazione, comando e controllo coerenti, sicure e interoperabili tra i membri dell’alleanza. Durante la presentazione, Delta ha suscitato notevole interesse per la sua capacità di trasferire informazioni in tempo reale, facilitando decisioni più rapide e consapevoli da parte dei comandanti. Nel 2024, l’interoperabilità di Delta con i sistemi NATO è stata testata durante la CWIX (NATO Allied Command Transformation’s Coalition Warrior Interoperability eXploration, eXperimentation, eXamination eXercise) e, a oggi, è noto che almeno un paese dell’alleanza sta trattando con l’Ucraina l’acquisto del software. Al momento, oltre alle capacità di situational awareness, Delta permette servizi di streaming per gli UAV (Unmanned Aerial Vehicle, veicolo aereo a pilotaggio remoto) e videocamera fisse; chat sicure per la comunicazione; strumenti di pianificazione e matrici di sincronizzazione per il riconoscimento e l’acquisizione di bersagli; integrazione con sistemi robotici e altre funzionalità in corso di sviluppo. RETI E SENSORI Alla base delle prestazioni offerte da Delta nel presentare in tempo reale la situazione di una specifica porzione del fronte c’è la crescente digitalizzazione del campo di battaglia. Come accaduto in contesti civili, anche sul campo di battaglia l’introduzione di connettività e dispositivi digitali ha avuto come conseguenza la diffusione di sensori in grado di generare e raccogliere grandi quantità di dati. Una volta trasformati in informazioni, i dati così raccolti e generati permettono di migliorare la consapevolezza e i processi decisionali. La dottrina militare ha recepito questa trasformazione attraverso il concetto di network centric warfare (“guerra centrata sulle reti”). Questo concetto rappresenta la capacità delle organizzazioni militari di raccogliere dati e distribuire informazioni in tempo reale attraverso dispositivi e reti ad alta velocità. Una capacità che continua a evolversi grazie a quella che Mick Ryan, divulgatore militare e generale in pensione dell’esercito australiano, definisce la “rete a maglie di sensori civili e militari” che avvolge oggi il campo di battaglia. L’invasione dell’Ucraina mostra come, accanto alle reti militari, alla generazione e raccolta di dati contribuiscano oggi anche reti civili. L’open source intelligence o OSINT, l’analisi dei conflitti da parte di civili attraverso dati recuperati dai social network, è possibile grazie alla diffusione di sensori non militari. Sono loro che registrano e trasmettono in tempo reale ciò che accade dentro e intorno al campo di battaglia. Questa trasformazione rende i teatri bellici più trasparenti e amplia le fonti a disposizione delle forze armate. Le reti che nascono da questo intreccio di capacità civili e militari si distinguono per una serie di elementi, caratteristiche e funzionalità: la diffusione di sensori che raccolgono dati su quanto accade, la capacità di condividere e comunicare i dati dal sensore agli operatori, sistemi sicurezza che impediscono ai dati di essere intercettati o inquinati, interfacce capaci di presentare i dati raccolti e trasmessi per dare forma al processo decisionale e infine la presenza di personale umano a cui spetta la responsabilità di trasformare le informazioni in azione, generando effetti sul campo di battaglia. È attraverso reti di questo tipo che le forze armate rispondono all’elevato livello di complessità raggiunto oggi dallo scontro bellico. Un contesto rischioso e competitivo, in cui, per avere successo, le organizzazioni militari devono coordinare tra di loro le risorse a disposizione in tutti e cinque i domini del campo di battaglia: aereo, terrestre, marittimo, spaziale e cyber. Delta fa proprio questo: raccoglie i dati dal fronte e li trasforma in informazioni utili. È così che migliora le decisioni della catena di comando e favorisce un’azione più efficace e coordinata. Il sistema tuttavia presenta un limite di cui tenere conto: la presenza e il ruolo che gli operatori umani svolgono in questo processo. DATI, INFORMAZIONE E INTELLIGENZA ARTIFICIALE La principale caratteristica della “rete a maglie di sensori civili e militari” descritta da Mick Ryan è la sua estensione. Questa rete non è solo ampia, è anche ampiamente distribuita nello spazio. Di conseguenza altrettanto ampia è la quantità di dati che essa è in grado di generare, raccogliere e trasmettere in tempo reale a un sistema che, come Delta, ha il compito di trasformarli in informazioni capaci di influenzare i processi decisionali e determinare le azioni di una forza militare. Il problema è che, per quanto complesso, il cervello umano ha capacità limitate nel processare informazioni. Maggiore è la quantità di informazioni a sua disposizione e minore sarà la capacità di una persona di percepire, ricordare e agire nel mondo in base a essa. Di fronte a questo limite, il rischio che si corre è che l’ampia disponibilità di informazioni finisca per essere d’ostacolo invece che di aiuto per i processi decisionali e la capacità d’azione degli operatori sul campo. Questo rovesciamento avviene non soltanto per la quantità di informazioni che software come Delta riescono a presentare, ma anche per la rapidità con cui lo fanno: più sono rapidi nel trasmettere un’informazione, più gli strumenti di comunicazione accelerano il ritmo con cui gli eventi si susseguono. Lo stress di chi ha la responsabilità di reagire al modo in cui evolvono gli eventi aumenta insieme al loro ritmo. All’esigenza di affrontare e superare i limiti umani nella capacità di gestire l’informazione risponde lo sviluppo e l’integrazione di sistemi di intelligenza artificiale, che ha nei campi di battaglia ucraini uno dei suoi principali laboratori. La rapida e progressiva introduzione di questi sistemi risponde alla visione strategica del paese, che mira a sostituire con sistemi autonomi il maggior numero possibile di personale umano. L’obiettivo finale di questa innovazione è ridurre il numero delle perdite e limitare l’impatto demografico del conflitto. L’autonomia dei principali sistemi d’arma, logistici e di supporto è dunque l’orizzonte ultimo dello sviluppo tecnologico ucraino, ma non è l’unico ambito in cui l’intelligenza artificiale gioca un ruolo chiave. Il caso di Delta mostra quanto questi sistemi siano coinvolti anche nei processi di comando e controllo. In particolare essi assolvono a importanti funzioni sia nella cosiddetta ISR (Intelligence, Surveillance, Reconnaissance ovvero intelligence, sorveglianza e ricognizione), che nella ATR (Automatic Target Recognition, ovvero riconoscimento automatico dei bersagli). L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE SULLE FUNZIONI ISR Nell’ambito delle funzioni di ISR,  l’intelligenza artificiale aiuta il personale umano a superare i propri limiti in termini di capacità di gestire le informazioni, permette di analizzare grandi quantità di dati in tempo reale e di superare le complessità che derivano dalla necessità di sintetizzare dati provenienti da fonti differenti. L’IA rileva, riconosce e classifica in modo automatico obiettivi a partire dall’analisi di video e immagini provenienti da satelliti, droni in volo ad alta e bassa quota, feed di videocamere fisse. Inoltre, applica lo stesso principio anche all’analisi dei pattern sonori provenienti da sistemi acustici. Infine, trascrive metadati ed estrae key entities e insight, analizzando i testi di comunicazioni intercettate, messaggi pubblicati su chat di gruppo o report inoltrati dai civili a chatbot dedicati alla raccolta di informazioni. Un buon esempio di come sistemi di intelligenza artificiale vengano oggi integrati all’interno di Delta per aiutare gli operatori a gestire le funzioni ISR è Zvook, un sistema di analisi sonora usato nella difesa aerea. Sviluppato in collaborazione con Respeecher, una startup ucraina che prima della guerra lavorava alla generazione di voci tramite intelligenza artificiale, Zvook rileva e identifica attraverso il loro suono minacce aeree in volo a quote a cui i radar sono meno efficaci. Per farlo utilizza microfoni ad alta qualità, specchi acustici curvi per concentrare le onde sonore e un computer compatto grande quanto una scatola da scarpe Una stazione Zvook è più economica di un radar tradizionale. Il suo costo è di circa 500 dollari, funziona senza emettere segnali rilevabili e il suo raggio di scoperta è di 4,8 chilometri per i droni e di 6,9 chilometri per i missili da crociera. Il tempo necessario a una stazione Zvook per elaborare e trasmettere i suoi dati a Delta, con il quale è integrata, è di circa 12 secondi e il tasso di falsi positivi dell’1,6%. Tra le informazioni trasmesse da Zvook ci sono il tipo di bersaglio, il suo suono, il luogo in cui è stato rilevato e la direzione in cui si sta muovendo, facilitando così il compito di allertare i sistemi di difesa aerea che hanno il compito di intercettare la minaccia. L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE SULLE FUNZIONI ATR Per quanto riguarda le funzioni di ATR (riconoscimento automatico dei bersagli), l’intelligenza artificiale aiuta il personale umano a distinguere esche e camuffamenti, permette ai sistemi di operare anche in ambienti densi di contromisure elettroniche e contribuisce a migliorare la performance dei sensori in condizioni di scarsa visibilità (nebbia, pioggia, neve, durante la notte) e in ambienti ricchi di infrastrutture come quelli urbani. Per svolgere le funzioni di ATR i sistemi di intelligenza artificiale possono anche essere integrati a bordo dei veicoli senza pilota, operando per migliorare la velocità, la precisione e l’efficacia del processo di acquisizione e tracciamento dei bersagli. Tali sistemi aiutano anche gli operatori umani a determinare quali siano i bersagli prioritari, basandosi su variabili analizzate in tempo reale come il livello di pericolosità, la vicinanza alle unità amiche e gli obiettivi di una missione. Addestrato con dati open source, il sistema di ATR e basato su intelligenza artificiale noto come ZIR, dell’azienda ZIR System, è in grado di identificare un’ampia gamma di bersagli. Tra questi ci sono  personale di fanteria, automobili, minivan, camion, sistemi di difesa aerea, di artiglieria, veicoli blindati e carri armati. Una volta identificato il proprio bersaglio, ZIR, che viene montato direttamente su droni d’attacco, si aggancia a esso da un chilometro di distanza e comanda autonomamente il drone fino a 3 chilometri anche in ambienti densi di contromisure elettroniche. BREVE GUIDA ALL’ECOSISTEMA TECNOLOGICO UCRAINO Oltre all’integrazione dell’intelligenza artificiale per rispondere alle esigenze dei moderni contesti di guerra, ZIR, Zvook e Delta hanno un’altra cosa in comune: sono stati sviluppati tutti e tre in Ucraina, come alcune delle più avanzate soluzioni apparse fin dall’inizio del conflitto nel 2014. Delta, per esempio, nasce nel 2016 grazie al lavoro di Aerozvidka, un gruppo di volontari impegnato a supportare le truppe ucraine impiegate nella difesa del Donbass. Anche prima di venir adottato dalle forze di difesa ucraine, Delta è stato caratterizzato da uno sviluppo costante nel tempo e da un approccio do it yourself basato su un continuo confronto con i militari impegnati al fronte, che fornivano agli sviluppatori riscontri costanti sulle prestazioni del software. Questo approccio è alla base dell’intero ecosistema dell’IA militare ucraino. Un ecosistema di cui l’iniziativa privata, autonoma e spesso volontaria, è stata una componente fondamentale. Molte di queste tecnologie nascono infatti da applicazioni sviluppate per usi civili e commerciali, che solo in seguito all’invasione su larga scala sono state adattate a usi bellici. La dinamica industria tecnologica ucraina e l’aggressione russa sono perciò alla base del rapido sviluppo che le più avanzate tecnologie militari stanno vivendo nel corso di questo conflitto. Un’accelerazione che sta determinando il modo in cui verranno combattute le guerre del futuro. L’invasione ha avuto dunque come effetto indesiderato quello di fare da volano all’industria militare ucraina che, oggi, è una delle più innovative al mondo. Questo ha fatto sì che, mano a mano che l’invasione su larga scala proseguiva, il governo ucraino si è trovato di fronte alla necessità di riconoscere il valore strategico del comparto e regolarlo di conseguenza. Sia i servizi segreti che diversi ministeri – tra cui quello della difesa, quello degli affari interni e quello della trasformazione digitale – gestiscono oggi iniziative e infrastrutture dedicate ad accelerare lo sviluppo e l’adozione di tecnologie militari basate su intelligenza artificiale. Per quanto autonomi e, in parte, indipendenti l’uno dall’altro, tutti questi sforzi condividono lo stesso approccio dal basso verso l’alto all’innovazione, rispettoso dell’indipendenza e della natura fai da te dell’ecosistema tecnologico ucraino. PRESENTE E FUTURO DELL’INTELLIGENZA ARTIFICIALE BELLICA L’analisi del caso ucraino mostra come i conflitti siano il principale motore di sviluppo e adozione di nuove tecnologie militari. La più avanzata di queste è l’intelligenza artificiale e in merito al suo uso bellico è oggi possibile isolare tre tendenze distinte. La prima mostra come l’integrazione dell’intelligenza artificiale nelle organizzazioni militari sia un processo in crescita. La seconda che la sua adozione non può essere predeterminata, ma segue piuttosto logiche contingenti. La terza e ultima è che l’uso delle macchine non dovrebbe rimpiazzare gli operatori umani nelle funzioni di comando e controllo. Priva di supervisione umana, libera di prendere decisioni per suo conto, l’intelligenza artificiale diventerebbe di fatto un attore strategico autonomo. L’intelligenza artificiale non è infatti un semplice moltiplicatore di forze, bensì una tecnologia che approfondisce ed evolve la natura dell’interazione umano-macchina. In questo modo, l’intelligenza artificiale è in grado di riscrivere profondamente i meccanismi psicologici che garantiscono la deterrenza reciproca degli stati. Ciononostante, il dibattito sul grado di autonomia da concedere ai sistemi d’arma dotati di intelligenza artificiale è aperto e si struttura intorno a due posizioni opposte: quella che vede nella piena automazione dell’uso della forza un pericolo con notevoli implicazioni etiche; e quella che per cui l’autonomia condurrà a un futuro di guerre meno distruttive e sanguinose. L’intelligenza artificiale, al crocevia tra opportunità tattiche e rischi strategici, solleva interrogativi che nessuna tecnologia può risolvere da sola. Il futuro della guerra – e forse anche della pace – si giocherà nella capacità delle società democratiche di regolarne lo sviluppo prima che siano forze diverse a farlo. L'articolo Le frontiere belliche dell’intelligenza artificiale proviene da Guerre di Rete.