I Costi Planetari dell’Intelligenza Artificiale“Artificial Intelligence is neither artificial nor intelligent.” – Kate
Crawford, Atlas of AI
CHE COS’È DAVVERO L’INTELLIGENZA ARTIFICIALE?
Oggi l’Intelligenza Artificiale (IA) viene spesso presentata come una forza
astratta, inevitabile, quasi naturale. È descritta con toni mitici: un’entità
autonoma e neutrale capace di apprendere, decidere, persino “pensare”. Tuttavia,
questa rappresentazione maschera la sua vera natura: l’IA non è una magia, né
una creatura indipendente. È un artefatto tecnico, economico e sociale,
costruito da esseri umani in contesti specifici, con obiettivi precisi.
I sistemi di intelligenza artificiale non “capiscono” il mondo nel senso umano
del termine. Non hanno coscienza, intenzioni o consapevolezza. Funzionano
attraverso la raccolta e l’elaborazione di enormi quantità di dati, applicando
modelli statistici per individuare schemi, correlazioni e probabilità,
categorizzando, classificando, prevedendo e automatizzando. In questo processo,
le dimensioni complesse, relazionali e contestuali della vita vengono spesso
appiattite in punti dati standardizzati e obiettivi di efficienza. Ciò che non
può essere quantificato viene tipicamente escluso; ciò che non può essere
previsto viene spesso svalutato. L’IA quindi non è un’entità neutra. È un
sistema progettato, addestrato e valutato attraverso scelte umane. Ed è proprio
da queste scelte che dobbiamo partire per capirne i costi—non solo
computazionali, ma ecologici, sociali, politici.
L’IA NON ESISTE SENZA LA TERRA
Dietro l’apparente immaterialità dell’Intelligenza Artificiale – assistenti
virtuali, generatori di immagini, auto autonome, sistemi di riconoscimento
facciale e targeting in scenari di guerra – si nasconde una infrastruttura
materiale colossale. L’IA vive in data center, server, cavi sottomarini,
satelliti, batterie e sensori. Ogni operazione che sembra avvenire nell’etere si
basa su un ciclo estrattivo che parte dalla Terra: litio, cobalto, nichel, rame,
silicio. L’industria dell’IA è inseparabile da catene di approvvigionamento
globali segnate da sfruttamento umano, disuguaglianze geografiche e impatti
ambientali devastanti.
Anche a causa della crescente domanda di tecnologie legate all’intelligenza
artificiale, la ricerca di nuove fonti di materiali critici ha subito
un’accelerazione senza precedenti. Questo processo non solo minaccia ecosistemi
fragili e complessi, ma mette seriamente a rischio anche le culture e la
sopravvivenza delle popolazioni locali, in particolare nei Paesi del Sud
globale.
Alcuni esempi sono in Africa australe e subsahariana, nella Repubblica
Democratica del Congo dove oltre il 70% del cobalto mondiale viene estratto, o
in paesi come il Madagascar, il Mozambico e il Sudafrica, coinvolti
nell’estrazione di grafite e terre rare. Il Sud America con il “triangolo del
litio” – che comprende Argentina, Bolivia e Cile – al centro di un boom
minerario.. Le comunità locali non traggono reale beneficio economico
dall’attività estrattiva, ma ne subiscono le conseguenze in termini di
inquinamento dell’acqua, deforestazione e conflitti armati alimentati dal
controllo delle risorse. Questi fenomeni rivelano come la transizione
tecnologica e digitale globale sta riproducendo disuguaglianze profonde,
spostando ancora una volta il peso ambientale e sociale sulle spalle delle
comunità più vulnerabili.
Oltre a ciò, i paesi industrializzati, con quelli europei in prima linea,
manifestano una voracità tale per queste materie prime da puntare ora a ricavare
le stesse risorse all’interno dei propri confini. Così l’estrazione di materie
prime critiche in Europa viene presentata non solo come una scelta
geopoliticamente più sicura, ma anche come una svolta etica rispetto allo
sfruttamento delle risorse nei paesi del Sud globale. Dietro questa narrazione
apparentemente virtuosa, si cela in realtà una continuità profonda con le
logiche di potere e appropriazione del passato. Cambiano i luoghi e le
giustificazioni, ma il paradigma resta lo stesso: assicurarsi il controllo delle
risorse, ovunque esse siano, per mantenere un vantaggio strategico in
un’economia globale sempre più competitiva e vorace.
I metodi estrattivi sono spesso estremamente invasivi. Le miniere a cielo aperto
comportano la rimozione massiccia di suolo e vegetazione, mentre le miniere
sotterranee pongono problemi di instabilità del terreno e infiltrazioni.
L’estrazione di terre rare trasforma ampie zone in paesaggi lunari, con gravi
impatti sulla salute delle comunità locali per via delle polveri tossiche e del
rilascio di radionuclidi. Inoltre per poter estrarre le risorse, i territori
devono essere resi “accessibili”. Questo comporta la costruzione di strade,
impianti di trattamento, oleodotti. Queste infrastrutture, spesso imposte senza
consultazione, trasformano aree ecologicamente intatte in distretti
industriali.
Una volta estratte, le materie prime devono essere raffinate. Questo processo
richiede grandi quantità di acqua, energia e sostanze chimiche aggressive. Gli
abitanti vicino ai principali centri di raffinazione delle terre rare soffrono
di malattie respiratorie, cancro e infertilità, mentre le acque e i suoli
agricoli vengono contaminati da metalli pesanti e altri inquinanti.
Tutto questo rimane in gran parte escluso dal dibattito pubblico.
L’estrattivismo che sostiene l’IA è spesso geograficamente distante dai centri
in cui questa viene progettata, venduta o discussa. Questa distanza genera una
forma di dislocazione epistemica e ambientale, che alimenta l’illusione
dell’immaterialità del digitale e rende difficile cogliere il vero costo umano
ed ecologico della sua produzione.
DAI MINERALI AI MICROCHIP – LA PRODUZIONE INVISIBILE
L’impatto dell’IA non si esaurisce con l’estrazione delle materie prime: anche
la fabbricazione dei semiconduttori – componenti essenziali di ogni dispositivo
che impiega intelligenza artificiale – rappresenta una delle attività
industriali più complesse, energivore e inquinanti. Eppure, questa fase della
filiera produttiva rimane spesso ai margini dell’attenzione pubblica e
mediatica, oscurata dal fascino dei prodotti finiti o dalle promesse
dell’innovazione. La produzione di un singolo wafer di silicio da 30 cm può
richiedere fino a 8.000 litri di acqua ultrapura, necessaria per garantire la
precisione estrema dei processi. Nel complesso, il settore dei semiconduttori
consuma ogni anno circa 40 miliardi di litri d’acqua (Silicon Valley Water
Association), con impatti enormi in termini di stress idrico, consumo energetico
e produzione di rifiuti chimici. Secondo l’International Energy Agency (IEA), la
domanda di minerali per tecnologie digitali e green è destinata a quadruplicare
entro il 2040.
Dopo la produzione, i microchip vengono inviati per l’assemblaggio in grandi
impianti situati prevalentemente in Asia: Cina, Malesia e Vietnam rappresentano
oggi oltre il 50% della capacità globale in questo campo (OECD, 2023). Questi
hub produttivi attraggono investimenti grazie al basso costo della manodopera e
a normative poco stringenti. Tuttavia, dietro il mito della “fabbrica
efficiente” si nasconde una realtà fatta di salari minimi, turni massacranti e
carenza di diritti. Secondo Human Rights Watch, molte lavoratrici e lavoratori
del settore elettronico operano in condizioni di forte stress, senza tutele per
la salute o la sicurezza, e con scarsa possibilità di migliorare la propria
condizione.
Prima di arrivare nei negozi e nelle nostre mani, i dispositivi intelligenti
vengono testati e confezionati in hub come Shenzhen (Cina), Chennai (India) o
Guadalajara (Messico). È qui che si verifica la qualità, si confezionano i
prodotti finali e si prepara la loro immissione sul mercato globale.
Ogni tappa aggiunge un ulteriore strato alla rete produttiva: un sistema
logistico e industriale ipercomplesso, in cui i passaggi tra continenti sono
scanditi da algoritmi, contratti e zone franche. Una rete che si regge su un
equilibrio fragile, continuamente esposto a crisi geopolitiche, pandemie,
sanzioni commerciali e guerre.
Il risultato di questa lunga catena è un ecosistema produttivo che consuma
risorse e devasta territori, diretta conseguenza di una dinamica tipica del
capitalismo: gli attori responsabili, mossi da una visione miope e ottusa,
ignorano deliberatamente le conseguenze pur di massimizzare il profitto a breve
termine.
ADDESTRARE LA MACCHINA – IL CONSUMO COMPUTAZIONALE
L’addestramento dei modelli di IA è oggi una delle operazioni computazionali più
costose e impattanti al mondo. È qui che i sistemi “imparano” a riconoscere
immagini, comprendere il linguaggio, imitare comportamenti umani, ma a quale
prezzo?
Per addestrare i cosiddetti modelli di linguaggio di grandi dimensioni (LLM),
come GPT o PaLM, occorre elaborare colossali quantità di dati — interi archivi
digitali, milioni di siti web, libri, immagini, conversazioni – di cui aziende
private si appropriano in maniera indebita, senza alcun limite o consenso.
Questo avviene attraverso calcoli ripetuti su enormi cluster di GPU (unità di
elaborazione grafica ad alta performance), localizzati in centri dati che
consumano enormi quantità di energia e acqua.
Secondo uno studio dell’Università del Massachusetts, addestrare un singolo
modello di linguaggio può emettere oltre 284 tonnellate di CO₂. Una ricerca più
recente pubblicata su Nature Machine Intelligence ha evidenziato che i consumi
elettrici possono superare quelli di intere città medie europee, soprattutto se
alimentati da fonti fossili.
Anche in questa fase si cela un importante consumo idrico. I data center che
ospitano i server per l’IA necessitano di sistemi di raffreddamento costanti.
Secondo Google, nel solo 2022 i suoi data center hanno consumato oltre 21
miliardi di litri d’acqua per mantenere le infrastrutture a temperature
ottimali.
IL LAVORO UMANO DIETRO L’AUTOMAZIONE
Mentre nei centri del capitalismo tecnologico si esalta la “macchina che pensa”,
si oscura deliberatamente la realtà materiale del lavoro vivo che rende
possibile l’intelligenza artificiale. L’IA non è il frutto di una generazione
spontanea di innovazione, ma una tecnologia costruita sul lavoro umano
sistematicamente svalorizzato. Dietro questi algoritmi c’è una forza lavoro
globale frammentata e invisibilizzata, impiegata in forme di lavoro digitale che
riproducono le stesse dinamiche di sfruttamento del capitalismo industriale, ma
su scala planetaria.
Milioni di lavoratori e lavoratrici, situati in paesi come Kenya, India,
Venezuela e Filippine, svolgono compiti essenziali per l’addestramento dei
modelli: annotano dati, classificano immagini, trascrivono testi, filtrano
contenuti violenti o sessuali, e forniscono giudizi che orientano ciò che i
modelli “imparano”. Si tratta di lavoro alienato, parcellizzato e dequalificato,
che viene espropriato del suo valore per essere trasformato nelle mani delle
grandi piattaforme dell’IA.
Questo esercito industriale-digitale lavora in condizioni precarie, senza tutele
né contratti stabili, e spesso con compensi miseri. La loro estraneità al
prodotto finale è totale: pur svolgendo un ruolo fondamentale nella formazione
delle “intelligenze” artificiali, non hanno alcun controllo né riconoscimento
sul valore che producono.
Un altro aspetto fondamentale, spesso trascurato, è che il “mondo” che una
macchina impara a conoscere non è oggettivo né neutrale, ma il prodotto delle
categorie, dei giudizi e delle ideologie dominanti. I sistemi di intelligenza
artificiale non apprendono dalla realtà in sé, ma da dati preesistenti che
riflettono relazioni sociali, storiche e culturali già segnate da
disuguaglianze. Potremmo dire che l’IA interiorizza l’ideologia della classe
dominante, naturalizzando criteri e valori che sono tutt’altro che universali.
Prima ancora di chiederci se una macchina debba poter “giudicare” un pesce – o
qualunque altra cosa – dal suo aspetto, dovremmo chiederci chi decide cosa è
rilevante, cosa è giusto, cosa è normale. La macchina non fa altro che
replicare, su scala automatizzata, decisioni umane preesistenti, spesso guidate
da logiche di efficienza, controllo e standardizzazione.
In altre parole, l’IA non solo automatizza processi cognitivi: automatizza anche
i pregiudizi, le esclusioni e le visioni del mondo proprie del contesto storico
e sociale in cui viene costruita. È il trionfo dell’ideologia sotto forma di
codice: l’apparenza di razionalità tecnica maschera scelte profondamente
politiche. E così, ciò che appare come una semplice “classificazione automatica”
è in realtà l’estensione di una forma di dominio.
IA PER IL CONTROLLO DEL LAVORO
L’intelligenza artificiale emerge come l’ennesima forma in cui il capitale
mercifica e sussume il lavoro umano: essa esiste solo grazie ad esso, ma allo
stesso tempo lo trasforma radicalmente, lo sorveglia e ne riduce il valore. Nel
contesto produttivo contemporaneo, l’IA viene presentata come uno strumento per
semplificare, aiutare, “liberare” il lavoratore da compiti ripetitivi. In
realtà, riduce le mansioni a funzioni meccaniche, standardizzabili, svuotate di
contenuto umano e soggettività. Le competenze vengono svalutate e il lavoratore
diventa sempre più intercambiabile, subordinato al flusso continuo di comandi
generati da sistemi algoritmici.
Nei luoghi di lavoro digitalizzati – dalle catene di montaggio ai call center –
l’autonomia si dissolve. L’algoritmo assegna compiti, tempi, modalità, e giudica
la performance. Questo non è solo un caso di efficienza tecnica, ma una forma
avanzata di alienazione, in cui non è più soltanto il corpo ad essere
disciplinato, ma anche il pensiero. Come ha osservato Shoshana Zuboff, non siamo
solo di fronte a una meccanizzazione dei corpi, ma a una vera e propria
automazione del pensiero. Il lavoro cognitivo – la capacità di decidere,
valutare, adattarsi – viene progressivamente trasferito al sistema informatico.
Non è più l’operaio, il rider o l’operatrice di call center a gestire la propria
attività: è la macchina che detta ogni passaggio, riducendo il lavoratore a un
esecutore silenzioso.
Il rider non può scegliere il percorso migliore: l’app glielo assegna,
calcolando tempi e priorità in base a logiche che sfuggono al suo controllo.
Analogamente, nei centri di smistamento di Amazon, i lavoratori della logistica
sono sottoposti a un controllo algoritmico implacabile: il loro scanner non solo
indica quale pacco prendere e dove riporlo, ma monitora costantemente i tempi di
esecuzione, segnalando ogni minima deviazione dagli standard prefissati. Questo
sistema non lascia spazio a decisioni autonome, come ottimizzare i propri
movimenti o gestire pause non previste, trasformando ogni gesto in un anello di
una catena determinata da un’intelligenza artificiale. L’operatrice non
costruisce un discorso sulla base della conversazione reale: segue uno script
generato da un algoritmo che ottimizza efficienza e risultati. In entrambi i
casi, la capacità di pensare in modo autonomo, di improvvisare, di usare
l’esperienza, viene degradata. L’intelligenza non scompare, ma viene espropriata
dal lavoratore e riassegnata alla macchina, che diventa il vero cervello
operativo del processo produttivo.
Questa logica produce dipendenza funzionale: più l’IA guida, corregge, anticipa,
più il lavoratore viene sollevato dallo sforzo — e disabituato all’autonomia.
Con il tempo, l’intelletto stesso si atrofizza, in quello che alcuni studiosi
definiscono “regresso cognitivo”: capacità un tempo diffuse – orientarsi,
scegliere, argomentare – si perdono sotto la pressione di sistemi che
“semplificano” per conto nostro. È una forma di sottomissione cognitiva al
capitale, mascherata da progresso.
L’IA E LA FORMAZIONE
Anche in ambito educativo e formativo, questa logica è ormai una realtà
consolidata. Le tecnologie di intelligenza artificiale vengono introdotte con la
promessa di rendere l’apprendimento più “personalizzato” e accessibile, ma nella
pratica stanno contribuendo a standardizzare il pensiero, a uniformare i
percorsi formativi e a limitare la libertà di apprendere in modo critico. L’IA,
presentata come un catalizzatore di conoscenza, finisce per trasformare il
processo formativo in una mera trasmissione di informazioni pre-digerite,
riducendo lo spazio per la riflessione autonoma e la costruzione personale del
sapere. Sistemi di tutoring automatizzato, valutazione predittiva e scrittura
assistita non valorizzano l’errore creativo, la sperimentazione o l’ambiguità:
al contrario, tendono a guidare gli studenti e i discenti verso risposte già
riconosciute come corrette, riproducendo modelli consolidati e scoraggiando ogni
deviazione dal percorso “ottimale” definito dall’algoritmo.
Un esempio evidente è l’uso crescente di piattaforme educative come Khan
Academy, che oggi integra un assistente AI (Khanmigo) per seguire passo passo
gli studenti nei compiti. L’intelligenza artificiale suggerisce risposte, guida
la risoluzione degli esercizi e segnala quando uno studente “devia” troppo dal
percorso previsto. Anche se viene presentata come una guida, di fatto incanala
l’apprendimento entro schemi precostituiti, limitando la possibilità di approcci
alternativi o ragionamenti fuori standard. Chi non rientra nel modello – chi
pensa lateralmente, chi formula ipotesi insolite – viene corretto o riportato
sulla “strada giusta”.
Così, i luoghi della formazione si trasformano sempre più in luoghi di
addestramento alla conformità. L’insegnamento si piega sempre di più alle
logiche dell’ottimizzazione: apprendere non significa più esplorare, sbagliare,
costruire un pensiero proprio, ma aderire a un modello ideale predefinito, con
il rischio concreto di formare individui capaci di eseguire, ma sempre meno
abili a interrogarsi criticamente sulla realtà.
TRA USARE ED ESSERE USATI
La linea sottile tra l’utilizzo e l’essere utilizzati si sfuma rapidamente
quando gli strumenti tecnologici, invece di elevare la nostra consapevolezza, ci
soppiantano nel processo di riflessione. Questa dinamica amplifica il potere
del capitale a discapito di quello umano. Le valutazioni e le direttive
provengono da sistemi algoritmici opachi, immuni a ogni forma di contestazione.
Il lavoratore è così posto in una condizione di impotenza, soggetto a una
macchina che arbitra il suo destino lavorativo – valutando, sanzionando e
assegnando incarichi – senza trasparenza né possibilità di replica.
Le aziende avallano l’adozione di questi sistemi invocando efficienza e
imparzialità. Eppure, nella pratica, gli algoritmi spesso riproducono e persino
esacerbano disuguaglianze preesistenti. Un’indagine congiunta di MIT e Stanford
ha rivelato come i sistemi di pianificazione algoritmica penalizzino
sistematicamente lavoratori con responsabilità familiari o disabilità,
etichettandoli come “meno disponibili” e, di conseguenza, “meno produttivi”.
La direzione è chiara: l’intelligenza artificiale sta riconfigurando il lavoro
in una successione di micro-comandi, eseguiti da esseri umani sotto sorveglianza
costante. Questa evoluzione ci conduce verso un orizzonte ancora più
preoccupante: una società in cui gli individui non solo rinunciano al loro
potere decisionale, ma sono assoggettati a una sorveglianza, valutazione e
categorizzazione ininterrotta. Quando il nostro senso critico si offusca, la
sottomissione a un controllo mascherato da progresso diventa una realtà
accettabile.
IA PER LA SORVEGLIANZA, IL CONTROLLO E LA DISCRIMINAZIONE
Come abbiamo visto le applicazioni dell’intelligenza artificiale non sono
semplici strumenti di efficienza tecnica: sono dispositivi politici che
rafforzano il potere di chi comanda e disciplinano i corpi di chi subisce. In
molti contesti – dalle scuole ai tribunali, dalle città alle frontiere – l’IA
viene impiegata per sorvegliare, classificare e punire. Il potere di osservare
si trasforma in potere di decidere, senza trasparenza, senza appello, senza
controllo.
I sistemi di riconoscimento facciale, sempre più diffusi in spazi pubblici e
privati, non riconoscono tutti allo stesso modo. Secondo uno studio del MIT
Media Lab (2018), i principali software commerciali identificano correttamente
quasi tutti i volti maschili bianchi, ma sbagliano fino al 35% delle volte
quando si tratta di donne nere. Questo non è un malfunzionamento casuale: è la
riproduzione automatica di una gerarchia razziale inscritta nei dati e nelle
strutture di potere che li generano.
Lo stesso vale per gli algoritmi predittivi, come COMPAS, usato negli Stati
Uniti per valutare la “pericolosità” di imputati e prevedere la probabilità che
compiano altri reati. Secondo un’indagine di ProPublica, COMPAS sovrastima il
rischio per i neri (in oltre il 45% dei casi) e lo sottostima per i bianchi
(solo il 23% dei casi), perpetuando un razzismo sistemico. Quando algoritmi come
questi vengono addestrati con dati di polizia e tribunali, il risultato è
inevitabilmente la codifica dei pregiudizi passati. Ciò significa che le
pratiche discriminatorie – come i fermi più frequenti per le minoranze o le
sentenze più dure – vengono internalizzate, producendo decisioni automatizzate
che, pur sembrando oggettive, perpetuano tali iniquità.
Questa automatizzazione del pregiudizio è parte integrante di un sistema che usa
la tecnologia per rafforzare il controllo sulle classi subalterne. È il volto
“neutrale” della repressione, una nuova forma di governo algoritmico che
sostituisce la violenza esplicita con l’arbitrio silenzioso delle macchine.
IL CARBURANTE NASCOSTO: I NOSTRI DATI
Alla base di tutto questo c’è una logica economica: il capitalismo della
sorveglianza. Un modello descritto dall’esperta Shoshana Zuboff, secondo cui le
tecnologie digitali non si limitano a raccogliere dati, ma trasformano ogni
aspetto dell’esperienza umana in materia prima estraibile, analizzabile,
vendibile.
Nel cuore di questa logica economica c’è un meccanismo sistematico di estrazione
della vita quotidiana. Ogni clic, ogni percorso GPS, ogni parola detta o
scritta, ogni battito cardiaco tracciato da un dispositivo indossabile, ogni
espressione facciale registrata da una videocamera diventa materia prima grezza
per l’addestramento e il perfezionamento dei sistemi di intelligenza
artificiale.
Questo processo ha una somiglianza con le dinamiche del colonialismo storico:
come un tempo si estraevano oro, carbone, petrolio da territori conquistati,
oggi si estraggono anche emozioni, pensieri, abitudini e caratteristiche
biometriche dalle vite degli individui, spesso senza che questi ne abbiano
consapevolezza. È ciò che alcuni definiscono “colonialismo dei dati” o
“colonialismo digitale”.
In questo scenario, le persone non sono utenti da servire, ma risorse da
sfruttare. I nostri comportamenti diventano “beni estraibili”, mentre
l’intelligenza artificiale si nutre di ciò che siamo e facciamo.
Questo sistema si fonda su una illusione di consenso. In teoria, gli utenti
autorizzano la raccolta dei propri dati. In pratica, tale consenso è spesso
forzato, ambiguo o manipolato. Le richieste di autorizzazione sono formulazioni
vaghe, nascoste dentro termini di servizio lunghi e poco leggibili, accettati
frettolosamente per accedere a una funzione o continuare a usare un’app. Oltre
al consenso distorto, c’è un livello di raccolta ancora più subdolo: quello
invisibile e passivo. Dispositivi con microfoni e telecamere sempre attivi,
sensori biometrici, cookie traccianti, ID pubblicitari nascosti. Tutti questi
strumenti continuano a raccogliere dati anche quando non interagiamo
direttamente con il servizio o lo smartphone, contribuendo alla creazione di
profili dettagliati e persistenti.
Il risultato è un mondo in cui la sorveglianza è diventata parte
dell’infrastruttura quotidiana, tanto integrata da passare inosservata. La
privacy non è più la norma, ma una condizione eccezionale, spesso costosa o
tecnicamente complessa da ottenere. E mentre le nostre identità digitali vengono
costruite, analizzate e vendute da soggetti terzi, la possibilità di esercitare
un controllo reale sul proprio sé digitale si dissolve.
Non siamo più solo utenti, ma oggetti di calcolo, target pubblicitari, soggetti
monitorati. Più si automatizza la raccolta e l’analisi, meno spazio resta per la
consapevolezza individuale e la libertà collettiva. I benefici—potere economico,
profitti, capacità predittiva, sorveglianza—sono accentrati nelle mani di pochi
attori globali. I costi invece—in termini di privacy, autonomia, dignità—vengono
socializzati e ricadono sulla collettività.
L’IA IN GUERRA – IL RITORNO DELLA CORSA AGLI ARMAMENTI
L’intelligenza artificiale non sta solo modificando il modo in cui viviamo,
lavoriamo e comunichiamo. Sta anche ridefinendo radicalmente la natura stessa
della guerra. Siamo entrati in una nuova era di conflitti in cui software
predittivi, armi autonome, sorveglianza totale e guerra informatica non sono più
scenari futuristici, ma pratiche operative che si stanno consolidando con grande
rapidità.
Uno degli aspetti più inquietanti è la crescente delegazione delle decisioni
letali a sistemi di IA. Le armi autonome letali (LAWS – Lethal Autonomous Weapon
Systems) possono selezionare e colpire obiettivi senza intervento umano
significativo, in base a criteri codificati in algoritmi opachi e inaccessibili.
La vita umana viene decisa da un algoritmo, senza spazio per il dubbio, la pietà
o il contesto. È la violenza del capitale in forma algoritmica, dove la guerra
viene gestita come un calcolo, e l’eliminazione del nemico – spesso migrante,
ribelle, civile – diventa una funzione eseguibile.
Chi risponde quando una bomba intelligente colpisce una scuola o un mercato?
Nessuno. La responsabilità si dissolve in una catena opaca di decisioni
automatizzate, coperta da segreti militari e proprietà intellettuale. L’umano
viene espulso dal processo di analisi e scelta, ma resta l’esecutore e spesso la
vittima.
L’AI militare non è solo un problema morale: è il prodotto diretto di un sistema
che monetizza la guerra e organizza la morte su scala industriale. Il
militarismo digitale è il volto armato del neoliberismo, dove l’automazione
della violenza serve a proteggere gli interessi geopolitici, economici e
coloniali delle potenze dominanti.
IL CASO ISRAELE-GAZA:
Un esempio significativo dell’uso aggressivo e sistemico dell’IA in guerra viene
dal conflitto a Gaza. Secondo un’inchiesta di The Guardian e altre fonti, a
partire dal 7 ottobre 2023, Israele ha impiegato massicciamente sistemi di IA
per identificare obiettivi umani.
Uno di questi sistemi, noto come “Lavender”, ha incrementato il numero di
obiettivi colpiti da circa 50 all’anno a 100 al giorno, basandosi su una
classificazione algoritmica della presunta appartenenza o vicinanza ai gruppi
combattenti. Il risultato: migliaia di morti civili considerati “danni
collaterali accettabili”, all’interno di un sistema automatizzato che opera con
criteri di efficienza più che di proporzionalità o umanità.
L’adozione dell’IA in ambito militare non è circoscritta a conflitti regionali.
La NATO stessa ha annunciato lo sviluppo del suo Multi-Domain Sensing System
(MSS), con il supporto di aziende private come Palantir Technologies, celebre
per i suoi strumenti di sorveglianza e analisi predittiva.
Uno dei vantaggi dichiarati del MSS è proprio la possibilità di accelerare
drasticamente il processo decisionale sul campo, integrando dati in tempo reale
da più domini (terra, aria, mare, spazio, cyberspazio). Questa “velocità”
decisionale comporta però la perdita della riflessione, del contesto e della
responsabilità individuale che può portare a errori devastanti, aggravati
dall’automation bias, ovvero la tendenza umana a fidarsi ciecamente delle
raccomandazioni della macchina.
L’algoritmo decide, l’umano esegue. E la responsabilità si dissolve.
LA CORSA ALL’IA MILITARE
Non siamo di fronte a un semplice aggiornamento tecnologico delle forze armate:
la militarizzazione dell’intelligenza artificiale segna una discontinuità
storica, un punto di svolta nella concezione stessa della potenza militare. Come
la bomba atomica ha segnato il XX secolo, l’IA si candida a essere l’arma
strategica per eccellenza del XXI.
Questa corsa non ha nulla a che vedere con la difesa dei confini. È piuttosto
una lotta per l’egemonia globale, in cui la superiorità tecnologica si traduce
in dominio geopolitico, controllo delle risorse e subordinazione dei popoli. Chi
riesce a dominare le applicazioni militari dell’IA – dai droni autonomi
all’intelligence predittiva – acquista un vantaggio tale da riscrivere gli
equilibri internazionali. La supremazia algoritmica infatti agisce su diversi
fronti:
* Gestione operativa dei conflitti, grazie alla possibilità di anticipare,
simulare e neutralizzare le minacce in tempo reale, si aprono nuove
opportunità per interventi preventivi, attacchi di precisione e guerre
informatiche.
* Controllo dell’informazione, con la manipolazione automatizzata di flussi
mediatici, fake news e propaganda in grado di influenzare elezioni e
destabilizzare interi paesi;
* Deterrenza algoritmica, dove il solo possesso di armi autonome e sistemi di
sorveglianza totale funziona da strumento di pressione e intimidazione su
scala planetaria;
* Sovradeterminazione geopolitica, imponendo standard, vendendo tecnologia, e
plasmando le alleanze in base alla dipendenza da questi sistemi.
Gli Stati Uniti, la Cina, e una manciata di altre potenze stanno investendo
somme colossali in questa corsa armata. Università, startup dual-use, aziende
private come Palantir, Anduril e Leonardo, e think tank finanziati da ministeri
della difesa si integrano nel nuovo complesso industriale-militare-digitale,
dove ricerca scientifica e logica bellica si fondono nell’interesse del profitto
e del controllo.
Questo processo ha conseguenze profonde e devastanti sul piano globale: si sta
aprendo una nuova frattura tra chi controlla l’IA militare e chi la subisce.
Mentre i paesi ricchi rafforzano la loro superiorità strategica, molti Stati
meno sviluppati diventano dipendenti dalle tecnologie prodotte altrove, perdendo
ulteriormente sovranità in ambito militare, informativo e persino culturale.
Nei territori colonizzati, nei margini del Sud globale e nelle periferie urbane,
l’IA bellica viene testata prima su chi non ha voce né diritti: Gaza, come
laboratorio di sorveglianza totale e omicidi automatizzati, è solo uno dei tanti
esempi. La logica è brutale: chi controlla l’algoritmo, controlla il pianeta. E
come sempre, chi ne paga il prezzo è chi sta in basso: lavoratori, minoranze,
popolazioni colonizzate. Non siamo di fronte a un rischio tecnico, ma a una
minaccia politica, sistemica e strutturale. Come nella Guerra Fredda,
accumuliamo potenziale distruttivo. Ma a differenza delle testate nucleari, l’IA
militare è invisibile, deregolamentata, scalabile e si moltiplica
silenziosamente.
L’alternativa non può che essere politica e collettiva: resistere all’uso
militare della tecnologia, smascherare l’ideologia della “neutralità” e
costruire modelli di ricerca, cooperazione e difesa radicalmente opposti alla
logica del dominio.
L’IA COME SPECCHIO DEL POTERE
L’IA non è una forza naturale, neutrale o autonoma: è una tecnologia modellata
da scelte politiche, economiche e culturali ben precise. Di conseguenza, come la
maggior parte delle innovazioni, inevitabilmente riflette e amplifica gli
equilibri di potere esistenti. L’IA è un’infrastruttura globale complessa, fatta
di data center, contratti militari, piattaforme private, algoritmi opachi,
lavoro umano invisibile, minerali estratti in territori sfruttati, decisioni
politiche prese lontano dalle persone. È una rete che incorpora logiche di
sorveglianza, estrazione, controllo, diseguaglianza, all’interno di un preciso
sistema economico: quello capitalista.
Dietro la retorica dell’efficienza, della personalizzazione e del progresso,
l’IA è soprattutto una tecnologia del potere: chi la possiede, chi la governa,
chi la subisce, il potere di pochi su molti. Potere di decidere chi viene
assunto e chi scartato, chi riceve credito e chi viene escluso, chi è un
“rischio” e chi è “affidabile”. È una forma di governance autoritaria che si
presenta come oggettiva, ma che riproduce — e spesso amplifica — le stesse
gerarchie di razza, genere e classe che strutturano il capitalismo globale.
Non è una questione di futuro, ma di presente. Non è solo una questione tecnica,
ma profondamente politica: non la politica dei partiti, ma quella dei conflitti
reali, delle scelte collettive, delle alternative al dominio. Finché
l’intelligenza artificiale sarà sviluppata, governata e posseduta da chi detiene
già il potere economico e militare, non potrà che servire a consolidare l’ordine
esistente e a disciplinare, sostituire o silenziare chi lavora, chi resiste, chi
eccede.
TRE DOMANDE PER IL FUTURO
In un’epoca in cui l’intelligenza artificiale sembra espandersi in ogni sfera
della vita – dal lavoro all’istruzione, dalla guerra alla salute – è urgente
rompere l’incantesimo ideologico che la circonda. L’IA non è sostenibile per
definizione, in quanto prodotto diretto delle logiche del capitale: energivora,
estrattiva, centralizzata, diseguale.
🔹 A chi giova l’espansione dell’IA?
A trarne vantaggio sono le multinazionali della tecnologia, i complessi
militari-industriali, le potenze che dominano le infrastrutture digitali del
pianeta. Il linguaggio dell’efficienza serve a mascherare l’aumento del
controllo, la compressione del lavoro, la neutralizzazione del dissenso. Ma
quali vantaggi reali ha la collettività? L’IA migliora la vita di tutti o solo
il margine operativo di chi la controlla?
🔹 Chi paga i suoi costi invisibili?
Il costo reale dell’IA è sostenuto da chi estrae i minerali nei Sud globali, da
chi annota e filtra dati per pochi centesimi, da chi vive nei territori
devastati dai data center, da chi subisce profilazioni discriminatorie. È
sostenuto da chi vede la propria intelligenza ridotta a input per algoritmi
proprietari, da chi viene escluso dalle decisioni e sorvegliato nei processi. È
un costo sociale, ecologico e umano.
🔹 Quali forme alternative di tecnologia possiamo immaginare?
Rifiutare questa IA non significa rifiutare la tecnologia, ma rifiutare il
modello economico che la governa. Possiamo e dobbiamo immaginare strumenti
orientati ai bisogni reali, sviluppati in modo collettivo e sostenibile.
Tecnologie che non estraggano valore ma lo restituiscano, che non sorveglino ma
connettano, che non disumanizzino ma potenzino le forme di cooperazione.
L’intelligenza artificiale, in definitiva, non è un destino. È una scelta. E
come ogni scelta, può essere contestata, decostruita, trasformata. Per farlo
serve una nuova alfabetizzazione politica, capace di decifrare il potere
nascosto nelle infrastrutture, e una nuova coscienza collettiva che riconosca in
questa tecnologia non solo un insieme di strumenti, ma un campo di lotta.
Riaprire la possibilità di scegliere che tecnologia vogliamo e per chi è un
gesto profondamente politico. Solo rimettendo al centro il conflitto sociale,
possiamo rivendicare un futuro non governato dalle macchine del capitale, ma
costruito dalla volontà collettiva.
--------------------------------------------------------------------------------
FONTI
* AI + Planetary Justice Alliance (2025). https://aiplanetaryjustice.com/
* Amnesty International (2021). Ban the Scan campaign.
https://banthescan.amnesty.org/index.html
* Amnesty International (2023). This is What We Die For – Human Rights Abuses
in the Cobalt Supply Chain.
https://www.amnesty.org/en/documents/afr62/3183/2016/en/
* Artificial Intelligence and the Future of Warfare.
https://www.academia.edu/38373946/Artificial_Intelligence_and_Future_Warfare_Implications_for_International_Security
* Digiconomist (2024). Energy Consumption and Carbon Emissions of Artificial
Intelligence. https://www.cell.com/joule/fulltext/S2542-4351(23)00365-3
* Michael Kwer (2024). Digital Degrowth
https://www.plutobooks.com/9780745349862/digital-degrowth/
* Education Week (2023). AI Tutors in the Classroom: Personalized Help or
Standardized Thinking?
https://www.edweek.org/technology/opinion-ai-tutors-can-be-both-a-help-and-a-hindrance-in-the-classroom-explain-teachers/2025/05
* Electronic Frontier Foundation (2022). AI Surveillance and Civil Liberties.
https://www.eff.org/issues/ai-and-human-rights
* Emma Strubell et al. (2019). Energy and Policy Considerations for Deep
Learning in NLP. UMass Amherst. https://arxiv.org/abs/1906.02243
* Future of Life Institute (2015). Autonomous Weapons: An Open Letter from AI &
Robotics Researchers.
https://futureoflife.org/open-letter/open-letter-autonomous-weapons-ai-robotics
* Global E-Waste Monitor (2024). https://globalewaste.org/map/
* Google (2023). Environmental Report.
https://sustainability.google/reports/google-2023-environmental-report/
* Google (2024). Environmental Report.
https://sustainability.google/reports/google-2024-environmental-report/
* Human Rights Watch (2022). Working Conditions in the Electronics Sector in
Asia.
https://chinalaborwatch.org/labor-conditions-in-chinas-consumer-electronics-sector/
* Human Rights Watch. Stopping Killer Robots campaign.
https://www.hrw.org/topic/arms/killer-robots
* IEA (2021). The Role of Critical Minerals in Clean Energy Transitions.
https://www.iea.org/reports/the-role-of-critical-minerals-in-clean-energy-transitions
* ILO (2023). Digital labour platforms and the future of work.
https://www.ilo.org/publications/digital-labour-platforms-and-future-work-towards-decent-work-online-world
* James Williams (2018). Stand Out of Our Light. Cambridge University Press.
https://www.cambridge.org/core/books/stand-out-of-our-light/3F8D7BA2C0FE3A7126A4D9B73A89415D
* Journal of Educational Technology (2021). Cognitive Offloading and Student
Performance.
https://www.researchgate.net/publication/387701784_AI_Tools_in_Society_Impacts_on_Cognitive_Offloading_and_the_Future_of_Critical_Thinking
* Kate Crawford (2021). Atlas of AI. Yale University Press.
https://katecrawford.net/atlas
* Khan Academy (2023). Introducing Khanmigo, the AI-powered tutor.
https://www.khanacademy.org/khan-labs
* MIT & Stanford (2022). Algorithmic Management and Its Impacts on Workers.
https://sloanreview.mit.edu/article/algorithmic-management-the-role-of-ai-in-managing-workforces/
* MIT Media Lab (2018). Gender Shades: Intersectional Accuracy Disparities in
Commercial Gender Classification. http://gendershades.org/
* MIT Technology Review (2022). The Hidden Environmental Cost of AI.
https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117
* Nature Machine Intelligence (2023). Measuring the Carbon Footprint of AI
Training. https://www.nature.com/articles/s41599-024-03520-5
* NTSB (2022). Automation Dependency in Aviation.
https://www.sciencedirect.com/science/article/pii/S2352146525004041
* OECD (2023). Digital Economy Outlook.
https://www.oecd.org/en/publications/oecd-digital-economy-outlook_f0b5c251-en.html
* OpenAI (2023). Khan Academy pilots GPT-4 as a tutor.
https://openai.com/blog/khan-academy
* ProPublica (2016). Machine Bias.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
* Sherry Turkle (2015). Reclaiming Conversation. Penguin Press.
https://www.researchgate.net/publication/350521529_Reclaiming_Conversation_The_Power_of_Talk_in_a_Digital_Age
* Shoshana Zuboff (2020). Il capitalismo della sorveglianza. Luiss Editore.
https://www.hbs.edu/faculty/Pages/item.aspx?num=56791
* The Guardian (2020). AI systems used to fire Amazon workers without human
oversight.
https://www.theguardian.com/commentisfree/2021/jul/05/amazon-worker-fired-app-dystopia
* The Guardian (2024). Israel used AI-driven system to identify targets in
Gaza, say sources.
https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
* The Verge (2022). Microsoft’s Arizona Data Centers and the Water Crisis.
https://www.theverge.com/2022/9/1/23330593/microsoft-arizona-water-shortage-data-centers
* Time Magazine (2023). Inside the Secretive World of AI Data Labelers in
Kenya. https://time.com/6247678/openai-chatgpt-kenya-workers/
* TSMC (2022–2023). Sustainability Reports.
https://esg.tsmc.com/file/public/e-all_2023.pdf
* Università di Stanford (2023). Generative AI and Student Learning Outcomes.
https://scale.stanford.edu/genai/repository/generative-ai-can-harm-learning