“Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismoImmagine in evidenza: Jathan Sadowski, credits: Jathan Sadowski
Vivere le tecnologie come se fossero qualcosa caduta dall’alto ci rende passivi
e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”.
È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism
of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski,
i cui studi si concentrano sulle dinamiche di potere e profitto connesse
all’innovazione tecnologica.
CHI È JATHAN SADOWSKI
Senior lecturer presso la Monash University di Melbourne (Australia), è esperto
di economia politica e teoria sociale della tecnologia. Oltre al libro The
Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism,
nel 2020 Sadowski ha pubblicato il libro Too Smart – How Digital Capitalism is
Extracting Data, Controlling Our Lives, and Taking Over the World. Inoltre
conduce il podcast This Machine Kills insieme a Edward Ongweso Jr. È anche
autore e co-autore di diversi studi che indagano le conseguenze della tecnologia
e della datificazione.
L’ERA DEL CAPITALISMO TECNOLOGICO
Jathan Sadowski parte da alcuni presupposti. Il primo vuole che tecnologia e
capitalismo non siano forze separate ma che si rafforzino in modo reciproco, con
le persone relegate al ruolo di osservatori passivi, senza valutarne le ricadute
politiche, economiche e sociali.
Il secondo presupposto vuole le tecnologie come forma di legislazione che crei
regole, definisca diritti, stabilisca cosa è consentito e – a monte – delinei il
tipo di società in cui viviamo. Con un impatto anche sul mondo fisico. I
magazzini automatizzati sono ambienti costruiti per i robot e non per l’uomo, le
strade su cui viaggiano le automobili a guida autonoma sono pensate per quel
tipo di veicolo e, ancora, qualsiasi tecnologia futura avrà bisogno di un
ambiente fisico adeguato e inedito.
Per definire il capitalismo tecnologico, Sadowski fa riferimento a un’idea ampia
che si sofferma sugli algoritmi discriminatori, sulle piattaforme che trattano i
dati degli utenti, anche i più sensibili, e sulle Big Tech che stipulano ricchi
contratti con corpi militari. Tutto ciò porta in superficie le connessioni tra
tecnologia e potere, così come mette in risalto la natura politica e le ricadute
economico-sociali delle tecnologie.
Ciò che andrebbe osservato, e questo è un punto centrale nella narrazione di
Sadowski, è il contesto nel quale alcune innovazioni vengono incentivate e altre
scartate.
Il ruolo dei venture capitalist nell’innovazione capitalista
I venture capitalist, investitori privati che finanziano imprese in cambio di
quote societarie, definiscono l’innovazione in base a ciò che si adatta ai
rispettivi portafogli di investimento e allineano il progresso ai loro obiettivi
di profitto.
Un modello – critica l’autore – sostenuto da sussidi governativi e agevolazioni
fiscali e incentrato sull’ipercrescita (hypergrowth), selezionando startup e
tecnologie che possono scalare e dominare il mercato esponenzialmente in breve
tempo.
Per Sadowski la Silicon Valley siede al tavolo della roulette, decide su quale
numero si fermerà la pallina e decide quanto scommettere. Può capitare che la
mano non sia vincente ma – sul lungo periodo e sulla quantità di mani giocate –
il saldo per i venture capitalist è sempre positivo.
Anche quando il mercato crolla, i venture capitalist al vertice sono in gran
parte immuni dai rischi e ottengono comunque profitti significativi. Questo
processo crea un “realismo dell’innovazione”, al cui interno il venture capital
sembra l’unica via praticabile per sostenere l’innovazione.
Dati come capitale e la politica della datificazione
L’autore sostiene che le metafore popolari quali “i dati sono il nuovo petrolio”
oscurano la vera natura dei dati, che non sono una risorsa naturale, ma sono
sempre manufatti. Le aziende inquadrano i dati come una risorsa preziosa,
disponibile universalmente e soggetta alle dinamiche di mercato, ma ciò vale
solo per quelle imprese che possiedono le tecnologie speciali per scoprirli,
estrarli, elaborarli e capitalizzarli.
I dati sono una forma di capitale essenziale per la produzione, estrazione e
circolazione del valore nei sistemi digitali. Questo spinge le aziende a creare
e catturare quanti più dati possibile, da tutte le fonti e con ogni mezzo.
Le acquisizioni aziendali, come l’acquisto di DoubleClick da parte di Google,
LinkedIn da parte di Microsoft, WhatsApp da parte di Facebook (ora Meta, ndr) e
OneMedical da parte di Amazon, sono spesso fusioni di dati.
Una smania per la datificazione che trasforma le persone in dati. Ciò trova
conferma, secondo l’autore, per esempio nella ricerca sulla visione artificiale
che tende a categorizzare gli esseri umani al pari di oggetti da rilevare,
identificare e tracciare, spogliandoli così del loro contesto sociale e della
loro umanità.
Un’astrazione che fa cadere eventuali resistenze etiche in chi implementa
tecnologie di sorveglianza e giustifica – seppure indirettamente – la creazione
di oligopoli che trovano forma nelle Big Tech, organizzazioni che fondano le
rispettive potenze sui dati, sulla capacità computazionale e sul loro peso
geopolitico che le mette in condizione di presentare le tecnologie prodotte al
pari di asset strategici nazionali.
Il ruolo dei “meccanici” e dei “luddisti”
Per il professor Sadowski le parole “mechanic” e “luddite” sono da intendere in
un contesto critico. Entrambi, in senso metaforico, incarnano un modo di vivere
il capitalismo tecnologico. I “mechanic”, i meccanici, sono le persone che
coltivano curiosità su come il mondo funziona, mentre i “luddite” (i luddisti)
hanno posizioni più consapevoli delle funzioni intrinseche della tecnologia.
Il termine luddista prende origine dal movimento nato nel Regno Unito durante i
primi anni del 1800 che, preoccupato dagli impatti dei macchinari industriali
sul lavoro degli artigiani, ha ingaggiato una lotta contro le fabbriche,
accusandole di peggiorare le condizioni di vita.
Tanto all’epoca quanto oggi, i luddisti non sono refrattari alle tecnologie in
quanto tali ma alle loro implicazioni. Il luddismo odierno è un movimento molto
più complesso di quello che, nel XIX secolo, il governo britannico ha represso
con la violenza e con leggi ad hoc.
In sintesi, il meccanico comprende come funziona un sistema, mentre il luddista
sa perché è stato costruito, a quali scopi serve e quando dovrebbe essere
smantellato o distrutto. Entrambi i modelli, sostiene Sadowski, sono cruciali
per una critica puntuale del tecno-capitalismo.
INTERVISTA CON L’AUTORE
Abbiamo approfondito queste posizioni con l’autore del libro.
Nel libro emerge un panorama in cui le tecnologie sono sempre più opache (il
fenomeno della “scatola nera”), complesse e dominate da interessi aziendali e
statali che limitano l’agire umano. Si tratta di uno sviluppo contemporaneo o di
un modello ricorrente?
“L’idea delle tecnologie come una ‘scatola nera’ esiste da tempo ed è stata a
lungo rilevante. È un modello ricorrente nel modo in cui le tecnologie sono
progettate e utilizzate. Una scatola nera in cui possiamo vedere gli input e gli
output di una tecnologia, di un sistema o di un’organizzazione, ma non possiamo
vedere o capire come la cosa effettivamente operi. Se mai, la scatola è
diventata semplicemente più opaca col passare del tempo. Che si tratti di
intelligenza artificiale o di strumenti finanziari, i meccanismi interni di
questi sistemi, che hanno un enorme potere nella società, sono schermati da
strati di opacità. Certo, questi sistemi astratti sono complessi, ma sono anche
mistificati per design. Ci viene detto che solo pochi eletti sanno come sono
stati creati, e ancora meno sanno come effettivamente funzionino. Il risultato è
che alla grande maggioranza delle persone viene impedito di conquistare la
posizione minacciosa di sapere come le cose funzionano, dire di no al modo in
cui funzionano ora e poi pretendere che funzionino diversamente.
Consideriamo un modello di machine learning che sta alla base di un sistema di
AI. Ora non possiamo nemmeno vedere o comprendere gli input che entrano nel
modello perché si tratta di dataset enormi raccolti tramite scraping automatico
del web e altre forme di raccolta dati. Nessun essere umano ha mai
effettivamente spulciato questi dataset nella loro interezza. Forse qualcuno ha
visto solo parti dei dati, o ha solo un’idea generale di che tipo di dati siano
inclusi nel dataset. Ma, funzionalmente, il dataset (o input nel sistema) è
anch’esso una scatola nera. Le operazioni del modello di machine learning sono
anch’esse ‘black-boxed’ poiché questi sistemi computazionali hanno strati
nascosti di calcoli probabilistici in cui neppure il creatore della tecnologia
sa esattamente cosa stia succedendo. Per di più, persino gli output di questi
sistemi sono ora scatole nere: le decisioni prese da questi sistemi di AI e, le
loro conseguenze sulla vita delle persone, sono nascoste alla vista del
pubblico.
Un decennio fa (era il 2016, nda), il giurista Frank Pasquale scrisse un
eccellente libro intitolato The Black Box Society in cui spiegava come le
scatole nere si stiano moltiplicando nelle nostre vite grazie a modi tecnici,
legali, politici e sociali. Le scatole nere mantengono nascoste le operazioni di
questi sistemi.
Quindi, sebbene il fenomeno delle tecnologie a scatola nera sia un modello
ricorrente, possiamo sempre più vedere come quelle scatole stanno ora diventando
ancora più grandi, inglobando più parti del sistema”.
Parliamo dei venture capitalist che plasmano il capitalismo tecnologico anche
gonfiando in modo artificioso gli asset speculativi. Come possiamo spezzare
questo ciclo dell’hype? Cosa servirebbe per orientare l’innovazione verso il
benessere sociale piuttosto che verso l’accumulazione di capitale?
“Le nostre aspettative sul futuro sono molto importanti per influenzare dove
allocare le risorse e per modellare come e perché costruiamo le tecnologie. Le
aspettative sono anche performative del futuro. Andrebbero pensate come prove
generali per futuri potenziali che non sono ancora arrivati. Le nostre
aspettative creano anticipazione riguardo al futuro e possono aiutare a motivare
l’azione nel presente. È per questo che la Silicon Valley spende così tanto
tempo e denaro cercando di modellare le nostre aspettative in modi molto
specifici che si allineano ai loro desideri e favoriscono i loro interessi. Ecco
cosa sono i cicli dell’hype: sono il business della gestione delle aspettative.
Gli investimenti speculativi – come quelli che sono la specialità dei venture
capitalist e degli imprenditori tecnologici – dipendono dall’hype, dal creare
aspettative e motivare all’azione. Questa speculazione è un modo di ricavare
valore e profitto da cose che non sono ancora accadute e che potrebbero non
accadere mai. Il futuro potrebbe sempre non materializzarsi nel modo in cui la
Silicon Valley lo immagina, ma proprio questa incertezza è un elemento cruciale
della performance. Significa che la partecipazione del pubblico è necessaria.
Nel mio libro chiamo questo il Tinkerbell Effect: le tecnologie speculative
esistono solo se ci crediamo abbastanza e battiamo le mani abbastanza forte. Se
smettiamo di crederci e smettiamo di applaudire, allora possono cominciare a
svanire, diventando sempre più immateriali fino a sparire. Anche investire
miliardi di dollari non garantisce la realizzazione di un sogno se le persone
smettono di alimentarlo con la loro energia psichica. Gli esempi ci sono, si
chiamano Metaverso (un ricordo lontano), Web3 oppure Google Glass (in realtà mai
visti davvero sul mercato).
Questa natura effimera dell’hype è anche un punto chiave di intervento.
Attualmente, molti dei benefici della tecnologia avvengono in modo accidentale e
‘a cascata’. Il loro scopo principale è catturare mercati e creare profitti per
grandi aziende. Ci viene detto che questo è l’unico modo possibile e che non
dovremmo aspettarci nulla di diverso o migliore. Ma potremmo fare molta strada
per orientare l’innovazione in direzioni diverse semplicemente avendo
aspettative più alte su come le tecnologie vengono create e a quali scopi
servono”.
I dati tendono a ridurre le persone a oggetti. Questo processo, intrinseco ai
sistemi di intelligenza artificiale, è oggi estremamente rilevante. Quali
interventi politici e sociali ritiene necessari per garantire che le tecnologie
basate sui dati vengano sviluppate in modi che rispettino la dignità umana? A
suo avviso, quali aspetti del capitale umano dovrebbero rimanere al di fuori
della portata della datificazione?
“Le nuove tecnologie possono catturare quantità di dati così vaste da risultare
incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun
sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni
sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici.
Ciò può sembrare banale, come un termometro che può restituire un numero sulla
temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure
può essere più significativo, come un algoritmo di riconoscimento facciale che
può identificare la geometria di un volto, ma non può cogliere l’umanità
soggettiva e il contesto sociale della persona. I dati non potranno mai
rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni
sfumatura della sua vita complessa.
Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti
umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che
hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare
questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati.
Se questi sistemi non stanno cercando di comporre un nostro profilo completo e
accurato possibile, allora qual è lo scopo?
Ecco però un punto importante: chi estrae dati non si interessa a noi come
individui isolati, ma come collettivi relazionali. I nostri modi di pensare la
raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e
individualistiche di sorveglianza e informazione.
Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le
possibili forme di intervento sociopolitico in questi sistemi guidati dai dati –
per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni
“orizzontali’, che non si collocano a livello individuale, ma a scala di
popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono
attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e
le conseguenze dei dati si mescolano in forme impossibili da tracciare se
continuiamo a ragionare in termini di relazioni più dirette e
individualistiche.
Nel libro spiego che questa realtà delle reti di dati orizzontali indebolisce
l’efficacia di interventi troppo concentrati sulla scala dei diritti
individuali, piuttosto che sulla giustizia collettiva. Se vogliamo salvaguardare
la dignità umana contro la datificazione disumanizzante, allora possiamo farlo
solo riconoscendo come i diritti e la sicurezza di tutti i gruppi siano
interconnessi attraverso queste reti guidate dai dati. In altre parole, la
dignità e la sicurezza di un gruppo di persone colpite da sorveglianza e
automazione è legata alla dignità e alla sicurezza di tutte le persone
all’interno di questi vasti sistemi sociotecnici che letteralmente connettono
ciascuno di noi”.
Nel libro esprime il concetto di “AI Potemkin” per descrivere l’illusione di
un’automazione che in realtà nasconde enormi quantità di lavoro umano. Un
inganno per utenti, investitori e opinione pubblica: che cosa è esattamente
questa illusione?
“Ci sono tantissime affermazioni altisonanti sulle capacità dei sistemi di
intelligenza artificiale. Ci viene fatto credere che queste tecnologie
‘intelligenti’ funzionino unicamente grazie ai loro enormi dataset e alle reti
neurali.
In realtà, molte di queste tecnologie non funzionano – e non possono funzionare
– nel modo in cui i loro sostenitori dichiarano. La tecnologia non è abbastanza
avanzata. Al contrario, molti sistemi dipendono pesantemente dal lavoro umano
per colmare le lacune delle loro capacità. In altre parole, il lavoro cognitivo
che è essenziale per queste presunte macchine pensanti, proviene in realtà da
uffici pieni di lavoratori (mal retribuiti) in popolari destinazioni di
outsourcing come le Filippine, l’India o il Kenya.
Ci sono stati diversi esempi di alto profilo, come la startup Builder.AI, che
affermava di automatizzare il processo di creazione di app e siti web.
Un’indagine ha rivelato che il sofisticato ‘sistema di AI’ della startup
sostenuta da Microsoft e valutata 1,5 miliardi di dollari era in realtà
alimentato da centinaia di ingegneri software in India, istruiti a fingersi l’AI
della società quando interagivano con i clienti.
Esempi come questo sono così frequenti che ho coniato il termine AI Potemkin per
descriverli. Potemkin si riferisce a una facciata progettata per nascondere la
realtà di una situazione (da il villaggio Potemkin, ndr). L’AI Potemkin è
collegata al concetto di ‘black boxing’, ma spinge l’occultamento fino alla vera
e propria ingannevolezza. Lo scopo non è solo nascondere la realtà, ma mentire
sulla realtà delle capacità di una tecnologia, per poter affermare che un
sistema sia più potente e prezioso di quanto non sia in realtà.
Invece di riconoscere e valorizzare pienamente il lavoro umano, da cui queste
tecnologie dipendono, le aziende possono continuare a ignorare e svalutare i
componenti umani indispensabili dei loro sistemi. Con così tanti soldi e così
poco scetticismo che vengono pompati nel settore tecnologico, l’inganno dell’AI
Potemkin continua a crescere a ogni nuovo ciclo di hype della Silicon Valley”.
Per concludere, il capitale può eliminare il lavoro umano senza finire, alla
lunga, per distruggere sé stesso?
“Il capitalismo è un sistema definito da molte contraddizioni che minacciano
costantemente di distruggerne le fondamenta e lo gettano di continuo in cicli di
crisi. Una contraddizione importante che individuo nel libro è la ricerca del
capitale di costruire quella che chiamo la ‘macchina del valore perpetuo’. In
breve, questa macchina sarebbe un modo per creare e catturare una quantità
infinita di plusvalore senza dover dipendere dal lavoro umano per produrlo. Il
capitale persegue questa ricerca da centinaia di anni. Ha motivato enormi
quantità di investimenti e innovazioni, nonostante non si sia mai avvicinato a
realizzare davvero il sogno di produrre plusvalore senza le persone. Ciò che
rende questa una contraddizione è il fatto che gli esseri umani non sono una
componente accessoria della produzione di valore; il lavoro umano è parte
integrante della produzione di plusvalore.
L’AI è l’ultimo – e forse il più grande – tentativo di creare finalmente una
macchina del valore perpetuo. Gran parte del discorso sull’automazione, e ora
sull’intelligenza artificiale, si concentra sulle affermazioni secondo cui il
lavoro umano verrà sostituito da lavoratori robotici, con l’assunzione che si
tratti di una sostituzione diretta dei corpi organici con sistemi artificiali,
entrambi intenti a fare esattamente la stessa cosa, solo in modi diversi e con
intensità diverse.
Tuttavia, a un livello fondamentale, l’idea di una macchina del valore perpetuo
non può riuscire, perché si basa su un fraintendimento del rapporto tra la
produzione di valore e il funzionamento della tecnologia. Il capitale equipara
una relazione – gli esseri umani che usano strumenti per produrre valore – a
un’altra relazione completamente diversa: gli strumenti che producono valore
(con o senza esseri umani).
Dal punto di vista del capitale, il problema degli esseri umani è che non sono
macchine. Aziende come Amazon non vogliono rinunciare alla fantasia di una
macchina del valore perpetuo, ma sanno anche che ci sono molte più alternative
che sostituire direttamente gli uomini con le macchine: si possono anche gestire
i lavoratori tramite le macchine, renderli subordinati alle macchine e, in
ultima analisi, farli diventare sempre più simili a macchine.
Questo è un punto cruciale per ripensare il potere dell’AI per il capitalismo e
per capire perché le aziende stanno riversando più di mille miliardi di dollari
nella costruzione dell’AI. Ai loro occhi, il futuro del capitalismo dipende
dall’uso dell’AI per sostituire gli esseri umani come unica fonte di plusvalore
o, se questo obiettivo fallisse, dall’obbligare i lavoratori a trasformarsi in
oggetti, semplici estensioni delle macchine, costringendo le persone a diventare
sempre più meccaniche nel modo in cui lavorano e vivono”.
L'articolo “Siate meccanici, siate luddisti”: così si resiste al
tecnocapitalismo proviene da Guerre di Rete.