Lavoro, sicurezza e intelligenza artificiale

Comune-info - Saturday, May 3, 2025

L’entusiasmo smodato che nel mondo circonda la bolla dell’IA da un paio di anni non sembra conoscere limiti. In Italia è difficile trovare un punto di vista critico, il massimo che ci viene detto è che c’è tempo fino al 31 maggio per dire a Meta di non addestrare la sua intelligenza artificiale con i nostri dati. La cosiddetta Intelligenza Artificiale viene sempre presentata come una tecnologia in grado di rispondere a quasi tutte le domande e a quasi tutti i compiti, poco importa se richiede la riduzione della complessità sociale, in primis la riduzione delle persone da esseri umani sociali complessi a meri “soggetti calcolatori”. Secondo Chris Calrsson, le tecnologie scelte da interessi consolidati per proteggere ed espandere il loro potere e la loro ricchezza vengono raccontate come invenzioni e innovazioni, ma in nessun momento viene data alle persone comuni la possibilità di valutarne lo scopo, il valore o le potenziali conseguenze. Domande semplici quanto essenziali non trovano modo di emergere: chi decide quali tipi di tecnologie usiamo, perché e a quale scopo? Chi decide che lavoro facciamo, come lo facciamo, come vengono distribuiti i benefici dei nostri sforzi e cosa dobbiamo fare in futuro? “Promuovere un modo completamente diverso di pensare e agire quando si tratta di cambiamento tecnologico, della struttura del governo, dei diritti e dei poteri delle entità economiche – scrive Carlsson – è davvero la nostra unica via verso una vita libera e autogestita…”

unsplash.com

Ho passato molti anni a scrivere di lavoro, tecnologia, rivoluzione, organizzazione, politica, ecc. Dagli esordi di Processed World (1981-1994)[1] al mio libro Nowtopia (2008)[2] e in decine di saggi su questo blog e su Foundsf.org, ho affrontato il tema di come la forma e il controllo del lavoro siano il perno di come viviamo, di come costruiamo la vita insieme. Scavando nella storia, mi sono reso conto che più di un secolo fa è stata persa una battaglia fondamentale: chi decide quali tipi di tecnologie usiamo, perché e a quale scopo? Chi decide che lavoro facciamo, come lo facciamo, come vengono distribuiti i benefici dei nostri sforzi e cosa dobbiamo fare in futuro? È ovvio che non esiste nulla che assomigli lontanamente a un processo democratico per nessuna di queste domande. Eppure la maggior parte delle persone, se venisse interpellata (cosa che non avviene mai!), probabilmente concorderebbe sul fatto che un processo democratico sarebbe appropriato quando si tratta di determinare la struttura e lo scopo della nostra vita.

O come dice Jathan Sadowski nel suo nuovo e prezioso libro “The Mechanic and the Luddite: A Ruthless Criticism of Technology and Capitalism“:[3]

… a “governance” del rischio trasforma i cittadini in inservienti che puliscono i pasticci delle aziende, dei militari, delle forze di polizia e di altri soggetti che preferiscono sparare prima e non fare domande dopo. L’impostazione predefinita è quella di consentire al capitale di innovare senza dover chiedere il permesso, o almeno di procedere con il minor numero possibile di guardrail imposti (p. 166).

Quando ho studiato la lunga e ammirevole storia dell’agitazione e dell’organizzazione sindacale, con le sue numerose battaglie epiche e gli scontri violenti, ho concluso che i sindacati, così come li conosciamo, sono parte del problema tanto quanto qualsiasi altra istituzione della nostra società. Non perché i sindacati siano guidati da persone cattive (anche se troppo spesso lo sono!), e nemmeno perché la spinta a sindacalizzarsi sia di per sé sbagliata. Sono favorevole all’organizzazione delle persone. Ma la logica del sindacalismo dell’AFL-CIO[4], nato con il Wagner Act del 1935 e massicciamente ridotto dal Taft-Hartley Act del 1947 e dal conseguente allarme rosso maccartista, è quella di restringere gli obiettivi sindacali ad accordi contrattuali su salari e benefit e di garantire una linea di base di standard di sicurezza per i lavoratori (non che le miserevoli condizioni di sicurezza e salute sul posto di lavoro nelle fabbriche, nelle raffinerie, negli uffici, nei campus e nelle autostrade degli Stati Uniti siano qualcosa di cui andare fieri). Ma i sindacati hanno accettato di lasciare che i proprietari del capitale decidessero come organizzare le fabbriche, quali tecnologie implementare, ecc. durante le aspre battaglie del XIX secolo tra capitale e lavoro, quando il capitale aveva a disposizione tutto il potere dello Stato, della sua polizia e dell’esercito, oltre agli eserciti privati, in quella guerra di classe. Nel recente passato i sindacati hanno capitolato di fronte a decenni di tagli neoliberali, deindustrializzazione, automazione, globalizzazione e, in ultima analisi, hanno presieduto alla propria fine politica, non volendo liberarsi dalle catene legali che impediscono ai lavoratori di esercitare il potere che (dovrebbero) esercitare sulla vita economica. Con tutti i suoi limiti, l’ondata di sindacalizzazione degli anni ’30 era almeno basata su occupazioni diffuse dei luoghi di lavoro, scioperi secondari e picchetti, boicottaggi, ecc. Tutte queste tecniche efficaci sono state specificamente rese illegali dalla “Taft-Hartley” nel 1947.

“Democracy Wall”, Gennaio 2025. (letteralmente: “il Muro della Democrazia” che in italiano si traduce anche con il termine cinese “Ta Ze Bao”, a seconda dei contesti). “Democracy Wall” è stato anche il nome di un movimento politico attivo negli Usa a fine anni ’70

Se questa militanza esistesse ancora e potesse prevalere contro l’inevitabile repressione che lo Stato e le corporazioni metterebbero in atto, non è ancora chiaro se la classe operaia, o le sue istituzioni rappresentative, abbiano molta voglia di strappare ai Signori del Capitale il controllo sulle decisioni riguardanti la tecnologia, la produzione o la struttura stessa dell’economia. Forse con i prossimi sconvolgimenti che il regime di Trump imporrà alle imprese, al governo, alle frontiere internazionali, ecc. per non parlare del previsto assalto a tutto campo alle organizzazioni non profit e a chiunque abbia una politica anche solo vagamente di centro-sinistra, l’opposizione sociale e la rivolta saranno riportate alle basi. Ovvero, trovare il potere dove esiste e può essere esercitato, sul posto di lavoro, sulle strade, nei punti nevralgici dell’economia globale del “just-in-time”. Una volta che le persone cominceranno ad affermarsi di nuovo in questo modo diretto, ammesso che lo facciano, sarà necessario affrontare il problema più profondo che abbiamo, di fronte a una tecnosfera profondamente ingiusta e incontrollabile, che utilizza tutti gli strumenti di modificazione del comportamento per tenere le persone soggiogate e incolparsi l’un l’altro per un fottuto mondo capitalista.

Nei tre libri di cui parlerò qui, viene svelato un processo che, a partire dalla prima industrializzazione all’inizio del 1800, ha reso l’introduzione di nuove tecnologie notevolmente antidemocratica. Le tecnologie scelte da interessi consolidati per proteggere ed espandere il loro potere e la loro ricchezza vengono presentate come invenzioni e innovazioni, ma in nessun momento viene data alla gente comune la possibilità di valutarne lo scopo, il valore o le potenziali conseguenze (buone o cattive) – nemmeno ai rappresentanti eletti dai governi viene data questa opportunità. Qualsiasi sforzo per affrontare le conseguenze di una determinata tecnologia o invenzione, a prescindere da quanto possa cambiare la vita, viene fatto a posteriori e trattato da alcuni come una regolamentazione illegittima o un ostacolo alla loro capacità di trarre profitto liberamente. Ovviamente l’attuale sistema di intelligenza artificiale (IA) “dei large language models” (NdT: grandi modelli linguistici, come il noto ChatGPT) è un buon esempio di un’implementazione potenzialmente potente di un nuovo software che potrebbe avere conseguenze di vasta portata in molteplici settori.

Nel libro “Apocalisse felice: Una storia del rischio tecnologico”[5], lo storico francese Jean-Baptiste Fressoz offre un’utile panoramica delle principali introduzioni tecnologiche e dei conflitti sociali che ne sono scaturiti all’inizio del 1800. Egli inquadra la sua discussione con il termine disinibizione, con il quale intende due aspetti dell’integrazione sociale delle nuove tecnologie: la contemplazione del pericolo e la sua normalizzazione. Utilizza diversi esempi chiave per mostrare come i regolamenti, gli standard di sicurezza e le autorizzazioni governative siano stati utilizzati per legittimare i faits accomplis[6] tecnologici, ovvero le tecnologie che venivano già utilizzate, indipendentemente dalle loro qualità palesemente negative o rischiose. Da un punto di vista storiografico, il suo lavoro è doppiamente interessante perché cerca di ridare voce ai perdenti della storia, di “ricostruire i quadri di intelligibilità che la loro sconfitta aveva reso invisibili. Così facendo, diventa chiaro che gli oppositori di questi progetti non erano schierati contro l’innovazione, ma piuttosto per il loro ambiente, la loro sicurezza, i loro posti di lavoro e per la conservazione di forme di vita che consideravano preziose” (p. 8). Jathan Sadowski descrive il modo in cui le tecnologie vengono effettivamente implementate nel XXI secolo: “Piuttosto che una politica di rifiuto, ci viene data un’etica di accettazione. La preoccupazione principale è: come si fa a far sì che le persone si fidino di una tecnologia, la integrino nella loro vita o semplicemente guardino dall’altra parte senza sollevare un polverone?” (p. 45).

I luddisti del 1810 in Inghilterra sono il miglior esempio di una rivolta dinamica e diffusa contro i nuovi telai e filatoi che sapevano che avrebbero peggiorato le loro vite. Nessun altro gruppo o movimento ha avuto storicamente un impatto maggiore sulla questione della tecnologia e della sua accettazione sociale rispetto ai luddisti. Sadowski cita il grande storico della tecnologia e dei processi lavorativi David Noble: “I luddisti sono stati forse gli ultimi in Occidente a percepire la tecnologia nel presente e ad agire in base a tale percezione” (p. 43).

Qualcuno ha iniziato a realizzare un’arte 3D sul Muro della Democrazia… il cartello è di dimensioni leggibili.
Il cartello recita: “queste non sono le stampelle del bambino che è rimasto ferito nella miniera del cobalto usato per il tuo iPhone”. Nella Repubblica Democratica del Congo, bambini anche di sei anni rischiano la vita per estrarre i minerali necessari per i tuoi smartphone, computer e auto elettriche. Alcuni vengono seppelliti vivi nel crollo dei tunnel. Altri sopravvivono con ferite permanentemente invalidati, inclusa la paralisi. Il loro lavoro fornisce energia ai dispositivi elettronici che usi tutti i giorni, come quelli prodotti da Apple e da Google, nonostante le loro affermazioni che altro non sono che “greenwashing”. Oh, bene. Ma a chi importa? Continua a usarli. Dimenticati del costo umano dei tuoi dispositivi.

Fressoz offre una prospettiva diversa, tornando indietro per esaminare alcune introduzioni tecnologiche chiave che non sono state immediatamente accettate. Nel 1700 fece la sua prima apparizione l’idea della vaccinazione. Curiosamente, Fressoz sottolinea che “l’inoculazione dei vaccini e la masturbazione appartengono allo stesso momento della naturalizzazione della morale”, citando le pubblicazioni contro la masturbazione del 1718 seguite dalle prime inoculazioni in Inghilterra nel 1721. La stessa cosa si ripeté in Francia decenni dopo, nel 1754, quando a Parigi scoppiò una controversia sull’inoculazione, seguita sei anni dopo da un’importante opera di denuncia della masturbazione. I sostenitori dell’inoculazione contro il vaiolo erano gli stessi scrittori che si opponevano all’enorme peccato della masturbazione: essi sostenevano che il “minor rischio” dovesse guidare il comportamento e a quel punto erano disponibili prove statistiche che dimostravano che nelle popolazioni inoculate morivano meno persone. Ma poiché le conseguenze della masturbazione ricadrebbero su una persona nell’aldilà, si può solo presumere che il rischio sia molto maggiore! Tutto questo fa parte di ciò che Fressoz identifica come la creazione del “soggetto calcolatore”, che a sua volta era al centro di un progetto politico:

Sembrava essere una condizione essenziale per il funzionamento di una società composta da individui sovrani: a differenza dei principi morali e religiosi, irriducibilmente plurali e contraddittori, e a differenza della virtù, della pietà o della benevolenza, la capacità di calcolare sembrava essere l’unica facoltà sufficientemente condivisa per formare un’ampia comunità politica e un consenso sulle leggi. Una volta revocati i fondamenti trascendentali dell’ordine sociale basato sulla monarchia assoluta, sembrava che gli individui autonomi potessero essere governabili, a condizione di diventare soggetti calcolatori… (p. 28).

Gli storici hanno mostrato come la filosofia politica liberale fosse in definitiva un progetto antropologico volto a creare un soggetto egoista e calcolatore, in contrasto con i valori tradizionali del dono, del sacrificio e dell’onore. Potremmo aggiungere che non hanno visto che in cambio l’homo economicus chiedeva un mondo adattato ai suoi standard – ripensato, ricostruito e ridefinito in modo che la ricerca della massima utilità potesse essere esercitata liberamente. All’inizio del XIX secolo, la scienza e la tecnologia hanno adattato ontologie e oggetti con l’obiettivo di creare un “mondo economico”: un mundus economicus (p. 220).

Questo è fondamentale per la nostra epoca, in cui l’Intelligenza Artificiale (IA) viene presentata come una tecnologia trasformativa in grado di rispondere a quasi tutte le domande e a quasi tutti i compiti, ma in ogni caso richiede la riduzione della complessità sociale e biologica alla sua ombra computazionale, parallelamente alla riduzione degli esseri umani sociali complessi a semplici “soggetti calcolatori”. Questo permette all’ideologia “soluzionista” dell’IA di fornire “risposte” alle domande che essa stessa ha posto, il che sembra un successo a meno che non si sbattano le palpebre più volte e ci si scrolli di dosso la foschia con cui il tecno-boosterismo[7] autoreferenziale ci ha accecato.

Dan McQuillan, collega di una rete di critici della tecnologia di ispirazione luddista con cui sto comunicando, ha scritto un ottimo opuscolo che ha un impatto notevole: Resisting AI: An Anti-Fascist Approach to Artifical Intelligence [Resistere all’intelligenza artificiale: un approccio antifascista all’intelligenza artificiale(8)], che è stato pubblicato prima che scoppiasse la frenesia per ChatGPT e i suoi concorrenti nel 2023. Qui offre una delle definizioni più convincenti dell’aura ideologica che avvolge l’IA:

L’IA è una forma di scientismo. Utilizza l’aura della scienza per perpetuare l’idea che i suoi modelli matematici astratti forniscano un modo affidabile di conoscere, e promuove una definizione riduttiva di verità che si sostiene essere intrinsecamente superiore all’esperienza vissuta. Lo scientismo dell’IA permette di smussare o liquidare come soggettive le prospettive alternative e rafforza la nozione di rappresentazioni che si collocano al di fuori e al di sopra del contesto su cui vengono utilizzate per esprimere un giudizio. Ma, in pratica, l’IA agisce come una presa di potere epistemico che nasconde la politica e l’ideologia sotto la sua opacità di strumento automatizzato. (p. 51) … L’IA è il martello a vapore di un’immaginazione limitata, una soluzione a problemi definiti negli uffici amministrativi e imposti attraverso confini predittivi. Se la nostra epistemologia deriva solo dal mondo così come è attualmente realizzato, manca l’orizzonte della pluralità e della differenza (p. 115).

Torniamo agli inizi del XIX secolo, quando la crescente convinzione che il vaiolo bovino fosse un virus benigno in grado di immunizzare gli esseri umani contro il vaiolo divenne senso comune. Il metodo dell’epoca per la conservazione del vaccino? I trovatelli negli orfanotrofi venivano deliberatamente infettati per produrre e trasportare la linfa fino alla fine del 1800. Un decreto del 1809 designò 25 orfanotrofi come “depositi di vaccino”, responsabili della conservazione del vaccino. Grazie a un’attenta gestione dei reclami e degli incidenti su e giù per il sistema vaccinale, si stabilì un’accettazione generale del vaccino. Questo mi ha reso un po’ più comprensibile lo scetticismo nei confronti dei vaccini, che è sempre stato presente fin dall’inizio delle vaccinazioni, anche se ancora oggi accetto in modo entusiasta di ricevere tutti i tipi di vaccini.

Fressoz racconta come l’antico utilizzo delle alghe al largo della costa francese per la produzione di soda (necessaria per gli armamenti) abbia lasciato il posto a nuove fabbriche chimiche che hanno creato nuvole di odori nocivi e molti rifiuti tossici nei loro processi produttivi. Poiché gli abitanti dei quartieri alti di Parigi si opposero, le fabbriche chimiche attuarono una duplice strategia, spostando i loro impianti lontano dalle aree più ricche e densamente popolate e intraprendendo una campagna di pubbliche relazioni in cui si sosteneva che l’odore di una fabbrica chimica era rinfrescante e prova di buona igiene! Diamo per scontato che nel XXI secolo siamo particolarmente attenti alle conseguenze ecologiche della produzione moderna, ma Fressoz offre una visione diversa:

Con l’avanzare dell’industrializzazione, il conseguente inquinamento e l’uso massiccio di risorse naturali hanno trasformato radicalmente l’ambiente circostante. Tutto ciò è avvenuto nel quadro teorico della medicina climatica. Il problema che si pone agli storici non è quindi quello di capire come alla fine sia emersa la cosiddetta coscienza ambientale. Al contrario, si tratta di capire la natura schizofrenica della modernità industriale, che ha continuato a concepire l’uomo come un prodotto dell’ambiente circostante, pur permettendogli di alterarlo e distruggerlo (p. 81).

Già nel periodo successivo alla rivoluzione francese, lo Stato iniziò a regolamentare le industrie chimiche, ma lo scopo non era solo quello di proteggere il pubblico da odori nocivi o sostanze velenose. “La nuova regolamentazione era soprattutto una liberalizzazione e una mercificazione dell’ambiente, adattata all’emergere del capitalismo industriale.” (p. 110) … “… il fatto che una forma finanziaria di regolamentazione dell’inquinamento fosse già stata istituita all’inizio del XIX secolo mette in discussione la pertinenza dell’attuale approccio dominante ai problemi ambientali” (p. 150).

È chiaro che questa modalità di regolamentazione ambientale non ha impedito l’inquinamento; al contrario, ha storicamente accompagnato e giustificato il degrado dell’ambiente. In effetti, esiste una logica intrinseca a questa regolamentazione, le cui conseguenze sono state evidenti fin dagli anni Venti del XIX secolo. Il principio del risarcimento del danno, unito all’imperativo del profitto economico, ha prodotto tre risultati: primo, l’assunzione, per le mansioni più pericolose, delle popolazioni più vulnerabili, i cui disagi potevano rimanere socialmente invisibili; secondo, la concentrazione della produzione e dell’inquinamento in poche località; terzo, la scelta di collocarle, in particolare, in territori poveri e privi delle risorse sociali e politiche che avrebbero accresciuto il valore della compensazione ambientale. Possiamo solo concludere che questa logica è valida ancora oggi e che senza dubbio si è accentuata con la globalizzazione economica (p. 150).

In una lunga discussione sullo sviluppo delle macchine a vapore e delle caldaie a gas, Fressoz è in grado di mostrare gli approcci contrastanti alla sicurezza e alla regolamentazione in Francia e in Inghilterra.

Le modalità di gestione del rischio tecnologico in Francia e in Inghilterra erano diametralmente opposte. In Francia, era ovvio che fosse necessaria una soluzione normativa. La domanda che il governo pose agli esperti académicien fu: quale dovrebbe essere il contenuto del decreto? In Gran Bretagna, la commissione parlamentare selezionata ha chiesto: è davvero necessario emanare una legge? La risposta degli esperti è stata unanimemente negativa: concorrenza, progresso e maggiore sicurezza vanno di pari passo. Dopo tutto, le fughe di gas non costano forse alle aziende? L’intervento normativo rischiava quindi di compromettere la sicurezza degli impianti del gas. L’ottimizzazione della tecnologia, anche dal punto di vista della sicurezza, sarebbe stata raggiunta attraverso il mercato e la concorrenza (p. 173). In Francia, invece, le caldaie marittime e terrestri, così come i gasometri, furono sottoposti a precisi standard di sicurezza a partire dal 1823. Gli industriali, gli ingegneri e i parlamentari britannici consideravano tale soluzione piuttosto presuntuosa. Ai loro occhi, la sicurezza dei dispositivi tecnici dipendeva in ultima analisi dall’innovazione ed era meglio dare libero sfogo all’inventiva degli ingegneri orientati al profitto, piuttosto che affidarsi a norme che sarebbero diventate obsolete non appena emanate (p. 153).

L’approccio di base degli Stati Uniti all’introduzione di nuove tecnologie, che si ripete sotto i nostri occhi con la rapida diffusione del software Large Language Model/AI, segue l’approccio britannico stabilito due secoli fa. Coloro che chiedono una valutazione più cauta e ponderata delle tecnologie, l’applicazione del principio di precauzione o – che il cielo non voglia – una regolamentazione governativa, vengono liquidati come promotori di inefficienza o di impedimenti alla competitività delle aziende nazionali.

Come rivela Fressoz, lo sviluppo di norme tecniche affrontava anche un problema politico. Identificando “gli oggetti che non potevano causare incidenti da soli, la norma consentiva di incolpare sistematicamente gli umani”… ritenendoli responsabili degli incidenti. Ma nel 1898, quando il parlamento francese approvò una legge sulla responsabilità civile generale, gli assicuratori poterono vendere liberamente polizze obbligatorie ai datori di lavoro per assicurare collettivamente tutti i lavoratori, poiché gli incidenti erano una caratteristica inevitabile della produzione moderna. “Un potente discorso giuridico, economico, assicurativo e ‘riformatore’ sugli infortuni era riuscito a rendere moralmente accettabile la normalizzazione degli incidenti e l’integrazione del corpo del lavoratore nei calcoli economici dell’azienda” (p. 211). O come lo descrive Sadowski: “I nuovi metodi di raccolta dei dati statistici [all’inizio del 1900] dimostrarono l’esistenza di una ”macinante regolarità degli incidenti industriali” nei luoghi di lavoro. La conclusione tratta sia dalle aziende che dai governi era che questi rischi erano inevitabili e naturali, una triste realtà della società industriale e il prezzo del progresso; dovevano essere gestiti, ma non potevano mai essere cambiati” (p. 183).

Dall’inizio del XIX secolo all’inizio del XX, i principi fondamentali su cui si basa la nostra oggettivazione e riduzione a semplici portatori di tempo in vendita sono stati stabiliti e perfezionati. Ciò che inizia come un progetto di creazione di nuovi “soggetti calcolatori” adatti alle società di mercato emergenti, si conclude con l’oggettivazione dei lavoratori come meri mezzi di produzione, equivalenti alle macchine che così spesso mutilavano e uccidevano i loro assistenti umani. Oggi questa stessa logica riappare nelle espressioni burocratiche impiegate dalle agenzie di regolamentazione come “dosi giornaliere accettabili” o “concentrazioni massime ammissibili” in relazione all’esposizione a sostanze per le quali non esiste una soglia di esposizione veramente sicura. Tutto ciò che si sa è che, statisticamente, il numero di persone che si ammalano o muoiono entro i limiti designati da quelle aride espressioni è considerato “accettabile”.

Il libro di Dan McQuillan è uscito prima dell’attuale frenesia per l’IA. Ma una volta letto il suo libro, è chiaro che i prodotti lanciati dopo di lui sono semplici continuazioni di ciò che è venuto prima, a prescindere dall’entusiasmo smodato che circonda la bolla dell’IA da oltre un anno (per una completa smentita di gran parte delle chiacchiere che circondano la mania degli investitori per “qualsiasi cosa più l’IA”, consiglio vivamente di ascoltare il podcast o la newsletter Better Offline di Ed Zitron). McQuillan non è interessato alle aziende o ai pacchetti software specifici apparsi negli ultimi due anni. La sua analisi è uno sguardo più approfondito alla logica sottostante e ai presupposti insiti nei sistemi computazionali. Il software di IA che ci viene venduto è un tipo di machine learning (apprendimento automatico):

… piuttosto che l’assimilazione di nuovi concetti basati sull’esperienza accumulata e sul buon senso, il machine learning è un insieme di operazioni matematiche di iterazione e ottimizzazione. Sebbene il
machine learning abbia alcuni ingegnosi trucchi matematici nella manica, è importante comprendere che si tratta di un processo matematico basato sulla forza bruta. Non c’è vera intelligenza nell’intelligenza artificiale (p. 11).

Nelle mie peregrinazioni attraverso la storia del lavoro ho scoperto
l’Accordo di Meccanizzazione e Modernizzazione del 1960, firmato dal sindacato degli scaricatori portuali di San Francisco. Vi invito a leggere di più a riguardo qui. Senza quell’accordo, gran parte di ciò che conosciamo come globalizzazione, con la conseguente distruzione della classe operaia (media) industriale negli Stati Uniti e in gran parte d’Europa, non sarebbe stata possibile. È interessante notare come McQuillan ne tracci un’analogia:

La nuova era del machine learning significa che una logica onnicomprensiva simile a quella che ha rivoluzionato le catene di approvvigionamento globali, attraverso l’astrazione e la dataficazione rese possibili dalla containerizzazione, può ora essere applicata direttamente alla vita quotidiana (p. 15). … La lunga storia del ragionamento statistico mostra come istituzioni statali e non statali abbiano sempre utilizzato metodi statistici per trasformare la diversità dell’esperienza vissuta in un unico spazio di equivalenza, pronto per un processo decisionale a distanza. Le trasformazioni statistiche dell’IA sono l’ultima iterazione di questo processo di preparazione del mondo alla governance algoritmica.(p. 19)

E a quanto pare siamo sulla buona strada per essere assorbiti dalla governance algoritmica, scalciando e urlando, o con uno sguardo sommesso e vitreo mentre cerchiamo di distogliere lo sguardo dai nostri dispositivi. In larga misura non importa se siamo obbedienti imbronciati o ribelli arrabbiati, perché il sistema esteso non presta attenzione al nostro stato affettivo a meno che non sia per venderci un prodotto. Nel libro “The Mechanic and the Luddite”, Sadowski descrive a modo suo la frammentazione e l’oggettivazione sottolineate da ciascuno di questi critici:

… nei documenti e nei brevetti sulla visione artificiale, qualsiasi “entità” che il sistema rileva, identifica e traccia viene chiamata “oggetto”. Questo include automobili, gatti, alberi, tavoli e così via, ma anche l’ “oggetto” più spesso preso di mira da queste tecnologie: gli esseri umani. Un mondo trasformato in dati è un mondo senza soggetti. Gli ingegneri rivendicano la posizione di oggettività mentre i loro obiettivi umani vengono trasformati in oggetti (p. 86). … Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati (p. 88). … Nel classico stile ingegneristico, ogni preoccupazione qualitativa può essere ignorata, riformulata e affrontata con soluzioni quantitative (p. 98).

McQuillan descrive il lavoro che si svolge dietro le quinte sull’intelligenza artificiale e altri “servizi” software, un sistema che Sadowski definisce abilmente “IA Potemkin”, dal significato russo di un villaggio di facciate realistiche senza nulla dietro.

Il lavoro su piattaforme digitali, online o offline, è privo di tutele, come la malattia retribuita, le ferie, la pensione o la salute e la sicurezza, duramente conquistate dalle lotte storiche del lavoro organizzato. Oltre alla decomposizione della soggettività individuale, si assiste a una frammentazione di quel tipo di comunità e solidarietà che storicamente ha rafforzato la resistenza attraverso scioperi e altre azioni sindacali. L’IA è una tecnologia futuristica che contribuisce a far arretrare le condizioni di lavoro di un secolo o più (p. 53). Non dovrebbe sorprendere, quindi, se l’IA porta avanti nella vita quotidiana quella che il sociologo Randy Martin ha definito la logica sociale del derivato: una logica di frammentazione, finanziarizzazione e speculazione. Questa è una logica precarizzante che si basa sulla decomposizione di ciò che prima era integro (il lavoro, la risorsa, la vita individuale) in modo che le operazioni possano essere spostate in uno spazio libero da legami gravosi con l’entità sottostante, che si tratti del prezzo fluttuante delle materie prime o della fragilità del lavoratore stesso (p. 55).

Ecco cosa scrive Sadowski:

La realtà è una relazione ibrida in cui i lavoratori usano la tecnologia per creare valore, i manager usano la tecnologia per sfruttare il lavoro e gli imprenditori usano la tecnologia per cancellare l’esistenza degli altri due gruppi. Chiamo questo modo di costruire e presentare tali sistemi – che si tratti di automi analogici o di software digitale – IA Potemkin (p. 106). … A essere onesti, OpenAI sta facendo esattamente ciò che fa ogni altra azienda che cerca di addestrare sistemi di IA. Hanno affrontato un problema complesso trasformandolo in lavori sporchi svolti a basso costo da un esercito di lavoratori. È così che il capitalismo ha forzato brutalmente la crescita e il progresso per centinaia di anni. Questo è anche il motivo per cui si prevede che il mercato globale dell’annotazione dei dati – ovvero il lavoro esternalizzato e gli strumenti per facilitare tale lavoro – raggiungerà oltre 13 miliardi di dollari USA entro il 2030 (p. 110-111). … nella maggior parte delle applicazioni, l’IA è ancora una realtà insoddisfacente, se non una pura fantasia. L’IA Potemkin è un gioco di ruolo. Sono persone che si mascherano da sistemi senz’anima. È l’ideale di essere serviti senza dover riconoscere la spiacevole esistenza di servitori… L’IA Potemkin è una seduzione basata sull’inganno… È la cosa più capitalista che si possa immaginare: costruire complessi grovigli di infrastrutture transnazionali per la circolazione di finanza, informazioni e merci, il tutto per perpetuare un feticcio per la disumanizzazione (p. 116).

I sistemi di IA rappresentano la vittoria definitiva di una burocrazia senza mente, proprio perché troveranno la loro applicazione più perniciosa nello “snellimento” delle burocrazie, sostituendo gli esseri umani che hanno almeno la possibilità di pensare e reagire al contesto reale di ogni data situazione. McQuillan lo coglie bene: “Nelle istituzioni con il potere di causare danni sociali, la minaccia dell’IA non è la sostituzione degli esseri umani con le macchine, ma l’estensione computazionale dell’automatismo e della superficialità sociale esistenti” (p. 63). In precedenza cita l’analisi fondamentale di Max Weber sulla burocrazia, riconoscendo che il suo scopo profondo è “valorizzare l’indifferenza come mezzo per un’efficace attuazione delle politiche… è attraverso il distanziamento e l’indifferenza che l’IA amplifica i comportamenti più dannosi dello stato burocratico” (p. 60).

Probabilmente l’attività più terrificante dello stato burocratico è la sua divisione casuale della popolazione tra coloro che vivranno e coloro che moriranno. McQuillan dedica un capitolo a questa nozione di “necropolitica”, che considera una funzione chiave del nuovo potere statale potenziato dall’IA, che sta chiaramente sbilanciandosi verso un nuovo tipo di fascismo modernizzato.

Mentre molti nella comunità scientifica e statistica vorrebbero sostenere che i risultati scientifici possono essere completamente slegati dalle convinzioni dei loro ideatori, ciò che stiamo cercando di capire qui è il modo in cui stanno emergendo posizioni politiche intorno all’IA, che possono essere ricondotte direttamente all’agenda suprematista [bianca] al servizio della quale i metodi statistici furono originariamente sviluppati (p. 88). … Il problema in questo caso non è solo l’allocazione strumentale delle opportunità di vita, ma la questione di chi decide quali tipi di vita valga la pena vivere. Come afferma la filosofa della razza e della tecnologia Ruha Benjamin, “la convinzione che gli esseri umani possano essere progettati meglio di quanto non siano” è in realtà “la convinzione che più esseri umani possano essere come quelli già considerati superiori” (p. 91). … L’ultrarazionalismo e l’ideaologia neoreazionaria sono ideologie che mantengono l’IA allineata alla supremazia bianca, ma non ne esauriscono il pieno potenziale di amplificare le politiche di estrema destra (p. 97). … Non possiamo fare affidamento sulle immagini passate del fascismo per avvertirci della sua ricomparsa, perché il fascismo non ci farà il favore di tornare nella stessa forma facilmente riconoscibile, soprattutto quando troverà nuovi vettori tecnologici. Sebbene l’IA sia un approccio genuinamente innovativo all’informatica, ciò che offre in termini di applicazione sociale è un’intensificazione reazionaria delle gerarchie esistenti (p. 99).

È piuttosto facile soccombere a una prospettiva profondamente pessimistica in questo momento. Trump si insedierà tra pochi giorni (questo articolo è stato scritto a inizio gennaio 2025, ndr), e seguirà il prevedibile turbine di dichiarazioni maligne e di accaparramenti venali e opportunistici. Un terrificante Teatro della Crudeltà sarà messo in scena in innumerevoli luoghi da migliaia di meschini autoritari che si sentiranno pienamente autorizzati a sfogare i loro impulsi sadici sulle persone più vulnerabili che riusciranno a trovare. Combattere questo assalto sarà, nella migliore delle ipotesi, una faticaccia.

Il ruolo del ciclo di propaganda dell’IA nel cementare un processo consolidato di estrazione di ricchezza attraverso la speculazione e il gioco d’azzardo, sebbene reale, potrebbe non essere la preoccupazione principale. In molti settori, l’uso di chatbot e “agenti” di IA finemente sintonizzati su specifici ambiti del sapere sarà probabilmente implementato per sopraffarci con la loro indifferenza meccanica e la loro impersonale sicurezza nel decidere il destino di persone reali. Strappare il controllo a tali sistemi sarà sempre più difficile con il passare del tempo. Promuovere un modo completamente diverso di pensare e agire quando si tratta di cambiamento tecnologico, della struttura del governo, dei diritti e dei poteri delle entità economiche (corporazioni et al.) è davvero la nostra unica via verso una vita libera e autogestita. Sembra un po’ utopistico dirlo, ma è così. Dan McQuillan si spinge molto oltre nei capitoli conclusivi, esponendo la sua visione di una “scienza post-normale” basata su comunità di pari che farebbero valutazioni ben più ponderate rispetto ai più recenti test di riferimento contro “test” progettati in modo fraudolento:

Partire dal principio di cura è un “controprogetto” che si oppone alla superficialità e alla “visione dal nulla” dell’IA. Il contrasto tra l’IA attuale e le questioni di cura non è solo istruttivo sul piano dei valori e dell’epistemologia, ma riporta anche la nostra attenzione sulle questioni del lavoro e dell’economia politica. La cura è il lavoro invisibilizzato che è una conseguenza inevitabile della nostra interdipendenza. Non è solo l’intelligenza artificiale a basarsi sul lavoro invisibile e sul “lavoro fantasma”: ogni attività economicamente produttiva è sostenuta da qualcun altro che si occupa delle pulizie, dell’educazione dei figli e del mantenimento dei legami sociali e della comprensione condivisa (p. 116). … Il mutuo soccorso manifesta l’ontologia del nuovo materialismo: agiamo gli uni per gli altri perché riconosciamo, a un certo livello, di non essere assolutamente divisi e separati, ma di co-costituirci a vicenda in un modo significativo. Il mutuo soccorso contrasta la separazione sociale sia concretamente che ontologicamente; ovvero, sia come tattica pratica, sia come proposizione che il mondo stesso è costituito da relazioni di reciproca interdipendenza. La mobilitazione del mutuo soccorso è una risposta diretta alla segregazione e alla negligenza algoritmiche (p. 120).

Andando ancora oltre, McQuillan estrapola da questa contro-logica del mutuo soccorso per proporre consigli operai (“l’impegno auto-organizzato e non mediato dei lavoratori nella trasformazione diretta delle loro condizioni”) e consigli popolari per costruire un contro-potere all’egemonia dei sistemi monetari e tecnologici che dominano le nostre vite oggi. Tali assemblee, rivendicando il proprio diritto a determinare cosa sia importante e come dovremmo adottare o rifiutare una determinata tecnologia o sistema, creano “spazio per la mobilitazione di conoscenze e competenze precedentemente sottovalutate”. L’obiettivo finale descritto da McQuillan è l’espansione dei beni comuni, il cuore di un programma antifascista. E come ci ricorda utilmente, “l’IA è già parte della risposta violenta del sistema all’attività autonoma della gente comune”.

Dan McQuillan si è spinto oltre la maggior parte degli altri nel criticare la logica profonda dell’IA e l’attuale ondata di cambiamento tecnologico basato sull’apprendimento automatico. Ma, cosa ancora più importante, egli delinea una visione positiva di un tipo completamente diverso di tecno-politica che rende sistematicamente visibile tutto il lavoro nascosto e negato che ancora sostiene la vita moderna. Descrivendo una politica basata su consigli popolari sul lavoro e nei quartieri, radicata nella cura e focalizzata sulla crescita di un bene comune da cui tutti diventiamo più ricchi, ci ha reso un grande servizio.

Jathan Sadowski ha anche scritto un libro fondamentale che presenta una critica marxista approfondita della tecnologia. A differenza di Yanis Varoufakis (che ho ascoltato su Upstream), che nel suo libro più recente sostiene che il capitalismo è finito e siamo entrati in un nuovo tecno-feudalesimo basato sui Cloud Serfs e sul “rentierismo” (molte delle sue osservazioni sono acute e degne di essere prese in considerazione), Sadowski sostiene che i dati sono fondamentalmente valore, la forza trainante dell’espansione capitalista negli ultimi due secoli e mezzo. L’attuale adozione dell’estrazione e dell’accumulazione di dati è semplicemente la nuova forma di valore che ci accompagna da sempre. A differenza di McQuillan, non si discosta dalla sua critica a tutto campo per proporre un programma politico per contrastare ciò che è in corso. Piuttosto, sottolinea un’angoscia per la povertà del nostro discorso generale:

Piuttosto che una politica della tecnologia, ci ritroviamo con il feticismo dell’innovazione e il realismo capitalista, che bloccano interi modi di comprendere il nostro mondo, immaginare mondi potenziali e costruire nuovi mondi. Ci rendiamo conto a malapena di quanto siamo diventati impoveriti – politicamente, tecnologicamente, metafisicamente (p. 210).

Sono d’accordo con lui. Ho riflettuto molte volte negli ultimi decenni su quanto si siano ridotte le nostre discussioni politiche e filosofiche, su quanto siano ristrette le nostre preoccupazioni. Eppure, il mio punto di vista continua a concentrarsi su quanto profondo e ampio debba essere il nostro rifiuto, affinché si possa avere qualsiasi speranza di sfidare la logica perniciosa che plasma le nostre vite. Dal rifiuto delle tecnologie promosse da miliardari egoisti al rifiuto della logica che accetta come normale che ci si aspetti che ci vendiamo agli interessi altrui per sopravvivere, insisto sul fatto che tutti noi dobbiamo spingerci molto più in là di quanto abbiamo anche solo iniziato a contemplare. Forse la netta contrazione delle norme sociali che ci attende ci aiuterà ad abbandonare le istituzioni e le aspettative a cui ci siamo aggrappati come se fossero il meglio che potessimo sperare. Ottimismo della volontà, pessimismo della ragione… ebbene sì.

Note

[1] Rivista nata nel 1981 da un gruppo di giovani dissidenti che lavoravano nel distretto finanziario di San Francisco, California (USA), tra cui Chris Carlsson.
[2]
Chris Carlsson, Nowtopia: How Pirate Programmers, Outlaw Bicyclists, and Vacant-Lot Gardeners Are Inventing the Future Today, AK Press, 2008). Tradotto in italiano come “Now-Utopia; come il ciclismo creativo, l’orticoltura comunitaria, la permacoltura, la galassia P2P e l’ecohacking stanno reinventando il nostro futuro”. 2009, Editore ShaKe; ISBN-10.8888865837.
[3]
Letteralmente: “Il meccanico e il luddista: una critica spietata della tecnologia e del capitalismo”; University of California Press, 07/01/2025; ISBN-13 9780520398078 –libro non tradotto in italiano.
[4]
American Federation of Labour and Congress of Industrial Organisations, federazione di organizzazioni sindacali statunitensi.
[5]
Titolo originale: L’apocalypse joyeuse: Une histoire du risque technologique, Paris, Éditions du Seuil, 2012. ISBN 9782021056983; non tradotto in italiano.
[6]
In francese nel testo. Originale; letteralmente: “fatti compiuti”.
[7]
Il “techno boosterism” è una ideologia positivista che vede nello sviluppo tecnologico la soluzione dei problemi dell’umanità.
[8]
Dan McQuillan: Resisting AI: An Anti-fascist Approach to Artificial Intelligence, Bristol University Press, 2022. ISBN: 978-1529213508, non tradotto in italiano.

Chris Carlsson, scrittore e artista da sempre nei movimenti sociali statunitensi, è stato tra i promotori della prima storica Critical mass a San Francisco. Autore, tra le altre cose, di Nowtopia (Shake edizioni) e, più recentemente, di Critical mass. Noi siamo il traffico (Memori), invia periodicamente i suoi articoli (molti dei quali raccolti sul blog nowtopians.com), a Comune.

L’accurata traduzione è di Silvia Giamberini.

LEGGI ANCHE QUESTO ARTICOLO DI STEFANO ROTA:

Alexa e le altre

LEGGI ANCHE QUESTO ARTICOLO DI CARLO MILANI:

Per un’informatica conviviale

L'articolo Lavoro, sicurezza e intelligenza artificiale proviene da Comune-info.