Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati” addestrano l’intelligenza artificiale di Google a sembrare intelligente
(Fonte) Varsha Bansal – 11 set 2025
Nella primavera del 2024, quando Rachael Sawyer, una scrittrice tecnica del
Texas, ricevette un messaggio su LinkedIn da un recruiter che le chiedeva un
ruolo vago come analista di scrittura, pensò che si sarebbe trattato di un
incarico simile ai suoi precedenti incarichi di creazione di contenuti.
Tuttavia, il suo primo giorno di lavoro, una settimana dopo, le sue aspettative
andarono in fumo. Invece di scrivere testi da sola, il compito di Sawyer era
valutare e moderare i contenuti creati dall’intelligenza artificiale.
“Sono rimasto scioccato dal fatto che il mio lavoro prevedesse di lavorare con
contenuti così angoscianti”, ha affermato Sawyer, che lavora come “valutatore
generalista” per i prodotti di intelligenza artificiale di Google da marzo 2024.
“Non solo perché non sono stato avvisato e non mi è mai stato chiesto di firmare
alcun modulo di consenso durante l’onboarding, ma perché né il titolo né la
descrizione del lavoro menzionavano mai la moderazione dei contenuti”. La
pressione di dover completare decine di questi compiti ogni giorno, ognuno entro
10 minuti, ha portato Sawyer in spirali di ansia e attacchi di panico, afferma,
senza il supporto della salute mentale del suo datore di lavoro.
Sawyer è uno delle migliaia di dipendenti specializzati in intelligenza
artificiale assunti da Google tramite GlobalLogic, società del conglomerato
giapponese Hitachi, per valutare e moderare l’output dei prodotti di
intelligenza artificiale di Google, tra cui il suo chatbot di punta Gemini,
lanciato all’inizio dello scorso anno, e i suoi riepiloghi dei risultati di
ricerca, AI Overviews.
Ogni nuovo rilascio di modello promette una maggiore accuratezza, il che
significa che per ogni versione, questi valutatori di intelligenza artificiale
lavorano duramente per verificare che le risposte del modello siano sicure per
l’utente. Migliaia di persone prestano la loro intelligenza per insegnare ai
chatbot le risposte corrette in ambiti diversi come la medicina, l’architettura
e l’astrofisica, correggendo gli errori ed evitando output dannosi.
Molta attenzione è stata dedicata ai lavoratori che etichettano i dati
utilizzati per addestrare l’intelligenza artificiale. Esiste, tuttavia, un altro
gruppo di lavoratori, tra cui Sawyer, che lavora giorno e notte per moderare
l’output dell’IA, garantendo che i miliardi di utenti dei chatbot vedano solo
risposte sicure e appropriate.
I modelli di intelligenza artificiale vengono addestrati su vaste quantità di
dati provenienti da ogni angolo di Internet. Lavoratori come Sawyer si collocano
in un livello intermedio della catena di fornitura globale dell’intelligenza
artificiale, pagati più degli annotatori di dati di Nairobi o Bogotà , il cui
lavoro consiste principalmente nell’etichettare i dati per modelli di
intelligenza artificiale o auto a guida autonoma, ma molto al di sotto degli
ingegneri di Mountain View che progettano questi modelli.
Nonostante il loro contributo significativo a questi modelli di intelligenza
artificiale, che forse sarebbero allucinanti se non fosse per questi editor del
controllo qualità, questi lavoratori si sentono nascosti. “L’intelligenza
artificiale non è magia; è uno schema piramidale di lavoro umano”, ha affermato
Adio Dinika, ricercatore presso il Distributed AI Research Institute di Brema,
in Germania. “Questi valutatori rappresentano il gradino intermedio: invisibili,
essenziali e sacrificabili”.
Google, come altre aziende tecnologiche, assume i data worker attraverso una
rete di appaltatori e subappaltatori. Uno dei principali appaltatori per i
valutatori di intelligenza artificiale di Google è GlobalLogic, dove questi
valutatori sono suddivisi in due grandi categorie: valutatori generalisti e
super valutatori. La maggior parte dei lavoratori assunti inizialmente per
questi ruoli erano insegnanti. Altri includevano scrittori, persone con master
in belle arti e alcuni con competenze molto specifiche, ad esempio dottori di
ricerca in fisica, hanno affermato i lavoratori.
GlobalLogic ha avviato questo lavoro per il colosso tecnologico nel 2023:
all’epoca, aveva assunto 25 super valutatori, secondo tre dei dipendenti
intervistati. Con l’intensificarsi della corsa al miglioramento dei chatbot,
GlobalLogic ha incrementato le assunzioni e ha ampliato il team di super
valutatori dell’IA a quasi 2.000 persone.
I valutatori di intelligenza artificiale di GlobalLogic sono pagati più dei loro
colleghi che si occupano di etichettatura dei dati in Africa e Sud America, con
stipendi a partire da 16 dollari l’ora per i valutatori generalisti e 21 dollari
l’ora per i super valutatori, secondo i lavoratori. Alcuni sono semplicemente
grati di avere un impiego mentre il mercato del lavoro statunitense è in crisi,
ma altri affermano che cercare di migliorare i prodotti di intelligenza
artificiale di Google ha avuto un costo personale.
Sebbene il settore dell’intelligenza artificiale sia in forte espansione, i
valutatori di intelligenza artificiale non godono di una forte sicurezza del
posto di lavoro. Dall’inizio del 2025, GlobalLogic ha registrato licenziamenti
continui, con la forza lavoro totale di super valutatori e valutatori
generalisti dell’intelligenza artificiale che si è ridotta a circa 1.500 unità,
secondo diversi dipendenti. Allo stesso tempo, i dipendenti avvertono un senso
di perdita di fiducia nei prodotti che contribuiscono a sviluppare e formare. La
maggior parte dei dipendenti ha affermato di evitare di utilizzare LLM o di
utilizzare estensioni per bloccare i riepiloghi dell’intelligenza artificiale
perché ora ne conosce il funzionamento. Molti scoraggiano anche familiari e
amici dall’utilizzarlo, per lo stesso motivo.
“Voglio solo che la gente sappia che l’intelligenza artificiale viene spacciata
per una magia tecnologica: ecco perché c’è un piccolo simbolo scintillante
accanto alla risposta dell’intelligenza artificiale”, ha detto Sawyer. “Ma non
lo è. È costruita sulle spalle di esseri umani sfruttati e sottopagati”.
The post Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati”
addestrano l’intelligenza artificiale di Google a sembrare intelligente first
appeared on Lavoratrici e Lavoratori Aci Informatica.