
Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati” addestrano l’intelligenza artificiale di Google a sembrare intelligente
Lavoratrici e Lavoratori Aci Informatica - Thursday, September 18, 2025(Fonte) Varsha Bansal – 11 set 2025
Nella primavera del 2024, quando Rachael Sawyer, una scrittrice tecnica del Texas, ricevette un messaggio su LinkedIn da un recruiter che le chiedeva un ruolo vago come analista di scrittura, pensò che si sarebbe trattato di un incarico simile ai suoi precedenti incarichi di creazione di contenuti. Tuttavia, il suo primo giorno di lavoro, una settimana dopo, le sue aspettative andarono in fumo. Invece di scrivere testi da sola, il compito di Sawyer era valutare e moderare i contenuti creati dall’intelligenza artificiale.
“Sono rimasto scioccato dal fatto che il mio lavoro prevedesse di lavorare con contenuti così angoscianti”, ha affermato Sawyer, che lavora come “valutatore generalista” per i prodotti di intelligenza artificiale di Google da marzo 2024. “Non solo perché non sono stato avvisato e non mi è mai stato chiesto di firmare alcun modulo di consenso durante l’onboarding, ma perché né il titolo né la descrizione del lavoro menzionavano mai la moderazione dei contenuti”. La pressione di dover completare decine di questi compiti ogni giorno, ognuno entro 10 minuti, ha portato Sawyer in spirali di ansia e attacchi di panico, afferma, senza il supporto della salute mentale del suo datore di lavoro.
Sawyer è uno delle migliaia di dipendenti specializzati in intelligenza artificiale assunti da Google tramite GlobalLogic, società del conglomerato giapponese Hitachi, per valutare e moderare l’output dei prodotti di intelligenza artificiale di Google, tra cui il suo chatbot di punta Gemini, lanciato all’inizio dello scorso anno, e i suoi riepiloghi dei risultati di ricerca, AI Overviews.
Ogni nuovo rilascio di modello promette una maggiore accuratezza, il che significa che per ogni versione, questi valutatori di intelligenza artificiale lavorano duramente per verificare che le risposte del modello siano sicure per l’utente. Migliaia di persone prestano la loro intelligenza per insegnare ai chatbot le risposte corrette in ambiti diversi come la medicina, l’architettura e l’astrofisica, correggendo gli errori ed evitando output dannosi.
Molta attenzione è stata dedicata ai lavoratori che etichettano i dati utilizzati per addestrare l’intelligenza artificiale. Esiste, tuttavia, un altro gruppo di lavoratori, tra cui Sawyer, che lavora giorno e notte per moderare l’output dell’IA, garantendo che i miliardi di utenti dei chatbot vedano solo risposte sicure e appropriate.
I modelli di intelligenza artificiale vengono addestrati su vaste quantità di dati provenienti da ogni angolo di Internet. Lavoratori come Sawyer si collocano in un livello intermedio della catena di fornitura globale dell’intelligenza artificiale, pagati più degli annotatori di dati di Nairobi o Bogotà , il cui lavoro consiste principalmente nell’etichettare i dati per modelli di intelligenza artificiale o auto a guida autonoma, ma molto al di sotto degli ingegneri di Mountain View che progettano questi modelli.
Nonostante il loro contributo significativo a questi modelli di intelligenza artificiale, che forse sarebbero allucinanti se non fosse per questi editor del controllo qualità, questi lavoratori si sentono nascosti. “L’intelligenza artificiale non è magia; è uno schema piramidale di lavoro umano”, ha affermato Adio Dinika, ricercatore presso il Distributed AI Research Institute di Brema, in Germania. “Questi valutatori rappresentano il gradino intermedio: invisibili, essenziali e sacrificabili”.
Google, come altre aziende tecnologiche, assume i data worker attraverso una rete di appaltatori e subappaltatori. Uno dei principali appaltatori per i valutatori di intelligenza artificiale di Google è GlobalLogic, dove questi valutatori sono suddivisi in due grandi categorie: valutatori generalisti e super valutatori. La maggior parte dei lavoratori assunti inizialmente per questi ruoli erano insegnanti. Altri includevano scrittori, persone con master in belle arti e alcuni con competenze molto specifiche, ad esempio dottori di ricerca in fisica, hanno affermato i lavoratori.
GlobalLogic ha avviato questo lavoro per il colosso tecnologico nel 2023: all’epoca, aveva assunto 25 super valutatori, secondo tre dei dipendenti intervistati. Con l’intensificarsi della corsa al miglioramento dei chatbot, GlobalLogic ha incrementato le assunzioni e ha ampliato il team di super valutatori dell’IA a quasi 2.000 persone.
I valutatori di intelligenza artificiale di GlobalLogic sono pagati più dei loro colleghi che si occupano di etichettatura dei dati in Africa e Sud America, con stipendi a partire da 16 dollari l’ora per i valutatori generalisti e 21 dollari l’ora per i super valutatori, secondo i lavoratori. Alcuni sono semplicemente grati di avere un impiego mentre il mercato del lavoro statunitense è in crisi, ma altri affermano che cercare di migliorare i prodotti di intelligenza artificiale di Google ha avuto un costo personale.
Sebbene il settore dell’intelligenza artificiale sia in forte espansione, i valutatori di intelligenza artificiale non godono di una forte sicurezza del posto di lavoro. Dall’inizio del 2025, GlobalLogic ha registrato licenziamenti continui, con la forza lavoro totale di super valutatori e valutatori generalisti dell’intelligenza artificiale che si è ridotta a circa 1.500 unità, secondo diversi dipendenti. Allo stesso tempo, i dipendenti avvertono un senso di perdita di fiducia nei prodotti che contribuiscono a sviluppare e formare. La maggior parte dei dipendenti ha affermato di evitare di utilizzare LLM o di utilizzare estensioni per bloccare i riepiloghi dell’intelligenza artificiale perché ora ne conosce il funzionamento. Molti scoraggiano anche familiari e amici dall’utilizzarlo, per lo stesso motivo.
“Voglio solo che la gente sappia che l’intelligenza artificiale viene spacciata per una magia tecnologica: ecco perché c’è un piccolo simbolo scintillante accanto alla risposta dell’intelligenza artificiale”, ha detto Sawyer. “Ma non lo è. È costruita sulle spalle di esseri umani sfruttati e sottopagati”.
The post Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati” addestrano l’intelligenza artificiale di Google a sembrare intelligente first appeared on Lavoratrici e Lavoratori Aci Informatica.