Tag - Ai&Lavoro

Le sfide regolatorie dell’intelligenza artificiale nel diritto del lavoro
(Fonte) Tiziano Treu – 28 ottobre 2025 L’intelligenza artificiale pone sfide inedite alla regolazione, poiché permea ogni ambito produttivo e si evolve secondo logiche non umane, rendendo difficile un controllo pieno del fenomeno. Il legislatore europeo, riconoscendo i limiti degli strumenti tradizionali del diritto del lavoro, ha introdotto nei recenti regolamenti — in particolare quelli su protezione dei dati e IA — un approccio procedurale basato su obblighi per le imprese. Queste devono garantire trasparenza, fornendo informazioni chiare e tempestive sull’uso dell’IA nei rapporti di lavoro, e condurre analisi dei rischi legati alle tecnologie impiegate. Poiché l’uso dell’IA nella gestione del personale è considerato ad alto rischio, il regolamento impone misure preventive e correttive per mitigare eventuali pericoli. L’attuazione di tali norme richiede alle imprese di sviluppare nuove competenze e assetti organizzativi per gestire in modo responsabile l’impiego dell’intelligenza artificiale. Diffusione dell’IA nelle imprese italiane Le ricerche mostrano che l’adozione dell’intelligenza artificiale nelle imprese italiane è ancora limitata, ma in rapida crescita, soprattutto nella gestione del personale: selezione e valutazione dei candidati, analisi delle performance, procedure di compliance e sicurezza sul lavoro. Un ambito particolarmente critico riguarda l’esercizio del potere direttivo, che con l’uso dell’IA tende a fondersi con il potere di controllo, permettendo forme di monitoraggio anche non trasparenti per i lavoratori. Per questo le normative europee impongono vincoli stringenti sull’uso dell’IA a fini di controllo. Il Regolamento 2016/679 (GDPR) tutela la privacy richiedendo che la raccolta dei dati sia trasparente, corretta e proporzionata, riconoscendo inoltre il diritto a non essere soggetti a decisioni automatizzate e a opporsi a trattamenti lesivi. Lo stesso regolamento vieta pratiche di profilazione e social scoring, in linea con i principi dell’art. 8 dello Statuto dei lavoratori. Tali divieti sono rafforzati da linee guida europee e da pronunce della Corte di giustizia, volte a garantire il rispetto dei diritti fondamentali dei lavoratori nell’uso dell’intelligenza artificiale. Profilazione e monitoraggio: rischi e diritti dei lavoratori Nonostante la chiarezza dei principi europei in materia, la distinzione tra pratiche di profilazione legittime e vietate resta incerta, come evidenziato da una recente sentenza della Corte di giustizia europea (205/2025). La delicatezza dei valori coinvolti impone alle imprese di definire con precisione procedure e criteri decisionali, prestando particolare attenzione alle attività di monitoraggio e indagine interna condotte tramite IA, che possono comportare forme indirette di controllo sui lavoratori. Tali pratiche, considerate ad alto rischio, sono soggette a obblighi di informazione e valutazione del rischio, come previsto dall’art. 1-bis del d.lgs. 152/1997 e dal Regolamento IA (art. 27 e considerando 57). La decisione della Corte introduce un principio generale di trasparenza nei processi decisionali automatizzati, riconoscendo il diritto della persona interessata a ottenere una spiegazione sul funzionamento e sugli esiti delle decisioni dell’IA. Tale spiegazione deve essere intelligibile, accessibile e adeguata, così da garantire una reale comprensione del processo algoritmico e la tutela effettiva dei diritti individuali. Il diritto alla giustificazione e l’inversione dell’onere della prova La decisione conferma il principio sancito dal Regolamento sull’IA (art. 81) e dalla Direttiva 2024/283 sul lavoro tramite piattaforme digitali (art. 11.1), che riconosce il diritto a ottenere una giustificazione delle decisioni algoritmiche. Questo diritto assume particolare rilievo poiché è difficile verificare preventivamente la logica dei processi decisionali automatizzati e individuare eventuali effetti lesivi dei diritti dei lavoratori, anche attraverso le valutazioni del rischio raccomandate dalla Commissione europea. I controlli ex ante e in itinere, pur necessari, non sempre bastano a prevenire discriminazioni o violazioni dei diritti fondamentali; per questo, il diritto alla spiegazione costituisce uno strumento essenziale di tutela. In mancanza di una giustificazione adeguata, si potrebbe configurare una inversione dell’onere della prova, ponendo a carico dell’impresa o della piattaforma l’obbligo di dimostrare la non discriminazione della decisione, come previsto in altri ambiti dal principio di trasparenza retributiva della direttiva 2023/970 (art. 18). La direttiva consente inoltre all’impresa di rettificare o compensare le decisioni non giustificate (art. 8.3). La normativa europea richiama spesso l’art. 4 dello Statuto dei lavoratori, relativo ai controlli a distanza, meno frequentemente l’art. 8, che pure tutela principi rilevanti in materia di privacy e libertà individuale. L’interpretazione dell’art. 4, modificato nel 2015, ha chiarito che le garanzie sui controlli non si applicano agli strumenti utilizzati dal lavoratore per svolgere la prestazione, ma tali strumenti non possono essere usati in modo occulto (ad esempio tramite sistemi audiovisivi o software di monitoraggio della posta elettronica o dell’accesso a internet). Intelligenza artificiale e controllo a distanza: limiti normativi e ruolo degli accordi sindacali L’uso di strumenti basati su intelligenza artificiale nei luoghi di lavoro ripropone il problema dell’applicazione dell’art. 4 dello Statuto dei lavoratori. Secondo l’interpretazione restrittiva indicata dal Garante per la protezione dei dati (provv. 29 aprile 2025), gli “strumenti utilizzati dal lavoratore per rendere la prestazione” — come computer, smartphone e tablet — possono essere usati senza accordo sindacale o autorizzazione amministrativa solo se privi di componenti di IA. Quando tali strumenti integrano applicazioni come copiloti o ChatGPT, che consentono un controllo continuativo e potenzialmente occulto sull’attività del lavoratore, si applicano invece i vincoli dell’art. 4, oltre alle garanzie previste dal Regolamento europeo sulla protezione dei dati (informazione, opposizione e valutazione d’impatto). Il Garante, con il provvedimento del 29 aprile 2025, ha infatti dichiarato illecito il trattamento dei metadati di posta elettronica dei dipendenti della Regione Lombardia, richiedendo misure per impedire l’identificazione dei singoli lavoratori. Poiché l’IA tende a permeare sempre più le attività produttive, diventa difficile separare le sue funzioni operative da quelle di controllo a distanza, rendendo centrale il ricorso all’accordo sindacale come strumento per bilanciare l’uso dell’IA con la tutela della privacy e dei diritti fondamentali. Un esempio significativo è l’accordo del 28 luglio 2025 tra Glaxo Smith Kline, ViiV Healthcare e le RSU, che promuove un impiego responsabile e trasparente dell’IA come supporto al processo decisionale umano, tutela l’anonimato dei partecipanti e istituisce un osservatorio paritetico sull’innovazione tecnologica. Tale esperienza mostra come la contrattazione collettiva possa contribuire in modo proattivo alla regolazione etica e partecipata dell’intelligenza artificiale nel lavoro, in coerenza con i principi e le direttive europee. Nello specifico si intende avviare un progetto pilota volto a personalizzare le interazioni tra medici e informatori scientifici, con il supporto della IA generativa per trascrivere, analizzare e fornire feed back sui contenuti degli scambi di opinioni fra questi soggetti con l’obiettivo di migliorare la qualità della informazione scientifica. L’ adesione al progetto è volontaria e può essere revocata. E’ prevista la rimozione di informazioni relative alla identificazione del personale partecipante con strumenti di anonimizzazione. I file audio sono conservati per il tempo necessario, mentre le trascrizioni per un periodo massimo di due anni per permettere una corretta calibrazione dell’ algoritmo. In ogni caso viene assicurato il rispetto dell’art. 4 dello Statuto dei lavoratori. L’accordo così concluso segnala come l’ intervento della IA nei rapporti di lavoro offra una occasione preziosa alle parti sociali di contribuire direttamente a una regolazione di questa tecnologia che sia in linea con le direttive europee e che ne chiarisca le modalità d’ uso per imprese e lavoratori. The post Le sfide regolatorie dell’intelligenza artificiale nel diritto del lavoro first appeared on Lavoratrici e Lavoratori Aci Informatica.
Intelligenza artificiale: l’umanità è diventata obsoleta per i padroni?
(Fonte) Contre Attaque – 29 ottobre 2025 Negli Stati Uniti, una campagna pubblicitaria della società di San Francisco Artisan invita apertamente le aziende a “smettere di assumere esseri umani” e ad affidarsi a “dipendenti AI”, ribattezzati “artigiani digitali” come la rappresentante di vendita virtuale Ava. L’idea di sostituire il lavoro umano con l’IA non è più fantascienza, ma una strategia industriale già in corso. Amazon è il primo gigante a tradurla in pratica: secondo Le Monde e Reuters, ha avviato il più grande licenziamento di massa della sua storia — 30.000 posti tagliati —, un processo destinato a estendersi fino ad automatizzare il 75% delle operazioni. I licenziamenti colpiscono in particolare il 10% delle funzioni impiegatizie, cioè coloro che lavorano negli uffici e gestiscono compiti amministrativi. Il CEO ha spiegato che la riduzione della forza lavoro è parte di una strategia di lungo periodo fondata sull’intelligenza artificiale. Anche Walmart segue questa logica: nessuna nuova assunzione nonostante la crescita del fatturato, grazie all’automazione. Analogamente, Intel e Microsoft hanno eliminato decine di migliaia di posti di lavoro mentre registravano profitti record. Come sintetizza il Wall Street Journal, “le grandi aziende puntano sulla crescita senza assumere”. Di fronte a questo scenario, figure come Bernie Sanders sollevano interrogativi sociali elementari: cosa accadrà ai lavoratori licenziati, privati di reddito e prospettive? La risposta, secondo i teorici dell’élite tecnologica, è netta. Il transumanista Laurent Alexandre, fondatore di Doctissimo, aveva già proclamato nel 2019 la nascita di una “nuova età dell’oro” riservata a chi controlla le tecnologie, contrapposta a una massa “inutile” destinata all’emarginazione. La visione è gerarchica e diseguale: da un lato gli “dei” dell’innovazione — ingegneri, manager, azionisti — e dall’altro la maggioranza degli esseri umani resi obsoleti. Nonostante un secolo di automazione e guadagni di produttività, i benefici non sono stati redistribuiti: il lavoro non è diminuito, le ricchezze si sono concentrate e la precarietà è aumentata. L’intelligenza artificiale, lungi dal liberare l’uomo dal lavoro, rischia di ampliare questo divario e di spingere milioni di persone fuori dal sistema produttivo. Negli Stati Uniti, l’anticipazione distopica assume già contorni concreti: nello Utah è stato approvato un piano per costruire un “mega-campo” per 1.300 senzatetto, isolato dalla città e privo di trasporti pubblici, presentato come soluzione “assistenziale”. In realtà, si tratta di un internamento mascherato, un modo per confinare coloro che il nuovo ordine tecno-economico considera superflui. Il quadro che emerge è quello di un futuro prossimo segnato da una umanità a due velocità: una minoranza che controlla e beneficia delle macchine e una maggioranza relegata a una condizione di non-vita, esclusa dai circuiti del lavoro e della ricchezza, mentre l’intelligenza artificiale produce profitti sempre più concentrati nelle mani di pochi. The post Intelligenza artificiale: l’umanità è diventata obsoleta per i padroni? first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’intelligenza artificiale è pronta per i lavori nelle risorse umane che sta soppiantando?
(Fonte) Caitlin Wolper Phillips – 23 ottobre 2025 Con la diffusione sempre maggiore dell’intelligenza artificiale nelle aziende, questa sta iniziando a sostituire il personale umano.  È chiaro in tutto il settore tecnologico: IBM ha sostituito centinaia di persone con l’intelligenza artificiale ( il 94% delle sue domande sulle risorse umane ora riceve risposta da agenti di intelligenza artificiale), e Amazon ha dichiarato che intende sostituire le persone con l’intelligenza artificiale. Una nuova ricerca di GP mostra che non tutti i dirigenti sono così entusiasti dell’intelligenza artificiale come i loro vertici aziendali potrebbero far credere. Circa il 51% ha affermato di non fidarsi completamente dell’intelligenza artificiale nel processo decisionale finanziario. Inoltre, il 22% è preoccupato per la qualità dei dati che vengono inseriti nei modelli di intelligenza artificiale e il 20% si preoccupa dell’accuratezza e dell’affidabilità dei risultati dell’intelligenza artificiale.  “Questa dinamica è tipica delle trasformazioni in fase iniziale: contraddizioni e sperimentazione”, ha affermato Laura Maffucci, vicepresidente e responsabile delle risorse umane di GP. “In primo luogo, c’è la pressione che i dirigenti senior sentono nel dover dimostrare il ritorno sui loro investimenti in intelligenza artificiale”, ha affermato Loomis. “Potrebbero non avere i mezzi per misurare appieno il valore di questi costi di intelligenza artificiale, ma hanno i mezzi per migliorare i loro risultati finali riducendo il personale in aree chiave che si prestano all’uso di strumenti di intelligenza artificiale”. Ma non tutti stanno riducendo il personale. Secondo la ricerca di G-P, l’11% dei dirigenti sta raddoppiando gli sforzi sui talenti umani per far risaltare la propria azienda. “La nostra ricerca mostra che il 31% dei dipendenti teme che l’uso dell’IA accelererà la sostituzione, e il 62% teme che le proprie competenze non siano a prova di futuro. Questa è una vera ansia, e le Risorse Umane devono affrontarla di petto”. “Sebbene [l’intelligenza artificiale] possa essere il catalizzatore per la prima azienda da un miliardo di dollari gestita da una sola persona, potrebbe anche rappresentare la rovina di un’azienda da un miliardo di dollari già esistente”, ha affermato Flower. “Prevedo notevoli turbolenze nei prossimi anni, con l’avanzare dell’intelligenza artificiale… [e] mentre le persone continuano a riporre false aspettative e fiducia nella tecnologia rispetto agli esseri umani, nella ricerca di un maggiore valore finanziario”. The post L’intelligenza artificiale è pronta per i lavori nelle risorse umane che sta soppiantando? first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come il “workslop” dell’intelligenza artificiale sta influenzando le organizzazioni che generano ricavi
(Fonte) Layla Ilchi – 16 ottobre 2025 Secondo uno studio di settembre pubblicato sulla Harvard Business Review da BetterUp Labs e dallo Stanford Social Media Lab, la proliferazione dell’intelligenza artificiale sul posto di lavoro ha dato vita a un nuovo termine: “workslop”. È definito come “contenuto di lavoro generato dall’intelligenza artificiale che si spaccia per buon lavoro, ma non ha la sostanza per far progredire in modo significativo un determinato compito”. Lo studio afferma che il 40% degli intervistati ha ricevuto “workslop” nel mese precedente la pubblicazione del sondaggio. “È questa eccessiva dipendenza da ChatGPT per il pensiero”, ha affermato Debra Andrews, fondatrice e presidente della società di consulenza Marketri. “Potrebbe essere che [i dipendenti] stanno iniziando a diventare pigri e a fare troppo affidamento su di esso per svolgere la parte che dovrebbe essere prettamente umana”. Sussman e Andrews hanno convenuto che una migliore sollecitazione e formazione sugli strumenti di intelligenza artificiale può ridurre significativamente la perdita di tempo nel lavoro. “L’arte di sollecitare e poi perfezionare ciò che si riceve deve essere ripetuta nel tempo, in modo da non ottenere solo il primo risultato”, ha affermato. “Se un’azienda è afflitta da problemi di produzione, finirà per avere risultati nella media”, ha affermato Andrews. “Per alcune aziende, questo potrebbe andare bene… ma il problema è che si verificherà un effetto livellante… Si assisterà semplicemente all’invecchiamento dei risultati. Inizieranno tutti ad apparire e suonare uguali”. The post Come il “workslop” dell’intelligenza artificiale sta influenzando le organizzazioni che generano ricavi first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’AI nei luoghi di lavoro, gli obblighi per le imprese
(Fonte)  Area Innovazione e AI – 23 ottobre 2025 L’AI ACT visto dall’impresa Dal 2 febbraio 2025 l’AI Act vieta: emotion recognition in luoghi di lavoro; social scoring; sfruttamento di vulnerabilità; sistemi di identificazione biometrica remota in tempo reale in spazi pubblici (salve strette eccezioni di polizia); biometric categorisation per tratti sensibili; untargeted scraping di immagini facciali per creare database. Impatto per i datori di lavoro: nessun “sentiment scoring” su dipendenti/candidati; no face recognition in tempo reale in aree accessibili al pubblico (es. retail) per scopi di loss prevention; attenzione ai sistemi che deducono tratti sensibili. Le linee-guida della Commissione sui divieti hanno chiarito casistiche e confini applicativi (cfr. Strategia Digitale Europea). L’AI Act qualifica come altro rischio i sistemi utilizzati nelle funzioni HR (Allegato III: reclutamento, selezione, assegnazione dei compiti, valutazione delle performance, decisioni su promozioni o cessazioni). Per questi sistemi si applicano obblighi stringenti: risk management, governance e qualità dei dati, documentazione tecnica, registrazione nel database UE, sorveglianza post-market, human oversight effettivo, requisiti di accuratezza, robustezza e cybersecurity. La piena applicazione sarà guidata dagli standard tecnici europei (CEN-CENELEC JTC 21), che fungeranno da vero e proprio manuale operativo. Anche i deployer (le aziende che usano questi sistemi) sono soggetti a obblighi: uso conforme alle istruzioni, supervisione umana, logging delle attività, qualità dei dati e, dove previsto dagli Stati membri, valutazione d’impatto sui diritti fondamentali (FRIA). Le scadenze principali si applicano in modo progressivo tra 2026 e 2027. L’insieme di questi adempimenti comporta un impatto organizzativo significativo, richiedendo risorse, competenze e adeguamenti procedurali rilevanti. Sanzioni e governance (AI Act + L. 132/2025) L’AI Act prevede sanzioni molto elevate: fino a 35 milioni di euro o il 7% del fatturato globale per le pratiche vietate; 3% per altre violazioni e 1% in caso di informazioni false o fuorvianti. La governance è affidata all’AI Office UE e alle autorità nazionali di vigilanza, formalmente designate dal 10 ottobre 2025, responsabili di controllo e enforcement. Con la L. 132/2025, l’Italia coordina l’ordinamento interno all’AI Act, introducendo principi generali, misure di promozione, prime fattispecie penali e un quadro di riferimento nazionale. Focus lavoro * L’art. 11 stabilisce che l’uso dell’IA nel lavoro deve migliorare le condizioni lavorative, rispettare dignità, integrità psico-fisica, sicurezza, trasparenza e protezione dei dati, bilanciando diritti dei lavoratori e interessi d’impresa. * È previsto l’obbligo di informativa al lavoratore sull’uso dell’IA (richiamo al Decreto Trasparenza) e garanzie antidiscriminatorie esplicite. * L’art. 12 istituisce un Osservatorio nazionale presso il Ministero del Lavoro, con funzioni di monitoraggio, dialogo sociale e promozione della formazione su IA per lavoratori e datori. Il quadro sanzionatorio e regolatorio sarà progressivo e in evoluzione, poiché molte disposizioni richiedono decreti attuativi che definiranno nel concreto obblighi, procedure e controlli. Gli obblighi informativi (Artt. 13 e 15 GDPR) Nel contesto lavorativo, l’uso di sistemi di IA è oggi regolato da un insieme coordinato di norme che impongono trasparenza, supervisione umana, non discriminazione e sicurezza dei dati. Il GDPR rappresenta il pilastro degli obblighi informativi: gli articoli 13, paragrafo 2, lettera f), e 15, paragrafo 1, lettera h) e il Considerando 71 del GDPR impongono al titolare del trattamento di fornire informazioni chiare sull’esistenza di processi decisionali automatizzati, sulle logiche utilizzate e sulle loro conseguenze per l’interessato. L’informativa deve spiegare anche metriche, logiche algoritmiche, meccanismi di controllo degli errori e dei bias, evitando informative generiche. Il provvedimento n. 408 del 15 dicembre 2023 del Garante per la protezione dei dati personali ha chiarito che, quando un algoritmo incide su assunzioni, premi o provvedimenti disciplinari, le informative devono includere la logica di funzionamento del modello, i parametri più rilevanti e la possibilità di intervento umano (il c.d. man in the loop). Decisioni automatizzate e garanzie (art. 22 e considerando 71 GDPR) L’articolo 22 del GDPR riconosce all’interessato il diritto di non essere sottoposto a decisioni fondate unicamente su trattamenti automatizzati di dati personali, comprese le attività di profilazione, qualora tali decisioni producano effetti giuridici o incidano in modo analogo sulla sua sfera personale. Nei casi in cui il processo decisionale automatizzato venga presentato come necessario per l’esecuzione di un contratto (con una verifica della reale indispensabilità del trattamento come chiarito dalle Linee guida 2/2019 del Comitato Europeo per la Protezione dei Dati), autorizzato dal diritto dell’Unione o dello Stato membro, oppure basato sul consenso esplicito dell’interessato, il titolare deve garantire adeguate tutele, tra cui l’intervento umano, la possibilità di esprimere opinioni e di contestare la decisione (Considerando 71) Il lavoratore deve sapere chi può modificare o annullare una decisione automatizzata e in quali tempi. L’integrazione con l’AI Act: trasparenza e spiegabilità L’AI Act, negli articoli 13 e 14, introduce obblighi specifici di trasparenza e fornitura di informazioni agli utenti e agli interessati. Tali obblighi si sommano, ma non si sovrappongono, a quelli del GDPR, prevedendo che: * gli utilizzatori di sistemi di alto rischio debbano garantire che il personale umano comprenda le capacità e i limiti del sistema * l’adozione di misure per assicurare la supervisione umana durante tutto il ciclo di vita del sistema. A tal proposito si sollevano due aspetti fondamentali: * laddove i prodotti utilizzati derivino da servizi digitali erogati da fornitori terzi, bisogna porre particolare attenzione a tutto il processo di fornitura per assicurare la spiegabilità dell’algoritmo, a partire dal contratto. * il monitoraggio ed eventuali audit in tali casi debbono essere ripensati e organizzati opportunamente. Statuto dei Lavoratori (artt. 4, 8, 15), prassi Garante e giurisprudenza 2023–2025 Nella prospettiva dell’impresa (e del datore di Lavoro in genere), lo Statuto dei Lavoratori conserva un ruolo centrale nella regolazione del rapporto tra controllo tecnologico e diritti dei lavoratori. L’introduzione di sistemi di intelligenza artificiale e di analisi automatizzata delle prestazioni richiede un accenno alla lettura sistematica degli articoli 4, 8 e 15 alla luce dell’evoluzione tecnologica e delle più recenti pronunce della giurisprudenza e del Garante per la protezione dei dati personali. * Strumenti di controllo a distanza e AI come ‘strumento di lavoro’ (art. 4 St. Lav.): l’introduzione di sistemi di intelligenza artificiale non elimina, ma anzi amplifica il rischio di controllo indiretto (perchè occorre ricordare che quello diretto sulle modalità della prestazione era ed è vietato, divenuto principio dell’Ordinamento dopo la modifica del 2015, per giurisprudenza granitica) della persona del lavoratore. La norma distingue tra strumenti di controllo a distanza – soggetti ad accordo sindacale o autorizzazione dell’INL – e strumenti di lavoro funzionali alla prestazione o alla sicurezza, nozione sempre interpretata in modo restrittivo da Garante e giudici. Nel contesto dell’IA questa distinzione si fa problematica: software di pianificazione turni, analisi produttiva, gestione HR o valutazione automatizzata svolgono congiuntamente funzioni organizzative e di controllo, rientrando così nel perimetro dell’art. 4. La giurisprudenza recente ha chiarito che anche sistemi digitali apparentemente neutrali sono soggetti alle garanzie dello Statuto se producono effetti di monitoraggio diretto o indiretto sulle prestazioni. Il Garante (parere n. 477/2024 e provvedimenti 2022–2024) ha inoltre ribadito che tali strumenti richiedono DPIA, informativa specifica e valutazione congiunta con DPO e rappresentanze, poiché metriche di produttività, presenza o performance costituiscono controllo a distanza. L’algoritmo non può sostituire la supervisione umana: il datore resta titolare e responsabile del trattamento. Ai sensi dell’art. 4, comma 2, i dati raccolti attraverso strumenti di lavoro possono essere utilizzati solo nel rispetto delle garanzie procedurali previste e, quando il monitoraggio è sistematico o profilato, previo accordo sindacale. * Divieto di indagini sulle opinioni e limiti informativi dei sistemi AI (art. 8 St. Lav.): L’articolo 8 dello Statuto dei Lavoratori vieta al datore di lavoro di raccogliere, direttamente o tramite terzi, informazioni sulle opinioni politiche, religiose o sindacali del lavoratore e, più in generale, su aspetti non rilevanti ai fini della valutazione professionale. Con l’avvento dell’IA, questo divieto si estende anche alle analisi inferenziali basate su dati comportamentali, linguistici o provenienti dal social listening: anche senza domande dirette, infatti, un algoritmo può dedurre opinioni o caratteristiche sensibili, violando lo spirito della norma. Il Garante ha già ritenuto illecito l’uso di software di analisi del linguaggio nei colloqui di selezione, perché in grado di rivelare tratti personali non pertinenti. Analogamente, i sistemi di “well-being” o di emotion AI, spesso proposti come strumenti per misurare engagement o benessere, rischiano di sconfinare nei controlli vietati dagli artt. 4 e 8, salvo configurazioni strettamente orientate a finalità lecite e proporzionate. In questo ambito vale in forma rafforzata il principio di pertinenza e non eccedenza: l’IA può trattare solo dati realmente necessari alla funzione lavorativa. La giurisprudenza conferma tale indirizzo: la Cassazione, con sentenza n. 25731/2021, ha giudicato illegittimo l’uso di analisi comportamentali sulle chat aziendali a fini disciplinari, ritenendo tali controlli eccedenti e vietati dall’art. 8. * Divieto di atti discriminatori e valutazioni algoritmiche (art. 15 St. Lav.): L’articolo 15 dello Statuto dei Lavoratori sancisce la nullità degli atti discriminatori e vieta ogni trattamento differenziato basato su sesso, età, orientamento, razza o convinzioni personali. Nel contesto dell’IA ciò implica l’obbligo di testare i sistemi algoritmici per individuare bias e correlazioni spurie, prevenendo effetti discriminatori nelle decisioni di selezione o gestione del personale. Poiché i modelli si alimentano dei dati prodotti dai processi aziendali, la qualità e correttezza dei dati diventa essenziale: dati distorti o degradati generano modelli errati e potenzialmente discriminatori. Ne deriva per il datore di lavoro un preciso onere di verifica e controllo sulle modalità di acquisizione e trattamento dei dati. Il datore deve inoltre documentare i test, mantenere tracciabilità delle decisioni automatizzate e dimostrare la correttezza del processo, in coerenza con il Considerando 71 GDPR, con i principi di fairness dell’AI Act e con la normativa antidiscriminatoria (D.lgs. 215/2003, 216/2003 e 198/2006). Poiché nel rito antidiscriminatorio è ammesso l’uso della prova statistica, anche i bias sistemici rientrano nel perimetro della responsabilità datoriale. L’integrazione tra Statuto, GDPR, AI Act e norme antidiscriminazione è quindi cruciale per prevenire impact discrimination in ambito HR, sebbene la complessità del quadro rischi di renderne difficile un’effettiva prevenzione ex ante da parte delle imprese. Gestione dei dati, responsabilità organizzativa e tutela della salute e sicurezza nei luoghi di lavoro L’evoluzione dell’intelligenza artificiale nelle imprese si intreccia con un più ampio quadro normativo che coinvolge la gestione dei dati, la responsabilità organizzativa e la tutela della salute e sicurezza nei luoghi di lavoro. Il Data Act, la Legge 132/2025, il D.Lgs. 231/2001 e il D.Lgs. 81/2008 rappresentano i pilastri di una governance integrata che deve garantire, in chiave sistematica, trasparenza, tracciabilità e sicurezza tecnologica. Il Data Act (Reg. UE 2023/2854) stabilisce regole uniformi per l’accesso e l’utilizzo dei dati generati da prodotti e servizi connessi, inclusi quelli derivati da sistemi di IA, e completa l’AI Act garantendo accesso e portabilità dei dati anche in ambito aziendale. Ciò implica che i dati raccolti da sensori, macchinari intelligenti e software predittivi devono essere accessibili in modo equo, sicuro e interoperabile, nel rispetto del GDPR. Per i datori di lavoro il Data Act introduce nuovi obblighi di governance dei dati, imponendo un equilibrio tra utilizzo produttivo delle informazioni e tutela dei dati personali dei lavoratori, anche rispetto a concorrenza e proprietà intellettuale. In ambito industriale resta delicata la distinzione tra “dati macchina” e dati personali”: le telemetrie e i dati tecnici vanno trattati come personali quando consentono, anche indirettamente, di identificare o valutare un lavoratore (caso tipico nella gig economy). Ciò richiede procedure di anonimizzazione o minimizzazione tracciabili e verificabili. Sul piano sistemico si apre infine il tema — ancora irrisolto ma sempre più discusso anche a livello internazionale — della proprietà dei dati generati dal lavoro umano, destinato a diventare uno dei nodi politici e regolatori dei prossimi anni. Un quadro nazionale di raccordo, la Legge 132/2025 La Legge 132/2025 rappresenta il principale strumento nazionale di attuazione dell’AI Act e introduce, presso il Ministero del Lavoro, l’Osservatorio nazionale sull’IA, con il compito di promuovere principi di etica, trasparenza e non discriminazione anche nei contesti lavorativi. La legge prevede inoltre linee guida nazionali per l’uso sicuro dell’IA nei processi produttivi, formativi e gestionali, con particolare attenzione a PMI e settori ad alta automazione. Sul piano operativo, la normativa impone ai datori di lavoro di integrare la valutazione dell’impatto algoritmico nel risk management aziendale, raccordando DPIA (GDPR), obblighi di conformità dell’AI Act e analisi dei rischi etici, reputazionali e organizzativi. Sono inoltre richiesti audit periodici sulla qualità dei dati e attività di formazione del personale, per garantire un utilizzo consapevole e sicuro dei sistemi di IA. Responsabilità organizzativa e modelli di compliance (D.Lgs. 231/2001) Il D.Lgs. 231/2001, nato per prevenire i reati d’impresa, assume oggi un nuovo ruolo alla luce dell’utilizzo dell’intelligenza artificiale, che può generare rischi legati a discriminazioni, violazioni della privacy, lesioni dei diritti dei lavoratori e omissioni di vigilanza. La Legge 132/2025 ha introdotto le prime modifiche in ambito penale e delegato il Governo ad ampliare le fattispecie di reato connesse all’uso dell’IA, che andranno a incidere sul catalogo dei reati presupposto della responsabilità dell’ente. Ne consegue la necessità di aggiornare i modelli organizzativi 231, includendo l’IA nella mappatura dei rischi e nelle procedure di controllo interno. L’ampliamento “algoritmico” dei reati, insieme al nuovo quadro europeo (in particolare il Data Act), impone alle imprese di estendere i presidi di compliance ai rischi derivanti dalla governance dei dati e dalle decisioni automatizzate. L’Organismo di Vigilanza dovrà quindi coordinarsi con Audit, DPO e RSPP, prevedendo formazione mirata, procedure dedicate e un possibile AI Risk Register con audit periodici, per dimostrare l’adempimento degli obblighi di vigilanza ex art. 6 del D.Lgs. 231/2001. Sicurezza, salute e impatto dei sistemi AI (D.Lgs. 81/2008) Il Testo Unico sulla Sicurezza (D.Lgs. 81/2008), e in particolare il poco valorizzato Allegato XXXIV, deve oggi essere reinterpretato alla luce dei nuovi rischi introdotti dall’automazione intelligente. Tale allegato, che disciplina informazione e formazione dei lavoratori, diventa la base per una vera e propria “sicurezza algoritmica”. In questo nuovo contesto: * la formazione “sufficiente e adeguata” diventa AI literacy, ossia capacità di usare consapevolmente i sistemi di IA e riconoscerne errori, bias e falsi positivi; * la valutazione dei rischi (DVR) deve includere rischi cognitivi, decisionali e psicosociali, connessi a opacità, sorveglianza continua, automazione o dipendenza da sistemi predittivi e cobot; * la cooperazione tra datore, dirigenti e RSPP si amplia a DPO e figure tecniche dell’IA (es. Chief AI Officer), per integrare profili giuridici, etici e di sicurezza. La mancata formazione su questi aspetti può comportare violazioni dell’art. 37 TU 81/08 e possibili responsabilità datoriali per “infortunio digitale”. Le linee guida INAIL 2025 e la proposta europea di “AI safety by training” confermano questa estensione: la sicurezza non è più solo fisica, ma anche cognitiva, informativa e algoritmica. INAIL e Garante raccomandano quindi di valutare: (a) gli effetti della sorveglianza algoritmica sul benessere mentale, (b) i rischi di sostituzione decisionale automatica, (c) la formazione alla supervisione umana dei sistemi. The post L’AI nei luoghi di lavoro, gli obblighi per le imprese first appeared on Lavoratrici e Lavoratori Aci Informatica.
I cambiamenti dell’intelligenza artificiale nel mercato del lavoro potrebbero essere lenti ad arrivare
(Fonte) Courtney Vien – 7 ottobre 2025 Questo è quanto emerge da un nuovo studio dello Yale Budget Lab (YBL), che ha rilevato che il mercato del lavoro non è stato sconvolto dall’IA generativa. I ricercatori dello YBL hanno esaminato il mix occupazionale, ovvero la percentuale di lavoratori che hanno perso, guadagnato o cambiato lavoro. Hanno confrontato il tasso di variazione del mix occupazionale da novembre 2022, quando gli LLM sono diventati una grande notizia, con altri due periodi di sconvolgimento tecnologico: l’avvento dei computer e di Internet. Hanno scoperto che l’IA generativa ha avuto un effetto solo dell’1% maggiore sul mix occupazionale rispetto ai primi anni di adozione di Internet. “I potenziali effetti dell’intelligenza artificiale sul mercato del lavoro non sono finora fuori dall’ordinario”, hanno scritto i ricercatori, sottolineando che la rivoluzione tecnologica avviene solitamente in un arco di tempo di decenni, non di mesi o anni. I ricercatori hanno scoperto che il mix occupazionale è rimasto stabile nei vari settori, indipendentemente dal fatto che vi sia un’esposizione elevata, media o bassa all’intelligenza artificiale o che vi sia un utilizzo elevato o basso dell’intelligenza artificiale. Negli ultimi mesi, hanno notato alcuni cambiamenti nel mix occupazionale dei lavoratori entry-level (20-24 anni) rispetto alla fascia d’età 25-34. È possibile che la GenAI stia effettivamente influenzando le prospettive occupazionali dei neolaureati, hanno scritto, ma potrebbe anche essere colpa di un rallentamento delle assunzioni. The post I cambiamenti dell’intelligenza artificiale nel mercato del lavoro potrebbero essere lenti ad arrivare first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come gli americani vedono l’intelligenza artificiale e il suo impatto sulle persone e sulla società
(Fonte) Brian Kennedy, Eileen Yam, Emma Kikuchi, Isabelle Pula, Javier Fuentes – 17 settembre 2025 Gli strumenti di intelligenza artificiale stanno ormai giocando un ruolo importante in molti aspetti della vita e della società, dalla politica all’arte, dal lavoro a molto altro. Sebbene gli americani esprimano una certa apertura verso i potenziali benefici dell’intelligenza artificiale, sono preoccupati per il suo impatto su alcune capacità umane, secondo un nuovo sondaggio del Pew Research Center. Gli adulti statunitensi sono generalmente pessimisti riguardo all’effetto dell’IA sulla capacità delle persone di pensare in modo creativo e di instaurare relazioni significative: il 53% afferma che l’IA peggiorerà la capacità di pensare in modo creativo, rispetto al 16% che afferma che la migliorerà . Una percentuale identica (16%) afferma che l’IA non migliorerà né peggiorerà questa capacità. Molti più intervistati affermano che l’intelligenza artificiale peggiorerà , anziché migliorare, la capacità delle persone di instaurare relazioni significative (50% contro 5%). Gli americani sono relativamente più ottimisti sul fatto che l’IA migliori la risoluzione dei problemi: il 29% degli adulti statunitensi afferma che migliorerà questa abilità. Tuttavia, una quota maggiore (38%) ritiene che l’IA peggiorerà la situazione . Il sondaggio, condotto su 5.023 adulti statunitensi dal 9 al 15 giugno 2025, aggiorna anche le nostre tendenze sulla consapevolezza e gli atteggiamenti degli americani nei confronti dell’IA. Inoltre, in risposte aperte, gli intervistati descrivono con parole proprie quelli che ritengono essere i rischi e i benefici dell’IA per la società. Il 50% afferma di essere più preoccupato che entusiasta del crescente utilizzo dell’intelligenza artificiale nella vita quotidiana, rispetto al 37% del 2021. E più della metà degli americani (57%) ritiene elevati i rischi sociali dell’IA, rispetto al 25% che ne ritiene elevati i benefici . Quando è stato chiesto loro di descrivere con parole proprie il motivo per cui ritenevano elevati i rischi, la preoccupazione più comune è stata l’indebolimento delle competenze e delle connessioni umane da parte dell’IA . In relazione al desiderio degli americani di un maggiore controllo sull’uso dell’intelligenza artificiale, la maggior parte degli americani (76%) afferma che è estremamente o molto importante poter distinguere se immagini, video e testi sono stati creati da un’intelligenza artificiale o da una persona. Tuttavia, il 53% degli americani non è molto o per niente sicuro di poter distinguere un’immagine da un’intelligenza artificiale o da una persona. La maggioranza sostiene che l’intelligenza artificiale dovrebbe svolgere almeno un piccolo ruolo in: * Previsioni del tempo (74%) * Ricerca di reati finanziari (70%) * Ricerca di frodi nelle richieste di sussidi governativi (70%) * Sviluppo di nuovi medicinali (66%) * Identificazione dei sospettati di un crimine (61%) I giovani adulti hanno molte più probabilità di essere consapevoli e di interagire spesso con l’IA rispetto alle persone di età pari o superiore a 65 anni. Ad esempio, il 62% degli under 30 afferma di aver sentito o letto molto sull’IA, rispetto al 32% di quelli di età pari o superiore a 65 anni. Questo divario di consapevolezza è aumentato considerevolmente dal 2022. Inoltre, la maggioranza degli adulti sotto i 30 anni afferma che il crescente utilizzo dell’intelligenza artificiale nella società renderà le persone meno capaci di pensare in modo creativo (61%) e di instaurare relazioni significative con gli altri (58%). In confronto, circa quattro adulti su dieci di età pari o superiore a 65 anni affermano che l’intelligenza artificiale renderà le persone peggiori in questi ambiti. The post Come gli americani vedono l’intelligenza artificiale e il suo impatto sulle persone e sulla società first appeared on Lavoratrici e Lavoratori Aci Informatica.
I lavoratori che hanno meno voce in capitolo nell’adozione dell’intelligenza artificiale segnalano una minore soddisfazione lavorativa
(Fonte) Patrick Kulp 16 ottobre 2025 Questo è quanto emerge da uno dei pochi dati recenti su come l’intelligenza artificiale stia plasmando il futuro del lavoro. Un altro rapporto ha rilevato che un’eventuale grande apocalisse lavorativa legata all’intelligenza artificiale potrebbe essere più lontana di quanto indichi l’attuale panico, ma ciò non significa che la tecnologia non stia nel frattempo rimodellando gli uffici. Influencer della tecnologia: numerosi studi conteggiano il numero di posti di lavoro disponibili e i livelli di occupazione; un nuovo indice mira ad analizzare più approfonditamente la qualità di tali lavori. Lo studio ha rilevato che il 60% degli americani non ha un lavoro di qualità e più della metà si sente esclusa dalle decisioni importanti sul posto di lavoro, tra cui l’adozione di nuove tecnologie come gli strumenti di intelligenza artificiale, dove il 55% degli intervistati ha affermato che vorrebbe avere più influenza. Dati di formazione: una nuova ricerca di Indeed ha scoperto che più un lavoro è esposto alla sostituzione dell’IA, meno è probabile che vengano menzionati programmi di formazione nella descrizione del lavoro. Ciò è dovuto in parte al fatto che i lavori più esposti alla GenAI tendono ad essere più qualificati e meglio retribuiti, mentre i programmi di formazione sono concentrati in posizioni con salari più bassi e requisiti di esperienza o istruzione inferiori, ha affermato Indeed. Indeed ha pubblicato il mese scorso il suo rapporto annuale sull’intelligenza artificiale al lavoro, da cui emerge che oltre un quarto dei lavori sulla sua piattaforma potrebbe essere “fortemente” trasformato dall’intelligenza artificiale, mentre il 54% potrebbe cambiare “moderatamente”. Decenni, non mesi: quando dovremmo aspettarci questa trasformazione? Se le passate ondate tecnologiche sono indicative, potrebbe volerci più tempo di quanto alcuni titoli lascino credere. Questo è quanto emerge da un recente rapporto del Budget Lab dell’Università di Yale, che ha rilevato che, nonostante le preoccupazioni, il ritmo dei cambiamenti nel mercato del lavoro nei quasi tre anni successivi al lancio di ChatGPT ha rispecchiato più o meno quello seguito ad altre innovazioni di ampia portata, come i computer o Internet. Queste innovazioni tecnologiche si sono verificate nell’arco di decenni anziché di mesi o anni, hanno scritto gli autori, e gli effetti dell’intelligenza artificiale si stanno verificando con tempistiche simili. The post I lavoratori che hanno meno voce in capitolo nell’adozione dell’intelligenza artificiale segnalano una minore soddisfazione lavorativa first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’intelligenza artificiale “Workslop” sta uccidendo la produttività e rendendo infelici i lavoratori
(Fonte) Jason Koebler – 23 settembre 2025 Uno studio congiunto condotto da ricercatori della Stanford University e da una società di consulenza sulle prestazioni sul posto di lavoro, pubblicato sulla Harvard Business Review , descrive nel dettaglio la difficile situazione dei lavoratori che devono correggere i “lavori inutili” generati dall’intelligenza artificiale dei colleghi, che descrivono come contenuti di lavoro “mascherati da buon lavoro, ma privi della sostanza necessaria per far progredire in modo significativo un determinato compito”. La ricerca, basata su un sondaggio condotto su 1.150 lavoratori, è l’ultima analisi a suggerire che l’introduzione di strumenti di intelligenza artificiale sul posto di lavoro non ha portato a un magico boom di produttività, ma ha semplicemente aumentato la quantità di tempo che i lavoratori affermano di dedicare a correggere “lavori” di bassa qualità generati dall’intelligenza artificiale. Lo studio di Harvard Business Review è uscito il giorno dopo un’analisi del Financial Times di centinaia di relazioni sugli utili e trascrizioni delle assemblee degli azionisti depositate dalle aziende dell’indice S&P 500, che ha rilevato che le grandi aziende hanno difficoltà ad articolare i benefici specifici dell’adozione diffusa dell’intelligenza artificiale, ma non hanno avuto problemi a spiegare i rischi e gli svantaggi che la tecnologia ha posto alle loro attività: “Le più grandi aziende quotate negli Stati Uniti continuano a parlare di intelligenza artificiale. Ma a parte la ‘paura di perdersi qualcosa’, poche sembrano essere in grado di descrivere come la tecnologia stia cambiando in meglio le loro attività”, ha scoperto il Financial Times . “La maggior parte dei benefici previsti, come l’aumento della produttività, sono stati dichiarati in modo vago e più difficili da categorizzare rispetto ai rischi”. [articolo riservato] The post L’intelligenza artificiale “Workslop” sta uccidendo la produttività e rendendo infelici i lavoratori first appeared on Lavoratrici e Lavoratori Aci Informatica.
Sottopagati, precari e licenziati senza preavviso: le terribili condizioni delle persone che lavorano all’AI di Google
(Fonte) – Varsha Bansal – 16 settembre 2025 Più di 200 collaboratori che si occupavano della valutazione e del miglioramento dei prodotti AI di Google sono stati licenziati senza preavviso il mese scorso. Secondo i lavoratori sentiti da Wired US, la decisione dell’azienda è arrivata nel contesto di una battaglia sulle retribuzioni e le condizioni di lavoro. Negli ultimi anni, Google ha esternalizzato l’attività di valutazione della sua AI a migliaia di persone impiegate come “raters” da GlobalLogic, un’azienda di proprietà di Hitachi, e da altre società di outsourcing. Questi professionisti insegnano ai chatbot e ad altri prodotti AI (tra cui AI Overviews) a fornire risposte corrette su un’ampia gamma di argomenti. I collaboratori di Google sostengono che gli ultimi tagli arrivano in mezzo a tentativi di reprimere le loro proteste su questioni come la retribuzione e la stabilità lavorativa. Alcuni, come Andrew Lauzon, raccontano di essere stati allontanati senza spiegazioni chiare, mentre GlobalLogic continua ad assumere nuovo personale e a imporre il ritorno in ufficio, creando ulteriori difficoltà a chi ha problemi economici o familiari. Secondo documenti interni, l’azienda starebbe anche sviluppando un sistema AI in grado di sostituire i rater umani, alimentando timori di instabilità e insicurezza lavorativa. Otto lavoratori impiegati da GlobalLogic e dai suoi subappaltatori, che collaborano ai progetti AI di Google, denunciano salari bassi, instabilità e condizioni difficili, con ripercussioni sul morale. Alcuni riferiscono di tentativi falliti di sindacalizzazione e di presunte ritorsioni: due ex dipendenti hanno presentato reclami per licenziamento ingiusto legati a richieste di trasparenza salariale e alla difesa dei colleghi. Google, tramite la portavoce Courtenay Mencini, ha precisato che questi lavoratori non sono dipendenti di Alphabet ma di GlobalLogic, responsabile delle condizioni contrattuali. L’azienda di outsourcing non ha rilasciato commenti. Per anni GlobalLogic ha gestito un team di “rater generalisti” per valutare i risultati di ricerca di Google. Nel 2023, su richiesta di Google, ha formato i “super-rater” per i progetti di intelligenza artificiale come AI Overviews, arrivando ad assumerne circa 2.000. Questi lavoratori giudicano e riscrivono le risposte dei modelli AI, ma le condizioni sono eterogenee: i dipendenti diretti di GlobalLogic percepiscono 28–32 dollari l’ora, mentre i collaboratori esterni ricevono solo 18–22 dollari. Inoltre, molti generalisti, spesso senza laurea, partecipano a progetti complessi senza aumenti significativi né benefit. Alcuni sottolineano il ruolo cruciale dei rater nel garantire la qualità e la sicurezza delle risposte AI, ma ricordano che circa l’80% dei collaboratori resta in condizioni precarie, senza ferie pagate né stabilità. Proteste e accuse di ritorsione  Alla fine del 2023, un gruppo di lavoratori dell’azienda ha incontrato il sindacato dei lavoratori di Alphabet (Alphabet workers union) per discutere della creazione di un ramo del sindacato per i rater di GlobalLogic, in modo da poter chiedere una retribuzione e condizioni di lavoro migliori. Mentre le condizioni di lavoro continuavano a peggiorare -ad esempio con l’introduzione dei timer di 5 minuti per completare le attività- i lavoratori hanno iniziato a discutere delle condizioni di lavoro e della parità salariale sulle piattaforme social aziendali. La reazione della GlobalLogic è stata quella di censurare le conversazioni. Con la condivisione di un sondaggio sulle retribuzioni e sulle condizioni di lavoro nei canali social dell’azienda, gli iscritti al sindacato sono passati da 18 a 60. L’azienda ha allora vietato l’utilizzo dei canali social durante l’orario di lavoro, come conseguenza delle discussioni legate alla parità salariale. Un lavoratore ha continuato a utilizzare il canale nonostante il divieto e ha poi presentato un reclamo come whistleblower a Hitachi. Quattro giorni dopo è stato licenziato. Questa situazione è comune a molte delle aziende di outsourcing che lavorano con i dati, dove i lavoratori hanno cercato di riunirsi e organizzarsi e hanno subito ritorsioni. I collaboratori esterni del settore dell’AI si stanno organizzando per ottenere un trattamento e retribuzione migliori in tutto il mondo: all’inizio del 2025 un gruppo di addetti all’etichettatura dei dati del Kenya ha costituito la Data labelers association.  Ad aprile è poi nata l’Alleanza sindacale globale dei moderatori di contenuti, che hanno affrontato e continuano ad affrontare problemi simili; il gruppo comprende lavoratori provenienti da Kenya, Turchia e Colombia. The post Sottopagati, precari e licenziati senza preavviso: le terribili condizioni delle persone che lavorano all’AI di Google first appeared on Lavoratrici e Lavoratori Aci Informatica.