
Le sfide regolatorie dell’intelligenza artificiale nel diritto del lavoro
Lavoratrici e Lavoratori Aci Informatica - Sunday, November 2, 2025(Fonte) Tiziano Treu – 28 ottobre 2025
L’intelligenza artificiale pone sfide inedite alla regolazione, poiché permea ogni ambito produttivo e si evolve secondo logiche non umane, rendendo difficile un controllo pieno del fenomeno. Il legislatore europeo, riconoscendo i limiti degli strumenti tradizionali del diritto del lavoro, ha introdotto nei recenti regolamenti — in particolare quelli su protezione dei dati e IA — un approccio procedurale basato su obblighi per le imprese.
Queste devono garantire trasparenza, fornendo informazioni chiare e tempestive sull’uso dell’IA nei rapporti di lavoro, e condurre analisi dei rischi legati alle tecnologie impiegate. Poiché l’uso dell’IA nella gestione del personale è considerato ad alto rischio, il regolamento impone misure preventive e correttive per mitigare eventuali pericoli.
L’attuazione di tali norme richiede alle imprese di sviluppare nuove competenze e assetti organizzativi per gestire in modo responsabile l’impiego dell’intelligenza artificiale.
Diffusione dell’IA nelle imprese italiane
Le ricerche mostrano che l’adozione dell’intelligenza artificiale nelle imprese italiane è ancora limitata, ma in rapida crescita, soprattutto nella gestione del personale: selezione e valutazione dei candidati, analisi delle performance, procedure di compliance e sicurezza sul lavoro.
Un ambito particolarmente critico riguarda l’esercizio del potere direttivo, che con l’uso dell’IA tende a fondersi con il potere di controllo, permettendo forme di monitoraggio anche non trasparenti per i lavoratori.
Per questo le normative europee impongono vincoli stringenti sull’uso dell’IA a fini di controllo. Il Regolamento 2016/679 (GDPR) tutela la privacy richiedendo che la raccolta dei dati sia trasparente, corretta e proporzionata, riconoscendo inoltre il diritto a non essere soggetti a decisioni automatizzate e a opporsi a trattamenti lesivi.
Lo stesso regolamento vieta pratiche di profilazione e social scoring, in linea con i principi dell’art. 8 dello Statuto dei lavoratori. Tali divieti sono rafforzati da linee guida europee e da pronunce della Corte di giustizia, volte a garantire il rispetto dei diritti fondamentali dei lavoratori nell’uso dell’intelligenza artificiale.
Profilazione e monitoraggio: rischi e diritti dei lavoratori
Nonostante la chiarezza dei principi europei in materia, la distinzione tra pratiche di profilazione legittime e vietate resta incerta, come evidenziato da una recente sentenza della Corte di giustizia europea (205/2025).
La delicatezza dei valori coinvolti impone alle imprese di definire con precisione procedure e criteri decisionali, prestando particolare attenzione alle attività di monitoraggio e indagine interna condotte tramite IA, che possono comportare forme indirette di controllo sui lavoratori. Tali pratiche, considerate ad alto rischio, sono soggette a obblighi di informazione e valutazione del rischio, come previsto dall’art. 1-bis del d.lgs. 152/1997 e dal Regolamento IA (art. 27 e considerando 57).
La decisione della Corte introduce un principio generale di trasparenza nei processi decisionali automatizzati, riconoscendo il diritto della persona interessata a ottenere una spiegazione sul funzionamento e sugli esiti delle decisioni dell’IA. Tale spiegazione deve essere intelligibile, accessibile e adeguata, così da garantire una reale comprensione del processo algoritmico e la tutela effettiva dei diritti individuali.
Il diritto alla giustificazione e l’inversione dell’onere della prova
La decisione conferma il principio sancito dal Regolamento sull’IA (art. 81) e dalla Direttiva 2024/283 sul lavoro tramite piattaforme digitali (art. 11.1), che riconosce il diritto a ottenere una giustificazione delle decisioni algoritmiche. Questo diritto assume particolare rilievo poiché è difficile verificare preventivamente la logica dei processi decisionali automatizzati e individuare eventuali effetti lesivi dei diritti dei lavoratori, anche attraverso le valutazioni del rischio raccomandate dalla Commissione europea.
I controlli ex ante e in itinere, pur necessari, non sempre bastano a prevenire discriminazioni o violazioni dei diritti fondamentali; per questo, il diritto alla spiegazione costituisce uno strumento essenziale di tutela. In mancanza di una giustificazione adeguata, si potrebbe configurare una inversione dell’onere della prova, ponendo a carico dell’impresa o della piattaforma l’obbligo di dimostrare la non discriminazione della decisione, come previsto in altri ambiti dal principio di trasparenza retributiva della direttiva 2023/970 (art. 18).
La direttiva consente inoltre all’impresa di rettificare o compensare le decisioni non giustificate (art. 8.3).
La normativa europea richiama spesso l’art. 4 dello Statuto dei lavoratori, relativo ai controlli a distanza, meno frequentemente l’art. 8, che pure tutela principi rilevanti in materia di privacy e libertà individuale. L’interpretazione dell’art. 4, modificato nel 2015, ha chiarito che le garanzie sui controlli non si applicano agli strumenti utilizzati dal lavoratore per svolgere la prestazione, ma tali strumenti non possono essere usati in modo occulto (ad esempio tramite sistemi audiovisivi o software di monitoraggio della posta elettronica o dell’accesso a internet).
Intelligenza artificiale e controllo a distanza: limiti normativi e ruolo degli accordi sindacali
L’uso di strumenti basati su intelligenza artificiale nei luoghi di lavoro ripropone il problema dell’applicazione dell’art. 4 dello Statuto dei lavoratori. Secondo l’interpretazione restrittiva indicata dal Garante per la protezione dei dati (provv. 29 aprile 2025), gli “strumenti utilizzati dal lavoratore per rendere la prestazione” — come computer, smartphone e tablet — possono essere usati senza accordo sindacale o autorizzazione amministrativa solo se privi di componenti di IA.
Quando tali strumenti integrano applicazioni come copiloti o ChatGPT, che consentono un controllo continuativo e potenzialmente occulto sull’attività del lavoratore, si applicano invece i vincoli dell’art. 4, oltre alle garanzie previste dal Regolamento europeo sulla protezione dei dati (informazione, opposizione e valutazione d’impatto).
Il Garante, con il provvedimento del 29 aprile 2025, ha infatti dichiarato illecito il trattamento dei metadati di posta elettronica dei dipendenti della Regione Lombardia, richiedendo misure per impedire l’identificazione dei singoli lavoratori.
Poiché l’IA tende a permeare sempre più le attività produttive, diventa difficile separare le sue funzioni operative da quelle di controllo a distanza, rendendo centrale il ricorso all’accordo sindacale come strumento per bilanciare l’uso dell’IA con la tutela della privacy e dei diritti fondamentali.
Un esempio significativo è l’accordo del 28 luglio 2025 tra Glaxo Smith Kline, ViiV Healthcare e le RSU, che promuove un impiego responsabile e trasparente dell’IA come supporto al processo decisionale umano, tutela l’anonimato dei partecipanti e istituisce un osservatorio paritetico sull’innovazione tecnologica.
Tale esperienza mostra come la contrattazione collettiva possa contribuire in modo proattivo alla regolazione etica e partecipata dell’intelligenza artificiale nel lavoro, in coerenza con i principi e le direttive europee. Nello specifico si intende avviare un progetto pilota volto a personalizzare le interazioni tra medici e informatori scientifici, con il supporto della IA generativa per trascrivere, analizzare e fornire feed back sui contenuti degli scambi di opinioni fra questi soggetti con l’obiettivo di migliorare la qualità della informazione scientifica.
L’ adesione al progetto è volontaria e può essere revocata. E’ prevista la rimozione di informazioni relative alla identificazione del personale partecipante con strumenti di anonimizzazione. I file audio sono conservati per il tempo necessario, mentre le trascrizioni per un periodo massimo di due anni per permettere una corretta calibrazione dell’ algoritmo. In ogni caso viene assicurato il rispetto dell’art. 4 dello Statuto dei lavoratori.
L’accordo così concluso segnala come l’ intervento della IA nei rapporti di lavoro offra una occasione preziosa alle parti sociali di contribuire direttamente a una regolazione di questa tecnologia che sia in linea con le direttive europee e che ne chiarisca le modalità d’ uso per imprese e lavoratori.
The post Le sfide regolatorie dell’intelligenza artificiale nel diritto del lavoro first appeared on Lavoratrici e Lavoratori Aci Informatica.