Intelligenza artificiale e tutela del lavoratore nella più recente disciplina euro unitaria
Vincenzo Di Cerbo
26 Gennaio 2026
L’intelligenza artificiale, incide profondamente sul lavoro, soprattutto attraverso l’algorithmic management e i modelli della gig economy basati su piattaforme informatiche. Ciò accresce rischi di erosione delle tutele per subordinati e lavoratori “piattaformizzati”, amplificando debolezza contrattuale, possibili discriminazioni algoritmiche, opacità e disumanizzazione dei rapporti. Tuttavia, se ben regolata, l’AI può anche migliorare efficienza, inclusione e sicurezza nel lavoro.
Premessa
L’Intelligenza artificiale (di seguito AI), che costituisce certamente la fase più avanzata nel processo di evoluzione delle tecnologie digitali, è destinata ad incidere profondamente, fra l´altro, nel mondo del lavoro modificando gli assetti organizzativi della produzione e mettendo a rischio i diritti dei prestatori di lavoro.
Rischio che riguarda in primo luogo i lavoratori subordinati, dipendenti di aziende che, pur organizzate secondo i modelli produttivi tradizionali che si sono affermati negli ultimi decenni, utilizzano in modo crescente le tecnologie digitali e, da ultimo, i sistemi di intelligenza artificiale, per la gestione di fasi produttive e, ciò che più conta, per la gestione del personale. Si parla in proposito di algorithmic management, sul quale tornerò fra breve.
Ma il rischio riguarda principalmente i prestatori di lavoro che svolgono la loro attività al di fuori delle strutture produttive tradizionali, alle quali ho prima accennato, essendo invece inseriti in assetti organizzativi estremamente diversificati, nati grazie alla diffusione delle tecnologie digitali, che costituiscono il presupposto imprescindibile della loro esistenza. Assetti organizzativi che si stanno espandendo in tutto il mondo produttivo con estrema rapidità, tanto da diventare, in molti Paesi, una voce importante e crescente del loro Prodotto Interno Lordo (PIL).
Deve sottolinearsi che solo una parte (sicuramente minoritaria) di tali prestatori di lavoro svolge (a prescindere dal nomen juris adottato) la propria attività secondo modalità che integrano gli estremi della subordinazione secondo la nozione tradizionale elaborata dalla dottrina e dalla giurisprudenza dei vari Paesi. Molti prestatori, infatti, lavorano secondo schemi nuovi e diversificati fra loro, in continua evoluzione grazie alle potenzialità offerte dalle tecnologie digitali, che vengono raggruppati, per comodità classificatoria, nella c.d. GIG economy, espressione, mutuata dalla dottrina americana. Secondo una definizione ampiamente condivisa rientrano nella GIG economy quelle strutture produttive caratterizzate dal fatto di utilizzare prestazioni di lavoro svolte da singoli individui in via assolutamente temporanea, prestazioni finalizzate a realizzare beni (o frazioni di essi) o servizi e che vengono retribuite di volta in volta. Non a caso il termine originale GIG era usato negli Stati Uniti per individuare l’incarico conferito a un suonatore di jazz per suonare in un club per una serata. Di fatto attualmente la GIG economy raccoglie nel suo ambito e nella sua definizione gli esempi più importanti di lavoro basato e gestito da piattaforme informatiche.
L´elemento qualificante ed imprescindibile di ciascuna struttura produttiva inquadrabile nell´ambito della GIG economy è quindi la piattaforma informatica, caratterizzata dal fatto che essa si avvale, per la sua operatività, di un software che può essere gestito direttamente dal committente, ed è quello che accade più frequentemente almeno in Italia, ovvero che può risolversi semplicemente in un sistema di intermediazione che mette in contatto un numero più o meno indefinito di committenti con un numero più o meno indefinito di prestatori di lavoro.
Il problema delle tutele riguarda, in definitiva, da un lato, i lavoratori subordinati, esposti, soprattutto in relazione all´adozione, da parte datoriale, di sistemi di gestione algoritmica del rapporto, al rischio di violazione, o, quanto meno, di erosione dei diritti tradizionalmente legati allo status di lavoratore subordinato.
Dall´altro lato il problema delle tutele riguarda altresì tutti quei prestatori di lavoro che, in misura crescente, svolgono attività gestite da piattaforme informatiche secondo le più varie ed articolate modalità. Modalità che solo in alcuni casi consentono di riconoscere, a prescindere del nomen juris adottato, la sussistenza dei requisiti della subordinazione, laddove, nella maggioranza dei casi, rientrano in un´area variegata di rapporti che, secondo la nostra terminologia tradizionale, si collocano nell´area compresa tra il lavoro etero organizzato ed il lavoro autonomo.
Deve peraltro sottolinearsi che sarebbe sbagliato pensare all´impiego delle tecnologie digitali e, in particolare, dei sistemi di AI nel mondo del lavoro in termini soltanto negativi.
Si tratta infatti di tecnologie che, se correttamente utilizzate, possono avere effetti positivi anche per i prestatori di lavoro. Si pensi, ad esempio, ai miglioramenti in termini di efficienza, inclusività e pari opportunità che possono derivare dalla digitalizzazione del mercato del lavoro sul piano dell’incontro tra domanda e offerta come pure nell’ottica della personalizzazione della formazione professionale, delle politiche attive, dei servizi per il lavoro e dello sviluppo del capitale professionale o anche sul piano della salute e sicurezza sul lavoro. Più in generale la digitalizzazione può accrescere le opportunità di partecipazione al mercato del lavoro e l’efficienza e standardizzazione/prevedibilità dei processi decisionali, riducendone il tasso di discrezionalità soggettiva.
Ma tornando agli aspetti potenzialmente negativi, in relazione ai quali si pone il problema di individuare misure efficaci finalizzate alla tutela dei prestatori di lavoro, può dirsi, in linea generale, che i principali rischi connessi alle tecnologie digitali ed in particolare allo sviluppo dell`AI riguardano essenzialmente: l’accentuazione della debolezza contrattuale; le possibili nuove forme di discriminazione (si parla, in particolare, di discriminazioni algoritmiche); la “disumanizzazione” della gestione delle relazioni di lavoro e la spersonalizzazione dell’esercizio dei poteri datoriali; i rischi di opacità delle scelte organizzative e datoriali.
È importante sottolineare che l’AI, potenzialmente, può applicarsi a tutte le fasi di gestione delle relazioni di lavoro, dalla fase pre-assuntiva, a quella di instaurazione e di gestione del rapporto di lavoro, fino alla fase della cessazione del rapporto.
Ovviamente in questa sede si prescinde dalle problematiche connesse agli effetti socio economici in termini di potenziale distruzione di posizioni lavorative e sostituzione del lavoro umano attraverso l´utilizzazione di sistemi di AI.
Il quadro normativo euro - unitario
La piena consapevolezza dell’importanza, a livello sociale ed economico, dei fenomeni ai quali ho prima accennato ha indotto il legislatore europeo ad organizzare una rete di norme finalizzate, in generale, a fissare principi e regole concernenti, da ultimo, l’utilizzazione dell’Intelligenza Artificiale e, nello specifico, a tutelare i diritti fondamentali dei lavoratori minacciati dall’avvento delle nuove tecnologie digitali.
In questo contesto assumono particolare rilievo, da un lato, il c.d. AI Act (Regolamento UE 2024/1689 sull’Intelligenza Artificiale, pubblicato sulla Gazzetta Ufficiale dell’Unione Europea del 12 luglio 2024) e, dall´altro, la Direttiva n. 2024/2831 (pubblicata sulla Gazzetta Ufficiale dell’Unione Europea in data 11 novembre 2024) sul miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali (di seguito: Direttiva Platform workers).
Come è noto, l’AI Act non riguarda unicamente il mondo del lavoro, essendo stato concepito e realizzato come un plesso di norme finalizzato a fissare, nell’ordinamento euro-unitario, un quadro giuridico complessivo, che vuole essere uniforme e coerente, idoneo a governare e indirizzare, con riferimento all’intero mercato europeo, gli effetti dell’adozione e dell’uso di sistemi di AI.
In questo quadro trovano tuttavia posto anche alcune norme applicabili direttamente al mondo del lavoro ed alle problematiche relative alla tutela del prestatore di lavoro.
Diverso è il caso della Direttiva Platform workers che realizza il completamento di una cornice complessiva delle tutele fondamentali apprestato dal legislatore europeo a favore del prestatore di lavoro che svolge la propria attività in questo specifico ma importante comparto lavorativo (piattaforme digitali) rispetto ai pericoli derivanti dallo sviluppo della Information Technology e, in particolare, dell’AI ( In argomento vedi, fra i contributi più recenti, BRONZINI, Lavoro gestito da piattaforme digitali tra autonomia e subordinazione. I parametri distintivi nella direttiva 2831/2024/UE, in COSIO (a cura di), op cit., 178).
Deve essere infatti sottolineato che sia il Regolamento che la Direttiva nascono in un contesto nel quale erano già in vigore norme europee finalizzate alla tutela dei lavoratori (espressione intesa in senso ampio e non limitata quindi ai lavoratori subordinati) rispetto ai rischi derivanti dall’adozione delle tecnologie digitali.
Per citare le più importanti ricordo il fondamentale Regolamento europeo n. 2016/679 del 27 aprile 2016 sul trattamento dei dati personali.
Ricordo altresì alla Direttiva 2019/1152 del 20 giugno 2019 relativa a condizioni di lavoro trasparenti e prevedibili nell’U.E., direttiva ispirata dalla consapevolezza della crescente flessibilizzazione del mercato del lavoro e dell’imponente aumento delle forme di lavoro non tradizionali.
AI Act. Caratteri generali
Per meglio comprendere il significato e la portata delle norme dell’AI Act che rilevano rispetto alla tutela del lavoro, conviene preliminarmente soffermarsi su alcuni principi e valori che costituiscono la struttura portante del Regolamento e che hanno ispirato la formulazione delle norme ivi contenute.
In primo luogo, deve essere evidenziato l’approccio antropocentrico (art. 1 comma 1), che, coerentemente con i valori dell’Unione ( Cfr., in particolare, art. 2 del Trattato sull’Unione europea (TUE)) mette l’AI al servizio dell’uomo al fine di garantire un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’UE.
Appare inoltre importante sottolineare il ruolo complementare che, per esplicita scelta del legislatore europeo, viene assegnato all’AI Act. Le norme del Regolamento, infatti, non devono pregiudicare il vigente diritto dell’Unione in tema di occupazione e protezione dei lavoratori (art. 2 c. 7). Di conseguenza, restano pienamente garantiti tutti i diritti e i mezzi di ricorso previsti da disposizioni dell’Unione Europea a favore dei lavoratori. Inoltre (art. 2, comma 11) il Regolamento non osta a che l’Unione o gli Stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all’uso dei sistemi di AI da parte dei datori di lavoro, o incoraggino o consentano l’applicazione di contratti collettivi più favorevoli ai lavoratori.
In sostanza, in tema di occupazione e protezione dei lavoratori, il Regolamento non deve incidere negativamente né sul diritto dell’Unione in materia di politica sociale, né sul diritto del lavoro nazionale (purché sia conforme al diritto europeo) in tema di condizioni di impiego e condizioni di lavoro, comprese la salute e la sicurezza sul luogo di lavoro e il rapporto tra datori di lavoro e lavoratori. Lo stesso vale anche per l’esercizio dei diritti fondamentali riconosciuti dagli Stati membri e dall’Unione, compresi il diritto o la libertà di sciopero, il diritto o la libertà di intraprendere altre azioni contemplate dalla disciplina delle relazioni industriali negli Stati membri nonché il diritto di concludere accordi collettivi.
L’AI Act classifica i sistemi di AI in base al rischio derivante dalla loro utilizzazione: inaccettabile, alto, limitato e minimo (Considerando 28-44).
Come si vedrà nel paragrafo che segue, ai fini della presente trattazione i più rilevanti sono i primi due, e cioè: a) i sistemi che comportano un rischio inaccettabile (e cioè quelli che possono mettere a rischio valori e principi fondamentali dell’UE, quali, ad esempio, il rispetto della dignità umana, i principi di democrazia e dello Stato di diritto); in linea di principio questi sistemi sono vietati e sono ammessi solo in casi specificamente indicati (ad esempio motivi di sicurezza pubblica) ma sottoposti a severe restrizioni; b) i sistemi ad alto rischio (e cioè quelli che possono incidere in modo negativo sulla salute, la sicurezza e i diritti fondamentali delle persone); questi sistemi debbano soddisfare specifici requisiti ed essere sottoposti a obblighi rigorosi per poter essere utilizzati al fine di ridurre al minimo i rischi che essi comportano.
Per quanto riguarda le altre categorie di rischio, I sistemi che presentano un rischio limitato sono quelli che possono influenzare i comportamenti dei destinatari senza tuttavia comportare rischi eccessivi. Questi sistemi devono soddisfare, in particolare, il requisito della trasparenza, in modo da consentire agli utenti di essere consapevoli del fatto che interagiscono con un sistema di AI e di comprenderne le caratteristiche e le possibili limitazioni (art. 50); i sistemi che presentano un rischio minimo o nullo sono quelli che non hanno alcun impatto diretto sui diritti fondamentali o sulla sicurezza delle persone, e che offrono ampi margini di scelta e controllo agli utenti. Questi sistemi sono stati lasciati esenti da particolari vincoli normativi, al fine di incoraggiare l’innovazione e la sperimentazione.
AI Act e tutela dei prestatori di lavoro
Con specifico riferimento alle esigenze del mondo del lavoro devono essere in primo luogo evidenziati alcuni divieti di carattere generale, in quanto riferiti a sistemi che comportano rischi inaccettabili, che rivestono una particolare importanza per la tutela dei prestatori di lavoro.
In particolare, è vietato l’uso di sistemi di categorizzazione biometrica capaci di dedurre informazioni sensibili relative alla sfera personale (come opinioni politiche, appartenenza sindacale, convinzioni religiose, orientamento sessuale), nonché di sistemi di social scoring, in quanto potenzialmente discriminatori e lesivi della dignità umana (art. 5, c). Analoga rilevanza assume il divieto di sistemi di AI finalizzati a identificare o inferire le emozioni delle persone sul luogo di lavoro, poiché lo squilibrio di potere tipico del rapporto lavorativo e l’elevata invasività di tali tecnologie possono condurre a trattamenti ingiusti o pregiudizievoli. È inoltre vietato valutare i lavoratori o i candidati all´assunzione sulla base di previsioni di comportamenti futuri fondate esclusivamente su procedure di profilazione automatizzata.
L’aspetto più significativo, per quanto concerne la materia in esame, è però costituito dal fatto che i sistemi di AI che incidono sui diritti dei lavoratori sono considerati sistemi ad alto rischio.
In particolare, l’Allegato III dell’AI Act, richiamato dall´art. 6, par. 2, include tra questi i sistemi utilizzati per l’assunzione e la selezione del personale, per la gestione del rapporto di lavoro (promozioni, assegnazione dei compiti, cessazione del rapporto) e per il monitoraggio e la valutazione delle prestazioni. Tali sistemi possono infatti avere un impatto rilevante sul futuro professionale dei lavoratori e favorire il perpetuarsi di discriminazioni, ad esempio nei confronti di donne, persone con disabilità, determinate fasce d’età o gruppi etnici, oltre a incidere sui diritti alla privacy e alla protezione dei dati.
In sostanza sono considerati ad alto rischio i sistemi di AI utilizzati, in tutte le forme di lavoro, sia autonomo che subordinato, per l’espletamento di funzioni tanto nel mercato del lavoro quanto in tutte le fasi di vita del rapporto di lavoro (incluse quella della selezione in sede preassuntiva, della gestione e della cessazione del rapporto stesso).
Tuttavia (cfr. art. 6, comma 3), l’uso dell’AI nel mondo del lavoro non comporta automaticamente la qualificazione come alto rischio. La presunzione è oggi derogabile: un sistema non è considerato ad alto rischio se non presenta un pericolo significativo per la salute, la sicurezza o i diritti fondamentali e se non incide in modo sostanziale sul processo decisionale.
Per i sistemi ad alto rischio, il Regolamento introduce una serie di vincoli stringenti. Il datore di lavoro deve utilizzare il sistema esclusivamente in conformità alle istruzioni del fornitore e per le finalità per cui è stato progettato (art. 26 comma 1), assumendosi responsabilità in caso di uso improprio. È inoltre previsto l’obbligo di garantire una sorveglianza umana effettiva (art. 14), affidata a persone adeguatamente formate e dotate dell’autorità necessaria, che possano intervenire sul funzionamento del sistema, fino a disattivarne o modificarne l’output. Particolare attenzione è dedicata al principio di accessibilità e inclusione, imponendo che i sistemi siano progettati nel rispetto della dignità e delle esigenze delle persone con disabilità.
In linea con il principio di trasparenza, l’AI Act impone ai datori di lavoro di informare i lavoratori o i loro rappresentanti sull’introduzione programmata di sistemi di AI ad alto rischio, coordinando tali obblighi con la normativa europea esistente in materia di informazione, consultazione, salute e sicurezza sul lavoro. Centrale è anche il diritto alla spiegazione delle decisioni automatizzate (art. 86): i lavoratori hanno diritto a ricevere informazioni chiare e significative sul ruolo svolto dall’AI nelle decisioni che producono effetti giuridici rilevanti o incidono negativamente sui loro diritti fondamentali, contribuendo così a ridurre l’asimmetria informativa e il rischio di discriminazioni. Tale previsione, di carattere generale, appare particolarmente significativa nella materia dei rapporti di lavoro in relazione al fenomeno, sempre più diffuso, del c.d. algorithm management.
L’AI Act incoraggia, inoltre, l’adozione volontaria di codici di condotta a tutela delle persone vulnerabili, con il coinvolgimento di organizzazioni imprenditoriali e sindacali. Resta infine garantito, accanto agli strumenti di ricorso amministrativo e giurisdizionale già previsti dal diritto dell’Unione ovvero degli Stati membri, a favore di persone fisiche e giuridiche a tutela dei diritti incisi negativamente dall’uso dei sistemi di AI, il diritto di presentare reclami alle pertinenti autorità di vigilanza nel caso di violazione delle norme dell´AI Act (art. 85).
Il soggetto che segnala violazioni del regolamento ha diritto alla fruizione dei meccanismi di protezione previsti dalla Direttiva whistleblowing (UE) 2019/1937.
La Direttiva Platform workers: profili generali
Come si è in precedenza assegnato, la piattaforma digitale può essere definita come una struttura organizzativa che opera attraverso un software, utilizzato direttamente dal committente o come mero strumento di intermediazione tra una pluralità indeterminata di committenti e prestatori di lavoro.
La prima proposta di Direttiva è stata presentata dalla Commissione europea nel dicembre 2021, nell’ambito di un più ampio pacchetto di iniziative volto a migliorare le condizioni di lavoro di chi opera tramite piattaforme digitali. Tali iniziative muovevano da una valutazione complessivamente positiva delle nuove forme di organizzazione del lavoro rese possibili dalle tecnologie digitali, soprattutto sotto il profilo occupazionale.
Questa valutazione trovava conferma nei dati disponibili: nel 2021 oltre 28 milioni di persone nell’Unione europea avevano svolto attività lavorativa tramite piattaforme digitali, a tempo pieno o parziale, e si stimava che il numero sarebbe salito a 43 milioni entro il 2025. Nello stesso periodo, tra il 2016 e il 2020, il valore complessivo dei compensi erogati nell’economia delle piattaforme era cresciuto di almeno cinque volte, passando da circa 3 a 14 miliardi di euro, in linea con un trend già osservato negli Stati Uniti.
Accanto a questi aspetti positivi – tuttora riconosciuti, come emerge dal considerando n. 6 della Direttiva nel testo definitivo – sono però emerse preoccupazioni sempre più rilevanti riguardo alla posizione dei prestatori di lavoro. Se da un lato il lavoro tramite piattaforma può favorire l’accesso al mercato del lavoro, garantire flessibilità oraria e costituire una fonte di reddito aggiuntiva, dall’altro esso espone i lavoratori a significativi svantaggi: scarso potere contrattuale, compensi incerti e spesso ridotti, disparità di trattamento, isolamento rispetto agli altri lavoratori.
Un ulteriore profilo critico riguarda la tutela della privacy. Le tecnologie digitali consentono infatti forme di controllo particolarmente pervasive dell’attività lavorativa. Si pensi, ad esempio, alla geolocalizzazione tramite smartphone, che permette di monitorare in tempo reale, nel caso dei rider, il numero delle consegne, la velocità di spostamento e i percorsi effettuati. Tali strumenti incidono non solo sulla riservatezza del lavoratore, ma anche sulla gestione del rapporto.
Il lavoro svolto tramite piattaforme digitali può assumere forme molto diverse: in alcuni casi riconducibili alla subordinazione, in altri al lavoro autonomo; più frequentemente, tuttavia, esso si colloca in una zona intermedia, difficilmente inquadrabile secondo le categorie tradizionali.
Nella proposta originaria di Direttiva, uno dei profili più significativi era costituito dall’introduzione di una presunzione legale di subordinazione, legata al ricorrere di determinati criteri fissati nella stessa Direttiva. L’obiettivo dichiarato era quello di rendere più semplice (e meno contestabile) la corretta qualificazione del rapporto, riducendo il contenzioso e facilitando la programmazione dell’attività (Cfr. l’introduzione al testo della proposta approvato dal Consiglio UE nel giugno 2023).
In base a tale meccanismo, l’assenza di almeno due criteri avrebbe consentito di escludere la subordinazione.
A seguito delle pressioni di alcuni Stati membri, timorosi di irrigidire eccessivamente un fenomeno in continua evoluzione, questo meccanismo è stato notevolmente ridimensionato. Nel testo attuale, la presunzione di subordinazione opera solo qualora emergano fatti indicativi di direzione e controllo, secondo il diritto nazionale, la contrattazione collettiva, le prassi vigenti e la giurisprudenza della Corte di giustizia. Ne consegue un ampio margine di discrezionalità per gli Stati membri.
Alla luce di ciò, il nucleo più significativo della Direttiva è rappresentato dalle misure di tutela dei prestatori di lavoro su piattaforma, molte delle quali si applicano anche al di fuori dell’area della subordinazione.
La Direttiva introduce infatti una bipartizione delle tutele: da un lato, un primo gruppo di diritti individuali e collettivi (artt. 7-11), applicabili a tutte le persone che lavorano tramite piattaforme, indipendentemente dalla natura del rapporto; dall’altro, un secondo gruppo di tutele in materia di salute, sicurezza, informazione e consultazione (artt. 12-14), riservato ai soli lavoratori subordinati, secondo l’ampia nozione accolta dal diritto dell’Unione (cfr. AIMO, Il management algoritmico nel lavoro mediante piattaforma: osservazioni sulle prime regole di portata europea, in Federalismi.it 23 ottobre 2024).
Questa scelta solleva alcune perplessità. Se è apprezzabile l’estensione di un primo, consistente, nucleo di tutele a tutti i lavoratori delle piattaforme, appare discutibile l’esclusione dei lavoratori autonomi dal secondo gruppo, considerato che l’impatto dei sistemi di gestione algoritmica è sostanzialmente identico, a prescindere dallo status giuridico del prestatore.
Le disposizioni di maggior rilievo
Le misure introdotte dalla Direttiva muovono dalla constatazione che le piattaforme digitali fanno un uso sistematico di sistemi di gestione algoritmica delle risorse umane. Ciò espone i prestatori di lavoro a un rischio concreto di opacità, sia in relazione ai criteri decisionali adottati, sia con riferimento al trattamento dei dati personali.
L’obiettivo primario della Direttiva è quindi garantire una maggiore trasparenza nell’uso degli algoritmi. In linea con quanto previsto dall’AI Act, essa riconosce al lavoratore il diritto a ricevere informazioni chiare e accessibili sull’utilizzo di sistemi di monitoraggio automatizzato sulla sua attività lavorativa come pure sui sistemi di decisione gestiti interamente dall’algoritmo (art. 9). Informazioni che devono riguardare anche le caratteristiche dei processi automatizzati e le modalità con cui incidono sul rapporto di lavoro e che devono essere fornite per iscritto, in forma trasparente, intelligibile e facilmente accessibile (art. 9.2), e in tempi rapidi (art. 9.3).
Limiti al trattamento dei dati personali
In coerenza con i principi dell’AI Act, l’art. 7 della Direttiva vieta alle piattaforme digitali di trattare una serie di dati particolarmente sensibili. Tra questi rientrano, in sintesi: dati relativi allo stato emotivo o psicologico, alle conversazioni private, alle attività svolte al di fuori dell’orario di lavoro, all’esercizio di diritti fondamentali (compresi la libertà di associazione, il diritto di svolgere negoziati ed esercitare azioni collettive), nonché dati idonei a rivelare origine etnica, opinioni politiche, convinzioni religiose, stato di salute, orientamento sessuale o appartenenza sindacale.
È inoltre vietato l’uso di sistemi biometrici di identificazione “uno a molti” (l’identificazione “uno a molti” si ha quando, per stabilirne l’identità di un soggetto, si confrontano i suoi dati biometrici con quelli di persone fisiche conservati in una banca dati, ferma restando la possibilità di verifiche biometriche “uno a uno”(per verifica o autenticazione “uno a uno” si intende (cfr. Considerando n. 41 della direttiva) la verifica biometrica, finalizzata a verificare l’identità di una persona, che viene eseguita confrontando i dati biometrici della persona con dati dalla stessa precedentemente forniti), nei limiti consentiti dal GDPR e dalla normativa nazionale. Tali divieti si applicano anche ai soggetti coinvolti in procedure di selezione o assunzione.
Portabilità dei dati personali
La previsione del diritto alla portabilità dei dati personali costituisce in primo luogo una misura finalizzata a rafforzare il potere di controllo dell´interessato sui suoi dati (è prevista la possibilità del prestatore di lavoro di vedere riuniti, su uno stesso supporto, tutti i propri dati che siano nella disponibilità di un determinato titolare).
La suddetta portabilità favorisce inoltre, mediante la libera circolazione di tali dati, la mobilità dei lavoratori tra piattaforme, promuovendo così un mercato più aperto e meno vincolato a posizioni dominanti favorito dal controllo esclusivo dei dati.
Ai sensi dell’art. 9, par. 6, rientrano tra i dati portabili anche quelli generati nell’ambito dei sistemi di monitoraggio e decisione automatizzati, quali recensioni, punteggi, profili reputazionali e dati di ranking interno. Le piattaforme devono fornire gratuitamente gli strumenti necessari per l’esercizio di tale diritto e, su richiesta dell’interessato, trasmettere i dati direttamente a terzi.
Supervisione umana dei sistemi algoritmici (human oversight).
Un ruolo centrale è attribuito dalla Direttiva alla supervisione umana dei sistemi di monitoraggio e decisionali automatizzati, in piena continuità e coerenza con le regole generali introdotte dall´AI Act. Le piattaforme sono tenute a monitorare e valutare, almeno ogni due anni e con il coinvolgimento dei rappresentanti dei lavoratori, l’impatto delle decisioni algoritmiche che riguardano persone che svolgono attività lavorativa mediante piattaforme digitali; tale valutazione deve riguardare anche le condizioni di lavoro ed il rispetto del principio di parità di trattamento sul lavoro (art. 10).
A tal fine le piattaforme devono disporre di personale adeguatamente formato e dotato dell’autorità necessaria per intervenire sulle decisioni automatizzate, anche disapplicandole. Tali soggetti sono protetti rispetto alla eventuale adozione, nei loro confronti, di misure ritorsive (art. 10, par. 2).
Qualora emergano rischi elevati di discriminazione o violazioni dei diritti dei lavoratori, la piattaforma è obbligata ad adottare misure correttive, che possono arrivare fino alla modifica o alla dismissione dei sistemi automatizzati (art. 10, par. 3 e considerando n. 47).
Una specifica garanzia è altresì prevista per decisioni particolarmente gravi concernenti la posizione del prestatore di lavoro (sospensione o cessazione del rapporto, ovvero chiusura dell´account): in tali casi, infatti, la decisione deve presa da un essere umano (art. 10, par. 5) e non può essere pertanto affidata all´algoritmo.
Riesame umano delle decisioni
Ai prestatori di lavoro è riconosciuto il diritto di ottenere una spiegazione chiara e comprensibile di ogni decisione automatizzata che incida in modo significativo sulle condizioni di lavoro (art. 11). A tal fine, le piattaforme devono designare un referente dotato di adeguata competenza e autorità.
Per le decisioni particolarmente pregiudizievoli – come la sospensione dell’account o il mancato pagamento del lavoro svolto – è richiesta una motivazione scritta, da fornire senza ritardo e, al più tardi, il giorno in cui la decisione acquista efficacia (art. 11, par. 1, secondo capoverso).
Il lavoratore ha inoltre diritto a chiedere il riesame della decisione; in tal caso la piattaforma deve rispondere motivatamente entro due settimane. In caso di violazione dei diritti, la piattaforma è tenuta a rettificare la decisione o, se ciò non è possibile, a risarcire il danno e ad adottare misure preventive per il futuro, compresa, se del caso, la modifica del sistema decisionale automatizzato o la cessazione del suo utilizzo.
Le misure previste dalla Direttiva non pregiudicano le norme in materia di procedure disciplinari e di licenziamento previste dal diritto, dai contratti collettivi o dalle prassi nazionali (art. 11, par. 4).
Tutele previste dalla Direttiva Platform workers unicamente a favore dei lavoratori subordinati
Come in precedenza accennato, la Direttiva (artt. 12-14) prevede ulteriori forme di tutela applicabili unicamente all´area dei lavoratori subordinati delle piattaforme, seppur nell’ampia accezione propria del diritto vivente dell’Unione.
In primo luogo, tale ulteriore tutela concerne diritti individuali e collettivi in materia di salute e sicurezza, nella consapevolezza, da parte del legislatore UE dei nuovi rischi che l’adozione di sistemi decisionali o di monitoraggio automatizzati pone per i lavoratori delle piattaforme. La Direttiva impone pertanto alle piattaforme di introdurre adeguate misure di prevenzione e protezione e garantire «un’informazione, una consultazione e una partecipazione effettive» dei lavoratori e dei loro rappresentanti, in conformità a quanto stabilito sul punto dalla direttiva n. 89/391.
In secondo luogo, la tutela riguarda il diritto all’informazione e consultazione. Sono previsti quindi (art. 13), a favore dei rappresentanti dei lavoratori delle piattaforme specifici diritti d’informazione e consultazione sulle «decisioni che possono comportare l’introduzione di sistemi decisionali o di monitoraggio automatizzati o modifiche sostanziali al loro utilizzo», con l’obiettivo di «promuovere il dialogo sociale sulla gestione algoritmica».
Con una norma ad hoc (art. 14) si stabilisce inoltre che, in mancanza dei rappresentanti, le piattaforme di lavoro digitali devono fornire informazioni direttamente ai lavoratori interessati, i quali risultano dunque coinvolti solo in seconda battuta, essendo gli attori collettivi (e non i lavoratori) a figurare come «destinatari “naturali”» di tali diritti(Tale normativa si pone in continuità con la direttiva quadro n. 2002/14 che istituisce un quadro generale relativo all’informazione e alla consultazione dei lavoratori).
L’obbligo di consultazione sancito dall’art. 13 va letto come obbligo della piattaforma a trattare, ma non certo come obbligo a contrarre, a “negoziare l’algoritmo”, non essendo l’impiego dei sistemi di IA da parte della piattaforma condizionato alla stipula di un accordo “autorizzatorio” (Così AIMO, op. cit).
Altri strumenti di tutela e divieto di ritorsioni
La Direttiva impone agli Stati membri di garantire a tutti i prestatori di lavoro su piattaforma un accesso effettivo a mezzi di ricorso giudiziari o amministrativi, anche tramite rappresentanti o soggetti legittimati (artt. 18-19), finalizzati ad ottenere, secondo le norme nazionali vigenti, una risoluzione delle controversie tempestiva, efficace e imparziale e, in caso di violazioni dei diritti derivanti dalla direttiva, anche un risarcimento adeguato del danno subito.
È inoltre previsto l’obbligo di consentire comunicazioni private e sicure tra i lavoratori e con i loro rappresentanti, senza possibilità di monitoraggio da parte delle piattaforme (art. 20).
Infine, la Direttiva vieta espressamente qualsiasi forma di ritorsione nei confronti di chi esercita i diritti dalla stessa riconosciuti.
In caso di licenziamento o risoluzione del rapporto, spetta alla piattaforma dimostrare l’assenza di un intento ritorsivo (artt. 22-23).
Qualche considerazione conclusiva
Come si è accennato in precedenza, la direttiva prevede due livelli di tutela: il primo livello si applica a tutti i prestatori che svolgono attività a favore delle piattaforme digitali, a prescindere dall’esistenza di un vincolo di subordinazione; il secondo riguarda invece unicamente coloro che possono essere qualificati come lavoratori subordinati secondo il diritto euro unitario.
A parte le perplessità, alle quali ho in precedenza accennato, di limitare alcune forme di tutela ai soli lavoratori subordinati, sorge un problema applicativo nei casi in cui gli ordinamenti nazionali contemplano aree intermedie fra autonomia e subordinazione. In particolare, nell’ordinamento italiano è prevista l’area del lavoro parasubordinato, etero organizzato e autonomo debole, al quale si applicano, in modo graduale, specifiche tutele.
Il legislatore europeo ha indicato una soluzione, a mio avviso, idonea alla suddetta problematica introducendo, accanto alla clausola di non regresso, che impedisce un abbassamento, collegato con l´entrata in vigore della direttiva, dello standard nazionale di tutela, una disposizione (art. 26, par. 2) a norma della quale rimane impregiudicata la prerogativa degli Stati membri di applicare o introdurre disposizioni legislative, regolamentari o amministrative, più favorevoli ai lavoratori delle piattaforme digitali o di promuovere o consentire l’applicazione di contratti collettivi più favorevoli ai lavoratori delle piattaforme digitali, in linea con gli obiettivi della direttiva.
Sotto altro profilo deve osservarsi che il primo livello di tutela, di applicazione generalizzata, è concentrato sui diritti connessi alla gestione algoritmica, sui dati personali e sulla trasparenza dei sistemi decisionali automatizzati. Tutela che appare non pienamente soddisfacente, in quanto non copre esigenze, comuni a tutti i lavoratori delle piattaforme, che meritano di essere considerate. In particolare, appare necessario garantire a tutti i platform workers, a prescindere dall’inquadramento giuridico del loro rapporto, alcuni diritti, quali, a mero titolo di esempio, l’orario di lavoro minimo e il diritto alla disconnessione come pure prevedere limiti alla possibilità di disconnessione unilaterale da parte della piattaforma.
Sotto diverso, ulteriore, profilo si porranno problemi di coordinamento con altre normative europee che impattano sui diritti dei lavoratori. Si pensi in particolare alle disposizioni dell´AI Act concernenti gli obblighi, imposti alle imprese che adottino sistemi di algorithmic management, di provvedere alla valutazione dei rischi (risks assesment) nonché alle disposizioni della direttiva due diligence in tema di obblighi, a carico delle imprese, di riparazione delle conseguenze pregiudizievoli per i lavoratori, in caso di violazione dei loro diritti fondamentali.
Riferimenti
Cosio (a cura di), L’intelligenza artificiale nel labirinto normativo, Milano, 2025, 178.
Mammone, Intelligenza artificiale e rapporto di lavoro tra robot e gig economy. Ci salveranno i giudici e l’Europa?, in Lavoro Diritti Europa, 2023, n. 1;
Cristofolini, Navigating the impact of AI systems in the workplace: strengths and loopholes of the EU AI Act from a labour perspective, in Italian Labour Law e-Journal, 2024;
De Santis, Identità e persona all’epoca dell’intelligenza artificiale: riflessioni a partire dall’IA Act, federalismi.it, 7 agosto 2024;
Ciucciovino, Risorse umane e intelligenza artificiale alla luce del regolamento (UE) 2024/1689, tra norme legali, etica e codici di condotta, in Diritto delle Relazioni Industriali, 2024, n. 3.
Vuoi leggere tutti i contenuti?
Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter continuare a
leggere questo e tanti altri articoli.
Sommario
Portabilità dei dati personali
Supervisione umana dei sistemi algoritmici (human oversight).