Dopo che le disposizioni dell’AI Act in materia avevano già cominciato ad essere applicate – il termine di 6 mesi dall’entrata in vigore previsti sono decorsi lo scorso 2 di febbraio – e ancorché in una forma provvisoria, la Commissione europea ha approvato in data 4 di febbraio gli orientamenti (guidelines) che ai sensi dell’art. 96, § 1, let. b) del Regolamento (UE) 2024/1689 devono guidare l’attuazione pratica del Regolamento AI con riferimento alle pratiche vietate dal suo art. 5 (v. Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act)). Seppur si tratti di linee guida non vincolanti – dovendosi attendere a questo fine gli orientamenti della Corte di Giustizia dell’Unione Europea (v. § 5 delle Guidelines) – il documento era molto atteso tanto dagli operatori del mercato quanto dalle Autorità che dovranno garantire il controllo di conformità delle pratiche di intelligenza artificiale negli Stati membri.
Venendo all’oggetto delle linee guida, si tratta, nel quadro della disciplina euro-unitaria sull’intelligenza artificiale, di quelle tecnologie e di quegli usi dell’IA che nella prospettiva del rischio adottata dal Regolamento sono ritenuti così pericolosi per i diritti fondamentali e per i valori dell’Unione da dover essere preclusi in radice, salvo specifiche eccezioni. Tra tali pratiche rientrano, per esempio, tecnologie:
– che agiscano nel senso di distorcere o manipolare il comportamento di una persona;
– che tramite forme di social scoring, ossia di valutazione e classificazione dei comportamenti e delle caratteristiche delle persone nel tempo, comportino un trattamento pregiudizievole di persone o gruppi in contesti diversi da quelli in cui i dati sono stati generati o raccolti o che sia comunque sproporzionato o ingiustificato;
– a certe condizioni, che siano utilizzate per prevedere il rischio di commissione di reati da parte di una persona fisica.
Per quanto di specifico interesse nella prospettiva giuslavoristica, tra le pratiche vietate di cui all’art. 5 del Regolamento è prevista anche «l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l’uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza» (art. 5, § 1, let. f) del Regolamento).
Lasciando al momento da parte i rilievi in merito ai possibili usi del social scoring nell’ambito della assegnazione o della lotta alle frodi rispetto alle prestazioni di sicurezza sociale (v. esempi § 166 delle Guidelines) – se non attuali per l’ordinamento italiano, di certo non remoti se consideriamo le prime sperimentazioni dell’IA nella piattaforma SIISL – è proprio con riferimento al perimetro di tale divieto e delle relative eccezioni, il documento della Commissione risulta di estremo interesse per valutare l’impatto del Regolamento nell’ambito dei rapporti di lavoro (v. sezione 7 delle Guidelines).
Come osservato dal documento orientativo della Commissione e dai considerando del Regolamento, le tecnologie di intelligenza artificiale finalizzate al riconoscimento delle emozioni, oltre a far sorgere rilevanti dubbi rispetto alla loro effettiva attendibilità, possono condurre ad esiti discriminatori e, comunque, risultano particolarmente intrusivi rispetto alla libertà e ai diritti fondamentali delle persone, specialmente in contesti caratterizzati da una asimmetria di potere come quello educativo e lavorativo.
Detto che il divieto riguarda tanto i provider che forniscono la tecnologia quanto gli eventuali deployer (in questo caso datori di lavoro), esso interessa secondo le guidelines i sistemi di IA che consentono di identificare o inferire emozioni o intenzioni sulla base di dati biometrici della persona (siano essi caratteristiche fisiche o comportamentali), con una sostanziale assimilazione dell’espressione utilizzata all’art. 5 con la nozione di “sistema di riconoscimento delle emozioni” definita all’art. 3, n. 39 del Regolamento. Quanto alla nozione di emozioni, essa andrebbe intesa in senso estensivo, senza limitarsi alle esemplificazioni previste dal considerando 18 del Regolamento (felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento) e comprendendo anche l’eventuale riferimento ad atteggiamenti, ma, sempre in linea con il considerando, escludendo il riconoscimento di stati fisici, come per esempio il dolore o l’affaticamento, che sono al centro del funzionamento di alcuni importanti e innovativi dispositivi di sicurezza sul lavoro. A scopo esemplificativo, il documento rileva come rientrino nel divieto quelle tecnologie di IA che inferiscono se un dipendente è infelice, triste o arrabbiato, ma fuoriescano i sistemi di riconoscimento dell’affaticamento di piloti e autisti.
Particolarmente rilevante, ai fini della definizione dell’ambito applicativo del divieto, è la nozione di luogo di lavoro (workplace) che deve essere intesa in termini ampi tanto rispetto alla collocazione spaziale (fisica o virtuale) quanto con riferimento alle persone che vi operano, che includono non soltanto lavoratori subordinati o autonomi, ma anche tirocinanti e volontari e, analogamente a quanto avviene con i sistemi di IA ad alto rischio nei contesti di lavoro, i candidati ad un posto di lavoro. A fronte di questa ampia nozione, viene fornita una lunga lista di pratiche che si ritengono proibite (es. riconoscimento di emozioni durante la selezione del personale o nel periodo di prova o, ancora, uso di telecamere di riconoscimento delle emozioni da parte di un supermercato sui propri dipendenti), mentre non convince, in quanto difficile da prefigurare, l’eccezione formulata rispetto all’uso per mere finalità di formazione personale, laddove i risultati non siano condivisi con responsabili HR e laddove non impattino sul rapporto di lavoro.
Di estremo rilievo, anche per le preoccupazioni che aveva sollevato (v. A. Ponce del Castillo, The AI Act: deregulation in disguise, in Social Europe, 11 December 2023), è il regime di eccezioni rispetto al divieto che riguarda l’uso medico (per esempio, terapeutico) e quello connesso a ragioni di sicurezza. Era soprattutto questo secondo a sollevare dubbi rispetto alle effettive possibilità di adozione di tali tecnologie di IA nei contesti di lavoro. L’orientamento della Commissione è di tipo restrittivo, prevedendosi che l’eccezione non include sistemi di monitoraggio generale del livello di stress tramite analisi delle emozioni e, con specifico riferimento alla nozione di “sicurezza”, che essa si riferisce esclusivamente ad aspetti relativi alla vita e alla salute dei lavoratori o degli studenti e non alla tutela del patrimonio. Tale approccio restrittivo porta la Commissione a ritenere che, non soltanto l’adozione di tali sistemi debba essere limitata a situazioni in cui è strettamente necessario, con le necessarie limitazioni di tempo e ambito applicativo e adeguate garanzie, ma che i dati generati o raccolti nelle poche situazioni in cui è ammesso non vengano utilizzati per ulteriori finalità rispetto a quelle relative alla concreta e legittima esigenza.
Infine, oltre a delineare altre pratiche che ricadono fuori dal divieto (es. sistemi di riconoscimento delle emozioni di gruppo) e aver ammesso, con cautele, l’adozione di IA per altre finalità che però possono incidentalmente interessare anche lavoratori (es. personale di sicurezza in eventi pubblici), il documento segnala come, anche laddove ricadenti al di fuori del divieto, tali sistemi sono in ogni caso riconducibili alla nozione di IA ad alto rischio (con le relative tutele e garanzie) e rimangono sottoposti alle ulteriori discipline previste all’interno del GDPR o delle normative nazionali in materia di IA, data protection e/o di diritto del lavoro, ricordando anche che discipline più favorevoli possono essere introdotte dagli Stati membri per la protezione dei diritti dei lavoratori ai sensi dell’art. 2, § 11 del Regolamento (UE) 2024/1689 (e, si potrebbe aggiungere, dell’art. 88 del GDPR).
Riportando tale riflessione al caso italiano, questo significa non soltanto verificare la conformità rispetto alla disciplina in materia di protezione dei dati personali (oltre al Regolamento, il d.lgs. n. 196/2003), ma anche valutare l’applicabilità delle tradizionali tutele statutarie e, in particolare, dell’art. 8 in materia di indagine sulle opinioni personali del lavoratore e su fatti non rilevanti ai fini della valutazione dell’attitudine professionale e l’art. 4, in materia di controlli a distanza. Non è un caso che, proprio con un accordo ex art. 4 fondato sull’esigenza della tutela della salute dei lavoratori sia stata avviata una delle più interessanti sperimentazioni dell’IA nei contesti di lavoro, che seppur non riguardi il riconoscimento di emozioni, mostra la strada per una adozione condivisa di innovative tecnologie per la sicurezza. Si tratta dell’accordo SAIPEM del 2024 che, nello specifico, ha legittimato l’introduzione di telecamere intelligenti per il riconoscimento, tra l’altro, di situazioni di pericolo o di uomo a terra.
Emanuele Dagnino
Ricercatore tenure track di diritto del lavoro,
Università degli Studi di Milano