Intelligenza artificiale e lavoro. Un percorso tra innovazione e tutela dei diritti

Non esiste una definizione universalmente riconosciuta di intelligenza artificiale (di seguito IA), ma si potrebbe dire che si tratta dell’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività (si veda il sito del Parlamento europeo).

Quando si parla di IA, dunque, facciamo riferimento a sistemi automatizzati, progettati per funzionare con livelli di autonomia variabili e che dall’input ricevuto deducono come generare output quali previsioni, contenuti, decisioni che possono influenzare ambienti fisici o virtuali, secondo la definizione contenuta nell’art. 3 del Regolamento sull’IA.

Che impatti ha tutto questo sul mondo del lavoro?

Più che costituire una minaccia per l’occupazione, l’intelligenza artificiale svolge una funzione di supporto e potenziamento dell’attività umana, della produttività e dell’efficienza, essendo in grado di assorbire le attività ripetitive e consentendo di destinare il personale ad attività a valore aggiunto.

È, pertanto, inevitabile che in futuro possa portare alla scomparsa di molti posti di lavoroche verranno, però, sostituiti da nuovi lavori, come si evince da alcuni studi del Parlamento europeo, del Politecnico di Milano e del World Economic Forum

Gli impatti dell’intelligenza artificiale nel mondo del lavoro e in generale nella vita quotidiana delle persone sono di dimensioni tali che è stato necessario un intervento a livello comunitario, tradottosi nel Regolamento 2024/1689 del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale.

Esaminiamo insieme le principali previsioni.

Il Regolamento UE sull’intelligenza artificiale. Principî generali

Sulla Gazzetta Ufficiale dell’Unione europea del 12 luglio scorso è stato pubblicato il Regolamento sull’intelligenza artificiale 2024/1689 che troverà applicazione dal 2 agosto 2026, salvo alcune eccezioni previste dall’art. 113. 

Obiettivo del provvedimento è promuovere l’innovazione e al tempo stesso la diffusione di un’intelligenza artificiale antropocentrica e affidabile, garantendo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali.

Come emerge dai Considerando, infatti, l’uso dell’IA, garantendo il miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione delle soluzioni digitali, può fornire vantaggi competitivi alle imprese e condurre a risultati interessanti sul piano sociale e ambientale.

L’abuso dell’IA, invece, può pregiudicare gli interessi pubblici e i diritti fondamentali delle persone in quanto, ad esempio, può:

  • comportare rischi per la sicurezza informatica e la privacy;
  • manipolare le persone attraverso tecniche subliminali o di sfruttamento delle vulnerabilità di specifici gruppi (es. minori, persone con disabilità) al fine di distorcerne materialmente il comportamento;
  • perpetuare modelli di discriminazione per sesso, età, disabilità, origine etnica e orientamento sessuale.

Dalle suddette valutazioni è nata l’esigenza di regole armonizzate a livello UE affinché tutti gli operatori sviluppino o utilizzino sistemi di IA conformi a principî fondamentaliquali la sicurezza informatica, la protezione dei dati, la non discriminazione, la sostenibilità sociale e ambientale.

Pratiche di IA vietate e sistemi di IA ad «alto rischio» nel mondo del lavoro

Il Regolamento, al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA, adotta un approccio basato sul rischio che consiste nell’adattare la tipologia e il contenuto delle regole all’intensità e alla portata dei rischi che possono essere generati dai sistemi.

Pertanto, vieta determinate pratiche di IA che determinano un rischio inaccettabile per la salute e i diritti fondamentali delle persone e stabilisce requisiti rigorosi per i sistemi di IA ad «alto rischio».

Quali sono le pratiche vietate?

Il Capo II del Regolamento contiene un lungo elenco di sistemi vietati poiché contrari ai valori dell’Unione come il rispetto della dignità umana, la libertà, l’uguaglianza, la non discriminazione, la protezione dei dati e la tutela dei diritti dei minori.

Sono, ad esempio, vietati l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA che:

  • utilizzano tecniche manipolative o ingannevoli o sfruttano le vulnerabilità delle persone per distorcerne il comportamento;
  • consentono di attribuire un punteggio sociale, classificando o valutando le persone in base al loro comportamento sociale o alle loro caratteristiche personali, con conseguente applicazione di trattamenti sfavorevoli;
  • classificano le persone sulla base dei loro dati biometrici per trarre deduzioni in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale.

Sono vietati anche i sistemi di IA capaci di inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro, tranne laddove l’uso del sistema sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza (si pensi, ad esempio, al monitoraggio dei livelli di stanchezza di un pilota). Si tratta di sistemi che suscitano – come emerge dai Considerando del Regolamento – serie preoccupazioni in merito alla base scientifica sulla quale si fondano: l’espressione delle emozioni varia notevolmente in base alle culture, alle situazioni e persino in relazione a una stessa persona. La limitata affidabilità, la mancanza di specificità e la limitata generalizzabilità di tali sistemi costituiscono carenze che possono portare a risultati discriminatori. 

Proprio per la natura di tali sistemi l’art. 113 del Regolamento prevede che i divieti che li riguardano troveranno eccezionalmente applicazione a partire dal 2 febbraio 2025.

Quali sono, invece, i sistemi di IA ad alto rischio?

L’Allegato III al Regolamento contiene un variegato elenco di sistemi di IA «ad alto rischio» in cui rientrano «i sistemi operanti nei settori dell’occupazione, gestione dei lavoratori e accesso al lavoro autonomo» ovvero: 

  • i sistemi utilizzati per l’assunzione o la selezione, in particolare per pubblicare annunci di lavoro, filtrare le candidature e valutare i candidati; 
  • i sistemi utilizzati per adottare decisioni riguardanti le condizioni di lavoro, la promozione o la cessazione dei rapporti di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento dei lavoratori. 

Come evidenziato dal Considerando 57, durante tutto il processo di assunzione nonché in sede di valutazione, di promozione o, in generale, di svolgimento dei rapporti di lavoro, i sistemi di IA ad alto rischio – se progettati ed utilizzati in modo inadeguato – possono:

  • perpetuare discriminazioni nei confronti delle donne, di alcune fasce di età, delle persone con disabilità, delle persone aventi determinate origini razziali o un determinato orientamento sessuale;
  • compromettere i diritti fondamentali in materia di protezione dei dati e vita privata. 

Proprio per scongiurare tali rischi sono previsti molteplici obblighi non solo per fornitori, importatori e distributori di sistemi di IA ad alto rischio, ma anche per i deployer definiti come «persone fisiche o giuridiche, autorità pubbliche, agenzie o altri organismi che utilizzano un sistema di IA sotto la propria autorità». 

Quali sono gli obblighi dei deployer?

  • Affidare la sorveglianza umana sui sistemi di IA a persone che dispongano della competenza, della formazione e dell’autorità necessarie.
  • Monitorare il funzionamento del sistema di IA sulla base delle istruzioni per l’uso.
  • Informare tempestivamente il fornitore o il distributore e la pertinente autorità di vigilanza del mercato e sospendere l’uso del sistema qualora ci sia motivo di ritenere che esso possa presentare un rischio per la salute, la sicurezza o i diritti fondamentali delle persone. 
  • Informare – prima dell’utilizzo – i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all’uso del sistema di IA. 

Il Regolamento, inoltre, sancisce il diritto alla spiegazione dei singoli processi decisionali: qualsiasi persona interessata da una decisione adottata dal deployer sulla base dell’output di un sistema di IA ad alto rischio e «che produca effetti giuridici o in modo analogo incida significativamente su tale persona in un modo che essa ritenga avere un impatto negativo sulla sua salute, sulla sua sicurezza o sui suoi diritti fondamentali ha il diritto di ottenere dal deployer spiegazioni chiare e significative sul ruolo del sistema di IA nella procedura decisionale e sui principali elementi della decisione adottata».

Qual è la situazione in Italia?

L’attenzione agli impatti dell’intelligenza artificiale è massima anche da parte dell’Italia. Attualmente, infatti, è in corso di esame un disegno di legge recante disposizioni e delega al Governo in materia di intelligenza artificiale (AS 1146).

Tra le previsioni di interesse lavoristico si segnalano i principî sanciti sull’utilizzo dell’IA in materia di lavoro che deve essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati. 

L’IA nell’organizzazione e nella gestione del rapporto di lavoro deve, dunque, garantire l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione del sesso, dell’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni politiche e delle condizioni personali, sociali ed economiche.

È, inoltre, previsto che il datore di lavoro o il committente debbano informare il lavoratore dell’utilizzo dell’intelligenza artificiale nei casi e con le modalità di cui all’art. 1-bis d.lgs. 152/1997.

Anche il Garante privacy ha dedicato massima attenzione agli impatti e ai rischi dell’IA, adottando provvedimenti rigidi nei confronti di ChatGPT, il più noto tra software di intelligenza artificiale generativa, sviluppato e gestito dalla società statunitense OpenAI.

Conclusioni

Le nuove tecnologie offrono alle imprese soluzioni innovative e notevoli possibilità di efficientamento dei processi interni ed in particolare di quelli produttivi. Per avvantaggiarsene senza incorrere in responsabilità è indispensabile essere aggiornati sulle nuove regole che l’ordinamento europeo sta costruendo anche per la tutela dei lavoratori. 

Toffoletto De Luca Tamajo è a Vostra disposizione per supportarvi nell’adozione di regole sicure per l’uso delle nuove tecnologie nel rispetto dei diritti dei lavoratori.

Per maggiori informazioni: comunicazione@toffolettodeluca.it
Puzzle piece - ESG Lavoro e sostenibilità delle imprese: le novità 2024 Dicembre 11, 2024 - L’articolo approfondisce le novità 2024 sulla sostenibilità aziendale, con un focus sui principi ESG, le iniziative UE come il Green Deal e le direttive su rendicontazione e due diligence.
Innovation Upskilling Finanziate le ore destinate alla formazione: al via la terza edizione del Fondo Nuove Competenze – competenze per l’innovazione Dicembre 10, 2024 - Scopri come accedere al Fondo Nuove Competenze – III edizione “Competenze per l’innovazione”, che finanzia la formazione su tecnologie avanzate, sostenibilità ed economia circolare.
Giornata internazionale per l'eliminazione della violenza contro le donne Violenza di genere e molestie sul lavoro: sfide e strategie per le imprese Novembre 25, 2024 - L'articolo esplora le sfide delle imprese italiane nell'affrontare violenza di genere e molestie sul lavoro, analizzando normative chiave, impatti organizzativi e strategie per un ambiente lavorativo sostenibile e inclusivo.
Foto laptop sulla scrivania - Primio Servizi welfare e dichiarazione dei redditi: come massimizzare i benefici per l’azienda e i dipendenti Novembre 19, 2024 - Scopri come il welfare aziendale può ottimizzare i costi, aumentare il potere d'acquisto dei dipendenti e migliorare retention, attraction e competitività aziendale.