Strategie pratiche per gestire i rischi dell’intelligenza artificiale sul posto di lavoro

intelligenza artificiale pexels-cottonbro-5474035

fonte: NIOSH


Il National Institute for Occupational Safety and Health è stato in prima linea negli sforzi per comprendere le implicazioni dell’intelligenza artificiale (Ia) sulla sicurezza e la salute sul lavoro e per insegnare ai lavoratori e ai professionisti della salute e sicurezza sul lavoro e ambientale (Oehs) come utilizzarla in sicurezza. Garantire la sicurezza dei lavoratori e dei luoghi di lavoro può contribuire a garantire che le tecnologie di IA non comportino nuovi rischi che potrebbero potenzialmente superare i loro benefici. Di seguito sono riassunti due articoli recenti che presentano strategie pratiche per garantire l’uso sicuro dell’Ia sul posto di lavoro.

Autori:  John P. Sadowski, Ph.D. e John Howard, MD 


Comprendere i pericoli dell’intelligenza artificiale sul posto di lavoro

Quest’estate, nel numero di giugno/luglio 2025 della rivista  The Synergist  è stato pubblicato l’articolo “Per te  che sei  contro i robot in azienda: alcuni principi per comprendere i pericoli dell’intelligenza artificiale sul posto di lavoro”.  L’articolo scritto da John P. Sadowski  presenta  una ricerca finanziata dal Niosh e propone un riflessione in merito   all’intelligenza artificiale secondo cui questa, che  a prima vista può sembrare radicalmente diversa da altri aspetti potenzialmente pericolosi sul posto di lavoro, può invece  effettivamente essere compresa utilizzando i principi di salute e sicurezza consolidati.

L’articolo illustra in dettaglio come le metodologie ampiamente consolidate di identificazione dei pericoli e valutazione dell’esposizione possano essere adattate per coprire le nuove caratteristiche dell’Ia, utilizzando l’esempio di una fabbrica chimica controllata algoritmicamente. L’articolo suggerisce la necessità di una rigorosa applicazione della scienza dell’igiene industriale per gli algoritmi, o “igiene algoritmica”, che colleghi esplicitamente le caratteristiche dei sistemi algoritmici ai risultati in materia di salute e sicurezza. Inoltre, l’articolo sottolinea che la presenza dei professionisti Oehs in tutti i settori industriali conferisce loro la responsabilità e l’opportunità di avere su questi aspetti   un impatto significativo attraverso le quotidiane attività di formazione e valutazione.

hazard-types

Figura 1.
Un framework per l’igiene algoritmica. Diverse categorie di caratteristiche dei sistemi di intelligenza artificiale possono avere un’influenza su una qualsiasi delle tipologie standard di rischio professionale; ma possono mediare e  non creare direttamente rischi tangibili, mentre  possono creare direttamente rischi psicosociali.
I controlli dei rischi possono essere controlli di progettazione del lavoro eseguiti all’interno dell’organizzazione dell’utente finale, o controlli di progettazione del software che devono essere applicati dagli sviluppatori software che potrebbero lavorare per un fornitore.
Copyright 2025 di John P. Sadowski

  1. L’articolo fornisce un framework (Figura 1) che identifica diverse caratteristiche fondamentali dei sistemi algoritmici e le collega a categorie esistenti e note di rischi e controlli professionali. Il framework è stato creato attraverso una revisione informale della letteratura e dialoghi con numerosi ricercatori e professionisti dell’igiene ambientale e della salute sul lavoro. Costituisce un punto di partenza per orientare il lavoro sul campo sull’identificazione e il controllo dei rischi e per formulare quesiti di ricerca sugli impatti degli algoritmi sull’igiene ambientale e sulla salute sul lavoro. L’obiettivo è fornire una base scientifica per una guida pratica per singoli utenti finali, sviluppatori e decisori politici
Glossario

Igiene algoritmica  – L’igiene algoritmica (o algorithmic hygiene) è l’insieme di pratiche sistematiche, etiche e tecniche finalizzate a mantenere l’integrità, l’equità, la trasparenza e la qualità dei modelli computazionali e dell’intelligenza artificiale. Essa si concentra sull’identificazione e la mitigazione dei bias (pregiudizi) e delle conseguenze indesiderate insite negli algoritmi, per prevenire discriminazioni e garantire risultati equi.

Algoritmo addestrato (o modello di machine learning) è un sistema informatico che ha analizzato grandi quantità di dati per identificare modelli, relazioni e regolarità, permettendogli di prendere decisioni, fare previsioni o svolgere compiti specifici senza essere stato esplicitamente programmato per ogni scenario.

A differenza di un algoritmo tradizionale (statico), un algoritmo addestrato “impara” dai dati di per migliorare le sue prestazioni nel tempo.

Sfide

La sfida per i professionisti e i ricercatori Oehs è determinare, in modo strutturato, come ciascuna caratteristica del sistema interagisca con ciascun tipo di pericolo e controllo in un luogo di lavoro. L’articolo si conclude con un invito, rivolto ai ricercatori e ai professionisti Oehs, a concentrarsi sull’avanzamento della scienza dell’igiene algoritmica in un solido corpus di prove che possa fornire linee guida pratiche e standard a supporto di un utilizzo sicuro e salubre dell’Ia nei luoghi di lavoro in tutti i settori dell’economia. 

Gestire i rischi dell’intelligenza artificiale sul posto di lavoro

Nel settembre dello scorso anno, un commento sull’American Journal of Industrial Medicine, “Gestire i rischi dell’intelligenza artificiale sul posto di lavoro e il futuro del lavoro“,  ha descritto  le sfide legate all’adozione dell’Ia sul posto di lavoro. Ha presentato cinque opzioni di gestione del rischio per promuovere l’uso di un’IA affidabile ed etica nei dispositivi, nei macchinari e nei processi aziendali.

Una gestione efficace del rischio legato all’intelligenza artificiale potrebbe richiedere una riqualificazione o un aggiornamento delle competenze informatiche, che potrebbero rappresentare una sfida per datori di lavoro, lavoratori e addetti alla sicurezza e alla salute. Queste nuove competenze consentirebbero agli addetti alla sicurezza e alla salute di acquisire una maggiore capacità di gestione dei sistemi di intelligenza artificiale.

Gli sviluppatori di Ia e gli operatori della sicurezza e della salute potrebbero condurre valutazioni collaborative dei sistemi di Ia per valutarne la sicurezza, le capacità e l’allineamento. Una valutazione dell’allineamento mira a garantire che i risultati operativi di un sistema di Ia corrispondano a quelli previsti dai parametri di progettazione dello sviluppatore.

Un audit indipendente potrebbe essere utilizzato per valutare i rischi delle capacità del sistema di intelligenza artificiale attraverso strumenti come la trasparenza algoritmica.

La certificazione del sistema di intelligenza artificiale è un modo per incentivare gli sviluppatori di intelligenza artificiale ad adottare principi di intelligenza artificiale affidabili nella fase di progettazione e sviluppo e per consentire agli utenti a valle di convalidare l’inclusione di un’intelligenza artificiale affidabile in un sistema distribuito.

Per aiutare gli addetti alla sicurezza a sviluppare prove dettagliate che dimostrino che un sistema sul posto di lavoro è sicuro da utilizzare e a comprendere come si presenta tale base di prove, due approcci: l’approccio del sistema di sicurezza (prescrittivo e basato sugli standard)  e  l’approccio del caso di sicurezza (descrittivo con valutazione del risultato) che  meritano di essere presi in considerazione come metodologie per l’identificazione, l’analisi e la valutazione dei rischi (specie in situazioni  ad alto rischio) connessi ai sistemi di intelligenza artificiale.

Conclusione

Il Niosh valuta positivamente  i numerosi vantaggi che l’intelligenza artificiale può offrire sul posto di lavoro e si impegna a  garantire  che queste tecnologie siano sicure per i lavoratori che le utilizzano. I due articoli proposti  promuovono questi obiettivi fornendo strategie pratiche che possono aiutare i professionisti, i lavoratori e i datori di lavoro del settore Oehs a gestire in sicurezza l’uso dell’intelligenza artificiale sul posto di lavoro.

Il dott. John P. Sadowski è stato recentemente analista tecnico (appaltatore) presso l’ufficio del direttore del NIOSH, specializzato nell’impatto delle tecnologie emergenti sulla salute e sicurezza sul lavoro.

Il dott. John Howard è il direttore del Niosh.

Lascia un commento