Legge 132/2025: implicazioni per la sicurezza degli impianti produttivi nell’era dell’IA
La Legge 23 settembre 2025, n. 132, pubblicata sulla Gazzetta Ufficiale il 25 settembre 2025, è il primo quadro normativo organico italiano sull’Intelligenza Artificiale. Approvata dal Parlamento e entrata in vigore il 10 ottobre 2025, integra il Regolamento UE 2024/1689 (“AI Act”) con disposizioni nazionali per un uso responsabile, trasparente e sicuro dell’IA.
La Legge 132/2025 rappresenta un passaggio cruciale nella regolazione dell’Intelligenza Artificiale (IA) in Italia, definendo principi e requisiti che incidono direttamente sulla gestione e sulla sicurezza degli impianti produttivi.
In un contesto industriale sempre più automatizzato, dove sensoristica avanzata, machine learning e sistemi di controllo intelligenti guidano processi complessi, la normativa introduce obblighi specifici relativi a trasparenza, supervisione umana, tracciabilità e responsabilità nell’impiego dell’IA.
Il risultato è un nuovo quadro operativo che richiede di ripensare l’interazione tra tecnologia, sicurezza fisica e governance aziendale.
Principi generali e loro impatto sugli impianti industriali
La Legge 132/2025 si fonda su un’idea chiave: l’IA deve rimanere uno strumento a supporto dell’essere umano, soprattutto nei contesti in cui una decisione automatizzata può avere effetti sulla sicurezza fisica delle persone o sulla continuità operativa di un impianto.
I principi fondamentali della legge – trasparenza, responsabilità, sicurezza, protezione dei dati, non discriminazione, supervisione umana – assumono un valore particolarmente rilevante nei sistemi produttivi dove:
-
algoritmi controllano parametri critici dei macchinari,
-
sistemi predittivi identificano guasti,
-
piattaforme di automazione regolano flussi di energia, materia o temperatura,
-
modelli decisionali gestiscono arresti di emergenza o deviazioni operative.
Sistemi IA negli impianti produttivi: cosa disciplina la legge
1. Supervisione umana obbligatoria nei processi critici
La normativa stabilisce che ogni processo algoritmico che incide sulla sicurezza industriale deve prevedere un responsabile umano identificabile, con possibilità di intervento e override.
Questo riguarda, ad esempio:
-
decisioni automatizzate di fermata macchina,
-
variazioni dei parametri di produzione,
-
gestione di scenari di rischio come sovratemperature, vibrazioni anomale, pressioni non conformi.
2. Trasparenza delle logiche decisionali
I sistemi IA utilizzati in impianti produttivi devono essere documentati, spiegabili e auditabili.
Diventa quindi necessario:
-
definire la logica dei modelli adottati,
-
documentare fonti dati e criteri di addestramento,
-
garantire tracciabilità delle decisioni algoritmiche,
-
mantenere versioning e storico degli aggiornamenti.
3. Gestione del rischio algoritmico
La legge introduce un approccio che impone valutazioni sul “rischio algoritmico”, ponendo particolare attenzione alle ricadute su sicurezza e salute.
Nei contesti industriali ciò implica:
-
validazione preventiva dei modelli IA prima della messa in produzione,
-
testing periodico e audit sui sistemi,
-
gestione dei bias che possono alterare letture sensoristiche o logiche decisionali.
4. Integrazione tra sicurezza tradizionale e sicurezza digitale
La normativa accelera la convergenza tra sicurezza industriale (impianti, macchine, processi) e cybersecurity OT/ICS, riconoscendo il rischio crescente di:
-
manipolazione dei dati di sensori,
-
sabotaggio algoritmico,
-
infiltrazioni nei sistemi di controllo remoto
I sistemi IA impiegati nella gestione degli impianti dovranno quindi rispettare standard elevati di sicurezza informatica.
Impatti operativi sugli impianti produttivi
Audit dei sistemi IA presenti nell’impianto
La legge rende indispensabile una mappatura accurata di tutti i sistemi intelligenti presenti in fabbrica, inclusi:
-
piattaforme di manutenzione predittiva,
-
modelli che ottimizzano flussi, consumi energetici, carichi,
-
IA integrata nelle linee di produzione o nei robot industriali,
-
sistemi di visione artificiale per qualità e sicurezza.
Obblighi di documentazione tecnica
Vanno predisposti:
-
dossier tecnici dei modelli,
-
log delle attività algoritmiche,
-
report sulle attività di test e verifica,
-
protocolli di intervento umano.
Questa documentazione avrà un ruolo centrale anche in caso di incidenti o contenziosi.
Revisione delle procedure di sicurezza
La presenza dell’IA impone l’aggiornamento del Documento di Valutazione dei Rischi (DVR) e dei processi di sicurezza macchina, in quanto i comportamenti del sistema non dipendono più solo dalla meccanica ma anche dal modello algoritmico.
Rapporti con fornitori e integratori tecnologici
I contratti con chi fornisce o integra l’IA nei macchinari devono essere adeguati includendo:
-
responsabilità condivise,
-
requisiti di trasparenza e audit,
-
obblighi su qualità dei dati, training dei modelli e aggiornamenti,
-
impegni sulla sicurezza informatica.
Opportunità per la sicurezza degli impianti
Pur introducendo maggiori obblighi, la legge offre anche vantaggi significativi per la sicurezza industriale:
-
maggiore precisione nella rilevazione di anomalie,
-
riduzione dei fermi imprevisti grazie alla manutenzione predittiva coerentemente tracciata,
-
diminuzione del rischio di incidenti dovuti a errori umani,
-
maggiore resilienza operativa,
-
integrazione più solida tra OT e IT.
Criticità e nodi ancora da sciogliere
Restano da definire attraverso decreti attuativi:
-
criteri tecnici per validazione e testing dei modelli IA,
-
standard minimi per audit algoritmici,
-
requisiti specifici per robotica industriale e sistemi di controllo,
-
responsabilità in caso di malfunzionamento IA in impianto,
-
metodi di certificazione per fornitori e integratori.
Raccomandazioni per la conformità
Per allinearsi alla normativa, è utile adottare un percorso strutturato:
-
Mappatura completa dei sistemi IA negli impianti.
-
Creazione di una governance interna dedicata all’IA.
-
Aggiornamento del DVR e delle procedure di sicurezza.
-
Audit periodici dei modelli IA.
-
Formazione del personale sulla supervisione algoritmica.
-
Revisione dei contratti tecnologici.
-
Monitoraggio dei decreti attuativi.
Conclusione
La Legge 132/2025 introduce un nuovo paradigma nella sicurezza degli impianti produttivi: un equilibrio tra tecnologia avanzata, responsabilità umana e governance rigorosa.
L’adozione consapevole dell’IA non solo aumenta l’efficienza, ma contribuisce a prevenire incidenti, migliorare l’affidabilità delle macchine e rafforzare la resilienza delle infrastrutture industriali.