Italia, Prima in Europa con una Legge sull’IA: tra Primato Normativo e Sfida per le Imprese.
- S. Caratti; Z. Ferretti.
- 3 nov
- Tempo di lettura: 7 min
Dalla L. 132/2025 alle strategie di compliance delle società di capitali: rischi, opportunità e casi
reali di applicazione
Un momento storico per la regolamentazione dell’intelligenza artificiale in Italia e il suo
rapporto con l’AI Act europeo. Il 10 ottobre 2025 è entrata in vigore in Italia la Legge n. 132 del 23 settembre 2025, che disciplina l'intelligenza artificiale. Si tratta di una legge quadro (legge delega) che fissa soltanto alcuni principi e, contestualmente, delega al Governo il compito di emanare decreti legislativi che integrino le direttive.
La legge, composta da 28 articoli, stabilisce le norme generali per la progettazione, la realizzazione e l’utilizzazione di sistemi di intelligenza artificiale, incentrate sulla difesa dei diritti fondamentali, la sicurezza dei sistemi, la trasparenza e la responsabilità degli operatori. Tra i principali obiettivi, troviamo la promozione di un’AI affidabile e sostenibile, la valorizzazione della ricerca e dell’innovazione, nonché la creazione di un ecosistema regolatorio in grado di conciliare sviluppo tecnologico e rispetto dei valori costituzionali ed europei.
Siamo di fronte ad una data storica per l'Italia, che diventa il primo Stato membro dell'Unione
Europea a dotarsi di una regolamentazione organica nazionale in materia di AI.
Essa si basa sull'AI Act, ossia il Regolamento UE 2024/1689 entrato in vigore il 1° agosto 2024, e
deve essere applicata e interpretata nel rispetto dello stesso.
I principi fondamentali dell’AI Act
Per comprendere gli obiettivi della L. 132/2025 è bene procedere con ordine illustrando in primo luogo i contenuti l’AI Act. La normativa UE impone obblighi di trasparenza e responsabilità e, in caso di violazioni di tali
obblighi, sono previste sanzioni amministrative pecuniarie pari fino al 7% del fatturato mondiale annuo totale dell’impresa o fino a 35 milioni di euro.
Essa regola i sistemi AI in funzione del loro grado di rischio, ovvero della probabilità e della gravità del potenziale danno ad essi connessi. In particolare, prevede da un lato il divieto di alcune applicazioni dell’intelligenza artificiale che si ritiene comportino rischi eccessivi, e dall’altro, invece, dei requisiti per lo sviluppo e l’uso di alcuni sistemi di AI ad alto rischio.
Si applica a più operatori della catena del valore AI, tra cui fornitori, utilizzatori, importatori,
distributori, produttori e rappresentanti autorizzati nonché ai fornitori e agli utilizzatori extra UE qualora il loro prodotto AI e/o i suoi output siano utilizzati nell'UE. La cornice italiana: una legge di applicazione immediata Il legislatore italiano ha deciso di ispirarsi e di usare come riferimento diretto la normativa Ue redigendo un testo di legge che regolamentasse in modo organico la materia.
La L. 132/2025 risponde all’esigenza di individuare una cornice normativa che riconosca l’impatto e le potenzialità di queste nuove tecnologie, il cui uso si è ormai consolidato, e che ne individui limiti e confini di impiego.
Ha introdotto nuove fattispecie di reato, tra le quali: il deepfake. L’art. 612 quater c.p., punisce il
deepfake non consensuale, o più precisamente l’illecita diffusione di contenuti generati o manipolati artificialmente creati tramite l’AI1.
Un’intelligenza artificiale antropocentrica, trasparente e sicura
Il fine principale della normativa italiana è quello di dare vita ad una intelligenza artificiale
antropocentrica, trasparente e sicura.
Ma cosa si intende per antropocentrica?
A spiegarlo è Satya Nadella, CEO Microsoft, in un’intervista rilasciata al Corriere della Sera nella quale afferma che: "L'AI può aiutare i lavoratori ma non sostituirli" e che “La tecnologia renderà la società più inclusiva, ma le idee innovative non valgono nulla senza etica ed empatia” – Ne consegue che l'Al deve essere utilizzata come uno strumento in grado di potenziare il lavoro umano e non per sostituirlo; essa non deve prendere il posto del potere decisionale ultimo dell'individuo e richiede una sorveglianza umana perché possa svolgere correttamente il proprio ruolo.
Inoltre, quando il legislatore richiama i requisiti di trasparenza e sicurezza fa riferimento alla
cybersecurity, alla tutela della riservatezza e alla prevenzione da rischi derivanti dall’innovazione. L’articolo 15 della L. AI 132/2025: la tutela del potere decisionale umano nella giustizia. Questa tecnologia è impiegata in diversi ambiti; tra cui sanità, lavoro, pubblica amministrazione, formazione, sport e giustizia.
L’articolo 15 della legge in oggetto si occupa dell’uso dell’intelligenza artificiale nel sistema
giudiziario. Prevede che le decisioni cruciali, quali l’interpretazione e l’applicazione della legge, la valutazione dei fatti e delle prove e l’adozione dei provvedimenti, competano al giudice. Viene dunque escluso l’uso della cosiddetta “giustizia predittiva” per le decisioni che hanno un impatto diretto sull’esito di un processo ed il Ministero della Giustizia dovrà disciplinare l’uso dell’AI per le attività amministrative accessorie, l’organizzazione dei servizi e la facilitazione del lavoro giudiziario.
La compliance come leva di crescita: fondi, incentivi e competitività
La L. 132/2025 mira non solo a garantire un impiego etico e responsabile dell’intelligenza
artificiale, ma anche a promuoverla come motore dello sviluppo economico e della competitività per il Paese.
La normativa, infatti, se da un lato rappresenta un vincolo per le imprese, dall’altro è anche una leva di crescita e competitività. Trattasi di foto, video e audio crea. grazie a so2ware di intelligenza artificiale che, partendo da contenuti reali, riescono a modificare o creare, in modo estremamente realis.co, le caratteristiche e i movimenti di un volto o di un
corpo e a imitare con grandissima somiglianza una determinata voce.
L’obiettivo del legislatore è infatti quello di creare un motore di innovazione e sviluppo industriale, per aiutare le PMI ad adeguarsi ai nuovi standard fissati dall’UE, promuovendo lo sviluppo di un’intelligenza artificiale sicura, etica e sostenibile.
Il principale strumento predisposto è il Fondo nazionale per l’intelligenza artificiale, con una dote di partenza di 1 miliardo di euro, volto a finanziare startup e PMI innovative che progettino o integrino applicazioni di intelligenza artificiale conformi ai principi di trasparenza, sicurezza e rispetto dei diritti fondamentali. Il fondo vuole finanziare il ciclo completo di innovazione, partendo dalla ricerca e sviluppo e arrivando anche alla commercializzazione e certificazione dell’AI, per creare un sistema competitivo e in linea con gli standard europei.
Inoltre, sono previsti vantaggi fiscali, oltre al finanziamento diretto, tra cui: crediti d’imposta per investimenti in hardware, software e formazione in materia di AI; agevolazioni contributive per l’assunzione di risorse umane in aree come data science, machine learning e cybersecurity; incentivi per le imprese che adottano un sistema certificato o che sviluppano un processo di AI risk management in linea con le attese europee.
Governance e innovazione: la risposta delle imprese italiane alla L. 132/2025
La L. 132/2025 che si conforma al Regolamento UE (AI Act), ha segnato l'avvio di un percorso di
integrazione della gestione dell’IA nella governance societaria e ha influenzato la definizione delle responsabilità dell’impresa. Le maggiori società di capitali italiane stanno rispondendo in modi diversi a questa novità. Ciò che accomuna tutte le loro reazioni è l’obiettivo: trasformare la compliance in vantaggio competitivo. Lo scopo è rispettare i nuovi obblighi senza che ciò possa incidere sulla spinta innovativa.
Caso Stellantis — AI industriale e guida autonoma
Stellantis, holding multinazionale produttrice di autoveicoli, è una delle realtà più esposte alla
nuova normativa. L’azienda usa sistemi di machine learning in diversi ambiti. Ad esempio, sfrutta l’intelligenza artificiale per la guida autonoma, per coordinare attività e risorse necessarie a trasformare le materie prime in prodotto finito e consegnarlo al cliente finale (supply-chain) e per la gestione predittiva della manutenzione.
La L. 132/2025 richiede per i nuovi modelli detti “ad alto rischio” – così definiti dall’AI Act
europeo – controlli rigorosi. In particolare, sono elevati i requisiti relativi alla supervisione umana e all’auditibilità. La risposta dell’azienda alla nuova normativa ha previsto l’introduzione di verifiche relative alla tracciabilità decisionale dei sistemi. Stellantis ha reagito costruttivamente all’introduzione di questa novità legislativa. Ha deciso di non guardarla come un vincolo bensì come un’occasione che si è trasformata in uno stimolo che ha portato alla consolidazione della fiducia nei confronti sia dei clienti, sia dei regolatori.
La safety by design si è quindi affermata come un valore caratteristico del brand.
Caso Enel — Governance algoritmica e trasparenza
Enel, azienda italiana tra i principali operatori integrati globali nei settori dell'energia elettrica e del gas, ha sviluppato una delle strutture di AI governance più all’avanguardia in Italia. Questa organizzazione prevede più di 250 use case attivi affiancati da un AI Committee interno ed una serie di linee guida inerenti all’ambito “etica”. Queste ultime hanno preceduto in alcuni ambiti – quali trasparenza, sicurezza e supervisione – quanto poi affermato dalla L. 132/2025.
L’intelligenza artificiale è vista come un fattore di rischio strategico che l’azienda deve considerare non solo in riferimento alla nuova normativa ma anche nei suoi stessi bilanci.
Le nuove proposte di progetti inerenti all’IA sono sottoposte a valutazioni d’impatto relative a
possibili effetti su lavoro, privacy e ambiente.
Caso Intesa San Paolo — Trasparenza e controllo umano
La AI compliance nel settore bancario è particolarmente rilevante. Le decisioni automatizzate infatti sono in diretto contatto con credito e occupazione.
Intesa San Paolo, istituto bancario italiano, usa modelli AI in diversi contesti. Recentemente l’impresa ha rafforzato un approccio di Responsible AI, già precedentemente avviato, coerente con il nuovo quadro normativo.
In linea con le dichiarazioni del CEO Carlo Messina sulla centralità della fiducia dei clienti, la
banca sottolinea l’importanza della trasparenza, caratteristica alla base della propria reputazione e solidità:
“For a CEO, the point with AI is to have the right approach with the people in your organization”.
L’esperienza di Intesa San Paolo mostra come la nuova regolazione possa rafforzare la fiducia riposta nel moderno sistema finanziario e ridurre il rischio di bias legati all’utilizzo dell’intelligenza artificiale.
Caso Poste Italiane — L’AI Hub e la cultura della responsabilità
Poste Italiane, impresa pubblica e holding italiana, sta investendo da tempo in progetti di
intelligenza artificiale applicata al customer care, alla logistica e alla cybersecurity. Con il piano industriale 2024-2028 ha potenziato i sistemi di automazione delle risposte ai clienti, la gestione predittiva delle reti informatiche e le soluzioni di sicurezza digitale.
Il codice etico digitale dell’azienda è stato ulteriormente aggiornato in risposta alla nuova legge dando particolare rilievo all’importanza della protezione dei dati e della sostenibilità.
Il modello integrato di governance è un metro di paragone per le altre società pubbliche. Distingue l’uso interno e l’outsourcing AI e impone standard di sicurezza e trasparenza ai fornitori.
L’azienda sta procedendo verso una etica applicata che dia la giusta importanza alla sostenibilità digitale come componente della reputazione aziendale.
Verso una nuova cultura della compliance e dell’innovazione
Queste esperienze, come quelle di molte altre grandi imprese italiane, mostrano l’impatto e la rilevanza della L. 132/2025, non solo intesa come vincolo ma anche come propulsore di
innovazione, vantaggio competitivo e di una evoluta cultura aziendale.
Integrare la compliance AI significa non percepirla esclusivamente come un costo ma anche come leva di una innovazione responsabile.
Il diritto non può rincorrere la realtà, deve anticiparla se vuole governarla.
L’Italia ha spinto le imprese a fare proprio questo, ad anticipare il futuro governandolo.

Commenti