Legge Italiana sull’Intelligenza Artificiale 132/2025: guida essenziale per le imprese e professionisti.

L’Intelligenza Artificiale tra Etica e Competitività: la Legge Italiana e le opportunità per imprese e professionisti

L’idea di macchine pensanti non è nuova, ma l’Intelligenza Artificiale (IA) come la conosciamo oggi ha radici profonde.
La sua nascita è spesso ricondotta all’estate del 1956, con il seminario di Dartmouth. Fu in quel momento che scienziati come John McCarthy coniarono il termine e lanciarono una sfida: simulare l’apprendimento umano.
Dopo periodi di “inverno dell’IA” dovuti a limiti di calcolo e finanziamento, la rivoluzione è arrivata negli anni 2010 con il Deep Learning (Apprendimento Profondo). Grazie a enormi quantità di dati e alla potenza di calcolo (GPU), l’Intelligenza Artificiale è passata da sogno a realtà quotidiana generando modelli capaci di creare testi, immagini e diagnosi mediche, innescando una trasformazione che già oggi sta investendo ogni aspetto della nostra vita.

L’Italia risponde alla rivoluzione con una normativa dedicata, la Legge 23 settembre 2025 n. 132. Questa legge non si limita a recepire il quadro europeo, ma stabilisce principi chiari per l’adozione e lo sviluppo dell’IA nel Paese rivolgendosi in modo specifico a cittadini, professionisti e imprese.

Schematizzazione essenziale della Legge 23 settembre 2025, n. 132 (IA)

La legge italiana sull’Intelligenza Artificiale stabilisce principi e deleghe al Governo, in piena armonia con il Regolamento (UE) 2024/1689 (AI Act).

Schema dei Punti Principali: Legge 23 settembre 2025, n. 132 (IA)

La legge italiana sull’Intelligenza Artificiale è la normativa nazionale di riferimento che stabilisce principi e deleghe al Governo, in piena armonia con il Regolamento (UE) 2024/1689 (AI Act).

Principi Fondamentali e Tutela dei Diritti (Capo I)

  • Finalità Antropocentrica (Art. 1): promuove l’uso dell’IA in una dimensione antropocentrica, corretta, trasparente e responsabile, garantendo la vigilanza sui rischi economici, sociali e sui diritti fondamentali.
  • Centralità Umana (Art. 3): l’IA deve rispettare l’autonomia e il potere decisionale dell’uomo, assicurando la sorveglianza e l’intervento umano (Human-in-the-Loop).
  • Cybersicurezza (Art. 3): la sicurezza informatica è una precondizione essenziale lungo tutto il ciclo di vita dei sistemi di IA.
  • Tutela dei Minori (Art. 4): l’accesso all’IA e il conseguente trattamento dei dati personali richiedono il consenso di chi esercita la responsabilità genitoriale per i minori di 14 anni.

Sviluppo Economico e Sovranità Tecnologica (Capo I)

  • Sostegno alle Imprese (Art. 5): lo Stato promuove l’uso dell’IA per accrescere la competitività nazionale, con un focus specifico sul sostegno al tessuto produttivo composto da microimprese e PMI.
  • Localizzazione dei Dati (Art. 5): nella scelta dei fornitori di IA per la Pubblica Amministrazione, si privilegiano le soluzioni che garantiscono la localizzazione e l’elaborazione dei dati strategici presso data center nazionali.

Disposizioni di Settore (Capo II)

  • Sanità (Art. 7): l’IA è uno strumento di supporto per diagnosi e cura; la decisione finale è sempre riservata agli esercenti la professione medica.
  • Lavoro e Pubblica Amministrazione (Art. 12, 14): i sistemi di IA devono essere utilizzati come supporto o strumenti; nella PA, la responsabilità finale del provvedimento resta sempre in capo alla persona.
  • Giustizia (Art. 15): l’impiego dell’IA nell’attività giudiziaria è a supporto, ma ogni decisione sull’applicazione della legge è sempre riservata al magistrato.
  • Osservatorio sul Lavoro (Art. 12): istituito presso il Ministero del Lavoro per monitorare l’impatto dell’IA e definire strategie di formazione.

Governance e Armonizzazione (Capo III e V)

  • Autorità Nazionali (Art. 20): designazione di AgID (promozione e sviluppo) e ACN (vigilanza, ispezione e sanzioni, cybersicurezza) come Autorità Nazionali per l’IA.
  • Delega al Governo (Art. 18): delega a recepire e adeguare la normativa nazionale al Regolamento (UE) 2024/1689 e a definire il quadro sanzionatorio.

Legge italiana sull’Intelligenza Artificiale: una legge “antropocentrica”?

Pilastro fondamentale è il principio di sorveglianza e intervento umano (Human-in-the-Loop). L’IA deve essere sempre uno strumento sotto il controllo dell’uomo garantendo trasparenza e spiegabilità dei processi decisionali.
Importante è il focus sulla cybersicurezza, considerata una precondizione essenziale lungo l’intero ciclo di vita di un sistema di IA per prevenirne l’alterazione o l’uso improprio.

La normativa italiana si sforza di porre l’essere umano “al centro”, sposando un approccio definito antropocentrico. Ciò significa che l’innovazione deve avvenire nel rispetto dei diritti fondamentali e della dignità umana.

Il legislatore cerca di prestare attenzione alle fasce di potenziali fruitori dei sistemi IA più fragili:

  • è garantito il pieno accesso ai sistemi di IA alle persone con disabilità.
  • viene tutelata la sfera privata dei giovani: per l’accesso a sistemi di IA e il trattamento dei dati personali dei minori di anni quattordici è richiesto il consenso di chi esercita la responsabilità genitoriale.

IA e Crescita: Il Potenziale per Imprese e Professionisti

Per gli imprenditori e i professionisti (target 30-55 anni), la Legge 132/2025 è un segnale chiaro: l’IA non è un costo, ma un fattore strategico di crescita.

1. Competitività e Digitalizzazione delle PMI

La legge promuove l’IA come strumento cruciale per migliorare l’interazione uomo-macchina, la produttività e, soprattutto, la competitività del sistema economico nazionale, ponendo un accento esplicito sul sostegno a microimprese e piccole e medie imprese (PMI). L’obiettivo è facilitare l’accesso a dati di alta qualità e favorire la ricerca collaborativa tra aziende e centri di trasferimento tecnologico.

Inoltre, in un’ottica di sovranità tecnologica, la normativa indirizza la Pubblica Amministrazione a privilegiare, negli appalti, fornitori di IA che garantiscono la localizzazione e l’elaborazione dei dati strategici presso data center posti nel territorio nazionale. Per le aziende italiane che operano nel settore, questo può rappresentare un significativo vantaggio competitivo.

2. Lavoro, Formazione e Nuove Competenze: l’Osservatorio sui sistemi IA nel mondo del lavoro

L’impatto sul mercato del lavoro è centrale. La legge istituisce un Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro presso il Ministero del Lavoro. Questo organismo avrà il compito di monitorare le conseguenze dell’IA, ma soprattutto di promuovere la formazione necessaria a lavoratori e datori di lavoro per acquisire le competenze digitali richieste.

Per i professionisti, l’IA è definita come uno strumento strumentale e di supporto. Ciò significa che, mentre l’IA può automatizzare compiti ripetitivi e fornire analisi avanzate, l’attività decisionale e di responsabilità resta saldamente in capo al professionista. In settori ad alta specializzazione come quello legale o finanziario, questo si traduce nella necessità di informare il cliente sull’uso di sistemi di IA per attività di supporto, mantenendo la responsabilità intellettuale del risultato.

3. L’IA nei Settori Chiave: Sanità e Giustizia

Il principio di “supporto e non sostituzione” è applicato in modo rigoroso in settori critici:

  • Sanità: l’IA è promossa per migliorare diagnosi e cura. La legge stabilisce chiaramente che i sistemi di IA sono un supporto e la decisione finale e la scelta terapeutica sono sempre rimesse all’esercente la professione medica.
  • Giustizia: analogamente, l’IA può assistere nell’attività giudiziaria (ad esempio, nella gestione dei flussi documentali), ma ogni decisione sull’interpretazione della legge e sull’adozione dei provvedimenti è sempre riservata al magistrato.

La Legge Italiana e l’AI Act Europeo: sintetico confronto

La Legge n. 132 del 2025 si pone in continuità col Regolamento Europeo 2024/1689 noto come AI Act.
La legge nazionale italiana è una legge di delega e di principi che ha lo scopo di adeguare e armonizzare l’ordinamento italiano al Regolamento europeo.

Il Modello Europeo di IA a Rischio

L’AI Act europeo adotta un approccio basato sul rischio che classifica i sistemi di IA in quattro categorie:

  1. Rischio Inaccettabile: sistemi vietati (es. social scoring, manipolazione delle vulnerabilità).
  2. Alto Rischio: sistemi consentiti, ma soggetti a rigidi requisiti (es. sistemi in ambito sanitario, occupazionale, giustizia). Devono rispettare obblighi di gestione dei rischi, accuratezza, robustezza, supervisione umana e trasparenza.
  3. Rischio Limitato: sistemi soggetti a semplici obblighi di trasparenza (es. chatbot, deepfake).
  4. Rischio Minimo/Nullo: la maggior parte dei sistemi, con pochi o nessun obbligo aggiuntivo.

Il Ruolo della Legge 132/2025 nel quadro dell’IA Act europeo

Mentre l’AI Act stabilisce il quadro normativo e i requisiti tecnici per i prodotti di IA che entrano nel mercato europeo, la Legge italiana 132/2025 si concentra su due aspetti cruciali per l’Italia:

  1. Principi di Implementazione (Italia): la legge fissa principi etici e sociali specifici per l’uso dell’IA sul territorio nazionale, come l’obbligo di tutelare la sovranità dello Stato e il focus sulla localizzazione dei dati strategici.
  2. Governance e Sanzioni: la nuova normativa delega al Governo il compito di definire la struttura di governance nazionale (designando AgID e ACN) e di stabilire il quadro sanzionatorio, garantendo che le multe per la violazione dell’AI Act siano effettive, proporzionate e dissuasive, come richiesto dall’Unione Europea.

In altre parole, la legge italiana traduce i principi e i requisiti ambiziosi dell’AI Act europeo in regole operative, etiche e strategiche, orientata a posizionare l’Italia come un paese pronto a guidare l’innovazione tecnologica tutelando i diritti dei cittadini.

Quali sono i limiti della legge italiana sull’Intelligenza Artificiale?

Finora ho illustrato i contenuti, i principi e le prospettive della Legge n. 132/2025. Tuttavia non posso sottrarmi dall’individuare punti di debolezza o limiti della normativa italiana rispetto al Regolamento Europeo sull’Intelligenza Artificiale (AI Act) che è, e resta, il quadro normativo di riferimento prevalente.

L’articolo precedente ha illustrato i contenuti, i principi e le prospettive della Legge n. 132/2025. Come richiesto, di seguito vengono evidenziati i principali punti di debolezza o limiti della normativa italiana rispetto al Regolamento Europeo sull’Intelligenza Artificiale (AI Act), che è il quadro normativo di riferimento prevalente.

Debolezze e Limiti della Legge Italiana rispetto all’AI Act

Il principale elemento da considerare nel confronto è la natura giuridica dei due atti. L’AI Act è un Regolamento UE, direttamente applicabile e immediatamente vincolante in tutti gli Stati membri. La Legge n. 132/2025 è, invece, una legge-quadro e di delega che stabilisce i principi nazionali e delega al Governo l’adozione di successivi decreti legislativi per la piena attuazione del Regolamento europeo in Italia.

Questa differenza strutturale comporta i seguenti limiti e punti di debolezza:

Incompletezza e Incerta Applicazione nel Breve Termine (Delega)

  • Dipendenza dall’adozione dei provvedimenti delegati: la Legge 132/2025 non è esaustiva, delega il Governo (Art. 18) all’emanazione di decreti legislativi per completarne l’attuazione. Fino all’entrata in vigore di questi decreti, alcune disposizioni rimarranno inattuate generando incertezze per gli operatori, soprattutto per quanto riguarda le procedure specifiche di implementazione e i dettagli sanzionatori.
  • Mancanza di Dettaglio Tecnico: trattandosi di una legge di principi, non contiene i dettagli operativi e tecnici richiesti ai fornitori di sistemi IA ad alto rischio. Per tutti gli aspetti più granulari e tecnici, gli operatori devono comunque fare esclusivo riferimento al testo del Regolamento UE.

Definizione delle Sanzioni (Incertezza del Deterrente)

  • Quadro sanzionatorio delegato: l’AI Act stabilisce i massimali sanzionatori molto severi (fino a 35 milioni di euro o il 7% del fatturato annuo globale, a seconda della violazione). La Legge italiana non stabilisce sanzioni specifiche, limitandosi a delegarne la definizione al Governo. Il quadro sanzionatorio nazionale definitivo e proporzionato sarà un elemento cruciale per verificarne la capacità deterrente, ed è in attesa di essere formalizzato.

Rischio di Frammentazione del Mercato Unico

  • Forte Enfasi Nazionale: la legge italiana sull’Intelligenza Artificiale pone un accento sul sostegno alla sovranità tecnologica e promuove, per la Pubblica Amministrazione, l’uso di soluzioni che garantiscano la localizzazione e l’elaborazione dei dati strategici presso data center nazionali (Art. 5). Sebbene l’obiettivo sia tutelare gli interessi strategici, un’interpretazione troppo rigida o un’attuazione eccessivamente protezionistica di queste disposizioni potrebbero generare attriti o un rischio di frammentazione del mercato unico europeo, contrastando il principio di libera circolazione dei servizi IA forniti da operatori di altri Stati membri.

Molteplicità delle Autorità (Possibile Sovrapposizione)

  • Designazione Dicotomica: la legge italiana designa due autorità nazionali, ACN (Agenzia per la Cybersicurezza Nazionale) per la vigilanza, l’ispezione e le sanzioni, e AgID (Agenzia per l’Italia Digitale) per la promozione e lo sviluppo. Questa separazione di compiti sebbene logica, apre alla possibilità di complessità burocratica o potenziali sovrapposizioni di competenza in aree grigie, in contrasto con l’auspicata chiarezza normativa.

In sintesi, la Legge n. 132/2025 è un importante atto politico e di indirizzo, che definisce la posizione etica e strategica dell’Italia sull’IA. Tuttavia, non essendo l’atto finale che disciplina l’IA (ruolo riservato all’AI Act), la sua principale debolezza risiede nella sua natura delegata che sposta l’onere e il dettaglio dell’effettiva attuazione a provvedimenti legislativi successivi.

Richiedi una CONSULENZA

Raggiungi lo studio

Leggi altri articoli