La nuova legge italiana sull’intelligenza artificiale. Opportunità, vincoli e profili critici
La Legge delega 23 settembre 2025, n. 132: un quadro normativo nazionale specifico sull’intelligenza artificiale
Avv. Mauro Festa
Partner Carnelutti Law Firm
Vicecoordinatore Gruppo Intelligenza Artificiale ALDAI-Federmanager
Vicecoordinatore Gruppo Intelligenza Artificiale ALDAI-Federmanager
Con l’approvazione definitiva della Legge delega 23 settembre 2025, n. 132 (Legge AI), l’Italia si pone in prima fila tra gli Stati membri dell’Unione Europea nel dotarsi di un quadro normativo nazionale specifico sull’intelligenza artificiale.
Principi e finalità: un’impostazione “antropocentrica”
La Legge 132/2025 sancisce principi guida che devono ispirare l’intero impianto regolatorio nazionale, in coerenza con l’AI Act europeo. Tra i principi chiave troviamo: trasparenza, proporzionalità, robustezza, accuratezza, non discriminazione, protezione dei dati personali e diritti fondamentali, sostenibilità e responsabilità umana. È una norma di cornice, che non contiene ancora le regole tecniche di dettaglio, ma affida al Governo il compito di adottare una serie di decreti attuativi. Tale scelta conferisce flessibilità all’impianto normativo, ma introduce anche un periodo di incertezza applicativa, durante il quale imprese e operatori dovranno muoversi in un contesto in evoluzione.
Al centro della legge vi è un’impostazione dichiaratamente antropocentrica: l’IA è considerata strumento di supporto all’uomo, mai suo sostituto.
Governance e autorità
La Legge, in particolare l’art. 20, individua organismi e ruoli istituzionali per la supervisione nazionale dell’IA, in particolare l’AGID (Agenzia per l’Italia Digitale) e l’ACN (Agenzia per la Cybersicurezza Nazionale), che si dovranno coordinare anche con le Autorità già operanti. Non viene, tuttavia, istituita un’Autorità indipendente dedicata esclusivamente all’IA, scelta che ha suscitato alcune perplessità tra gli operatori giuridici: l’assenza di un organismo terzo, autonomo dal Governo, potrebbe rendere meno trasparente il controllo sull’applicazione della legge e più difficile la gestione dei ricorsi da parte dei cittadini.
Ambiti di applicazione settoriale
Il testo delega al Governo la possibilità di fissare regole specifiche per settori sensibili: sanità, pubblica amministrazione, giustizia, lavoro. In tali ambiti si rafforzano obblighi di informazione (ad esempio per i cittadini che subiscono decisioni automatizzate) e criteri di sicurezza.
Particolarmente significativa, per il mondo delle professioni intellettuali, è la previsione contenuta all’articolo 13. Il legislatore chiarisce che l’utilizzo di sistemi di intelligenza artificiale da parte dei professionisti (avvocati, ingegneri, consulenti, architetti, medici…) è consentito esclusivamente per attività di supporto e con prevalenza del lavoro intellettuale umano.
Il secondo comma dell’articolo 13 introduce, poi, un obbligo di trasparenza verso il cliente: il professionista deve comunicare in modo chiaro, semplice ed esaustivo se e in quale misura abbia utilizzato sistemi di intelligenza artificiale nello svolgimento della propria attività.
La trasparenza non è solo un requisito legale, ma anche un dovere deontologico. Il cliente ha diritto di sapere se un testo, un’analisi o una valutazione è stata generata, in tutto o in parte, con l’ausilio di un sistema di IA. Allo stesso modo, il professionista ha il dovere di mantenere il controllo sul contenuto e di verificare l’attendibilità delle informazioni fornite dagli strumenti digitali. È una disposizione che valorizza la centralità della persona, riaffermando che la tecnologia, non può sostituire il pensiero critico e la responsabilità personale che caratterizzano l’attività intellettuale.
Nel settore lavoro e organizzazione aziendale, l’articolo 11 stabilisce che l’intelligenza artificiale deve essere impiegata per migliorare le condizioni dei lavoratori, tutelarne l’integrità psicofisica e accrescere la qualità delle prestazioni, mai per finalità di controllo o compressione dei diritti. L’uso dell’IA deve avvenire in modo sicuro, affidabile e trasparente, senza ledere la dignità umana né violare la riservatezza dei dati personali. Il datore di lavoro è tenuto a informare preventivamente i lavoratori circa l’utilizzo dei sistemi di IA, secondo le modalità previste dall’art. 1bis del d.lgs. 152/1997, recante “Ulteriori obblighi informativi nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati”.
Si ricorda, inoltre, che ai sensi dell’AI Act, che costituisce la fonte normativa principale in materia e non è sostituita dalla legislazione nazionale, l’impiego di sistemi di intelligenza artificiale per la gestione delle risorse umane (quali, ad esempio, la definizione dei piani di carriera o la valutazione delle performance) è classificato tra gli utilizzi ad alto rischio. Conseguentemente, le imprese sono tenute a rispettare stringenti obblighi di conformità e a predisporre adeguate misure organizzative e tecniche per garantire il rispetto del quadro regolatorio vigente.
Ciò richiede attenzione da parte dei manager e degli HR nel progettare processi che prevedano IA.
Opportunità e linee di indirizzo pratiche per manager e imprese
Strategia proattiva e compliance
Le aziende possono anticipare i requisiti normativi già oggi definendo framework interni di valutazione del rischio, documentazione dei sistemi IA, audit e supervisione umana. L’adozione di principi come explainability e trasparenza è già da considerare nella progettazione.
Governance interna dell’IA
È utile istituire funzioni o comitati interni dedicati alla supervisione dell’IA (compliance, etica, data governance). In contesti industriali e manageriali, tali strutture permettono di coniugare innovazione e controlli.
Formazione e cultura digitale
La legge enfatizza l’obbligo, già introdotto dall’AI Act europeo, dell’alfabetizzazione digitale e della formazione continua per gestire consapevolmente l’IA. Le imprese devono investire nelle competenze interne e sensibilizzare i propri team su rischi, bias e implicazioni etiche.
Conclusione
La Legge 132/2025 sull’IA introduce un primo quadro nazionale organico per lo sviluppo, l’adozione e la governance dell’intelligenza artificiale nel nostro Paese, in armonia con l’AI Act europeo. Pur non introducendo innovazioni sostanzialmente nuove rispetto alla normativa dell’Unione (circostanza naturale, trattandosi di un Regolamento, direttamente applicabile negli Stati membri), la legge assume un valore prettamente politico e culturale: quello di affermare, con chiarezza, che l’Italia intende governare l’IA e non subirla.
Il vero banco di prova sarà ora la fase attuativa. L’efficacia del nuovo impianto dipenderà dalla qualità dei decreti delegati, dall’assetto della governance nazionale e dalla capacità di colmare le aree ancora grigie, come l’assenza di un’autorità indipendente o la definizione di procedure di ricorso contro decisioni automatizzate e applicazioni biometriche.
Per manager, imprenditori e professionisti dell’industria, la sfida sarà trasformare vincoli e rischi in opportunità competitive: chi saprà integrare etica, compliance e innovazione, anticipando le regole, disporrà di un vantaggio strategico. È il momento di muoversi attivamente nella definizione di processi aziendali consapevoli e resilienti.
01 novembre 2025
Localizza
Stampa
WhatsApp
