La legge sull’Intelligenza Artificiale: inquadramento normativo e ricadute sul sistema giuridico-economico nazionale

30 Ottobre 2025

Il presente contributo analizza la Legge 23 settembre 2025, n. 132, pubblicata in G.U. n. 223 del 25 settembre 2025, con entrata in vigore fissata al 10 ottobre 2025.

Tale provvedimento legislativo costituisce la prima regolamentazione organica attraverso cui il legislatore italiano ha inteso disciplinare compiutamente lo sviluppo, l'impiego e i meccanismi di governance dell'intelligenza artificiale all'interno dei confini nazionali.

Il contributo si pone in naturale continuità con la precedente analisi dedicata al ddl A.S. 1146, di cui la Legge n. 132/2025 rappresenta l'approdo definitivo, aggiornando la riflessione alla luce del testo approvato e delle modifiche intervenute nel corso dell'iter parlamentare (Sottoriva-Vetrugno,  Il Disegno di Legge in materia di Intelligenza Artificiale: sintesi e implicazioni normative , in questo portale).

L'entrata in vigore della normativa sull'intelligenza artificiale

L'approvazione definitiva della Legge sull'intelligenza artificiale (legge 23 settembre 2025, n. 132 costituisce il punto di approdo di un percorso parlamentare che ha visto il coinvolgimento di Camera dei deputati e Senato della Repubblica. Il testo normativo, promulgato dal Presidente della Repubblica, ha completato il proprio iter legislativo con la pubblicazione in Gazzetta Ufficiale ed è entrato in vigore il 10 ottobre 2025, segnando un momento di cesura nel panorama giuridico nazionale.

Per la prima volta, infatti, il legislatore italiano si dota di uno strumento normativo primario dedicato in maniera specifica alla disciplina dell'intelligenza artificiale, anticipando per certi versi l'implementazione operativa del Regolamento europeo (UE) 2024/1689 (c.d. AI Act), la cui piena efficacia è prevista per il biennio 2026-2027.

La scelta temporale dell'intervento non appare affatto casuale: il legislatore sembra aver voluto giocare d'anticipo rispetto al quadro europeo, ponendo le basi di un modello nazionale di governance tecnologica.

Principi ispiratori e obiettivi normativi

La Legge n. 132/2025 sancisce un impianto valoriale fondato sul rispetto dei diritti fondamentali, sulla tutela della dignità umana e sul principio di proporzionalità nell'uso dell'intelligenza artificiale. L'articolo 1 definisce con chiarezza le finalità del provvedimento: promuovere un utilizzo corretto, trasparente e responsabile dell'intelligenza artificiale in una dimensione antropocentrica, cogliendo le opportunità offerte da queste tecnologie pur garantendo vigilanza sui rischi economici e sociali e sull'impatto sui diritti fondamentali.

L'intervento normativo si propone, in sostanza, di costruire un ecosistema di fiducia attorno all'intelligenza artificiale, dove trasparenza e sicurezza non siano meri slogan ma valori operativi concreti I processi concernenti la protezione dei dati e l'accessibilità costituiscono il fulcro della legge, con chiaro sfondo interpretativo unidirezionalmente rivolto ai principi costituzionali e a quelli della normativa europea. In tale ottica preme segnalare un vivace confronto tra etica e innovazione tecnologica che pervade l'intero articolato normativo.

L'articolo 3 della Legge stabilisce che la ricerca, la sperimentazione, lo sviluppo, l'adozione, l'applicazione e l'utilizzo di sistemi e di modelli di intelligenza artificiale per finalità generali avvengano nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell'Unione europea e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.

A scopo esemplificativo, in questi termini, si segnala la previsione della cybersicurezza come precondizione essenziale per la conformità giuridica dell'intero ciclo di vita dei sistemi di intelligenza artificiale. Tale approccio è coerente con quanto sostenuto anche in sede dell'Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), che promuove un'intelligenza artificiale affidabile e responsabile.

Un aspetto particolarmente rilevante è rappresentato dall'articolo 3, comma 5, il quale chiarisce che la legge non produce nuovi obblighi rispetto a quelli previsti dal Regolamento (UE) 2024/1689 per i sistemi di intelligenza artificiale e per i modelli di intelligenza artificiale per finalità generali, ponendosi quindi in una prospettiva di armonizzazione e non di sovrapposizione normativa.

Applicazioni settoriali e implicazioni operative

Il dettato normativo fonda le proprie basi sulla diversificazione applicativa verso cui esso stesso sarà portato inevitabilmente. Ciò considerando che sarà certo l'impatto di quella che viene definita come una nuova rivoluzione industriale all'interno di tante quanto variegate compagini sociali e lavorative. Difatti, la normativa affronta con dettaglio l'impiego dell'intelligenza artificiale in ambiti sensibili come sanità, giustizia, pubblica amministrazione, lavoro e impresa.

In ambito sanitario, l'intelligenza artificiale assume un ruolo di supporto alla diagnosi e cura, senza sostituire il personale medico, e si valorizza la ricerca scientifica attraverso il trattamento di dati personali con garanzie etiche e di privacy. Gli articoli da 7 a 10 della Legge disciplinano organicamente l'uso dell'intelligenza artificiale in ambito sanitario, stabilendo che l'utilizzo di sistemi di intelligenza artificiale contribuisce al miglioramento del sistema sanitario, alla prevenzione, alla diagnosi e alla cura delle malattie, nel rispetto dei diritti, delle libertà e degli interessi della persona, anche in materia di protezione dei dati personali.

Particolarmente innovativa risulta la disposizione dell'articolo 7, comma 5, secondo cui "i sistemi di intelligenza artificiale in ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica". Questa formulazione cristallizza il principio di non delegabilità della funzione decisionale medica, pur valorizzando il contributo tecnologico.

L'articolo 8 introduce una disciplina particolarmente rilevante per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario. I trattamenti di dati, anche personali, eseguiti da soggetti pubblici e privati senza scopo di lucro, dagli Istituti di ricovero e cura a carattere scientifico (IRCCS), nonché da soggetti privati operanti nel settore sanitario nell'ambito di progetti di ricerca, per finalità di prevenzione, diagnosi e cura di malattie, sono dichiarati di rilevante interesse pubblico in attuazione degli articoli 32 e 33 della Costituzione.

Nell'attività giurisdizionale, è ribadita la centralità del giudice nella decisione finale. L'articolo 15 della Legge stabilisce che "nei casi di impiego dei sistemi di intelligenza artificiale nell'attività giudiziaria è sempre riservata al magistrato ogni decisione sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti". Questa previsione rafforza il principio di non delegabilità della funzione giurisdizionale e garantisce la trasparenza e la comprensibilità dei processi decisionali supportati dall'intelligenza artificiale, evitando ogni forma di automatismo privo di controllo umano.

Il Ministero della giustizia è chiamato a disciplinare gli impieghi dei sistemi di intelligenza artificiale per l'organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie. Significativamente, fino alla compiuta attuazione del Regolamento (UE) 2024/1689, la sperimentazione e l'impiego dei sistemi di intelligenza artificiale negli uffici giudiziari ordinari sono autorizzati dal Ministero della giustizia, sentite le Autorità nazionali.

Le imprese, in generale, sono chiamate a rivedere profondamente i propri modelli organizzativi e operativi per integrare i sistemi di intelligenza artificiale nei processi decisionali, gestionali e produttivi. L'articolo 5 della Legge pone particolare enfasi sull'importanza dello sviluppo economico attraverso l'intelligenza artificiale. Lo Stato e le altre autorità pubbliche promuovono lo sviluppo e l'utilizzo dell'intelligenza artificiale come strumento per migliorare l'interazione uomo-macchina, anche mediante l'applicazione della robotica, nei settori produttivi, la produttività in tutte le catene del valore e le funzioni organizzative, nonché quale strumento utile all'avvio di nuove attività economiche e di supporto al tessuto nazionale produttivo, costituito principalmente di microimprese e di piccole e medie imprese, al fine di accrescere la competitività del sistema economico nazionale e la sovranità tecnologica della Nazione nel quadro della strategia europea.

Tali aspetti comporteranno una trasformazione dei sistemi di compliance aziendale e della governance interna. L'impiego dell'intelligenza artificiale deve avvenire nel rispetto dei principi di legalità, trasparenza e responsabilità, imponendo alle imprese di sviluppare competenze tecniche adeguate, implementare controlli interni efficaci e predisporre documentazione che attesti la supervisione e la conformità dell'uso dell'intelligenza artificiale.

Per la Pubblica Amministrazione, l'articolo 14 della Legge stabilisce che le pubbliche amministrazioni utilizzano l'intelligenza artificiale allo scopo di incrementare l'efficienza della propria attività, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo. L'utilizzo dell'intelligenza artificiale avviene in funzione strumentale e di supporto all'attività provvedimentale, nel rispetto dell'autonomia e del potere decisionale della persona che resta l'unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l'intelligenza artificiale.

In materia di lavoro, gli articoli 11 e 12 introducono disposizioni specifiche. L'intelligenza artificiale è impiegata per migliorare le condizioni di lavoro, tutelare l'integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell'Unione europea. L'utilizzo dell'intelligenza artificiale in ambito lavorativo deve essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali.

È istituito presso il Ministero del lavoro e delle politiche sociali l'Osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro, con il compito di definire una strategia sull'utilizzo dell'intelligenza artificiale in ambito lavorativo, monitorare l'impatto sul mercato del lavoro e identificare i settori lavorativi maggiormente interessati dall'avvento dell'intelligenza artificiale.

Autorità nazionali e strategia nazionale

La Legge prevede l'istituzione di una struttura di governance articolata e complessa per garantire l'efficace attuazione della normativa. L'articolo 19 disciplina la Strategia nazionale per l'intelligenza artificiale, che è predisposta e aggiornata dalla struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale, d'intesa con le Autorità nazionali per l'intelligenza artificiale, e approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione digitale (CITD).

La Strategia ha lo scopo di definire gli indirizzi operativi per lo sviluppo e l'adozione di sistemi di intelligenza artificiale sul territorio nazionale, in coerenza con le linee guida europee e con gli obiettivi di innovazione, inclusione e sicurezza digitale. La strategia favorisce la collaborazione tra le amministrazioni pubbliche e i soggetti privati relativamente allo sviluppo e all'adozione di sistemi di intelligenza artificiale, coordina l'attività della pubblica amministrazione in materia, promuove la ricerca e la diffusione della conoscenza in materia di intelligenza artificiale e indirizza le misure e gli incentivi finalizzati allo sviluppo imprenditoriale e industriale dell'intelligenza artificiale.

L'Agenzia per l'Italia Digitale (AgID) e l'Agenzia per la Cybersicurezza Nazionale (ACN) sono designate quali Autorità nazionali per l'intelligenza artificiale dall'articolo 20 della Legge. Questa designazione conferisce a entrambe le agenzie un ruolo essenziale nel nuovo contesto digitale e informatico.

L'AgID, istituita con il decreto-legge n. 83 del 22 giugno 2012 (convertito dalla legge n. 134 del 7 agosto 2012), è l'ente tecnico preposto al coordinamento della trasformazione digitale della pubblica amministrazione. Operando sotto la vigilanza della Presidenza del Consiglio dei Ministri, AgID ha il compito di attuare l'Agenda Digitale Italiana e di garantire l'interoperabilità, la sicurezza e l'efficienza dei sistemi informativi pubblici.

Nel contesto della nuova Legge sull'intelligenza artificiale, l'AgID è responsabile di promuovere l'innovazione e lo sviluppo dell'intelligenza artificiale. Provvede altresì a definire le procedure e a esercitare le funzioni e i compiti in materia di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell'Unione europea. L'AgID è designata quale autorità di notifica ai sensi dell'articolo 70 del Regolamento (UE) 2024/1689.

L'Agenzia per la Cybersicurezza Nazionale (ACN) è un'istituzione pubblica italiana istituita con il decreto-legge 14 giugno 2021, n. 82, convertito con modificazioni dalla legge 4 agosto 2021, n. 109. L'ACN è stata creata con l'obiettivo di definire, coordinare e attuare le politiche di cybersicurezza nazionale, anche in raccordo con gli altri attori istituzionali e internazionali del settore. Opera sotto la Presidenza del Consiglio dei Ministri e ha competenze sia strategiche sia operative, coprendo ambiti come la protezione delle infrastrutture critiche, la prevenzione degli attacchi informatici, la promozione della cultura della sicurezza digitale e la certificazione della sicurezza dei prodotti e servizi digitali.

Nell'ambito della Legge n. 132/2025, l'ACN, anche ai fini di assicurare la tutela della cybersicurezza, è responsabile per la vigilanza, ivi incluse le attività ispettive e sanzionatorie, dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell'Unione europea. L'ACN è altresì responsabile per la promozione e lo sviluppo dell'intelligenza artificiale relativamente ai profili di cybersicurezza. È designata quale autorità di vigilanza del mercato e punto di contatto unico con le istituzioni dell'Unione europea ai sensi dell'articolo 70 del Regolamento (UE) 2024/1689.

Come approfondisce il dettato normativo, entrambe le autorità sono chiamate a collaborare nella definizione dei requisiti tecnici, nell'accreditamento degli organismi di valutazione della conformità, nella predisposizione dei registri dei sistemi ad alto rischio e nella promozione di spazi di sperimentazione normativa (sandbox) per favorire l'adozione responsabile dell'intelligenza artificiale, minimizzando i rischi per cittadini, imprese e amministrazioni pubbliche.

L'articolo 20, comma 3, prevede l'istituzione presso la Presidenza del Consiglio dei ministri di un Comitato di coordinamento, composto dai direttori generali delle due Agenzie e dal capo del Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei ministri. Al Comitato partecipano, quando si trattano questioni di rispettiva competenza, rappresentanti di vertice della Banca d'Italia, della CONSOB e dell'IVASS, che mantengono il ruolo di autorità di vigilanza del mercato ai sensi dell'articolo 74, paragrafo 6, del Regolamento (UE) 2024/1689.

Inoltre, l'articolo 19, comma 6, istituisce il Comitato di coordinamento delle attività di indirizzo su enti, organismi e fondazioni che operano nel campo dell'innovazione digitale e dell'intelligenza artificiale, presieduto dal Presidente del Consiglio dei ministri o dall'Autorità politica delegata. Questo Comitato svolge funzioni di coordinamento dell'azione di indirizzo e di promozione delle attività di ricerca, di sperimentazione, di sviluppo, di adozione e di applicazione di sistemi e modelli di intelligenza artificiale svolte da enti e organismi nazionali pubblici o privati soggetti a vigilanza o destinatari di finanziamento pubblico.

Impatti sull'impresa, prospettive economiche e governance algoritmica

La Legge n. 132/2025 produce significative ripercussioni sulle attività aziendali dal punto di vista della normativa societaria. In primo luogo, l'introduzione di criteri di trasparenza e tracciabilità nei sistemi di intelligenza artificiale utilizzati dalle imprese comporta un sostanziale potenziamento degli obblighi di compliance e di audit interno. Questo aspetto risulta particolarmente rilevante per le società quotate o sottoposte a vigilanza da parte di autorità di settore, quali CONSOB, Banca d'Italia o IVASS. Le imprese saranno chiamate, più che mai, a integrare la valutazione del rischio algoritmico nei propri processi decisionali, rendendo trasparente — anche verso gli stakeholder — l'uso di strumenti automatizzati.

In secondo luogo, la ridefinizione del quadro giuridico delle responsabilità derivanti dall'utilizzo dell'intelligenza artificiale richiede una sostanziale revisione delle clausole contrattuali, con distinzioni specifiche tra ambito B2B e B2C. Parallelamente, si rende necessario un aggiornamento organico delle policy aziendali in materia di protezione dei dati personali, tutela dei diritti dei consumatori e sicurezza informatica. Di conseguenza, le società operanti nei settori digitale, manifatturiero, assicurativo e bancario dovranno dotarsi di unità specializzate competenti in etica digitale e diritto dell'innovazione, al fine di garantire la conformità normativa e consolidare la fiducia di investitori e portatori d'interesse.

La Legge rappresenta anche un potenziale catalizzatore di crescita per le imprese innovative. L'articolo 23 prevede, in linea con la strategia nazionale, investimenti nei settori dell'intelligenza artificiale, della cybersicurezza e del calcolo quantistico fino all'ammontare complessivo di un miliardo di euro. Tali investimenti, sotto forma di equity e quasi equity, sono finalizzati a supportare lo sviluppo di piccole e medie imprese (PMI) con elevato potenziale di sviluppo e innovative, aventi sede operativa in Italia, che operano nei settori dell'intelligenza artificiale e della cybersicurezza e delle tecnologie per essi abilitanti, anche al fine di promuoverne lo sviluppo come campioni tecnologici nazionali.

L'armonizzazione con l'AI Act europeo (Regolamento UE 2024/1689) contribuisce significativamente a ridurre il rischio normativo transfrontaliero e a rafforzare il posizionamento competitivo delle imprese italiane nei mercati internazionali. Le prospettive future richiederanno un aggiornamento costante della normativa commerciale, con particolare attenzione a tre aree critiche: la corporate governance algoritmica, la responsabilità degli amministratori per decisioni supportate da sistemi automatizzati e la valutazione degli asset intangibili correlati all'intelligenza artificiale.

Risulta essenziale, in tale contesto, approfondire il concetto di governance algoritmica, che rappresenta un'evoluzione sostanziale del tradizionale modello di governance aziendale, costituendo per molti aspetti un nuovo paradigma gestionale. Questo paradigma emergente si caratterizza per l'integrazione di sistemi di intelligenza artificiale e algoritmi automatizzati nei processi decisionali strategici, operativi e finanziari dell'impresa. Tale transizione impone l'introduzione di innovative misure di accountability e trasparenza, con la necessità di implementare meccanismi efficaci di supervisione algoritmica, valutazione d'impatto e conformità alle normative nazionali ed europee.

Il Regolamento UE 2024/1689 (AI Act) stabilisce obblighi particolarmente stringenti per i sistemi di intelligenza artificiale classificati ad alto rischio, tra cui quelli implementati in ambiti sensibili come quello finanziario, sanitario e giuridico. In particolare, la Commissione Europea, nel documento "Civil liability – adapting liability rules to the digital age and artificial intelligence" (2022), ha enfatizzato l'importanza di garantire che ogni decisione automatizzata sia riconducibile a una chiara responsabilità umana, stabilendo così un principio di accountability antropocentrica. Tale orientamento è stato ribadito anche a livello internazionale, con l'OCSE e lo IAASB che hanno sottolineato la necessità di sistemi di governance trasparenti e adeguatamente supervisionati, al fine di prevenire opacità decisionali o potenziali effetti dannosi derivanti dall'automazione algoritmica.

Tutele e disposizioni penali

La Legge n. 132/2025 introduce significative novità anche sul piano delle tutele e delle disposizioni penali. L'articolo 25 interviene sulla legge 22 aprile 1941, n. 633, in materia di diritto d'autore, stabilendo che le opere dell'ingegno umano, anche laddove create con l'ausilio di strumenti di intelligenza artificiale, sono tutelate purché costituenti risultato del lavoro intellettuale dell'autore. Viene inoltre introdotto l'articolo 70-septies, che disciplina le riproduzioni e le estrazioni da opere o da altri materiali contenuti in rete o in banche di dati ai fini dell'estrazione di testo e di dati attraverso modelli e sistemi di intelligenza artificiale, anche generativa.

L'articolo 26 introduce importanti modifiche al codice penale. All'articolo 61 del codice penale viene aggiunta una nuova circostanza aggravante: "l'avere commesso il fatto mediante l'impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato".

Viene inoltre introdotto un nuovo delitto all'articolo 612-quater del codice penale, rubricato "Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale". La norma punisce con la reclusione da uno a cinque anni chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l'impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità. Si tratta di una disposizione di particolare rilevanza nell'era dei deepfake e della manipolazione digitale dei contenuti.

Aggravanti specifiche per l'impiego di sistemi di intelligenza artificiale sono previste anche per i delitti di spionaggio politico o militare (articolo 294 c.p.), manipolazione del mercato (articolo 2637 c.c.) e abuso di informazioni privilegiate (articolo 185 del TUF).

Deleghe al Governo, disposizioni transitorie e profili di sicurezza nazionale e difesa

L'articolo 24 della Legge conferisce al Governo ampie deleghe per l'adeguamento della normativa nazionale al Regolamento (UE) 2024/1689 e per la disciplina dei casi di realizzazione e di impiego illeciti di sistemi di intelligenza artificiale. I decreti legislativi delegati dovranno essere adottati entro dodici mesi dalla data di entrata in vigore della Legge, quindi entro il 10 ottobre 2026.

Tra i principi e criteri direttivi specifici della delega si segnalano: l'attribuzione alle autorità di cui all'articolo 20 di tutti i poteri di vigilanza, ispettivi e sanzionatori previsti dal Regolamento europeo; la previsione di percorsi di alfabetizzazione e formazione in materia di utilizzo dei sistemi di intelligenza artificiale; il potenziamento, all'interno dei curricoli scolastici, dello sviluppo di competenze scientifiche, tecnologiche, ingegneristiche e matematiche legate alle discipline STEM; la valorizzazione delle attività di ricerca e di trasferimento tecnologico in materia di intelligenza artificiale svolte da università, istituzioni AFAM, ITS Academy ed enti pubblici di ricerca.

Una delega specifica è prevista per la disciplina dei casi di realizzazione e di impiego illeciti di sistemi di intelligenza artificiale, con principi e criteri direttivi che includono: la previsione di strumenti, anche cautelari, finalizzati a inibire la diffusione e a rimuovere contenuti generati illecitamente; l'introduzione di autonome fattispecie di reato punite a titolo di dolo o di colpa per l'omessa adozione di misure di sicurezza; la precisazione dei criteri di imputazione della responsabilità penale delle persone fisiche e amministrativa degli enti; la previsione di strumenti di tutela del danneggiato in materia di responsabilità civile.

L'articolo 16 conferisce al Governo una delega per definire una disciplina organica relativa all'utilizzo di dati, algoritmi e metodi matematici per l'addestramento di sistemi di intelligenza artificiale, negli ambiti soggetti al Regolamento (UE) 2024/1689. I principi e criteri direttivi includono l'individuazione delle ipotesi per le quali appare necessario dettare il regime giuridico dell'utilizzo di dati, algoritmi e metodi matematici, la previsione di strumenti di tutela di carattere risarcitorio o inibitorio, e l'attribuzione alle sezioni specializzate in materia di impresa delle controversie relative alla disciplina introdotta.

L'articolo 6 della Legge introduce disposizioni specifiche in materia di sicurezza e difesa nazionale. Le attività di ricerca, sperimentazione, sviluppo, adozione, applicazione e utilizzo di sistemi e di modelli di intelligenza artificiale svolte per scopi di sicurezza nazionale con le finalità e le modalità previste dalla legge 3 agosto 2007, n. 124, dagli organismi di informazione per la sicurezza della Repubblica, quelle di cybersicurezza svolte dall'Agenzia per la cybersicurezza nazionale, quelle svolte per scopi di difesa nazionale dalle Forze armate nonché quelle svolte dalle Forze di polizia per prevenire e contrastare specifici reati, sono escluse dall'ambito applicativo della Legge, ferma restando l'applicazione dei principi fondamentali.

L'articolo 18 introduce una specifica previsione per l'uso dell'intelligenza artificiale ai fini del rafforzamento della cybersicurezza nazionale, modificando l'articolo 7 del decreto-legge 14 giugno 2021, n. 82, e attribuendo all'ACN il compito di promuovere e sviluppare ogni iniziativa, anche attraverso la conclusione di accordi di collaborazione con i privati e di partenariato pubblico-privato, volta a valorizzare l'intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza nazionale.

Riflessioni conclusive

Dal punto di vista sistematico, la Legge si inserisce in un quadro normativo già particolarmente articolato, che comprende il Regolamento europeo sulla protezione dei dati personali (GDPR), il Digital Services Act, il Digital Markets Act, il Data Governance Act e, naturalmente, l'AI Act. La sfida dell'interprete e dell'operatore del diritto sarà quella di assicurare una lettura coordinata e coerente di questo complesso reticolato normativo, evitando duplicazioni, contraddizioni e incertezze applicative che potrebbero generare costi di compliance sproporzionati e frenare l'innovazione.

L'entrata in vigore della Legge il 10 ottobre 2025 segna l'inizio di una nuova fase, caratterizzata dalla necessità di dare concreta attuazione ai principi enunciati attraverso l'adozione dei decreti delegati, l'emanazione della normativa secondaria da parte delle autorità competenti, l'implementazione operativa delle strutture di governance previste e, soprattutto, lo sviluppo di una cultura dell'intelligenza artificiale responsabile che permei tutti i livelli del tessuto economico e sociale italiano.

Le prossime scadenze legislative – in particolare l'adozione dei decreti delegati entro il 10 ottobre 2026 – rappresenteranno momenti cruciali per verificare la capacità del sistema istituzionale di tradurre in azione concreta la visione delineata dal legislatore.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.

Sommario