Prime analisi sui principî applicabili in materia processuale nella legge delega sull’AI

Giulio Cicalese
01 Ottobre 2025

Con la legge delega n. 132/2025 in materia di Intelligenza Artificiale, da poco pubblicata in Gazzetta Ufficiale n. 223 del 25 settembre scorso nella forma emendata dalla Camera dei Deputati, il Governo italiano è ora chiamato alla regolazione dell’utilizzo dei sistemi AI nei campi della vita pubblica in cui già oggi è possibile osservarne l’impatto; nel presente focus, quindi, si cercherà di offrire una prima analisi dei principî che con la legge delega si introducono all’interno del nostro ordinamento – e, in particolare, quelli relativi al processo civile e all’attività dell’avvocato –, al contempo operando un raffronto con quanto già previsto in materia dal legislatore eurounitario.

La legge delega in materia di Intelligenza Artificiale alla luce della normativa eurounitaria

Con il Regolamento UE n. 1689/2024 (nel prosieguo denominato anche AI Act), congiuntamente adottato dal Parlamento e dal Consiglio, l’Unione Europea – dando in tal modo seguito agli indirizzi già in precedenza espressi nell’ambito della Strategia Europa per l’AI della Commissione Europea del 2018 e nella Carta etica europea sull’utilizzo dell’Intelligenza Artificiale nei sistemi giudiziari e negli ambiti connessi predisposta dalla Commissione europea per l’efficacia della giustizia (CEPEJ) in seno al Consiglio d’Europa – ha per prima messo in campo una estesa regolamentazione dell’utilizzo dei sistemi di Intelligenza Artificiale, la quale è rivolta sia agli sviluppatori e ai distributori di detti sistemi che ai loro utenti e, per quanto qui maggiormente interessa, agli Stati membri nell’esercizio delle proprie prerogative.

Ciò premesso, è quindi evidentemente possibile analizzare in maniera adeguata il contenuto della legge delega n. 132/2025, oggetto del presente focus – definitivamente approvata dal Senato della Repubblica il 17 settembre 2025 e pubblicata in Gazzetta Ufficiale n. 223 del 25 settembre scorso – solo raffrontandola con la predetta normativa eurounitaria, la quale è peraltro espressamente richiamata all’art. 1 della legge delega in esame, e nell’esclusivo ambito dei cui confini, com’è noto, il legislatore nazionale può infine provvedere alla normazione dei campi della vita sociale di volta in volta oggetto del suo specifico interesse.

In proposito, particolare centralità è rivestita, nell’impianto dell’AI Act, dal considerando n. 1 della stessa, all’interno del quale – con una formula poi direttamente riportata anche all’art. 1 della legge delega, rilevantemente rubricato «finalità ed ambito di applicazione» – sin da sùbito è chiarito come lo scopo dello stesso sia appunto quello di «promuovere la diffusione di un’Intelligenza Artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione Europea […], compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, contro gli effetti nocivi dei sistemi di IA nell’Unione nonché promuovere l’innovazione». Tale norma, di contenuto apparentemente solo programmatico, facendo leva sul concetto di antropocentrismo, in realtà sgombra già il campo a possibili equivoci in ordine alla possibilità che, sia nell’ambito delle professioni legali che in quello giudiziario, si possa ipotizzare l’utilizzo di sistemi di Intelligenza Artificiale in piena sostituzione del lavoro umano; a ciò, inoltre, deve aggiungersi come il concetto stesso di Intelligenza Artificiale, all’interno dell’AI Act – e, con una diretta ricezione di quanto ivi previsto, all’art. 2, comma 1, della legge delega de qua – venga delineato sulla scorta della funzione che essa può esercitare in relazione al lavoro umano stesso, dovendosi appunto definire AI qualsivoglia «sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali».

Ai sistemi AI così definiti il Regolamento UE n. 1689/2024 si è relazionato con la tecnica del risk based approach, nel senso che i possibili utilizzi dell’AI vengono divisi in differenti classi di rischio (rischio inaccettabile, alto, limitato e sistemico), da cui far discendere particolari divieti (art. 5) o limitazioni (art. 6, per le attività cd. ad alto rischio; art. 51, relativo ai modelli di IA per finalità generali con rischio sistemico); per quanto qui rileva, a norma dell’All. III, n. 8, lett. a) dell’AI Act sono considerate ad alto rischio, tra le altre, tutte quelle attività in cui venga in rilievo l’utilizzo di «sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie»; per attività di questa tipologia, quindi, è fondamentale che venga messo in atto da parte del cd. deployer (ovverosia, lo sviluppatore del sistema utilizzato) sia prima che dopo la immissione sul mercato del sistema di AI un procedimento di analisi a priori dei possibili rischi del sistema stesso – conformi e difformi agli scopi per cui esso è progettato –, anche e soprattutto al fine di predisporre misure di gestione e/o limitazione del rischio in parola.

Tali valutazioni, da effettuarsi sulla scorta delle analitiche informazioni che lo stesso deployer è tenuto a fornire, nell’impianto dell’AI Act, devono essere analizzate e monitorate in sede di effettiva utilizzazione da parte di un’Autorità all’uopo preposta dai singoli Stati membri, la quale dev’esser dotata anche dei necessari poteri sanzionatori.

Ma, ancora più rilevantemente, all’art. 14 del Regolamento UE n. 1689/2024 è espressamente statuito che i sistemi AI ad alto rischio – tra cui, si ricorda, anche quelli astrattamente in grado di prendere decisioni di natura giudiziale – non possano mai esser utilizzati senza l’ineludibile sorveglianza umana, non potendosi quindi ipotizzare una disciplina di rango nazionale che autorizzi ricorso alle stesse in totale sostituzione dei magistrati o degli avvocati in ambito processuale.

Ad ogni modo, a prescindere dall’intervento dell’Autorità di vigilanza a tal fine individuata, principi cardine dell’utilizzo dei sistemi di AI sono individuati nella spiegabilità e nella conoscibilità, in favore dell’utente finale della stessa, dei suoi meccanismi di funzionamento, da declinarsi – come ha preliminarmente chiarito l’Avv. Generale Richard de La Tour della Corte di Giustizia dell’Unione Europea, la quale è stata adìta proprio al fine di statuire se l’utente abbia diritto a conoscere l’algoritmo dell’AI che ha emesso una decisione su di lui impattante in materia bancaria – non nel senso che deve esser tassativamente reso noto l’algoritmo di funzionamento del sistema utilizzato, ma anche solamente i criteri su cui esso si fonda, così da permettere al soggetto interessato di comprendere i fattori rilevanti e i criteri decisionali adottati, nonché la logica generale che ha condotto al risultato automatizzato.

Il recepimento dei principi contenuti nell'AI Act nella legge delega n. 132/2025

Sulla scorta di quanto finora affermato, è ora sicuramente più agevole procedere ad una prima lettura critica del testo di legge delega da poco pubblicata in Gazzetta Ufficiale e, in primo luogo, può osservarsi come ad essere individuate come Autorità competenti in tema di AI siano ex art. 20 l’AgID (Agenzia Italiana per l’Italia Digitale) e l’ACN (Agenzia per la Cybersicurezza Nazionale), le quali si dovranno rispettivamente occupare della predisposizione delle procedure necessarie al fine di valutare l’impatto delle tecnologie di AI che si intende mettere sul mercato o a disposizione delle P.A. e della vigilanza in ordine agli aspetti critici che i sistemi di AI pongono per la sicurezza nello spazio cibernetico.

Negli ambiti che più strettamente possano riguardare la materia processuale, invece, i principî dell’AI Act sono innanzitutto ripresi all’art. 3 della legge delega, il quale al comma 3 stabilisce che «i sistemi e i modelli di intelligenza artificiale devono essere sviluppati ed applicati nel rispetto della autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità e dei principi di cui al comma 1 [ovvero, nel rispetto dei diritti umani sanciti nelle fonti italiane ed internazionali, n.d.r.]».

Dell’introduzione. nell’ambito del processo civile, di tecnologie di AI, invece, si occupa precipuamente l’art. 15 della legge delega in analisi (difatti rubricato «utilizzo dell’intelligenza artificiale nell’attività giudiziaria») il quale, ampliando e specificando i principî contenuti nell’art. 3, comma 3 sopra riportato, statuisce che «1. Nei casi di impiego dei sistemi di Intelligenza Artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti. 2. Il Ministero della Giustizia disciplinagli impieghi dei sistemi di Intelligenza Artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie». Sebbene siano quindi stati espunti dalla legge delega oggetto di definitiva approvazione parlamentare i riferimenti – viceversa presenti nell’originario disegno di legge sottoposto alle Camere – alla possibilità di utilizzazione dei sistemi AI per la ricerca giurisprudenziale e dottrinale (che comunque non è preclusa ai magistrati nella preparazione alla redazione dei provvedimenti), appare quindi evidente come il punto definitivamente sancito dalla disciplina in analisi sia quello relativo al fatto che non possa ad oggi ipotizzarsi una completa “robotizzazione” dei giudici: tale eventualità,  infatti, già esclusa da quanto statuito nel Regolamento UE n. 1689/2024 in relazione alle attività ad alto rischio, è ad ogni modo altresì violativa del principio del «giudice naturale precostituito per legge» di cui all’art. 25 Cost., ma – e sono queste valutazioni de iure condendo purtroppo impossibili da approfondire compiutamente in questa sede – tale opportunità non sembra nemmeno ravvisarsi sulla scorta di un’analisi dei sistemi AI attualmente operativi giacché essi, funzionando sotto forma di Large Language Models, non sono concretamente in grado di prendere decisioni autonome e “ragionate” ma, piuttosto, solamente di riprodurre i meccanismi linguistici presenti nelle fonti normative e giurisprudenziali che gli vengono sottoposte durante il loro cd. addestramento (con buona pace dei sostenitori dell’assoluta calcolabilità degli esiti dei processi).

Le medesime valutazioni, evidentemente, sono riproposte al precedente art. 13 della legge delega de qua in relazione alle professioni intellettuali – qual è quella dell’avvocato –, in cui infatti dapprima si statuisce che «l’utilizzo di sistemi di Intelligenza Artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera», e successivamente che «per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di Intelligenza Artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo»; sebbene nella legge delega non siano espressamente previste sanzioni nei confronti del professionista che affidi all’AI lo svolgimento del proprio incarico senza esercitare la sua necessaria supervisione, è interessante notare che, negli stessi giorni in cui veniva approvata in Senato la legge delega ora in analisi, il Tribunale di Torino, con sentenza 16 settembre 2025, n. 2120 condannava la parte soccombente di un giudizio di opposizione a decreto ingiuntivo alla rifusione dei danni processuali di cui all’art. 96, comma 1, c.p.c., avendo il proprio difensore posto a base delle sue argomentazioni giuridiche dei riferimenti giurisprudenziali del tutto inesistenti, frutto di una tipica “allucinazione” dell’AI, evidentemente configurandosi in tale ipotesi la «colpa grave» prevista dalla norma succitata.

Sempre in tema delle disposizioni di cui al codice di rito, occorre ulteriormente rilevare come all’art. 17 della legge delega (rubricato «modifica al codice di procedura civile») sia prevista la modifica dell’art. 9 c.p.c., con l’effetto di attribuire al Tribunale l’esclusiva competenza in materia di «funzionamento di un sistema di Intelligenza Artificiale»: dicitura, questa, che va opportunamente chiarita in sede di decreto delegato, non essendo probabilmente sufficiente a sciogliere il dubbio se la competenza esclusiva del Tribunale sussista solo nel caso in cui si intenda dedurre in giudizio il preteso malfunzionamento di un’AI ovvero, amplius, per qualsiasi controversia relativa all’operatività di un sistema di Intelligenza Artificiale (ad esempio, in ordine alla violazione del diritto d’autore, potenzialmente intaccato dall’operatività delle AI sia in fase di addestramento delle stesse e sia in relazione agli outputs da queste generati).

In conclusione, non può di certo affermarsi che la legge delega di recentissima approvazione dia l’impressione di costituire un particolare passo in avanti nella regolazione dell’utilizzazione dei sistemi di Intelligenza Artificiale in ambito processuale, essendosi essa di fatto limitata a declinare, adattandola alle peculiarità dell’ordinamento italiano, la sovraordinata disciplina rinvenibile nell’AI Act di cui al Regolamento UE n. 1689/2024; ancor più a monte, poi, rimangono aperti i dubbi in ordine all’effettiva possibilità di regolazione dell’utilizzo di una tecnologia le cui tracce, essendo ormai incorporata nella maggior parte degli strumenti di lavoro di cui si dotano i professionisti intellettuali quali magistrati ed avvocati, possono ad oggi già rinvenirsi all’interno della produzione degli atti in cui normalmente si articola il processo civile. Occorrerà quindi attendere l’adozione del (o dei) decreto/i legislativo/i attuativi della legge delega in commento, anche e soprattutto al fine di conoscere quali e quanto larghe saranno le maglie disciplinari nell’ambito di un fenomeno, qual è quello dell’utilizzo dei sistemi di AI, così stratificato ed impattante (anche) nel processo civile.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.

Sommario