Lite temeraria per il ricorso redatto con l’IA e zeppo di errori: la prima condanna in Italia
24 Settembre 2025
La controversia verteva sull'opposizione a un'ingiunzione di pagamento fondata su otto avvisi di addebito per crediti previdenziali. La società ricorrente deduceva una pluralità di vizi, tra cui la decadenza dal potere impositivo, l'incompetenza territoriale, l'inesistenza dei titoli per vizi di sottoscrizione e notifica, e l'intervenuto silenzio assenso su un'istanza di sgravio. Il Tribunale ha respinto tutte le richieste della ricorrente, dichiarando inammissibili le contestazioni sul merito del credito. La decisione si basa su due motivi principali, ovvero la tardività dell'opposizione (doveva essere presentata entro il termine perentorio di 40 giorni dalla notifica, come stabilito dall'art. 24, comma 5, del D.lgs. 46/1999) e la sanatoria dei vizi di notifica (anche se ci fosse stato un difetto nella notifica degli avvisi di addebito originali, la successiva notifica dell'intimazione di pagamento ha sanato tale vizio). L'aspetto più innovativo e severo della sentenza risiede però nella condanna per lite temeraria: il Tribunale ha ritenuto che la condotta processuale della ricorrente integrasse gli estremi della “colpa grave” richiesta dall'art. 96, comma 3, c.p.c.La motivazione si concentra non tanto sull'infondatezza delle tesi propugnate – già di per sé palese alla luce della normativa e della giurisprudenza consolidata – quanto sulle evidenti modalità di redazione dell'atto introduttivo. Il giudice ha descritto il ricorso come un atto “costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio”. Questa tecnica redazionale, che il Tribunale attribuisce esplicitamente all'impiego “del supporto dell'intelligenza artificiale”, è stata interpretata come un indice sintomatico di un abuso dello strumento processuale. L'aver avviato un contenzioso basato su argomentazioni generiche, decontestualizzate e palesemente non pertinenti al caso di specie (questo era infatti il frutto degli strumenti di AI generativa, evidentemente utilizzati senza cura e avvedutezza dalla parte condannata) denota, secondo il giudice, una grave negligenza nell'esercizio del diritto di difesa. Il che si traduce in un'azione giudiziaria superflua e defatigatoria. Si evince da quanto nel provvedimento che la parte pare abbia utilizzato uno strumento di c.d. intelligenza artificiale (AI) generativa (si pensi al noto ChatGPT). Questo tipo di strumenti, noti anche come “Large Language Models” (LLM), sono addestrati su enormi quantità di testi prelevati da internet, libri e altre fonti. Il loro funzionamento non si basa su una reale comprensione o ragionamento, bensì su un calcolo probabilistico estremamente sofisticato: data una sequenza di parole, il modello predice quale sarà la parola successiva più probabile per costruire frasi e testi coerenti e grammaticalmente corretti in un testo di output, pure aggiungendovi un fattore variabile di casualità. Proprio questa loro natura è all'origine degli errori tipici che possono commettere e che sembrano riscontrarsi nel caso di specie: l'IA può generare un testo giuridicamente plausibile ma comunque non specificamente adatto al caso concreto. Tende a produrre argomentazioni standard (cioè medie, statisticamente parlando), citando norme e sentenze magari pertinenti per un argomento in generale ma senza la capacità di applicarle ai fatti specifici e ai documenti di una determinata causa. Se non con certa competenza di prompting (cioè il come formulare le domande in input al sistema) e conoscenza di funzionamento e limiti di tali strumenti. Per apparire (statisticamente) convincente, un'IA molto difficilmente ammetterà le proprie lacune - può invece “inventare” riferimenti giurisprudenziali o dottrinali inesistenti (le c.d. “allucinazioni”), oppure citare sentenze reali però decontestualizzate o addirittura travisandone il principio di diritto. Ciò perché, statisticamente parlando, è comunque un risultato adeguato per gli obiettivi (appunto statistici, non logici o causali) di questi strumenti, vero o falso che sia il risultato finale. Il risultato è spesso, come descritto dal giudice, un “coacervo”, ovvero un assemblaggio di informazioni magari corrette prese singolarmente, però prive di un filo logico che le leghi in un'argomentazione difensiva coerente e funzionale. Sarebbe stato un onere del professionista - ancor prima etico-deontologico che professionale - che ha curato la redazione dell'atto in causa, quello di verificare con cura e attenzione sia tutte le fonti citate che il risultato (logico e argomentativo) complessivo. Così come si deve procedere con qualsiasi altro strumento utilizzato per la redazione dell'atto (si pensi al comune utilizzo di banche dati). Che si tratti di incuria o incapacità, il professionista resta ben responsabile di condotte come quelle censurate in sentenza, AI o meno, stante la mancata supervisione umana nel dare “senso” al risultato “automatizzato”. Nel caso analizzato dal Tribunale di Torino, l'uso di tale strumento ha prodotto un ricorso che - pur sembrando formalmente, a prima vista, ricco di riferimenti legali e dunque apparentemente ben redatto e ponderato - si è rivelato all'analisi del giudice un guscio vuoto: un insieme di argomentazioni astratte e non calate nella realtà processuale, dimostrando una grave negligenza professionale e giustificando la pesante condanna inflitta per lite temeraria. Questa decisione si inserisce nel solco di un orientamento che mira a sanzionare l'abuso del processo, distinguendosi per aver collegato tale abuso all'uso acritico e non professionale delle nuove tecnologie di AI, sempre più diffuse anche per l'uso professionale giuridico. A differenza di precedenti decisioni, come quella del Tribunale di Firenze (ord. 14 marzo 2025) che aveva mostrato una certa clemenza verso il difensore “ingannato” da un'IA generatrice di sentenze inesistenti. Difatti il Tribunale di Firenze, uno dei primi in Italia ad affrontare esplicitamente le conseguenze processuali dell'uso errato di AI generativa da parte di un avvocato, si distingue per un approccio significativamente più cauto. Sebbene il giudice fiorentino abbia chiaramente stigmatizzato l'accaduto, ha infine escluso di applicare la sanzione per lite temeraria ex art. 96 c.p.c., delineando un quadro di responsabilità più sfumato. Nel corso della sua difesa, l'avvocato della parte opponente aveva depositato una memoria in cui citava a sostegno delle proprie tesi una serie di massime giurisprudenziali della Corte di Cassazione. La controparte, tuttavia, si accorse che tali sentenze erano completamente inesistenti: i numeri, le date e i principi di diritto riportati non trovavano alcun riscontro nelle banche dati ufficiali. Messo di fronte all'evidenza, il difensore ammise candidamente di aver utilizzato il sistema di intelligenza artificiale ChatGPT per la ricerca giurisprudenziale e di aver riportato nel suo atto, senza un'adeguata verifica, i risultati forniti dal software. Il Tribunale aveva qualificato l'operato del legale come un “errore professionale inescusabile”, sottolineando che il dovere di diligenza professionale (art. 1176, comma 2, c.c.) impone all'avvocato di verificare sempre l'attendibilità delle fonti, a maggior ragione se provenienti da strumenti nuovi e non ancora pienamente affidabili. L'aver omesso questo controllo fondamentale costituiva una palese negligenza, tuttavia il giudice ha ritenuto che tale negligenza non raggiungesse la soglia della “colpa grave” richiesta per la condanna ex art. 96 c.p.c., vuoi per “novità” (relativa) dello strumento, sia per l'assenza di intento dilatorio o abusivo. Il Tribunale di Torino del caso de quo adotta una linea di maggior rigore. Qui l'addebito non riguarda l'errore fattuale, concerne invece la colpa professionale nell'assemblare un atto privo di specificità e aderenza al caso concreto, violando il dovere di lealtà e probità processuale (art. 88 c.p.c.) e il principio della necessaria specificità dei motivi di impugnazione. Di conseguenza, il Tribunale ha applicato cumulativamente i commi 3 e 4 dell'art. 96 c.p.c., condannando la ricorrente a versare una somma di 500 euro a ciascuna delle parti convenute a titolo di risarcimento del danno da abuso del processo, e un'ulteriore somma di 500 euro in favore della cassa delle ammende, quale sanzione pecuniaria di carattere pubblicistico volta a scoraggiare la proposizione di liti palesemente infondate. Oltretutto la condotta del legale nel caso del Tribunale di Torino ben potrebbe rilevare ai sensi della legge professionale forense e del codice deontologico vigente. Precisamente agli artt. 12 (Dovere di diligenza), 14 (Dovere di competenza) e 26 (Adempimento del mandato) del codice deontologico - poiché l'aver depositato un atto processuale redatto in modo acritico da un'intelligenza artificiale, risultando in un “coacervo” di argomentazioni astratte e inconferenti, configura una pluralità di violazioni dei predetti doveri fondamentali dell'avvocato. Con annesse responsabilità disciplinari. Oltre che in punto di responsabilità civile professionale verso la parte assistita. La sentenza, peraltro, si inserisce in uno scenario ove anzitutto è stato appena approvato il DDL italiano, n. 1126, sull'AI (in corso di pubblicazione in G.U.) che infatti disciplina specificamente l'uso dei sistemi di intelligenza artificiale nel settore della giustizia, cercando di bilanciare innovazione e garanzie fondamentali. Il DDL stabilisce che l'utilizzo di tali strumenti nel processo debba avvenire nel rispetto dei diritti e delle libertà fondamentali, sotto la costante supervisione umana e garantendo la trasparenza e la conoscibilità del loro funzionamento. In particolare, per quanto attiene all'attività giurisdizionale, il DDL prevede che l'impiego dell'IA sia finalizzato unicamente a supportare il giudice nell'organizzazione e semplificazione del lavoro, come la ricerca giurisprudenziale e dottrinale, escludendo categoricamente che possa sostituire l'attività decisionale, che rimane prerogativa esclusiva del magistrato. La sentenza del Tribunale di Torino, sanzionando un uso acritico e negligente dell'IA da parte di un professionista, agisce quasi da monito anticipatore, incarnando proprio lo spirito della nuova legge: l'IA è uno strumento di ausilio, non un sostituto del ragionamento giuridico, e la responsabilità finale della qualità e correttezza dell'atto ricade interamente sul professionista che lo redige e lo deposita. Inoltre, quanto alle spinte per le proposte di rinnovo della deontologia forense e proprio recentemente in discussione su temi come l'uso di AI, la decisione è di stringente attualità. Le proposte in esame prevedono l'introduzione di specifici doveri per l'avvocato che si avvale di sistemi di intelligenza artificiale. Tra questi spiccano: a) il dovere di competenza e aggiornamento, per cui l'avvocato deve possedere una conoscenza adeguata del funzionamento, delle potenzialità e dei limiti dello strumento utilizzato, per poterlo impiegare in modo consapevole; b) il dovere di verifica e supervisione con obbligo al professionista di controllare, verificare e validare sempre l'output prodotto dall'IA; c) il dovere di riservatezza, per cui l'avvocato deve assicurarsi che l'utilizzo di piattaforme di IA non comporti la violazione del segreto professionale, prestando massima attenzione ai dati sensibili e alle informazioni sulla causa che vengono inseriti nel sistema; d) il dovere di informazione al cliente, onde per cui si discute se introdurre l'obbligo per l'avvocato di informare il proprio assistito qualora intenda fare un uso significativo dell'IA per la gestione della sua pratica. La condanna per colpa grave inflitta dal Tribunale di Torino per un ricorso “disordinato” e “inconferente” generato da IA, dunque, assume il valore di un vero e proprio precedente deontologico: afferma con forza un principio che le nuove norme si apprestano a codificare. Ovvero che la responsabilità dell'avvocato non è diminuita, è anzi accresciuta dall'uso delle nuove tecnologie, le quali richiedono un supplemento di diligenza, controllo critico e competenza professionale, anche per giustificare la fiducia riposta dal cliente nel proprio legale. Tutt'altro scenario che la sostituzione dell'uomo con le macchine, in definitiva. |