AI tra LLM e allucinazioni nella recente giurisprudenza di merito

La Redazione
19 Marzo 2026

I Tribunali di Siracusa e di Ferrara esaminano, rispettivamente, le questioni dell'utilizzo dell'AI generativa senza adeguata verifica dell'output e la produzione in giudizio di materiale probatorio «costruito» con l'AI. 

Trib. Siracusa, 20 febbraio 2026, n. 338

Costituisce ormai fatto notorio, acquisito alla generalità dei consociati e certamente esigibile da un operatore professionale del diritto, che i modelli di intelligenza artificiale generativa (c.d. Large Language Models) non costituiscono banche dati giurisprudenziali da cui estrarre precedenti e citazioni, bensì strumenti di generazione automatica del linguaggio fondati su meccanismi inferenziali di natura statistica e probabilistica. Tali sistemi, in altri termini, non «sanno» né «ricordano» alcunché, ma si limitano a produrre sequenze di testo statisticamente plausibili sulla base di miliardi di parametri di addestramento, senza avere accesso - ordinariamente - ad alcuna base di conoscenza verificata o verificabile. È per tale ragione che i modelli di intelligenza artificiale generativa sono notoriamente soggetti al fenomeno delle c.d. «allucinazioni», consistente nella generazione di contenuti formalmente plausibili ma sostanzialmente falsi o inesistenti, ivi comprese citazioni giurisprudenziali mai rese.

L’utilizzazione acritica di tali strumenti, senza la doverosa verifica dell’attendibilità degli output mediante consultazione delle fonti primarie (banche dati giuridiche, repertori ufficiali, CED della Corte di Cassazione), integra gli estremi della colpa grave, non potendosi più tollerare, allo stato attuale delle conoscenze tecnologiche diffuse, errori di tale natura, i quali - lungi dal costituire meri refusi o imprecisioni - aggravano significativamente l’attività del giudice e delle controparti, costretti a verificare l’attendibilità di ogni singola citazione e a controdedurre su precedenti inesistenti.

Trib. Ferrara, 20 febbraio 2026

Nel procedimento ex art. 696-bis c.p.c., l'output di un sistema di intelligenza artificiale generativa - quale la 'conversazione con ChatGPT' prodotta in giudizio - non integra un documento ai sensi del codice di procedura civile e non può assurgere a prova, neppure atipica, del fumus boni iuris, trattandosi di contenuto algoritmico intrinsecamente non verificabile e affetto dal rischio di «allucinazioni», privo di autonoma attendibilità e comunque insuscettibile di sostituire l'apporto valutativo umano. L'eventuale utilizzo di tali strumenti da parte del difensore richiede una verifica critica e responsabile del loro esito e la piena informazione del cliente, in conformità ai principi di human oversight e responsible AI sanciti dall'AI Act (Reg. UE n. 2024/1689) e dalla l. n. 132/2025, ivi compresi gli obblighi informativi di cui all'art. 13, comma 2.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.