Ancora a proposito dell’ordinanza del Tribunale di Firenze per l’uso (errato) dell’IA
di Lorenzo Romano
La recente ordinanza del Tribunale di Firenze – sez. Imprese (depositata il 14.3.2025), riguardante l’uso (improvvido) dell’IA in un atto difensivo da parte di un avvocato (che ha citato alcuni riferimenti giurisprudenziali errati suggeriti da ChaptGPT), ha suscitato un’enorme eco, tanto da essere fatta oggetto di diversi commenti (si veda Blast “Quando l’AI inventa precedenti giudiziari e aiuta l’avvocato (a sbagliare)” di Claudio Garau).
Va precisato però che analoga circostanza era già emersa in passato in diversi tribunali (anche italiani) senza che i mass media ne abbiano dato un così grande rilievo.
Gli aspetti messi in luce nel provvedimento giudiziario fiorentino, a nostro parere, sono però marginali rispetto ad un problema ben più complesso, tanto da meritare ulteriori approfondimenti: in quella sede l’indicazione di sentenze inesistenti, ovvero il cui contenuto reale non corrisponde a quello riportato (peraltro ad ulteriore conferma della linea difensiva già esposta dalla difesa), è stata valutata (su sollecitazione dell’avversario) solo in relazione all’articolo 96 c.p.c. ovvero in termini di uso finalizzato a resistere in giudizio in malafede, salvo poi la “benevola” decisione del Collegio che ha considerato l’errata citazione solo diretta a rafforzare un apparato difensivo già noto, senza peraltro determinare alcun danno.
Il fenomeno delle cd. allucinazioni di intelligenza artificiale (che si verifica allorché l’IA inventi risultati inesistenti, ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri) non è tanto un problema di lesione del contraddittorio ovvero del tentativo di influenzare (in buona o malafede) la decisione, quanto piuttosto deve far riflettere sul valore (o sul corretto uso) dell’IA in ambito giudiziario più in generale.
Va così evidenziato (semmai ve ne fosse bisogno) che l’uso dell’IA può riguardare tanto l’attività difensiva, quanto l’attività di decisione da parte del giudice. È proprio l’attività (intellettuale) di interpretazione della norma (generale e astratta) e della sua applicazione al caso concreto (sia del difensore che del decidente) che l’uso dell’IA rischia di mettere in crisi, se non addirittura di cancellare tout court.
Il rischio è che diventi sempre più vincolante il “precedente”, allontanando il nostro sistema di civil law dal principio (anche normativamente fissato) che “la sentenza fa stato tra le parti”, avvicinandolo a quelli di common law, dove il precedente è norma. Anche se già da tempo leggiamo atti difensivi costruiti con il sistema del cd. copia/incolla di precedenti giurisprudenziali ovvero sentenze che sono il collage di altre sentenze, e non piuttosto l’elaborazione di ragionamenti articolati ed autonomi come l’ordinamento giuridico imporrebbe.
Emergono però ancora altri problemi.
Innanzitutto, le fonti dalle quali l’IA attinge i precedenti: come nel caso di Firenze, se la fonte è Internet, il risultato può essere anche errato, come accaduto. Ma vi è di più: la scelta delle fonti da parte dell’IA (alcune piuttosto che altre) può essere limitativa e quindi strumentale.
Inoltre, il riferimento ad una base statistica allontana dalla possibilità che la Giurisprudenza (anche quella di vertice) adotti soluzioni “diverse/nuove”, approdando ai cd. revirement o overruling, distaccandosi da orientamenti consolidati. Ci si chiede: la giustizia predittiva (verso cui si vuole andare) è vera Giustizia?
Tra l’altro, non può non tacersi poi quanto evidenziato dalla dottrina (seppure riferita ad altra questione) ovvero il rischio che “si nasconda, invece, una cronica strategia di verticistico condizionamento dei poteri dispositivi delle parti nel processo e della stessa funzione giudicatrice dei magistrati di merito, strumentalmente destinati ed asserviti ad un ruolo ventriloquiale con l’apice del terzo grado” (C. Glendi in Riforma della giustizia tributaria. PNRR a rischio?).
Così come non può nascondersi la connessa questione della trasparenza degli algoritmi già approdata più volte innanzi al Consiglio di Stato; sono elementi di minima garanzia per ogni ipotesi di utilizzo di algoritmi in sede decisoria pubblica:
a) la piena conoscibilità a monte del modulo utilizzato e dei criteri applicati;
b) l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo.
Da ultimo, ricordiamo che il recente disegno di legge (approvato dal Senato ed in discussione alla Camera), all’articolo 13, prevede che l’IA è solo uno strumento “di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera” ed il suo utilizzo da parte del professionista deve essere reso noto al cliente.
Dall’altra parte, l’articolo 15 prevede che “nei casi di impiego dei sistemi di intelligenza artificiale nell'attività giudiziaria è sempre riservata al magistrato ogni decisione sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti”.
Mentre per il Regolamento UE 1689/24 (AI Act) “l'utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all'indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un'attività a guida umana”.
L’applicazione della legge – che passa attraverso la fondamentale attività di interpretazione – non può, dunque, che risultare un’attività propria (riservata) dell’umano.
-
Foto di Gerd Altmann da Pixabay