Quando l’AI inventa precedenti giudiziari e aiuta l’avvocato (a sbagliare)
Di Claudio Garau
Il ricorso all’intelligenza artificiale è sempre più frequente. Utilizzata per rispondere alle domande più disparate, non è certamente – come si sa – infallibile. Gli algoritmi sbagliano, anche perché – seppur in grado di formulare ragionamenti e frasi in autonomia – le risposte dell’AI hanno sempre un fondamento nei dati forniti dall’uomo, i quali non sono esenti da bias o imprecisioni.
In altre parole, l’odierna AI è una sorta di “estensione” delle informazioni e del pensiero umano, non un’entità che ragiona in modo del tutto indipendente. E può sbagliare nel ricostruire elementi in modo non aderente alla realtà, oppure…inventando affermazioni di sana pianta.
Ecco perché un professionista non può affidarsi ciecamente al responso di un’AI, specialmente se si tratta di materia legale, per sua natura estremamente rigorosa e legata ai più recenti aggiornamenti normativi e giurisprudenziali.
Con un’ordinanza del 14 marzo scorso, il tribunale di Firenze – Sezione Imprese – ha contribuito a gettare le prime basi del filone giurisprudenziale sulle implicazioni pratiche dell’uso dell’intelligenza artificiale, con un monito contro il ricorso talvolta troppo “disinvolto” ai più evoluti strumenti tecnologici. Infatti, il giudice ha affrontato il tema della responsabilità aggravata per uso improprio di ChatGPT nei documenti di causa.
In particolare, il Collegio ha valutato se l’inserimento di riferimenti giurisprudenziali errati negli atti difensivi – dopo una ricerca effettuata con gli strumenti di AI – possa comportare la condanna per il comportamento illecito di cui all’art. 96 c.p.c., ossia la cd. lite temeraria.
Nel caso in oggetto il reclamante – nell’ambito di una articolata disputa in tema di violazione di diritto d’autore e marchio nonché di sequestro di merce contraffatta raffigurante vignette di sua proprietà – aveva chiesto la condanna della società soccombente per la responsabilità aggravata di cui all’articolo appena citato. Il motivo è ben preciso: in sede di comparsa di costituzione, il difensore della società – come accennato – aveva inserito riferimenti giurisprudenziali non pertinenti nelle memorie difensive.
In breve: i contenuti di tali precedenti non avevano riscontro in fatti reali, proprio perché quanto citato in essi non era mai accaduto o non corrispondeva alla realtà. Nel caso in oggetto, si legge nella pronuncia della Sezione Imprese, ChatGPT avrebbe inventato: “numeri asseritamente riferibili a sentenze della Corte di Cassazione inerenti all’aspetto soggettivo dell’acquisto di merce contraffatta il cui contenuto, invece, non ha nulla a che vedere con tale argomento”.
L’AI aveva sbagliato nel citare fonti giurisprudenziali inesistenti e chi aveva effettuato la ricerca su ChatGPT – una collaboratrice dello studio legale, si legge nell’ordinanza – a insaputa del difensore aveva omesso il controllo della veridicità delle stesse fonti.
Per il reclamante quanto basta ad integrare quella mala fede della controparte e quell’abuso dello strumento processuale, puniti dall’articolo 96 di cui sopra con condanna al risarcimento dei danni patrimoniali e morali.
Ebbene, la pronuncia della Sezione Imprese del tribunale di Firenze è interessante anzitutto perché considera il fenomeno delle “allucinazioni di intelligenza artificiale”, ossia le distorsioni generative nei sistemi algoritmici: ChatGPT può dare risposte erronee e inesistenti, e confermarle in una seconda interrogazione. Sbaglia e – testardamente – non fa alcun passo indietro per correggersi, inducendo in errore – a sua volta – l’utente.
Non solo. Il giudice fiorentino ha spiegato che tali riferimenti giurisprudenziali errati, contenuti nelle memorie del giudizio di reclamo, corroboravano una strategia difensiva della società convenuta, che erà già nota ai giudici e che era rimasta – in verità – immutata fin dalle prime battute dell’iter in tribunale. La svista, insomma, non avrebbe potuto condizionare – in modo determinante – il contenuto dell’ordinanza.
In sostanza, tale apparato difensivo non mirava a ingannare i giudici con l’uso improprio dell’AI, oppure a resistere in giudizio in mala fede, bensì – come indicato nell’ordinanza del tribunale di Firenze – si fondava sull’assenza di dolo nella vendita delle magliette raffiguranti le vignette del reclamante. Non a caso nella decisione si legge che: “La reclamata, pur riconoscendo l’omesso controllo sui dati così ottenuti, ha chiesto lo stralcio di tali riferimenti, ritenendo già sufficientemente fondata la propria linea difensiva”.
Ad alleggerire la posizione della società convenuta era anche il fatto per cui il reclamante non aveva dato alcuna prova – neanche generica – dei danni patiti, a causa dell’attività difensiva della controparte. Ma la responsabilità aggravata ex articolo 96 c.p.c., primo comma, ha natura extracontrattuale e impone – come rimarca la Sezione Imprese – la prova sia dell’an che del quantum del danno, laddove questi elementi non siano desumibili dagli atti di causa.
Ecco perché, nonostante la richiesta di condanna ex articolo 96 c.p.c. e pur con un negativo giudizio “morale” sul maldestro operato dello studio legale, il tribunale ha posto a fondamento della sua decisione la mancanza sia di mala fede della società che di una prova specifica del danno (e del nesso causale tra condotta illecita e danno). Il giudice ha così concluso per il rigetto della domanda del reclamante e la non applicazione del citato articolo al caso di specie.
L’ordinanza del giudice fiorentino, vero e proprio provvedimento “apripista” in materia di uso di AI negli atti giudiziari, stimola alla riflessione. Non si può vietare il ricorso a strumenti come ChatGPT, ma usarli significa anche controllare la qualità del servizio offerto. E non va dimenticato che l’esperienza e l’abilità di ragionamento giuridico di un avvocato non possono essere sostituite da un’intelligenza artificiale.
Le citate “allucinazioni di intelligenza artificiale” potenzialmente compromettono l’attività di difesa del cliente: inserire negli atti dati imprecisi o palesemente non corrispondenti alla realtà, magari per risparmiare tempo e concentrarsi su altre attività, non è – a ben vedere – eticamente accettabile e deontologicamente corretto. Anzi, la delega incondizionata ai mezzi informatici potrebbe palesare profili di violazione dei doveri di diligenza professionale.
Il rischio concreto è che da un uso eccessivo, non ponderato e sfacciatamente miope di strumenti invero imperfetti e non infallibili, come ChatGPT, si sfoci in decisioni giudiziarie inficiate da errori, sviste e vizi che non contribuiscono alla buona fama del ceto forense nel suo complesso.
Affidarsi ciecamente alla tecnologia, senza alcun filtro critico, è come guidare a fari spenti nella notte: si può sperare nella buona sorte, ma il rischio di uno schianto è altissimo. Il punto non è demonizzare l’AI, ma usarla con intelligenza e con un controllo rigoroso. In caso contrario, il futuro delle aule di tribunale potrebbe essere dominato non dalla giustizia, ma dagli errori generati da un algoritmo. Siamo sicuri di voler imboccare questa strada?