Prove di resistenza del diritto contro l’"abuso di intelligenza artificiale”
di Marco Cramarossa e Lorenzo Romano
La narrazione iniziale sull’ingresso dell’Intelligenza Artificiale (IA) nel mondo della giustizia italiana è stata inizialmente un coro monocorde di promesse: “riduzione dei costi ed efficienza” per un sistema notoriamente elefantiaco. L’idea era che l’IA generativa potesse fungere da turbo per le professioni legali, snellendo la ricerca e la stesura degli atti. Tuttavia, l’atterraggio è stato brutale e sorprendentemente rapido.
L’unica certezza emersa in questa fase pionieristica è che l’uso “sconsiderato” di ChatGPT e sistemi similari sta costando caro agli avvocati. L’aspirazione al risparmio si è scontrata con la realtà delle sanzioni per ricorsi intrisi di citazioni “inconferenti” e, peggio ancora, di sentenze inesistenti, vale a dire le famigerate allucinazioni algoritmiche.
La giustizia italiana, spesso criticata per la sua lentezza nell’adottare l’innovazione, si è però rivelata rapidissima nel sanzionare l’abuso: la tutela della qualità e della serietà processuale è prioritaria rispetto all’impulso acritico all’innovazione tecnologica.
La rapida identificazione di atti redatti meccanicamente da strumenti di IA ha rivelato la debolezza intrinseca dell’approccio basato sulla delega totale. I tribunali (rammentiamo Firenze e Torino, ma da ultimo anche Latina e Roma) non hanno impiegato molto a smascherare quello che è stato definito l’uso “a stampone” dell’Intelligenza Artificiale.
Il caso di Latina è emblematico. Infatti, un ricorso, descritto come simile ad altre “centinaia di giudizi patrocinati dal medesimo difensore”, è risultato essere “evidentemente redatto con strumenti di intelligenza artificiale” e con una qualità dell’output definita “scarsa”. Il documento era costituito da un “coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in gran parte inconferenti rispetto alla causa”.
L’IA, lo strumento teoricamente progettato per migliorare la precisione e l’organizzazione documentale, ha in realtà prodotto confusione e disordine logico, facilmente rilevabili dall’occhio umano. Il paradosso è che l’avvocato, cercando la scorciatoia digitale per la massima efficienza, ha finito per generare uno scritto difensivo di infima qualità, un prodotto seriale che ha immediatamente sollevato il sospetto di negligenza grave.
Di fronte a ricorsi palesemente superficiali e, in alcuni casi, infondati nelle loro fonti, i tribunali non si sono limitati al rigetto formale dell’istanza, ma hanno optato per una strategia giuridica ben più aggressiva e punitiva, applicando la mannaia dell’articolo 96, comma 3, c.p.c., ovvero la norma che permette di sanzionare la parte che ha agito in giudizio con “malafede o con grave negligenza”.
Ebbene, l’applicazione sistematica dell’articolo 96 c.p.c. in questi contesti stabilisce un precedente giurisprudenziale importante: il mancato controllo umano sull’output generato dall’IA è equiparato alla colpa grave. Per i professionisti, questo segnale è inequivocabile: la delega algoritmica, priva del filtro critico e della supervisione umana, è vietata e, di conseguenza, l’assunzione di responsabilità per ogni fonte citata resta in capo all’avvocato.
Non tutti i tribunali hanno però assunto la stessa postura. Ad esempio, il Tribunale di Roma (come già Firenze), pur rigettando un ricorso esplicitamente “redatto con supporto dell’intelligenza artificiale,” per la sua “assoluta genericità,” ha scelto di non sanzionare l’utilizzo dell’IA ex se.
Questa sfumatura è cruciale: il rigetto per “assoluta genericità” dimostra che l’IA non è proibita come strumento di supporto. La chiave per evitare le sanzioni non è evitare la tecnologia, ma garantire che l’output, anche se generato, sia sufficientemente specifico, pertinente e verificato, tale da non poter essere accusato di negligenza o malafede. La genericità, pur non sanzionata in questo caso specifico, è stata comunque sufficiente a causare il fallimento del ricorso.
Il tema non riguarda solo gli avvocati. Infatti, un quotidiano nazionale ha segnalato che è già in corso il primo procedimento disciplinare nel suo genere contro un giudice reo di aver assunto una decisione in primo grado citando “precedenti inesistenti”. L’errore è stato individuato e verificato dalla Cassazione, spingendo il Procuratore Generale ad avviare un’azione disciplinare per “grave e inescusabile negligenza”.
Questo episodio svela un rischio istituzionale ben più grave rispetto all’errore commesso da un avvocato, e ciò si ricava anche dal confronto tra gli articoli 13 e 15 della Legge italiana sull’IA.
Infatti, la L. 132/2025 disciplina all’articolo 13 l’uso dell’IA da parte dei professionisti, analogamente l’articolo 15 prevede che “nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”.
D’altra parte, da tempo il Consiglio Nazionale Forense ha lanciato un monito durissimo, chiedendo che le sentenze emesse con l’ausilio improprio e non controllato dell’IA siano dichiarate nulle, mettendo così in discussione la stessa legittimità processuale di pronunce basate su fonti inesistenti.
La rivoluzione dell’IA è innegabilmente il futuro del diritto, ma il presente impone un rigoroso esame di coscienza e una gestione del rischio estremamente prudente da parte di tutti gli operatori del diritto. Tutti (professionisti e giudici) dovranno adottare un protocollo di lavoro che elevi il controllo umano a requisito legale fondamentale, trattando l’IA come un sofisticato assistente per la classificazione e la ricerca, non come un partner decisionale.
Pertanto, l’investimento più importante oggi è la formazione professionale non sulla generazione di prompt perfetti, ma sul riconoscimento dei “segnali di fumo” degli output dell’IA, ovvero quelle citazioni perfette nella sintassi, ma inesistenti nella realtà. La vera competenza digitale per il professionista non risiede (solo) nella capacità di utilizzo dell’algoritmo, quanto piuttosto nella capacità di dubitare scientificamente di esso.