La vecchia allucinazione analogica stringe la mano alla nuova confabulazione algoritmica
di Marco Cramarossa
Immaginiamolo questo collega d’altri tempi. Domenica sera, sigaretta accesa, formulario consunto, commentario del TUIR aperto sul tavolo. Deve chiudere un ricorso. Ricorda “più o meno” una Cassazione favorevole, forse Sezioni Unite, forse no, di certo “molto citata in dottrina”. Non la va a cercare nella banca dati, si fida del riassunto in un vecchio articolo e la butta dentro. Numero di sentenza a memoria, anno approssimativo, principio di diritto ricostruito per come “dovrebbe” essere. Questa, a ben vedere, era (è) già un’allucinazione analogica. Solo che allora la chiamavamo con nomi più educati: “errore materiale”, “imprecisione”, “svista redazionale”.
Oggi la stessa dinamica prende la forma del prompt eseguito sulla piattaforma di una IA: “indicami le sentenze della Cassazione che affermano che…” e il modello generativo, diligente come un praticante insicuro ma entusiasta, produce tre sentenze inesistenti con massime perfettamente plausibili (e accondiscendenti rispetto all’umano interlocutore). All’improvviso la chiamiamo “allucinazione”, come se il problema fosse nuovo e non semplicemente antico ma industrializzato.
Nell’ambito della vecchia allucinazione analogica, l’umano che cita a memoria, o che si fida di una dottrina che non ha verificato, vive dentro un certo ecosistema cognitivo. La memoria è quasi sempre ricostruttiva, più che fotografica. Ogni volta che “ricordiamo” una sentenza (ma il riferimento va a qualsiasi altra fonte informativa) la riscriviamo un po’ a modo nostro, la pieghiamo alla trama argomentativa che stiamo tessendo. In più, nelle professioni giuridico-fiscali, c’è sempre stata una catena di fiducia, simile al celebre brano di Branduardi dal titolo “Alla fiera dell’Est”, ovvero io mi fido dell’autore che si fida della massima che si fida del relatore che si fida del tirocinante che ha riassunto il caso presente sulla rivista che non per due soldi il dominus comprò.
Questa catena è un gigantesco “quanto basta” epistemico. Si basa su principi euristici. Quindi, se la rivista è seria, allora la sentenza esiste se tutti citano quella massima; dunque, sarà vera se la Cassazione la richiama in un’altra pronuncia e, pertanto (infine), non serve risalire al testo integrale.
L’allucinazione umana è figlia di questo intreccio che è composto dai fili di una memoria fallibile, dalla pigrizia nel controllare, dalla pressione imposta dal tempo e, non da ultima, dall’autorità percepita delle fonti intermedie. Ontologicamente è un fenomeno interno a un soggetto che ha intenzioni, giudizio, coscienza della propria responsabilità. Il professionista, almeno in teoria, sa di dover verificare e decide di non farlo o di farlo male. Anche quando la svista è in buona fede, c’è una colpa più o meno lieve nell’architettura del controllo. L’errore “nasce” dentro una mente che potrebbe fare altrimenti.
Invece, nel perimetro della nuova allucinazione algoritmica, il modello generativo non ricorda e non dimentica. Non ha memoria autobiografica, né coscienza dei propri limiti. Un’allucinazione è la naturale conseguenza di un meccanismo che fa una cosa molto semplice, atteso che, dato un determinato contesto informativo digitale, prevede la sequenza successiva più probabile in base all’addestramento ricevuto. Se in addestramento ha visto molti testi in cui una tesi viene sostenuta inventandosi riferimenti vaghi a “Cass. n. xxx/2010”, continuerà la melodia allo stesso modo. Non perché “voglia mentire”, ma perché sta solo completando una sequenza probabile. La verità non entra mai in scena come categoria interna al modello. C’è solo probabilità condizionata. Verranno fatte citazione che “somigliano” a sentenze vere, ma non hanno nessuna garanzia di corrispondere a un oggetto nel mondo.
Chiamarla “allucinazione” è antropomorfismo comodo. In realtà è più una confabulazione algoritmica. In termini ontologici, in cosa differiscono davvero le due allucinazioni? E qui arriva la parte filosoficamente scomoda. Perché, a livello fenomenologico, l’effetto per chi legge è simile a una citazione che non esiste, a un precedente giurisprudenziale inventato o a un “si è sempre detto” senza alcun fondamento. Tuttavia, le due allucinazioni vivono però in universi molto diversi. In buona sostanza, dove l’errore umano è un inciampo nella vita di un soggetto, l’allucinazione dell’IA è una manifestazione ordinaria di un sistema che fa esattamente ciò per cui è stato progettato, solo applicato a un contesto in cui (noi) chiediamo verità e dove invece lui offre verosimiglianza.
Ciò posto, il confine sporca comunque le mani. Perché il professionista che copia una citazione da una rivista e il professionista che copia una citazione da un modello generativo stanno facendo, in fondo, la stessa cosa. In entrambi i casi si affidano a un mediatore senza controllare la fonte primaria. In entrambi i casi c’è un affidamento, spesso acritico, verso un oggetto percepito come autorevole: la dottrina e il massimario, prima, il software e l’IA, oggi.
L’Unione europea, con l’AI Act, non si limita a dire “non sbagliate con l’IA”. Disegna un regime di responsabilità distribuite. La Legge 132/2025 fa, più o meno, la stessa cosa, con una sovrapposizione orizzontale con la normativa unionale che potrebbe creare più problemi di quelli che in linea di principio avrebbe intenzione di risolvere. In generale, la vera novità non è l’esistenza di allucinazioni ma il fatto che il diritto le mette al centro di un dovere di vigilanza tecnicamente consapevole e responsabile.
Forse però la linea di confine tra le allucinazioni dell’umano e quelle dell’IA non sta negli errori che producono, ma negli alibi che ci concediamo. L’umano si è raccontato per anni la favola dell’autorità: se sta scritto, allora è vero. Ora rischiamo di raccontarci la favola della tecnologia, nel cui ambito, se l’ha detto l’IA, qualcosa vorrà pur dire. In realtà entrambe le favole rappresentano le due facce di una stessa medaglia, vale a dire l’astenica rinuncia a prendersi la fatica di controllare, di dubitare, di tornare alla fonte, di dire “non lo so”. L’IA ci obbliga (paradossalmente e) brutalmente a guardare in faccia questa rinuncia.
Il vero compito, allora, non è demonizzare le allucinazioni algoritmiche, né assolvere quelle umane.
È costruire pratiche, regole e culture professionali in cui ogni testo prodotto – da un collega, da un commentario, da un modello generativo – sia solo l’inizio di un lavoro critico, non il suo surrogato.
Perché alla fine, tra umano e macchina, l’unica distinzione che conta non è chi allucina di più, ma chi decide di svegliarsi. E l’uomo è, almeno per il momento, l’unico tra i due “soggetti” che può farlo.


