L’utilizzo dell’intelligenza artificiale (IA) in ambito fiscale solleva questioni complesse in merito alla responsabilità e alla sanzionabilità in caso di violazioni tributarie. La difficoltà principale risiede nell’individuare il soggetto responsabile quando gli algoritmi generano (o contribuiscono a generare) errori e comportamenti colposi, quando non addirittura fraudolenti. Un tema che, peraltro, non riguarda esclusivamente il perimetro delle vicende fiscali, considerato che, ad oggi, il campo di applicazione che più di altri è interessato dal leviatanico intreccio tra automatismo algoritmico e intestazione della responsabilità è certamente quello delle auto a guida autonoma.
Partiamo, dunque, dalla responsabilità per avvicinarci al perimetro tributario. Premessa indispensabile è che, allo stato attuale, non si può attestare con certezza che una dichiarazione elaborata mediante sistemi di IA sia pienamente attendibile senza ipotizzarne controlli da parte dell’uomo. Ciò posto, la dottrina si è però già interrogata su quali effetti potrebbe avere, per esempio, una errata registrazione contabile di dati che impattano tanto sul bilancio quanto sulla dichiarazione dei redditi o una non corretta predisposizione di comunicazioni periodiche la cui paternità sia attribuibile all’IA. La risposta, a legislazione vigente, non implica l’impunibilità del contribuente, considerato che il soggetto che sottoscrive gli atti tributari, inclusa la dichiarazione, resta pur sempre responsabile, semmai in concorso con altri. Tuttavia, in caso di errori derivanti dalle manchevolezze di un software o da algoritmi non adeguatamente addestrati, i rispettivi fornitori potrebbero essere chiamati a rispondere per i danni e per le violazioni normative. Anche gli intermediari fiscali, che impiegano l’IA per gestire gli adempimenti per conto dei clienti (dando per scontata la specifica informativa da fornire a questi ultimi), potrebbero essere ritenuti responsabili per errori derivanti dall’uso di tali sistemi, soprattutto se risultano omesse le dovute (umane) verifiche.
Occorre, dunque, distinguere i diversi possibili modelli di interazione, ovvero quelli rispetto ai quali la macchina rappresenta uno strumento di mero ausilio al contribuente e al professionista, che mantengono però il controllo sui risultati, da quelli in cui il soggetto umano viene sostituito. Al contempo, la distinzione deve pure considerare, da un lato, le ipotesi in cui il ricorso all’automatismo risulta essere una scelta, sia nella prospettiva ancillare che sostitutiva, e, dall’altro, i casi in cui vi sia invece un vero e proprio obbligo di legge. È di plastica evidenza che il diverso ruolo dell’utente umano rispetto all’output fornito dagli algoritmi declinerà una diversa responsabilità dello stesso. Pertanto, nonostante ci si avvicini a passo veloce a uno scenario sempre più popolato dalla crescente e piena autonomia degli strumenti basati sull’IA, la responsabilità resterà in capo all’uomo, almeno fino a che lo stesso, per obbligo o per scelta, avrà la possibilità (effettiva e concreta) di verificare e validare i dati e i risultati generati dalla macchina.
L’elemento soggettivo rappresenta, al contempo, il fondamentale presupposto della responsabilità derivante dall’illecito amministrativo e il limite stesso della punibilità, sia a titolo di responsabilità amministrativa (con un impianto sanzionatorio “afflittivo”) che penale del contribuente, in ossequio all’articolo 27 della Costituzione. Principio codificato, da un lato, dall’articolo 2, commi 2 e 2-bis, del Dlgs 472/1997, posto che risponde dell’illecito la persona fisica che abbia commesso la violazione o la persona giuridica titolare del rapporto fiscale che si assume violato (fatte salve la solidarietà e la sussidiarietà). Dall’altro, in termini di colpevolezza, dal successivo articolo 5 del ridetto decreto legislativo, che al comma 1 prevede che “Nelle violazioni punite con sanzioni amministrative ciascuno risponde della propria azione od omissione, cosciente e volontaria, sia essa dolosa o colposa. Le violazioni commesse nell’esercizio dell’attività di consulenza tributaria e comportanti la soluzione di problemi di speciale difficoltà sono punibili solo in caso di dolo o colpa grave”, la cui latitudine è poi delimitata dai successivi commi. Come si nota, non è per nulla indifferente il tema del controllo che il contribuente e il professionista mantengono rispetto all’IA, ovvero la sussistenza dell’elemento soggettivo ai fini della punibilità dell’illecito.
Efficacemente è stato già evidenziato dalla dottrina (M. Pontillo) che - pur non ignorando l’orientamento giurisprudenziale (ex multis Cass. n. 9942/2022) che ritiene “sufficiente la coscienza e la volontà della condotta, senza che occorra la dimostrazione del dolo o della colpa” - ove si assumesse la punibilità del contribuente per l’illecito indotto o, peggio, commesso da un sistema artificiale, si aprirebbe un sentiero che condurrebbe a forme di responsabilità oggettiva, in palese antitesi con la richiamata norma. Quanto appena rilevato almeno tutte le volte in cui alla condotta formale non si possa attribuire un effettivo coinvolgimento psicologico (cioè coscienza e volontà dell’azione illecita), come nei casi di opacità o di piena autonomia della decisione algoritmica, al pari dell’affidamento, scevro da negligenza, imprudenza o imperizia, a un software considerato attendibile per svolgere attività complesse, con tutta la (diabolica) difficoltà probatoria di doversi misurare con algoritmi evoluti.
Il recente intervento del legislatore in materia di sanzioni non ha sfiorato, neanche in termini di principi generali, la responsabilità e la riferibilità della colpa rispetto a illeciti commessi (in tutto o in parte) da sistemi di IA, né, a parere di chi scrive, possono ritenersi efficacemente applicabili le cause di non punibilità previste dall’articolo 6 del Dlgs 472/1997.
Disattendendo l’antico divieto, è forse il caso di parlare al “manovratore”.