L'IA entra nel fisco italiano: analisi dell'Atto di indirizzo del MEF 2026-2028
di Lorenzo Romano
Il Ministero dell’Economia e delle Finanze ha pubblicato l’Atto di indirizzo per il conseguimento degli obiettivi di politica fiscale per il triennio 2026-2028. Tra i molteplici filoni tematici affrontati emerge con forza il ruolo assegnato all’intelligenza artificiale come strumento trasversale di modernizzazione (si veda anche l’intervento di ieri di Annalisa Cazzato). Non si tratta di menzioni occasionali: il documento cita l’IA in modo ricorrente e sistematico, attribuendole funzioni operative concrete in ambiti che vanno dall’analisi del rischio fiscale alla gestione del patrimonio immobiliare pubblico, passando per la giustizia tributaria e il controllo doganale. Vale allora la pena analizzare con attenzione cosa prevede davvero questo documento, e dove le ambizioni dichiarate si scontrano con alcune contraddizioni di sistema.
Il dato più rilevante è che l’IA non viene presentata come tecnologia settoriale, bensì come infrastruttura abilitante che attraversa tutte le componenti dell’Amministrazione finanziaria. L’Agenzia delle Entrate è chiamata a introdurre gradualmente sistemi di IA per efficientare i processi di assistenza al contribuente, mentre le attività di accertamento dovranno avvalersi di machine learning, text mining e network analysis per affinare la selezione dei soggetti da controllare. La logica dichiarata è quella della riduzione dei “falsi positivi“: concentrare le risorse sui contribuenti ad alta pericolosità fiscale, alleggerendo il peso burocratico sui compliant e velocizzando, ad esempio, i rimborsi a basso rischio.
Il documento delinea un’architettura di analisi del rischio che integra le banche dati della fiscalità — fatturazione elettronica, Anagrafe dei rapporti finanziari, corrispettivi telematici e pagamenti elettronici - con strumenti algoritmici avanzati. L’Agenzia delle Dogane, nel settore valutario, prevede progetti pilota basati su IA per il contrasto alle movimentazioni illecite di denaro contante. Significativo è il riferimento alla “seamless taxation“ dell’OCSE, ossia l’integrazione della compliance fiscale nei normali processi aziendali o finanziari dei contribuenti: sistemi in cui calcolo e versamento delle imposte avvengono quasi automaticamente, riducendo i margini di errore e di evasione involontaria per le PMI.
Un ambito meno scontato è quello della giustizia tributaria. La banca dati delle sentenze tributarie di merito, pubblica dal giugno 2024, viene indicata come terreno di sperimentazione per strumenti di IA finalizzati alla ricerca del precedente giurisprudenziale. La logica è deflattiva: se contribuenti e difensori hanno accesso agevole ai precedenti, la valutazione della sostenibilità di un ricorso diventa più informata. L’obiettivo ha senso strutturale, ma la sua realizzazione dipende interamente dalla qualità dell’implementazione tecnologica, un elemento che il documento non approfondisce.
Il documento dimostra consapevolezza del quadro regolatorio europeo. L’AI Act è citato esplicitamente e il principio di “non esclusività della decisione algoritmica“ viene enunciato chiaramente: la supervisione umana su ogni fase del processo è descritta come “elemento imprescindibile“. È un’impostazione formalmente corretta, che riflette l’orientamento dell’AI Act nel classificare le applicazioni di IA in ambito fiscale come potenzialmente ad alto rischio — categoria che richiede requisiti stringenti di trasparenza, spiegabilità e supervisione umana.
Fin qui le ambizioni. Occorre però sollevare alcune questioni critiche che il documento, nella sua natura di atto di indirizzo politico, tende inevitabilmente a sorvolare.
Il primo punto riguarda l’interoperabilità delle banche dati: il documento invoca ripetutamente l’integrazione tra i sistemi di Agenzia delle Entrate, Dogane, Guardia di Finanza e Riscossione, affidando il coordinamento a Sogei senza specificare tempi né risorse allocate. Si parla di “ecosistemi digitali strutturati” e di “rete unitaria di settore”. Chiunque conosca l’architettura informatica dell’Amministrazione finanziaria italiana sa quanto questa frammentazione storica sia difficile da superare.
Il secondo punto critico riguarda la formazione del personale. Il documento riconosce che l’impiego dell’IA richiede nuove competenze, e prevede percorsi formativi specifici in ambito digitale per tutto il personale delle agenzie fiscali. Tuttavia, la transizione da un’amministrazione che applica regole a una che governa algoritmi è un salto qualitativo che richiede molto più della formazione tradizionale. I funzionari chiamati a “supervisionare” i sistemi di IA devono essere in grado di comprenderne i meccanismi, valutarne i risultati, identificarne i bias. Il documento non affronta la questione di come si costruisca questa capacità critica interna, limitandosi a menzionare la formazione come leva generica.
Il terzo punto riguarda la trasparenza verso i contribuenti. Se i sistemi di analisi del rischio determinano chi viene sottoposto a controllo, chi riceve un accertamento selezionato da un algoritmo ha legittimo interesse a conoscere almeno le categorie di fattori che hanno determinato la sua profilazione. Il documento non affronta questo tema, limitandosi a citare genericamente il divieto di discriminazioni algoritmiche.
Il quarto punto, forse il più sottile, riguarda il rischio di ottimizzazione distorta. I sistemi di machine learning addestrati su dati storici (ovvero se l’evasione passata è stata accertata prevalentemente in certi settori, certe fasce di reddito o certe aree geografiche) tenderanno a concentrare i controlli futuri negli stessi ambiti dove l’evasione è stata accertata in passato, riproducendo i pattern esistenti. Questo richiede una governance attenta del processo di addestramento e validazione dei modelli, che il documento non descrive.
In conclusione, l’Atto di indirizzo delinea un’agenda coerente con le tendenze internazionali: le amministrazioni fiscali dei Paesi più avanzati stanno investendo massicciamente in analisi predittiva e automazione intelligente. Il limite principale non è nella visione ma nella specificità dell’implementazione. La “governance responsabile dell’IA“ rimane una formula, la supervisione umana un principio enunciato ma non tradotto in procedure. Il vero banco di prova saranno le convenzioni con le Agenzie fiscali: lì si vedrà se l’intelligenza artificiale nel fisco italiano è una trasformazione strutturale o una narrazione di modernizzazione destinata a produrre più comunicati stampa che risultati operativi.


