

Scarica gratuitamente l’articolo in formato PDF.
Newsletter n. 09 / Maggio 2025
a cura dello Studio Legale Tributario Torcello
in collaborazione con Confindustria ABRUZZO – Chieti, Pescara e Teramo
Questa newsletter porta la firma dell’Avvocato Davide TORCELLO e dell’Avvocato Vittorio DI VIRGILIO
Il Decreto Legislativo n. 13/2024, che stabiliva le nuove disposizioni per l’accertamento tributario, riguardava anche il concordato preventivo biennale; dando attuazione alle direttive previste dall’articolo 17 della Legge n. 111/2023 (la quale delegava il Governo alla riforma fiscale). In tale contesto, sono stati delineati principi e criteri per il miglioramento dei procedimenti di accertamento; l’adesione al sistema fiscale e l’adempimento spontaneo da parte dei contribuenti.
Le modifiche normative introdotte riguardano, in sintesi, la semplificazione del processo di accertamento; l’introduzione del principio del contraddittorio in maniera generalizzata, il riordino delle previsioni normative relative all’analisi del rischio, nonché il potenziamento delle tecnologie digitali per incentivare l’adempimento volontario. Questi principi, combinati con il regolamento UE n. 1689/2024 sull’Intelligenza Artificiale (AI Act), definiscono un quadro normativo in rapida evoluzione, sollevando interrogativi critici su degli aspetti principali (quali la limitazione delle garanzie giuridiche per i contribuenti, la non trasparenza degli algoritmi utilizzati e i limiti legali alla scelta delle decisioni).
L’introduzione dell’IA, nell’ambito dell’accertamento tributario, ha l’obiettivo (teorico) di migliorare l’oggettività dell’individuazione dei casi di evasione fiscale; ma, nella pratica, l’adozione di questi strumenti solleva non pochi dubbi in merito alla possibile erosione delle tradizionali garanzie procedurali di difesa dei contribuenti.
Nel contesto dei sistemi utilizzati dall’Agenzia delle Entrate, come il progetto pilota Ve.Ra., si utilizzano modelli predittivi per analizzare una vasta quantità di dati. D’altra parte, l’opacità sui parametri di valutazione espone i contribuenti a taluni svantaggi, quali l’imposibilità di potere vagliare ed eccepire i presupposti fattuali fondanti l’accertamento, che non sono esplicitamente indicati negli atti ufficiali; nonché la difficoltà nell’identificare errori statistici e logici motivazionali nelle conclusioni raggiunte dagli algoritmi.
L’art. 17 della Legge n. 111/2023 promuove l’uso dell’IA nel contrasto all’evasione fiscale; ma non introduce, tuttavia, adeguati correttivi per tutelare il contraddittorio, rischiando di entrare in conflitto con il principi costituzionali di tutela giurisdizionale e di giusto processo.
L’Agenzia delle Entrate, d’altro canto, ha ribadito come la modellazione statistica dei dati non generi automaticamente provvedimenti impositivi. Difatti, il personale umano controlla e confronta tali dati. Le preliminari analisi informatizzate evidenziano quei contribuenti che presentano elevate possibilità di violazione di norme tributarie, sostituendo i dati personali con codici fittizi; ciò al fine di non associare quei dati finanziari ad uno specifico nominativo.
Le perplessità che emergono a riguardo, sia da parte degli addetti ai lavori che dei contribuenti, sono quelle legate, da un lato, alla qualifica e alla preparazione del personale delegato a tale operazioni di supervisione e controllo (in quanto dovrebbe essere adeguatamente formato e dotato di un livello elevato di “alfabetizzazione” in materia di intelligenza artificiale); dall’altro, alla scelta degli algoritmi (o, meglio, dei criteri di programmazione alla base degli stessi), che ne consentono l’adattamento attraverso l’elaborazione costante dei dati immessi.
Sul punto, anche il Consiglio Nazionale dei Dottori Commercialisti ha evidenziato che l’attuale generazione di IA, utilizzata in ambito fiscale, non permette una verifica accurata delle correlazioni statistiche applicate.
Anche se, il predetto Regolamento europeo sull’IA classifica i sistemi di accertamento tributario come non ad alto rischio, viene comunque riconosciuto un pericolo intrinseco per i diritti legati alla loro applicazione. Per bilanciare quanto espresso, il GDPR (art. 13) impone alle amministrazioni di fornire informazioni chiare e comprensibili sulle logiche algoritmiche. Tuttavia, nella pratica, le spiegazioni rese da queste risultano spesso troppo generalizzate e circoscritte a descrizioni superficiali dei modelli statistici; senza permettere un’analisi dettagliata dei dati e delle variabili utilizzate.
Pertanto, la Commissione di studio CNDCEC “Accertamento e rapporti con l’amministrazione centrale e locale” ha pubblicato, nel novembre del 2024, un documento di ricerca inerente l’applicazione dell’intelligenza artificiale agli accertamenti tributari; proponendo di creare un Organismo Tecnico Nazionale incaricato di certificare l’affidabilità dei sistemi di intelligenza artificiale impiegati dall’Agenzia delle Entrate. Questa figura istituzionale avrebbe il compito di monitorare e validare il fatto che gli algoritmi utilizzati siano allineati con i principi giuridici e le normative in vigore, assicurando la protezione dei diritti dei contribuenti; nonché l’adeguatezza degli strumenti tecnologici alle leggi fiscali.
Il ruolo principale dell’organismo sarebbe quello di verificare che l’evoluzione e l’applicazione degli algoritmi avvengano nel rispetto di alcune previsioni fondamentali, tra cui:
I limiti ai poteri di accertamento dell’Agenzia delle Entrate, garantendo che siano in linea con i principi costituzionali italiani e le normative europee (come la Carta dei diritti fondamentali dell’Unione Europea); con particolare attenzione ai tributi armonizzati.
La protezione dei dati personali, assicurando che il trattamento delle informazioni avvenga nel rispetto del GDPR e delle normative europee in materia di privacy.
La coerenza con le disposizioni tributarie sostanziali, verificando che gli algoritmi rispettino le normative che definiscono i diritti e gli obblighi fiscali dei contribuenti.
In tal modo, l’introduzione di un organismo di certificazione indipendente permetterebbe di superare le problematiche legate alla mancanza di trasparenza sugli algoritmi. Se certificato da esperti, un algoritmo potrebbe essere considerato pienamente conforme al quadro giuridico; riducendo il rischio di errori o di applicazioni ingiustificate delle norme fiscali.
Seguendo quanto suggerito dalla Corte Costituzionale, che ha più volte sottolineato l’importanza di un contributo tecnico per l’interpretazione delle normative tributarie, l’organismo dovrebbe includere rappresentanti di tutte le categorie interessate. Questi esperti, essendo direttamente coinvolti nelle dinamiche fiscali, avrebbero un interesse prioritario a garantire che l’utilizzo dell’intelligenza artificiale nel settore tributario rispetti i principi fondanti dell’ordinamento giuridico; tutelando gli interessi dei contribuenti e il corretto funzionamento dell’intero sistema fiscale.
In un futuro ormai prossimo i professionisti, al fine di garantire un’adeguata consulenza e difesa in ambito tributario ai propri assistiti, dovranno probabilmente acquisire specifiche competenze nell’interpretare i linguaggi algoritmici e i controlli decisionali adottati; tali da potere contestare ed impugnare gli accertamenti fiscali notificati ai propri clienti (assicurandosi, in tal modo, che non vengano lesi i diritti fondamentali e costituzionalmente garantiti dei contribuenti).
Avvocato Vittorio DI VIRGILIO
Scarica gratuitamente l’articolo in formato PDF.