Sommario: 1) Approvazione del regolamento europeo sulla AI; 2) Conseguenze sul “sistema giustizia”; 3) La tecnologia applicata al settore legale; 4) La concorrenza tra AI e Intelligenza Umana; 5) La applicazione di AI nei procedimenti tributari e nei giudizi tributari.

1)Approvazione del Regolamento europeo sulla AI.
Con il recente voto del 13 marzo 2024 il Parlamento Europeo ha approvato in via definitiva il regolamento Europeo sull’intelligenza artificiale e quindi tutte le aziende dovranno adeguarsi alle nuove norme dell’Unione, che, come tutti i regolamenti, sono self executive e non richiedono alcuna legge di recepimento, entrando direttamente nel corpo legislativo nazionale di ciascun Stato membro.
L’Unione europea è stata la prima al mondo a regolamentare la rivoluzione dirompente dell’intelligenza artificiale, diventando apripista e pioniera nella tecnologia che oggi promette di cambiare per sempre la vita di tutti noi, anche se in effetti la AI fa parte della nostra vita e del nostro modus operandi già da qualche decennio almeno pur se sotto altro nome.

Grande attenzione è stata data alla definizione di sistema di intelligenza artificiale, che è stata così espressa: “un sistema automatizzato progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Il nuovo Regolamento si applicherà a tutti i soggetti pubblici e privati che producono strumenti con tecnologia di intelligenza artificiale rivolti al mercato europeo, indipendentemente dal fatto che le aziende siano o meno europee ma vi saranno alcune eccezioni nell’applicazione del Regolamento, che non varrà per i sistemi di AI per scopi militari, di difesa o di sicurezza nazionale, a quelli per scopi di ricerca e sviluppo scientifico, o a quelli rilasciati con licenze free e open source (fatta salva la verifica di sussistenza di un rischio), per l’attività di ricerca, prova e sviluppo relative a sistemi di intelligenza artificiale e per le persone fisiche che utilizzano i sistemi di AI per scopi puramente personali. Sono vietati in ogni caso gli utilizzi dei sistemi di AI per manipolare i comportamenti delle persone, per la categorizzazione biometrica in riferimento ai dati sensibili, per la raccolta massiccia e illimitata di foto di volti da internet, per il riconoscimento delle emozioni sul posto di lavoro o a scuola, per i sistemi di punteggio sociale o social scoring e per meccanismi di polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato.

2)Conseguenze sul “sistema giustizia”.
E’ del tutto evidente che fare derivare dall’approvazione del regolamento europeo una legittimazione dell’uso della AI all’interno del “sistema giustizia” costituisce una fake news, tuttavia anche parlando con gli operatori del diritto ci si rende conto che è diffusa l’opinione che ormai la utilizzazione della Intelligenza Artificiale sia consentita anche con riguardo alla cd. giustizia predittiva e che presto il giudice non servirà più o servirà a poco.
La giurimetria (questa espressione fu coniata, nel 1949, per mano dell’avvocato Lee Loevinger che si proponeva di applicare, l’informatica al diritto, in modo, da ottenere una scienza esatta), l’intelligenza artificiale (IA) e la giustizia predittiva sono argomenti che suscitano sempre più interesse in campo giuridico. La giurimetria è l’applicazione dell’informatica al diritto, mentre la giustizia predittiva utilizza algoritmi complessi per prendere decisioni giudiziarie o prevedere gli esiti delle decisioni.
Attualmente, la giustizia predittiva risulta essere abbastanza diffusa negli Stati Uniti, mentre in Europa e in Italia è ancora in fase sperimentale. Essa si può definire come un metodo che consente la possibilità di affidare ad un algoritmo la decisione giudiziale, in luogo del giudice umano. Per alcuni autori, ’informatica applicata al diritto avrebbe il vantaggio di assicurare un diritto certo, chiaro, conoscibile, univoco e uniformemente interpretato ed applicato dai diversi uffici giudiziari.
Dato il carattere innovativo della questione, per molti operatori del settore è ancora difficile comprenderne appieno la portata. Inoltre, è importante valutare i benefici e gli svantaggi che tale innovazione digitale potrà apportare al sistema giudiziario.
La giustizia predittiva rappresenta un campo emergente che combina la giurimetria e l’intelligenza artificiale al dichiarato fine di migliorare l’efficienza e l’accuratezza delle decisioni giudiziarie.
Nell’ambito della giustizia predittiva, la giurimetria viene utilizzata per esaminare le decisioni giudiziarie passate e identificare modelli o tendenze che possono fornire indicazioni sulle probabilità di esito in casi futuri simili. L’analisi giurimetrica coinvolge diversi fattori, tra cui la tipologia del caso, le caratteristiche delle parti coinvolte, le decisioni precedenti e altri elementi pertinenti. Utilizza modelli statistici e algoritmi di apprendimento automatico e la giurimetria cerca di predire gli esiti dei casi legali in base a queste informazioni.
Uno dei principali strumenti dell’IA utilizzati nella giustizia predittiva è il machine learning, che consente ai sistemi di imparare dai dati e migliorare le proprie prestazioni nel tempo. Ad esempio, un sistema di giustizia predittiva può essere addestrato su un vasto insieme di decisioni giudiziarie passate, consentendo di formulare previsioni sugli esiti futuri.
Si sostiene dai fautori di tali metodologie che l’adozione della giustizia predittiva, supportata dalla giurimetria e dall’intelligenza artificiale, presenta numerosi benefici potenziali. Innanzitutto, può contribuire a ridurre la discrezionalità delle decisioni giudiziarie, garantendo maggiore coerenza nell’applicazione della legge. Inoltre, può aiutare a identificare i casi ad alto rischio o ad alta priorità, consentendo ai tribunali di assegnare le risorse in modo più efficiente. Ciò potrebbe significare che i tempi di attesa potrebbero essere ridotti e i processi potrebbero essere gestiti in modo rapido ed efficace. Si parla anche di miglioramento dell’accessibilità alla giustizia in quanto l’uso di tecnologie avanzate potrebbe contribuire a migliorare l’accesso alla giustizia per le persone che hanno risorse finanziarie limitate. Ad esempio, l’automazione di alcune procedure e la disponibilità di strumenti di ricerca giuridica basati su intelligenza artificiale potrebbero rendere più facile per i cittadini comprendere i loro diritti e accedere alle risorse legali necessarie.
Tuttavia, è necessario affrontare le sfide legate alla qualità dei dati, all’imparzialità degli algoritmi e alla protezione della privacy per garantire che l’uso di tali tecnologie sia equo e rispettoso dei diritti fondamentali. L’equilibrio tra l’automazione e il ruolo dell’umanità nella giustizia rimane un tema centrale nel dibattito sull’evoluzione della giustizia predittiva e richiede una continua riflessione e regolamentazione con riguardo, in particolare, alla tutela della trasparenza e dell’imparzialità dei diritti fondamentali.
La esperienza della giustizia americana fondata sugli algoritmi costituisce un esempio che serve a dimostrare come taluni modelli degli Stati Uniti non siano esportabili in Italia per i risultati ottenuti che non possono essere accettati dalla giustizia italiana ed europea in genere. Mi riferisco ad esempio al caso Eric Loomis fondato sull’algoritmo Compas, sviluppato da una azienda privata e basato sulla predisposizione di un questionario, che ha posto in luce la problematica che un algoritmo decisionale commini una pena non in base al fatto commesso ma piuttosto sulla scorta delle probabilità future di commettere nuovi reati, tutto ciò affidandosi ad un sistema automatizzato incentrato su statistiche ricavate dal passato; o ancora al Public Safety Assessment (PSA) che è un software gratuito sviluppato per aiutare i giudici penali negli Stati Uniti (in particolare in Arizona, Kentucky, New Jersey, Phoenix, Chicago e Houston) nelle decisioni pre-trial, come il rilascio su cauzione o la carcerazione preventiva. Utilizzando registrazioni preprocessuali e casi convalidati provenienti da diverse giurisdizioni, PSA valuta la probabilità di fuga e il rischio per gli altri, tenendo conto del principio che l’incapacità di pagare la cauzione non dovrebbe influenzare la detenzione.
In Europa ed in Italia l’eventuale utilizzo di algoritmi decisionali in sede processuale si porrebbe tuttavia chiaramente, in primo luogo, in aperto contrasto con il principio del diritto all’equo processo sancito anche dall’art. 6 Cedu e dall’art. 111 Cost. Italiana poiché impedirebbe alle parti di comprendere il funzionamento e la logica delle decisioni prese, con violazione altresì degli articoli 13 e 15 del GDPR (Regolamento generale europeo sulla protezione dei dati) che in materia di trasparenza algoritmica, riconoscono il diritto dell’interessato a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed a ricevere informazioni sulla logica utilizzata, oltre che con il principio di non esclusività (art. 22) e con il diritto di contestazione della decisione basata unicamente su un processo decisionale automatizzato, nonché con il principio di non discriminazione algoritmica sancito dall’art. 71 del GDPR.
In Italia, la sentenza n. 2270/19 emessa dal Consiglio di Stato ha affrontato per la prima volta l’applicazione dell’Intelligenza Artificiale nella Pubblica Amministrazione, stabilendo i primi principi giurisprudenziali in materia. Nella motivazione della sentenza, si fa riferimento per la prima volta al concetto di “Giustizia robotizzata o Cybergiustizia” per indicare le decisioni prese da un algoritmo all’interno della P.A.
Nel caso in esame, il Consiglio di Stato aveva esaminato l’utilizzo degli algoritmi nelle decisioni amministrative. Si è constatato che, in questa specifica situazione, un algoritmo era stato impiegato per gestire integralmente il processo di assunzione degli insegnanti di scuola secondaria, ma i ricorrenti avevano sostenuto che tale algoritmo aveva prodotto risultati illogici e irrazionali. Secondo loro, l’algoritmo è stato utilizzato in modo poco trasparente, senza coinvolgere un funzionario amministrativo nell’analisi delle singole situazioni, violando così l’articolo 97 della Costituzione.
Il Consiglio di Stato ha accolto il ricorso basandosi su due motivi principali. In primo luogo, si è evidenziato che i principi di imparzialità, pubblicità e trasparenza sono stati violati poiché non è stato possibile comprendere le modalità e le ragioni delle assegnazioni effettuate dall’algoritmo. In secondo luogo, gli esiti del processo sono risultati illogici e irrazionali a causa delle situazioni paradossali che si sono verificate.
Ma, il Consiglio di Stato ha anche riconosciuto l’importanza della digitalizzazione della pubblica amministrazione e i vantaggi derivanti dall’utilizzo degli algoritmi per automatizzare i processi decisionali amministrativi standardizzati. Secondo il Consiglio di Stato, l’uso dell’Intelligenza Artificiale è legittimo quando l’algoritmo svolge solo l’elaborazione dei dati, mentre l’uomo ne stabilisce le regole. Questo approccio rispetta i principi di efficienza ed economicità previsti dalla legge, nonché il principio di buon andamento dell’azione amministrativa sancito dall’articolo 97 della Costituzione Italiana. Tuttavia, l’uso degli algoritmi viene incoraggiato solo nei casi di procedimenti amministrativi standardizzati, mentre viene escluso quando è richiesta la discrezionalità amministrativa.

3)La tecnologia applicata al settore legale.
Si ipotizza che l’automazione e l’AI possano svolgere un ruolo sempre più importante nel campo della giustizia, ma, al momento attuale, la presenza di robot o algoritmi decisionali nell’ambito giudiziario è limitata anche se ha il potenziale per trasformare molti aspetti del campo legale, semplificando processi complessi e fornendo nuove soluzioni innovative, ad esempio: nella generazione e l’elaborazione di documenti legali “base” o “modelli” di contratti, testamenti, accordi legali e altri documenti standardizzati in modo rapido ed efficiente, riducendo il lavoro manuale degli avvocati; nella ricerca e analisi giuridica di casi giudiziari, decisioni passate, leggi e regolamenti che possono fornire agli avvocati informazioni pertinenti e precedenti legali per supportare lo studio di un caso specifico; o ancora nella previsione sulle probabilità di successo di un caso a supporto della strategia legale.
In generale, l’AI potrebbe altresì migliorare l’accesso alla giustizia, aumentare l’efficienza e ridurre i costi associati alle attività legali, ma non potrebbe mai sostituire gli avvocati e tanto meno i giudici il cui compito fondamentale è quello di emettere la sentenza.
In Europa dal 2018 abbiamo già la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi emessa dalla Commissione europea per l’efficienza della giustizia -CEPEY-.
In data il 3 dicembre 2018 la CEPEJ (European Commission for the Efficiency of Justice) quale organo della Commissione di Giustizia Europea, attraverso l’emissione della succitata Carta, ha sancito i principi basilari da osservare in Europa in materia di AI nei sistemi giudiziari e negli ambiti connessi consistenti nel: Principio del rispetto dei diritti fondamentali (assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali); Principio di non discriminazione (punta a prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone); Principio di qualità e sicurezza (che riguarda l’utilizzo di tecnologie che processano decisioni e dati giudiziari e quindi, in ordine al trattamento di decisioni e dati giudiziari, si consiglia di utilizzare fonti certificate e dati intangibili con modelli elaborati multi disciplinarmente, in un ambiente tecnologico sicuro); Principio di trasparenza, imparzialità ed equità (bisogna rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne); Principio del controllo da parte dell’utilizzatore (si deve precludere da un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte).
La successiva normativa Europea sull’intelligenza artificiale rientra nella strategia digitale dell’UE e mira a creare un quadro normativo che promuova lo sviluppo responsabile dell’AI, garantendo al contempo la protezione dei cittadini e la tutela dei loro diritti. Ciò trova attuazione attraverso una serie di misure per affrontare i diversi livelli di rischio associati all’AI, distinguendo fra: I sistemi a rischio inaccettabile, che costituiscono una minaccia per le persone, saranno vietati. Ciò include, ad esempio, l’uso di AI per manipolare comportamenti pericolosi in gruppi vulnerabili, la classificazione sociale delle persone in base a caratteristiche personali e l’identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale; I sistemi di AI ad alto rischio, che possono avere un impatto negativo sulla sicurezza o sui diritti fondamentali e che devono essere soggetti a requisiti più rigidi. Questi includono i sistemi utilizzati in settori come giocattoli, aviazione, automobili, dispositivi medici e altri. Inoltre, saranno registrati in un database dell’UE i sistemi di IA utilizzati per l’identificazione biometrica, la gestione di infrastrutture critiche, l’istruzione e la formazione professionale, l’occupazione e la gestione dei lavoratori, l’accesso a servizi essenziali, le forze dell’ordine, la gestione delle migrazioni e molto altro; Per quanto riguarda l’AI generativa, come ChatGPT, saranno previsti requisiti specifici di trasparenza. Ad esempio, sarà necessario indicare che il contenuto è stato generato da un’intelligenza artificiale e saranno implementate misure per prevenire la creazione di contenuti illegali.
In realtà l’intelligenza artificiale oltre che nel settore giustizia ha una vasta gamma di applicazioni in tanti altri settori, però l’impiego dell’AI e della giustizia robotizzata nel settore della giustizia solleva importanti questioni etiche e legali, come la trasparenza, la responsabilità, la privacy dei dati e l’equità nell’uso di algoritmi decisionali. Pertanto, è necessario un approccio ponderato onde bilanciare l’adozione delle nuove tecnologie con la tutela dei diritti fondamentali e il mantenimento della fiducia nel sistema giudiziario e un dialogo continuo per garantire che l’AI sia utilizzata in modo etico nel contesto della giustizia e che in particolare il suo impiego in tale settore non contrasti con l’art. 6 Cedu e 111 Costituzione Italiana e con gli art. 13 e 15 Gdpr ed altre norme che vietano decisioni automatizzate.

4)La concorrenza fra AI e l’Intelligenza Umana.
La recente produzione di una forma di intelligenza, anche elevata, di carattere artificiale ha portato ad ipotizzare una sorta di concorrenza fra questa e l’intelligenza umana.
Abbiamo assistito di recente alla nascita un intero sistema economico-produttivo mondiale diretto a generare macchine dotate di capacità intellettuale comparabile a quella dell’uomo, così da liberarlo da forme di lavoro non solo di tipo meccanico-ripetitivo ma anche con componenti “creative”, nonché ad importanti progressi della tecnologia che hanno portato la “macchina” a imparare il linguaggio umano, a fornire risposte adeguate a domande che le sono rivolte e a comportarsi esteriormente anche in modo dialogico con la persona umana, cosicché importanti professioni intellettuali anche di elevato livello hanno già sperimentato la astratta attitudine della I.A. a svolgere utilmente alcune attività entro tali complessi ambiti professionali.
Si tratta però pur sempre di algoritmi o di sistemi di algoritmi frutto di un’operazione matematica che risponde al criterio della logica, con tutta la potenzialità ma anche con i limiti che questo comporta.
Ci si è chiesto tuttavia se l’algoritmo possa trovare applicazione nell’organizzazione amministrativa degli Stati così da portare ad una graduale sostituzione degli impiegati pubblici e persino nell’attività giurisdizionale al punto di poter giungere ad una sostituzione nell’attività del giudice, così da affidare all’algoritmo la decisione stessa delle controversie.
Quanto all’attività amministrativa, laddove questa è interamente vincolata, non può escludersi la possibilità dell’automazione in parte qua dell’organizzazione amministrativa, fino a rendere automatica la gestione di interi procedimenti ed abbiamo visto che è intervenuta una importante sentenza del Consiglio di Stato sul punto, che non ha però ancora affrontato il problema se la responsabilità possa imputarsi allo stesso organo informatico ovvero al soggetto umano dal quale l’unità organizzativa dipende, mentre diversa appare necessariamente la soluzione nel caso di attività “discrezionale”, specie se la discrezionalità riguarda la stessa determinazione dei fini, trattandosi di attività avente rilevanza politica da riferire necessariamente al soggetto umano al quale spetta l’esercizio del potere e la correlativa responsabilità politica.
Per quanto concerne l’attività giurisdizionale, essa, in presenza di una controversia fra due soggetti, è caratterizzata dai due momenti dell’accertamento del “fatto” e dell’identificazione della “regula iuris” che disciplina quel fatto. Ci si chiede allora se si può davvero sensatamente eliminare l’elemento umano da un’attività che è sempre stata al centro della convivenza umana ed in particolare come sia possibile eliminare la differenza tra l’intelligenza umana e quella artificiale, la quale ultima è priva della stessa possibilità di acquisire il cosiddetto “senso comune” o “buon senso”. Appare inoltre una contraddizione in termini che uomini in carne ed ossa che affrontano una lite fra loro si affidino ad un soggetto che non ha in sé l’umanità dell’uomo, così attribuendo, in sostanza, lo ius dicere all’agente digitale con pericolo per la stessa terzietà del giudicante istituzionale.
La risposta al sopra indicato quesito deve essere quindi necessariamente negativa poiché un soggetto – umano o umanoide- che ipotizziamo dotato di capacità logiche perfezionatissime, ma di queste soltanto, e dunque impossibilitato a compiere valutazioni che implichino scelte non interamente compiute entro un percorso già segnato, non può dare risposta alla complessità dei fatti della vita e di un diritto che pur deve regolare una società in continuo movimento e spesso in vera e propria mutazione. Se la decisione che il giudice è chiamato ad emettere per risolvere una questione controversa si esaurisse nella sussunzione del “fatto” oggetto di causa entro una regola di giudizio espressa come tale da un testo normativo applicabile alla fattispecie, l’operazione da compiere sarebbe soltanto quella “logica” per la quale l’IA potrebbe essere attrezzata, ma la “sussunzione”, che è lemento essenziale del giudizio chiamato a decidere controversie e che segue alla fondamentale fase di accertamento del fatto e alla soluzione delle questioni di diritto che il caso presenta, può essere attività soltanto umana. È ben raro che la questione di diritto si esaurisca nella pacifica sussunzione diretta, nella proposizione normativa quale letteralmente contenuta nei verba legis, del “fatto” come accertato nel processo, mentre la regola è che la questione di diritto nelle vicende che presentano reali problematiche o casi limite sta proprio nell’individuare la regula iuris da applicare poi al caso concreto secondo la tecnica della sussunzione del secondo nella prima.
Quando il caso non è risolvibile con la pura e semplice sussunzione della fattispecie concreta nella descrizione letterale contenuta nel testo normativo, contiene necessariamente elementi di creatività Nella “logica” ciò che conta è il rigore del linguaggio e l’assoluta univocità del segno. Le scienze etiche e il diritto in qualche misura non può non esserlo, si giustificano, invece, anche per il contenuto che elaborano ed è per questo che i dice che “i giudici hanno il dovere dell’intelligenza” che è un dovere morale che fa appello alla coscienza e cioè di comprendere le questioni su cui si è chiamati a decidere che impone al giudice di garantire la funzione corretta del “giudicare” anche nel caso di messa in opera di forme di intelligenza artificiale con funzione di decidere le controversie.
Concludendo su tale argomento, personalmente condivido in pieno le perplessità manifestate dai più importanti autori sulla “giustizia robotica”, posto che, allo stato attuale della scienza, pare impossibile tanto programmare un computer capace di comprendere gli stati emotivi e di provare emozioni quanto giudicare di vicende umane senza poterne comprendere anche gli aspetti emotivi.
Ci sono indubbiamente degli aspetti del lavoro del giudice in cui l’uso degli strumenti che appartengono alla tecnologia anche del futuro può semplificare e persino automatizzare momenti preparatori alla fase decisionale, come tutta la parte organizzativa e preparatoria e di studio della controversia e già oggi ciò avviene ed anzi avviene già da alcuni decenni, specie per la fase dello studio sulle banche dati giuridiche che in Italia sono una vera eccellenza da tempo (pensiamo alla banca dati di Italgiureweb, che costituisce, di fatto, la base per lo “studio della causa” da parte del giudice italiano e che limita moltissimo i tempi dello studio, oltre che costituire la base del cd. “diritto vivente” idoneo per integrare la stesa norma giuridica la quale, ai fini della valutazione della sua conformità alla Costituzione, viene esaminata dalla Corte Costituzionale nella forma derivante dalla giurisprudenza consolidata della Corte di Cassazione, cristallizzata nel massimario di Italgiureweb), però la decisione spetta e deve restare nella responsabilità esclusiva del soggetto umano quale atto produttivo personale che comporta l’esercizio delle abilità proprie dell’operatore umano, analogamente a quanto avviene nel settore artigianale nel quale l’attività umana è insostituibile ed è l’essenza dell’opera d’arte.

5)La applicazione dell’AI nei procedimenti tributari e nel giudizio tributario.
L’uso dell’intelligenza artificiale nell’attività giudiziaria ha avuto in Italia – e non pare un caso – una delle sue prime applicazioni nel settore della giustizia tributaria e cioè in quel settore della giustizia dove è notoriamente assai deficitaria la indipendenza dei giudici, i quali non sono riusciti, neppure con la Riforma tributaria del 2022-2023, che ha riguardato anche l’ordinamento giudiziario dei giudici della cd. Quinta Giurisdizione, a staccarsi dal MEF e cioè da una delle parti sostanziali in causa presso cui sono incardinati come rapporto di lavoro; e ciò nonostante le controversie in corso attivate con il sostegno della Associazione Magistrati tributari e la recente Denuncia agli Organismi comunitari per riuscire ad ottenere un trattamento lavorativo degno di questo nome, ma, soprattutto, quella autonomia ed indipendenza che dovrebbe costituire, in un paese come l’Italia, una garanzia essenziale per tutte le giurisdizioni, anche alla luce delle sentenze della Cedu e della Corte di Giustizia.
L’incidenza del MEF è stata notevole in seno alla giustizia tributaria anche con riguardo all’uso della intelligenza artificiale, in primo luogo con riferimento ai procedimenti tributari, compresi quelli di accertamento di carattere discrezionale e cioè proprio quelli per i quali il Consiglio di Stato ha escluso tale possibilità.
Valga un esempio per tutti e cioè quella della modifica della disciplina dell’Interpello con riguardo al quale la precedente disposizione dell’art. 11 dello statuto dei diritti del contribuente, nella formulazione in vigore dal 01/01/2016 (a seguito della modifica di cui al decreto legislativo del 24/09/2015 n. 156 Articolo 1) prevedeva che: “1. Il contribuente può interpellare l’amministrazione per ottenere una risposta riguardante fattispecie concrete e personali relativamente a: a) l’applicazione delle disposizioni tributarie, quando vi sono condizioni di obiettiva incertezza sulla corretta interpretazione di tali disposizioni e la corretta qualificazione di fattispecie alla luce delle disposizioni tributarie applicabili alle medesime, ove ricorrano condizioni di obiettiva incertezza e non siano comunque attivabili le procedure di cui all’articolo 31-ter del decreto del Presidente della Repubblica 29 settembre 1973, n. 600, introdotto dall’articolo 1 del decreto legislativo 14 settembre 2015, n. 147 e di cui all’articolo 2 del medesimo decreto legislativo 14 settembre 2015, n. 147; b) la sussistenza delle condizioni e la valutazione della idoneità degli elementi probatori richiesti dalla legge per l’adozione di specifici regimi fiscali nei casi espressamente previsti; c) l’applicazione della disciplina sull’abuso del diritto ad una specifica fattispecie. 2. Il contribuente interpella l’amministrazione finanziaria per la disapplicazione di norme tributarie che, allo scopo di contrastare comportamenti elusivi, limitano deduzioni, detrazioni, crediti d’imposta, o altre posizioni soggettive del soggetto passivo altrimenti ammesse dall’ordinamento tributario, fornendo la dimostrazione che nella particolare fattispecie tali effetti elusivi non possono verificarsi. Nei casi in cui non sia stata resa risposta favorevole, resta comunque ferma la possibilità per il contribuente di fornire la dimostrazione di cui al periodo precedente anche ai fini dell’accertamento in sede amministrativa e contenziosa. 3. L’amministrazione risponde alle istanze di cui alla lettera a) del comma 1 nel termine di novanta giorni e a quelle di cui alle lettere b) e c) del medesimo comma 1 ed a quelle di cui al comma 2 nel termine di centoventi giorni. La risposta, scritta e motivata, vincola ogni organo della amministrazione con esclusivo riferimento alla questione oggetto dell’istanza e limitatamente al richiedente. Quando la risposta non è comunicata al contribuente entro il termine previsto, il silenzio equivale a condivisione, da parte dell’amministrazione, della soluzione prospettata dal contribuente.
Gli atti, anche a contenuto impositivo o sanzionatorio difformi dalla risposta, espressa o tacita, sono nulli. Tale efficacia si estende ai comportamenti successivi del contribuente riconducibili alla fattispecie oggetto di interpello, salvo rettifica della soluzione interpretativa da parte dell’amministrazione con valenza esclusivamente per gli eventuali comportamenti futuri dell’istante.
4.Non ricorrono condizioni di obiettiva incertezza quando l’amministrazione ha compiutamente fornito la soluzione per fattispecie corrispondenti a quella rappresentata dal contribuente mediante atti pubblicati ai sensi dell’articolo 5, comma 2. 5. La presentazione delle istanze di cui ai commi 1 e 2 non ha effetto sulle scadenze previste dalle norme tributarie, né sulla decorrenza dei termini di decadenza e non comporta interruzione o sospensione dei termini di prescrizione. 6. L’amministrazione provvede alla pubblicazione mediante la forma di circolare o di risoluzione delle risposte rese nei casi in cui un numero elevato di contribuenti abbia presentato istanze aventi ad oggetto la stessa questione o questioni analoghe fra loro, nei casi in cui il parere sia reso in relazione a norme di recente approvazione o per le quali non siano stati resi chiarimenti ufficiali, nei casi in cui siano segnalati comportamenti non uniformi da parte degli uffici, nonché in ogni altro caso in cui ritenga di interesse generale il chiarimento fornito. Resta ferma, in ogni caso, la comunicazione della risposta ai singoli istanti”.
Con il recente decreto legislativo n. 219 del 2023, il Governo ha dato seguito sul punto a quanto contenuto nell’art. 4 della legge delega per la riforma fiscale (Legge 9 agosto 2023, n. 111), che attribuiva all’Esecutivo poteri delegati in ordine alla razionalizzazione della disciplina sugli interpelli.
La modifica involgeva e involge, in realtà, la generalità di tutti i mezzi di supporto e di consulenza riferibili al rapporto tra Agenzia delle entrate e contribuenti: il nuovo articolo 10-sexies dello Statuto ha infatti operato una tipizzazione di tali strumenti, tra mezzi già conosciuti (le circolari interpretative ed applicative, la consulenza giuridica e, appunto, gli interpelli) e di nuova introduzione.
La nuova disposizione del D. Lgs. n. 219 del 2023 Art. 10-sexies così recita: “(Documenti di prassi).

– 1. L’amministrazione finanziaria fornisce supporto ai contribuenti nell’interpretazione e nell’applicazione delle disposizioni tributarie mediante: a) circolari interpretative e applicative; b) consulenza giuridica; c) interpello; d) consultazione semplificata. Art. 10-septies (Circolari). – 1. L’amministrazione finanziaria pubblica circolari per fornire:
a) la ricostruzione del procedimento formativo delle nuove disposizioni tributarie e i primi chiarimenti dei loro contenuti;
b) approfondimenti e aggiornamenti interpretativi conseguenti a nuovi orientamenti legislativi e giurisprudenziali;
c) inquadramenti sistematici su tematiche di particolare complessità;
d) istruzioni operative ai suoi uffici.

-2 Nella elaborazione delle circolari di cui al comma 1, lettere a), b) e c), l’amministrazione finanziaria, nei casi di maggiore interesse, può effettuare interlocuzioni preventive con soggetti istituzionali ovvero con ordini professionali, associazioni di categoria o altri enti esponenziali di interessi collettivi, nonché farle oggetto di pubblica consultazione prima della loro pubblicazione.

3 Il Ministro dell’economia e delle finanze ovvero, quando nominato, il suo Vice Ministro delegato per l’amministrazione finanziaria, adotta su proposta dell’Amministrazione finanziaria gli atti di indirizzo interpretativo ed applicativo di cui all’articolo 4, comma 1, lettera a), del decreto legislativo 30 marzo 2001, n. 165, ai quali devono attenersi le circolari di cui al comma 1, lettere a), b) e c).
Art. 10-octies (Consulenza giuridica). – 1. L’amministrazione finanziaria offre, su richiesta, consulenza giuridica alle associazioni sindacali e di categoria, agli ordini professionali, agli enti pubblici o privati, alle regioni e agli enti locali, nonché alle amministrazioni dello Stato per fornire chiarimenti interpretativi di disposizioni tributarie su casi di rilevanza generale che non riguardano singoli contribuenti.

2. La richiesta di consulenza giuridica non ha effetto sulle scadenze previste dalle norme tributarie, sulla decorrenza dei termini di decadenza e non comporta interruzione o sospensione dei termini di prescrizione.

3. Con decreto del Ministro dell’economia e delle finanze sono adottate disposizioni applicative del presente articolo.
Art. 10-nonies (Consultazione semplificata). – 1. Le persone fisiche e i contribuenti di minori dimensioni di cui al comma 2, avvalendosi dei servizi telematici dell’amministrazione finanziaria accedono gratuitamente, su richiesta relativa a casi concreti, anche per il tramite di intermediari specificamente delegati, a una apposita banca dati che, nel rispetto della normativa in materia di tutela dei dati personali, contiene i documenti di cui all’articolo 10-sexies, le risposte a istanze di consulenza giuridica e interpello, le risoluzioni e ogni altro atto interpretativo.
2. L’accesso al servizio di cui al comma 1 è offerto esclusivamente, oltre a tutte le persone fisiche, anche non residenti, alle società semplici, in nome collettivo, in accomandita semplice e alle società ad esse equiparate, ai sensi dell’articolo 5 del decreto del Presidente della Repubblica 22 dicembre 1986, n. 917, che applicano il regime di contabilità semplificata.
3. La banca dati consente l’individuazione della soluzione al quesito interpretativo o applicativo esposto dal contribuente. Quando la risposta al quesito non è individuata univocamente, la banca dati informa il contribuente che può presentare istanza di interpello. La risposta produce gli effetti di cui all’articolo 10, comma 2, esclusivamente nei confronti del contribuente istante.
4. L’utilizzazione del servizio di cui al presente articolo è condizione di ammissibilità ai fini della resentazione di istanze di interpello”.

Rappresenta una novità assoluta il nuovo istituto della “consultazione semplificata”. La sua introduzione, dichiaratamente diretta ad eliminare i costi dei servizi già previsti in passato a favore dei contribuenti, appare palesemente connessa all’obiettivo di ridurre il ricorso agli interpelli, attraverso la messa a disposizione di una banca dati nella quale dovrebbero confluire le risposte rese dall’Agenzia ad ogni ipotesi di consulenza già fornita. Il servizio è rimesso alla presentazione di un’apposita istanza contenente un quesito di natura interpretativa o applicativa riferito ad uno specifico comparto di norme applicabili in relazione alla fattispecie sottoposta dal contribuente. Sottoposta l’istanza con i servizi telematici, la banca dati dovrebbe individuare una soluzione univoca alla questione prospettata. Il contribuente che vi si adegui può giovarsi delle tutele apprestate dall’art. 10, c. 2, dello Statuto concernenti il legittimo affidamento: conseguentemente, in caso di contestazione, non rischierà l’irrogazione di sanzioni o la liquidazione di interessi in relazione alle imposte evase/eluse. Ove il sistema non individui una soluzione univoca, esso informerà (o meglio, abiliterà) il contribuente circa la proponibilità dell’istanza di interpello (a tal fine rileva quanto prescritto dal c. 4 dell’art. 10-nonies, per cui l’esperimento della consulenza semplificata “è condizione di ammissibilità ai fini della presentazione di istanze di interpello”).

La riforma prevede anche, come già visto, una completa riscrittura dell’art. 11 dello Statuto, in materia di interpelli secondo cui, in particolare, la presentazione dell’istanza di interpello è in ogni caso subordinata al versamento di un contributo, destinato a finanziare iniziative per implementare la formazione del personale delle agenzie fiscali, la cui misura e le cui modalità di corresponsione sono individuate con decreto del Ministro dell’economia e delle finanze in funzione della tipologia di contribuente, del suo volume di affari o di ricavi e della particolare rilevanza e complessità della questione oggetto di istanza e l’amministrazione finanziaria, ferma la facoltà di chiedere documentazione integrativa da produrre secondo le modalità e i termini di cui all’articolo 4 del decreto legislativo 24 settembre 2015, n. 156, risponde alle istanze di interpello nel termine di novanta giorni.
La risposta, scritta e motivata, vincola ogni organo dell’amministrazione finanziaria con esclusivo riferimento alla questione oggetto dell’istanza e limitatamente al richiedente. Quando la risposta non è comunicata al contribuente entro il termine previsto, il silenzio equivale a condivisione della soluzione prospettata dal contribuente da parte dell’amministrazione. La presentazione della istanza di interpello non incide sulle scadenze previste dalle norme tributarie né sulla decorrenza dei termini di decadenza e non comporta interruzione o sospensione dei termini di prescrizione e la risposta alla istanza di interpello non è in ogni caso impugnabile.
La vera novità degli istituti riguarda, tuttavia, la condizione di proponibilità rappresentata dal versamento di un contributo, alla cui commisurazione concorreranno fattori quali la tipologia di contribuente, il suo volume d’affari o ricavi e la complessità della questione sottoposta. La più specifica tariffazione sarà rimessa ad un decreto del MEF.
Orbene, le limitazioni frapposte all’interpello dalla riforma legislativa e rispondenti dichiaratamente ad una esigenza di risparmio di risorse ed economico (unitamente alla soppressione dell’istituto del reclamo mediazione) non si possono certamente porre come misure favorevoli al contribuente, al contrario mortificano quelle possibilità che preesistevano di ridurre il contenzioso evitando al contribuente difficoltà e spese.
La mediazione è un istituto presente nella procedura civile e che il legislatore ha accresciuto nel tempo anche in vista della riduzione del numero delle pendenze e delle nuove liti nell’ambito dei risultati che l’Italia si è impegnata a garantire attraverso i programmi del PNRR.
La mediazione fiscale presentava una grave criticità poiché non era imparziale venendo svolta da personale dell’ente impositore, però ben avrebbe potuto il legislatore approfittare della Riforma per garantire la imparzialità, mentre il Governo ha scelto di abolirla, in controtendenza con le linee di indirizzo della procedura civile, prospettando che i risultati della mediazione in campo tributario sarebbero stati scarsi. Però chiunque conosca la realtà del giudizio tributario e di quello civile potrà testimoniare che, pur non esistendo statistiche ufficiali comparabili, probabilmente la mediazione tributaria otteneva, anche nel campo dei tributi locali, risultati maggiori della mediazione civile, per cui non si può condividere la scelta di abolire la mediazione tributaria.
Quanto poi alle condizioni di ammissibilità e di proponibilità dell’interpello, è difficile coglierne la ratio se non nell’ottica di privare il contribuente di uno strumento che già esisteva a sua tutela senza che si possano ravvisare giustificazioni valide.
Personalmente non mi pare ragione valida la previsione, in sua sostituzione, della consulenzas emplificata poiché questa può riguardare i casi già risolti (mentre l’interpello era un istituto specifico per i casi “nuovi”), è a pagamento ed inoltre è affidata alla Intelligenza Artificiale sulla cui applicabilità in campo giudiziario si possono nutrire forti dubbi. Ma il dubbio più rilevante è che la banca dati, che è ancora tutta da costruire, resta estremamente opaca e non sappiamo a quali mani la affiderà il MEF e con quali risultati.
Altro recentissimo esempio ancor più rilevante dell’uso della AI da parte del MEF negli atti tributari si ricava dall’art. 1 del Decreto del 24 aprile 2024 con cui si individuano, in fase di prima applicazione dell’art. 6-bis della legge 27 luglio 2000, n. 212, gli atti automatizzati, sostanzialmente automatizzati, di pronta liquidazione e di controllo formale delle dichiarazioni, autonomamente impugnabili ai sensi dell’art. 19 del decreto legislativo 31 dicembre 1992, n. 546, che non sono preceduti dal contraddittorio informato ed effettivo.
Con l’art 2 del Decreto in oggetto si considera automatizzato e sostanzialmente automatizzato ogni atto emesso dall’amministrazione finanziaria riguardante esclusivamente violazioni rilevate dall’incrocio di elementi contenuti in banche dati nella disponibilità della stessa amministrazione.
Conseguentemente, sono esclusi dall’obbligo di contraddittorio, di cui all’art. 6-bis della legge 27 luglio 2000, n. 212, i seguenti atti:
a) i ruoli e le cartelle di pagamento, gli atti di cui agli articoli 50, comma 2, 77 e 86 del decreto del Presidente della Repubblica 29 settembre 1973, n. 602, ogni altro atto emesso dall’Agenzia delle entrate-Riscossione ai fini del recupero delle somme ad essa affidate;
b) gli accertamenti parziali di cui agli articoli 41-bis del decreto del Presidente della Repubblica 29 settembre 1973, n. 600 e 54, quinto comma, del decreto del Presidente della Repubblica 26 ottobre 1972, n. 633 e gli atti di recupero di cui all’art. 38-bis del decreto del Presidente della Repubblica 29 settembre 1973, n. 600, predisposti esclusivamente sulla base dell’incrocio di dati;
c) gli atti di intimazione autonomi di cui all’art. 29 del decreto-legge 31 maggio 2010, n. 78, convertito, con modificazioni, dalla legge 30 luglio 2010, n. 122, nonche’ gli atti di intimazione emessi per decadenza dalla rateazione;
d) gli atti di accertamento per omesso, insufficiente o tardivo versamento dei seguenti tributi e irrogazione delle relative sanzioni:
tasse automobilistiche erariali di cui al decreto del Presidente della Repubblica 5 febbraio 1953, n. 39;
addizionale erariale della tassa automobilistica di cui all’art. 23, comma 21, del decreto-legge 6 luglio 2011, n. 98, convertito, con modificazioni, dalla legge 15 luglio 2011, n. 111;
tasse sulle concessioni governative per l’impiego di apparecchiature terminali per il servizio radiomobile pubblico terrestre di comunicazione, di cui all’art. 21 della tariffa allegata al decreto del Presidente della Repubblica 26 ottobre 1972, n. 641;
imposta parametrata al numero di grammi di biossido di carbonio emessi per chilometro dai veicoli, di cui all’art. 1, commi da 1042 a 1047, della legge 30 dicembre 2018, n. 145;
e) gli accertamenti catastali per l’iscrizione e la cancellazione delle annotazioni di riserva alle intestazioni catastali,
f) gli avvisi di liquidazione per decadenza delle agevolazioni fiscali, ai fini delle imposte di registro, ipotecarie e catastali;
g) gli avvisi di liquidazione per recupero delle imposte di registro, ipotecarie e catastali a seguito di rettifica,
h) gli avvisi di pagamento per omesso, insufficiente o tardivo versamento dell’accisa o dell’imposta di consumo dovuta sulla base delle dichiarazioni, dei dati relativi alle contabilita’ nonche’ dei documenti di accompagnamento della circolazione, presentati dai soggetti obbligati ai sensi del testo unico delle disposizioni legislative concernenti le imposte sulla produzione e sui consumi e relative sanzioni penali e amministrative, di cui al decreto legislativo 26 ottobre 1995, n. 504 e delle relative norme di applicazione;
i) gli avvisi di pagamento per indebita compensazione di crediti di accisa ovvero per omesso, insufficiente o tardivo versamento di somme e di diritti dovuti alle prescritte scadenze ai sensi del decreto legislativo 26 ottobre 1995, n. 504 e delle relative norme di applicazione.
Come si vede si tratta di un numero rilevantissimo di provvedimenti di accertamento tributario che il MEF con proprio decreto, pubblicato in Gazzetta Ufficiale il 30 aprile 2024, ha individuato come atti completamente ed esclusivamente automatizzati e cioè affidati completamente alla Intelligenza Artificiale per la loro stesura (fra cui addirittura gli accertamenti parziali), il che preoccupa non solo per la esclusione dal contraddittorio preventivo con i contribuente che dovrebbe essere la regola ma anche e soprattutto per il completo affidamento alla robotica con esclusione addirittura del controllo della intelligenza umana.
La riforma tributaria avrebbe dovuto essere il momento di applicazione delle garanzie per il contribuente e della massima trasparenza, con allargamento del contraddittorio preventivo già in atto a seguito della pregressa elaborazione giurisprudenziale della Corte di cassazione a seguito della spinta garantista della normativa comunitaria, mentre invece, anche sulla spinta del risparmio indotto dall’uso dell’AI, è stato il momento per ridurre le garanzie e per applicare procedimenti robotizzati che, come insegna la esperienza già esistente nel campo degli atti tributari recuperatori di gettito presenta una rilevantissima percentuale di errori ovviamente a danno dei contribuenti – a causa dei mancati controlli quanto meno al momento della firma, specie per alcune tipologie di atti che hanno chiari connotati di discrezionalità.
E questi sono solo due esempi relativi a procedimenti tributari, ma i maggiori timori per l’uso della AI derivano dal suo impiego nel procedimento decisorio.
Il MEF ha infatti dettato di recente le sue direttive anche con riguardo alla formazione dei giudici tributari con una forte influenza sulla attività del Consiglio di Presidenza della Giustizia tributaria. In tale ambito è stata privilegiata la conoscibilità degli orientamenti dei giudici di merito tributari come fondamentale per garantire la certezza del diritto attraverso la futura banca dati della giustizia tributaria, gratuita ed accessibile a tutti anche mediante il ricorso alle tecnologie digitali e all’intelligenza artificiale, ritenuta di sicuro ausilio per rafforzare la parità delle parti in giudizio e contribuire a limitare la propensione alle impugnazioni delle pronunce di merito attraverso la cd giustizia predittiva. In tale ambito il Presidente del Consiglio della Giustizia Tributaria, in occasione della inaugurazione dell’anno giudiziario tributario 2024, ha tenuto a sottolineare che l’Intelligenza Artificiale, utilizzata per la predisposizione della banca data delle sentenze di merito tributarie, sarà valida, quindi, come strumento di supporto all’attività del giudice tributario, fermo restando che solo a quest’ultimo spetterà sempre l’onere della decisione finale. Fortunatamente è stato ribadito il principio che spetterà alla intelligenza umana del giudice tributario l’onere della decisione finale, però preoccupa la circostanza che si attribuisca grande importanza ad una banca dati delle pronunce tributarie di merito, nell’ambito della giustizia tributaria, che saranno anche fortemente influenzate dal MEF, il che non tiene conto della circostanza che il “diritto vivente” è costituito esclusivamente dalle pronunce della Corte di Cassazione.
Infatti, la funzione nomofilattica nella giurisprudenza italiana, descritta dall’art. 65 della legge sull’ordinamento giudiziario italiano (R.D. 30 gennaio 1941 n. 12), è affidata esclusivamente alla Corte Suprema di Cassazione, quale organo supremo della giustizia, che assicura l’esatta osservanza e l’uniforme interpretazione della legge, l’unità del diritto oggettivo nazionale, il rispetto dei limiti delle diverse giurisdizioni, regola i conflitti di competenza e di attribuzioni ed adempie gli altri compiti ad essa conferiti dalla legge.
Come chiaramente indicato dal suindicato articolo, la funzione nomofilattica della Cassazione si articola in due sottofunzioni ben distinte: da un lato garantire l’attuazione della legge nel caso concreto, realizzando la giurisdizione in senso stretto, dall’altro fornire indirizzi interpretativi “uniformi” per mantenere, nei limiti del possibile, l’unità dell’ordinamento giuridico, attraverso una sostanziale uniformazione della giurisprudenza.
Il controllo degli indirizzi interpretativi obbedisce all’elementare esigenza di garantire la certezza del diritto; tuttavia, stante la grande complessità della materia giuridica, la naturale mutazione dei tempi, delle idee e dei giudici persone fisiche chiamati a ricoprire incarichi nella magistratura di legittimità, non è infrequente osservare mutamenti nella giurisprudenza della Cassazione, che per la loro rapidità e drasticità, potrebbero far pensare che la nomofilachia non trovi certezze neppure fra le mura della Corte Suprema.
Su queste premesse, è da tempo in corso il dibattito sulla cosiddetta crisi della funzione nomofilattica, cui si è tentato di porre rimedio con il D. Lgs. n. 40/2006, che ha mirato sostanzialmente a dare maggiore peso alle pronunce a Sezioni Unite della Corte di Cassazione, impedendo alle sezioni semplici di discostarsi da esse, se non rimettendo motivatamente la questione problematica a una nuova pronuncia delle Sezioni Unite (cfr. art. 374 c.p.c.).
Con il medesimo provvedimento citato, si è anche dato ampio spazio al principio di diritto enunciato nella sentenza di legittimità, attribuendo in tal modo un ruolo essenziale all’Ufficio del massimario che, in seno all’organizzazione della Corte di cassazione, si occupa della redazione delle massime delle pronunce.
Malgrado tali importanti innovazioni, tuttavia, la funzione nomofilattica conserva un ruolo autorevole, ma non acquista alcuno spazio autoritativo. Il nostro ordinamento resta infatti ispirato a una struttura di civil law e il valore giuridico delle sentenze resta quello di risolvere le controversie fra le parti, i loro eredi e aventi causa e non quello di fissare nuovi principi di diritto vincolanti, come avviene grazie al criterio dello stare decisis negli ordinamenti di common law.
Si consideri tuttavia che la vera forza nomofilattica non sta tanto e solo nel ruolo istituzionale dell’autorità giurisdizionale che ha emanato la sentenza, ma risiede piuttosto nella capacità di quest’ultima di disegnare un percorso argomentativo solido e convincente e – quel che più conta – in aderenza con le esigenze giuridiche del momento storico.
Fra le funzioni della Corte di Cassazione, se si tratta di orientamento consolidato ed a maggior ragione qualora la pronuncia provenga dalle Sezioni Unite, vi è infatti quella di creare il cd. “diritto vivente”, formula con cui s’intende generalmente la consolidata opinione comune maturata nella giurisprudenza in ordine al significato da attribuire a una determinata norma. Questa espressione è utilizzata per la prima volta dalla sentenza n. 274 del 1976 della Corte costituzionale, anche se è solo dagli anni ottanta che si acquisisce la piena consapevolezza del suo significato. La locuzione è stata utilizzata allo scopo di indicare, in buona sostanza, un approdo interpretativo stabilizzato nella giurisprudenza ma soltanto con riguardo alla giurisprudenza di legittimità.
“Il diritto vivente” è poi un punto di partenza, obbliga ad ascoltare cercando di capire e a parlare cercando di spiegarsi al meglio. Il diritto vivente è una continua tensione, è uno stimolo alla creazione di nuove idee, di nuove proposte, una ricerca di nuovi affascinanti orizzonti, non legati solo ai confini italiani ma protesi verso l’Europa e verso il resto del mondo.
E in effetti dare forza e voce al diritto vivente significa dare forza e voce non solo al “dialogo” tra la Corte di Cassazione e Costituzionale, ma anche con quella di Strasburgo e di Lussemburgo. Questi “dialoghi”, infatti, laddove siano davvero tali, si nutrono del diritto vivente, il quale a sua volta è chiamato ad acquisire una dimensione non più solo nazionale ma per lo meno anche europea.
L’esistenza di un diritto vivente, avendo riguardo ad alcuni dei profili dallo stesso interessati, influisce, infine, anche sull’ambito del potere interpretativo spettante al giudice comune. Nella giurisprudenza costituzionale è, infatti, consolidato il principio in virtù del quale il giudice comune, prima di sollevare una questione di legittimità costituzionale, ha l’onere di sperimentare se della disposizione censurata possa essere offerta, nell’osservanza degli ordinari criteri ermeneutici, un’interpretazione adeguatrice, in grado di porla al riparo delle sollevate censure. Il principio, secondo la formulazione più efficace offertane dalla Corte, è che «le leggi non si dichiarano costituzionalmente illegittime perché è possibile darne interpretazioni incostituzionali (e qualche giudice ritenga di darne), ma perché è impossibile darne interpretazioni costituzionali». Dalla affermazione di una tale regola è conseguita la configurazione, divenuta jus receptum, dell’onere dell’interpretazione costituzionalmente orientata quale requisito di ammissibilità della questione di legittimità costituzionale.
Orbene, alla luce dei princìpi sopra enunciati e costituenti ormai un approdo sicuro, viene da chiedersi a che cosa possano servire i Massimari propugnati dal MEF e che si rinvengono anche nella banche dati delle Agenzie delle Entrate (che scelgono le Massime da inserire) se non ad orientare la giurisprudenza di merito attraverso forme di Intelligenza Artificiale fra l’altro elaborate attraverso strumenti non imparziali e garantiti.
Occorre rilevare sul punto che i Massimari di merito predisposti dalle riviste giuridiche possono costituire un supporto per i difensori (i massimari di merito che aveva tentato di istituire Italgiureweb molti anni fa erano stati subito abbandonati in quanto ritenuti inutili proprio con riguardo al cd. diritto vivente ormai costituito soltanto dalle pronunce della Suprema Corte) mentre poco possono interessare il giudice, cosicché la spinta alla loro formazione deriva dalle Agenzie Fiscali e dal MEF come mezzo per influenzare i giudici verso un corpo di massime utili all’ente impositore.
Ben diverso è invece il Massimario della Corte di cassazione alla cui redazione sono assegnati i consiglieri della Corte i quali operano secondo il criterio dell’indipendenza ed ai massimi livelli di competenza con la consapevolezza che a loro è assegnato il compito di creare il “diritto vivente” che certamente si applica anche nel giudizio tributario considerato che la giustizia tributaria trova il suo apice nella Corte Suprema di Cassazione e che neppure la riforma tributaria del 2023 ha mutato la giurisdizione tributaria sotto tale profilo.
Quanto esposto è un ulteriore aspetto del tentativo del MEF di utilizzare la intelligenza artificiale ai fini della decisione, prospettato come mezzo per una maggiore efficienza della attività giudiziaria.
Il problema delle interferenze del MEF nell’uso della intelligenza artificiale in seno alla giurisdizione tributaria è stato di recente colto anche dal Presidente del Consiglio Nazionale Forense, che, in occasione della inaugurazione dell’anno tributario 2024, ha fatto sentire forte e chiara la sua voce dissonante su alcune diposizioni della novellata Riforma tributaria, in particolare con riguardo ai problemi della indipendenza della magistratura tributaria e della utilizzazione dell’Intelligenza Artificiale da parte del MEF e delle Agenzie Fiscali. E così il Presidente del Consiglio Nazionale Forense ha affermato che, quanto alla riforma della magistratura tributaria, la legge n. 130/ 2022 è talvolta intervenuta con scelte di discutibile coerenza ordinamentale, augurandosi che possano essere al più presto eliminate, perché rappresentano un rischio di insuccesso della riforma, anche se questa voce si è sentita solo dopo la approvazione della riforma ordinamentale. E’ stato sottolineato anche che l’Avvocatura auspicava l’opportunità di un trasferimento di competenze in tema di organizzazione e gestione degli organi di giustizia tributaria in capo alla Presidenza del Consiglio dei ministri o, meglio ancora, al Ministero della giustizia e che si augurava che il Consiglio di Presidenza ed il Legislatore sapessero cogliere la necessità e l’urgenza di definire nella sostanza la terzietà e l’imparzialità del giudice tributario. Inoltre, il Presidente del Consiglio Nazionale Forense ha preso posizione sul progetto PRO. DI. GI. T. al quale “il CNF venne invitato a collaborare dal Consiglio di Presidenza in qualità di partner, progetto predisposto con l’ambizione di poter costituire una banca dati delle decisioni di merito delle Corti Tributarie da porre a disposizione del cittadino, per considerare la fondatezza delle proprie pretese, e del Giudice per la valutazione della fattispecie al suo esame, con l’ultimo fine di realizzare un modello di giustizia predittiva, sulla quale si è sempre espressa assoluta e radicale contrarietà. L’ambizione della innovazione deve coniugarsi con la massima condivisione tra i soggetti chiamati a collaborare: ebbene un progetto così ambizioso può raggiungere i risultati sperati solo attraverso una costante e concreta interlocuzione che invece è mancata nel fondamentale momento delle modalità di valutazione delle sentenze di merito. In nostra assenza, ha sottolineato sempre il Presidente del C.N.F., tale procedimento è stato affidato a sistemi di intelligenza artificiale fondazionali ad alto rischio, per i quali non esiste, né ad oggi può esistere, una valutazione di conformità con la normativa europea, con l’Artificial Intelligence ACT in corso di formazione e di recepimento nel nostro ordinamento”.
Quello che quindi preoccupa maggiormente e che pare preoccupare maggiormente anche l’Avvocatura è la preannunciata banca dati delle sentenze di merito gestita di fatto, per larga parte, dal MEF che dovrebbe costituire la base delle pronunce dei magistrati tributari di merito, dimenticando che il “diritto vivente”, nella elaborazione delle sentenze della nostra Corte Costituzionale, è esclusivamente quello derivante dalla giurisprudenza consolidata della Corte di Cassazione e che esiste già una banca dati, quella di Italgiureweb, che è costituita da massime elaborate dai Consiglieri della Corte di Cassazione e non certamente dalla Intelligenza Artificiale.
Anche la Prima Presidente della Corte di Cassazione, in occasione della cerimonia di apertura dell’anno tributario 2024, alla quale è intervenuta, ha fatto presente che i giudici di merito devono rispettare il diritto vivente ed ha addossato al mancato rispetto del diritto vivente il numero spropositato di ricorsi tributari (la metà dell’intero contenzioso civile della Cassazione) invitando gli aspiranti ricorrenti a non presentare ricorso nel caso in cui le Corti di merito si fossero attenute nell’emanare la sentenza alla giurisprudenza consolidata della Corte Suprema.
Mi piace concludere con le parole affidate dalla magistratura associata il 12 maggio 2024 alla Mozione finale del 36° Congresso di ANM alle quali mi pare impossibile per un giudice non associarsi: “La giurisdizione non si sottrarrà mai al dovere di rispondere alla domanda di giustizia formulata dai cittadini, anche risolvendo in via interpretativa le aporie del quadro normativo, ispirandosi a prudenza e misura nell’esercitare la sua discrezionalità, ma chiede che altrettanto senso di responsabilità venga assunto dagli altri poteri dello Stato nel rispondere alle attese dei cittadini.
La magistratura italiana conferma anche il suo impegno volto ad assicurare che la risposta alla domanda di giustizia sia sempre più tempestiva, ma va mantenuto fermo il principio che l’attività del giudicare non può mai essere demandate all’intelligenza artificiale, che può e deve servire per assicurare più efficaci strumenti di organizzazione, non per supplire all’attività del giudicare, che è e deve restare prerogativa esclusivamente umana.
Il tema della libertà dell’interpretazione è intimamente connesso con quello della imparzialità del magistrato, anch’esso oggetto della riflessione congressuale.
Dell’ampia discrezionalità immanente all’attività interpretativa i magistrati italiani danno quotidianamente conto al popolo, nel cui nome amministrano la giustizia, con le motivazioni dei loro provvedimenti, che costituiscono il cuore pulsante dell’attività giurisdizionale”.

La magistratura ordinaria italiana ha così confermato anche pochi giorni fa il suo impegno a non barattare l’efficienza e la tempestività della giustizia con il suo assolvimento da parte della intelligenza umana, mentre alla intelligenza artificiale possono essere riservate soltanto le attività collaterali ed organizzative, sempre sotto il controllo dell’uomo.

Scarica il pdf

Condividi