L’intervento in oggetto rinuncia a pretese di completezza su diun tema complesso come l’intelligenza artificiale, ma ha il fine soltanto di offrire, in modo breve, alcuni spunti di riflessione in materia.

Si può muovere da un principio insito nel nostro sistema costituzionale, improntato al rispetto della dignità umana: l’intelligenza artificiale, come tutti i mezzi tecnologi, deve essere governata dall’uomo, in modo tale che non arrechi pregiudizio ai diritti e interessi della persona e segnatamente ai diritti e agli interessi dei soggetti che fanno parte di gruppi sociali più deboli o più esposti.

In armonia con questo principio è già stato enunciato dal D.lgs. 18 maggio 2018, n. 51 (art. 8) in conformità alla Direttiva europea 2016/680, il divieto di decisioni interamente automatizzate; il Parlamento europeo ha di recente approvato un testo di Regolamento (AI Act, non ancora pubblicato in G.U.) ispirato allo «human-rights-by-design approach», e cioè uno sviluppo con al centro l’uomo ed il rispetto dei suoi diritti fondamentali. Secondo il Regolamento «il processo decisionale finale deve rimanere un’attività a guida umana». Questa «riserva d’umanità», proclamata dal legislatore europeo, sottende la consapevolezza che l’attività giudiziaria ha una sua unicità, non è normalizzabile a priori e non riproducibile artificiosamente.

Si tratta allora di comprendere come l’impiego dell’intelligenza artificiale nella giurisdizione può essere governato dall’uomo. Occorre chiedersi in cosa la vogliamo impiegare, per conseguire quali risultati, con quali garanzie e soprattutto come debba essere il giudice che governa l’intelligenza artificiale.

L’intelligenza artificiale funziona grazie ad algoritmi, che ne rappresentano la c.d. anima razionale; si tratta di una sequenza finita di operazioni (dette anche istruzioni) che consentono di risolvere tutti i quesiti di una stessa classe.

Ad una prima analisi, l’algoritmo potrebbe sembrare un parente stretto se non anche fratello gemello della logica giudiziaria, la quale segue il ragionamento deduttivo tramite sillogismi.

Tuttavia, vi sono significative differenze.

Il giudice, come già affermato da Calamandrei, non è un sillogismo senz’anima, perché in misura maggiore o minore – secondo i casi- è chiamato anche a svolgere una funzione euristica e non solo deduttiva.

Il giudice non si limita solamente a muovere dal precetto generale e astratto per poi applicalo al caso concreto, come se fosse un esercizio di logica in cui entrambe le premesse sono certe e date a priori. Certo non è il fatto, che si accerta nel processo e talora non è certa neppure la norma di diritto, in un sistema che ha una pluralità di fonti di cui tenere conto, nazionali ed eurounitarie, e che possono venire in conflitto tra di loro.

Il giudice deve indagare il fatto, non solo per accertarlo, ma anche per capire quali sono gli interessi e le esigenze sociali che emergono nel processo e come la norma astratta possa divenire regola concreta raggiungendo anche un punto di equilibrio tra gli interessi contrapposti che vengono in evidenza nel caso concreto ad egli sottoposto.

Nella giurisdizione civile ciò potrebbe condurre, nel caso in cui la fattispecie non sia interamente regolata dalla legge, alla creazione di una regola, valevole solo per il caso concreto, che viene desunta dai principi generali.

Sempre in ambito civile, potrebbe condurre a disapplicare la norma nazionale se non conforme al diritto europeo e, tanto nella giurisdizione civile che in quella penale, potrebbe portare il giudice a sollevare la questione di costituzionalità se la norma viene considerata non conforme al parametro costituzionale, non conforme alle norme della Convenzione europea dei diritti dell’uomo, come intrepretate dalla Corte di Strasburgo quale parametro interposto.

Il giudicante non ha delle premesse certe a priori dalle quali muovere ma, al contrario, le premesse sono sempre discutibili ed il luogo dove si discute della interpretazione delle norme e dell’accertamento dei fatti controversi è il processo, il quale non ha natura monologica, ma si sviluppa attraverso le reciproche
contestazioni, sia in ordine ai fatti sia alla interpretazione delle norme di diritto, nel pieno contraddittorio tra le parti.

Il giudizio non solo è una operazione umana, ma è anche esoprattu tto il risultato di una attività corale della quale il giudice è chiamato a fare una sintesi.

In un paese democratico non è possibile teorizzare un processo senza avvocati, né tantomeno un processo ove ci siano certezze precostituite o risultati prestabiliti. Ciò costituisce una forma di garanzia per i destinatari del giudizio: i cittadini, e non già per il giudice.

La complessa attività del giudizio non può fare a meno della variabile umana, sia perché si nutre del contradditorio sia perché richiede l’impiego tanto del metodo deduttivo che del metodo induttivo, ma anche l’uso della ragionevolezza e della proporzionalità; inoltre, richiede anche che si contempli anche la
possibilità dell’errore. Proprio per questa ragione, Il processo ha più gradi di giudizio e si struttura come un percorso in cui l’errore possa essere emendato.

Nell’individuazione dell’errore, cruciale è il ruolo degli avvocati –insostituibile da sistemi di IA- che a fronte di una sentenza di primo grado che ritengono ingiusta, comprendono a ritroso quale possa essere stato il percorso mentale del giudice, isolano il passaggio errato, individuare l’argomentazione che lo può
neutralizzare e sottopongono nuovamente la questione ad altro giudice.

Gli avvocati, così come i giudici, nel loro operato non muovono da premesse certe e da dati preconfezionati, anzi una parte significativa del loro lavoro consiste anche nel saper reagire a quanto di imprevisto e di indesiderato.

Da quanto detto si può trarre una prima conclusione: se il ruolo del giudice viene ridotto a una mera funzione algoritmica e soprattutto monologica, cioè privato della possibilità di mettere in discussione le premesse, è assai difficile immaginare che un essere umano chiamato a svolgere una funzione meramente meccanica possa a sua volta governare un’altra funzione meccanica.

Ciò, naturalmente, non significa dover declinare all’imparzialità e alla terzietà del giudice e soprattutto non significa che il ruolo del giudice si debba espandere sino al punto di creare egli stesso le finalità alle quali devono tendere i risultati della giurisdizione, poiché la finalità della giurisdizione è la tutela dei diritti riconosciuti dall’ordinamento costituzionale nei modi e nelle forme disciplinati dalla compagine normativa, non solo nazionale ma anche eurounitaria.

Il ruolo del giudice è -come riteneva Calamandrei- quello di esercitare la funzione del giudicare con vigile impegno umano; ovvero, se vogliamo adattare la frase all’uso degli strumenti tecnologici nella giurisdizione, mantenere una vigilanza umana costante sull’uso di questi strumenti. Ciò significa conoscerne e comprenderne non solo le potenzialità ma anche le criticità.

Un primo punto critico è l’assolvimento, da parte di chi produce gli applicativi, del dovere di trasparenza e della capacità del relativo controllo da parte di chi li usa.

I sistemi di IA che possono essere impiegati nella giurisdizione sono una classe di prodotti ad alto rischio perché idonei ad incidere sui diritti fondamentali.

L’appartenenza alla classe dei prodotti ad alto rischio richiede ai produttori il rispetto di una serie di obblighi in punto di qualità dei dati, trasparenza, tracciabilità, sicurezza, sorveglianza umana e gestione del rischio. Ciò implica la registrazione, da parte dei produttori, delle metodologie di programmazione e formazione del tool; dei set di dati utilizzati per l’addestramento – che devono rispettare determinati standard qualitativi ed essere sufficientemente rappresentativi per minimizzare il rischio di bias e discriminazioni – e delle misure adottate per la supervisione ed il controllo da parte dell’uomo.

Coloro che utilizzano questi sistemi devono sapere come sono stati programmati e quali dati sono stati utilizzati per l’addestramento perché se i dati sono inquinati da pregiudizi porteranno a giudizi discriminatori o non rispettosi dei diritti umani.

Si pensi, ad esempio, ai risk assessment tools che assistono il giudice, ed anche il pubblico ministero, nella valutazione di pericolosità sociale del reo, mediante la formulazione di una prognosi sul comportamento futuro del soggetto, al fine di individuare se sussistono i presupposti di una misura cautelare e in caso di condanna, il trattamento sanzionatorio più adeguato. Se i dati inseriti sono inquinati -ad esempio- da pregiudizi razziali, ne consegue che avremo un risultato inquinato, con l’effetto che un imputato o un condannato appartenente ad una certa etnia rischia, solo per questo, una pena più severa o l’applicazione di una misura cautelare, e ciò mette in crisi anche il principio della presunzione di innocenza.

In questo settore l’uso della IA espone a rischio valori fondamentali, tanto che il già citato testo di regolamento europeo afferma che: «Le persone fisiche non dovrebbero mai essere giudicate sulla base di un comportamento previsto dall’IA basato unicamente sulla profilazione, sui tratti della personalità o su
caratteristiche quali la cittadinanza, il luogo di nascita, il luogo di residenza, il numero di figli, il livello di indebitamento o il tipo di automobile, senza che vi sia un ragionevole sospetto che la persona sia coinvolta in un’attività criminosa sulla base di fatti oggettivi verificabili e senza una valutazione umana al riguardo».


Un ulteriore aspetto critico è legato allo sviluppo della giustizia predittiva e al possibile «effetto gregge». La giustizia predittiva in senso stretto consiste nella previsione dell’esito della causa, sulla base dell’elaborazione e computazione di un’ampia quantità di decisioni giudiziarie.

Il PNRR prevede tra i suoi obbiettivi anche la realizzazione del c.d. Data Lake che comprende sei sistemi di conoscenza integrata dei dati: sistema di anonimizzazione delle sentenze civili e penali; sistema di gestione integrato per il monitoraggio delle attività degli uffici giudiziari; sistema di gestione e analisi dei processi civili; sistema di gestione e analisi dei processi penali; sistema di statistiche avanzate sui processi civili e penali; sistema automatizzato per l’identificazione del rapporto vittima – autore del reato.

La raccolta dei dati è anche il presupposto della giustizia predittiva.

La scrittura digitale, attraverso formule matematiche applicate ai big data permette non solo di analizzare le ricorrenze statistiche, ma anche di sviluppare risposte predittive: i dati possono essere letti da programmi informatici appositamente istruiti che attraverso l’algoritmo tracciano le tendenze di determinati fenomeni e riescono, quindi, a formulare delle previsioni.

A differenza degli algoritmi decisori (che guardano al passato e replicano le inferenze offrendo al giurista una soluzione statisticamente possibile), gli algoritmi predittivi guardano al futuro e formulano valutazioni prognostiche: sono costruiti con l’intento di prevedere quella che sarà la decisione, la pena, il risarcimento, l’indennizzo.

Questo potrebbe dare un grande impulso alle ADR, con i conseguenti vantaggi di deflazione del carico giudiziario e di creazione di un sistema di risoluzione delle controversie non solo veloce, ma anche in grado di produrre un esito accettato dalle parti e quindi tendenzialmente di più facile attuazione.

Tuttavia, comporta il rischio che questi sistemi diventino fonte alternativa di normazione, una sorta di diritto vivente creato non dalla giurisprudenza, affidandosi a quel processo deduttivo ma al contempo euristico di cui si è detto, ma meramente all’algoritmo. In sostanza, l’algoritmo non solo predice un certo esito, ma nella misura in cui questa predizione è considerata affidabile, al tempo stesso lo produce, e può indurre ad un appiattimento generalizzato sulla predizione, chiamato, appunto, effetto gregge.

Se gli obiettivi della giurisdizione vengono determinati in termini non compatibili con il nostro sistema giudiziario, così come esso è strutturato, e con le risorse disponibili, è forte la tentazione di cedere ad un sistema quanto più automatico possibile di produttività, con l’uso di sistemi di intelligenza artificiale non
adeguatamente governati; già oggi governare il processo decisionale in modo non stereotipato non è facile a fronte della pressione dei numeri e lo sarà ancora meno domani.

L’introduzione del criterio della performance, ancor di più se la stessa è eterodeterminata e quindi se i risultati sono imposti dall’esterno, rischia far entrare il giudice in un’ottica solo produttivistica e performativa favorendo un adeguamento non ragionato alla predizione, a maggior ragione se ciò incide sulla valutazione del lavoro del magistrato.

Questa spirale produttivista e i rischi connessi si avverte anche per la Corte di Cassazione, e per la sua funzione nomofilattica, prevista dall’art. 65 del R.D. 12/1941. La Corte di Cassazione deve assicurare l’esatta osservanza e l’uniforme interpretazione del diritto, il che vuol dire enunciare principi di diritto che assicurino un certo grado di stabilità e prevedibilità delle decisioni.

La forza del precedente, tuttavia, non si basa sulla vincolatività stabilita per legge, ma sulla persuasività, per le ragioni che lo giustificano; pertanto non può essere il risultato di un processo meccanico, ma richiede che si usino tutte le competenze logiche e umane e si eserciti quella attività euristica che è propria del confrontarsi nel processo, mettere in discussione le permesse, dare spazio al dubbio.

L’interpretazione giurisprudenziale crea il diritto vivente, che non significa libera creazione del diritto, bensì communis opinio sulla lettura da dare a un norma suscettibile di diverse interpretazioni. Proprio perché “vivente”, si tratta di un processo dinamico, con un certo grado di incertezza sui risultati. Se per
prevedibilità della decisione intendiamo che la giurisprudenza dovrebbe essere immutabile, ne ridurremmo l’utilità perché perderebbe la sua flessibilità e non potrebbe adattarsi alle evoluzioni della società e rispondere appropriatamente alle esigenze che la comunità esprime. Non si deve perdere di vista che la prima finalità del diritto è proprio quella di essere utile all’uomo, inteso sia come singolo che come comunità di individui che si danno delle regole per vivere insieme.

L’uso dei sistemi di intelligenza artificiale può essere d’aiuto, ma occorrono forze adeguate per governarla: il che significa in primo luogo competenza, perché per governare l’IA il giudice deve acquisire le abilità necessarie; il che comporta disporre di tempo, sia per acquisire queste competenze, ma anche per usarle. Il prodotto della intelligenza artificiale non può essere adoperato nella giurisdizione senza essere prima attentamente controllato e verificato; e non si può affidare interamente all’IA il processo
decisionale perché il prodotto deve essere inserito armonicamente in quel complesso di attività in cui si sostanzia il giudizio; per ciò è necessario anche mantenere e rafforzare l’indipendenza, ossia garantire la libertà da pressioni, dirette o indirette, che indirizzino il giudice ad uso non adeguatamente controllato della IA.

Scarica il pdf

Condividi