Sommario: I) L’intelligenza artificiale: una nuova sfida per il mondo della giustizia. – II) Intelligenza artificiale come strumento di organizzazione della giustizia. – III) Intelligenza artificiale come fattore di prevedibilità delle decisioni. – IV) Potenzialità e rischi dell’impiego dell’intelligenza artificiale in relazione ai singoli processi. – V) Intelligenza artificiale come oggetto dell’intervento penale e della cooperazione giudiziaria internazionale.

  1. L’intelligenza artificiale: una nuova sfida per il mondo della giustizia

L’art. 1 del nuovo Regolamento europeo che stabilisce regole armonizzate sull’intelligenza artificiale (AI Act) include una definizione di “sistema di intelligenza artificiale” come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

E’ una definizione che colpisce non solo per quello che contiene, ma anche e soprattutto per quello che non contiene, e cioè il riferimento ad un sistema che “simula” o “imita” l’intelligenza umana.

Si tratta, quindi, di una impostazione molto diversa da quella recepita in due importanti risoluzioni adottate dal Parlamento europeo tra il 2020 e il 2021[1], che si riferivano a una definizione di “sistema di intelligenza artificiale” così formulata: “un sistema basato su software o integrato in dispositivi hardware che mostra un comportamento che simula l’intelligenza, tra l’altro raccogliendo e trattando dati, analizzando e interpretando il proprio ambiente e intraprendendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici”.

Nell’AI Act, dunque, viene meno quella tradizionale concezione che ha qualificato l’intelligenza artificiale come simulazione dell’intelligenza umana; una concezione che, secondo un recente studio filosofico sulla materia[2], avrebbe fuorviato la valutazione dell’intelligenza artificiale e si celerebbe dietro l’entusiasmo e l’allarmismo unilaterali nei confronti di questa nuova tecnologia, la quale invece andrebbe definita sulla base del suo carattere interrelazionale con il “mondo della vita” (il Lebenswelt del pensiero di Edmund  Husserl, non a caso considerato da Hubert Dreyfus come il padre delle ricerche contemporanee nella psicologia cognitiva e intelligenza artificiale).

E’ stato acutamente osservato che definizioni come quella accolta nelle predette risoluzioni rispecchiano ciò che vorremmo che l’intelligenza artificiale fosse, piuttosto di ciò che è o può essere: «che l’IA simuli quella umana è un nostro desiderio, forse pregiudizio. In realtà, lo sviluppo impetuoso delle capacità di calcolo e di comunicazione (e di interconnessione), fa sì che la capacità della macchina di imparare (Machine Learning) dalle infinite fonti e connessioni porti verso lidi inesplorati»[3].

A ciò deve aggiungersi la considerazione della irriducibile differenza che intercorre tra il ragionamento giudiziario e gli attuali sistemi di intelligenza artificiale che, pur essendo in grado di elaborare con estrema velocità enormi quantità di dati, e pur potendo risolvere problemi inediti, non previsti originariamente dal software, non consentono però di stabilire connessioni “logiche” tra proposizioni; essi, quindi, non sono in grado di elaborare ragionamenti complessi fondati su collegamenti causali, né di processare i dati in funzione semantica, sulla base del significato delle parole, né, conseguentemente, di distinguere le correlazioni vere da quelle false[4].

La nuova definizione contenuta nell’AI Act va vista quindi come il punto di partenza verso un approccio maturo e “laico” al tema dell’intelligenza artificiale, al di là della visione mitologica (positiva o negativa) che ha accompagnato il suo avvento. Un approccio che porta ad usarla appropriatamente, senza essere usati da essa. Con la consapevolezza che i principi di autonomia e indipendenza della magistratura devono essere pensati oggi in modo nuovo, tenendo conto della sfida posta da “poteri di fatto” prima sconosciuti.

E’ significativo che nella bozza della Convenzione quadro del Consiglio d’Europa su “artificial intelligence, human rights, democracy and the rule of law” sia previsto un preciso obbligo degli Stati ad adottare misure volte a garantire che i sistemi di intelligenza artificiale non siano utilizzati perminare l’integrità, l’indipendenza e l’efficacia delle istituzioni e dei processi democratici, compreso il principio della separazione dei poteri, il rispetto dell’indipendenza della magistratura e l’accesso alla giustizia”.

Per rapportarsi con una società dove l’intelligenza artificiale eserciterà una influenza paragonabile, ma non identica, a quella dell’intelligenza umana, il mondo della giustizia deve modernizzare tutta la sua visione della realtà, valorizzando in forme nuove tutti i principi, le idee, la cultura che hanno convertito il processo civile e penale da instrumentum regni in strumento di tutela dei diritti di tutti, a partire dai soggetti socialmente sottoprotetti.

Mai come oggi è stata attuale la riflessione di Calamandrei, che diceva: “non sappiamo più che farci dei giudici di Montesquieu, «etres inanimés» fatti di pura logica. Vogliamo i giudici coll’anima”[5]. Come pure la riflessione di Rosario Livatino, che premetteva: «Contrapporre i concetti, le realtà, le entità della fede e del diritto può dare di primo acchito l’impressione, l’idea di una antinomia, di una contrapposizione teorica assolutamente inconciliabile; l’una, espressione della corda più intima dell’animo umano, dello slancio emotivo più genuino e profondo, dell’adesione più totale ed incondizionata all’invisibile e, in fondo, all’irrazionale; l’altra invece frutto, il più squisito, della razionalità, della riflessione, della gelida ed impersonale elaborazione tecnica». E spiegava: «Così invece non è», concludendo, con una citazione di Piero Pajardi, che «il sommo atto di giustizia è necessariamente sommo atto di amore se è giustizia vera, e viceversa se è amore autentico».

 Oggi la giustizia deve avvalersi in un modo innovativo, tutto da costruire, del linguaggio dei numeri, degli algoritmi, sfruttandone tutte le potenzialità che consentono di collocare i numeri entro un orizzonte di valori e di umanità che dà un senso profondo alla “lotta per il diritto” su cui si sono costruite la nostra storia e la nostra identità collettiva[6].

II. Intelligenza artificiale come strumento di organizzazione della giustizia

Nell’esaminare l’impatto dell’intelligenza artificiale nel settore della giustizia occorre muovere da una opzione di fondo che ha un rilevante significato: la scelta – compiuta con l’Allegato III dell’AI Act – di considerare come “sistemi di intelligenza artificiale ad alto rischio” quelli “destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti”.

Il “considerando” n. 61 dell’AI Act spiega che tale scelta è finalizzata a “far fronte ai rischi di potenziali distorsioni, errori e opacità”, nel quadro più generale di un’impostazione che tende a classificare come “sistemi ad alto rischio” determinati sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici, “in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale”.

Di grande importanza è l’ulteriore indicazione contenuta nella parte finale del “considerando” n. 61 dell’AI Act, così formulata: «L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana. Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi».

In realtà, quest’ultima categoria delle “attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi”, è estremamente ampia e riguarda una molteplicità di compiti che non sono attribuiti ai magistrati praticamente in nessun paese, tranne l’Italia.

Si tratta di compiti che comportano un grosso dispendio di tempo e notevoli problemi organizzativi, amplificando in modo innaturale la durata dei processi e in alcuni casi rendendo estremamente problematiche le riforme.

Un esempio concreto può essere sicuramente significativo.

Nel testo della lettera sottoscritta da tutti i presidenti delle corti d’appello italiane e inviata il 22 novembre 2023 al Ministro della Giustizia e ai Presidenti delle commissioni giustizia della Camera e del Senato, con cui si sollecita la previsione di una specifica disciplina transitoria nel caso di modifiche alla disciplina della prescrizione dei reati e della improcedibilità, si segnalano una serie di rilevanti problemi organizzativi:

«Si tenga conto infatti che ogni eventuale modifica imporrà, necessariamente, altra rivisitazione di parte molto consistente della pendenza di ciascun Ufficio. Essendo, per  precedenti scelte del Legislatore e dell’Esecutivo, il giudizio penale di appello tuttora governato dalla carta, questa rivisitazione imporrà il materiale accesso a decine di migliaia di fascicoli cartacei pendenti.

E non ‘a costo zero’, perché sarà ancora tempo, tanto, di magistrati e personale amministrativo che fronteggiano scoperture di organico rilevantissime, sottratto alla trattazione delle udienze, i cui tempi inevitabilmente si allungheranno. (…)

 Ciò, in un contesto di ben note attuali carenze pesantissime, di risorse umane e di sistemi informatici efficaci, potrebbe condurre alla paralisi dell’intera attività delle corti di appello».

Nello stesso senso è l’opinione di alcuni qualificati studiosi, che hanno rilevato che “l’abolizione dell’improcedibilità e la reintroduzione della prescrizione sostanziale in appello e in Cassazione comporterà un notevolissimo aggravio di lavoro per le corti, che saranno costrette a tirare fuori dagli armadi migliaia di fascicoli pendenti e a ricalcolare i termini di prescrizione del reato. Ciò non solo vanificherà il lavoro organizzativo svolto negli ultimi anni dopo l’introduzione dell’improcedibilità, ma rallenterà il processo mettendo a serio rischio il raggiungimento degli obiettivi del PNRR[7]

In realtà, queste prese di posizione segnalano un problema strutturale che va oltre la riforma in itinere: ci sono compiti – come il calcolo dei termini di prescrizione o dei termini massimi delle misure cautelari personali o delle misure di prevenzione patrimoniali – che in pressoché nessun altro Paese europeo sono considerati espressione di attività giurisdizionale in senso proprio. Tali compiti quindi negli altri ordinamenti sono affidati a personale amministrativo specializzato nella gestione del processo.

Su queste attività considerate in modo pressoché universale come meramente amministrative è possibile sperimentare efficacemente l’uso dell’intelligenza artificiale.

In particolare, è possibile:

  1. la creazione di un sistema informatico per il calcolo dei termini di prescrizione, tenendo conto delle diverse normative applicabili, per ciascun processo, in tutte le sue fasi, sulla base dell’inserimento dei dati relativi ai reati e alle cause di sospensione e interruzione;
  2. la creazione di un sistema informatico che realizzi una interazione tra il calcolo dei termini di prescrizione e la programmazione delle udienze, anche mediante gli opportuni avvisi urgenti per la anticipazione di udienze già fissate sotto una precedente normativa.

Questo stesso modello potrebbe benissimo essere applicato in relazione al calcolo dei termini massimi delle misure cautelari personali e delle misure di prevenzione patrimoniali.

In tutti questi casi, ovviamente, dovrebbe essere sempre possibile una revisione da parte della struttura amministrativa e del magistrato, da rendere obbligatoria in tutti i casi di richiesta difensiva.

Lo stesso vale per tutti i casi in cui occorre calcolare la scadenza dei termini processuali fissati per il compimento di determinati atti, e assumere le conseguenti misure organizzative.

Portando avanti questa prospettiva, l’uso dell’intelligenza artificiale potrebbe essere esteso ad altri aspetti organizzativi, sempre con possibilità di revisione da parte del dirigente dell’ufficio giudiziario: ad esempio, potenziare ulteriormente il sistema di assegnazione dei procedimenti sulla base di criteri predefiniti a magistrati e sezioni, già costituente oggetto di programmi informatici.

Come è noto, negli uffici giudiziari, al fine di assicurare la realizzazione del principio di precostituzione del giudice, vengono utilizzati per l’assegnazione dei procedimenti criteri oggettivi e predeterminati, ma con la possibilità di derogarvi in presenza di comprovate esigenze di servizio come quella del riequilibrio dei carichi di lavoro. Anche quest’ultima esigenza, in realtà, si presta a una analisi oggettiva e dettagliata con l’applicazione di strumenti di intelligenza artificiale, che possono fornire un supporto di grande utilità per le scelte demandate ai magistrati con funzioni direttive o semidirettive e sono suscettibili di essere impiegati per potenziare i risultati attualmente conseguiti mediante applicativi come GIADA (Gestione Informatica Automatizzata Assegnazioni Dibattimento).

A ben vedere, l’uso dell’intelligenza artificiale potrebbe servire anche per scelte più generali riguardanti la ripartizione del personale e delle risorse nei diversi uffici giudiziari, che richiedono calcoli complessi capaci di tenere in conto una pluralità di fattori quantitativi e qualitativi.

Assolutamente indispensabile è poi l’utilizzo dell’intelligenza artificiale per la anonimizzazione delle sentenze, soprattutto dopo la recente istituzione della banca dati della giurisprudenza di merito.

La intelligenza artificiale potrebbe poi rivelarsi utile anche ai fini della interazione tra sistemi di gestione degli uffici giudiziari e file digitali, mediante la condivisione automatico di una serie predefinita di dati, provvedimenti giudiziari e documentazione, quanto meno nei processi di rilevanti dimensioni che assumono un ruolo significativo per la ricostruzione di fenomeni criminali complessi e/o di natura transnazionale (con le conseguenti refluenze sul piano della cooperazione giudiziaria internazionale); sotto tale profilo, possono essere valorizzate e perfezionate le esperienze realizzate in diversi distretti italiani attraverso le varie forme di “area comune di trasmissione” (ACT) e alla CEDU mediante il sistema Hudoc, rendendo anche possibile la traduzione delle pronunce suscettibili di essere inserite nella piattaforma Sherloc di UNODC.

III. Intelligenza artificiale come fattore di prevedibilità delle decisioni

Gli strumenti predittivi fondati sull’intelligenza artificiale ripropongono l’antica aspirazione illuministica di un diritto pienamente conoscibile per i consociati, che è alla base del concetto di legalità nella prospettiva europea, fondato sui requisiti qualitativi di prevedibilità e accessibilità.

Si tratta di un potente fattore di uguaglianza di tutti i cittadini di fronte alla legge, e, al tempo stesso, di valorizzazione delle potenzialità del sistema della giustizia come strumento di inclusione sociale.

Ed è una ‘promessa’ che viene fatta dall’intelligenza artificiale proprio in un momento in cui quei valori vivono invece un momento di profonda crisi alimentata da molteplici fattori, specialmente in Italia, dove alla complessità del sistema multilivello delle fonti si è accompagnata una netta riduzione della collegialità nell’amministrazione della giustizia, verificatasi a partire dagli anni ’90 del secolo scorso.

In quest’ottica, l’intelligenza artificiale sembra suggerire la possibilità di ricostruire nella realtà giudiziaria di oggi un ordine lineare, semplice, prevedibile.

Vi è però il rischio di ottenere un ordine dietro al quale si consuma in realtà una frattura antropologica e un’intera rivoluzione cognitiva in cui il reale si riduce al quantificabile e l’operare è destinato a prevalere sul pensare[8].

Gli strumenti finora realizzati con l’impiego dell’intelligenza artificiale servono a prevedere, sulla base delle passate pronunce, le future decisioni dei giudici in casi analoghi.

I vantaggi attesi dall’utilizzazione di simili strumenti possono così sintetizzarsi:

  1. maggiore certezza del diritto (intesa in termini di “calcolabilità”);
  2. accrescimento della uniformità e coerenza degli orientamenti giurisprudenziali, con riduzione dei “contrasti inconsapevoli”;
  3. minore esposizione delle pronunce al “soggettivismo giudiziario” e ai rischi di parzialità;
  4. riduzione dei tempi della giustizia, per effetto della maggior efficienza del processo decisionale, della deflazione delle azioni giudiziarie prodotto dalla consapevolezza del probabile esito del giudizio, dell’impulso all’ADR (alternative dispute resolution) che potrebbe trasformarsi in ODR (online dispute resolution);
  5. riduzione dei costi della giustizia.

Per converso, i principali svantaggi temuti sono stati così riassunti:

a) lo sviluppo di un conformismo giudiziario tale da costituire un limite all’evoluzione del diritto, posto che i programmi formulano predizioni fondate, come detto, su analisi retrospettive; b) il rischio che, oltre alla elaborazione dei precedenti, vi sia anche la possibilità di profilare i giudici; c) il rischio che l’algoritmo incorpori bias cognitivi, con effetti discriminatori; d) l’inadeguata motivazione delle soluzioni di volta in volta proposte (motivazione oracolare), dovuta sia alla opacità di funzionamento dell’algoritmo (opacità che aumenta all’aumentare dell’accuratezza delle previsioni), ossia il cd.  “problema della black box, sia all’eventuale esistenza di diritti di privativa sul codice sorgente; e) il rischio di una deresponsabilizzazione del difensore, ma – ciò che sarebbe ben più grave – del giudice, stante la prevedibile tendenza dei giudicanti che disponessero di un tal programma a conformarsi, più o meno acriticamente ai suoi esiti, anche per semplice neghittosità, giacché la default option, come spiega la nudging theory, tende a “catturare” l’essere umano; g) il rischio che l’algoritmo, a causa di un difetto di programmazione (che, in ipotesi di estrema patologia, potrebbe essere anche intenzionale) o di una relativa scarsità o di una non buona qualità del dataset utilizzato, individui false correlazioni in numero maggiore rispetto alla fisiologia o dia luogo ai bias cognitivi (…); h) infine, il pericolo di perdere l’ineliminabile dimensione emotiva e valoriale del giudizio (si tratta di un rischio speculare al beneficio indicato sopra) che, poggiando sulle «innumerevoli sfumature» delle idee e delle emozioni umane, ha «paradossalmente il suo punto di forza nell’imperfezione»[9].

Sono obiezioni che non vanno sottovalutate.

Risulta estremamente rischioso già di per sé l’appiattimento delle decisioni future su quelle passate. Come è stato autorevolmente osservato, «le predizioni decisorie rischiano così di recidere il circolo virtuoso della giurisprudenza che fa vivere le norme nel tempo, che ne adegua l’interpretazione ai mutamenti della società. La predizione perfetta postula un inchiodamento sul passato, una giurisprudenza che replica all’infinito le idee e le soluzioni del passato. Poiché gli strumenti predittivi diverrebbero necessariamente di conoscenza pubblica, è facile immaginare che il giudice potrebbe restarne fortemente condizionato, aderendo ad essi, vuoi per timore di essere criticato (si pensi alla possibile esposizione mediatica del magistrato), vuoi per semplice comodità o pigrizia».

Lo stesso ruolo della Corte di Cassazione ne risulterebbe messo in crisi: l’idea di una Corte che si trova al centro di una «dinamica che instancabilmente ringiovanisce ed adegua la legge alle sempre nuove esigenze della vita e dei rapporti economico-sociali»[10] si colloca agli antipodi di una “tirannia del precedente”, per giunta basata su una analisi matematica (e dunque quantitativo-statistica) di enormi masse di dati che possono indurre ad applicare meccanicamente ai fatti di oggi le soluzioni adottate per i  casi verificatisi in passato.

Anche principi come quello della soggezione del giudice (soltanto) alla legge, e la distinzione tra il ruolo della giurisprudenza e quello del legislatore, corrono il pericolo di ridursi ad una astrazione.

Formalmente, i risultati ottenuti tramite gli strumenti predittivi fondati sull’intelligenza artificiale esercitano, rispetto al giudice, la stessa influenza di un orientamento giurisprudenziale consolidato. Ma, in realtà, questa influenza sarebbe enormemente accresciuta da cinque fattori:

  1. il c.d. automation bias, che consiste nella diffusa propensione ad affidarsi acriticamente ai suggerimenti di un processo di analisi automatizzato che processa enormi quantità di dati, sui quali nessun essere umano potrebbe esercitare un controllo altrettanto esteso;
  2. la impossibilità di contestare efficacemente il concreto funzionamento di algoritmi di estrema complessità e di sistemi informatici coperti da privative industriali;
  3. la tendenza alla burocratizzazione del giudice, che rischia di allontanarlo dalle suggestioni culturali innovative della dottrina e dalle istanze concrete di giustizia fatte valere dall’avvocatura, e di spingerlo, invece, verso la fuga dalle responsabilità e il comodo rifugio nella prassi fin qui seguita (“si è sempre fatto così”); tendenza, questa, che viene sicuramente accresciuta dall’insistente proposta di accrescere la responsabilità civile del giudice, una proposta che – per usare le parole di Rosario Livatino – “punisce l’azione e premia l’inazione, l’inerzia, l’indifferenza professionale”, esponendolo alla tentazione “più che di fare un provvedimento giusto, di fere un provvedimento innocuo”[11];
  4. il progressivo allontanamento del nostro sistema processuale dal modello accusatorio di un “processo di persone” per effetto della diffusione della trattazione scritta sia nel settore civile sia in quello penale;
  5. la possibilità della “profilazione” dei giudici, che renderebbe sempre più arduo per il magistrato mutare i propri orientamenti melius re perpensa, a fronte della percezione pubblica di una serie di decisioni prese in precedenza ed espressive di un indirizzo che rischia di produrre una vera e propria “prigionia del passato” (non essendovi in Italia una normativa analoga a quella dell’art. L111-13 del Code de l’organisation judiciaire  francese che prevede un divieto, penalmente sanzionato, di riutilizzare i dati di identità dei magistrati allo scopo di valutare, analizzare, comparare o prevedere le loro pratiche professionali, reali o supposte).

Vanno quindi tenute in seria considerazione le preoccupazioni della dottrina che ha evidenziato che «all’algoritmo verrebbe così assegnato di fatto un ruolo ‘normativo’» e ha posto in luce il rischio latente «che un impiego crescente degli strumenti della IA propizi nel tempo l’introiezione nella stessa società di una visione sempre più standardizzata, sempre più impersonale, sempre più ‘algoritmica’ della vita e delle relazioni umane. Che il suo uso induca sempre di più le persone a impiegare parametri di valutazione meramente quantitativi e numerici; che alla fine disabitui alla razionalità e alla ragionevolezza, e alla ricerca della giustizia nel caso concreto».

In mancanza di adeguati accorgimenti, anche i pretesi vantaggi sul piano della imparzialità delle decisioni giudiziarie potrebbero rivelarsi puramente illusori. Sotto quest’ultimo profilo, è significativa la riflessione compiuta dalla European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment, adottata nel 2018 dalla CEPEJ (Commissione per l’efficienza della giustizia del Consiglio d’Europa), che ha sottolineato come una metodologia statistica possa produrre effetti discriminatori. In proposito, si sono richiamate le osservazioni prospettate dalla ONG ProPublica sull’algoritmo utilizzato dal software COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), che era stato sviluppato da una società privata ed utilizzato da alcune autorità giudiziarie statunitensi per valutare – sulla base di 137 domande completate con le risposte fornite dall’imputato o con le informazioni tratte dal casellario giudiziale – il pericolo di recidiva nell’ambito della commisurazione della pena. Questo metodo apparentemente “neutro” aveva però condotto alla stima secondo cui gli afroamericani avevano il doppio delle probabilità di recidiva, entro due anni dalla condanna, rispetto alla restante parte della popolazione. Si tratta, all’evidenza, di una conclusione che portava a legittimare, anziché correggere, i problemi connessi alla fragilità socio-economica di alcuni settori della popolazione, rendendo più difficile l’accesso ai percorsi di riabilitazione e reinserimento sociale.

Le analisi empiriche dimostrano, poi, l’assenza di una correlazione necessaria tra sviluppo delle tecnologie informatiche e durata dei processi: non sempre i sistemi giudiziari tecnologicamente più avanzati sono quelli in cui i processi durano di meno, e, per converso, non tutti i Paesi tecnologicamente più carenti sono quelli in cui i processi durano più a lungo[12].

A ben vedere, la concreta incidenza dei vantaggi e degli svantaggi precedentemente elencati dipende in larga misura dalle modalità di impiego dell’intelligenza artificiale in funzione della prevedibilità delle decisioni.

Sembra sicuramente auspicabile l’utilizzazione dell’intelligenza artificiale per agevolare la ricerca dei precedenti giurisprudenziali, purché sia accompagnata da precise misure che impediscano di attribuire al precedente una indebita funzione quasi-normativa, la quale porterebbe a confondere il ruolo del giudice con quello del legislatore.

In realtà, vi è uno spazio importante nel quale si può riconoscere un ruolo all’intelligenza artificiale nell’analisi giuridica. E’ quello dello sviluppo di una autentica cultura del precedente e della diffusione della conoscenza dell’insieme delle decisioni già assunte su casi analoghi, in funzione di un accrescimento della qualità e della profonda umanità del lavoro del rendere giustizia (diceva Calamandrei: “Il segreto della giustizia sta in una sempre maggior umanità e in una sempre maggiore vicinanza umana tra avvocati e giudici nella lotta contro il dolore”).

Si crea così un antidoto al rischio di utilizzare le massime come “scorciatoie probatorie” che potrebbero esonerare il giudice penale dal suo ruolo essenziale di “giudice del fatto”, di organo dello Stato che decide “in nome del popolo italiano”, sulla base di un quadro di valori condivisi che ha nella Costituzione la sua stella polare.

In proposito, occorre tenere presente che la conoscenza degli orientamenti giurisprudenziali nel nostro ordinamento è stata tradizionalmente attuata attraverso la diffusione delle “massime”, che però presentano una struttura molto diversa dai “precedenti”.

Il “precedente” rispecchia il caso concreto costituente oggetto della decisione, mentre la “massima” esprime il principio di diritto costituente la ratio della sentenza. Molto spesso, il caso concreto resta al di fuori della formulazione della massima; talvolta, un abstract di esso viene menzionato tra parentesi nella massima dopo l’enunciazione del principio giuridico.

Conseguentemente, dietro ogni massima possono esserci fatti molto diversi tra loro, e scelte decisionali fortemente differenziate in relazione ad una pluralità di fattori.

Si pensi, ad esempio, alla concreta applicazione della massima secondo cui “in tema di stupefacenti, la configurabilità del delitto di cui all’art. 73, comma 5, d.P.R. 9 ottobre 1990, n. 309, postula un’adeguata valutazione complessiva del fatto, in relazione a mezzi, modalità e circostanze dell’azione, ed a quantità e qualità delle sostanze, con riferimento al grado di purezza, sì da pervenire all’affermazione di lieve entità in conformità ai principi costituzionali di offensività e di proporzionalità della pena”.

Per comprendere la effettiva qualificazione giuridica (con il connesso trattamento sanzionatorio) attribuita alle varie tipologie di condotte ricorrenti nella prassi applicativa, può quindi rivelarsi fondamentale il ruolo dell’intelligenza artificiale, la quale per questa via può divenire un grande fattore di attenzione al fatto concreto e di attuazione dei principi costituzionali di uguaglianza.

Ma per rendere effettivo questo ruolo, occorre adottare una strutturazione della sentenza che renda possibile la identificazione immediata, da parte dell’intelligenza artificiale, dei fatti rilevanti.

L’esigenza di prevenire il rischio di “allucinazioni” da parte dell’intelligenza artificiale richiede, infatti, la diffusione di un “modello di sentenza”, costruito sulla base dell’esperienza della Corte europea dei diritti dell’uomo ed idoneo a divenire patrimonio comune del nostro sistema giudiziario, anche con il supporto della stabilizzazione dell’Ufficio per il processo.

Al tempo stesso, per evitare la “proiezione verso il passato” e l’autoreferenzialità della giurisprudenza, potrebbero introdursi alcuni nuovi compiti dei dirigenti degli uffici giudiziari.

Un compito di indubbia utilità, la cui attuazione è agevolata dalla nuova struttura dell’Ufficio per il Processo, consiste nell’assicurare la predisposizione di “guide sui diritti in azione”, relative alle più rilevanti questioni applicative, e contenenti una ricostruzione, aggiornata e accessibile a tutti, dell’attuale volto del “diritto vivente”. Si tratta di un modello operativo che trae ispirazione dalle Guide diffuse dalla Corte europea dei diritti dell’uomo con l’esposizione della propria giurisprudenza sui diversi diritti, ed è stato già avviato in alcuni uffici giudiziari, come il Tribunale di Palermo[13], dove dal 2022 sono state rese disponibili alcune guide sui “diritti in azione”, redatte non solo in Italiano, ma anche in lingua inglese, e finalizzate a rendere consapevoli dei propri diritti, della propria dignità, e della tutela offerta dalla giurisdizione, anche i soggetti appartenenti alla categorie più vulnerabili e sotto-protette, come pure i familiari delle vittime dei più gravi episodi della strategia del “terrorismo mafioso”.

Un secondo compito, in linea con la visione scientifica secondo gli uffici giudiziari operano tanto meglio quanto più sono capaci di “fare rete” e di concretizzare l’idea di accountability, consiste nel programmare (in collaborazionecon il mondo dell’avvocatura e con le altre istituzioni) una serie di iniziative di dialogo aperto sul territorio, partendo dalle realtà più difficili, allo scopo di riattivare i canali di comunicazione tra Stato e società, facendone scaturire una autentica “prossimità della giustizia”, capace di rafforzare il riconoscimento giuridico, la tutela e la realizzazione dei bisogni sociali emergenti, e divenendo un preciso punto di riferimento per tutte quelle fasce della collettività che rischiano altrimenti di essere strumentalizzate dalle più recenti strategie di “welfare criminale” messe in opera da organizzazioni di tipo mafioso e altre associazioni delittuose. Un significativo esempio in tal senso è offerto dal “viaggio in Italia”, organizzato dalla Corte Costituzionale presso una serie di istituti penitenziari.

IV. Potenzialità e rischi dell’impiego dell’intelligenza artificiale in relazione ai singoli processi

E’ sicuramente auspicabile lo sviluppo di sistemi di intelligenza artificiale finalizzati ad agevolare l’accesso dei cittadini alla giustizia con il superamento delle barriere culturali e linguistiche che ostacolano la partecipazione di tutte le parti ai singoli procedimenti.

Ad esempio, le nuove tecnologie possono rivelarsi estremamente utili per rendere possibile alle parti la presentazione online in modo assolutamente corretto degli atti introduttivi del procedimento e degli altri atti processuali di loro pertinenza, sulla base di modelli predefiniti e resi disponibili sui siti web dei diversi organi giurisdizionali. Peraltro, misure del genere possono trovare applicazione anche nelle ipotesi in cui sia necessario prendere parte a un processo “transfrontaliero”, da celebrare in un Paese diverso da quello in cui il soggetto risiede.

Non meno importante è il ruolo che gli strumenti tecnologici più moderni possono assumere per agevolare la traduzione in tempo reale di tutti gli atti processuali in favore dei soggetti che parlano una lingua diversa da quella del Paese in cui si celebra il procedimento, così rendendo possibile una piena partecipazione al giudizio di tutte le parti interessate.

Un risultato significativo in termini di efficienza può essere conseguito anche mediante l’utilizzazione di programmi informatici per la quantificazione e il pagamento delle spese giudiziarie, evitando un dispendio di energie lavorative che possono essere rivolte a compiti ben più complessi e importanti. Chiaramente, anche in questo caso dovrebbe essere assicurata la revisione ad opera del magistrato su istanza di parte.

Va, invece, adottata una estrema cautela a proposito degli strumenti di intelligenza artificiale destinati al giudice in funzione probatoria e decisoria.

Per quanto attiene all’impiego probatorio, la dottrina ha posto in luce alcune ipotesi nelle quali gli algoritmi potrebbero risultare dei preziosi alleati per le parti, ad esempio per «valutare meglio il grado di attendibilità dei testi oculari, essendo in grado di fornire più precise indicazioni su condizioni atmosferiche, visibilità, distanza del teste dal luogo di svolgimento dei fatti, o stabilire con maggior precisione l’autenticità o la provenienza di un documento»[14].

Ma è stato pure correttamente osservato che è «tutto da esplorare lo spazio di come costruire il vaglio processuale di un elaborato prodotto da un sistema di intelligenza artificiale»[15].

In particolare, il prodotto dell’intelligenza artificiale, nella misura in cui costituisce una prova digitale e scientifica non specificamente disciplinata dalla legge, rientra nella previsione dell’art. 189 c.p.p., che, ai fini della sua ammissione, richiede sia la dimostrazione positiva della sua idoneità ad assicurare l’accertamento dei fatti, sia la instaurazione preventiva del contraddittorio sulle sue modalità di assunzione.

Ai fini del più rigoroso vaglio di attendibilità sancito per le prove atipiche[16], occorre tenere conto dei criteri di valutazione della prova scientifica delineati dalla giurisprudenza di legittimità, soprattutto sulla scorta dei “canoni Daubert”: dal punto di vista del giudice sono di preminente rilievo l’identità, l’autorità indiscussa, l’indipendenza del soggetto che gestisce la ricerca, le finalità per le quali si muove[17]; le coordinate di riferimento dovranno sempre essere «quelle afferenti al principio del contraddittorio ed al controllo del giudice sul processo di formazione della prova, che deve essere rispettoso di preordinate garanzie, alla cui osservanza deve essere, rigorosamente, parametrato il giudizio di affidabilità dei relativi esiti»[18].

In quest’ottica, partendo dalla premessa che i sistemi di intelligenza artificiale funzionano stabilendo correlazioni tra enormi masse di dati, si è ritenuto che il primo problema sia quello di garantire a tutti gli attori processuali la conoscenza dei dati di partenza inseriti nell’algoritmo. Ciò porta ad affermare che, quando un siffatto strumento sia impiegato da autorità giudiziarie in un processo penale, non dovrebbe essere mai consentito opporre il segreto industriale sui dati, che integrano il c.d. codice sorgente[19]

La incapacità di stabilire collegamenti causali tra i fatti e la incapacità di processare i dati in funzione semantica, unite al carattere opaco dei sistemi di autoapprendimento (che non consentono neppure di controllare, il procedimento attraverso il quale sono pervenuti a un certo risultato), impediscono di contestare con argomenti razionali il risultato ottenuto[20], incidendo quindi sul diritto di difesa e sul contraddittorio nella formazione della prova, come pure sulla possibilità del giudice di poter comprendere l’affidabilità dei dati che dovrebbe porre a fondamento del suo giudizio e di poter di conseguenza motivare adeguatamente[21].

Per le stesse ragioni, appare estremamente problematico anche l’uso di sistemi di intelligenza artificiale (e in particolare di quelli “generativi”) per la redazione di bozze di provvedimenti giudiziari.

Il rischio che il giudice finisca per demandare la stessa decisione alla macchina ha indotto la dottrina più attenta adescludere in partenza l’ammissibilità di una redazione automatizzata del dispositivo, la quale, oltretutto, in sé e per sé non varrebbe ad alleggerire in modo significativo il lavoro giudiziario. Ma anche con riguardo alla motivazione si è considerata con allarme la prospettiva che si possa giungere ad un impiego generalizzato dell’intelligenza artificiale generativa da parte dei giudici di ogni grado di giudizio: finirebbe per soppiantare la motivazione come prodotto di ragionamento umano, e dischiuderebbe, in sostanza, uno scenario di “algoritmi che controllano algoritmi”. In proposito, si è incisivamente osservato che «a ben poco servirebbe che il giudice si assumesse la responsabilità e la paternità della motivazione: si tratterebbe di una mera finzione dietro alla quale si sarebbe ormai consumato il tradimento del suo obbligo di motivare (111.6 Cost.). Cambierebbe a questo punto anche la stessa logica dell’impugnazione che non si potrebbe più fondare su un approccio argomentativo»[22].

La esclusione della presenza di un “alto rischio” in relazione all’uso dell’intelligenza artificiale nel campo dell’attività giudiziaria sembra quindi da circoscrivere ad una serie di ipotesi menzionate nella parte preambolare dell’AI Act, come la classificazione dei documenti per categorie, il miglioramento dello stile linguistico dei provvedimenti, la valutazione ex post sulla conformità della pronuncia a modelli decisionali precedenti, l’indicizzazione dei fascicoli e la ricerca al loro interno.

V. Intelligenza artificiale come oggetto dell’intervento penale e della cooperazione giudiziaria internazionale

L’intelligenza artificiale pone una serie di nuovi problemi che richiedono una profonda riforma del sistema penale sostanziale e processuale.

La questione della disinformazione è ormai al centro delle preoccupazioni delle più importanti strutture volte a proteggere il paese sul piano della cybersecurity.

Con riguardo a questa, come pure a numerose altre attività delittuose, l’attività di law enforcement può incontrare pesanti ostacoli a causa del modo di operare tipico dell’intelligenza artificiale, caratterizzato dai seguenti cinque aspetti:

  • smaterializzazione
  • velocizzazione
  • deterritorializzazione (transnazionalità e ubiquità)
  • detemporalizzazione
  • offensività ad amplissimo raggio.

Negli altri ordinamenti si sono registrati, negli ultimi anni, significativi interventi normativi che hanno dato vita a due diversi modelli di disciplina in tema di disinformazione.

In particolare, in Francia la legislazione relativa alla lotta contro la manipolazione dell’informazione (legge organica n. 1201 e legge n. 1202 del 22 dicembre 2018) ha previsto sanzioni penali per le condotte di violazione degli obblighi di trasparenza imposti ai gestori di piattaforme informatiche (tra cui l’obbligo di fornire agli utenti una informazione leale, chiara e trasparente sulle persone fisiche o giuridiche che versano compensi alle piattaforme in cambio della promozione di contenuti relativi a argomenti di interesse generale) e ha introdotto una procedura d’urgenza che consente al giudice (civile), di adottare, nei tre mesi precedenti un’elezione generale, tutte le misure proporzionate e necessarie per far cessare la diffusione deliberata, artificiale, automatica e massiva di informazioni false o tendenziose[23].

In Germania il Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, noto anche come “Netz DG” o “Facebook Act”, entrato in vigore nel 2018, ha disciplinato la responsabilità amministrativa dei gestori di social network con ampia diffusione, comminando sanzioni pecuniarie di notevole entità (fino a cinque milioni di euro) per la violazione del dovere di rimozione dei contenuti illeciti[24].

Al problema della predisposizione di nuove fattispecie incriminatrici e di sanzioni adeguate per le condotte illecite commesse con l’uso dell’intelligenza artificiale si accompagna quello della disciplina di “parte generale” sulla responsabilità penale in questo settore.

Al riguardo, merita attenta considerazione la proposta di concentrare l’intervento del diritto penale nella materia in esame sulla punizione di violazioni di regole di condotta stabilite ex ante, volte a prevenire, anticipare e minimizzare i profili di rischio che la tecnologia più autonoma può presentare[25].

Si è puntualizzato che l’uso di sistemi di intelligenza artificiale completamente autonomi dovrebbe ammettersi solo quando si può dimostrare che la società – alla luce di un’adeguata analisi costi/benefici – può trarre più vantaggi che svantaggi dal loro impiego. Nelle aree in cui l’uso di questi sistemi è ritenuto troppo rischioso, i precetti penali dovrebbero intervenire al fine: a) o di regolamentare e all’occorrenza vietare l’introduzione di questi strumenti; b) o di stabilire, comunque, che il mantenimento di un controllo umano significativo debba ritenersi essenziale, garantendo così un centro d’imputazione umano a cui eventualmente addossare la responsabilità[26].

Le aree di criminalità nelle quali, nel prossimo futuro, potrebbero verificarsi sviluppi estremamente preoccupanti per effetto dell’uso illecito dell’intelligenza artificiale sono molteplici.

Lo spazio virtuale è divenuto, per la criminalità organizzata, non solo uno strumento di comunicazione ma anche la sede privilegiata di alcune delle più redditizie attività criminali.

Si è verificata, nel nuovo millennio, una vera e propria rivoluzione, propiziata dall’avvento delle piattaforme social, delle criptovalute e del dark web. Precisamente, i social media forniscono uno strumento di reclutamento e propaganda, le monete digitali consentono di effettuare transazioni finanziarie con un livello di anonimato estremamente elevato, e il dark web diventa uno dei principali luoghi di svolgimento dei traffici illeciti di stupefacenti, armi e dati, senza alcuna barriera nazionale, ed anzi servendosi di server custoditi in Paesi tradizionalmente ostili a ogni forma di collaborazione con gli inquirenti occidentali[27].

Alcuni dei cambiamenti più profondi sono venuti a realizzarsi negli ultimi dieci anni, dopo l’allarme, lanciato dalla DIA nel 2014, sulla capacità della criminalità organizzata di sfruttare sempre più l’online banking per aprire conti anonimi o utilizzare quelli forniti da prestanome, noti come money mule.

Da una recente, approfondita ricostruzione compiuta da due dei maggiori esperti di criminalità organizzata[28], emerge un percorso scandito da quattro tappe.

La prima ha il suo inizio nel 2016, quando sui social media sbarca la «Google Generation Criminale», composta da giovani nati a cavallo tra i due secoli. Con questa presenza sempre più massiccia, le piattaforme social diventano teatri di una strategia di presidio, simile a quella utilizzata nel mondo fisico: esse divengono il motore di un continuo rinnovamento della subcultura mafiosa, che ridefinisce vecchi paradigmi, promuove una sorta di post-verità, e costruisce consenso, senso di identità e di appartenenza, attraverso una predominanza dell’estetica della ricchezza (che ha una speciale valenza attrattiva nei territori della desertificazione scolastica e della disoccupazione imperante) e una idealizzazione del ruolo degli esponenti mafiosi, percepiti come fornitori di protezione e risolutori di problemi per le comunità in cui operano, ovvero come “antieroi” protagonisti della ribellione contro una società che produce diseguaglianza e marginalità.

La seconda tappa, collocata nel 2017, è costituita dal coinvolgimento della ’ndrangheta nella movimentazione di ingenti somme di denaro il sistema dell’hawala, prevalentemente utilizzato in Asia e nel Medio Oriente, e capace di rendere possibile il trasferimento di valuta senza l’uso di transazioni bancarie formali né di spostamenti fisici. Si tratta, peraltro, di un sistema contrassegnato da una ampia base fiduciaria e già emerso in importanti indagini sul terrorismo internazionale.

La terza tappa, manifestatasi con chiarezza dagli anni 2018-2019 in poi, è rappresentata dalla tendenza a veicolare i flussi monetari della ’ndrangheta nei canali informali, attraverso il circuito delle criptovalute.

Infine, la quarta tappa, che emerge negli anni 2020-2021 con i primi esiti delle indagini condotte sulle piattaforme Encrochat e Sky ECC, riguarda l’uso dei “criptofonini”, forniti a una clientela di parecchie decine di migliaia di persone da provider che hanno realizzato sistemi estremamente sofisticati di criptazione delle comunicazioni.

Si tratta di soluzioni tecniche finalizzate a neutralizzare tutti gli strumenti investigativi di captazione delle conversazioni e della messaggistica, sia quelli “tradizionali” (come le intercettazioni telefoniche) sia quelli tecnologicamente avanzati (attuati, ad esempio, con l’installazione di un “captatore informatico”, e cioè di un trojan, su uno smartphone).

I “criptofonini” sono dispositivi nei quali restano disattivate le funzionalità tipiche dei comuni smartphone, come i servizi Google, la videocamera, il microfono, il sistema Bluetooth, la porta USB, il sistema di geolocalizzazione. Essi non sono agganciati alla tradizionale rete telefonica o telematica in quanto, per comunicare, si servono di piattaforme informatiche crittografate il cui funzionamento dipende dall’impiego di server gestiti da privati ed allocati all’estero. Da qui nasce la necessità di disporre delle chiavi di cifratura, in assenza delle quali i flussi comunicativi scambiati si presentano come sequenze di numeri prive di qualsiasi significato intellegibile[29].

Questi dispositivi, dal costo estremamente elevato, sono stati utilizzati da decine di migliaia di persone, di cui oltre 7.000 in Italia. Dopo le attività di indagine condotte da squadre investigative comuni costituite dalle autorità francesi, olandesi e belghe con il coordinamento di Eurojust, la relativa messaggistica è stata utilizzata per una serie di procedimenti avviati in Italia, soprattutto in materia di narcotraffico internazionale gestito da esponenti della ‘ndrangheta e di clan stranieri (come quelli albanesi) operanti sul nostro territorio. Il loro impiego probatorio è attualmente al centro di una serie di questioni controverse sottoposte al giudizio della nostra Corte di Cassazione e della Corte di Giustizia dell’Unione: un nuovo e delicatissimo fronte all’interno del già incandescente dibattito sui rapporti tra i mezzi di ricerca della prova e le nuove tecnologie[30].

Si sviluppa in questo contesto il “crimine cibernetico organizzato[31], che potrebbe avvalersi in un prossimo futuro delle potenzialità offerte dall’intelligenza artificiale con conseguenze estremamente allarmanti.

Ed è proprio questa la nuova frontiera della globalizzazione della criminalità e della costruzione di un impegno comune contro di essa da parte delle istituzioni competenti, di livello nazionale e sovranazionale. Una sfida dall’esito tutt’altro che scontato.

Nella discussione parlamentare sulle intercettazioni, caratterizzata da rilevanti proposte innovative sul piano della protezione della privacy e della valorizzazione del ruolo del giudice, vi è finora un grande assente: il tema delle nuove tecniche investigative da sviluppare in relazione alle piattaforme telematiche criptate, utilizzate ampiamente negli ultimi anni dalle più pericolose organizzazioni criminali. Si tratta di una materia su cui è indispensabile una modernizzazione delle regole contenute nel nostro codice di procedura penale, “a meno di optare per un impossibile isolamento internazionale e di pagare il prezzo di un arretramento della nostra capacità di contrasto dei più gravi fenomeni criminali”, come ha sottolineato il Procuratore Nazionale Antimafia e Antiterrorismo, Giovanni Melillo, nell’audizione svolta nell’ambito dell’ampia indagine conoscitiva  condotta sul tema delle intercettazioni dalla Commissione Giustizia del Senato[32].

Alle innovazioni sul piano del diritto interno deve quindi necessariamente accompagnarsi un salto di qualità negli strumenti della cooperazione giudiziaria internazionale.

Le linee-guida di questo necessario sviluppo sono indicate con particolare lucidità da una importante risoluzione che è stata adottata il 16 ottobre 2020 dalla Conferenza delle Parti della Convenzione ONU di Palermo contro la criminalità organizzata transnazionale (categoria, questa, in cui rientrano le più pericolose forme di cybercrime).

Si tratta della della risoluzione 10/4, presentata dall’Italia ed intitolata: “Celebrating the twentieth anniversary of the adoption of the United Nations Convention against Transnational Organized Crime and promoting its effective implementation”. Un atto  che i nostri Ministri degli Esteri, della Giustizia e dell’Interno hanno concordemente presentato come la “risoluzione Falcone” non solo perché con essa la comunità internazionale rende uno speciale tributo a Giovanni Falcone, ma anche perché le misure da essa programmate costituiscono la concretizzazione delle idee-guida sviluppate da questo grande magistrato, che – insieme agli altri eroi civili che hanno forgiato negli ultimi decenni la nostra identità nazionale, come Paolo Borsellino e Rocco Chinnici – rappresenta per tutti i Paesi il simbolo dell’impegno per la giustizia.

In particolare, il paragrafo operativo n. 11 della risoluzione invita gli Stati parte ad istituire nuovi meccanismi che rendano più rapida ed efficace la cooperazione giudiziaria, come gli organi investigativi comuni che facciano uso delle moderne tecnologie.

La nozione di “organi investigativi comuni”, già presente nel testo dell’art. 19 della Convenzione di Palermo, può ricomprendere una pluralità di tipologie, delle quali alcune sono state già diffusamente sperimentate con importanti risultati – come nel caso delle squadre investigative comuni – mentre altre sono largamente da esplorare e possono dare vita a sviluppi ordinamentali di straordinario interesse. Dal coordinamento delle indagini si potrebbe passare alla creazione di un soggetto giuridico ufficiale, dotato di funzioni investigative proprie, complementari con i compiti degli organismi inquirenti dei singoli Stati interessati.

Negli ultimi anni, nell’ambito dei Gruppi di Lavoro della Conferenza delle Parti della Convenzione di Palermo, si è sottolineata la possibilità di tracciare una distinzione tra le semplici “squadre investigative comuni” (joint investigative teams), formate per svolgere attività di indagine su specifici casi entro un periodo limitato di tempo, e gli “organi investigativi comuni” (joint investigative bodies), contrassegnati da una struttura permanente e competenti per le indagini su determinate tipologie di reato[33].

Non meno importante è il paragrafo operativo n. 12 della risoluzione Falcone, che incoraggia gli Stati parte a utilizzare in modo efficace le tecniche investigative speciali, e a concludere accordi bilaterali o multilaterali appropriati per l’uso di tali tecniche nel contesto della cooperazione a livello internazionale.

Tra le tecniche investigative speciali previste dalla Convenzione,  di Palermo rientrano le operazioni sotto copertura e, soprattutto, la “sorveglianza elettronica”, su cui risulterebbe oggi estremamente opportuno un intervento di armonizzazione a livello internazionale fondato sulle recenti legislazioni di alcuni paesi che possono costituire un vero e proprio modello di riferimento per gli altri Stati per la sua capacità di raggiungere un valido punto di equilibrio tra efficienza e garanzia dei diritti fondamentali.

Anche i più semplici e diffusi sistemi di criptazione delle comunicazioni, utilizzati ogni giorno da moltissime persone, costituiscono un ostacolo difficilmente superabile per le intercettazioni di tipo tradizionale. Ciò rende indispensabile l’impiego delle nuove tecniche speciali di indagine incluse nella categoria della “sorveglianza elettronica”, ricomprende tutte le forme più avanzate di raccolta della prova digitale e di intercettazione di comunicazioni rese possibili dall’evoluzione tecnologica, tra cui il “captatore informatico”. È chiaro tuttavia che questa tecnica di indagine, in mancanza di una base giuridica adeguata che ne consenta l’impiego su obiettivi situati all’estero, rischia di divenire un’arma spuntata: i confini nazionali, che non riescono a frenare la estrema mobilità dei traffici illeciti, imbriglierebbero inflessibilmente la più moderna attività investigativa.

I nuovi strumenti di indagine resi possibili dagli sviluppi della tecnologia possono invece esprimere le loro potenzialità rispetto ai fenomeni criminali transnazionali se vengono inseriti nel quadro della cooperazione giudiziaria internazionale sulla base della conclusione di nuovi accordi bilaterali o multilaterali e della realizzazione delle appropriate riforme legislative fondate su linee comuni.

La prospettiva aperta dal paragrafo operativo n. 12 è particolarmente importante perché costituisce un preciso impulso alla cooperazione con i paesi situati in altri continenti, al di fuori dell’Europa, in vista del contrasto di fenomeni criminali aventi dimensione globale e radici sociali complesse.

Tale prospettiva si lega strettamente a quella tracciata dal paragrafo operativo n. 15 della risoluzione Falcone, che contiene un preciso programma delle prossime attività da realizzare da parte di UNODC (che è l’organo incaricato della gestione e dell’implementazione della Convenzione di Palermo), le quali comprendono:

a) la consulenza agli Stati per le riforme normative da introdurre nei rispettivi ordinamenti;

b) l’assistenza nello sviluppo di strategie nazionali per prevenire e combattere la criminalità organizzata transnazionale;

c) la promozione di forme moderne di cooperazione giudiziaria e di polizia, come l’istituzione di unità giudiziarie e di polizia specializzate e reti per il recupero dei patrimoni accumulati dalla criminalità organizzata, nonché quelle volte ad accelerare le procedure di estradizione e assistenza giudiziaria reciproca;

d) l’aggiornamento degli strumenti modello e delle pubblicazioni, tra cui la Guida sulla sorveglianza elettronica, anche al fine di inserire le disposizioni più avanzate sull’uso delle tecniche investigative speciali e sulla raccolta di prove elettroniche.

E’ appena il caso di sottolineare il ruolo di assoluto protagonismo che, in tutti questi settori, può essere svolto dal nostro Paese nel prossimo futuro. Di particolare interesse appare la prospettiva di un aggiornamento dello strumento pubblicato nel 2009 da UNODC sul tema “Current practices in electronic surveillance in the investigation of serious and organized crime”, che potrebbe far compiere un vero e proprio salto di qualità al dibattito scientifico e alle riforme legislative riguardanti le più moderne tecniche investigative in numerosi paesi.

Tra le iniziative già attuate, merita una particolare menzione quella completata nel 2022 con la pubblicazione della nuova versione della “Legge modello sull’assistenza reciproca in materia penale” (Model Law on Mutual Assistance in Criminal Matters, as amended with provisions on electronic evidence and the use of special investigative techniques) che rappresenta un’opera di modernizzazione assolutamente essenziale, in considerazione degli sviluppi tecnologici intervenuti in questo campo negli ultimi anni. Non a caso, tra le nuove disposizioni in essa inserite ci sono quelle relative alla raccolta di prove elettroniche e all’uso di tecniche investigative speciali, in particolare della sorveglianza elettronica.

Viene così inserita in modo efficace nel circuito della cooperazione giudiziaria internazionale, attraverso una armonizzazione normativa destinata ad attuarsi in un numero assai elevato di ordinamenti giuridici, la sorveglianza elettronica, che è sicuramente la più moderna delle tecniche investigative speciali previste dalla Convenzione  di Palermo.

Un altro sviluppo molto importante verificatosi nel 2021 è la pubblicazione, da parte dalle Nazioni Unite, della nuova versione delle “Previsioni legislative modello contro la criminalità organizzata” (Model Legislative Provisions against Organized Crime), destinate ad agevolare tutto il processo di revisione, modifica e adozione della legislazione nazionale occorrente per assicurare una efficace implementazione della Convenzione di Palermo nei 192 Paesi che vi hanno aderito.

La risoluzione Falcone esprime con particolare efficacia un orientamento culturale di fondo che vede nella lotta contro la criminalità organizzata un passaggio essenziale per garantire i diritti umani e le libertà fondamentali di tutti, in particolare delle donne, dei bambini, delle persone più vulnerabili[34].

Muovendo dalla consapevolezza – ben presente nei magistrati che hanno dedicato la loro vita al contrasto della criminalità organizzata, come Paolo Borsellino – dei «limiti invalicabili della risposta giudiziaria»[35], la risoluzione tende a realizzare un “circolo virtuoso” di collaborazione tra le diverse istituzioni e le migliori energie della società civile, del settore privato, del mondo scientifico[36].

Di particolare interesse è il paragrafo operativo n. 13, che invita gli Stati ad adottare misure per rafforzare la cooperazione tra le autorità giudiziarie e il settore privato, in particolare con i fornitori di servizi di comunicazione e il settore finanziario, per prevenire e combattere le manifestazioni emergenti della criminalità organizzata. Si apre così la strada a una collaborazione più intensa tra le istituzioni pubbliche, le banche e gli internet providers per il contrasto al cybercrime e a tutte le forme di utilizzo delle nuove tecnologie per scopi illeciti.


[1] La presente audizione è già stata pubblicata su “Sistema penale” del 22.05.2024

[2] Precisamente, la Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale, e la Risoluzione del Parlamento europeo del 20 gennaio 2021 sull’intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale.

[3] C. Durt, Artificial Intelligence and Its Integration into the Human Lifeworld, in The Cambridge Handbook of Responsible Artificial Intelligence, a cura di S. Voeneky, P. Kellmeyer, O. Mueller, W. Burgard, Cambridge University Press, 2022.

[4] G. Salvi, Attuazione della giurisdizione penale nello spazio virtuale e sicurezza nazionale, Intervento di apertura dell’anno accademico della Scuola Superiore di Polizia 2022/2023, in www.sistemapenale.it

[5] R.E. Kostoris, Intelligenza artificiale, strumenti predittivi e processo penale, in Cass. Pen., 2024

[6] P. Calamandrei, Processo e democrazia, 1952, adesso in Opere giuridiche, vol. I, Problemi generali del diritto e del processo, Roma TrE-Press, 2019, p. 650.

[7] Restano attualissime le pagine di R. Jhering, La lotta per il diritto, 1872.

[8] Così G.L. Gatta, Abolizione dell’improcedibilità e ritorno della prescrizione in appello, senza norme transitorie: le preoccupazioni dei presidenti delle corti d’appello in una lettera al Ministro della Giustizia e alle commissioni parlamentari, in www.sistemapenale.it; v. altresì G.L. Gatta – M. Gialuz, Prescrizione e improcedibilità: l’ennesima riforma e dieci verità nascoste, in www.sistemapenale.it .

[9] R.E. Kostoris, Intelligenza artificiale, cit..

[10] Così G. Carlotti, La giustizia predittiva e le fragole con la panna, in www.giustizia-amministrativa.it , 2023, che con riguardo a quest’ultimo profilo richiama G. Zaccaria, Figure del giudicare: calcolabilità, precedenti, decisione robotica, in Riv. dir. civ., 2020, 2, 27 

[11] In questi termini P. Calamandrei – C. Furno, Cassazione civile, in Novissimo Digesto Italiano, II, Utet, Torino, 1958, p. 1055

[12] R. Livatino, Il ruolo del Giudice nella società che cambia, 1984.

[13] Cfr. C. Castelli – D. Piana, Giusto processo e intelligenza artificiale, Maggioli, 2019, p. 96-100.

[14] Cfr. il provvedimento organizzativo adottato il 30 dicembre 2022 dal Presidente del Tribunale di Palermo, reperibile al seguente link: https://tribunale-palermo.giustizia.it/cmsresources/cms/documents/Prot._1776_1.pdf

[15] R.E. Kostoris, Intelligenza artificiale, cit..

[16] S. De Flammineis, Le sfide della prova digitale: sequestri, chat, processo penale telematico e intelligenza artificiale, in www.sistemapenale.it , 2024.

[17] S. De Flammineis, op.cit.

[18] Cass. Sez. IV, n. 43786 del 17/09/2010, Cozzini, Rv. 248943-4.

[19] Cass. Sez. V, n. 36080 del 27/03/2015, Knox, Rv. 264860 – 3.

[20] R.E. Kostoris, Intelligenza artificiale, cit.; S. Quattrocolo, Artificial intelligence, Computational Modelling and Criminal Proceedings. A Framework for a European Legal Discussion, Springer, 2020, p. 95, la ritiene una condizione necessaria per poter esperire un controllo indipendente sui dati forniti dal sistema, rilevando però come non sempre la giurisprudenza abbia imposto l’ostensione del codice sorgente. 

[21] N. Lettieri, Contro la previsione. Tre argomenti per una critica del calcolo predittivo e del suo uso in ambito giuridico, in Ars Interpretandi, 2021, p. 90.

[22] R.E. Kostoris, Intelligenza artificiale, cit.;

[23] R.E. Kostoris, Intelligenza artificiale, cit..

[24] Cfr. T. Guerini, Fake news e diritto penale La manipolazione digitale del consenso nelle democrazie liberali, Giappichelli, 2020, p. 75 ss.

[25] V. sul punto T. Guerini, Fake news, cit., p. 79 ss.

[26] M. E. Florio, Il dibattito sulla responsabilità penale diretta delle IA: “molto rumore per nulla”?, in Sistema penale, 2024, n. 2, p. 18.

[27] M. E. Florio, op. cit., p. 17.

[28] N. Gratteri – A. Nicaso, Il grifone. Come la tecnologia sta cambiando il volto della ‘ndrangheta, Mondadori, 2023.

[29] N. Gratteri – A. Nicaso, Il grifone, cit.

[30] L. Ludovici, I criptofonini: sistemi informatici criptati e server occulti, in Penale Diritto e Procedura, Rivista trimestrale, 2023, n. 3, p. 417-418.

[31] L. Ludovici, op. cit., p. 417.

[32] Cfr. A Balsamo – A. Mattarella, La Convenzione di Palermo a vent’anni dalla sua entrata in vigore: nuove sfide e nuove prospettive, in Il diritto penale della globalizzazione, 2023, n. 2, p. 147 ss.

[33] Sull’argomento v. la Audizione al Senato del Procuratore Nazionale Antimafia Giovanni Melillo sul tema delle intercettazioni del 31 gennaio 2023, in www.giustiziainsieme.it , e il Documento approvato dalla 2ª Commissione permanente (Giustizia) nella seduta del 20 settembre 2023 (relatori: Bongiorno, Berrino e Zanettin) a conclusione dell’indagine conoscitiva sul tema delle intercettazioni, in www.senato.it

[34] Sul punto v. il Background paper preparato dal Segretariato per il Working Group on International Cooperation riunitosi a Vienna nei giorni 7-8 luglio 2020 sul tema: The use and role of joint investigative bodies in combating transnational organized crime.

[35] Nella parte preambolare della risoluzione è contenuto il seguente paragrafo: “Underscoring that tackling transnational organized crime and its root causes in an effective manner is essential for ensuring that individuals, including women, children and vulnerable members of society, are able to enjoy their human rights and fundamental freedoms and that the implementation of the Convention and the Protocols thereto provides an important contribution to this objective”.

[36] P. Borsellino, Prefazione a R. Chinnici, L’illegalità protetta. Attività criminose e pubblici poteri nel meridione d’Italia, Palermo, 1990.

[37] Cfr. il seguente paragrafo della parte preambolare della risoluzione: “Recalling the important roles of civil society, non-governmental and community-based organizations, the private sector and academia in the prevention of and fight against transnational organized crime, and the contributions that they can provide to such efforts”.

Scarica il pdf

Condividi