mercoledì, Novembre 13, 2024
Uncategorized

L’avvento della tecnologia nelle aule giudiziarie: può il destino della giustizia essere affidato ad un algoritmo?

Io robot. E se la tecnologia sostituisse il giurista?
L’avvento della tecnologia nelle aule giudiziarie: può il destino della giustizia essere affidato ad un algoritmo?

saggio vincitore della Local Essay Competition promossa da ELSA Catania a cura di Andrea Galati

 

SOMMARIO: 1. Introduzione. – 2. Profili problematici sottesi alla applicazione dell’intelligenza artificiale nell’ambito processuale. – 3.  L’attività di pensiero del giudice e la logica di ragionamento algoritmica. – 4. Forme di applicazione dell’intelligenza artificiale nell’ambito della giustizia. 5. Può il destino della giustizia essere affidato ad un algoritmo?

1. Introduzione

Alan Turing nel 1950 pubblicherà un saggio dal titolo “Computing machinery and intelligence” che farà da apripista ad una moltitudine di riflessioni che tentano di dare una risposta all’interrogativo: “Possono pensare le macchine?[1]

Nel corso degli ultimi decenni l’intelligenza artificiale è stata applicata in diversi settori tecnico – scientifici, rendendoli celeri ed efficienti e incrementando la soglia del benessere. Tuttavia, la sfida del progresso non si è arrestata all’impiego delle logiche informatiche ai soli settori a prevalenza operativa, ma sta avendo anche una ricaduta in tutte le attività di concetto e che dunque prevedono un’attività di pensiero, di ragionamento teso alla realizzazione di un risultato (output) che è frutto di un processo di calcolo ed elaborazione di molteplici input[2].

E’ importante sottolineare che l’algoritmo non è una realtà che appartiene esclusivamente al mondo delle macchine, ma anche a quella dell’individuo, che attraverso la propria capacità di ragionamento logico riesce a collegare, elaborare, operare e risolvere la mutevolezza dei problemi che quotidianamente si trova ad affrontare.

Tuttavia, nel passaggio dalla logica umana a quella computazionale è pressoché impossibile riuscire a esprimere le mille declinazioni che attraversano la coscienza; i pensieri, i sogni e le emozioni afferiscono ad un linguaggio indecifrabile e non traducibile nella logica di una macchina[3].

Ormai da decenni sono in atto degli studi che tentano di comprendere la capacità di pensiero delle macchine[4] e infatti già nel 1950 Alan Turing svilupperà un test per cercare di capire se esse possano essere in grado di pensare come un uomo[5].

Anche i giuristi negli ultimi anni si sono interrogati sul possibile uso dell’intelligenza artificiale nell’ambito della giustizia; la questione è stata ritenuta particolarmente rilevante tanto da spingere la Commissione Europea per l’Efficacia della Giustizia alla emanazione della “Carta etica europea sulla applicazione dell’intelligenza artificiale nella giustizia”, in cui si sottolinea la necessità di “assicurare che l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritto fondamentali; prevenire lo sviluppo e l’intensificazione di discriminazioni tra persone o gruppi di persone; utilizzare fonti certificate e dati tangibili in un ambiente tecnologico sicuro, in ordine al trattamento di decisioni e di dati giudiziari; rendere la metodologia del trattamento dei dati accessibile e comprensibile, introducendo un meccanismo di autorizzazione di verifiche esterne; assicurare che gli utilizzatore siano informati e abbiano il controllo delle loro scelte” (Commissione Europea per l’efficienza della giustizia, Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, Commissione Europea per l’efficienza della giustizia, Strasburgo, 2018).

Già da alcuni anni, negli Stati Uniti d’America, sul piano della giustizia, vengono impiegati dei sistemi algoritmici che permettono di prevedere la recidività di un imputato[6], ma anche in Italia sono utilizzate delle logiche di questo tipo, si pensi al Sistema Automatico di Riconoscimento Immagini (dall’acronimo S.A.R.I.) che trova impiego nell’ambito della polizia scientifica e che permette di incrociare le immagini del volto di un soggetto ignoto con quelle note contenute nella banca dati per le impronte digitali (in inglese, Automatic Fingerprint Identification System e dall’acronimo A.F.I.S.)[7].

Seppur con diverse difficoltà di indagine, nell’appendice alla Carta viene comunque evidenziato che nell’Unione Europea vi è una scarsa applicazione di algoritmi di intelligenza artificiale nelle politiche pubbliche, rimanendo questi relegati al settore privato (assicurativo, uffici legali et alia)[8].

Alla luce di queste premesse è quindi opportuno riuscire a definire gli elementi generali di un algoritmo che si pone alla base di tutti i sistemi di intelligenza artificiale.

Per algoritmo possiamo intendere “un insieme ordinato di operazioni non ambigue ed effettivamente computabili che, quando eseguito, produce un risultato, arrestandosi in un tempo ben determinato” (G. M. Schneider, J. L. Gersting, Informatica, Santarcangelo di Romagna, Maggioli Editore, 2013).

L’esegesi di questa definizione potrebbe essere quella di considerare l’algoritmo come un sistema che è caratterizzato da un insieme di dati in ingresso (input) i quali vengono elaborati secondo delle regole univoche, ben definite e sintetizzabili in relazioni logiche che si susseguono secondo un determinato ordine e con un particolare linguaggio. In questa ultima fase, propriamente detta di elaborazione, si cela la logica della funzione “ ” che attraverso un insieme di regole  permette di pervenire ad un preciso risultato “ ” trasformando i dati in ingresso “ ”[9].

Nella consapevolezza che un tema del genere suscita pensieri discordanti e contrapposti nell’ambito dottrinale, l’obiettivo di fondo è quello di capire quali siano le logiche che si pongono alla base dei vari postulati al fine di evidenziare gli elementi di discordanza e capire se possano essere superati e quindi, dare in maniera obiettiva, non una risposta, ma un punto di vista in merito all’interrogativo: può il destino della giustizia essere affidato ad un robot?

Per un’analisi chiara e organica è necessario sottolineare l’importanza dell’attività ermeneutica del giudice e della logica di pensiero algoritmica; un binomio che permette di mettere in relazione il pensiero giuridico e quello matematico, permettendo di apprezzare i punti di contatto sotto il profilo logico del sillogismo tra fattispecie e norma giuridica, ma anche le disgiunzioni che sono alimentate dall’incapacità della logica matematica di dare un senso umano alle scelte potenzialmente tangibili della libertà individuale.

2. Profili problematici sottesi alla applicazione dell’intelligenza artificiale nell’ambito processuale

Negli ultimi anni si sta facendo strada l’idea riguardante l’applicazione dei sistemi di intelligenza artificiale nell’ambito processuale. Il dibattito dottrinale non si incentra esclusivamente su chi è favorevole o no all’adozione di questi sistemi, ma su aspetti specifici concernenti il tema della responsabilità, del trattamento dei dati personali, della standardizzazione delle decisioni, della parità di trattamento e del rispetto dei diritti fondamentali. Si tratta di punti di discussione complessi, che assumono dei risvolti non soltanto giuridici, ma anche etici, tanto da condurre recentemente alla introduzione della Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi (da qui in poi Carta etica). In questo documento vengono enunciati i valori principali da osservare, fra cui il concetto di under user control, il quale impone che ogni risultato derivante dalla applicazione dell’intelligenza artificiale deve sempre essere sottoposto al critico e scrupoloso controllo umano e adeguatamente motivato. Proprio quest’ultimo passaggio è stato recentemente sottolineato dal T.A.R. del Lazio a proposito dell’utilizzo della logica algoritmica nel procedimento amministrativo di assegnazione degli incarichi al personale docente nelle tornate di assunzione del 2017[10] e diritto che si ricava dall’applicazione dei principi fondamentali sul giusto processo già propugnati all’art. 6 della CEDU.

Ma se la macchina sbagliasse? Uno degli interrogativi che si fa strada è legato all’analisi della responsabilità degli errori prodotti dall’intelligenza artificiale. Durante la funzione di elaborazione, infatti, l’algoritmo opera sulla base delle regole impostate e degli input inseriti; proprio durante questa fase possono determinarsi degli errori o distorsioni (bias) che possono derivare da un difetto del costrutto algoritmo (il quale è nella generalità dei casi coperto dal segreto industriale), dalla non corretta trasformazione degli input nel linguaggio macchina o da qualsiasi altro fattore che potrebbe produrre un risultato diverso e anomalo da quello atteso.

In un articolo pubblicato da Pro Publica[11] viene sostenuto che gli algoritmi utilizzati negli Stati Uniti d’America per il calcolo della recidiva facciano delle discriminazioni nei confronti delle persone nere; nonostante questo articolo sia stato confutato da diversi studi, fra cui uno dall’Università Berkeley della California[12], ci induce a ragionare sulle possibili responsabilità derivanti dalla violazione del principio di parità di trattamento o dal mancato rispetto dei principi fondamentali dell’individuo.

Sotto il profilo della responsabilità penale è opportuno distinguere fra le macchine che eseguono delle operazioni il cui risultato è determinato, programmato e voluto dall’uomo, dalle c.d. machine learning, il cui algoritmo (c.d. bias induttivo) permette al sistema di imparare, prevedere delle informazioni ipotizzando degli input (sulla base di calcoli deterministici, statistici) e giungere ad un risultato che non predeterminato. Mentre nel primo caso la responsabilità dolosa o colposa per la lesione o messa in pericolo del bene o interesse giuridicamente rilevante è afferibile al produttore o al programmatore[13], nel secondo caso dovremmo invece chiederci: una macchina può delinquere?

È interessante notare che a fronte del tradizionale orientamento che non riconosce l’attribuzione di responsabilità in campo agli enti collettivi, lo studioso Gabriel Hallevy[14] afferma invece che sotto il profilo materiale, alla macchina potrebbe essere mosso il rimprovero di compiere una condotta attiva od omissiva, mentre sotto il profilo psicologico, potrebbero ravvisarsi dei casi di negligence o general intent (si pensi all’intelligenza artificiale che sfruttando il bias induttivo perviene ad una rappresentazione della realtà che non è predeterminata e che non risponde esclusivamente alle specifiche logiche di risultato impresse dal produttore/programmatore)[15].

Anche alla luce del GDPR 679 del 2016, il tema del trattamento dei dati personali sta assumendo un ruolo sempre più importante in virtù della mole di informazioni spesso interconnesse fra loro e che investono una dimensione sociale sempre più digitalizzata. Il fenomeno che viene in rilievo è quello dei big data, ovvero grandi volumi, velocità e varietà di dati[16], informazioni che continuamente vengono acquisiti, elaborati e conservati in una rete articolata di server dislocati in varie parti del mondo. Uno dei rischi da non trascurare potrebbe essere quello dell’incrocio indebito di dati, anche definito come function creep, in cui le varie informazioni trasmesse da ogni utente e in diversi contesti, siano utilizzati per finalità diverse e ulteriori rispetto a quelle per cui è avvenuto il rilascio[17]. A tal uopo la Commissione per le libertà civili, la giustizia e gli affari interni con una Relazione del 25 Ottobre 2004 ha affermato che “la creazione di una base di dati centralizzata violerebbe la finalità e il principio di proporzionalità, aumentando peraltro il rischio di abusi e di function creep (incrocio indebito di dati)” (CE n. 2252/2004 del Consiglio, del 13 dicembre 2004, relativo alle norme sulle caratteristiche di sicurezza e sugli elementi biometrici dei passaporti e dei documenti di viaggio rilasciati dagli Stati membri – WP112 (Gazzetta ufficiale L 385 del 29.12.2004, pp. 1-6). Adottato il 30 settembre 2005). Proprio su questo punto e sulla scorta del caso Google Spain della Corte di Giustizia, il GDPR del 2016 ha introdotto nell’art. 17 il c.d. diritto all’oblio che attribuisce all’utente, nei limiti indicati dalla norma, il diritto di ottenere dal titolare del trattamento la cancellazione dei propri dati personali quando questi non siano più necessari rispetto alle finalità per cui sono raccolti o trattati.

In ultimo pare opportuno evidenziare che dall’applicazione delle regole su cui si fondano la gran parte degli impianti giudiziari, ogni decisione deve essere aderente ai fatti che si desumono dall’analisi di ciascun singolo caso. Il pensare che si possano avere alcuni modelli di decisione da adattare in maniera standardizzata e meccanica ad insiemi di casi, collide con il principio del giusto processo enunciato già all’art. 6 della CEDU in cui viene affermato che “ogni persona ha diritto a che la sua causa sia esaminata equamente, pubblicamente ed entro un termine ragionevole da un tribunale indipendente e parziale”. Al riguardo di chi scrive, l’utilizzo nella frase, del pronome personale “sua”, ha un preciso significato e rappresenta il legame che avvince la persona ad una attività decisoria propria ed infungibile dell’organo giudicante che è chiamato a pronunciarsi tenendo particolarmente conto al caso concreto.

In conclusione, nella certezza che le contrapposizioni ideologiche non si ricalcano esclusivamente sull’aprioristico essere o meno a favore della applicazione dell’intelligenza artificiale nella giustizia, la dottrina e la giurisprudenza stanno analizzando con rigore i vari profili problematici che qui si è sinteticamente cercato di cogliere negli snodi principali. Bisogna essere consapevoli che si tratta di ambiti nuovi, che inevitabilmente condurranno il diritto ad orizzonti ad ora poco chiari, ma che esigono di essere solcati nel rispetto delle incomprimibili garanzie fondamentali che devono essere riconosciute ad ogni persona.

3. L’attività di pensiero del giudice e la logica di ragionamento algoritmica.

La logica algoritmica non appartiene solo alle macchine, ma specialmente alla persona. Ogni azione umana è frutto di un’attività di elaborazione celebrale che determina certi risultati, materiali o di solo pensiero, che derivano da input determinati o presupposti.

Le attività di interpretazione della norma e i processi su cui si inquadra l’attività decisionale del giudice possono essere sintetizzate in fasi ben determinate, quasi ad essere definite come un elegante algoritmo intessuto nella trama del rispetto delle garanzie procedimentali e dell’uomo e nella piena consapevolezza che l’obiettivo di fondo non è punire, ma educare e riparare.

Ma se la tecnologia sostituisse il giurista? Si tratta di una domanda che non trova una risposta chiara ed immediata, ma che intende aprire una parentesi di confronto tra l’attività ermeneutica del giudice e le fasi del giudicare con la logica di pensiero dell’intelligenza artificiale applicata alla giustizia.

Il giudice articola la sua funzione decisionale con il giudizio di diritto e il giudizio di fatto. Nel primo caso egli svolge un’attività di interpretazione della norma giuridica, risalendo alla volontà della stessa e indagando su quali siano i fatti costitutivi del diritto previsti in astratto dalla norma giuridica. Nel secondo caso il giudice, operando come uno storico, cerca di capire se i fatti previsti in astratto dalla norma si sono in concreto realizzati. È chiaro che questi due momenti che definiscono il sillogismo del giudice, essendo intessuti da reciproci condizionamenti, si pongono in una relazione di continuo coordinamento[18]. Un binomio che Salvatore Satta, nel Mistero del processo arricchisce in questi termini: “Ma che cosa è la conoscenza del fatto se non il diritto? […] il diritto non è altro che l’essere del rapporto umano, un essere necessitato, assoluto, l’unica terrena forma di conoscenza che a noi è dato avere dell’essere, tanto sicura che tutti in sostanza la possediamo, perché tutti viviamo giuridicamente anche senza aver mai aperto il codice, e vivendo continuamente creiamo diritto e nell’atto stesso del porlo, lo conosciamo” (S. Satta, Il mistero del processo, Milano, Adelphi, 1979, p. 45).

In questo articolato rapporto fra analisi del fatto e interpretazione del diritto il giudice è chiamato a indagare una realtà che è formata da una miscellanea di aspetti che impongono all’interprete di coglierne tutte le sfumature che spesso sfuggendo dalla realtà oggettiva si ricavano da una costellazione di relazioni, segni, atteggiamenti e impressioni che si istaurano fra le parti in un processo e che emergono dal c.d. contraddittorio.

Si tenga ulteriormente presente che il sistema di norme che caratterizza un ordinamento giuridico è spesso costituito dal ricorso a clausole generali che indicando un criterio di giustizia delegano all’interprete la funzione di elaborarle osservando alcuni principi valutativi presenti nella realtà sociale[19]. Si tratta di formule elastiche e di largo respiro che consentono all’ordinamento giuridico di potersi adeguare alla realtà sociale e che pertanto attribuiscono al giudice il potere di rendere concrete[20].

Il culmine dell’attività decisionale si realizza nel dare forma al frutto della logica di giudizio, mediante la redazione provvedimento dell’autorità giurisdizionale. Si tratta di un momento nettamente importante in cui il pensiero diventa realtà che esige di essere trasmessa e che necessita di particolare attenzione in ordine alle formule da utilizzare, alla chiarezza dei periodi, alle scelte lessicali a cui fare attenzione. Con il provvedimento finale il giudice è chiamato a realizzare l’immagine concreta di un’articolata realtà di pensiero che deve essere espressa in maniera chiara, obiettiva e con le dovute motivazioni. Proprio su quest’ultimo punto viene affermato che uno degli scopi del provvedimento è quello di “avvicinare maggiormente l’atto a colui che ne è il destinatario” (S. Evangelista, Motivazione della sentenza civile, in Enciclopedia del diritto, XXVII, Milano, 1977, p. 154).

Come si evince da questa sintetica analisi, l’attività del giudice nell’emettere la decisione è frutto di un algoritmo abbastanza complesso. Nel prosieguo si tenterà di ricondurre questa logica al linguaggio macchina, analizzando alcuni sviluppi algoritmici che sono stati pensati nel tentativo di emulare la funzione decisionale.

A tal proposito è opportuno tracciare la definizione di Intelligenza artificiale (IA) con cui si indicano “sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi” (COMMISSIONE EUROPEA, L’intelligenza artificiale per l’Europa, Comunicazione della Commissione Comunicazione della Commissione al Parlamento Europeo, al Consiglio, al Comitato Economico e Sociale Europeo e al Comitato delle Regioni, Bruxelles, 2018).

Nell’ambito giudiziario trova terreno fertile l’applicazione dell’algoritmo che utilizza il teorema del matematico britannico Thomas Bayes in cui, il principio secondo cui il giudice deve formare il proprio convincimento oltre ogni ragionevole dubbio sulla base di fatti provati che permettono di sostenere una imputazione o l’esistenza del diritto affermato nella domanda e che si intende essere leso, può essere ridotto nel postulato che segue:

Considerando uno spazio di probabilità “{Ω, B, P}”[21] ove nello spazio degli eventi “B”  i termini “A” e “B” siano eventi di cui la probabilità di verificazione dell’evento “B” sia diverso da zero. La probabilità a posteriori che si realizzi l’evento “A” dato “P(B) > 0” è data dalla seguente relazione[22]:

Convertendo questa equazione in chiave giuridica possiamo affermare che:

Per “P (A|B)” intendiamo la probabilità che dato il corredo probatorio “B” si possa sostenere l’imputazione del colpevole o l’esistenza del diritto affermato nella domanda dall’attore che qui indichiamo con “A”, mentre per “P (A|B)” intendiamo la probabilità dell’evidenza del corredo probatorio “B” dando per realizzato l’evento “A”.

Il simbolo “|” indicando la c.d. probabilità condizionata tale per cui l’evento “A” si possa realizzare al verificarsi di una o più condizioni “B”, implica una relazione di tipologia causa effetto.

Ancora, si consideri per “P (A)” la probabilità della colpevolezza o l’esistenza del diritto affermato nella domanda dall’attore indipendentemente dal corredo probatorio “B”, mentre, per “P (B)” la probabilità aprioristica della affidabilità del corredo probatorio, indipendentemente dalla colpevolezza o dall’esistenza del diritto affermato nella domanda dall’attore “A”[23].

Il risultato di tale relazione varia da 0 a 1 da ricondurre a percentuale. Un valore pari a 0 indica la improbabilità di verificazione dell’evento A, diversamente da risultati compresi tra 0 e 1 che indicherebbero probabilità di verificazione dello stesso via via crescenti.

Accanto all’analizzato teorema, alcuni studiosi hanno proposto alcune interessanti ricerche che hanno condotto alla elaborazione di alcuni sistemi di intelligenza artificiale che utilizzando un algoritmo di bias induttivo e il sistema c.d. Natural Language Processing hanno l’obiettivo di predire l’esito di un determinato procedimento a partire dalla moltitudine di provvedimenti già emessi[24].

Nel caso di specie l’algoritmo è basato sulla logica della rete neuronale ricorrente (dall’inglese Recurrent neuronal network o R.N.N.) che sfruttando meccanismi simili a quelli della rete neurale umana, consentono di utilizzare gli output dei processi di elaborazione precedente come input[25].

Secondo gli studiosi dell’Università Americana di Stanford questi sistemi presenterebbero il vantaggio principale di tenere conto di informazioni storiche (pensiamo ad un certo numero di pronunce), ma anche lo svantaggio da parte di essi di accedere ad informazioni remote.

Per ovviare a questo problema gli studiosi hanno perfezionato tali applicazioni mediante l’utilizzo di sistemi Grated Recurrent Unit e Long Short Term Memory Unit [26].

Con lo studio che si è proposto si è cercato di dare una sommaria analisi delle logiche di pensiero che un giudice utilizza nell’emettere la propria decisione ed un confronto con alcune logiche di intelligenza artificiale che si pongono alla base di attuali sistemi che permettono di poter giungere in termini statistico – matematici ad un risultato che tenga conto del c.d. oltre ogni ragionevole dubbio sui cui il giudice deve fondare la consapevolezza di emettere un provvedimento che sia frutto sia del corredo probatorio a sostegno dell’imputazione che si intende affermare o della verità dei fatti allegati, ma anche di quel particolare bilanciamento fra gli interessi in causa e che è molto difficile, se non impossibile da incardinare nell’ottica dell’intelligenza artificiale, in quanto richiedono uno sforzo di coscienza ignoto alla macchina.

4. Forme di applicazione dell’intelligenza artificiale nell’ambito della giustizia.

Nel 2015 un Giudice per le Indagini Preliminari del Tribunale di Milano, pronunciandosi su caso di tentata rapina ha assolto l’imputato sulla scorta di una probabilità poco certa che egli avesse compiuto il fatto e attraverso l’applicazione della logica sottesa al teorema di Bayes.

Nel caso di specie, dalle risultanze della sentenza emessa si ricavano gli indici di pensiero che hanno condotto il giudice alla decisione di assolvere l’imputato per non aver compiuto il fatto. Precisamente, in prima battuta, il decisore ha considerato nel rapporto di vera somiglianza un valore stimato del 99,9% di affidabilità della prova scientifica. Dai rilievi investigativi, infatti, emerge il ritrovamento delle impronte digitali dell’imputato sul motociclo utilizzato per portare a compimento il fatto. Tuttavia, lo stesso giudice, argomentando sul fatto che la corrispondenza fra le impronte ritrovate e quelle dell’imputato si basa su un confronto positivo di 17 elementi[27], ha modo di sottolineare che non esiste alcuna dimostrazione scientifica del fatto che due individui non possano avere impronte uguali[28], a cui si aggiunge l’evidenza che non vi è alcuno studio che dimostri la frequenza di determinate caratteristiche papillari nella popolazione di riferimento oltre alla non trascurabile presenza di eventuali errori di laboratorio[29].

In seconda battuta, invece, il decisore stima che la probabilità a priori che il soggetto avesse compiuto sia di 1 su 1000. Tale indicazione numerica deriva non solo dalla constatazione che sulla base delle risultanze processuali, un testimone asseriva di aver sentito pronunciare dal rapinatore alcune parole di chiaro dialetto reggino, ma anche dalla giusta necessità di restringere il campo ai giovani soggetti maschi di origine calabrese[30].

Il giudice, per capire qual è la probabilità a posteriori che il soggetto sia autore del reato, ha fatto ricorso alla logica del teorema di Bayes ottenendo un risultato pari ad  ossia al 50% di probabilità che lo stesso sia colpevole. Sulla base di questo dato il G.I.P. assolve l’imputato dai reati a lui ascritti per non aver compiuto il fatto[31].

All’opinione di chi scrive, il provvedimento, in certi passaggi, si caratterizzerebbe per un taglio diverso dal consuetudinario rigore con cui vengono realizzati i testi giudiziari, in virtù proprio del richiamo a formule statistico matematiche che innestano al tradizionale e immutato linguaggio giuridico, espressioni aliene a quest’ambito che impongono al giurista la necessità di utilizzare degli strumenti nuovi al fine di rendere più aderenti al nuovo contesto le strategie procedurali.

Nel 2016 i giudici della Corte Suprema del Wisconsin hanno emesso una pronuncia con cui hanno negato la richiesta di appello di Eric Loomis che era stato condannato a 6 anni di carcere dal tribunale di La Crosse[32]. I punti per cui la difesa intendeva ricorrere riguardavano l’applicazione del sistema Correctional offender management profiling for alternative sanctions c.d. COMPAS, che permette nell’ambito della giustizia predittiva di calcolare la probabilità di recidiva che, dal giudice di primo grado, sono stati tenuti in considerazione ai fini della quantificazione della pena.

A detta dei legali, il Compas discriminava ingiustamente gli uomini per via della loro razza e inoltre il meccanismo di elaborazione del programma, progettato dalla società Northpointe, non permetteva di risalire alla logica che permetteva una comparazione tra il profilo dell’imputato e quelli del campione di popolazione scelto, mimando la logica dell’equo processo[33].

La Corte, seppur sostenendo che il risultato del programma deve essere utilizzato con le dovute precauzioni e in maniera, ha confermato la condanna, rigettando l’appello del ricorrente e motivando che la condanna sarebbe stata eguale anche senza l’utilizzo del software i cui dati sono comunque stati introdotti in giudizio con la possibilità per il ricorrente di difendersi e nel rispetto del principio definito under user control il quale impone che il risultato non sia applicato in maniera acritica e aprioristica, ma sia frutto di un attenta valutazione del giudice circa la sua adottabilità[34].

E’ in corso presso il Tribunale di Brescia di concerto con l’Università di Brescia una sperimentazione che riguarda la possibilità di creare una banca dati di provvedimenti in materia civilistica e che permetta di ricostruire un motore di ricerca in grado di fornire agli utenti alcune informazioni che riguardano l’orientamento dominante, l’evoluzione giurisprudenziale, ma che potrebbe anche portare a sviluppare dei sistemi di tipologia predittiva che possono orientare le parti processuali ad una migliore ed efficiente organizzazione della attività giudiziaria[35].

5. Può il destino della giustizia essere affidato ad un algoritmo?

Con lo studio che si è tentato di condurre sino ad adesso si sono cercati di analizzare alcuni scenari legati all’applicazione dell’intelligenza artificiale nell’ambito giuridico e l’interrogativo con cui si tenta di concludere questo lavoro di ricerca non conduce certamente a una risposta, ma apre alcuni spunti di riflessione.

Sulla base degli sviluppi tecnologici che vi sono stati sino ad oggi è difficilmente ipotizzabile che la toga in tribunale sia indossata da un robot. L’aria che si respira nei luoghi in cui si studia il diritto è intrisa di socialità, necessità di confronto e punti di vista che sono propri solo dell’uomo, caratterizzato da coscienza e sentimento e in grado di percepire che il fine della realtà giuridica è proprio la relazione umana.

Spesso dai manuali traspare una realtà fredda e rigidamente formalizzata del processo, ma è pur vero che dietro ogni forma di rigore si cela la necessità di garantire che la sofferenza della persona sia giustamente ascoltata e trattata con giustizia; d’altronde se la soglia di ciò che è giusto o ingiusto, l’essenza della verità o l’indice dell’equità sono degli ideali tanto grandi da rappresentare un mistero sconosciuto all’uomo, come può una macchina riuscire a sostituirsi a ciò che è il cuore del diritto?

Tuttavia, dagli spunti di ricerca che sono stati trattati, ad opinione dello scrivente, non è un pensiero completamente utopico quello di trovare, in un prossimo futuro, un processo decisionale del giudice improntato ad una logica maggiormente statistico – matematica, ma con l’avvertimento che questa non debba mai andare a detrimento della necessaria attività di pensiero del giudice, del contraddittorio fra le parti e generalmente dei principi del giusto processo.

Non è altrettanto illusorio pensare che forse, fra qualche anno, accanto ai manuali di diritto privato, civile, penale, processuale ogni studente in giurisprudenza possa anche confrontarsi con un manuale di statistica, logica o matematica.

Dal film The Imitation Game, emerge una personalità di Alan Turing rivolta alla importanza di fare in modo che attraverso la matematica, il suo amico Christopher (morto prematuramente) continuasse a vivere. Una ricerca assidua nel riuscire trovare un sistema logico numerico perfetto, simile all’uomo, ma che tuttavia lo condannerà alla solitudine. Dalla vita di Turing, la realtà dell’intelligenza artificiale deve riuscire a farci comprendere che un sistema, seppur efficiente, non potrà mai eguagliare la persona e che il diritto esige per sua natura un contatto forte con l’essere umano.

[1] A. M. Turing, Computing machinery and intelligence, in Machine Intelligence: Perspectives on the Computational Model, 2012.

[2] T. H. Cormen et al., Introduzione agli algoritmi e strutture dati, New York, McGraw-Hill, 2010.

[3] E. Facco, F. Fracas, L’enigma della coscienza, Milano, Mondadori Università, 2018.

[4] Giuseppe O. Longo, Il test di Turing Storia e Significato, in documentazione interdisciplinare di scienza e fede, 2009.

[5] R. S. Epstein et al., Parsing the Turing test: philosophical and methodological issues in the quest for the thinking computer, Springer 2009.

[6] R. D. Morgan, Sage encyclopedia of criminal psychology, s.d.

[7] Ministero dell’Interno, Sistema Automatico di Riconoscimento Immagini: un futuro che diventà realtà, s.d., sito istituzionale del Ministero dell’Interno, www.interno.gov.it/it/notizie/sistema-automatico-riconoscimento-immagini-futuro-diventa-realta (pagina consultata il 19/06/20).

[8] Commissione Europea per l’efficienza della giustizia, Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, Commissione Europea per l’efficienza della giustizia, Strasburgo, 2018, pag. 9).

[9] A. W. Biermann, R. Dietolf, Le idee dell’informatica, Santarcangelo di Romagna, Maggioli Editore, 2004.

[10]Le procedure informatiche, finanche ove pervengano al loro maggior grado di precisione e addirittura alla perfezione, non possano mai soppiantare, sostituendola davvero appieno, l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria affidata ad un funzionario persona fisica è in grado di svolgere” (TAR. Lazio, sez. Terza bis, 10 – 13 settembre 2019, n. 10964).

[11] J. Angwin, J. Larson et al, Machine Bias, there’s software used across the country to predict future criminals. And it’s biased against blacks, 2016, Pro Publica, 2016, www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing, (pagina consultata il 24 Giugno 2020).

[12] J. L. Skeem, C. Lowenkamp, Risk, Race, Recidivism: Predictive Bias and Disparate Impact, University of California, Berkeley, 2016, SSRN, www.ssrn.com/abstract= 2687339 (pagina consultata il 13 giugno 2020).

[13] In diritto penale si parla di “responsabilità vicaria dell’uomo”. A. Cappellini, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità, in Criminalia, Annuario di Scienze Penalistiche, 2019.

[14] G. Hallevy, Liability for Crimes Involving Artificial Intellingence Systems, Berlino, Springer, 2014.

[15] R. Borsari, Intelligenza Artificale e responsabilità pensale: prime considerazioni, 2019, Media Laws, https://discrimen.it/wp-content/uploads/Borsari-Intelligenza-artificiale-e-responsabilit%C3%A0-penale.pdf (pagina consultata il 24 giugno 2020).

[16] R. Buyya (a cura di), R. N. Calheiros, A. V. Dastjerdi, Big data: Principles and Paradigms, Burlington, Morgan Kaufmann, 2016.

[17] S. AMATO, F. CRISTOFARI, S. RACITI, Biometria. I codici a barre del corpo, Torino, Giappichelli, 2013, p. 144.

[18] C. Mandrioli, A. Carratta, Diritto Processuale Civile I, nozioni introduttive e disposizioni generali, Torino, Giappichelli, 2016.

[19] F. Gazzoni, Manuale di diritto privato, Napoli, Esi, 2004.

[20] C. M. Bianca e S. Patti, Lessico di Diritto Civile, Milano, Giuffrè, 2002.

[21] La teoria di Bayes viene ricondotta nell’ambito dei modelli probabilistici che secondo l’impostazione assiomatica proposta dal matematico Andrey Kolmogoroff si caratterizzano per uno spazio probabilistico caratterizzato da tre condizioni: 1) Lo spazio campionario “ ” che include tutti i possibili eventi “ ” che potrebbero determinarsi a seguito di una data prova; 2) Lo spazio degli eventi “ ” che rappresenta una collezione, un sottoinsieme di eventi allo spazio “ ”; 3) La regola di probabilità “ ” che permette di associare ogni insieme di eventi che presentano una similarità ad una determinata regola: sul tema v. A. N. Kolomogoroff, Grundbergriffe Der Wahrscheinlichkeitsrechnung, Berlino, Springer-Verlag, 1933; L. Pasquazzi, Modelli Probabilistici,  Milano, Dipartimento di Statistica e Metodi Quantitativi, 2019; G. Zwirner, L. Scaglianti, A Brusamolin Mantovani, Conoscere la Matematica, Padova, Cedam, 1994; S. M. Ross, Probabilità e Statistica per l’ingegneria e le scienze, Milano, Apogeo, 2015.

[22] Per il profilo matematico e statistico sul tema v. A. Rotondi, P. Pedroni, A. Pievatolo, Probabilità statistica e simulazione: Programmi applicativi Scritti con Scilab, Milano, Springer – Verlag, 2005, p. 25 e ss.; E. Matricciani, Lezioni di probabilità e processi aleatori, Bologna, Progetto Leonardo, 2011, p. 19 e ss.; U. Magagnoli, Lezioni di statistica e calcolo delle probabilità, Ferrara, Dipartimento di Matematica, 2010 p. 18 e ss.; D. M. Cifarelli, Elementi di calcolo delle probabilità, Torino, Giappichelli,1988.

[23] per il profilo giuridico sul tema v. A. Mura, Teorema di Bayes e valutazione della prova, in Cass. Pen., 5, 2004, p. 1808.; P. Ferrua, La prova nel processo penale, Torino, Giappichelli, p. 98 e ss.; Condanna (dir. proc. pen.), in Enciclopedia del diritto, I, Milano, 2007, p. 104 e ss.

[24] F. Rundo, A. L. Di Stallo, Giustizia predittiva: Algoritmi e Deep Learning, in Sicurezza e Giustizia, III, 2019.

[25] A. Amidi, S. Amidi, Recurrent Neural Networks cheatsheet, sd, Stanford University, https://stanford.edu/ ~shervine/teaching/cs-230/cheatsheet-recurrent-neural-networks (pagina consultata il 20 Giugno 2020).

[26] Ibidem.

[27]L’affermazione per cui esiste un’identità tra due impronte non è oggettivamente misurabile, come accade per la prova genetica, ma è il frutto di un giudizio soggettivo basato sulle competenze e sull’esperienza di chi conduce l’analisi. Nel sistema legale italiano, questo giudizio è ancorato al dato – del tutto empirico nella sua significatività e piuttosto anacronistico – della presenza di almeno 17 minuzie (piccoli particolari) corrispondenti tra le impronte da comparare (approccio quantitativo). E infatti questo è l’unico parametro fattuale che si legge nella relazione della polizia scientifica in atti (ed è anche singolare che l’esperto forense adotti un criterio eminentemente giuridico, per corroborare la propria conclusione)” (cfr. Trib. Milano, sez. G.I.P., sent. 18 giugno 2015, giud. Gennari).

[28]Ma al di là di questo aspetto e ancora prima di esso, non esiste alcuna dimostrazione scientifica del fatto che due individui non possano avere impronte uguali (meglio, non esiste alcuno studio che dimostri la frequenza di determinate caratteristiche papillari nella popolazione di riferimento). E quindi viene meno il presupposto, invece fondamentale in materia genetica, per dare una dimensione numerica alla possibilità della corrispondenza fortuita tra due impronte. Quindi, per le impronte digitali, non è misurabile la random match probability” (cfr. Trib. Milano, sez. G.I.P., sent. 18 giugno 2015, giud. Gennari).

[29]All’errore dovuto alla intrinseca debolezza scientifica del metodo va, inoltre, aggiunto l’errore di laboratorio, cioè quello imputabile all’esperto, il cui giudizio può essere deviato da numerosi fattori di condizionamento arcinoti, sui quali non è possibile qui soffermarsi” (cfr. Trib. Milano, sez. G.I.P., sent. 18 giugno 2015, giud. Gennari).

[30] In assenza di altri elementi, questa probabilità sarebbe sostanzialmente coincidente con la intera popolazione maschile attiva. Qui possiamo restringere il campo, assumendo che il colpevole sicuramente ha origine calabrese o comunque conosce il dialetto calabrese (di Reggio in particolare) ed è relativamente giovane (comunque in grado di effettuare un’azione violenta e repentina). Mentre, ad esempio, non possiamo affermare che egli viva necessariamente a Milano. Non è, infatti, infrequente il caso di rapinatori che operano in trasferta, provenendo da altre aree del territorio. Non è neanche detto che il colpevole debba per forza avere una storia criminale, poiché non solo i recidivi commettono reati. Quanti persone, in Italia, corrispondono a questo modello di agente assolutamente generico? Mille, diecimila, centomila? Difficile dirlo. Bene, prendiamo un valore assolutamente irrealistico per difetto per cui la probabilità a priori che l’imputato sia colpevole è di 1/1000” (cfr. Trib. Milano, sez. G.I.P., sent. 18 giugno 2015, giud. Gennari).

[31] J. Della Torre, Il Teorema di Bayes fa capolino al Tribunale di Milano, in Diritto Penale Contemporaneo, 2015; P. Ferrua, La prova nel processo penale, Torino, Giappichelli, p. 98 e ss.; G. Carlizzi (a cura di), G. Tuzet (a cura di), La prova scientifica nel processo penale, Torino, Giappichelli, 2018, p. 279.

[32] G. Scorza, Processi al futuro: Quando la tecnologia ha incrociato il diritto, Milano, Hoepli, 2020 (consultabile al sito https://books.google.it/books?id=WHzrDwAAQBAJ&lpg=PT3&ots=8DVkpDGQ5o&dq=Processi%20al%20futuro%3A%20Quando%20la%20tecnologia%20ha%20incrociato%20il%20diritto&hl=it&pg=PT7#v=onepage&q=Processi%20al%20futuro:%20Quando%20la%20tecnologia%20ha%20incrociato%20il%20diritto&f=false).

[33] S. Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giurisprudenza Penale Web, 2019, 4 (pagina consultata il 16 giugno 2020).

[34] E. Yong, A Popular Algorithm Is No Better at Predicting Crimes Than Random People, 2018, The Atlantic, https://www.theatlantic.com/technology/archive/2018/01/equivant-compas-algorithm/550646/?utm_source= (pagina consultata il 28 giugno 2020).

[35] Dalla convenzione stipulata fra il tribunale ordinario, la corte d’appello di Brescia e l’Università degli studi di Brescia in materia di giustizia predittiva, disponibile al sito http://www.giustizia.brescia.it/allegatinews/A_18592.pdf (pagina consultata il 28 giugno 2020).

Bibliografia e sitografia

M. Turing, Computing machinery and intelligence, in Machine Intelligence: Perspectives on the Computational Model, 2012.

H. Cormen et al., Introduzione agli algoritmi e strutture dati, New York, McGraw-Hill, 2010.

Facco, F. Fracas, L’enigma della coscienza, Milano, Mondadori Università, 2018.

Giuseppe O. Longo, Il test di Turing Storia e Significato, in documentazione interdisciplinare di scienza e fede, 2009.

S. Epstein et al., Parsing the Turing test: philosophical and methodological issues in the quest for the thinking computer, Springer 2009.

D. Morgan, Sage encyclopedia of criminal psychology, s.d.

W. Biermann, R. Dietolf, Le idee dell’informatica, Santarcangelo di Romagna, Maggioli Editore, 2004.

Commissione Europea per l’efficienza della giustizia, Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, Commissione Europea per l’efficienza della giustizia, Strasburgo, 2018, p. 9).

Cappellini, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità, in Criminalia, Annuario di Scienze Penalistiche, 2019.

Hallevy, Liability for Crimes Involving Artificial Intellingence Systems, Berlino, Springer, 2014.

Buyya (a cura di), R. N. Calheiros, A. V. Dastjerdi, Big data: Principles and Paradigms, Burlington, Morgan Kaufmann, 2016.

AMATO, F. CRISTOFARI, S. RACITI, Biometria. I codici a barre del corpo, Torino, Giappichelli, 2013, p. 144.

Mandrioli, A. Carratta, Diritto Processuale Civile I, nozioni introduttive e disposizioni generali, Torino, Giappichelli, 2016.

Gazzoni, Manuale di diritto privato, Napoli, Esi, 2004.

M. Bianca e S. Patti, Lessico di Diritto Civile, Milano, Giuffrè, 2002.

N. Kolomogoroff, Grundbergriffe Der Wahrscheinlichkeitsrechnung, Berlino, Springer-Verlag, 1933.

Pasquazzi, Modelli Probabilistici, Milano, Dipartimento di Statistica e Metodi Quantitativi, 2019.

Zwirner, L. Scaglianti, A Brusamolin Mantovani, Conoscere la Matematica, Padova, Cedam, 1994.

Rundo, A. L. Di Stallo, Giustizia predittiva: Algoritmi e Deep Learning, in Sicurezza e Giustizia, III, 2019.

M. Ross, Probabilità e Statistica per l’ingegneria e le scienze, Milano, Apogeo, 2015.

Rotondi, P. Pedroni, A. Pievatolo, Probabilità statistica e simulazione: Programmi applicativi Scritti con Scilab, Milano, Springer – Verlag, 2005, p. 25 e ss.

Matricciani, Lezioni di probabilità e processi aleatori, Bologna, Progetto Leonardo, 2011, p. 19 e ss.

Magagnoli, Lezioni di statistica e calcolo delle probabilità, Ferrara, Dipartimento di Matematica, 2010 p. 18 e ss.

M. Cifarelli, Elementi di calcolo delle probabilità, Torino, Giappichelli,1988.

Mura, Teorema di Bayes e valutazione della prova, in Cass. Pen., 5, 2004, p. 1808.;

Ferrua, La prova nel processo penale, Torino, Giappichelli, p. 98 e ss.; Condanna (dir. proc. pen.), in Enciclopedia del diritto, I, Milano, 2007, p. 104 e ss.

Della Torre, Il Teorema di Bayes fa capolino al Tribunale di Milano, in Diritto Penale Contemporaneo, 2015.

Ferrua, La prova nel processo penale, Torino, Giappichelli, p. 98 e ss.;

Carlizzi (a cura di), G. Tuzet (a cura di), La prova scientifica nel processo penale, Torino, Giappichelli, 2018, p. 279.

Scorza, Processi al futuro: Quando la tecnologia ha incrociato il diritto, Milano, Hoepli, 2020 (consultabile al sito https://books.google.it/books?id=WHzrDwAAQBAJ&lpg=PT3&ots=8DVkpDGQ5o&dq=Processi%20al%20futuro%3A%20Quando%20la%20tecnologia%20ha%20incrociato%20il%20diritto&hl=it&pg=PT7#v=onepage&q=Processi%20al%20futuro:%20Quando%20la%20tecnologia%20ha%20incrociato%20il%20diritto&f=false).

Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giurisprudenza Penale Web, 2019, 4 (pagina consultata il 16 giugno 2020).

Yong, A Popular Algorithm Is No Better at Predicting Crimes Than Random People, 2018, The Atlantic, https://www.theatlantic.com/technology/archive/2018/01/equivant-compas-algorithm/550646/?utm_source= (pagina consultata il 28 giugno 2020).

Dalla convenzione stipulata fra il tribunale ordinario, la corte d’appello di Brescia e l’Università degli studi di Brescia in materia di giustizia predittiva, disponibile al sito http://www.giustizia.brescia.it/allegatinews/A_18592.pdf (pagina consultata il 28 giugno 2020).

Ministero dell’Interno, Sistema Automatico di Riconoscimento Immagini: un futuro che diventà realtà, s.d., sito istituzionale del Ministero dell’Interno, www.interno.gov.it/it/notizie/sistema-automatico-riconoscimento-immagini-futuro-diventa-realta (pagina consultata il 19 giugno 2020).

Angwin, J. Larson et al, Machine Bias, there’s software used across the country to predict future criminals. And it’s biased against blacks, 2016, Pro Publica, 2016, www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing, (pagina consultata il 24 Giugno 2020).

Borsari, Intelligenza Artificale e responsabilità pensale: prime considerazioni, 2019, Media Laws, https://discrimen.it/wp-content/uploads/Borsari-Intelligenza-artificiale-e-responsabilit%C3%A0-penale.pdf (pagina consultata il 24 giugno 2020).

L. Skeem, C. Lowenkamp, Risk, Race, Recidivism: Predictive Bias and Disparate Impact, University of California, Berkeley, 2016, SSRN, www.ssrn.com/abstract= 2687339 (pagina consultata il 13 giugno 2020).

Lascia un commento