Il giudice-robot: l’intelligenza artificiale nei sistemi giudiziari tra aspettative ed equivoci
SOMMARIO: 1. Dagli algoritmi “predittivi” ai giudici-robot – 2. Un computer bouche de la loi? – 3. Perché un algoritmo giudicante? – 4. Uno scenario irrealistico
1. Dagli algoritmi “predittivi” ai giudici-robot
I sistemi di giustizia predittiva, com’è noto, sono strumenti di machine learning in grado di formulare previsioni sull’esito di processi non ancora iniziati o conclusi attraverso un’elaborazione statistica di decisioni giudiziali rese in passato.
Si tratta di software disegnati in origine per fornire un supporto alle attività dei professionisti legali, al fine di renderli in grado di stimare approssimativamente la durata, i costi o le probabilità di successo di una controversia, e pianificare efficacemente le proprie strategie[1].
Negli ultimi anni si è assistito, però, ad un interessante mutamento di prospettiva: dal campo della “predizione”[2], l’impiego di dispositivi di intelligenza artificiale si sta evolvendo verso quello della decisione[3].
Basti pensare che, di fatto, gli strumenti di Online Dispute Resolution sono ormai ampiamente utilizzati per comporre controversie in via totalmente automatica[4]; che i primi tentativi di introdurre gli algoritmi predittivi nel processo allo scopo di orientare le decisioni dei giudici sono stati esperiti (anche se con esito fallimentare)[5]; e che sempre con maggiore convinzione alcuni studiosi, ricercatori e membri delle istituzioni guardano all’intelligenza artificiale come a uno strumento in grado non solo di assistere, ma persino di sostituire il giudice[6]: opinioni che parrebbero semplicemente fantascientifiche, se non fossero corroborate dal varo di veri e propri progetti di “robot-giudici”, come quello lanciato dal Ministero della Giustizia estone nel 2019[7].
Un computer potrà davvero giudicare?
Non è semplice capire se i propositi di sostituire la macchina all’uomo nella funzione del rendere giustizia siano concretamente realizzabili: spesso accade che l’entusiasmo nei confronti del nuovo crei un grande carico di suggestione e aspettative irrealistiche.
Effettivamente, si direbbe altamente improbabile che gli strumenti oggi a disposizione, di natura statistica, possano essere in grado di adempiere adeguatamente a tale compito.
Tuttavia, come detto, la ricerca si sta dichiaratamente spingendo in tale direzione, per lo meno sul piano delle intenzioni, e anche se queste non dovessero realizzarsi e i sistemi di giustizia predittiva non arrivassero a sostituire integralmente il giudice, è verosimile che possano comunque esercitare una significativa influenza sull’attività decisionale. Questo timore è stato espresso già nel 2016 dalla Commissione Europea per l’Efficienza della Giustizia (CEPEJ) del Consiglio d’Europa, che nelle sue “Linee guida sulla cybergiustizia”, ha evidenziato il pericolo che l’uso di software di analisi di precedenti giurisprudenziali da parte dei giudici possa minarne la capacità discrezionale e soprattutto l’indipendenza[8].
È facile immaginare che per chi decide possa diventare difficile discostarsi dal risultato di analisi elaborate da sofisticatissimi software in grado di processare migliaia di informazioni.
Inoltre, il fatto che tali strumenti possano non essere adeguati a decidere non significa che la sostituzione del giudice con uno strumento di machine learning non possa comunque avvenire, un giorno.
Si rende dunque opportuna qualche riflessione sui motivi che spingono la ricerca in questa direzione e sulle eventuali conseguenze che potrebbero derivare dalla materializzazione degli intenti di coloro che auspicano l’affidamento a un computer della decisione giudiziale, o anche solo un affiancamento del giudice con un software di “aiuto alla decisione”.
Dopo la crisi del formalismo giuridico, la prospettiva offerta dal ricorso all’intelligenza artificiale potrebbe essere quella di un ritorno all’antico: l’aspirazione alla decisione come atto “meccanico”, scevro da componenti soggettive e irrazionali, realisticamente superata già dal secolo scorso, potrebbe tornare attuale grazie all’impiego degli algoritmi.
2. Un computer bouche de la loi?
Tale è sempre stata la diffidenza nei confronti dell’arbitrio del giudice (e tali anche, forse, la fiducia e l’entusiasmo per la macchina) che ben prima della nascita dell’intelligenza artificiale e della sua introduzione in ambito giuridico si immaginava di trasformare, metaforicamente, il decidente in un “automa”.
Già Max Weber[9] sosteneva che una delle condizioni necessarie allo sviluppo del moderno capitalismo fosse l’esistenza di un diritto «calcolabile in modo simile ad una macchina»[10].
Egli credeva infatti che l’imprenditore dovesse essere posto nella condizione di prevedere, oltre ai prezzi delle merci, alle spese e ai futuri guadagni, anche gli esiti delle decisioni giudiziali, e che ciò fosse possibile in presenza di un diritto “calcolabile”, ossia razionale e tecnicizzato[11].
Ma anche se ha trovato un terreno molto fertile nella società capitalistica, l’aspirazione ad una decisione consistente in una “meccanica” applicazione di regole può essere in realtà considerata un «lascito della modernità tutta intera», un prodotto dell’aspirazione illuministica ad un giudizio razionale, neutro, oggettivo e scevro da valutazioni personali, etiche, politiche o religiose[12].
L’idea del giudice-automa nacque infatti con la concezione formale del diritto sviluppata da Montesquieu, il quale immaginava l’organo votato all’applicazione delle leggi come un «être inanimé», “spersonalizzato”, con il compito di mero esecutore delle disposizioni redatte dall’assemblea legislativa eletta dal popolo.
Secondo il modello meccanicistico concepito dal filosofo e affermato dalla Rivoluzione francese, la decisione sarebbe dovuta consistere in un’operazione logica di sussunzione della fattispecie concreta a quella astratta prevista dalla norma, in un’applicazione “automatica” di semplici sillogismi deduttivi.
La logica giuridica sarebbe quindi coincisa con la logica formale e il giudice, senza dispiegare discrezionalità alcuna e alcun potere, e prendendo le distanze dalle proprie opinioni, dalle proprie convinzioni etiche e dalle proprie emozioni, si sarebbe comportato proprio in modo simile ad una macchina.
Come scrisse Norberto Bobbio, però, «dall’epoca del cosiddetto feticismo legislativo molta acqua è passata sotto ai ponti, e nessuno crede più seriamente al giudice come automa»[13]: ormai è universalmente accettato che l’attività della giurisprudenza è sempre inevitabilmente creativa[14], e che l’ideale meccanicistico del giudice bouche de la loi è irrealizzabile.
C’è sempre, nel decidere, una quota insopprimibile di soggettività, sia nel momento dell’interpretazione giuridica che nella fase della ricostruzione del fatto.
Da un lato, infatti, l’interpretazione presuppone l’attribuzione di significato alle norme, e ciò non può prescindere, almeno in parte, da elementi extra-giuridici: per quanto chiare e precise possano essere le disposizioni, l’interprete dovrà sempre attribuire un senso ai vocaboli, risolvere antinomie o sopperire a inevitabili lacune, decidendo tra diverse opzioni interpretative[15].
Dall’altro, anche la stessa prova di un fatto è sempre la «conclusione più o meno probabile di un procedimento induttivo, la cui accettazione è un atto pratico che esprime un potere di scelta rispetto ad ipotesi esplicative alternative»[16].
L’idea di un sillogismo giudiziario perfetto, dunque, è un’«illusione metafisica», e il giudice non è e non può essere «una macchina a gettoni»[17].
Si tratta di una consapevolezza maturata sin dagli ultimi anni dell’Ottocento, a partire dal pragmatismo di Dewey e la sociological jurisprudence di Holmes, Pound e Cardozo, da cui si svilupparono in seguito le principali tesi del realismo giuridico americano[18] che diedero origine a quella che Morton White definì la «rivolta contro il formalismo»[19].
In generale, gli elementi che accomunavano le teorie antiformalistiche erano la credenza dell’importanza della law in action (costituita dai comportamenti effettivi delle corti) rispetto alla law in books[20], l’affermazione della natura creativa dell’interpretazione e la concezione “predittiva” della giurisprudenza, secondo la quale il vero diritto non consisterebbe nell’insieme di norme vigenti, ma nella previsione di come i giudici, i veri artefici del diritto, si comporteranno[21].
Da queste premesse si svilupparono però posizioni molto eterogenee.
Quelle senz’altro più radicali furono adottate da Jerome Frank, il quale, fortemente influenzato dalle teorie psicanalitiche di Freud[22], esasperò l’importanza dei fattori psicologici e soggettivi nella decisione del giudice, affermandone l’assoluta irrazionalità e imprevedibilità.
Accanto allo scetticismo delle norme tipico di molti realisti egli introdusse nella propria filosofia anche un radicale scetticismo dei fatti, secondo il quale l’accertamento giudiziale sarebbe totalmente dipendente dalla soggettività di chi partecipa al processo: testimoni, imputati, parti, periti e giudici.
Come per ogni essere umano, la loro visione è infatti influenzata da una grande quantità di fattori[23], come il carattere, le preferenze personali[24], le simpatie e i ricordi[25], i preconcetti e le esperienze passate, che viziano irrimediabilmente la loro percezione della realtà esterna e la ricostruzione dei fatti.
Secondo Jerome Frank, dunque, la decisione sarebbe assolutamente imprevedibile, la verità processuale una pura finzione e la certezza del diritto un mito.
I più accreditati studi di psicologia cognitiva sembrano confermare le tesi del giurista americano.
La ricerca ha infatti dimostrato che le euristiche, o “scorciatoie del pensiero” naturalmente operate dalla mente umana, indispensabili per apprendere e “organizzare” rapidamente il mondo circostante, possono facilmente determinare distorsioni cognitive ed errori[26].
Secondo la teoria delle “due menti”, il pensiero sarebbe elaborato da due diversi “cervelli”, o sistemi: il “sistema 1”, caratterizzato da processi mentali automatici e intuitivi, e il “sistema 2”, che opera invece attraverso meccanismi cognitivi “lenti”, coscienti e sottoposti al controllo razionale[27].
Il primo, il più antico e primitivo, funziona in via automatica e senza sforzo; il secondo, invece, più recente dal punto di vista evolutivo, elabora le operazioni più complesse che richiedono attenzione e coscienza[28].
Le due “menti” sono strettamente interconnesse, ma sembra che di fronte ad un problema sia il sistema 1 ad attivarsi per primo, formulando una rapida e intuitiva risposta, e solo in un secondo momento il sistema 2, che sottopone la soluzione proposta dal sistema 1 al vaglio della razionalità per convalidarla, correggerla, o scartarla.
Questa teoria, che afferma, in sostanza, che ogni scelta umana è effettuata in maniera inconscia e in seguito rivestita di fondamento razionale, sembrerebbe proprio avvalorare la tesi realista secondo cui la decisione del giudice è principalmente sensazionale e intuitiva[29] .
Inoltre, è noto che il sistema 1 non produce sempre intuizioni corrette, e che il sistema 2 spesso non sia in grado di riconoscere gli errori da esso effettuati.
Le intuizioni del sistema 1 sono infatti estremamente “soggettive”, poiché dipendono direttamente da esperienze passate, emozioni, umore, stati d’animo e situazioni di ansia e stress, e grande peso hanno sul decidere le generalizzazioni, gli stereotipi e i pregiudizi che derivano dai meccanismi euristici di ragionamento.
Esistono poi importanti meccanismi psicologici inconsci che orientano verso la conferma delle prime impressioni, come per esempio l’ancoraggio, o il “bias della visione a tunnel”.
Di fronte ad un tale scenario, perché allora non accogliere di buon grado l’introduzione di strumenti di intelligenza artificiale nei sistemi giudiziari?
Se la decisione del giudice, come ogni decisione umana, è un prodotto di processi irrazionali, e addirittura può dipendere, come pare sia stato persino dimostrato, da “ciò che ha mangiato a colazione”[30], non parrebbe più sensato affidarla ad una macchina, non influenzata da fattori emotivi, psicologici o chimici?
Che non ci si possa rassegnare al totale relativismo della funzione giudiziaria, del resto, parrebbe una conclusione implicita anche in alcune considerazioni dello stesso Jerome Frank, il quale avrebbe cercato di formulare alcuni rimedi volti a mitigare l’assoluta irrazionalità della decisione, come, per esempio, la formazione di una magistratura consapevole dei propri meccanismi inconsci, e così in grado (in teoria) di metterli a freno.
Ma anziché affidare la giustizia al self restraint dei giudici, fidandosi, paradossalmente, delle loro intuizioni e della loro valutazione equitativa[31], rinunciando così definitivamente al “mito” della certezza del diritto, perché non aspirare invece ad eliminare del tutto la componente soggettiva e irrazionale della decisione?
Non si può assolutamente rinunciare ad un diritto certo e ad una decisione, per quanto possibile, prevedibile e oggettiva: come scrisse Norberto Bobbio proprio in critica alle tesi di Jerome Frank, la certezza del diritto è «un elemento intrinseco al diritto, e a togliere di mezzo la certezza non si libera l’umanità da una nociva illusione, ma la si priva letteralmente del sussidio e del rimedio del diritto»[32].
La volontà di creare un robot-giudice parrebbe proprio il frutto della grande sfiducia nei confronti della decisione umana, della cui discrezionalità, del resto, anche gli esponenti del formalismo giuridico, che speravano in un giudice bouche de la loi totalmente spersonalizzato, diffidavano.
Se però ci si è finalmente rassegnati al fatto che l’ideale del giudice-automa sia irrealizzabile, c’è chi non ha abbandonato l’antica ambizione ad un diritto dalla meccanica applicazione, e proprio per questo, si direbbe, alla luce dei grandi progressi della robotica e dell’intelligenza artificiale si è passati dall’aspirazione a un giudice-macchina, dall’impossibile concretizzazione, a quella di una macchina-giudice.
Dunque, alla luce delle grandi novità che stanno investendo il mondo giudico, si potrebbe affermare che un robot-giudice possa finalmente concretizzare l’ideale meccanicistico dell’interpretazione della legge? Che un computer possa divenire, al posto del giudice, una bouche de la loi?
In realtà, ciò non sembra del tutto esatto.
È importante infatti ricordare che gli odierni sistemi di machine learning operano tramite meccanismi totalmente diversi rispetto a quelli logico-formali che dovrebbero informare la decisione giudiziaria secondo il modello formalistico.
Se l’ideale meccanicistico si potesse realizzare in un software, lo strumento adatto sarebbe probabilmente un sistema esperto, ovvero uno strumento funzionante su base logica in grado, in teoria, di decidere riconducendo le fattispecie concrete a quelle astratte attraverso l’applicazione di sillogismi, e non un sistema di giustizia predittiva[33].
Infatti, strumenti come questi non operano applicando deduttivamente regole predeterminate, bensì elaborando grandissime quantità di dati costituiti da decisioni giudiziali rese in passato, individuando le connessioni che legano alcuni elementi contenuti nelle sentenze e il dispositivo, e proponendo infine le stesse soluzioni per i nuovi casi che presentano le stesse caratteristiche.
Questi software, dunque, non deciderebbero applicando la legge, bensì le vecchie decisioni giudiziali.
Si creerebbe così uno scenario opposto a quello configurato da Montesquieu: l’automa-giudice non sarebbe una “bocca della legge”, bensì una “bocca del precedente giurisprudenziale”.
È chiaro che anche quando Weber parlava di un diritto “calcolabile” non immaginava una situazione simile.
Egli, anzi, distingueva tra il diritto continentale, o razionale-formale, «che ha raggiunto il più alto grado di razionalità logica-metodologica», e quello inglese, di natura “empirica”, che elabora concetti «orientati in base a fattispecie concrete, familiari all’esperienza quotidiana», ma che non conosce «concetti generali elaborati mediante astrazione del concetto, mediante un’interpretazione logica del senso, mediante generalizzazione e sussunzione, e quindi applicati sillogisticamente come norme»[34].
Secondo il sociologo, il capitalismo inglese non si sarebbe sviluppato grazie a, ma “nonostante” la struttura del suo diritto, assimilabile a un sistema razionale-materiale[35].
È vero che nella Rechtssoziologie egli sembrò rivalutare la razionalità materiale del diritto inglese di common law, che grazie alla sua flessibilità avrebbe contribuito alla nascita dei principali istituti caratteristici del capitalismo moderno, per esempio i titoli di credito e le società commerciali[36].
Il concetto di un diritto “calcolabile” corrisponde però sempre ad un modello razionale-formale[37], composto da norme generali ed astratte e applicate con gli strumenti della logica giuridica, e non a quello razionale-materiale fondato sul precedente.
È opportuno aggiungere che, comunque, ciò che deriverebbe dall’impiego di software di machine learning non è certo la realizzazione di un diritto razionale-formale, ma neppure, ovviamente, di un sistema razionale-materiale simile a quello inglese, se non per il semplice fatto che si utilizzerebbero i precedenti giurisprudenziali per giungere a una decisione. Come si vedrà, infatti, il loro impiego darebbe vita a un sistema “fondato sul precedente”, ma caratterizzato, al contrario, da rigidità e incapacità di evoluzione.
3. Perché un algoritmo giudicante?
Il fatto che il modello applicato dagli strumenti di giustizia predittiva non corrisponda con quello formalistico non significa, di per sé, che l’introduzione di tali strumenti ai fini della decisione sia impossibile o inopportuna.
Del resto, è comunque ormai universalmente accettato che neanche un giudice umano sia in grado di decidere nella maniera delineata dall’ideale meccanicistico, e non si può escludere a priori che una giusta decisione possa essere assunta con meccanismi diversi da quelli logici previsti dal modello razionale-formale.
È dunque utile gettare uno sguardo più approfondito sui possibili benefici che la realizzazione di un robot-giudice di giustizia predittiva potrebbe apportare e sugli obiettivi che si prefiggono i sostenitori di tali progetti, riflettendo sugli aspetti che potrebbero rendere la decisione attuata da un sistema di machine learning “migliore” rispetto a quella umana.
Innanzitutto, è impossibile non notare che, nonostante l’irrinunciabile principio di certezza giuridica stabilisca che ogni persona deve essere posta in condizione di valutare e prevedere le conseguenze giuridiche della propria condotta, si assiste oggi alla “crisi della fattispecie”[38] e alla sempre maggiore creatività del giudice chiamato ad applicare la legge; che gli orientamenti giurisprudenziali sono spesso disomogenei, e che l’organo deputato alla nomofilachia incontra serie difficoltà nel perseguire la funzione che gli compete ex art. 65 ord. g.
Si potrebbe allora guardare all’intelligenza artificiale come allo strumento in grado di garantire una maggiore prevedibilità delle decisioni giudiziarie, rendendo così il diritto più certo e, in un certo senso, “calcolabile”.
Poiché i software di giustizia predittiva operano elaborando una grande quantità di precedenti giurisprudenziali, una decisione assunta sulla base del risultato fornito da tali strumenti sarebbe infatti automaticamente conforme alle decisioni assunte in passato in casi simili: di conseguenza, illogici revirements giurisprudenziali sarebbero evitati, e sarebbero garantite stabilità e omogeneità interpretativa.
Inoltre, ciò potrebbe rilevare non solo ai fini della maggiore prevedibilità della decisione, ma anche nell’ottica del rispetto del principio di eguaglianza.
Alcuni parlano in proposito di un principio di equità “orizzontale”, o “fattuale”, secondo il quale circostanze fattuali simili dovrebbero ricevere lo stesso trattamento di fronte al giudice[39].
Un’altra importante ragione che spinge all’introduzione di strumenti di IA nel processo è l’obiettivo di risolvere il delicato problema dell’ingolfamento della macchina giudiziaria: grazie alla grande velocità di calcolo e alla potente capacità di elaborazione, i sistemi di machine learning possono infatti fornire un apporto positivo in ambiti in cui è ingente il carico di lavoro, tra i quali rientra sicuramente quello della giustizia[40].
È noto che la situazione di sovraccarico di lavoro negli uffici giudiziari è critica in molti Stati membri del Consiglio d’Europa, soprattutto in Italia, e l’accumulo di numerosi processi pendenti presenta conseguenze molto gravi, in particolare in relazione alla loro durata eccessiva.
L’esigenza di rapidità non è certamente da sottovalutare, e trovare una soluzione al problema del sovraccarico di lavoro nei tribunali e ai tempi troppo lunghi della giustizia è urgente.
Il principio della ragionevole durata del processo, rientrante tra i principi del giusto processo, è sancito dall’art. 111 della Costituzione italiana, ma anche dalla Carta dei diritti dell’Unione Europea, all’art. 47, e dalla Convenzione Europea dei diritti dell’uomo e delle libertà fondamentali, che all’art. 6 recita: «Ogni persona ha diritto a che la sua causa sia esaminata equamente, pubblicamente ed entro un termine ragionevole da un tribunale indipendente e imparziale, costituito per legge», rendendo il principio della ragionevole durata un diritto soggettivo direttamente azionabile.
È plausibile che l’elaborazione automatizzata della decisione possa consentire una maggiore velocità nella definizione dei giudizi e lo smaltimento degli arretrati in tempo breve, risolvendo il grave problema dell’eccessiva durata dei procedimenti.
Tuttavia, è evidente che quello della ragionevole durata non è l’unico criterio di cui tenere conto in materia di giustizia, e che anche altri aspetti siano da considerare, tra cui il rispetto degli altri principi del giusto processo[41].
Inoltre, se una giustizia lenta può essere “ingiusta”, ovviamente una giustizia rapida non è automaticamente “giusta”: anche se consisterebbe in un metodo molto veloce, non si potrebbe certamente lanciare una moneta per decidere chi debba risultare vincitore di una causa; tale ovvietà per sottolineare come «la maggiore rapidità della decisione robotica potrebbe importare solo a condizione che la prestazione robotica e quella umana si equivalessero in termini qualitativi e soddisfacessero quel principio della tutela giurisdizionale effettiva che la giurisprudenza ha da tempo valorizzato»[42].
Non sembra, tuttavia, che una decisione “algoritmica” possa soddisfare tali condizioni.
4. Uno scenario irrealistico
Se si mette da parte il forte carico di suggestione che l’idea di un “robot-giudice” porta inevitabilmente con sé e si guarda più concretamente al funzionamento dello strumento a disposizione, si comprende che affidare a un sistema di machine learning il compito di decidere non è sensato.
È vero che la produzione automatizzata delle sentenze consentirebbe di ridurre i tempi dei processi, risolvendo il grave problema dell’ingolfamento del sistema giudiziario, e di sottrarre le decisioni alle valutazioni discrezionali dei giudici, rendendole meno variabili e disomogenee e quindi più coerenti e prevedibili; tuttavia, è pacifico che solo su tale base non è possibile affidare la decisione giudiziaria a strumenti che sono sostanzialmente inadatti a tale scopo.
Il problema principale non è il fatto, pur rilevante, che affidare la decisione a uno strumento che elabora una grande quantità di decisioni di merito comporterebbe il passaggio a un sistema fondato sul precedente giurisprudenziale, anche se ciò determinerebbe sicuramente uno stravolgimento del sistema normativo in un ordinamento di civil law come quello italiano, in cui l’art. 101 della Costituzione stabilisce la soggezione del giudice soltanto alla legge[43].
Il fattore più critico non sarebbe, infatti, tanto l’uso del precedente quanto la maniera in cui è elaborato dai sistemi di giustizia predittiva.
Se non fossero applicati dei correttivi, il precedente “sostituirebbe” ogni altra fonte normativa: anche se fossero promulgate nuove leggi, il software non potrebbe tenerne conto, poiché continuerebbe comunque a processare le vecchie sentenze contenute nel suo database.
Dunque, se ci si conformasse al risultato fornito dalla macchina, sempre fondato sulle stesse decisioni, ne deriverebbero la totale rigidità del sistema e la cristallizzazione del diritto[44].
Ciò avverrebbe anche e soprattutto perché un sistema di intelligenza artificiale non sarebbe in grado di elaborare un’interpretazione evolutiva dei precedenti.
Anche quando un giudice “umano” è chiamato a decidere sulla base dei precedenti, come avviene normalmente nei sistemi di common law, deve, tra le altre cose, esaminare la situazione concreta, valutare gli elementi rilevanti del caso e individuare il precedente conforme tra le varie decisioni dei giudici superiori, astraendone la ratio.
Si tratta di operazioni che presuppongono però un’intelligenza “forte”[45], di cui gli odierni sistemi di IA, non in grado di pensare e attribuire significato a fatti e parole, non sono dotati.
Quindi, non sono in grado di comprendere le particolarità della situazione concreta e i motivi che hanno indotto i giudici a decidere in una maniera piuttosto che in un’altra.
Si è parlato di “equità orizzontale”.
Eppure, perché due o più situazioni siano considerate simili, e dunque decise allo stesso modo, o viceversa, sarebbe necessaria una valutazione cosciente delle caratteristiche del caso preso in esame e degli elementi che lo accomunano o distinguono da un altro verificatosi in passato.
Costruiti per effettuare previsioni statistiche[46] e non per decidere, gli strumenti di giustizia predittiva operano, peraltro, tramite un approccio meramente quantitativo.
Alcuni software, certamente, sono molto sofisticati, in grado di apprendere da grandi volumi di dati in maniera efficiente e di raggiungere risultati anche più accurati rispetto a quelli umani (come è emerso, per esempio, dalla storica competizione tra un gruppo di cento esperti avvocati e l’algoritmo predittivo Case Cruncher Alfa[47]), ma funzionano pur sempre individuando connessioni tra ricorrenze lessicali presenti nel testo delle sentenze, senza comprenderne il significato.
Un esempio che può rendere chiaro questo aspetto è il sistema sviluppato nel 2016 dall’University College of London (UCL), che è stato in grado di prevedere correttamente le decisioni della Corte Europea dei Diritti dell’Uomo nel 79% dei casi[48], ma attraverso la tecnica del natural language processing, attraverso la quale ha individuato le connessioni intercorrenti tra il dispositivo (violazione o non violazione) e alcuni termini ricorrenti.
Il software, riconoscendo che le espressioni “condizioni di detenzione”, “obblighi dello Stato” ed “esecuzione delle decisioni” comparivano più frequentemente nelle decisioni di violazione, mentre “mancanza di prove”, “diritti di proprietà” e “precedente violazione degli art. 2 e 11” erano più spesso utilizzati nelle decisioni di non violazione, è stato in grado di effettuare accurate previsioni sui casi ancora non esaminati dalla Corte.
Sostituire la decisione giudiziale con un meccanismo simile risulta a dir poco impensabile.
Anche i software che non fanno uso del natural language processing funzionano in modo simile: a partire da parametri stabiliti dall’utilizzatore e predeterminati dal programmatore (per esempio, in una domanda di divorzio, si potrebbe trattare della durata del matrimonio, del reddito dei coniugi, della presenza di un adulterio e dell’importo dell’assegno di mantenimento concesso), isolano le decisioni presentanti le caratteristiche selezionate e ne elaborano delle statistiche riguardanti le probabilità di successo dell’una o dell’altra parte, i possibili costi processuali o l’ammontare di un eventuale risarcimento[49].
Anche in questo caso, sembra chiaro che, anche se i parametri fossero ben formulati e si avesse la certezza che false associazioni non fossero compiute[50], non si potrebbe comunque decidere una controversia solo uniformandosi acriticamente alla “maggioranza” o alla “media” delle decisioni analizzate, prese in casi che presentano caratteristiche simili, meccanicamente sovrapponibili ma non vagliate criticamente.
Un’analisi statistica di questo genere potrebbe servire, piuttosto, per effettuare una previsione della più probabile futura decisione del giudice, basata sulla più elevata ricorrenza di una determinata soluzione adottata in passato.
Ma un conto è il pronostico, altro la partita.
Potremmo mai dire che il pronostico sul risultato della partita possa determinare il risultato stesso, senza che la gara abbia luogo? O, addirittura, che possa modificare quel risultato, nonostante che la competizione venga (a questo punto inutilmente) giocata?
È proprio questo il rischio che si corre nel fraintendere la possibile funzione dell’intelligenza artificiale in ambito giudiziario: se non l’azzeramento, comunque un potente condizionamento del risultato giudiziale determinato dall’impiego, anche solo indiretto, dei sistemi predittivi. Questi, infatti, potrebbero indurre il giudicante ad appiattirsi sull’esito pronosticato dalla macchina, uniformandosi alla previsione statistica più accreditata, abdicando, così, completamente al suo ruolo[51].
[1] Tra i più diffusi programmi predittivi di “assistenza legale” possono essere citati, per esempio, il Watson/Ross dell’IBM, in grado di interagire con gli operatori giuridici, svolgere ricerche tra migliaia di documenti legali e monitorare mutamenti giurisprudenziali, il Legal Analytics di Lex Machina, disegnato per orientare l’azione e le strategie dei difensori effettuando previsioni sulle decisioni dei giudici, e il famoso software francese Prédictice, grazie al quale avvocati, consulenti o compagnie assicurative sono in grado di conoscere le chances di successo di una causa.
[2] Alcuni esponenti della dottrina ritengono peraltro che l’impiego di questo termine sia fuorviante. Dato che gli algoritmi di machine learning costruiscono modelli elaborando dati storici, sarebbe infatti più corretto parlare di “previsione”, ossia di un’enunciazione compiuta in seguito ad un’osservazione (da prae, prima – videre, vedere), e non di “predizione”, termine che secondo le radici latine (praedire: prae, prima – dicere, dire), indica l’atto di preannunciare il futuro in termini divinatori o profetici. V., al riguardo, C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo? In «Questione giustizia», 4/2018, pp. 190-191.
[3] In proposito, v. M. R. Covelli, Dall’informatizzazione della giustizia alla «decisione robotica»? Il giudice del merito, in A. Carleo, a cura di, Decisione robotica, Bologna, Il Mulino, 2019, pp. 125-137.
[4] Si pensi che già qualche anno fa 60 milioni di contenziosi tra i trader di E-bay erano risolti attraverso software di Online Dispute Resolution (ODR), che consentono di evitare il ricorso al giudice, e soprattutto che alcuni Stati, tra cui il Canada, ma anche numerosi paesi europei come la Gran Bretagna, i Paesi Bassi e la Lettonia stanno progressivamente istituzionalizzato tali procedure, introducendo nel processo soluzioni più o meno automatizzate per le cause civili di modesto valore. V., al riguardo, il rapporto di X. Ronsin, V. Lampos, Studio approfondito sull’utilizzo dell’Intelligenza Artificiale nei sistemi giudiziari, segnatamente delle applicazioni dell’IA al trattamento delle decisioni e dati giudiziari, in appendice alla Carta Etica sull’utilizzo dell’Intelligenza Artificiale nei sistemi giudiziari, reperibile al link: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c.
[5] Ci si riferisce all’esperimento condotto presso le Corti di Appello di Douai e Rennes, dove per un breve periodo è stato testato il software Prédictice: cfr. S. Durox, Des robots testés à la place des juges dans les cours d’appel de Rennes et Douai, «www.leparisien.fr», http://www.leparisien.fr/faits-divers/des-robots-testes-a-la-place-des-juges-dans-les-cours-d-appel-de-rennes-et-douai-30-10-2017-7362198.php, ottobre 2017.
[6] Per esempio, lo studioso Richard Susskind, uno dei maggiori esperti di intelligenza artificiale giuridica a livello internazionale, sostiene che è possibile che tra vent’anni la professione del magistrato potrà essere completamente sostituita da sofisticati strumenti informatici: cfr. R. Susskind, Online Courts and the Future of Justice, Oxford, Oxford University Press, 2019.
[7] Tra i primi a darne notizia, E. Niler, Can AI Be a Fair Judge in Court? Estonia Thinks So, marzo 2019, in «www.wired.com», https://www.wired.com/story/can-ai-be-fair-judge-court-estonia-thinks-so/.
[8] CEPEJ, Guidelines on how to drive change towards cyberjustice, https://rm.coe.int/16807482de, dicembre 2016, § 48-52.
[9] Sulla formazione giuridica di Max Weber e l’analisi del suo pensiero giuridico, cfr. R. Marra, Dalla comunità al diritto moderno: la formazione giuridica di Max Weber, 1882-1889, Torino, Giappichelli, 1992, e R. Marra, La libertà degli ultimi uomini. Studi sul pensiero giuridico e politico di Max Weber, Torino, Giappichelli, 1995; dello stesso a., v. Max Weber: sociologia del diritto e scienza giuridica, in «Sociologia del diritto», 3/1988, pp. 117 e ss.; Capitalismo e anticapitalismo in Max Weber: storia di Roma e sociologia del diritto nella genesi dell’opera weberiana, Bologna, il Mulino, 2002; Alle origini del capitalismo moderno : Max Weber e la Geschichte der handelsgesellschaften im Mittelalter, Bologna, Il Mulino, 1991; Max Weber: razionalità formale e razionalità materiale del diritto, in «Sociologia del diritto», 2/2005, pp.43-73.
[10] Sul concetto di calcolabilità e sul diritto come macchina nell’opera di Max Weber, v. G. Itzcovich, Il diritto come macchina. Razionalizzazione del diritto e forma giuridica in Max Weber, in «Materiali per una storia della cultura giuridica», 2/2001.
[11] G. Itzcovich, Il diritto come macchina, ibidem, p. 372.
[12] Così, M. Luciani, La decisione giudiziaria robotica, cit., p. 75.
[13] N. Bobbio, Giusnaturalismo e positivismo giuridico, Bari-Roma, Laterza, 2011.
[14] Sul ruolo inevitabilmente creativo della giurisprudenza nell’applicazione del diritto, v. G. Tarello, L’interpretazione della legge, in AA.VV., Trattato di diritto civile e commerciale, Milano, Giuffré, 1980, pp. 1 – 99. Il tema è peraltro assai complesso: sull’attività del giudice intesa, diversamente, come “invenzione” (inventio) del diritto derivante dalla tradizione regolativa vigente in una società, cfr. P. Grossi, L’invenzione del diritto, Roma-Bari, Laterza, 2017.
[15] Cfr. G. Tarello, L’interpretazione della legge, cit., pp. 1 – 99.
[16] Così, L. Ferrajoli, Diritto e Ragione. Teoria del garantismo penale, Roma-Bari, Laterza, 19974 (1.a ed. 1989), p. 11.
[17] Le efficaci espressioni tra virgolette sono di L. Ferrajoli, Diritto e ragione, Ibidem, p.10.
[18] Dewey, Pound, Holmes e Cardozo sono considerati i “padri nobili” del realismo giuridico americano. Sul tema, v. C. Faralli, Introduzione. Alle origini del realismo americano. Pragmatismo e «sociological jurisprudence», in AA. VV., Il diritto come profezia. Il realismo americano: antologia di scritti, Torino, Giappichelli, 2002, pp. 11-25.
[19] M. White, Social thought in America: the revolt against formalism, trad. it. La rivolta contro il formalismo, Il Mulino, Bologna, 1956.
[20] I termini furono coniati da Roscoe Pound: v. R. Pound, Law in books and law in action, in «American law review», 44/1910, pp. 12-36.
[21] Famose, in proposito, le parole di Holmes: «The prophecies of what the courts will do in fact, and nothing more pretentious, are what I mean by the law». Cfr. O. W. Holmes, The path of the law, in «Harvard Law Review», 1987, p. 4.
[22] V. M. Ripoli, Introduzione. L’estremismo di Jerome Frank, in AA.VV., Il diritto come profezia. Il realismo americano: antologia di scritti, Torino, Giappichelli, 2002, pp.300-301.
[23] Ogni uomo, sosteneva Frank, è guidato da una «complicata molteplicità di fattori, che dipende sovente da tratti peculiari del carattere delle persone di cui si cerca di spiegare le idee e il modo di ragionare, e questi fattori strettamente individuali spesso influenzano i giudici molto di più che non le ideologie politiche, economiche e morali», anche queste ultime, peraltro, «connesse e modificate da elementi strettamente personali»: cfr. J. N. Frank, Law and the Modern Mind, New York, Tudor Publishing Company, 1936. La trad. it. è di S. Castiglione, in AA.VV., Il diritto come profezia, cit., pp. 411-412.
[24] In proposito, Jerome Frank scrisse che «le preferenze personali, anche le più particolari e specifiche, sono sempre presenti e operanti nel momento in cui un soggetto prende conoscenza dei fatti su cui baserà la propria opinione»: cfr. J. N. Frank, Law and the Modern Mind, Ibidem, trad. it. di S. Castiglione, in AA.VV., Il diritto come profezia, p. 412.
[25] Interessanti, al riguardo, le riflessioni del giurista, evidentemente influenzate dalla dottrina psicanalitica dell’epoca: «Le simpatie e antipatie del giudice interferiscono sulle sue valutazioni dei testimoni, degli avvocati e delle parti in causa. Il suo passato può avere originato in lui delle reazioni più o meno favorevoli nei confronti delle donne, o delle donne bionde, o degli uomini con barba, o dei meridionali, degli italiani, degli inglesi, degli idraulici, dei ministri, dei laureati, degli aderenti al partito democratico. Una certa pronuncia nasale, un certo modo di tossire o di gestire possono richiamare alla memoria del giudice dei ricordi piacevoli o spiacevoli. Tali ricordi, mentre egli ascolta un testimone che presenta quella pronuncia, quella tosse o quel gesto, possono influenzare il modo in cui il giudice recepisce la testimonianza, e, in un secondo momento, il modo in cui ricostruirà ciò che il teste ha detto, nonché l’importanza e la credibilità da attribuire alla testimonianza medesima»: v., ancora, J. N. Frank, Law and the Modern Mind, Ibidem., trad. it. di S. Castiglione, in AA.VV., Il diritto come profezia, p. 412.
[26] Sul tema, senza alcuna pretesa di esaustività, si rimanda a T. Gilovich, D. Griffin, D. Kahneman, Heuristic and Biases: The Psychology of Intuitive Judgement, New York, Cambridge University Press, 2002; D. Kahneman, A.Tversky, Judgement under uncertainty: Heuristic and biases, in «Science», vol. 185, 1974, pp. 1124-1131.
[27] Sulla teoria delle “due menti”, v., tra gli altri, D. Kahneman, Thinking Fast and Slow, New York, Macmillan, trad. It. Pensieri lenti e veloci, Milano, Mondadori, 2012; D. Kahneman, S. Frederick, Representativeness revisited. Attribute. Substitution in intuitive judgement, in T. Gilovich, D. Griffin, D. Kahneman, a cura di, Heuristic and Biases: The Psychology of intuitive Judgement, New York, Cambridge University Press, 2002, pp. 49-81.
[28] Cfr. D. Kahnemann, Thinking Fast and Slow, cit., pp. 24-25.
[29] L’osservazione è di A. Forza, G. Menegon, R. Rumiati, Il giudice emotivo. La decisione tra ragione ed emozione, Bologna, Il Mulino, 2017, p. 144.
[30] Lo studio di S. Danziger, J. Levav, L. Avnaim-Pesso, Extraneous factors in judicial decisions, in «Proceedings of the National Academy of Sciences», 2011, sembrerebbe aver dimostrato la paradossale affermazione attribuita a Jerome Frank, secondo cui «justice is what the judge ate for breakfast». Secondo la ricerca, che ha preso in esame 1112 pronunce relative a richieste di liberazione condizionale da parte di individui detenuti, la decisione del giudice può effettivamente variare a seconda che faccia o meno una pausa per mangiare: la probabilità di una pronuncia in favore di un detenuto è infatti statisticamente più alta all’inizio della giornata di lavoro o in seguito alla pausa, mentre quando i giudici adottano numerose decisioni senza alcuna sosta, mostrano una maggiore tendenza a decidere in favore dello status quo. La spiegazione di questi risultati sarebbe che una breve pausa può aiutare a vincere l’affaticamento mentale, contribuendo alla formazione di decisioni più ragionate.
[31] Giunto ad un radicale anti-cognitivismo, Frank propose di “individualizzare le controversie” e istituire il giudizio come una procedura equitativa, totalmente rimessa, quindi, alla discrezionalità del giudice: v. M. Ripoli, Introduzione. L’estremismo di Jerome Frank, cit., pp. 302-308
[32] N. Bobbio, La certezza del diritto è un mito?, in «Rivista internazionale di filosofia del diritto», 1951, p. 151.
[33] L’osservazione è di G. Sartor,, L’informatica giuridica e le tecnologie dell’informazione. Corso di informatica giuridica, Giappichelli, Torino, 20102 (1.a ed. 2008); sulla distinzione tra sistemi esperti e di machine learning, v. S., Russel, P., Norvig, Artificial Intelligence. A Modern Approach, 1998, trad.it Intelligenza Artificiale. Un Approccio Moderno, Torino, UTET, 1995.
[34] I riferimenti tra virgolette nel testo, riferibili a M. Weber, Economia e società, sono riportati da G. Itzcovich, Il diritto come macchina, cit., p. 374; sui concetti di razionalità formale e razionalità materiale in Weber, v. inoltre R. Marra, Max Weber: razionalità formale e razionalità materiale del diritto, cit.
[35] V. R. Marra, Max Weber: razionalità formale e razionalità materiale del diritto, Ibidem, p. 65.
[36] L’osservazione è di R. Marra, Max Weber: razionalità formale e razionalità materiale del diritto, Ibidem, pp. 60-61.
[37] V. P. Rossi, Razionalismo occidentale e calcolabilità giuridica, in A. Carleo, a cura di, Calcolabilità giuridica, Bologna, Il Mulino, 2017, p. 61.
[38] Sul tema della crisi della fattispecie e le sue conseguenze in materia di certezza giuridica, v. N. Irti, La crisi della fattispecie, in «Rivista di diritto processuale», 1/2014, p.36; N. Irti, Un diritto incalcolabile, Torino, Giappichelli, 2016.
[39] « N’est-il pas normal, par-dessus tout, qu’une jurisprudence unifiée prononce des décisions semblables dans des affaires analogues, quelle que soit la juridiction, voire la chambre, saisie du dossier ? Vraiment, si l’unification de l’interprétation (du droit) est un facteur unanimement admis de bonne justice (au nom de la sécurité), on a du mal à penser que l’uniformité de l’appréciation (du fait) soit un facteur adverse »: così, P. Catala, Le Droit à l’épreuve du numérique : Jus ex machina, in F. Terré, M. A. Frison-Roche, a cura di, Droit, éthique, société, PUF, 1998, p. 126.
[40] «Non ci sono dubbi che, a motivo delle potenzialità esibite dalla robotica, si potrà assistere a una larghissima diffusione dei robot in molti settori della vita sociale, tra cui certamente il settore sanitario e quello della giustizia. Per entrambi si intravedono infatti condizioni di eccessivo carico di lavoro del sistema»: queste le osservazioni di A. Carcaterra, Machinae autonome e decisione robotica, in A. Carleo, a cura di, Decisione robotica, Bologna, Il Mulino, 2019, p. 59.
[41] Per un’analisi critica sull’uso di strumenti di intelligenza artificiale nei sistemi giudiziari in relazione ai principi del giusto processo, v. S. Ferrié, Les algorithmes à l’épreuve du droit au procès équitable, in « Procédures », 4/2018, pp. 4-9.
[42] M. Luciani, La decisione giudiziaria robotica, in A. Carleo, a cura di, Decisione robotica, Bologna, Il Mulino, 2019, p. 67.
[43] Sul tema, v. M. Luciani, La decisione giudiziaria robotica, cit., p. 85-86.
[44] È da notare anche che una paralisi della giurisprudenza determinerebbe una «dittatura del precedente» che porrebbe in condizione di inferiorità la parte cui la giurisprudenza non è favorevole. L’osservazione è di S. Gaboriau, Libertà e umanità del giudice: due valori fondamentali della giustizia. La giustizia digitale può garantire nel tempo la fedeltà a questi valori?, in «Questione giustizia», 4/2018, p. 209.
[45] Per una definizione di intelligenza artificiale “forte” e “debole”, si veda l’articolo, pubblicato su questa Rivista, di C. Limiti, Intelligenza Artificiale: implicazioni etiche in materia di privacy e diritto penale, febbraio 2021, reperibile a questo link: https://www.iusinitinere.it/intelligenza-artificiale-implicazioni-etiche-in-materia-di-privacy-e-diritto-penale-35424.
[46] In realtà, anche la stessa previsione implicherebbe un’attività cosciente, e quindi un’intelligenza “forte”. Quella elaborata dai software è un’analisi statistica dei casi passati, da cui si trae un pronostico basato sull’assunto che ciò che si è verificato si ripeterà con le stesse caratteristiche in futuro.
[47] Ormai quasi quattro anni fa, uomini e macchine si sono sfidati nel prevedere l’esito di alcuni casi di competenza del Financial Ombudsman Service in materia di proprietà intellettuale, e al termine della gara l’IA ha ottenuto una netta vittoria con un punteggio di 86,6% a 66,3%. Ne parla R. Cellan-Jones, The robot lawyers are here – and they’re winning, in «BBC news», novembre 2017, reperibile all’indirizzo: https://www.bbc.com/news/technology-41829534.
[48] Si tratta del progetto di N. Aletras, D. Tsarapatsanis, D. Preoţiuc-Pietro, V. Lampos, Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, in «PeerJ Computer Science», 2:e93, 2016. In Italia ne parlano, tra gli altri, C. Barbaro in Uso dell’intelligenza artificiale nei sistemi giudiziari, cit., p. 193 e ss., e C. Castelli e D. Piana, in Giustizia predittiva. La qualità della giustizia in due tempi, «Questione giustizia», 4/2018, p.156 e ss.
[49] Sulle caratteristiche operative dei sistemi di giustizia predittiva, v. X. Ronsin, V. Lampos, Studio approfondito sull’utilizzo dell’Intelligenza Artificiale nei sistemi giudiziari, segnatamente delle applicazioni dell’IA al trattamento delle decisioni e dati giudiziari, in appendice alla Carta Etica sull’utilizzo dell’IA nei sistemi giudiziari, versione italiana a cura del Ministero della Giustizia, 2018, p. 24, §55 e ss.
[50] Anche se pare che ciò non sia possibile. V. in proposito lo studio di C. S. Claude, G. Longo, Le déluge des corrélations fallacieuses dans le big data, in B. Stiegler, a cura di, La toile que nous voulons, FYP, 2018, p.156, in cui si dimostra come il rischio di false correlazioni aumenti con l’incrementare dei dati processati dalla macchina.
[51] Il rischio che l’impiego di strumenti di giustizia predittiva possa mettere sotto pressione il decidente è assai concreto. Il sociologo francese Antoine Garapon parla, al riguardo, di “effet moutonnier”, ossia di una naturale tendenza a conformarsi alla maggioranza, “come pecore”. Il giudice, sapendo dalla macchina che, per esempio, il 70% dei suoi colleghi deciderebbe il caso di sua competenza in una determinata maniera, potrebbe essere indotto ad uniformarsi acriticamente al risultato fornito dal software, evitando le responsabilità che potrebbero derivare da una scelta autonoma: A. Garapon, J. Lassègue, Justice digitale. Révolution graphique et rupture anthropologique, PUF, 2018, e E. Fronza, C. Caruso, Ti faresti giudicare da un algoritmo? Intervista ad Antoine Garapon, in «Questione Giustizia», 4/2018, pp. 196-199. Il rischio che la “norma” derivante dalla tendenza maggioritaria possa avere effetti sull’indipendenza e l’imparzialità della magistratura, soprattutto negli ordinamenti in cui quest’ultima non è totalmente indipendente, è un timore espresso anche dai redattori della Carta Etica della CEPEJ, che hanno notato che «la norma derivante dalla maggioranza potrebbe diventare uno standard a cui i giudici potrebbero essere incoraggiati a rinviare senza fare questioni, con l’effetto indotto di un’eccessiva omogeneizzazione delle decisioni giudiziarie»: X. Ronsin, V. Lampos, Studio approfondito sull’utilizzo dell’Intelligenza Artificiale nei sistemi giudiziari, cit., § 116 e §2.2.