lunedì, Ottobre 7, 2024
Uncategorized

Giudice e IA, gemelli diversi: una garanzia da difendere

A cura di Luca Agostini,
vincitore del Premio Studenti del Premio di Studio Federico Baffi III Edizione

Si parta da una domanda: “Ci faremmo mai giudicare da un robot?”

La grande cesura nell’evoluzione della Tecnica consiste oggi nella ricerca di un’attribuzione di capacità di pensiero alla macchina. Se fino a qualche tempo fa, infatti, si poteva trarre un beneficio fisico-strumentale dalle invenzioni nell’uomo, è oggi che il paradigma dell’innovazione si muove alla scoperta di una macchina pensante, dotata di autonomia[1] e che sia paragonabile in tutto e per tutto alla mente umana.[2] Come? Con sistemi di Intelligenza Artificiale (IA)[3], delle quali uno dei modelli più evoluti è rappresentato dalle cd. reti neurali, capaci di simulare il meccanismo di pensiero cerebrale umano[4], in parte basato su capacità di autoapprendimento (o machine learning o ML)[5].

Delle applicazioni pratiche di tali modelli, l’innovazione scientifica ne ha dato dimostrazione anche in ambito giuridico-processuale, dando genesi a profili di criticità riguardanti la funzione umana del Giudice. Certo, la relazione tra Scienza e Processo è sempre stata al centro di ataviche questioni, ma tale interazione ha sempre riguardato aspetti oggetto del Processo (per esempio sul piano della dimostrazione della causalità[6]) e mai uno dei suoi Soggetti. Pertanto, un’innovazione non governata dai giuristi diviene strumento (decisionale) processuale e non più solo un elemento di analisi in chiave giuridica.

I rilievi nel campo del Processo penale appaiono i più delicati. Anzitutto, con un eventuale Giudice artificiale si produrrebbe una fattuale destrutturazione fisica del Processo, che diverrebbe pertanto “liquido”. La ritualità processuale, la compresenza delle parti, l’interazione verbale e fisica dei soggetti processuali raccolti in unicum di tempo e luogo sono elementi di grande rilevanza per l’imputato, la vittima e la collettività intera. Le garanzie sostanziali e processuali, internazionali e costituzionali (e legali, come per es. l’art 523 c.p.p. o il 133 c.p.p.) richiedono una dialettica effettiva tra le parti, la quale, salvo casi d’eccezione, non può prescindere dalla presenza fisica di tutti gli attori.

Si potrebbe opporre che con l’utilizzo delle IA si avrebbe tuttavia un aumento di effettività delle garanzie di “certezza del diritto”, una conseguente “prevedibilità” della sentenza ed anche una maggiore celerità processuale, data la grande capacità di analizzare dinamicamente innumerevoli dati in un tempo sempre più breve. Ora, la causa del dilungarsi di un Processo spesso non dipende dal Giudice, ma da dinamiche processuali e non, afferenti alle parti, e dalla complessità della causa. Pertanto, è certo che il dispiegarsi delle garanzie processuali e sostanziali traccia un confine tra la costituzionale “durata ragionevole del processo” ex art. 111 Cost. e quella che abbiamo definito essere una possibile “celerità” processuale. A ben vedere, la celerità può essere infatti in contraddizione con i princìpi di “durata ragionevole” e di “economia processuale”, se significa limitare o ledere le garanzie ad essi sottese: se ne vedranno ora alcuni esempi.

Con un giudice-macchina, entrerebbe in crisi la “certezza del diritto” che, come s’è detto, dovrebbe essere invece valorizzata dall’IA. Essa si esplica in molteplici sfaccettature differenti: prevedibilità delle conseguenze delle proprie azioni, prevedibilità del metodo sussuntivo, certezza del perseguimento del reato, certezza di tutela della vittima, certezza di applicazione di una pena “adeguata” – in quantità e specie – al caso concreto, ma anche garanzia di un’applicazione legale aderente alla fattispecie concreta che deve essere valutata. Qual è il rischio di attribuire questa garanzia ad un sistema che vede come Giudice un’IA? Il sistema probabilistico-statistico che governa gli algoritmi valuta il caso concreto sulla base di ciò che in passato è già stato deciso, secondo un processo di autoapprendimento[7] comparativo. Quello che non può valutare è un caso concreto nuovo, senza un termine terzo di paragone, quando invece, in verità di scienza giuridica, ogni giudizio penale dovrebbe posizionarsi nell’ottica di essere un caso del tutto autonomo e singolare, salvo, per esempio, la possibilità di comparare la condotta dell’agente ad altre simili, perché calate in un preciso contesto sociale.[8] L’evidente conseguenza è una “dittatura del precedente”, con logiche che possono realizzare un “diritto penale d’autore” colpevolizzando categorie di persone o di azioni, per il solo fatto che “si è fatto così in passato”: tutt’altro che “certezza” del diritto, specialmente in un sistema di civil law. Oltretutto, con l’affinamento delle tecniche informatiche, si prospetta la possibilità di creare software predittivi dell’esito processuale[9]: inserendo alcuni dati chiave, il sistema fornisce una probabile risoluzione del Processo. In questo modo la vittima potrebbe subordinare una denuncia (o querela, sotto un profilo meno problematico in questo contesto) alla convenienza dell’esito processuale prospettato dall’IA, causando così evidenti attriti con la funzione del diritto penale e degli interessi pubblicistici che governa.

Come potrebbe un’IA attribuire valore al diritto al silenzio dell’imputato, oppure valutare la mendacità di una testimonianza, ovvero creare un’evoluzione interpretativa? Peraltro, in rapporto a quest’ultimo elemento, va evidenziato come il coraggio di distanziarsi da posizioni ormai cristallizzate ha talvolta permesso l’affermazione di garanzie processuali e sostanziali. Concetti come “creazione” e “coraggio” associati al ruolo del Giudice sono da sempre alla base delle più vivide sentenze, non possono essere disdegnati da un giurista penale, né tantomeno liquidati in quanto irrazionali questioni sentimentali. Sarebbe uno sbaglio inaccettabile. Tanto più se si considera la tendenza attualissima, che piaccia o no, del “legiferare per Principi”; se ne apprezza la portata soprattutto sul piano delle normative europee ed internazionali.[10] Queste sono riflessioni critiche corroborate dal noto problema della cd. “black box[11], in relazione ad un possibile dispositivo della sentenza pronunciato e motivato da una IA. L’imperscrutabilità del procedimento logico-deduttivo di un’IA dotata di ML preannuncia un grave impedimento di verifica a regresso dei passaggi logici che hanno portato l’IA a generare un determinato output, con conseguenti dubbi sull’attendibilità finale e sulla tracciabilità, per esempio in fase di gravame. Paradigmatico è il celebre caso Loomis[12] che ha fatto scuola con riguardo al non scontato profilo dell’imparzialità del giudicato proveniente dal sistema COMPAS[13], profilo problematico ed inerente alla selezione dei dati forniti al sistema.[14]

Inoltre, in un momento in cui il diritto penale si accorge sempre più della necessità di un ripensamento dell’apparato sanzionatorio[15] (innovativi risultano essere la giustizia riparativa[16], la messa alla prova, le pene alternative al carcere in senso lato), la calibrazione e la commisurazione del tipo di pena appropriato non può che essere fatta anche -e soprattutto- sulla base del reinserimento in società del condannato. Limitativa appare dunque essere la traduzione di tale valutazione in dati da fornire ad una macchina, una valutazione tanto umana quanto soggettiva, che per essere adeguatamente affrontata non può imperniarsi attorno a caratteristiche comuni a casi simili precedenti, deve essere presa in considerazione singolarmente, redigendo un progetto ad hoc.[17] In questo senso, la progettualità della pena, sempre più auspicabile già in capo al Giudice della decisione, non può che appartenere ad una persona inserita nel contesto sociale in cui il condannato è calato, in omaggio anche al Principio della naturalità del Giudice, qualità che risulta anch’essa difficile da tradurre in dati calcolabili da una macchina.

Si apre poi uno scorcio riflessivo con riguardo ad un Principio cardine del Processo penale: l’oltre ogni ragionevole dubbio.18 S’è detto infatti che le IA sono fondate su una capacità di calcolo inferenziale, statistico, emerge quindi ora la rugosità del piano della conciliazione tra “calcolo statistico” ed una evidenza (definibile tale sul piano probatorio) dell’”oltre ogni ragionevole dubbio”. Per definizione, il metodo statistico e deduttivo è condotto in tutto il procedimento deduttivo dell’IA (ed anche il sistema delle reti neurali, seppur in maniera esponenzialmente più complessa, procede secondo un’articolazione causale-deduttiva). È pertanto rischioso trarre una decisione che deve essere scevra da qualsiasi evidenza contraria ragionevole, sulla base di un calcolo che esclude, su scorta esperienziale del sistema di ML, ciò che appare più simile a casi precedenti, o, peggio, più probabile. Infine, appare evidente come una decisione tecnica “dis-umana” contrasti con il Principio del libero convincimento del Giudice, ex 192 c.1 c.p.p., in quanto tale IA non possiede una coscienza di sé e non percepisce il peso valoriale che grava sull’Ufficio del Giudice.

Va detto che allo stato attuale della normativa è già previsto un limite ai trattamenti totalmente automatizzati. Il Regolamento GDPR, all’art.22, prevede in merito ai processi decisionali il diritto a “non essere sottoposti a una decisione basata esclusivamente sul trattamento automatizzato dei propri dati, […], che produca effetti giuridici che lo riguardano o che incida allo stesso modo sulla sua persona”. Che tale diritto sia indisponibile non è acclarato, come devono essere, e sono, invece le più forti garanzie processuali (una per tutte: il diritto alla difesa). La pericolosità di disporre di tale diritto appare evidente, per esempio, nel caso in cui si prospetti all’imputato la scelta sull’utilizzo di uno strumento processuale dotato di IA per addivenire ad un dispositivo in breve tempo e in maniera più economica, piuttosto che sottostare ai costi e alle lungaggini processuali di un Giudice umano. E tale opzione acceleratoria non è paragonabile ai riti deflattivi del dibattimento, poiché, nel caso in analisi, l’output finale potrebbe essere viziato e contrastante con Princìpi processuali fondamentali, senza che ciò emerga (cfr. problema della cd. black box).

Sotto al profilo delle influenze sul Giudice umano dell’utilizzo di strumenti di IA, va segnalata una possibile deresponsabilizzazione del Giudice stesso, rischio nel quale si incorre affidandosi eccessivamente, o abitudinariamente, a tali sistemi. Si può arrivare così persino ad una sua delegittimazione: il Giudice si auto-esautora nel perseguire pervicacemente una decisione presa da un sistema che gli è di ausilio, per comodità o, peggio, per il fatto di non avere la forza argomentativa di motivare il proprio dissenso sulla posizione di un sistema che non domina appieno. Eccezion fatta per tutti quei casi di fattispecie a basso contenuto di discrezionalità valutativa. Si ribadisce il fatto che il giudice-uomo, a differenza di una macchina, possiede una coscienza di sé, fondamentale in alcuni aspetti di svolgimento del proprio Ufficio: il giudice-uomo ha consapevolezza dei propri limiti, esplicata anche in una forma di “umiltà”, dote importantissima per un Giudice. Qualità che per il momento solo la cinematografia può legittimamente attribuire ad una macchina: cd. “IA forti”.[18]

Potrebbe apparire un discorso futuristico, ipotetico, che mai si imprimerà sulla società, forti dei valori, di matrice convenzionale-internazionale e storico-costituzionale, che innervano la nostra cultura giuridica e sociale.  Certo è che un’eventuale transizione da giudice-uomo a giudice-macchina sarebbe graduale, con un adeguamento sistemico dell’assetto normativo attuale. Le innovazioni tecnologiche sono oggi “solo” affiancate al Giudice[19], ma la grande forza innovativa che caratterizza da sempre l’uomo, con ogni probabilità, permetterà di poter sostituire la figura fisica e umana del Giudice. Le ragioni di tale sostituzione sarebbero perlopiù di carattere non giuridico, non processuale. Si pensi a casi di implementazioni del giudice-macchina in ordine a ragioni di convenienza economica, soprattutto in Paesi che cercano di efficientare gli apparati statali per essere più competitivi sul piano internazionale.

Tuttavia, l’obiettivo di questa riflessione non è quello di propugnare ciecamente una superiorità biologica dell’uomo, chiediamoci pertanto cosa effettivamente distingua l’uomo (inteso come Giudice) e perché una sua sostituzione in campo processuale potrebbe essere dannosa in un sistema complesso di garanzie giuridiche sociali e personali. Si sono viste poc’anzi alcune difficoltà di ordine processuale, ma è solo una questione di incapacità dell’IA? È pertanto una mera insufficienza tecnica ad evidenziare i problemi analizzati, oppure esiste un problema alla base, inerente alla natura dell’uomo, che non può strutturalmente essere vinto da un’IA gemella di un giudice-umano. Perché, per esempio, si ritiene ormai accettabile farsi condurre da un’automobile a guida autonoma e invece non è per nulla pacifico pensare di essere giudicati da un’IA che fornisce garanzie paragonabili a quelle del Giudice? In fondo, il bene “vita” messo a rischio da un’automobile a guida autonoma non è meno importante dei valori in gioco in un Processo. Infine, di fronte ad una poderosa spinta delle innovazioni tecnologiche, come può il sovrastato giurista chiedere una effettiva protezione delle garanzie e dei valori che determinano la civiltà di una società? Si cerchi ora di riflettere in conclusione su queste tematiche.

Quella del giudizio penale è tra le vicende più delicate in tema di interessi collettivi e soggettivi: le conseguenze dell’andamento dell’attività penale si riverberano, com’è ovvio, sui singoli attori processuali, ma vanno a plasmare anche un’idea ulteriore e più ampia esoprocessuale, coinvolgente la società esterna, che peraltro dà motivo al Processo di esistere. Possiamo dunque affermare che il Giudizio è la forma di governo dell’uomo sull’uomo: la capacità di autogoverno (in forma di valutazione garantista, di Giudizio) è ciò che caratterizza la specie umana e pertanto non può che rimanere appannaggio dell’uomo stesso. Pertanto, anche laddove si raggiungesse un livello tecnologico tale da superare le criticità giuridiche e logiche analizzate sopra, comunque sussisterebbe una difficoltà intrinseca al valore dell’atto del “giudicare”. Perciò, secondo questa visione, l’attribuzione della funzione di Giudizio ad una persona (e non ad una macchina) deve essere inquadrata come un Diritto vero e proprio: può parere assurdo (absurdus: sordo, stonato, contrario alla ragione), ma questa vuole essere un’analisi prospettica di ciò che potrebbe accadere se non si governa anticipatamente il fenomeno, ed anche in parte provocatoria. Allo stato attuale, il “diritto ad un giudice-uomo” è un salto coraggioso per un giurista, perché si trova a regolare un fenomeno che è solo in potenza. Tuttavia, di fronte ai rischi descritti in termini di erosione di garanzie ed al senso ultimo dell’atto del “giudicare”, pare opportuno, almeno per una volta, anticipare il fenomeno sociale e non inseguirlo.

Come si può dunque efficacemente affermare questo Diritto nuovo? Se l’esigenza è quella di tutelare soprattutto garanzie riconosciute costituzionalmente, non può che risolversi in una norma di rango costituzionale. Tuttavia, tenendo valida questa alternativa, pare opportuno fare un ulteriore salto, ragionando in termini più estesi. Data la portata globale del fenomeno tecnologico, risulta necessario un interesse più ampio e data la rilevanza delle garanzie soggettive a rischio in un mondo vieppiù globalizzato, si richiede un impegno riguardante l’intera comunità internazionale. Si apre pertanto una riflessione sull’inserimento del “diritto ad un Giudice umano” per esempio nel capo VI “Giustizia” (artt. 47ss) della Carta dei Diritti Fondamentali dell’UE, oppure nell’art.6 “Diritto ad un equo processo”, della Convenzione Europea dei Diritti dell’Uomo, o, volendo essere ancor più audaci, nella Dichiarazione Universale dei Diritti dell’Uomo all’art.10, enunciante i Principi dell’equo Processo.

In conclusione, preme evidenziare l’opportunità per i giuristi di reimpossessarsi anticipatamente dello strumento processuale, che sempre più vedrà integrare forme di IA, molto utili se affiancate al Giudice e sottoposte ad un suo efficace vaglio, ma altrettanto rischiose se vanno, anche solo fattualmente, a sostituirsi ad esso. Tale re-impossessamento non potrà che giocare una partita internazionale, altrimenti la travolgente e abbagliante forza innovatrice della scienza non potrà essere dominata e si scontrerà inevitabilmente con le categorie giuridiche, pregiudicando garanzie che difficilmente potrebbero essere ristabilite appieno una volta lese sistematicamente.

Fantascienza o fantadiritto? L’auspicio è quello non solo di un dialogo interdisciplinare istituzionale e scientifico, ma anche quello di agire per affermare anticipatamente Diritti potenzialmente lesi in futuro.

[1] M. B. Magro, Robot, Cyborg e Intelligenze Artificiali, in A. Cadoppi, S. Canestrari, A. Manna, M. Papa,

Cybercrime, Torino, edizione 2019, pp1179ss

[2] J.H. Moor, The Turing Test. The elusive standard of Artificial Intelligence, edizione 2003

[3] G. Sartor, Inteligenza artificiale e diritto: un’introduzione, edizione 1996

[4] D. Floreano, C. Mattiussi, Manuale sulle reti neurali, edizione 2002

[5] G. Pasceri, Intelligenza artificiale, algoritmo e machine learning: la responsabilità del medico e dell’amministrazione sanitaria, edizione 2021

[6] Un caso per tutti: cd. Sent. Franzese: Cass. Pen. Sez. Un., sentenza n.30328, 11 settembre 2002

[7] R. Calò, Robotics and the lessons of cyberlaw, edizione 2015

[8] Si pensi in via non esaustiva ai cd. “reati associativi”

[9] Dagli appunti personali di una conferenza del Giudice A. Garapon, 20 novembre 2018, Università Cattolica del Sacro Cuore

[10] Commissione Europea, Better regulation guidelines – Better regulation in the Commission, agosto 2017, disponibile qui: https://commission.europa.eu/system/files/201708/betterregulationguidelinesbetterregulationcommission.pdf

[11] M. B. Magro, Decisione umana e decisione robotica un’ipotesi di responsabilità̀ da procreazione robotica,

maggio                  2020,                  disponibile                  qui:                  https://www.lalegislazionepenale.eu/wp

content/uploads/2020/05/MagroGiustiziapenaleenuovetecnologie.pdf

[12] Wisconsin          S.C.,         State        v.               Loomis, 13             luglio       2016,       disponibile             qui:https://www.courts.ca.gov/documents/BTB242L3.pdf

[13] V. Manes, L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, maggio 2020, disponibile qui: https://discrimen.it/wpcontent/uploads/ManesLoracoloalgoritmicoelagiustiziapenale.pdf

[14] Una riflessione a riguardo andrebbe svolta in merito anche al divieto di cui all’art 220 c.p.p. in relazione alla decisione automatizzata

[15] C. Mazzuccato, La pena in castigo, edizione 2014

[16] G. Mannozzi, G. A. Lodigiani, Giustizia riparativa. Ricostruire legami, ricostruire persone, edizione 2015

[17] D. Bertaccini, Fondamenti di critica della pena e del penitenziario, edizione 2021 18 F. Stella, Giustizia e modernità, edizione 2001

[18] M. B. Magro, Robot, Cyborg e Intelligenze Artificiali, in A. Cadoppi, S. Canestrari, A. Manna, M. Papa, Cybercrime, edizione 2019

[19] Per un esempio in sede civile: F. Donati, Intelligenza artificiale e giustizia, in A. D’Aloia, Intelligenza artificiale e diritto, Milano, 2020, pp. 241 ss.

Lascia un commento