venerdì, Aprile 19, 2024
Uncategorized

Intelligenza Artificiale e processo penale: utilizzi e criticità

A cura di Michele Del Macchia

 

  1. Introduzione.

L’Intelligenza Artificiale è una tecnologia estremamente pervasiva e neanche il procedimento penale esula dalle sue potenziali applicazioni. Sulla scorta dell’attività di molte compagnie del settore informatico, che da diversi anni studiano come l’implementazione di queste nuove tecnologie possa essere realizzata nel rispetto dei principi che governano le società moderne, si è resa necessaria anche nel campo della giustizia una riflessione in tal senso.

  1. Utilizzi immaginabili.

Seguirà un’elencazione – esemplificativa, non esaustiva – di impieghi e criticità dei sistemi di IA nel procedimento penale: la prima potrebbe riguardare le banche dati giurisprudenziali, quale supporto alla stesura dei provvedimenti da parte dei giudici ed anche strumento per la prevedibilità delle decisioni giurisdizionali, nonché garanzia per la certezza del diritto. In secondo luogo, l’IA potrebbe essere impiegata per prevedere la possibile conclusione di una controversia, oppure per vagliare il rischio di recidiva. A tal uopo, si parla di c.d. Sistemi Predittivi impiegati soprattutto nella valutazione della pericolosità quale presupposto per l’applicazione di innumerevoli istituti processuali. Ancora, si pensi ad un Sistema dotato di un’interfaccia utente nella quale vengano inserite le risultanze delle varie fasi processuali, e che sia in grado di analizzarle e correlarle con la normativa vigente, e possa, conseguentemente, emettere un verdetto. Strumenti di IA potrebbero essere utilizzati anche in una fase antecedente al processo per prevedere e prevenire la commissione di reati, oppure per la ricerca dei mezzi di prova[1].

  1. Criticità.

Da tale elencazione appare ictu oculi come simili utilizzi potrebbero porsi in contrasto con alcuni principi fondanti: in particolare, saltano all’occhio i possibili rapporti con il principio del giusto processo, con quello di economia processuale e con quello di ragionevole durata del processo; nondimeno, il principio della parità delle armi potrebbe essere messo in discussione qualora la parte pubblica avesse un accesso maggiore a questi strumenti rispetto alle parti private. Proseguendo, in tutti i casi in cui un algoritmo venisse posto alla base di una decisione concernente i diritti e le libertà personali degli individui, si renderebbe necessario riflettere sulla “valutabilità” dei processi che hanno condotto ad una determinata soluzione, e quindi indagare sulla trasparenza degli algoritmi. Inoltre, l’implementazione di questi sistemi potrebbe condurre alla standardizzazione dei provvedimenti ed alla violazione del principio della soggezione del giudice soltanto alla legge[2]: sottoponendo ad un algoritmo grandissime quantità di dati giurisprudenziali relativi a precedenti decisioni con il compito di analizzarle ed estrapolarne i pattern ricorrenti, il decisore umano potrebbe affidarsi al confortante dato matematico sottoponendo sé stesso ad un’influenza diversa dalla legge. Per di più, occorrerebbe soffermarsi anche sulla titolarità di quel sistema di IA in ordine alla possibile attribuzione di responsabilità per eventuali risultati distorsivi. In ultimissima istanza, non potrebbe essere lasciato in disparte il problema della selezione dei dati impiegati come input, stante la possibile differenza di output in relazione ai dati con cui gli algoritmi vengono addestrati.

  1. Alcuni esempi pratici.

Un esempio di sistema di IA che “collabora” nel funzionamento del sistema giudiziario europeo è Predictice, che è in grado di prevedere i possibili risultati delle controversie permettendo di impostare la strategia processuale più adatta, attraverso un meccanismo di apprendimento automatico[3]. Sul tema c’è chi sostiene che, avendo a disposizione strumenti che predicono l’esito di una controversia, la produzione dei giudici si appiattirebbe sulla scelta più “comoda”, inficiando quindi l’evoluzione delle decisioni e le interpretazioni giurisprudenziali. Contrariamente, alcuni autori, ritengono che questi sistemi rappresentino un volano per l’implementazione della qualità e l’efficienza della giustizia, facendo cadere le domande di giustizia pretestuose e garantendo una ponderazione maggiore da parte dei magistrati che si «assumono la responsabilità di un cambio di giurisprudenza»[4]Altri due esempi paradigmatici sono COMPAS ed HART, i quali hanno ricevuto innumerevoli critiche per le loro potenzialità discriminatorie e per l’assenza di trasparenza, con la consequenziale impossibilità per le parti di contestarne le risultanze. In particolare, le osservazioni negative avverso COMPAS hanno riguardato anche l’impossibilità di verificare l’accuratezza dei dati immessi nello stesso, stante la copertura del segreto industriale[5]. Proprio tale sistema di IA, si è reso protagonista della vicenda Wisconsin c. Loomis decisa dalla Corte Suprema del Wisconsin[6].  Nella circostanza di specie, sulla scorta del risultato dell’algoritmo, il giudice aveva comminato una pena elevata proprio in ragione del rischio di recidiva calcolato in capo ad Eric Loomis[7]. Successivamente, fu però verificato che COMPAS addiveniva a risultati che in media predicevano un rischio di recidiva doppio delle persone di colore rispetto a quello della popolazione bianca[8]. Allo stesso modo, il sistema HART, progettato per lo scopo di valutare il rischio di recidiva, suddivide i soggetti in tre categorie di rischio: basso, medio o elevato[9]. Anche per questo strumento le critiche hanno riguardato il fatto che, a causa dell’indicazione del codice postale trai parametri considerati, venivano generati risultati che arrecavano un pregiudizio a coloro che risiedevano in quartieri poveri[10].

  1. Algoritmi e discriminazioni.

I sostenitori delle IA ne sottolineano la neutralità e l’oggettività che favoriscono una maggiore esattezza e trasparenza della giustizia, nonché la loro efficienza superiore alle capacità umane[11]. Tuttavia, non può non notarsi che la neutralità degli algoritmi costituisca una utopia in quanto ogni sistema di IA ha un suo “costruttore” che riproduce nello stesso il proprio sistema di valori[12]. Di conseguenza, sussiste concretamente il rischio che il sistema di IA riproduca discriminazioni proprie del suo “creatore” o, comunque, dovute al tipo di dati immessi al suo interno. A tal riguardo, il documento Algoritmi e diritti umani del Consiglio d’Europa, statuisce che gli algoritmi sarebbero molto efficaci nell’eliminare le c.d. discriminazioni dirette, ovvero quelle che si fondano su dati concernenti razza, sesso, etnia, credo religioso e che, al contrario, sarebbero inefficaci, ed anzi, pregiudizievoli con riferimento alle c.d. discriminazioni indirette«If algorithmic decision-making systems are based on previous human decisions, it is likely that the same biases which potentially undermine the human decision-making are replicated and multiplied in the algorithmic decision-making systems[13]». Si fa riferimento a tutte quelle discriminazioni derivanti da un’erronea gestione dei dati attraverso i quali i sistemi intelligenti vengono addestrati, ovvero i c.d. training data; in un sì fatto contesto i risultati proposti sulla base di dati non correttamente raccolti o erronei, vedranno compromessa ineluttabilmente la loro affidabilità[14]. Si pensi al “caso Loomis”: alla base della vicenda esiste una discriminazione diretta e generalizzata secondo la quale alcune etnie sarebbero maggiormente pericolose; una simile discriminazione diretta frutto della cognizione umana, impiegata come input di un sistema intelligente, viene perpetrata a tal punto da fornire punteggi di recidiva relativi a determinati individui molto superiori rispetto ad altri.

  1. Algoritmi e trasparenza.

Ulteriori riserve in tema di algoritmi concernono la loro opacità ed imprevedibilità, ovverosia la impossibilità di conoscerne i meccanismi di funzionamento ed i codici sorgente. Infatti, le iniziative in materia di sistemi algoritmici sono in capo ad imprese private e, per tale ragione, la pubblicizzazione dei codici sorgente è complicata. Inoltre, non è detto che la pubblicazione dei codici sorgente sia una soluzione sufficiente: in primis, perché questi vengono modificati continuamente dalle società che li costruiscono[15]in secundis perché gli algoritmi che utilizzano processi di Machine Learning o Deep Learning, si evolvono attraverso processi talmente complicati che la conoscenza del flusso esecutivo iniziale delle operazioni potrebbe non essere utile a spiegarne il risultato finale. La trasparenza deve distinguersi in trasparenza ex ante (possibilità di comprendere e conoscere un algoritmo prima che questo venga utilizzato), ed ex post, (funzionamento chiarito solo successivamente testando l’algoritmo nelle stesse condizioni in cui ha lavorato)[16]. Tale distinzione risulta fondamentale nel momento in cui si debbano predisporre dei sistemi in ottemperanza all’articolo 5 CEDU secondo cui sui Giudici grava l’obbligo di motivare i loro provvedimenti. Appare scontato che, per poter motivare una decisione che si fonda su risultati espressi da un algoritmo, sia necessario comprendere i processi interinali che hanno portato a tale soluzione. Inoltre, il problema dell’“esplicabilità” si estende anche ai diritti delle parti, in quanto da essa dipendono l’integrazione del contraddittorio, la parità delle armi processuali[17] ed il funzionamento dei meccanismi impugnatori[18]: come può essere sviluppata una forma di dialettica nei confronti di un sistema di Intelligenza Artificiale o come possono essere contestate le decisioni di un magistrato che si fondano su soluzioni prodotte da un sistema intelligente, se non si comprendono le funzionalità di detto sistema? In quest’ottica, dovrebbero essere tenute ben presenti le indicazioni della Corte Europea dei Diritti dell’Uomo circa l’integrazione del “giusto processo”. Secondo l’evoluzione giurisprudenziale della Corte, il contraddittorio e la parità tra le armi vengono rispettati quando le parti siano in grado di “influenzare” la decisione del giudice. In tal senso, ogni strumento automatizzato dovrebbe essere escluso ogni volta in cui venga rimarcata l’impossibilità di esperire funzionalmente la propria opera di convincimento, derivante dall’incapacità di valutare i dati utilizzati e le risultanze dell’algoritmo[19].

  1. Conclusioni.

È indubbio come i sistemi di IA avrebbero dei risvolti positivi in termini di economia processuale, di rapidità dei procedimenti e di certezza giuridica. Tuttavia, allo stato dell’arte, restano molte le perplessità concernenti il raffronto con i diritti fondamentali. Pertanto, la valutazione dell’accessibilità degli algoritmi nel processo penale non può essere generalizzata in positivo o in negativo, bensì deve essere contestualizzata in relazione alle diverse forme ed ai diversi ambiti in cui essa può dipanarsi.

Mentre non sembra immaginabile che uno strumento artificiale possa decidere autonomamente della libertà personale degli esseri umani, meno improbabile – e forse auspicabile – appare la prospettiva di un ingresso in modalità sussidiarie. Sebbene anche questa seconda prospettiva non esuli da criticità, si pensi, tra gli altri, alle discriminazioni di cui possono essere forieri gli strumenti di AI, al problema della trasparenza ed ai suoi derivati, alla motivazione dei provvedimenti giurisdizionali e alla loro impugnabilità, nonché al pericolo della standardizzazione giurisprudenziale e dell’indipendenza della magistratura, molte speranze sembrano poter essere riposte nei Progetti e negli Studi di carattere sovranazionale.

[1] CEPEJCarta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, 2018, appendice I.

[2] B. GALGANI, Considerazione sui precedenti dell’imputato e del giudice al cospetto dell’IA nel processo penale,  in Sistema Penale, 2020, n. 4, pp. 81-94.

[3] C. MORELLI, Giustizia predittiva: in Francia online la prima piattaforma europea, Altalex, 2017.

[4] Dott. Claudio Castelli, Presidente della Corte di Appello di Brescia, intervista ad Altalex.

[5] G. DE MINICO, Internet: Rules and Anarchy. The test of Algorithms, in Liber Amicorum per Pasquale Costanzo – Costituzionalismo in trasformazione, Vol. I, Consulta Online, 2020, pp. 50 e ss.

[6] State v. Loomis Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing. Recent Case: 881 N.W.2d 749 (Wis. 2016), in Harvard Law Review, 2017, Vol. 130.

[7] F. BASILE, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Diritto Penale Uomo, 2019.

[8] J. LARSON-S. MATTU-L. KIRCHNER-J. ANGWIN, How We Analyzed the COMPAS Recidivism Algorithm.

[9] C. NAPOLI, Intelligenza artificiale e formazione della volontà pubblica: la decisione amministrativa e quella giudiziaria, in Rivista Associazione Italiana dei Costituzionalisti, fascicolo n. 3/2020, pp. 318-354.

[10] O. MARION, G. JAMIE, U. SHEENA, B. GEOFFREY, Algorithmic Risk Assessment Policing Models: Les-sons from the Durham HART Model and ‘Experimental’ Proportionality, in Information & Communications Techno-logy Law, 2018, p. 222 ss.

[11] F. DONATI, Intelligenza artificiale e giustizia, in Rivista Associazione Italiana dei Costituzionalisti, rivista 1/2020, pp. 415-436.

[12] Algoritmi e diritti umani: studio dell’impatto sui diritti umani delle tecniche di elaborazione automatica di dati e possibili implicazioni normative, Consiglio d’Europa, Comitato di Esperti MSI-NET, p. 27.

[13] Ibidem.

[14] F. DONATI, Intelligenza Artificiale e giustizia, cit., pp. 421-423.

[15] MSI-NET, Algoritmi e diritti umani, cit., p. 28.

[16] House of LordsAI in UK: ready, willing and able?, § 95-106.

[17] G. CONSO, Introduzione, in G. CONSO e V. GREVI (a cura di), Compendio di procedura penale; P. TONINI, Manuale breve di diritto processuale penale; e M. CHIAVARIO, Diritto processuale penale.

[18] MSI-NET, Algoritmi e diritti umani, cit., pp. 23-26.

[19] S. QUATTROCCOLO, Artificial Intelligence, Computation Modelling and Criminal Proceedings – A Framework for A European Legal Discussion, in Legal Studies in International, European and Comparative Criminal Law 4, Springer, 2020, p. 96.

 

Lascia un commento