giovedì, Aprile 18, 2024
Uncategorized

Lo statuto della giustizia digitale nella Carta etica della CEPEJ

SOMMARIO: 1. Governare la tecnologia, senza subirla – 2. La Carta etica della CEPEJ sull’impiego dell’intelligenza artificiale nei sistemi giudiziari – 2.1. Respect for fundamental rights – 2.2. Non-discrimination – 2.3. Quality and security – 2.4. Transparency, impartiality, fairness – 2.5. Under user control – 3. Caute aperture

 

1. Governare la tecnologia, senza subirla

Nonostante nei sistemi giudiziari europei l’impiego di strumenti di intelligenza artificiale non sia ancora un fenomeno diffuso come negli Stati Uniti, anche nel vecchio continente l’IA giuridica sta riscontrando un discreto successo.

La spinta crescente verso l’impiego di algoritmi nel campo della giustizia è alimentata soprattutto dalle allettanti prospettive che i software offrono in termini di risparmio di tempi e di costi, come anche, si direbbe, da una particolare fiducia nei confronti delle capacità della macchina, presunta obiettiva, imparziale e prevedibile.

È ormai risaputo, peraltro, che gli odierni sistemi di machine learning sono in realtà intrinsecamente opachi e soggetti ad inevitabili bias, e il loro impiego, anche solo come semplice “ausilio” alla decisione giudiziale, solleva delicate questioni relative alla tutela dei diritti fondamentali dell’individuo e ai principi garantistici del giusto processo[1].

Sembra dunque indispensabile instaurare un serio dialogo su come evitare i gravi pericoli che potrebbero derivare da un acritico adeguamento alla realtà in espansione: com’è stato giustamente osservato, «il totale rigetto delle soluzioni automatizzate che da tempo sono impiegate in altri ordinamenti non eviterà che presto si inizino ad apprezzare gli innegabili aspetti di efficienza e rapidità propri degli strumenti di IA, e di certo non metterà al riparo il nostro processo dai rischi connaturati nei modelli computazionali»[2].

Un dibattito proficuo sul tema non si dovrebbe dunque concentrare “a favore” o “contro” l’impiego di tali strumenti, ma essere volto piuttosto all’elaborazione di soluzioni che consentano ai sistemi giudiziari «di far fronte a questi sviluppi tecnologici, senza divenirne vittime, e di inquadrare il loro utilizzo per assicurare il rispetto dei diritti fondamentali»[3].

Rilevanti passi in questa direzione sono già stati mossi nell’ambito dell’Unione Europea e del Consiglio d’Europa, ove si è iniziato a riflettere sulle modalità attraverso le quali consentire uno sviluppo dell’intelligenza artificiale sicuro e consapevole.

Nell’aprile del 2019 la Commissione Europea ha pubblicato le Ethics Guidelines for Trustworthy AI[4], in cui sono stati delineati quattro principi da rispettare al fine di assicurare uno sviluppo dell’intelligenza artificiale affidabile: rispetto dell’autonomia umana, fairness, prevenzione dei danni ed esplicabilità..Seppur non concernenti in particolare i sistemi utilizzati in ambito giuridico, questi principi rappresentano un importante tentativo di risolvere alcune delle questioni più problematiche inerenti all’impiego degli strumenti di IA nelle politiche pubbliche, tra cui le discriminazioni che potrebbero derivare dai bias contenuti nei software, l’opacità dei processi computazionali e il possibile condizionamento del risultato algoritmico sulla decisione umana. Essi disegnano pertanto un prezioso quadro etico volto a promuovere un approccio “antropocentrico”[5] all’intelligenza artificiale e il rispetto dei diritti fondamentali delineati dalla Carta di Nizza[6].

Riguardano invece nello specifico le problematiche relative all’impiego dell’intelligenza artificiale nei sistemi giudiziari alcuni lavori recentemente elaborati nel contesto del Consiglio d’Europa.

Tra questi, degno di nota è lo studio dottrinale Algorithms and Human Rights[7], redatto nel 2017 dal comitato di esperti sull’intelligenza artificiale, che nella sezione fair trial e due process ha approfondito i profili più critici degli strumenti di IA impiegati nel processo penale statunitense. Le principali preoccupazioni evidenziate dal comitato attengono alla tenuta dei principi della presunzione di innocenza, della parità delle armi e del contraddittorio, come anche al pericolo che sistemi nati come strumenti di supporto alla decisione possano essere impropriamente impiegati dai giudici per delegare la decisione a strumenti tecnologici non adeguati a tale scopo[8].

L’organo che però ha fornito al giorno d’oggi il contributo più significativo in materia di IA e processo è sicuramente la Commissione europea per l’efficacia della giustizia (CEPEJ), istituita nel 2002 in seno al Consiglio d’Europa con l’obiettivo di monitorare e misurare la qualità dei sistemi giudiziari dei Paesi membri.

Già da alcuni anni la CEPEJ ha rivolto particolare attenzione al fenomeno della diffusione delle nuove tecnologie dell’informazione e della comunicazione nel diritto[9], redigendo nel biennio 2014-2016 il “rapporto dettagliato sull’impiego delle tecnologie dell’informazione nei tribunali in Europa”[10] e nel 2017 le “linee direttrici sulla cybergiustizia”[11], ove ha analizzato non solo i possibili benefici di un impiego virtuoso degli strumenti di IA in ambito giudiziario, tra cui l’agevolazione dell’accesso alla giustizia, la semplificazione della comunicazione tra le corti e un generale miglioramento dell’organizzazione dei tribunali, ma ha anche espresso alcune rilevanti perplessità concernenti soprattutto l’impiego di software di analisi della giurisprudenza a supporto della decisione, i quali, se non correttamente utilizzati, potrebbero creare una significativa minaccia all’indipendenza giudiziale.

In continuità con il lavoro svolto, la CEPEJ ha pubblicato il 3 e 4 dicembre 2018 il suo più importante lavoro, ovvero la Carta etica europea sull’impiego dell’intelligenza artificiale nei sistemi giudiziari e in ambiti connessi, che costituisce, al giorno d’oggi, il più significativo intervento giuridico in territorio europeo sul tema dello sviluppo dell’IA nei sistemi giudiziari[12].

2. La Carta etica della CEPEJ sull’impiego dell’intelligenza artificiale nei sistemi giudiziari

La Carta etica è stata redatta dal gruppo di lavoro sulla qualità della giustizia della CEPEJ, composto da sei membri esperti nominati dal bureau della Commissione su proposta dei rispettivi governi[13]. Essa contiene cinque principi sostanziali e metodologici da applicare ai sistemi di IA impiegati in contesto giudiziario – rispetto dei diritti fondamentali, non discriminazione, qualità e sicurezza, trasparenza, di imparzialità ed equità, controllo dell’utente – accompagnati da quattro appendici, ovvero uno studio approfondito relativo all’utilizzo dell’intelligenza artificiale nei sistemi giudiziari, alcune raccomandazioni sull’uso degli strumenti di IA, un glossario e una checklist di autovalutazione rivolta ai creatori dei software per verificare che rispettino i principi della Carta.

Essa si rivolge, non imperativamente[14], non solo ai legislatori degli Stati membri, chiamati a stabilire una cornice normativa in materia, ma anche ai soggetti privati e pubblici coinvolti nella realizzazione o nell’impiego degli strumenti informatici[15].

L’obiettivo della Carta non è di proibire o disincentivare l’introduzione dell’IA nei sistemi giudiziari, bensì di incoraggiarne le applicazioni che possono apportare un miglioramento in termini di efficienza e qualità della giustizia, garantendone però un uso responsabile e rispettoso dei diritti fondamentali enunciati dalla Convenzione europea dei diritti dell’uomo e dalla Convenzione n.108 del Consiglio d’Europa sulla protezione dei dati personali[16].

2.1.Respect for fundamental rights

Il primo principio affermato nella Carta Etica, sicuramente il più importante, stabilisce che la progettazione e l’applicazione degli strumenti di intelligenza artificiale devono sempre essere compatibili con il rispetto dei diritti fondamentali.

Sembra opportuno evidenziare che tale formula non è “declamatoria” come forse potrebbe sembrare, in quanto è rivolta non solo ai legislatori degli Stati membri, ma anche ai tecnici e alle imprese coinvolti nell’elaborazione dei software, che potrebbero non avere particolare familiarità con il sistema delle garanzie fondamentali del Consiglio d’Europa[17].

I testi di riferimento in materia sono la Convenzione n.108 del Consiglio d’Europa sulla protezione dei dati personali e la Convenzione Europea dei Diritti dell’Uomo, con particolare attenzione ai diritti fondamentali connessi all’amministrazione della giustizia, tra cui il diritto di accesso a un tribunale, il diritto ad un equo processo, che comprende i principi del contraddittorio e della parità delle armi, il principio di legalità e il principio dell’indipendenza giudiziale.

Per garantire il rispetto del primo principio, la CEPEJ suggerisce soprattutto l’elaborazione di norme che operino sin dalle fasi iniziali di progettazione e di “addestramento” degli algoritmi, con lo sviluppo di un approccio “ethical-by-design” o “human-rights-by-design[18].

2.2. Non-discrimination

La seconda disposizione sancisce il principio di non discriminazione.

Considerata la capacità degli strumenti di machine learning, soprattutto in campo penale, di rivelare bias, si sottolinea con particolare enfasi la necessità di assicurare che gli strumenti di IA non conducano ad un aggravamento delle discriminazioni esistenti o ad analisi o usi deterministici. Particolare attenzione dovrebbe essere prestata soprattutto nei casi in cui ai fini delle analisi predittive siano impiegati dati “sensibili”, tra cui rientrano per esempio l’origine razziale o etnica, le condizioni socioeconomiche, le opinioni politiche, la fede religiosa o filosofica, l’appartenenza a un sindacato o i dati genetici, biometrici, sanitari o relativi alla vita o all’orientamento sessuale di un individuo.

Al contempo secondo la CEPEJ sarebbe anche opportuno, proprio ai fini di limitare tali pericoli, incoraggiare l’impiego virtuoso delle tecniche di apprendimento automatico con l’instaurazione di analisi multidisciplinari in materia[19].

2.3. Quality and security

Il terzo principio affermato dalla Carta Etica attiene alla necessità di garantire la sicurezza e la qualità degli algoritmi impiegati nei sistemi giudiziari.

Per assicurare uno sviluppo affidabile degli strumenti di IA, la Commissione tenta innanzitutto di incoraggiare la creazione di un approccio multidisciplinare in materia, evidenziando l’importanza di un coinvolgimento di giuristi ed esperti nel campo delle scienze sociali, tra cui economisti, sociologi e filosofi, sin dalle prime fasi di progettazione e programmazione dei software. A tali fini, il metodo che la CEPEJ promuove consiste nella creazione di piccoli gruppi di progettazione formati dagli studiosi delle varie discipline.

Ciò che è inoltre indispensabile è esercitare attente verifiche sull’affidabilità delle fonti e sull’integrità dei dati forniti in input agli strumenti di IA: le informazioni utilizzate dovrebbero dunque sempre provenire da fonti certificate, l’intero processo di costruzione dell’algoritmo dovrebbe essere tracciabile e verificabile e gli algoritmi dovrebbero essere memorizzati e archiviati in ambienti tecnologici sicuri al fine di evitare qualunque alterazione dei dati da essi elaborati, anche involontaria[20].

2.4. Transparency, impartiality and fairness

Di grande rilevanza è il principio di trasparenza, imparzialità e equità, secondo cui i processi computazionali dei software devono sempre essere accessibili, comprensibili e verificabili.

La CEPEJ tenta di trovare un bilanciamento tra gli interessi privati relativi alla tutela della proprietà intellettuale e la necessità di soddisfare i requisiti di trasparenza e conoscibilità degli algoritmi impiegati in sede di decision-making. Si tratta, evidentemente, di esigenze di primaria importanza in ogni settore della pubblica amministrazione, ma ancor più in ambito giudiziario, soprattutto nel processo penale, considerata l’importanza dei beni giuridici coinvolti[21].

Affinché i processi computazionali dei software siano effettivamente accessibili, si propone da un lato di garantire la trasparenza degli algoritmi attraverso la pubblicazione del codice sorgente, spesso impedita dalla disciplina del segreto industriale, e dall’altro di spiegare in linguaggio chiaro e comprensibile il procedimento attraverso il quale gli strumenti elaborano i risultati, così che l’utilizzatore non dotato di competenze informatiche possa capirne il funzionamento.

È infine affrontato il complesso problema della verificabilità dell’algoritmo: conoscere la struttura di un modello black box non consente di verificare il percorso che ha condotto al risultato e di svelare l’eventuale presenza di bias o false correlazioni, pertanto la pubblicità del codice sorgente è una condizione insufficiente a garantire l’affidabilità del risultato prodotto dal sistema. A tale scopo, viene incoraggiata la creazione di autorità indipendenti volte a certificare a priori e verificare periodicamente i software impiegati nei sistemi giudiziari[22].

2.5. Under user control

La CEPEJ si occupa in ultima sede dell’importante questione del condizionamento che il risultato della macchina potrebbe esercitare sull’utilizzatore del software, e afferma che i sistemi di IA dovrebbero sempre rafforzare e mai limitare l’autonomia del decidente.

Il quinto principio della Carta impone dunque di assicurare che gli utilizzatori siano sempre informati e in grado di controllare le proprie scelte.

Affinché ciò effettivamente avvenga, essi dovrebbero sempre essere messi in condizione di poter risalire alle informazioni elaborate dalla macchina e restare liberi di discostarsi autonomamente dal risultato da essa fornito, considerando le particolarità del caso concreto.

I destinatari della decisione automatizzata, invece, dovrebbero sempre essere avvisati in linguaggio chiaro e comprensibile del carattere vincolante o meno delle soluzioni proposte dagli strumenti di intelligenza artificiale, delle varie opzioni disponibili e del loro diritto all’assistenza legale e al ricorso a un tribunale.

Al fine di rendere gli utilizzatori dei software informati e consapevoli, si incoraggia anche l’istituzione di “programmi di alfabetizzazione informatica” e un dibattito scientifico che coinvolga anche gli operatori e i ricercatori in ambito giuridico[23].

3. Caute aperture

Nonostante la Carta riguardi tutti i sistemi di intelligenza artificiale applicati nei sistemi giudiziari e negli ambiti connessi, è chiaro che mentre alcuni possono essere senza dubbio promossi ed incentivati, altri richiedono estrema cautela ed attenzione.

Gli strumenti di IA “giuridica” sono infatti di vari tipi, dotati di caratteristiche, finalità ed ambiti di impiego estremamente variegati: si tratta di risk assessment tools volti alla previsione della recidiva, dispositivi di polizia predittiva, strumenti di ausilio alla decisione, ma anche di chatbot di assistenza legale, strumenti di online dispute resolution o sistemi di ricerca giurisprudenziale.

La CEPEJ ha individuato gli specifici aspetti problematici delle diverse applicazioni di IA nei due studi allegati in appendice alla Carta[24].

Particolarmente interessante è il secondo, in cui i possibili impieghi dell’intelligenza artificiale nei sistemi giudiziari sono suddivisi in quattro categorie, in base al loro livello di compatibilità con i cinque principi: quelli il cui uso è da incoraggiare, quelli da considerare, ma con l’adozione di considerevoli precauzioni metodologiche, quelli in relazione ai quali sarebbero necessari ulteriori studi scientifici, e quelli su cui invece la CEPEJ esprime le più “estreme riserve”.

Gli strumenti di cui la Commissione incoraggia l’uso non sembrano effettivamente presentare particolari rischi: si tratta delle banche dati di ricerca della giurisprudenza, delle chatbot e degli strumenti impiegati a fini amministrativi per monitorare le performance dei tribunali e allocare efficientemente le risorse umane ed economiche disponibili[25].

Tra gli strumenti configurati invece come utilizzabili ma con l’adozione di significative precauzioni metodologiche, rientrano i sistemi di risoluzione alternativa nelle controversie online, per l’uso dei quali si evidenzia l’obbligo di informare l’utilizzatore dell’automatizzazione del procedimento, e i sistemi di polizia predittiva di individuazione degli hotspot, di cui si sottolinea il potenziale effetto “performativo”[26].

Gli impieghi che richiedono ulteriori studi scientifici attengono invece alla profilazione dei giudici e alla previsione delle decisioni giudiziali. Al riguardo, la Commissione ricorda che i sistemi di machine learning funzionano tramite l’individuazione di correlazioni statistiche tra gruppi di parole, e che sono dunque incapaci a spiegare i fattori causativi di una decisione o effettuare vere e proprie analisi giuridiche[27]. Questi sistemi potrebbero piuttosto essere sfruttati per fornire ai giudici una valutazione quantitativa delle loro attività, ma a scopo puramente informativo e a loro uso esclusivo[28].

Infine, la CEPEJ tratta dei risk assessment tools utilizzati in ambito processuale penale e degli strumenti di analisi della giurisprudenza volti a fornire un ausilio alla decisione giudiziale, di cui scoraggia caldamente l’introduzione in territorio europeo[29].

Le principali preoccupazioni espresse dalla CEPEJ in merito all’uso degli strumenti predittivi della recidiva attengono ai possibili effetti discriminatori, al rischio di derive deterministiche e alla tendenziale incompatibilità con i principi della rieducazione del condannato e dell’individualizzazione della pena.

L’aspetto che invece la Commissione non menziona in questa sede, e che avrebbe forse meritato un approfondimento, è l’intrinseca opacità dei sistemi di machine learning. Nel quarto principio della Carta si afferma, effettivamente, che gli algoritmi devono essere trasparenti, comprensibili[30] e verificabili, e giustamente si riconosce la preminenza della giustizia rispetto agli interessi privati delle legal tech, consigliando la pubblicazione dei codici sorgente e l’istituzione di certificazioni e controlli periodici. Tuttavia, tali importantissimi accorgimenti non risolvono il problema dell’inconoscibilità del percorso effettuato dai modelli black box[31] per giungere al risultato, che rischia di sottrarre completamente la valutazione di rischio di recidiva fornita dallo strumento al confronto dialettico, incrementando l’”asimmetria informativa” tra le parti del processo[32]. Oltre al rischio di bias e discriminazioni, dunque, anche questo limite strutturale potrebbe essere considerato un elemento di incompatibilità dei sistemi di machine learning con un utilizzo nel processo penale, soprattutto in relazione ai principi del contraddittorio e della parità delle armi.

Per quanto riguarda, invece, l’impiego di strumenti di analisi della giurisprudenza a supporto della decisione, la CEPEJ afferma con forza l’impossibilità di vincolare il giudice al “precedente quantitativo” costituito dall’insieme delle decisioni rese da altri giudici in passato. Innanzitutto, dato che le analisi delle sentenze effettuate da strumenti di machine learning avvengono attraverso l’elaborazione statistica di gruppi di parole ricorrenti, sono totalmente inadatte ad assumere un valore “normativo”. Inoltre, l’impiego di questi strumenti potrebbe esercitare effetti negativi sull’indipendenza e sull’imparzialità dei giudici e provocare, di riflesso, un’indesiderabile cristallizzazione del diritto[33].

Alla luce dei principi della Carta e delle note sviluppate dalla CEPEJ in appendice, sembra dunque che i sistemi di giustizia predittiva e gli strumenti di risk assessment impiegati negli Stati Uniti potrebbero difficilmente trovare applicazione nel contesto del processo europeo.

È peraltro importante sottolineare che, pur raccomandando estrema cautela e sconsigliando l’introduzione di alcuni specifici strumenti di IA nel processo, la CEPEJ ha preferito comunque non optare per una completa chiusura nei confronti delle nuove tecnologie nei sistemi giudiziari, tentando, al contrario, di promuoverne uno sviluppo controllato.

L’atteggiamento equilibrato e pragmatico della Commissione sembra condivisibile, non solo perché, come visto, esistono alcune applicazioni di IA che potrebbero essere utili e innocue, ma soprattutto perché un atteggiamento di totale chiusura sarebbe assolutamente controproducente.

Se infatti l’infiltrazione degli algoritmi nei sistemi giudiziari sembra ormai in certa misura inevitabile, è senz’altro indispensabile studiare il fenomeno e indirizzarlo nella giusta direzione, assumendo piena consapevolezza dei rischi e dei danni che può provocare, se non attentamente regolato.

Proprio per questa ragione la CEPEJ evidenzia spesso anche la necessità di instaurare in materia un dialogo multidisciplinare, che veda la partecipazione attiva dei ricercatori e dei professionisti del diritto.

La rivoluzione digitale nel processo non può infatti essere governata soltanto dalle scelte di ingegneri, programmatori o esperti informatici. I giuristi non devono restare a margine, ma assumere un ruolo attivo, non abbandonandosi né ad un eccessivo entusiasmo né ad un’aprioristica avversione nei confronti delle nuove tecnologie[34].

 

 

[1]          Sui nodi problematici dell’impiego delle nuove tecnologie e dell’intelligenza artificiale nel processo penale, si rimanda a S. Quattrocolo, Artificial Intelligence, Computational modelling and Criminal Proceedings, A Framework for a European Legal Discussion, Springer, 2020. Su questa Rivista, cfr. A. Galati, L’avvento della tecnologia nelle aule giudiziarie: può il destino della giustizia essere affidato ad un algoritmo?, disponibile al link: https://www.iusinitinere.it/lavvento-della-tecnologia-nelle-aule-giudiziarie-puo-il-destino-della-giustizia-essere-affidato-ad-un-algoritmo-30042.

[2]             Questi i rilievi di S. Quattrocolo, Quesiti nuovi e soluzioni antiche? Consolidati paradigmi normativi vs rischi e paure della giustizia digitale “predittiva”, in «Cassazione Penale», 4/2019, pp. 1775-1776.

[3]             Così, M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale: luci ombre dei risk assessment tools tra Stati Uniti ed Europa, in «Diritto Penale Contemporaneo», 2019, p. 12; similmente, cfr. anche R.C.A Guimarães, A Inteligência Artificial e a disputa por diferentes caminhos em sua utilização preditiva no processo penal, in «Revista Brasileira de Direito Processual Penal», vol. 5, 3/2019, pp. 1555-1588; S. Quattrocolo, Quesiti nuovi e soluzioni antiche?, cit., pp. 1748 e ss;  C. Parodi, V. Sellaroli, Sistema penale e intelligenza artificiale: molte speranze e qualche equivoco, in «Diritto Penale Contemporaneo», 6/2019, pp. 47-71.

[4]             Independent High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI, European Commission, 2019, reperibile al link: .

[5]             Sull’approccio antropocentrico all’intelligenza artificiale, v., tra gli altri, J. J. Bryson, A. Theodorou, How Society Can Maintain Human-Centric Artificial Intelligence, in M. Toivonen, E. Saari, Human-Centered Digitalization and Services, Springer, Singapore, 2019, pp. 305 e ss.

[6]             Per un’analisi approfondita delle linee guida dell’Unione Europea per un’IA affidabile, cfr. N.A. Smuha, The EU Approach to Ethics Guidelines for Trustworthy Artificial Intelligence, in «Computer Law Review International», vol. 20, 4/2019, pp. 97-106,  https://ssrn.com/abstract=3443537.

[7]             Committee of expert of Internet Intermediaries, Algorithms and Human Rights. Study on the Human Rights dimensions of automated data processing techniques (in particular algorithms) and possible regulatory implications, Council of Europe, 2017, https://edoc.coe.int/en/internet/7589-algorithms-and-human-rights-study-on-the-human-rights-dimensions-of-automated-data-processing-techniques-and-possible-regulatory-implications.html.

[8]             Cfr. Committee of expert of Internet Intermediaries, Algorithms and Human Rights, cit., p. 12: «Given the pressure of high caseloads and insufficient resources from which most judiciaries  suffer, there is a danger that support systems based on artificial intelligence are inappropriately used by judges to «delegate» decisions to technological systems that were not developed for that purpose and are perceived as being more «objective» even when this is not the case. Great care should therefore be taken to assess what such systems can deliver and under what conditions that may be used in order not to jeopardise the right to a fair trial».

[9]             Cfr. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo?, in «Questione giustizia», 4/2018, p. 189.

[10]           CEPEJ, Study n. 24. Thematic report: Use of information technology in European courts, 2016, https://rm.coe.int/european-judicial-systems-efficiency-and-quality-of-justice-cepej-stud/1680788229.

[11]           CEPEJ, Guidelines on how to drive change towards cyberjustice, 7 dicembre 2016, https://rm.coe.int/16807482de.

[12]           CEPEJ, European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment adopted by the CEPEJ during its 31st Plenary meeting, Strasburgo, 3-4 dicembre 2018, https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c. Per un commento a prima lettura, cfr. S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, in «Legislazione Penale», 18 dicembre 2018, http://www.lalegislazionepenale.eu/intelligenza-artificiale-e-giustizia-nella-cornice-della-carta-etica-europea-gli-spunti-per-unurgente-discussione-tra-scienze-penali-e-informatiche-serena-quattrocolo/; sul tema v. anche, ex multis, M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale: luci ombre dei risk assessment tools tra Stati Uniti ed Europa, cit., pp.12-15; C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo?, cit., pp. 189 e ss; C. Barbaro, Cepej, adottata la prima Carta etica europea sull’uso dell’intelligenza artificiale (AI) nei sistemi giudiziari, in «Questione Giustizia», 7 dicembre 2018, http://www.questionegiustizia.it/articolo/cepej-adottata-la-prima-carta-etica-europea-sull-uso-dell-intelligenza-artificiale-ai-nei-sistemi-giudiziari_07-12-2018.php; A. Celotto, Come regolare gli algoritmi. Il difficile bilanciamento tra scienza, etica e diritto, in «Analisi Giuridica dell’Economia», 1/2019, pp. 47-60; M. Dymitruk, Ethical artificial intelligence in judiciary, in «Jusletter.it», 21 febbraio 2019, https://jusletter-it.weblaw.ch/en/issues/2019/IRIS/ethical-artificial-i_a54e474060.html__ONCE&login=false; I. M. Zlătescu, P. E. Zlătescu, Implementation of the European Ethical Charter on the use of Artificial Intelligence in Judicial Systems and their environment, in «Supplement of Law Review», 2019, pp. 237-242, http://internationallawreview.eu/fisiere/pdf/Supliment_Law_Review_SRDE.pdf#page=237; M.R. Carrillo, Artificial intelligence, from ethics to law, in «Telecommunications Policy», 6/2020; su questa Rivista, C. Limiti, Intelligenza Artificiale: implicazioni etiche in materia di privacy e diritto penale, febbraio 2021, reperibile al link: https://www.iusinitinere.it/intelligenza-artificiale-implicazioni-etiche-in-materia-di-privacy-e-diritto-penale-35424.

[13]           Cfr. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo?, cit., p. 189.

[14]           Si tratta infatti di uno strumento di soft law, i cui principi «necessitano di un sistema affidabile di enforcement»: cfr. A. Pajno, M. Bassini, G. De Gregorio, M. Macchia, F.P. Patti, O. Pollicino, S. Quattrocolo, D. Simeoli, P. Sirena, AI: profili giuridici – Intelligenza Artificiale: criticità emergenti e sfide per il giurista, in Rivista di Biodiritto, vol. 3, 2019, p. 210.

[15]           Cfr. Directorate of Human Rights, Secretariat of the European Commission for the Efficiency of Justice, The CEPEJ European Ethical Charter on the use of artificial intelligence (AI) in judicial systems and their environment. Presentation note, 4 dicembre 2018, https://rm.coe.int/presentation-note-en-for-publication-4-december-2018/16808f699d: «The “European Ethical Charter on the use of artificial intelligence in judicial systems and their environment” is the first European instrument to set out five substantial and methodological principles that apply to the automated processing of judicial decisions and data, based on AI techniques. Developed by the Council of Europe’s European Commission for the Efficiency of Justice (CEPEJ), it is aimed at private companies (start-ups active on the market of new technologies applied to legal services – legaltechs), public actors in charge of designing and deploying AI tools and services in this field, public decision-makers in charge of the legislative or regulatory framework, and the development, audit or use of such tools and services, as well as legal professionals».

[16]           Lo si evince anche dalla nota di presentazione della Carta Etica: cfr. Directorate of Human Rights, Secretariat of the European Commission for the Efficiency of Justice, The CEPEJ European Ethical Charter on the use of artificial intelligence (AI) in judicial systems and their environment, Ibidem: «At the outset, the CEPEJ points out that the use of AI tools and services in judicial systems is intended to improve the efficiency and quality of justice and deserves to be encouraged. However, it must be done in a responsible manner, respecting the fundamental rights of individuals as set out in the European Convention on Human Rights (ECHR) and Council of Europe Convention No 108 on the Protection of Personal Data, as well as the other fundamental principles set out in the Charter».

[17]           L’osservazione è di S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, cit., p. 4.

[18]           Cfr. CEPEJ, European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, cit., p.8.

[19]           V. CEPEJ, European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, Ibidem, p.9.

[20]           Cfr. CEPEJ, European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, Ibidem, p.10.

[21]           Questi i rilievi di S. Quattrocolo, Intelligenza artificiale e giustizia, cit., p. 7.

[22]           Cfr. CEPEJ, European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, cit., p.11.

[23]           CEPEJ, European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, Ibidem, p.12.

[24]           Cfr. X. Ronsin, V. Lampos, Appendix I – In-depth study on the use of AI in judicial systems, notably AI applications processing judicial decisions and data, Strasburgo, 2018, e CEPEJ, Appendix II – Which uses of AI in European judicial systems?, Strasburgo, 2018, https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c.

[25]           Cfr. CEPEJ, Appendix II – Which uses of AI in European judicial systems?, cit., p. 64.

[26]           V. CEPEJ, Appendix II – Which uses of AI in European judicial systems?, Ibidem, pp. 64-66.

[27]           Dunque, gli strumenti di machine learning non sono realmente in grado di “prevedere” una decisione giudiziale. Proprio per questo l’espressione “giustizia predittiva” sarebbe inesatta, fuorviante e ingannevole: cfr. X. Ronsin, V. Lampos, In-depth study on the use of AI in judicial systems, cit., § 60-64.

[28]           V. CEPEJ, Appendix II – Which uses of AI in European judicial systems?, cit., p. 66.

[29]           Cfr. CEPEJ, Appendix II – Which uses of AI in European judicial systems?, Ibidem, p. 67.

[30]           Sul complesso tema del “diritto alla spiegazione” nella decisione automatizzata, v. Ugo Pagallo Algoritmi e conoscibilità, in «Rivista di filosofia del diritto», 1/2020.

[31]           Sul tema degli algoritmi “black box”, v. l’opera pionieristica di F. Pasquale, The Black Box Society: The Secret Algorithms that Control Money and Information, Cambridge, Harvard University Press, 2014.

[32]           Cfr. A. Pajno, M. Bassini, G. De Gregorio, M. Macchia, F.P. Patti, O. Pollicino, S. Quattrocolo, D. Simeoli, P. Sirena, AI: profili giuridici – Intelligenza Artificiale: criticità emergenti e sfide per il giurista, cit., p. 228.

[33]           V. CEPEJ, Appendix II – Which uses of AI in European judicial systems?, cit., p. 67.

[34]           Sulla necessità di un approccio equilibrato e non “tecnofobico” da parte degli esperti del diritto, cfr. A. Punzi, Judge in the Machine. E se fossero le macchine a restituirci l’umanità del giudicare?, in A. Carleo, Decisione Robotica, cit., 2019, p. 328; similmente, v. anche M. Miravalle, I nodi gordiani della giustizia penale ad alta intensità tecnologica. Verso il giudice bocca della tecnologia?, in «Materiali per una storia della cultura giuridica», 1/2020, p. 310; S. Quattrocolo, Intelligenza artificiale e giustizia, cit., p. 7; S. Quattrocolo, Quesiti nuovi e soluzioni antiche?, cit., p. 1775.

Lascia un commento