IA in tribunale, un caso di studio ai sensi dell’Artificial Intelligence Act
IA in tribunale, un caso di studio ai sensi dell’Artificial Intelligence Act
A cura di Ana Paula Gonzalez Torres.
Questo articolo è disponibile anche in Inglese qui.
- Intelligenza artificiale, âblack boxâ, e tecniche XAI
Il campo dellâintelligenza artificiale (IA) è spaventoso perchĂŠ è complicato. Per studiarla bisogna cimentare i suoi concetti basilari per poi costruire sopra una discussione. Per iniziare, per âalgoritmoâ si intende una sequenza di istruzioni per risolvere un problema[1]. Le istruzioni, idealmente, sono passi elementari, chiari e non ambigui[2]. Questi sono necessari per ottenere un certo risultato (output) per un certo dato di entrata (input) in un periodo di tempo determinato[3]. Tuttavia, a volte, gli algoritmi sono scritti in maniera cosĂŹ ambigua ed opaca da rendere difficile la razionalizzazione dellâoutput[4]. Gli algoritmi sono importanti perchĂŠ sono gli elementi basilari su cui si regge lâintelligenza artificiale[5].
Invece, per âintelligenza artificialeâ, sebbene non ci sia un consenso, di solito si riferisce alla disciplina scientifica sviluppata allâinterno del ramo di computer science. Qualora si parli di IA âapplicataâ si fa riferimento ad un insieme di algoritmi supportati da un chip (hardware) e dati (che rappresentano il mondo e le persone) per risolvere un problema[6]. Qualora i sistemi dâIA siano in grado di interagire con il loro ambiente circostante[7] allora saranno autonomi, in quanto capaci di svolgere determinati compiti in ambienti complessi senza una guida costante da parte dell’utente,[8] e adattabili, in quanto capaci di migliorare le proprie prestazioni imparando dall’esperienza[9].
Il problema del âblack boxâ si riferisce a certi tipi di tecnologia âopacaâ non facilmente interpretabile e dunque non aperta allo scrutinio dagli utenti, a volte neanche dai loro sviluppatori. Il che rende difficile la loro modifica, correzione o spiegazione[10].
Nel regno dellâintelligenza artificiale, non tutti i sistemi di IA soffrono del problema del âblack box.â Sono in particolare le tecniche dellâIA non-simboliche, come machine learning e il suo deep learning, le quali ne soffrono piĂš che altre del problema di âblack bloxâ. Ciò perchĂŠ coinvolgono calcoli complessi con molteplici variabili interdipendenti, che a volte autodeterminazioni quid novi le proprie strutture[11].
In conseguenza, per gli umani il processo di funzionamento dei sistemi di IA si rende troppo complesso per poter dargli un senso[12]. Ecco il perchĂŠ sono state sviluppate le tecniche di âexplainable AIâ (XAI), queste sono impiegate qualora si voglia spiegare i modelli dâIA senza sacrificare la loro âperfomanceâ[13]. In generale si possono identificare due approcci: 1) analisi dei modelli dâIA in base ai loro risultati, e 2) prefissato disegno interpretabile di modelli dâIA.
Il primo approccio è interessato ad un post hoc analisi dei risultati[14] il quale può essere concepito secondo prospettive di alto e basso livello. La prospettiva di alto livello che studia come il modello di IA risponde a certi vincoli[15]. Per esempio, una volta rimosso un certo dato di input[16] o modificato un certo valore nei calcoli[17]. La prospettiva di basso livello studia come i modelli di IA processano specifici dati[18]. Questa prospettiva si interessa a come certi dati possano influenzare la produzione di output[19]. Per esempio, bias input data che genera un output discriminatori. Questo approccio è modellato sulla differenza tra il âcomeâ e il âperchĂŠ.â Il âcomeâ permette di capire quali elementi sono stati cruciali per un certo output, per esempio quali dati e regole hanno influito in un compito di classificazione[20]. Il âperchĂŠâ permette di capire il risultato, piĂš che altro in senso causale[21]. Lâimportanza di una spiegazione causale deriva dal grande numero di variabili coinvolte nei calcoli dei sistemi di IA per cui è necessario non attribuire importanza a relazioni solo casuali tra variabili[22].
Il secondo approccio è interessato al disegno dei modelli dâIA secondo logiche che permettano di spiegare i loro risultati[23]. Ciò può essere raggiunto prefissandosi, sin dallâinizio, lo scopo dellâinterpretabilitĂ come guida nello sviluppo di un modello di IA[24]. Un modello di IA è interpretabile se gli output, le relazioni e gli schemi impliciti imparati dal modello di IA possono presentati in termini che gli umani possano capire[25]. In questo caso, però, ci si imbatte con una limitazione della âperfomanceâ perchĂŠ tendenzialmente solo i modelli piĂš semplici permettono di capire i calcoli e le combinazioni di variabili eseguite dai modelli di IA[26].
In ogni caso, in termini sociologici, le persone ritengono piĂš utili le spiegazioni che indicano le cause principali di una decisione e le spiegazioni controfattuali. Da una parte, per spiegare le cause principali ci possiamo avvalere delle tecniche XAI basate sui risultati, in quanto loro permettono di determinare quali fattori che hanno contribuito a produrre lâoutput[27]. In questo senso, per spiegare un sistema dâIA si può presentare un elenco di fattori, specificando la loro rilevanza in modo comprensibile al destinatario[28]. Per esempio, per una persona senza competenze tecniche un elenco può essere redatto come: âi fattori âstipendio,â âcasa di proprietĂ â e âprecedenti penaliâ hanno contribuito a produrre lâoutput âaffidamento della figlia a genitore X.â Il piĂš rilevante è stato il fattore âprecedenti penaliââ. Dallâaltra parte, le spiegazioni controfattuali si ottengono ponendo domande ipotetiche e contrarie rispetto a quello che è concretamente accaduto[29]. Per esempio, le domande controfattuali possono essere impostate nel seguente modo âquale sarebbe il risultato se i dati fossero invece cosĂŹ?â. Sono particolarmente utili qualora si cerchi di capire come ottenere un risultato diverso[30]. In tali termini, le spiegazioni controfattuali permettono di controllare la coerenza tra diverse decisioni[31] ed eventualmente, anche, impugnarle[32].
- Regolamentazione dei sistemi di intelligenza artificiale
La proposta di regolamento 2021/0106 sullâintelligenza artificiale[33] presentata il 21 aprile del 2021 è stata preceduta da un serie di comunicazioni[34], opinioni[35], risoluzioni[36] e linee guida[37]. GiĂ dallâinizio è stata assegnata una grande importanza alla trasparenza ed agli scenari ad alto rischio, ciò ha avuto come risultato una regolamentazione impostata secondo il rischio posto dai sistemi dâIA.
A prescindere delle attuali incertezze sul concetto di âintelligenza artificialeâ, lâarticolo 3(1) del regolamento 2021/0106 definisce come âsistema di intelligenza artificialeâ âun software sviluppato con una o piĂš delle tecniche e degli approcciâ stabiliti nellâallegato I dell’Artificial Intelligence Act[38]. Detto allegato identifica varie tecniche sviluppate secondo diversi approcci, i quali possono essere concepiti come: statistici[39], simbolici[40] e non-simbolici[41]. Ă importante notare che questo software viene inteso quale sistema perchĂŠ âpuò, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagisconoâ[42].
La decisione di adottare una definizione cosĂŹ ampia viene spiegata dalla volontĂ di rimanere âil piĂš possibile neutrale dal punto di vista tecnologico e adeguato alle esigenze futureâ[43]. Inoltre, lâelenco di tecniche ed approcci âdovrebbe essere tenuto aggiornatoâ[44] dalla Commissione Europea. Questa ha il potere di adottare atti delegati âal fine di modificare l’elenco delle tecniche e degli approcci di cui all’allegato I [della proposta di regolamento 2021/0106], per aggiornare tale elenco agli sviluppi tecnologici e di mercato sulla base di caratteristiche simili alle tecniche e agli approcci ivi elencatiâ[45].
La regolamentazione basata sul rischio distingue tra:
- rischio inaccettabile in riferimento al quale vengono stabilite âPratiche di IA vietate,â titolo II;
- sistemi di IA ad alto rischio, titolo III;
- sistemi di IA non ad alto rischio, soggetti agli obblighi di trasparenza del titolo IV;
- tutti i sistemi di IA, diversi da quali ad alto rischio, ai quali il titolo IX raccomanda lâadozione di codici di condotta.
Questo approccio rende omaggio al principio di proporzionalitĂ , rapportando il carico regolamentare al rischio[46]. Da una parte, stabilisce requisiti e obblighi per i sistemi di IA ad alto rischio. Dallâaltra parte stabilisce marginali obblighi di trasparenze e volontari codici di condotta per i sistemi di IA non ad alto rischio. Questo approccio è stato sviluppato allâinterno del âNew Legislative Frameworkâ (NLF), di solito impiegato per regolare determinati prodotti come i dispositivi medici[47]. Secondo questo regime âi produttori devono garantire che i loro prodotti siano conformi alla normativa di riferimentoâ[48]. La filosofia dellâNLF è che il produttore, avendo una conoscenza dettagliata del processo di progettazione e produzione, siano nella posizione migliore per adempiere agli obblighi di legge[49]. Nella presente proposta di regolamento ciò si è tradotto nel fissare la maggior parte dei requisiti e obblighi in capo ai fornitori dei sistemi di IA ad alto rischio[50].
Avendo presente quanto suddetto, per noi è rilevante lâarticolo 6 in cui si classificano i sistemi di intelligenza artificiale ad alto rischio in parte rinviando all’allegato III[51] della proposta di regolamento 2021/0106. Questo allegato[52] specifica che sono ad alto rischio i sistemi dâIA impiegati nei settori ivi elencati. Tra i vari settori a noi interessa il punto 8, cioè il settore dellââ[a]mministrazione della giustizia e processi democratici.â Secondo quanto disposto, sono ad alto rischio âa) i sistemi di IA destinati ad assistere un’autoritĂ giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fattiâ. Dunque, per esempio, se un sistema dâIA viene impiegato per suggerire quale normativa o precedente giudiziale sia rilevante in un determinato caso oppure semplicemente per assistere nella ricerca di casi in un database allora i giudici saranno considerati utenti sottoposti alla proposta di reg. 2021/0106.
Risulta particolarmente importante sottolineare che ad una lettura formalistica pare che ogni qualvolta un sistema dâIA venga impiegato in ambito giudiziario per lââamministrazione delle giustiziaâ allora i fornitori dei sistemi dâIA dovranno adempiere ai requisiti come âtrasparenza e fornitura di informazioni agli utentiâ[53] mentre i giudici-utenti agli obblighi come âusa[re] tali sistemi conformemente alle istruzioni per lâuso che accompagnano i sistemiâ[54]. Ad avviso di chi scrivere, pare preoccupante stabilire che saranno i fornitori di sistemi dâIA a determinare le âistruzioni per lâusoâ alla quale si devono attenere gli utenti. Ciò soprattutto se incrociamo il problema della âblack boxâ con le situazioni in cui le istruzioni per lâuso saranno proprio il mezzo principale per capire come utilizzare, senza necessariamente capire, i sistemi dâIA nello stabilire gli esiti di un giudizio.
In particolare, nel contesto legale italiano, sussiste il limite dellâarticolo 101 della Costituzione, per cui âi giudici sono soggetti soltanto alla leggeâ. Tuttavia, qualora i giudici non siano in grado di capire come i sistemi dâIA processano un certo normativo o precedente giudiziale allora pare ragionevole dubitare se i giudici siano veramente sottoposti alla legge oppure alle istruzioni per lâuso dei fornitori.
In questo riguardo, la proposta di regolamento stabilisce che i sistemi dâIA ad alto rischio âsono progettati e sviluppati in modo da consentire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare lâoutput del sistema e utilizzarlo adeguatamenteâ[55]. A questo punto Ă -mon-avis per garantire un giudice-utente padrone della sua decisione e in rispetto al dettato costituzionale allora è necessario consentirgli di interpretare lâoutput che le è proposto come potenziale esito di un giudizio. A questo scopo, sarebbe utile impiegare la tecnica XAI dâanalisi dei modelli dâIA in base ai loro risultati insieme ad una spiegazione “locale”. Ciò permetterebbe agli utenti di capire quali fattori hanno prodotto un certo output. In particolare, risulterebbe utile offrire delle spiegazioni in cui si chiarisce le cause principali e loro rilevanza per quel dato output. Poi per consentire ai giudici-utenti un utilizzo âadeguatamenteâ sarebbe necessaria unâiniziativa da parte delle corti che intendono impiegare sistemi dâIA di richiedere ai loro fornitori di seguire un prefissato disegno interpretabile dei modelli dâIA magari includendo la possibilitĂ di porre domande controfattuali e facilitando spiegazioni âglobaliâ.
In particolare, per quanto riguarda alla possibilitĂ di fornire un elenco di fattori che hanno contribuito a produrre lâoutput lâart. 13 stabilisce che âi sistemi di IA ad alto rischio sono accompagnati da istruzioni per l’uso in un formato digitale o non digitale appropriato, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per gli utentiâ[56]. Tra le informazioni da fornire si specificano, tra altri:
âb) le caratteristiche, le capacitĂ e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:â[57]
âŚ
âiii) qualsiasi circostanza nota o prevedibile connessa allâuso del sistema di IA ad alto rischio in conformitĂ alla sua finalitĂ prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute o per i diritti fondamentali;â[58]
âŚ
âv) ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto delle finalitĂ prevista del sistema di IA;â[59]
Notate bene, a differenza delle informazioni previste nel letterale b)iii), il disposto b)v) è discrezionale visto lâimpiego delle parole âove opportunoâ. Nel contesto di giudici-utenti, per i quali è vitale capire come i sistemi dâIA processano dati normativi e giurisprudenziale, è spiacevole notare come la proposta di regolamento rende discrezionale la resa di informazioni proprio di quei dati di input che determinano in modo significativo gli output con cui dovranno fare i conti i giudici-utenti. In vista del dettato della proposta di regolamento non rimane altro che augurare le corti a richiedere ai loro fornitori di suddette informazioni per loro proprie valutazioni e contestazioni degli output dei sistemi dâIA. Altrimenti i fornitori potrebbero discrezionalmente ritenere non opportuno concedere informazioni relative ai âdati di input, addestramento, convalida e prova,â magari perchĂŠ troppo oneroso oppure allegando diritti di proprietĂ intellettuale, il che risulterebbe in una lesione alla trasparenza ed al dettato costituzionale.
In fine, mi permetto di fare una piccola riflessione de iure condendo, per quanto riguarda i casi di processo decisionale automatizzato in cui la presa di decisione è stata delegate ad un organo che impiega sistemi dâIA per arrivare, in modo automatico, ad una decisione. Adesso che abbiamo studiato la proposta di regolamento 2021/0106 possiamo notare, con perplessitĂ , la dubbiositĂ intorno al loro rientro o meno nellâambito dâapplicazione del regolamento. Infatti, questi sistemi dâAI non sarebbero destinati ad âassistereâ bensĂŹ a prendere la decisione tout court. Una lettura formalistica imporrebbe di ritenere non applicabili a loro i requisiti e obblighi del reg. 2021/0106. Chi scrive rimane perplessa nellâosservare come i sistemi dâIA piĂš rischiosi in quanto potrebbero portare automaticamente a decisioni pregiudiziali per i diritti fondamentali non siano prima di tutto tra le pratiche vietate dellâarticolo 5 e in piĂš ci sia spazio per ipotizzare che non siano compresi tra i sistemi dâIA ad alto rischi. Allo stato della proposta di regolamento questi sistemi dâIA impiegati in processi decisionali automatizzati sarebbero unicamente sottoposti a codici di condotta volontari. Per fortuna, lâart. 22 GDPR garantisce il non essere sottoposti a decisioni basate unicamente sul trattamento automatizzato. Tuttavia, vista lâimportanza del regolamento 2021/0106 in quanto Artificial Intelligence Act sarebbe commendabile nelle future modifiche vietare sistemi dâIA diretti a produrre decisioni automatizzate, almeno se riguardanti diritti fondamentali, o maggiori requisiti e obblighi di trasparenza a favore degli utenti, anche se non riguardando diritti fondamentali.
- La proposta di regolamento e il processo civile
Sebbene ci siano vari progetti intesi a incorporare tecniche dâIA nellâamministrazione di giustizia sia in primo grado[60] come in giudizi di ultima istanza[61], il nostro caso di studio coinvolge la realtĂ giudiziaria del Tribunale di Genova. Ciò perchĂŠ coinvolge un istituto universitario la cui documentazione è pubblicamente accessibile e perchĂŠ ci sono dei profili interessanti a livello della proposta di regolamento 2021/0106.
Progetto âPredictive Justice.â Il progetto vede coinvolti il Tribunale di Genova e la Scuola Superiore SantâAnna di Pisa[62] allo scopo incorporare legal AI nella realtĂ giudiziaria. Prima di tutto bisogna ricordare che il problema di âblack boxâ intacca soprattutto le tecniche dâIA chiamate machine learning e deep learning. Ciò è rilevante perchĂŠ il progetto âpredictive justiceâ prevede lâimpiego di âExplainable MLâ nel âKnowledge Discovery Process from Databaseâ[63]. Ă lodevole notare come il progetto sia guidato da obiettivi di trasparenza, inquadrabili in quello che abbiamo chiamato tecnica XAI che si prefissa un disegno interpretabile. Tuttavia, il progetto rende esplicito lâuso deep learning, tecnica particolarmente opaca, come canale di esperimentazione al momento di processare dati âdevelopment of Named Entity Recognition (NER) algorithms based on Deep Learningâ[64].
Secondo il professore ComandĂŠ il progetto prevede diversi livelli. Livello 1, â[i]n the start-up phase, the project aims to analyze decisions with the corresponding files of trial courts according to the criteria and methodologies developed in the Observatory on personal injury, applicable to areas of litigation other than non-pecuniary damagesâ[65]. Livello 2, â[t]he same materials are used also through techniques of machine learning to develop both tools for annotation and automatic extraction of information from legal textsâ[66]. Livello 3-4, sviluppo di âalgorithms for analysis and prediction [âŚ] aims to recreate and mimic the legal reasoning behind the solution(s) adopted in the judgements by making predictable subsequent decisions on the same subjectâ[67]. âThese tools should also help to explain the reasoning underlying each decision, while the development of suitable tools to explain the criteria defined by the developed AI (level 4) will be testedâ[68]. Livello 5, âefforts and results in the different levels of research and development will be traced back to the attempt to structure the analysis of the legal argument at such a level of abstraction and systematicity as to contribute to the simplification of all tasksâ[69].
Dai documenti resi pubblici nei loro siti ufficiali e dalle dichiarazioni rese in vari convegni si ricava come il progetto sia attualmente nella fase iniziali di analisi delle decisioni e sviluppo di tecniche per lâestrazione di informazione dai documenti legali. Dunque, ancora non vi sarebbe unâadozione di sistemi di IA da parte del Tribunale di Genova, al di fuori di una banca dati per le ricerche di precedenti giudiziali. Tuttavia, implementando tecniche di ML nella costruzione di banche dati ed in vista del dichiarato scopo del progetto di âserve justiceâ e âallies of justiceâ[70] il progetto sarebbe inquadrabile nellâallegato III punto 8 âamministrazione di giustiziaâ. Perciò si rientrerebbe in un caso di sistema dâIA ad alto rischio perchĂŠ usato per assistere unâautoritĂ giudiziaria nella ricerca, interpretazione e applicazione di fatti e della legge. Ciò detto, essendo la Scuola Superiore Sant’Anna un istituto universitario vorrebbe dire che il progetto rientrerebbe nella categoria di ricerca scientifica. Ecco che surge il dubbio sugli obblighi in capo agli istituti di ricerca scientifica, i quali sembrerebbero essere fuori del campo di applicazione della proposta di regolamento[71]. Nella misura in cui il progetto è a titolo non commerciale (quindi al di fuori del contesto del mercato) i sistemi di IA sviluppati dai ricercatori sembrano essere soggetti solo a ânorme etiche riconosciute per la ricerca scientificaâ[72].
Infatti, anche i ricercatori dietro ritengono il progetto fuori dal campo di applicazione della proposta di regolamento[73]. Tuttavia, gli stessi ammettono che rimane il rischio dâintaccare libertĂ individuali producendo effetti pregiudiziali in casi concreti âby couching judges to interpret in a certain way (by driving interpretation in a certain way), thus, making it a âhigh-riskââ[74]. In questo riguardo, tra i criteri da tenere in considerazione, da parte della Commissione, al momento di valutare se un sistema di IA rientri tra quelli âad alto rischioâ si segnala âla misura in cui le persone che potrebbero subire il danno o l’impatto negativo dipendono dal risultato prodotto da un sistema di IA, in particolare perchĂŠ per motivi pratici o giuridici non è ragionevolmente possibile sottrarsi a tale risultatoâ[75].
In ogni caso, requisiti come lâarticolo 13 âtrasparenza e fornitura di informazioni agli utentiâ si applica di default ogni qualvolta il fornitore intenda mettere sul mercato o mettere in servizio il sistema AI[76]. Perciò, se le ambizioni del progetto dovessero rimanere puramente di natura di ricerca scientifica, i requisiti per i sistemi di IA ad alto rischio non si applicherebbero, perchĂŠ il sistema di IA non verrebbe sfruttato commercialmente sul mercato. Tuttavia, il fatto che il progetto metta a disposizione del Tribunale di Genova un sistema dâIA può costituire una âmessa in servizioâ. In tal caso, è possibile che il progetto sia categorizzato come indirizzato a produrre un sistema dâIA ad alto rischio con la conseguente applicazione dei requisiti e obblighi del regolamento 2021/0106.
In particolare, qualora il progetto intenda perseguire gli obiettivi dei livelli 3-4 sullo sviluppo di algoritmi per lâanalisi e predizione â1) Judges can evaluate litigation related to overlapping legal issues (based on similar legal rules, verifications, evidences) and thus facilitate the decision-making processâ[77]allora Ă -mon-avis questa è unâopportunitĂ unica per un progetto diretto da un istituto universitario di sviluppare un benchmark di sistema dâIA il quale incorpori strumenti che aiutino a spiegare il ragionamento dietro gli outputs decisionali.  Seguendo il nostro interesse nella trasparenza è interessante notare che il progetto segue un disegno interpretabile. Per esempio, usando tecniche di XAI come Akoma Ntoso, un tipo di linguaggio di uso comune per âtechnology-neutral electronic representationsâ[78] di documenti legali, e âconsensus algorithmsâ per raggiungere un accordo tra piĂš individui su un certo dato[79]. Ă uno sviluppo interessante, in quanto profila altre vie per sviluppare sistemi dâIA che siano interpretabili in termini umani. Inoltre, in una delle dichiarazioni della Scuola SantâAnna è stata menzionata la possibilitĂ di âcompare the âjudgeâs reasoningâ and the model reasoning. We can check if there is a discrepancy to understand why the model is wrong and why the model is wrong for that specific case lawâ[80]. Questa possibilitĂ somiglia quanto detto sulle spiegazioni controfattuali. Perciò, si potrebbe ipotizzare lo sviluppo di spiegazioni, le quali permettano di controllare la coerenza tra decisioni e anche una via per informare potenziali impugnazioni.
In conclusione, sebbene risulti lodevole lâimpiego di tecniche di XAI da parte del progetto âPredictive Justiceâ le loro tecniche dovranno fornire, in concreto, una spiegazione che sia soddisfacente dal punto di vista sociologico. Il coinvolgimento di sistemi dâIA nel sistema giudiziario può avere successo se guidato da un approccio misto, tra soddisfacente âperfomanceâ tecnica e soddisfacente interpretabilitĂ del processo decisionale da parte degli utenti.
- Conclusione
Il campo dellâintelligenza artificiale è di suo particolarmente complicato in quanto impiega concetti matematici, statistici e biologici. In futuro risulterĂ piĂš difficile innovare tramite lâimpiego di tecniche dâIA se la stessa normativa che ne tratta non riesce ad afferrare i concetti basilari che ne stanno dietro nĂŠ le conseguenze che possono derivare dal loro impiego. Sebbene i giuristi non siano teorici matematici con la formazione tecnica tale da sviluppare sistemi dâIA è loro responsabilitĂ prendere coscienza dei cambiamenti in corso. In particolare, vista la rilevanza dellâamministrazione della giustizia nella difesa dei diritti fondamentali sono i giuristi ad essere chiamati a sollevare delle problematicitĂ che le nuove tecnologie possono avere nel tessuto sociale o almeno nella pratica legale. Siano legislatori, giudici, avvocati o semplici cultori del diritto hanno il compito di informarsi e proporre delle soluzioni a problemi attuali che affrontiamo come consociati. Alla fine dei conti, si ricordi che le pretese di velocitĂ ed efficienza non possono essere privilegiate a scapito dei principi fondamentali, quali quello della trasparenza, che impongono di immettere ai destinatari delle decisioni in una situazione tale capire e impugnare gli output che intaccano i loro diritti fondamentali.
[1] A. Levitin, Introduction to the design and analysis of algorithms, III ed., New York, Pearson, 2011, 13 p.
[2] A. Longo, G. Scorza, Intelligenza artificiale: lâimpatto sulle nostre vite, diritti e libertĂ , Milano, Mondadori UniversitĂ , 2020, 21 p.; M. Vimalkumar, A. Gupta, D. Sharma, Y. Dwivedi, Understanding the Effect that Task Complexity has on Automation Potential and Opacity: Implications for Algorithmic Fairness, in âAIS Transactions on Human-Computer Interactionâ, 2021, v. 13, n. 1, 107 p.
[3] A. Levitin, Introduction to the design and analysis of algorithms, cit., 13 p.
[4] B. Mittelstadt, P. Allo, M. Taddeo, S. Wachter, L. Floridi, The ethics of algorithms: Mapping the debate, in âBig Data & Societyâ, 2016, n. 3, pp. 1-21.
[5] L. Floridi, The 4th Revolution. How the Infosphere is Reshaping Human Reality, Oxford, Oxford University Press, 2014, 156 p.; J. Nieva-fenoll, Inteligencia artificial y proceso judicial, Madrid, Marcial Pons, 2018, 21 p.
[6] A. Longo, G. Scorza, Intelligenza artificiale: lâimpatto sulle nostre vite, diritti e libertĂ , cit., pp.26-27.
[7] B. Friedman, H. Nissebaum, Bias in Computer Systems, in âACM Transactions on Information Systemsâ, v. 14, n. 3, 1996, 335 p.
[8] University of Helsinki, Reaktor, How Should We Define AI?, in âhttps://course.elementsofai.com/1/1â.
[9] University of Helsinki, Reaktor, How Should We Define AI?, cit.
[10] P. Comoglio, Nuova tecnologie e disponibilitĂ Della prova. Lâaccertamento del fatto nella diffusione delle conoscenze, cit., 335 p.
[11] A. Joshi, Machine Learning and Artificial Intelligence, cit., 164 p.
[12] B. Mittelstadt, C. Russell, S. Wachter, Explaining Explanations in AI, in âProceedings of the Conference on Fairness, Accountability, and Transparency (FAT* ’19)â, 2018, 283 p.
[13] D. Gunning, M. Stefik, J. Choi, T. Miller, S. Stumpf, G. Yang, Explainable artificial intelligence (XAI), in âDARPA/I20,â 2019, 52 p.
[14] A. Barredo Arrieta, N. DĂaz-RodrĂguez, J. Del Ser, A. Bennetot, S. Tabik, A. Barbado, S. Garcia, S. Gil-Lopez, D. Molina, R. Benjamins, R. Chatila, F. Herrera, Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI, in âInformation Fusionâ, 2020, v. 58, 94 p.
[15] A. Rai, Explainable AI: from black box to glass box, cit., 138 p.
[16] W. Samek, A. Binder, G. Montavon, S. Lapuschkin, and K. MĂźller, Evaluating the visualization of what a deep neural network has learned, in âIEEE Transactions on Neural Networks and Learning Systemsâ, 2017, v. 28, 2665 p.
[17] M. Wick, W. Thompson, Reconstructive expert system explanation, in âArtificial Intelligenceâ, 1992, v. 54, n. 1-2, 58 p.
[18] A. Rai, Explainable AI: from black box to glass box, cit., 138 p.
[19] P. Kim, Data-driven discrimination at work, in âWillian & Mary Law Reviewâ, 2017, v. 58, n. 3, 931 p.
[20] D. Doran, S. Schulz, T. Besold, What does explainable AI really mean? A new conceptualization of perspectives, in âCEUR Workshop Proceedingsâ, 2018, 2071 p.
[21] A. Barredo Arrieta, N. DĂaz-RodrĂguez, J. Del Ser, A. Bennetot, S. Tabik, A. Barbado, S. Garcia, S. Gil-Lopez, D. Molina, R. Benjamins, R. Chatila, F. Herrera, Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI, cit., 101 p.
[22] R. Roscher, B. Bohn, M. Duarte, J. Garcke, Explainable Machine Learning for Scientific Insights and Discoveries, in âIEEE Accessâ, 2020, v. 8, 42222 p.
[23] W. Samek, G. Montavon, S. Lapuschkin, C. Anders, K. MĂźller, Explaining Deep Neural Networks and Beyond: A Review of Methods and Applications, in âProceedings of the IEEEâ, 2021, v. 109, iss. 3, pp. 247-278.
[24] J. Murdoch, C. Singh, K. Kumbier, R. Abbasi-Asl, B.Yu, Definitions, methods, and applications in interpretable machine learning, in âProceedings of the National Academy of Sciences of the United States of Americaâ, 2019, pp. 22079 p.
[25] W. Samek, G. Montavon, S. Lapuschkin, C. Anders, K. MĂźller, Explaining Deep Neural Networks and Beyond: A Review of Methods and Applications, cit., pp. 247-278.
[26] S. Wachter, B. Mittelstadt, C. Russell, Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR, in âHarvard Journal of Law & Technologyâ, 2018, v. 31, n. 2, 845 p.
[27] R. Roscher, B. Bohn, M. Duarte, J. Garcke, Explainable Machine Learning for Scientific Insights and Discoveries, cit., 42222. p.
[28] R. Roscher, B. Bohn, M. Duarte, J. Garcke, Explainable Machine Learning for Scientific Insights and Discoveries, cit., 42222 p.
[29] S. Wachter, B. Mittelstadt, C. Russell, Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR, cit., 850 p.
[30] B. Mittelstadt, C. Russell, S. Wachter, Explaining Explanations in AI, cit., 281 p.
[31] F. Doshi-Velez, M. Kortz, R. Budish, C. Bavitz, S. Gershman, D. O’Brien, K. Scott, J. Waldo, D. Weinberger, A. Weller, A. Wood, A, Accountability of AI Under the Law: The Role of Explanation, cit., 14 p.
[32] S. Wachter, B. Mittelstadt, C. Russell, Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR, cit., 860 p.
[33] Proposta di regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sullâIA (Artificial Intelligence Act) e modifica alcuni atti legislativi dellâUnione, COM(2021) 206final.
[34] European Commission, A Digital Market Strategy for Europe, COM (2015) 192 final; the next communication touching upon the subject, by the European Commission, was in January 2017, Building a European Data Economy, COM(2017) 9 final; European Commission, Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions. Artificial Intelligence for Europe, COM(2018) 237 final.
[35] European Economic and Social Committee Opinion. Artificial intelligence â The consequences of artificial intelligence on the (digital) single market, production, consumption, employment and society (own-initiative opinion), (INT/806-EESC-2016-05369-00-00-AC-TRA), in âOfficial Journal of the European Unionâ, C 288.; European Economic and Social Committee 526th EESC Plenary Session of 31 May and 1 June 2017, Opinion of the European Economic and Social Committee on âArtificial intelligence â The consequences of artificial intelligence on the (digital) single market, production, consumption, employment and societyâ (own-initiative opinion) (2017/C 288/01).
[36] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto (2015/2103(INL)).
[37] Gruppo Indipendente di Esperti Ad Alto Livello sullâIntelligenza Artificiale, Istituito dalla Commissione Europea nel giugno 2018, Orientamenti Etici per unâIA Affidabile, 2019; von der Leyen, A Union that strives for more. My agenda for Europe. Political Guidelines for the Next European Commission 2019-2024; European Commission, White Paper on Artificial Intelligence â A European approach to excellence and trust, COM(2020) 65final.
[38] Allegato I, Tecniche e approcci di intelligenza artificiale di cui allâarticolo 3, punto 1), Allegati della proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce le regole armonizzate sullâintelligenza artificiale (Artificial Intelligence Act) e modifica alcuni atti legislativi dellâUnione.
[39] Allegato I, cit, lt. c).
[40] Allegato I, cit., lt. b).
[41] Allegato I, cit., lt. a).
[42] Proposta di regolamento, cit., art. 3(1).
[43] Proposta di regolamento, cit., â5.2. Illustrazione dettagliata delle singole disposizioni della proposta,â punto 5.2.1.
[44] Proposta di regolamento, cit., considerando 6.
[45] Proposta di regolamento, cit., art. 4.
[46] Commission Staff Working Document. Executive Summary of the Impact Assessment Report. Accompanying the Proposal for a Regulation of the European Parliament and of the Council. Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, SWD(2021) 85 final, Brussels.
[47] M. Veale, F. Zuiderveen Borgesius, Demystifying the Draft EU Artificial Intelligence Act, in âComputer Law Review Internationalâ, v. 22, n. 4, 2021, 100 p.
[48] Decisione n. 768/2008/CE â Un quadro comune per la commercializzazione dei prodotti nellâUnione europea.
[49] M. Veale, F. Zuiderveen Borgesius, Demystifying the Draft EU Artificial Intelligence Act, cit., 101 p.
[50] Proposta di regolamento, cit., art. 16.
[51] Proposta di regolamento, cit., art. 6(2).
[52] Allegato III, Sistemi di IA ad alto rischio di cui allâarticolo 6, paragrafo 2, Allegati della proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sullâIA (Artificial Intelligence Act) e modifica alcuni atti legislativi dellâUnione, COM(2021) 206 final.
[53] Proposta di regolamento, cit., art. 13.
[54] Proposta di regolamento, cit., art. 29(1).
[55] Proposta di regolamento, cit., art. 13(1).
[56] Proposta di regolamento, cit., art. 13(2).
[57] Proposta di regolamento, cit., art. 13(3).
[58] Proposta di regolamento, cit., art. 13(3)(iii).
[59] Proposta di regolamento, cit., art. 13(3)(v).
[60] Cfr. Tribunale di Firenze, Giustizia 4.0. Una metodologia strategia, innovativa e replicabile per risolvere i contenziosi riducendo i tempi della giustizia, in âhttps://www.forumpachallenge.it/soluzioni/giustizia-semplice-40#â.
[61] Accordo Quadro tra La Corte di Cassazione, Centro Elettronico di Documentazione (C.E.D.), con sede in Roma, presso il Palazzo di Giustizia, piazza Cavour (di seguito anche âC.E.D.â), rappresentata dal Primo Presidente Pietro Curzio e La Scuola Superiore Universitaria Superiore IUSS Pavia, C.F. 96049740184, P.IVA n. 02202080186, con sede in Pavia, presso il Palazzo del Broletto, Piazza della Vittoria n. 15 (di seguito anche âIUSSâ), rappresentata dal Rettore Prof. Riccardo Pietrabissa, in âhttps://www.cortedicassazione.it/cassazione-resources/resources/cms/documents/ACCORDO_TRA_CED_E_SCUOLA_UNIVERSITARIA_SUPERIORâ.
[62] R. Casaluce, Exploring Trial Courts Legal Databases: Part 2 â Length of legal documents, in âhttps://www.predictivejurisprudence.eu/exploring-trial-courts-legal-databases-part-2-length-of-legal-documents/â, 2021.
[63] Predictive Justice, in âhttps://www.predictivejurisprudence.eu/â.
[64] Predictive Justice, Anonymization model, in âhttps://www.predictivejurisprudence.eu/the_project/anonymization-model/â.
[65] Algorithm Watch, Automating Society Report 2020, Berlin, AlgorithmWatch gGmbH, 2020, 151 p.
[66] Algorithm Watch, Automating Society Report 2020, cit., 151.
[67] Algorithm Watch, Automating Society Report 2020, cit., 151.
[68] Algorithm Watch, Automating Society Report 2020, cit., 151.
[69] Algorithm Watch, Automating Society Report 2020, cit., 151.
[70] Predictive Justice, in âhttps://www.predictivejurisprudence.eu/â.
[71] N. Smuha, Feedback from: Legal, Ethical & Accountable Digital Society (LEADS) Lab, University of Birmingham, in âhttps://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12527-Artificial-intelligence-ethical-and-legal-requirements/F2665480_enâ, 2021.
[72] Proposta di regolamento, cit., considerando 16.
[73] Cfr. D. Amram, High-risk database and the new regulation on AI, SoBigData++ and LeADS joint Awareness Panel, 6.07.2021, ScuolaSantAnna, in âhttps://www.youtube.com/watch?v=0VDsDBBOkxY&list=WL&index=31â, 2021, 1:53:24 et seq.
[74] Cfr. D. Amram, High-risk database and the new regulation on AI, cit.
[75] Proposta di regolamento, cit., art. 7(2)(e).
[76] Proposta di regolamento, cit., art. 2.
[77] Cfr. D. Licari, Predictive Justice. Towards a fully automated data-driven platform for Legal Analytics, cit.
[78] Akoma Ntoso, in âhttp://www.akomantoso.org/â.
[79] âFor example, each sentence is evaluated by 3 experts and we apply a majority vote for the choice of the final label. We avoid the labelling by creating a web application for annotations so the expert can easily choose the right labelâ. Cfr. D. Licari, Predictive Justice. Towards a fully automated data-driven platform for Legal Analytics, cit.
[80] Cfr. D. Licari, Predictive Justice. Towards a fully automated data-driven platform for Legal Analytics, cit.