giovedì, Marzo 28, 2024
Uncategorized

IA in tribunale, un caso di studio ai sensi dell’Artificial Intelligence Act

IA in tribunale, un caso di studio ai sensi dell’Artificial Intelligence Act

A cura di Ana Paula Gonzalez Torres.
Questo articolo è disponibile anche in Inglese qui.

  1. Intelligenza artificiale, “black box”, e tecniche XAI

Il campo dell’intelligenza artificiale (IA) è spaventoso perché è complicato. Per studiarla bisogna cimentare i suoi concetti basilari per poi costruire sopra una discussione. Per iniziare, per “algoritmo” si intende una sequenza di istruzioni per risolvere un problema[1]. Le istruzioni, idealmente, sono passi elementari, chiari e non ambigui[2]. Questi sono necessari per ottenere un certo risultato (output) per un certo dato di entrata (input) in un periodo di tempo determinato[3]. Tuttavia, a volte, gli algoritmi sono scritti in maniera così ambigua ed opaca da rendere difficile la razionalizzazione dell’output[4]. Gli algoritmi sono importanti perché sono gli elementi basilari su cui si regge l’intelligenza artificiale[5].

Invece, per “intelligenza artificiale”, sebbene non ci sia un consenso, di solito si riferisce alla disciplina scientifica sviluppata all’interno del ramo di computer science. Qualora si parli di IA “applicata” si fa riferimento ad un insieme di algoritmi supportati da un chip (hardware) e dati (che rappresentano il mondo e le persone) per risolvere un problema[6]. Qualora i sistemi d’IA siano in grado di interagire con il loro ambiente circostante[7] allora saranno autonomi, in quanto capaci di svolgere determinati compiti in ambienti complessi senza una guida costante da parte dell’utente,[8] e adattabili, in quanto capaci di migliorare le proprie prestazioni imparando dall’esperienza[9].

Il problema del “black box” si riferisce a certi tipi di tecnologia “opaca” non facilmente interpretabile e dunque non aperta allo scrutinio dagli utenti, a volte neanche dai loro sviluppatori. Il che rende difficile la loro modifica, correzione o spiegazione[10].

Nel regno dell’intelligenza artificiale, non tutti i sistemi di IA soffrono del problema del “black box.” Sono in particolare le tecniche dell’IA non-simboliche, come machine learning e il suo deep learning, le quali ne soffrono più che altre del problema di “black blox”. Ciò perché coinvolgono calcoli complessi con molteplici variabili interdipendenti, che a volte autodeterminazioni quid novi le proprie strutture[11].

In conseguenza, per gli umani il processo di funzionamento dei sistemi di IA si rende troppo complesso per poter dargli un senso[12]. Ecco il perché sono state sviluppate le tecniche di “explainable AI” (XAI), queste sono impiegate qualora si voglia spiegare i modelli d’IA senza sacrificare la loro “perfomance[13]. In generale si possono identificare due approcci: 1) analisi dei modelli d’IA in base ai loro risultati, e 2) prefissato disegno interpretabile di modelli d’IA.

Il primo approccio è interessato ad un post hoc analisi dei risultati[14] il quale può essere concepito secondo prospettive di alto e basso livello. La prospettiva di alto livello che studia come il modello di IA risponde a certi vincoli[15]. Per esempio, una volta rimosso un certo dato di input[16] o modificato un certo valore nei calcoli[17]. La prospettiva di basso livello studia come i modelli di IA processano specifici dati[18]. Questa prospettiva si interessa a come certi dati possano influenzare la produzione di output[19]. Per esempio, bias input data che genera un output discriminatori. Questo approccio è modellato sulla differenza tra il “come” e il “perché.” Il “come” permette di capire quali elementi sono stati cruciali per un certo output, per esempio quali dati e regole hanno influito in un compito di classificazione[20]. Il “perché” permette di capire il risultato, più che altro in senso causale[21]. L’importanza di una spiegazione causale deriva dal grande numero di variabili coinvolte nei calcoli dei sistemi di IA per cui è necessario non attribuire importanza a relazioni solo casuali tra variabili[22].

Il secondo approccio è interessato al disegno dei modelli d’IA secondo logiche che permettano di spiegare i loro risultati[23]. Ciò può essere raggiunto prefissandosi, sin dall’inizio, lo scopo dell’interpretabilità come guida nello sviluppo di un modello di IA[24]. Un modello di IA è interpretabile se gli output, le relazioni e gli schemi impliciti imparati dal modello di IA possono presentati in termini che gli umani possano capire[25]. In questo caso, però, ci si imbatte con una limitazione della “perfomance” perché tendenzialmente solo i modelli più semplici permettono di capire i calcoli e le combinazioni di variabili eseguite dai modelli di IA[26].

In ogni caso, in termini sociologici, le persone ritengono più utili le spiegazioni che indicano le cause principali di una decisione e le spiegazioni controfattuali. Da una parte, per spiegare le cause principali ci possiamo avvalere delle tecniche XAI basate sui risultati, in quanto loro permettono di determinare quali fattori che hanno contribuito a produrre l’output[27]. In questo senso, per spiegare un sistema d’IA si può presentare un elenco di fattori, specificando la loro rilevanza in modo comprensibile al destinatario[28]. Per esempio, per una persona senza competenze tecniche un elenco può essere redatto come: “i fattori ‘stipendio,’ ‘casa di proprietà’ e ‘precedenti penali’ hanno contribuito a produrre l’output ‘affidamento della figlia a genitore X.’ Il più rilevante è stato il fattore ‘precedenti penali’”. Dall’altra parte, le spiegazioni controfattuali si ottengono ponendo domande ipotetiche e contrarie rispetto a quello che è concretamente accaduto[29]. Per esempio, le domande controfattuali possono essere impostate nel seguente modo “quale sarebbe il risultato se i dati fossero invece così?”. Sono particolarmente utili qualora si cerchi di capire come ottenere un risultato diverso[30]. In tali termini, le spiegazioni controfattuali permettono di controllare la coerenza tra diverse decisioni[31] ed eventualmente, anche, impugnarle[32].

  1. Regolamentazione dei sistemi di intelligenza artificiale

La proposta di regolamento 2021/0106 sull’intelligenza artificiale[33] presentata il 21 aprile del 2021 è stata preceduta da un serie di comunicazioni[34], opinioni[35], risoluzioni[36] e linee guida[37]. Già dall’inizio è stata assegnata una grande importanza alla trasparenza ed agli scenari ad alto rischio, ciò ha avuto come risultato una regolamentazione impostata secondo il rischio posto dai sistemi d’IA.

A prescindere delle attuali incertezze sul concetto di “intelligenza artificiale”, l’articolo 3(1) del regolamento 2021/0106 definisce come “sistema di intelligenza artificiale” “un software sviluppato con una o più delle tecniche e degli approcci” stabiliti nell’allegato I dell’Artificial Intelligence Act[38]. Detto allegato identifica varie tecniche sviluppate secondo diversi approcci, i quali possono essere concepiti come: statistici[39], simbolici[40] e non-simbolici[41]. È importante notare che questo software viene inteso quale sistema perché “può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”[42].

La decisione di adottare una definizione così ampia viene spiegata dalla volontà di rimanere “il più possibile neutrale dal punto di vista tecnologico e adeguato alle esigenze future”[43]. Inoltre, l’elenco di tecniche ed approcci “dovrebbe essere tenuto aggiornato”[44] dalla Commissione Europea. Questa ha il potere di adottare atti delegati “al fine di modificare l’elenco delle tecniche e degli approcci di cui all’allegato I [della proposta di regolamento 2021/0106], per aggiornare tale elenco agli sviluppi tecnologici e di mercato sulla base di caratteristiche simili alle tecniche e agli approcci ivi elencati”[45].

La regolamentazione basata sul rischio distingue tra:

  1. rischio inaccettabile in riferimento al quale vengono stabilite “Pratiche di IA vietate,” titolo II;
  2. sistemi di IA ad alto rischio, titolo III;
  3. sistemi di IA non ad alto rischio, soggetti agli obblighi di trasparenza del titolo IV;
  4. tutti i sistemi di IA, diversi da quali ad alto rischio, ai quali il titolo IX raccomanda l’adozione di codici di condotta.

Questo approccio rende omaggio al principio di proporzionalità, rapportando il carico regolamentare al rischio[46]. Da una parte, stabilisce requisiti e obblighi per i sistemi di IA ad alto rischio. Dall’altra parte stabilisce marginali obblighi di trasparenze e volontari codici di condotta per i sistemi di IA non ad alto rischio. Questo approccio è stato sviluppato all’interno del “New Legislative Framework” (NLF), di solito impiegato per regolare determinati prodotti come i dispositivi medici[47]. Secondo questo regime “i produttori devono garantire che i loro prodotti siano conformi alla normativa di riferimento”[48]. La filosofia dell’NLF è che il produttore, avendo una conoscenza dettagliata del processo di progettazione e produzione, siano nella posizione migliore per adempiere agli obblighi di legge[49]. Nella presente proposta di regolamento ciò si è tradotto nel fissare la maggior parte dei requisiti e obblighi in capo ai fornitori dei sistemi di IA ad alto rischio[50].

Avendo presente quanto suddetto, per noi è rilevante l’articolo 6 in cui si classificano i sistemi di intelligenza artificiale ad alto rischio in parte rinviando all’allegato III[51] della proposta di regolamento 2021/0106. Questo allegato[52] specifica che sono ad alto rischio i sistemi d’IA impiegati nei settori ivi elencati. Tra i vari settori a noi interessa il punto 8, cioè il settore dell’“[a]mministrazione della giustizia e processi democratici.” Secondo quanto disposto, sono ad alto rischio “a) i sistemi di IA destinati ad assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti”. Dunque, per esempio, se un sistema d’IA viene impiegato per suggerire quale normativa o precedente giudiziale sia rilevante in un determinato caso oppure semplicemente per assistere nella ricerca di casi in un database allora i giudici saranno considerati utenti sottoposti alla proposta di reg. 2021/0106.

Risulta particolarmente importante sottolineare che ad una lettura formalistica pare che ogni qualvolta un sistema d’IA venga impiegato in ambito giudiziario per l’“amministrazione delle giustizia” allora i fornitori dei sistemi d’IA dovranno adempiere ai requisiti come “trasparenza e fornitura di informazioni agli utenti”[53] mentre i giudici-utenti agli obblighi come “usa[re] tali sistemi conformemente alle istruzioni per l’uso che accompagnano i sistemi”[54]. Ad avviso di chi scrivere, pare preoccupante stabilire che saranno i fornitori di sistemi d’IA a determinare le “istruzioni per l’uso” alla quale si devono attenere gli utenti. Ciò soprattutto se incrociamo il problema della “black box” con le situazioni in cui le istruzioni per l’uso saranno proprio il mezzo principale per capire come utilizzare, senza necessariamente capire, i sistemi d’IA nello stabilire gli esiti di un giudizio.

In particolare, nel contesto legale italiano, sussiste il limite dell’articolo 101 della Costituzione, per cui “i giudici sono soggetti soltanto alla legge”. Tuttavia, qualora i giudici non siano in grado di capire come i sistemi d’IA processano un certo normativo o precedente giudiziale allora pare ragionevole dubitare se i giudici siano veramente sottoposti alla legge oppure alle istruzioni per l’uso dei fornitori.

In questo riguardo, la proposta di regolamento stabilisce che i sistemi d’IA ad alto rischio “sono progettati e sviluppati in modo da consentire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo adeguatamente”[55]. A questo punto à-mon-avis per garantire un giudice-utente padrone della sua decisione e in rispetto al dettato costituzionale allora è necessario consentirgli di interpretare l’output che le è proposto come potenziale esito di un giudizio. A questo scopo, sarebbe utile impiegare la tecnica XAI d’analisi dei modelli d’IA in base ai loro risultati insieme ad una spiegazione “locale”. Ciò permetterebbe agli utenti di capire quali fattori hanno prodotto un certo output. In particolare, risulterebbe utile offrire delle spiegazioni in cui si chiarisce le cause principali e loro rilevanza per quel dato output. Poi per consentire ai giudici-utenti un utilizzo “adeguatamente” sarebbe necessaria un’iniziativa da parte delle corti che intendono impiegare sistemi d’IA di richiedere ai loro fornitori di seguire un prefissato disegno interpretabile dei modelli d’IA magari includendo la possibilità di porre domande controfattuali e facilitando spiegazioni “globali”.

In particolare, per quanto riguarda alla possibilità di fornire un elenco di fattori che hanno contribuito a produrre l’output l’art. 13 stabilisce che “i sistemi di IA ad alto rischio sono accompagnati da istruzioni per l’uso in un formato digitale o non digitale appropriato, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per gli utenti”[56]. Tra le informazioni da fornire si specificano, tra altri:

“b) le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:”[57]

“iii) qualsiasi circostanza nota o prevedibile connessa all’uso del sistema di IA ad alto rischio in conformità alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute o per i diritti fondamentali;”[58]

“v) ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto delle finalità prevista del sistema di IA;”[59]

Notate bene, a differenza delle informazioni previste nel letterale b)iii), il disposto b)v) è discrezionale visto l’impiego delle parole “ove opportuno”. Nel contesto di giudici-utenti, per i quali è vitale capire come i sistemi d’IA processano dati normativi e giurisprudenziale, è spiacevole notare come la proposta di regolamento rende discrezionale la resa di informazioni proprio di quei dati di input che determinano in modo significativo gli output con cui dovranno fare i conti i giudici-utenti. In vista del dettato della proposta di regolamento non rimane altro che augurare le corti a richiedere ai loro fornitori di suddette informazioni per loro proprie valutazioni e contestazioni degli output dei sistemi d’IA. Altrimenti i fornitori potrebbero discrezionalmente ritenere non opportuno concedere informazioni relative ai “dati di input, addestramento, convalida e prova,” magari perché troppo oneroso oppure allegando diritti di proprietà intellettuale, il che risulterebbe in una lesione alla trasparenza ed al dettato costituzionale.

In fine, mi permetto di fare una piccola riflessione de iure condendo, per quanto riguarda i casi di processo decisionale automatizzato in cui la presa di decisione è stata delegate ad un organo che impiega sistemi d’IA per arrivare, in modo automatico, ad una decisione. Adesso che abbiamo studiato la proposta di regolamento 2021/0106 possiamo notare, con perplessità, la dubbiosità intorno al loro rientro o meno nell’ambito d’applicazione del regolamento. Infatti, questi sistemi d’AI non sarebbero destinati ad “assistere” bensì a prendere la decisione tout court. Una lettura formalistica imporrebbe di ritenere non applicabili a loro i requisiti e obblighi del reg. 2021/0106. Chi scrive rimane perplessa nell’osservare come i sistemi d’IA più rischiosi in quanto potrebbero portare automaticamente a decisioni pregiudiziali per i diritti fondamentali non siano prima di tutto tra le pratiche vietate dell’articolo 5 e in più ci sia spazio per ipotizzare che non siano compresi tra i sistemi d’IA ad alto rischi. Allo stato della proposta di regolamento questi sistemi d’IA impiegati in processi decisionali automatizzati sarebbero unicamente sottoposti a codici di condotta volontari. Per fortuna, l’art. 22 GDPR garantisce il non essere sottoposti a decisioni basate unicamente sul trattamento automatizzato. Tuttavia, vista l’importanza del regolamento 2021/0106 in quanto Artificial Intelligence Act sarebbe commendabile nelle future modifiche vietare sistemi d’IA diretti a produrre decisioni automatizzate, almeno se riguardanti diritti fondamentali, o maggiori requisiti e obblighi di trasparenza a favore degli utenti, anche se non riguardando diritti fondamentali.

  1. La proposta di regolamento e il processo civile

Sebbene ci siano vari progetti intesi a incorporare tecniche d’IA nell’amministrazione di giustizia sia in primo grado[60] come in giudizi di ultima istanza[61], il nostro caso di studio coinvolge la realtà giudiziaria del Tribunale di Genova. Ciò perché coinvolge un istituto universitario la cui documentazione è pubblicamente accessibile e perché ci sono dei profili interessanti a livello della proposta di regolamento 2021/0106.

Progetto “Predictive Justice.” Il progetto vede coinvolti il Tribunale di Genova e la Scuola Superiore Sant’Anna di Pisa[62] allo scopo incorporare legal AI nella realtà giudiziaria. Prima di tutto bisogna ricordare che il problema di “black box” intacca soprattutto le tecniche d’IA chiamate machine learning e deep learning. Ciò è rilevante perché il progetto “predictive justice” prevede l’impiego di “Explainable ML” nel “Knowledge Discovery Process from Database”[63]. È lodevole notare come il progetto sia guidato da obiettivi di trasparenza, inquadrabili in quello che abbiamo chiamato tecnica XAI che si prefissa un disegno interpretabile. Tuttavia, il progetto rende esplicito l’uso deep learning, tecnica particolarmente opaca, come canale di esperimentazione al momento di processare dati “development of Named Entity Recognition (NER) algorithms based on Deep Learning”[64].

Secondo il professore Comandé il progetto prevede diversi livelli. Livello 1, “[i]n the start-up phase, the project aims to analyze decisions with the corresponding files of trial courts according to the criteria and methodologies developed in the Observatory on personal injury, applicable to areas of litigation other than non-pecuniary damages”[65]. Livello 2, “[t]he same materials are used also through techniques of machine learning to develop both tools for annotation and automatic extraction of information from legal texts”[66]. Livello 3-4, sviluppo di “algorithms for analysis and prediction […] aims to recreate and mimic the legal reasoning behind the solution(s) adopted in the judgements by making predictable subsequent decisions on the same subject”[67]. “These tools should also help to explain the reasoning underlying each decision, while the development of suitable tools to explain the criteria defined by the developed AI (level 4) will be tested”[68]. Livello 5, “efforts and results in the different levels of research and development will be traced back to the attempt to structure the analysis of the legal argument at such a level of abstraction and systematicity as to contribute to the simplification of all tasks”[69].

Dai documenti resi pubblici nei loro siti ufficiali e dalle dichiarazioni rese in vari convegni si ricava come il progetto sia attualmente nella fase iniziali di analisi delle decisioni e sviluppo di tecniche per l’estrazione di informazione dai documenti legali. Dunque, ancora non vi sarebbe un’adozione di sistemi di IA da parte del Tribunale di Genova, al di fuori di una banca dati per le ricerche di precedenti giudiziali. Tuttavia, implementando tecniche di ML nella costruzione di banche dati ed in vista del dichiarato scopo del progetto di “serve justice” e “allies of justice”[70] il progetto sarebbe inquadrabile nell’allegato III punto 8 “amministrazione di giustizia”. Perciò si rientrerebbe in un caso di sistema d’IA ad alto rischio perché usato per assistere un’autorità giudiziaria nella ricerca, interpretazione e applicazione di fatti e della legge. Ciò detto, essendo la Scuola Superiore Sant’Anna un istituto universitario vorrebbe dire che il progetto rientrerebbe nella categoria di ricerca scientifica. Ecco che surge il dubbio sugli obblighi in capo agli istituti di ricerca scientifica, i quali sembrerebbero essere fuori del campo di applicazione della proposta di regolamento[71]. Nella misura in cui il progetto è a titolo non commerciale (quindi al di fuori del contesto del mercato) i sistemi di IA sviluppati dai ricercatori sembrano essere soggetti solo a “norme etiche riconosciute per la ricerca scientifica”[72].

Infatti, anche i ricercatori dietro ritengono il progetto fuori dal campo di applicazione della proposta di regolamento[73]. Tuttavia, gli stessi ammettono che rimane il rischio d’intaccare libertà individuali producendo effetti pregiudiziali in casi concreti “by couching judges to interpret in a certain way (by driving interpretation in a certain way), thus, making it a ‘high-risk’”[74]. In questo riguardo, tra i criteri da tenere in considerazione, da parte della Commissione, al momento di valutare se un sistema di IA rientri tra quelli “ad alto rischio” si segnala “la misura in cui le persone che potrebbero subire il danno o l’impatto negativo dipendono dal risultato prodotto da un sistema di IA, in particolare perché per motivi pratici o giuridici non è ragionevolmente possibile sottrarsi a tale risultato”[75].

In ogni caso, requisiti come l’articolo 13 “trasparenza e fornitura di informazioni agli utenti” si applica di default ogni qualvolta il fornitore intenda mettere sul mercato o mettere in servizio il sistema AI[76]. Perciò, se le ambizioni del progetto dovessero rimanere puramente di natura di ricerca scientifica, i requisiti per i sistemi di IA ad alto rischio non si applicherebbero, perché il sistema di IA non verrebbe sfruttato commercialmente sul mercato. Tuttavia, il fatto che il progetto metta a disposizione del Tribunale di Genova un sistema d’IA può costituire una “messa in servizio”. In tal caso, è possibile che il progetto sia categorizzato come indirizzato a produrre un sistema d’IA ad alto rischio con la conseguente applicazione dei requisiti e obblighi del regolamento 2021/0106.

In particolare, qualora il progetto intenda perseguire gli obiettivi dei livelli 3-4 sullo sviluppo di algoritmi per l’analisi e predizione “1) Judges can evaluate litigation related to overlapping legal issues (based on similar legal rules, verifications, evidences) and thus facilitate the decision-making process”[77]allora à-mon-avis questa è un’opportunità unica per un progetto diretto da un istituto universitario di sviluppare un benchmark di sistema d’IA il quale incorpori strumenti che aiutino a spiegare il ragionamento dietro gli outputs decisionali.  Seguendo il nostro interesse nella trasparenza è interessante notare che il progetto segue un disegno interpretabile. Per esempio, usando tecniche di XAI come Akoma Ntoso, un tipo di linguaggio di uso comune per “technology-neutral electronic representations”[78] di documenti legali, e “consensus algorithms” per raggiungere un accordo tra più individui su un certo dato[79]. È uno sviluppo interessante, in quanto profila altre vie per sviluppare sistemi d’IA che siano interpretabili in termini umani. Inoltre, in una delle dichiarazioni della Scuola Sant’Anna è stata menzionata la possibilità di “compare the ‘judge’s reasoning’ and the model reasoning. We can check if there is a discrepancy to understand why the model is wrong and why the model is wrong for that specific case law”[80]. Questa possibilità somiglia quanto detto sulle spiegazioni controfattuali. Perciò, si potrebbe ipotizzare lo sviluppo di spiegazioni, le quali permettano di controllare la coerenza tra decisioni e anche una via per informare potenziali impugnazioni.

In conclusione, sebbene risulti lodevole l’impiego di tecniche di XAI da parte del progetto “Predictive Justice” le loro tecniche dovranno fornire, in concreto, una spiegazione che sia soddisfacente dal punto di vista sociologico. Il coinvolgimento di sistemi d’IA nel sistema giudiziario può avere successo se guidato da un approccio misto, tra soddisfacente “perfomance” tecnica e soddisfacente interpretabilità del processo decisionale da parte degli utenti.

  1. Conclusione

Il campo dell’intelligenza artificiale è di suo particolarmente complicato in quanto impiega concetti matematici, statistici e biologici. In futuro risulterà più difficile innovare tramite l’impiego di tecniche d’IA se la stessa normativa che ne tratta non riesce ad afferrare i concetti basilari che ne stanno dietro né le conseguenze che possono derivare dal loro impiego. Sebbene i giuristi non siano teorici matematici con la formazione tecnica tale da sviluppare sistemi d’IA è loro responsabilità prendere coscienza dei cambiamenti in corso. In particolare, vista la rilevanza dell’amministrazione della giustizia nella difesa dei diritti fondamentali sono i giuristi ad essere chiamati a sollevare delle problematicità che le nuove tecnologie possono avere nel tessuto sociale o almeno nella pratica legale. Siano legislatori, giudici, avvocati o semplici cultori del diritto hanno il compito di informarsi e proporre delle soluzioni a problemi attuali che affrontiamo come consociati. Alla fine dei conti, si ricordi che le pretese di velocità ed efficienza non possono essere privilegiate a scapito dei principi fondamentali, quali quello della trasparenza, che impongono di immettere ai destinatari delle decisioni in una situazione tale capire e impugnare gli output che intaccano i loro diritti fondamentali.

[1] A. Levitin, Introduction to the design and analysis of algorithms, III ed., New York, Pearson, 2011, 13 p.

[2] A. Longo, G. Scorza, Intelligenza artificiale: l’impatto sulle nostre vite, diritti e libertà, Milano, Mondadori Università, 2020, 21 p.; M. Vimalkumar, A. Gupta, D. Sharma, Y. Dwivedi, Understanding the Effect that Task Complexity has on Automation Potential and Opacity: Implications for Algorithmic Fairness, in “AIS Transactions on Human-Computer Interaction”, 2021, v. 13, n. 1, 107 p.

[3] A. Levitin, Introduction to the design and analysis of algorithms, cit., 13 p.

[4] B. Mittelstadt, P. Allo, M. Taddeo, S. Wachter, L. Floridi, The ethics of algorithms: Mapping the debate, in “Big Data & Society, 2016, n. 3, pp. 1-21.

[5] L. Floridi, The 4th Revolution. How the Infosphere is Reshaping Human Reality, Oxford, Oxford University Press, 2014, 156 p.; J. Nieva-fenoll, Inteligencia artificial y proceso judicial, Madrid, Marcial Pons, 2018, 21 p.

[6] A. Longo, G. Scorza, Intelligenza artificiale: l’impatto sulle nostre vite, diritti e libertà, cit., pp.26-27.

[7] B. Friedman, H. Nissebaum, Bias in Computer Systems, in “ACM Transactions on Information Systems”, v. 14, n. 3, 1996, 335 p.

[8] University of Helsinki, Reaktor, How Should We Define AI?, in “https://course.elementsofai.com/1/1”.

[9] University of Helsinki, Reaktor, How Should We Define AI?, cit.

[10] P. Comoglio, Nuova tecnologie e disponibilità Della prova. L’accertamento del fatto nella diffusione delle conoscenze, cit., 335 p.

[11] A. Joshi, Machine Learning and Artificial Intelligence, cit., 164 p.

[12] B. Mittelstadt, C. Russell, S. Wachter, Explaining Explanations in AI, in “Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT* ’19)”, 2018, 283 p.

[13] D. Gunning, M. Stefik, J. Choi, T. Miller, S. Stumpf, G. Yang, Explainable artificial intelligence (XAI), in “DARPA/I20,” 2019, 52 p.

[14] A. Barredo Arrieta, N. Díaz-Rodríguez, J. Del Ser, A. Bennetot, S. Tabik, A. Barbado, S. Garcia, S. Gil-Lopez, D. Molina, R. Benjamins, R. Chatila, F. Herrera, Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI, in “Information Fusion”, 2020, v. 58, 94 p.

[15] A. Rai, Explainable AI: from black box to glass box, cit., 138 p.

[16] W. Samek, A. Binder, G. Montavon, S. Lapuschkin, and K. Müller, Evaluating the visualization of what a deep neural network has learned, in “IEEE Transactions on Neural Networks and Learning Systems”, 2017, v. 28, 2665 p.

[17] M. Wick, W. Thompson, Reconstructive expert system explanation, in “Artificial Intelligence”, 1992, v. 54, n. 1-2, 58 p.

[18] A. Rai, Explainable AI: from black box to glass box, cit., 138 p.

[19] P. Kim, Data-driven discrimination at work, in “Willian & Mary Law Review”, 2017, v. 58, n. 3, 931 p.

[20] D. Doran, S. Schulz, T. Besold, What does explainable AI really mean? A new conceptualization of perspectives, in “CEUR Workshop Proceedings”, 2018, 2071 p.

[21] A. Barredo Arrieta, N. Díaz-Rodríguez, J. Del Ser, A. Bennetot, S. Tabik, A. Barbado, S. Garcia, S. Gil-Lopez, D. Molina, R. Benjamins, R. Chatila, F. Herrera, Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI, cit., 101 p.

[22] R. Roscher, B. Bohn, M. Duarte, J. Garcke, Explainable Machine Learning for Scientific Insights and Discoveries, in “IEEE Access”, 2020, v. 8, 42222 p.

[23] W. Samek, G. Montavon, S. Lapuschkin, C. Anders, K. Müller, Explaining Deep Neural Networks and Beyond: A Review of Methods and Applications, in “Proceedings of the IEEE”, 2021, v. 109, iss. 3, pp. 247-278.

[24] J. Murdoch, C. Singh, K. Kumbier, R. Abbasi-Asl, B.Yu, Definitions, methods, and applications in interpretable machine learning, in “Proceedings of the National Academy of Sciences of the United States of America”, 2019, pp. 22079 p.

[25] W. Samek, G. Montavon, S. Lapuschkin, C. Anders, K. Müller, Explaining Deep Neural Networks and Beyond: A Review of Methods and Applications, cit., pp. 247-278.

[26] S. Wachter, B. Mittelstadt, C. Russell, Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR, in “Harvard Journal of Law & Technology”, 2018, v. 31, n. 2, 845 p.

[27] R. Roscher, B. Bohn, M. Duarte, J. Garcke, Explainable Machine Learning for Scientific Insights and Discoveries, cit., 42222. p.

[28] R. Roscher, B. Bohn, M. Duarte, J. Garcke, Explainable Machine Learning for Scientific Insights and Discoveries, cit., 42222 p.

[29] S. Wachter, B. Mittelstadt, C. Russell, Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR, cit., 850 p.

[30] B. Mittelstadt, C. Russell, S. Wachter, Explaining Explanations in AI, cit., 281 p.

[31] F. Doshi-Velez, M. Kortz, R. Budish, C. Bavitz, S. Gershman, D. O’Brien, K. Scott, J. Waldo, D. Weinberger, A. Weller, A. Wood, A, Accountability of AI Under the Law: The Role of Explanation, cit., 14 p.

[32] S. Wachter, B. Mittelstadt, C. Russell, Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR, cit., 860 p.

[33] Proposta di regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’IA (Artificial Intelligence Act) e modifica alcuni atti legislativi dell’Unione, COM(2021) 206final.

[34] European Commission, A Digital Market Strategy for Europe, COM (2015) 192 final; the next communication touching upon the subject, by the European Commission, was in January 2017, Building a European Data Economy, COM(2017) 9 final; European Commission, Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions. Artificial Intelligence for Europe, COM(2018) 237 final.

[35] European Economic and Social Committee Opinion. Artificial intelligence – The consequences of artificial intelligence on the (digital) single market, production, consumption, employment and society (own-initiative opinion), (INT/806-EESC-2016-05369-00-00-AC-TRA), in “Official Journal of the European Union”, C 288.; European Economic and Social Committee 526th EESC Plenary Session of 31 May and 1 June 2017, Opinion of the European Economic and Social Committee on ‘Artificial intelligence – The consequences of artificial intelligence on the (digital) single market, production, consumption, employment and society’ (own-initiative opinion) (2017/C 288/01).

[36] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto (2015/2103(INL)).

[37] Gruppo Indipendente di Esperti Ad Alto Livello sull’Intelligenza Artificiale, Istituito dalla Commissione Europea nel giugno 2018, Orientamenti Etici per un’IA Affidabile, 2019; von der Leyen, A Union that strives for more. My agenda for Europe. Political Guidelines for the Next European Commission 2019-2024; European Commission, White Paper on Artificial Intelligence – A European approach to excellence and trust, COM(2020) 65final.

[38] Allegato I, Tecniche e approcci di intelligenza artificiale di cui all’articolo 3, punto 1), Allegati della proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce le regole armonizzate sull’intelligenza artificiale (Artificial Intelligence Act) e modifica alcuni atti legislativi dell’Unione.

[39] Allegato I, cit, lt. c).

[40] Allegato I, cit., lt. b).

[41] Allegato I, cit., lt. a).

[42] Proposta di regolamento, cit., art. 3(1).

[43] Proposta di regolamento, cit., “5.2. Illustrazione dettagliata delle singole disposizioni della proposta,” punto 5.2.1.

[44] Proposta di regolamento, cit., considerando 6.

[45] Proposta di regolamento, cit., art. 4.

[46] Commission Staff Working Document. Executive Summary of the Impact Assessment Report. Accompanying the Proposal for a Regulation of the European Parliament and of the Council. Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, SWD(2021) 85 final, Brussels.

[47] M. Veale, F. Zuiderveen Borgesius, Demystifying the Draft EU Artificial Intelligence Act, in “Computer Law Review International”, v. 22, n. 4, 2021, 100 p.

[48] Decisione n. 768/2008/CE — Un quadro comune per la commercializzazione dei prodotti nell’Unione europea.

[49] M. Veale, F. Zuiderveen Borgesius, Demystifying the Draft EU Artificial Intelligence Act, cit., 101 p.

[50] Proposta di regolamento, cit., art. 16.

[51] Proposta di regolamento, cit., art. 6(2).

[52] Allegato III, Sistemi di IA ad alto rischio di cui all’articolo 6, paragrafo 2, Allegati della proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’IA (Artificial Intelligence Act) e modifica alcuni atti legislativi dell’Unione, COM(2021) 206 final.

[53] Proposta di regolamento, cit., art. 13.

[54] Proposta di regolamento, cit., art. 29(1).

[55] Proposta di regolamento, cit., art. 13(1).

[56] Proposta di regolamento, cit., art. 13(2).

[57] Proposta di regolamento, cit., art. 13(3).

[58] Proposta di regolamento, cit., art. 13(3)(iii).

[59] Proposta di regolamento, cit., art. 13(3)(v).

[60] Cfr. Tribunale di Firenze, Giustizia 4.0. Una metodologia strategia, innovativa e replicabile per risolvere i contenziosi riducendo i tempi della giustizia, in “https://www.forumpachallenge.it/soluzioni/giustizia-semplice-40#”.

[61] Accordo Quadro tra La Corte di Cassazione, Centro Elettronico di Documentazione (C.E.D.), con sede in Roma, presso il Palazzo di Giustizia, piazza Cavour (di seguito anche “C.E.D.”), rappresentata dal Primo Presidente Pietro Curzio e La Scuola Superiore Universitaria Superiore IUSS Pavia, C.F. 96049740184, P.IVA n. 02202080186, con sede in Pavia, presso il Palazzo del Broletto, Piazza della Vittoria n. 15 (di seguito anche “IUSS”), rappresentata dal Rettore Prof. Riccardo Pietrabissa, in “https://www.cortedicassazione.it/cassazione-resources/resources/cms/documents/ACCORDO_TRA_CED_E_SCUOLA_UNIVERSITARIA_SUPERIOR”.

[62] R. Casaluce, Exploring Trial Courts Legal Databases: Part 2 – Length of legal documents, in “https://www.predictivejurisprudence.eu/exploring-trial-courts-legal-databases-part-2-length-of-legal-documents/”, 2021.

[63] Predictive Justice, in “https://www.predictivejurisprudence.eu/”.

[64] Predictive Justice, Anonymization model, in “https://www.predictivejurisprudence.eu/the_project/anonymization-model/”.

[65] Algorithm Watch, Automating Society Report 2020, Berlin, AlgorithmWatch gGmbH, 2020, 151 p.

[66] Algorithm Watch, Automating Society Report 2020, cit., 151.

[67] Algorithm Watch, Automating Society Report 2020, cit., 151.

[68] Algorithm Watch, Automating Society Report 2020, cit., 151.

[69] Algorithm Watch, Automating Society Report 2020, cit., 151.

[70] Predictive Justice, in “https://www.predictivejurisprudence.eu/”.

[71] N. Smuha, Feedback from: Legal, Ethical & Accountable Digital Society (LEADS) Lab, University of Birmingham, in “https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12527-Artificial-intelligence-ethical-and-legal-requirements/F2665480_en”, 2021.

[72] Proposta di regolamento, cit., considerando 16.

[73] Cfr. D. Amram, High-risk database and the new regulation on AI, SoBigData++ and LeADS joint Awareness Panel, 6.07.2021, ScuolaSantAnna, in “https://www.youtube.com/watch?v=0VDsDBBOkxY&list=WL&index=31”, 2021, 1:53:24 et seq.

[74] Cfr. D. Amram, High-risk database and the new regulation on AI, cit.

[75] Proposta di regolamento, cit., art. 7(2)(e).

[76] Proposta di regolamento, cit., art. 2.

[77] Cfr. D. Licari, Predictive Justice. Towards a fully automated data-driven platform for Legal Analytics, cit.

[78] Akoma Ntoso, in “http://www.akomantoso.org/”.

[79] “For example, each sentence is evaluated by 3 experts and we apply a majority vote for the choice of the final label. We avoid the labelling by creating a web application for annotations so the expert can easily choose the right label”. Cfr. D. Licari, Predictive Justice. Towards a fully automated data-driven platform for Legal Analytics, cit.

[80] Cfr. D. Licari, Predictive Justice. Towards a fully automated data-driven platform for Legal Analytics, cit.

Lascia un commento