giovedì, Giugno 20, 2024
Uncategorized

Algoritmo, discrezionalità amministrativa e discrezionalità del giudice (nota a Cons. Stato, sez. VI, sent. del 4 febbraio 2020, n. 881)

A cura di Andrea Valsecchi

  1. Premessa

La sentenza in commento[1] si inserisce in un recente filone giurisprudenziale[2] formatosi intorno a una tematica fortemente attuale e di sempre maggiore interesse, l’utilizzo di algoritmi[3] e di programmi di Intelligenza Artificiale (di seguito anche IA)[4] all’interno del procedimento amministrativo[5], in quello che è stato definito il passaggio dall’“amministrazione digitale”[6] all’“amministrazione algoritmica”[7].

La “quarta rivoluzione industriale[8] ha scosso le fondamenta del mondo del diritto e ha fatto breccia sia nella Pubblica Amministrazione sia nell’ordinamento giudiziario. Se infatti inizialmente l’Intelligenza Artificiale[9] è nata per sostituire l’uomo nelle cosiddette “tre D” – quei lavori definiti dagli aggettivi “Dull, dirty or dangerous[10] (si pensi al settore agricolo o industriale) – oggi non è più così. Negli ultimi anni l’IA ha iniziato a sfidare l’uomo anche nelle attività cognitive ottenendo spesso risultati migliori, con l’ovvia prospettiva di prendere il suo posto in un numero sempre più elevato di situazioni[11]. Esistono programmi di IA negli ambiti più diversi: dal settore dei servizi alla ricerca, dal settore militare alla medicina, senza dimenticare la sicurezza e l’ambiente[12].

La graduale ma inesorabile “sostituzione tecnologica” ha coinvolto anche il panorama giuridico, attraverso applicazioni in continua evoluzione che provocheranno una vera e propria rivoluzione all’interno degli ordinamenti.

La sentenza in commento fornisce l’occasione per mettere in luce questi aspetti e sarà utile altresì per impostare una lettura critica di più ampio respiro, che non sia confinata all’utilizzo di procedure algoritmiche nel campo della Pubblica Amministrazione, ma che rivolga lo sguardo anche all’uso dell’IA negli ordinamenti giudiziari.

  1. La vicenda oggetto di giudizio

 

Alcuni docenti, assunti sulla base del piano straordinario di assunzione previsto dalle L. 107/2015 (c.d. “Buona Scuola”) e soggetti alle procedure di assegnazione e trasferimento di sedi previste dalla stessa legge, ricorrevano al TAR Lazio lamentando, tra le altre cose, che l’intera procedura di assunzione e di assegnazione alle sedi scolastiche fosse demandata a un algoritmo di cui non era possibile conoscere il funzionamento. In particolare, i ricorrenti lamentavano la mancanza di una vera e propria attività amministrativa, sia istruttoria sia procedimentale, essendo stata sostituita interamente da una procedura algoritmica che aveva disposto i trasferimenti e le assegnazioni senza tenere conto delle preferenze espresse dai docenti, pur in presenza di posti disponibili nelle province indicate nelle domande di mobilità[13].

Il TAR Lazio accoglieva il ricorso[14], richiamandosi integralmente a un precedente della medesima sezione[15], affermando, inter alia, che “dirimente si profila in punto di diritto l’argomento secondo cui è mancata nella fattispecie una vera e propria attività amministrativa, essendosi demandato ad un impersonale algoritmo lo svolgimento dell’intera procedura di assegnazione dei docenti alle sedi disponibili nell’organico dell’autonomia della scuola”. Al riguardo, il Tribunale ha ritenuto che non può giustificarsi in alcun modo l’utilizzo di meccanismi matematici privi di qualunque capacità valutazionale, a maggior ragione nei casi in cui l’atto amministrativo incida su posizioni giuridiche soggettive di soggetti privati. Ciò che viene a mancare – ha affermato ancora il Tribunale – è il rispetto di alcune garanzie procedimentali quali i canoni di trasparenza e di partecipazione al procedimento e, soprattutto, l’obbligo di motivazione da parte dell’Amministrazione, la cui mancanza “non permette inizialmente all’interessato e successivamente, su impulso di questi, al Giudice, di percepire l’iter logico-giuridico seguito dall’amministrazione per giungere ad un determinato approdo provvedimentale”.

A seguito della pronuncia, il Ministero dell’Istruzione dell’Università e della Ricerca presentava ricorso al Consiglio di Stato chiedendo la riforma della sentenza di prime cure.

Il Supremo Collegio, con la sentenza in commento, seppur con una diversa motivazione[16], confermava la sentenza del TAR, respingendo le doglianze del Ministero.

Il percorso argomentativo seguito dai giudici, svolto in continuità con due precedenti pronunce della medesima sezione[17], risulta essere di grande interesse e, come si è accennato, fornisce l’occasione per innescare una riflessione di ampio respiro che vada oltre l’utilizzo dell’IA nel solo procedimento amministrativo. In particolare, rispetto alla sentenza n. 2270 dell’8 aprile 2019, il Consiglio di Stato, prima con la sentenza n. 8472 del 13 dicembre 2019 e, successivamente, con la sentenza n. 881 del 4 febbraio 2020, oggetto del presente commento, compie dei significativi passi in avanti verso una più ampia apertura all’utilizzo di procedure automatizzate anche nei casi di attività discrezionale della PA.

Nella sentenza n. 2270 del 2019, che rappresenta la prima occasione in cui il Consiglio di Stato si è trovato ad affrontare la questione qui trattata, i Supremi Giudici hanno infatti posto alcuni significativi limiti all’utilizzo di algoritmi all’attività amministrativa, limiti che poi, nelle due sentenze successive, gli stessi Giudici hanno invece eliso.

Al riguardo, con la sentenza n. 2270 del 2019, il Consiglio di Stato ha affermato il principio secondo cui la regola algoritmica non può lasciare margini di discrezionalità – non avendo l’elaboratore informatico capacità discrezionale – e che la discrezionalità amministrativa “senz’altro non può non può essere demandata al software[18].

Come si chiarirà infra , nelle due sentenze successive invece il Consiglio di Stato affronterà la questione della discrezionalità amministrativa allargando notevolmente le maglie strette che aveva precedentemente cucito.

Tornando alla pronuncia in commento, preliminarmente i giudici riconoscono gli indiscutibili vantaggi e le immense potenzialità che la rivoluzione digitale può recare alle amministrazioni pubbliche. In particolare – afferma il Consiglio di Stato – una maggiore digitalizzazione delle procedure pubbliche risponde a canoni di efficienza ed economicità dell’azione amministrativa, in applicazione del principio costituzionale del buon andamento dell’amministrazione (art. 97, comma 2, Cost.) ed è fondamentale per migliorare la qualità dei servizi per utenti e cittadini. Ciò particolarmente con riferimento a “procedure, come quella oggetto del presente contenzioso, seriali o standardizzate, implicanti l’elaborazione di ingenti quantità di istanze e caratterizzate dall’acquisizione di dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento discrezionale”[19].

Dopo aver messo in luce la necessità di incoraggiare l’utilizzo di strumenti informatici e di IA, i giudici si soffermano su alcuni caveat e sui rischi che tali strumenti possono incontrare all’interno del procedimento amministrativo.

Di particolare rilievo è il riconoscimento dell’importanza, in sede decisoria pubblica, di almeno due minime garanzie che devono sempre essere rispettate: la piena conoscibilità dell’algoritmo e dei criteri applicati per il suo funzionamento[20] e l’imputabilità della decisione all’organo titolare del potere, il quale avrà anche il dovere di verificare la logicità e legittimità della decisione algoritmica.

A conclusione della propria motivazione, anche sulla base della normativa sovranazionale, il Consiglio di Stato perviene a un’elaborazione di un quadro di principi da tenere in considerazione nell’utilizzo di algoritmi e sistemi automatizzati[21].

Il primo, il principio di conoscibilità, attiene al diritto di ciascuno sia di conoscere l’esistenza di processi automatizzati nei suoi confronti, sia di ottenere le informazioni sulla logica utilizzata nel procedimento.

Il secondo, il principio di non esclusività della decisione algoritmica, si ricava dall’art. 22 del Regolamento UE 679/2016 (GDPR General Data Protection Regulation) secondo cui “L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”[22].

L’ultimo principio espresso dal Consiglio di Stato, il principio di non discriminazione algoritmica, è strettamente connesso al trattamento dei dati e richiede che il titolare del trattamento utilizzi procedure statistiche appropriate e che metta in atto misure per correggere eventuali inesattezze ed errori, al fine di impedire “effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale”[23].

Il sentiero logico-argomentativo del Consiglio di Stato si chiude con l’affermazione per cui il metodo utilizzato, che non ha permesso di comprendere le modalità di assegnazione delle sedi disponibili, ha viziato l’intera procedura amministrativa. La decisione di primo grado viene quindi confermata sulla base del fatto che l’algoritmo utilizzato non è stato in grado di dare una giustificazione all’assegnazione alla sede scelta per i docenti assunti, difettando così il principio di trasparenza che deve guidare l’attività amministrativa.

  1. Algoritmi e decisione amministrativa

 

Le indicazioni fornite dal Consiglio di Stato nella sentenza qui in commento, insieme con la sintetica spiegazione del funzionamento degli strumenti tecnologici, consentono ora di far luce sull’utilizzo dell’IA nel contesto dell’attività amministrativa.

Già da diverso tempo la dottrina si è concentrata sulla possibilità utilizzare la tecnologia all’interno dell’amministrazione[24]. Fin da subito è parso chiaro che la digitalizzazione della PA avrebbe costituito un elemento cruciale per lo snellimento e l’efficienza dell’apparato amministrativo e per “avvicinare” il cittadino al potere pubblico[25]. In particolare, si è rilevato che la digitalizzazione e l’automazione di processi amministrativi produce grandi vantaggi soprattutto con riferimento a quelle procedure standardizzate e seriali in cui la discrezionalità è ridotta all’osso[26].

Se sull’utilità e sulla necessità di una crescente informatizzazione della Pubblica Amministrazione si registra un consenso pressoché unanime[27], il passo in avanti – senza dubbio insidioso – che qui si vuole compiere è invece interrogarsi sulla possibilità di un’automazione della decisione amministrativa, tramite IA e algoritmi, in concorrenza o sostituzione della decisione umana[28].

 

3.1 L’apparente neutralità dell’algoritmo

L’interrogativo da cui occorre prendere le mosse è il seguente: perché affidare a un “impersonale algoritmo” fasi del procedimento amministrativo, finanche la vera e propria decisione finale?

Oltre alle già menzionate esigenze di efficienza, velocità e snellimento della procedura, l’algoritmo – si dice – sarebbe circondato da un’aura di neutralità (apparente, come si vedrà). Si ritiene infatti che l’algoritmo non potrebbe subire alcuna influenza esterna, nessun condizionamento che potrebbe minarne la imparzialità[29]: “la macchina è per definizione impersonale”[30]. Tale impostazione non considera che l’algoritmo è pur sempre progettato da un essere umano che, al pari del funzionario pubblico, potrà ben essere influenzato da fattori esterni[31]: come scrisse Giovenale, quis custodiet ipsos custodes? Siamo di fronte a un passaggio di potere da un uomo a un altro uomo e non da un uomo a una macchina[32].

Si solleva un dubbio ulteriore rispetto al guadagno in termini di trasparenza che procedure e decisioni automatizzate sarebbero idonee a garantire. Si dice infatti che l’algoritmo, soprattutto l’algoritmo di machine learning[33], sia paragonabile a una black box[34], una scatola nera i cui procedimenti e i calcoli sono difficilmente afferrabili, talvolta anche dallo stesso programmatore. È facile intuire come tale problematica incida sulle fondamenta stesse dell’Amministrazione Pubblica, la quale deve rimanere incardinata su binari di trasparenza e pubblicità. Il Consiglio di Stato, nella sentenza in commento, come già si è accennato, affonda il colpo proprio sulla necessità che l’algoritmo sia conoscibile, affermando che “Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti”, aggiungendo altresì che “non può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza”[35].

Quest’ultimo aspetto evidenziato dai giudici di Palazzo Spada si rileva di estrema importanza. Oggi la formazione di algoritmi è rimessa a società e start-up private per cui potrebbero sorgere problemi relativi a diritti di proprietà intellettuale e industriale[36]: ciò potrebbe comportare l’impossibilità di accesso ai procedimenti di formazione dell’algoritmo con il pericolo che la decisione amministrativa venga devoluta alla sensibilità e alla competenza di società legal tech private esperte nella raccolta di grandi quantità di dati e il cui obiettivo difficilmente sarebbe quello di garantire imparzialità e trasparenza nel processo decisionale[37].

3.2 L’attività amministrativa vincolata

 

Nonostante le problematiche di non poco conto che si sono messe in luce – che, a diversi livelli, possono riguardare qualunque applicazione dell’IA nelle decisioni amministrative – è evidente che ci siano delle situazioni e delle attività che sono maggiormente suscettibili di automazione.

Come già rilevato, l’IA trova terreno fertile all’interno dell’attività c.d. vincolata della Pubblica Amministrazione, in cui manca del tutto la discrezionalità amministrativa.

Si pensi alla procedura di accertamento e di sanzione per violazione del codice della strada[38]. In tale situazione, una volta inserito il parametro (input) corrispondente al limite di velocità, la macchina rileva facilmente lo scostamento dal parametro irrogando la sanzione corrispondente (output). Siamo di fronte a sistemi di IA molto semplici, privi di qualunque capacità di ragionamento autonomo[39] e guidati da un procedimento sillogistico incentrato sulla logica c.d. If-Then[40].

Per questo tipo di procedure, secondo alcuni autori potremmo essere di fronte a “una pietra miliare nello sviluppo del settore pubblico: perché, per la prima volta, potrebbe essere avviato un percorso di gestione dei dati e dei documenti in possesso delle Pubbliche Amministrazioni finalizzato ad automatizzare il processo decisionale applicando l’Intelligenza Artificiale a vaste aree di attività di routine, ripetitive e standardizzate”[41].

3.3 L’attività amministrativa discrezionale

 

Diverso è il caso dell’attività amministrativa discrezionale.

Occorre ribadire che è lo stesso Consiglio di Stato che, nella sentenza qui commentata, ha aperto alla possibilità di decisioni automatizzate anche nell’alveo della discrezionalità amministrativa. Il Supremo Collegio chiarisce infatti che “[Non] vi sono ragioni di principio, ovvero concrete, per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale, entrambe espressione di attività autoritativa svolta nel perseguimento del pubblico interesse”, precisando che “se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla c.d. attività vincolata, nulla vieta che i medesimi fini predetti, perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità”[42].

Dall’apertura che la giurisprudenza amministrativa offre è quindi possibile tracciare alcune ipotesi in cui l’utilizzo di algoritmi potrebbe venire impiegato in decisioni che sono il frutto dell’attività discrezionale della Pubblica Amministrazione.

Come alcuni autori sostengono, algoritmi decisionali potrebbero venire utilizzati quando l’Amministrazione predetermina i contenuti della decisione che scaturirà dalla macchina, così limitando le alternative possibili cui l’algoritmo può giungere[43]. In questo modo il ricorso a decisioni algoritmiche potrebbe essere esteso a quei casi (caratterizzati dalla c.d. “bassa discrezionalità”[44]) in cui l’esercizio discrezionale dell’attività amministrativa viene esercitato in un momento antecedente rispetto al momento decisionale vero e proprio. È peraltro evidente che la predeterminazione dei criteri e delle soluzioni possibili ricompone l’attività discrezionale in una quasi totale vincolatività, potendo la macchina solo scegliere tra alternative già previamente determinate[45].

Il discorso è più complesso quando invece residuino margini di discrezionalità in capo all’Amministrazione[46]. Se oggi, seguendo l’evoluzione dei sistemi di IA, appare impensabile, nel campo dell’Amministrazione Pubblica, poter lasciare a un algoritmo un potere di scelta disancorato da qualunque criterio predeterminato, si può ragionevolmente ritenere che l’evoluzione ipertrofica e incessante della tecnologia non lasci spazio a nessuna apodittica preclusione. A tal proposito, è probabile che verranno programmati algoritmi in grado, attraverso l’apprendimento automatico, di perfezionarsi, di elaborare autonomamente informazioni, di alimentarsi tramite gli stimoli esterni, fino a ottenere una sensibilità e una flessibilità di scelta anche migliori rispetto all’essere umano, assicurando decisioni opportune e imparziali.

Come si intuisce, di fronte a tali possibili applicazioni, la logica sillogistica degli algoritmi – idonea a venire utilizzata nelle ipotesi di attività amministrativa vincolata –  non è più sufficiente in ipotesi in cui è l’algoritmo stesso che, attraverso l’autoapprendimento, rielabora le informazioni e produce risultati talvolta nemmeno riconducibili ai dati inseriti inizialmente dal programmatore.

In questo quadro le problematiche relative all’automazione delle decisioni amministrative sono ancora maggiori. In primo luogo, come già rilevato, la natura degli algoritmi di machine learning difficilmente permette di conoscere il procedimento che il programma ha seguito per formulare la decisione[47], da cui deriverebbe un grave vulnus per ciò che riguarda il controllabilità e la sindacabilità della decisione.

Inoltre, a chi sarà imputabile la decisione algoritmica in quei casi – quali quelli che stiamo prendendo in considerazione – in cui la macchina potrebbe generare degli output non riconducibili né alla volontà della Pubblica Amministrazione né alla volontà del programmatore dell’algoritmo? Alcuni affermano che l’utilizzo di procedure automatizzate non possa mutare le regole della responsabilità: l’imputabilità della decisione sarà comunque in capo all’essere umano titolare dell’organo competente[48]. Altri, considerando che il titolare della carica pubblica non coincide con il programmatore, propongono una impostazione dualistica che distingua un “momento preliminare alla compilazione del software, [costituito da]la redazione di un testo contenente le istruzioni espresse in lingua italiana, ma già sotto forma di algoritmo, cioè come sequenza ordinata di passaggi logici, formulati come giudizi ipotetici (“se… allora…”), denominato atto-algoritmo, pre-software o regole per la programmazione ed il vero e proprio programma informatico di emanazione dell’atto”[49]. Questa impostazione sarebbe utile nel riparto di responsabilità tra il funzionario e il programmatore, consentendo di imputare al primo eventuali errori del pre-software, mentre al secondo eventuali danni prodotti dal software[50].

Un ultimo punto merita di essere messo in luce. Come autorevolmente rilevato, una decisione amministrativa automatizzata, che venisse estesa anche al di là di un’attività eminentemente vincolata, imporrà al giudice di valutare la correttezza e la trasparenza del procedimento in tutte le sue componenti, rendendo in questo modo sbiadita la distinzione tra legittimità – sindacabile – e merito – insindacabile – dell’azione amministrativa[51]. La decisione automatizzata ribalterebbe così il rapporto tra amministrazione e giudice “a tutto “vantaggio” di quest’ultimo, nella valutazione della correttezza delle relazioni intersoggettive tra cittadino e potere pubblico”[52].

  1. Algoritmo e decisione giudiziaria

La sentenza in commento, pur riferendosi all’utilizzo di procedure algoritmiche in ambito amministrativo, affronta tematiche di natura generale che risultano di grande interesse anche per ciò che riguarda l’automazione dei procedimenti giudiziari.

Se nell’ambito della Pubblica Amministrazione l’utilizzo dell’Intelligenza Artificiale sta avanzando velocemente, nei sistemi giudiziari il ricorso a procedure algoritmiche incontra maggiori difficoltà[53].

Alcuni autori ritengono che il ruolo del giudice umano perderà terreno in una grande quantità di situazioni e decisioni[54]. Come è stato infatti rilevato, i giudici spesso decidono in modo automatico e meccanico[55]: sia nell’analisi delle prove, nella risoluzione delle eccezioni processuali o nella stessa sentenza, le decisioni dei giudici appaiono spesso altamente standardizzate. In un contesto del genere è indubbio che l’IA avrà la possibilità di venire impiegata in maniera sempre più pregnante persino nella stessa fase decisionale del giudice.

Occorre fin da subito premettere che l’idea di una decisione robotica, che postula – quanto meno nella sua concezione estrema – una sostituzione del giudice con sistemi di IA, non sarebbe oggi ammessa perché contraria ai nostri principi costituzionali[56]. Ciò non significa che non sia comunque urgente approfondire questioni che possono appartenere al seguito della storia: lo studio delle problematiche connesse all’automazione in campo processuale sarà fondamentale per evitare che il mutamento strutturale ormai imminente sopravanzi la capacità del giurista di prevederlo e regolarlo di conseguenza.

Già oggi si assiste ad applicazioni dell’IA all’interno dei processi in cui il calcolo algoritmico integra o sostituisce la decisione umana del giudice. Un celebre caso avvenuto oltreoceano, peraltro citato anche dal Consiglio di Stato nella sentenza in commento[57], è utile a chiarire la portata del problema.

Nel febbraio 2013 Eric L. Loomis viene arrestato nel Wisconsin per resistenza a pubblico ufficiale dopo essere stato trovato alla guida di un’automobile rubata. Nel determinare la pena il tribunale si è avvalso di COMPAS (Correctional Offenders Management Profiling for Alternative Sanctions), un programma di IA in grado di stimare il rischio di recidiva dell’autore del reato sulla base di un’intervista (137 domande a risposta vincolata) nonché dell’inserimento all’interno del programma di dati relativi al background criminoso e alle condizioni socioeconomiche e personali dell’imputato. Ritenuto violato il proprio diritto a un giusto processo in virtù della poca trasparenza di COMPAS[58], Loomis si rivolse alla Corte Suprema del Wisconsin che tuttavia, nella propria pronuncia[59], confermò la legittimità dell’utilizzo di COMPAS per adiuvare il giudice nella determinazione della pena, pur mettendo in guardia i giudici sull’utilizzo improprio degli strumenti di analisi algoritmica, che possono sì essere utilizzati come elemento di convinzione ­­– insieme con altre prove – del giudice, ma mai possono rappresentare l’elemento esclusivo sulla cui base fondare la propria decisione[60].

Il caso sottoposto ai giudici della Corte Suprema del Wisconsin pone in luce il problema dell’automazione della giustizia nella sua complessità, fornendo già delle indicazioni chiare sugli ostacoli che una tale rivoluzione incontrerà sulla sua strada.

4.1. Le applicazioni di Intelligenza Artificiale nei sistemi giudiziari e le ulteriori prospettive di automazione

Da dove nasce l’idea di un’automazione della giustizia?[61]?

Mentre per l’automazione del procedimento amministrativo, come abbiamo visto, l’utilizzo dell’informatica e dell’IA mira a favorire la velocità e lo snellimento delle procedure nonché l’efficienza dell’Amministrazione, in attuazione – come rilevato dal Consiglio di Stato – del principio di buon andamento di cui all’art. 97 Cost., la decisione algoritmica giudiziaria ha come scopo primo quello di riportare la giustizia su binari di certezza e prevedibilità.

È noto che a partire da metà del secolo scorso il mutamento strutturale che ha caratterizzato la società ha avuto un influenza travolgente sul diritto. Con l’avvento del costituzionalismo e dello Stato sociale la proliferazione ipertrofica delle fonti ha fatto vacillare quella che Max Weber definiva calcolabilità giuridica e ha messo in crisi la certezza del diritto e la prevedibilità della giustizia. A ciò si è aggiunta una profonda crisi della politica e una sempre maggiore concorrenza di fonti sovranazionali, le quali hanno ancor di più allontanato l’applicazione della giustizia da parametri “calcolabili”. La naturale conseguenza è stata – come autorevolmente rilevato – una “crisi della fattispecie”[62], che l’automazione della giustizia avrebbe la pretesa di ricomporre.

Per comprendere in che modo la giustizia algoritmica potrà perseguire i fini che si sono brevemente descritti, è utile dare conto di alcune applicazioni di IA, oltre al già menzionato sistema COMPAS, già in parte presenti all’interno dei sistemi di giustizia.

Al momento già si utilizzano programmi di IA per la revisione automatica dei documenti, in grado di adiuvare il giudice nell’analisi degli atti e dei documenti processuali[63]. Per ciò che riguarda le prove, esistono strumenti algoritmici che aiutano a ricostruire fatti in base a indizi che in casi precedenti avevano svolto un ruolo determinante[64]; altri ancora sono in grado di elaborare strategie di accusa e di difesa[65] o di fare previsioni, di fronte ad uno specifico crimine, delle diverse spiegazioni che può presentare il comportamento dell’accusato[66]. Esistono inoltre già alcuni sistemi in grado, sulla base dell’elaborazioni di dati di scene del crimine passate, di utilizzare tale esperienza per prevedere dove si possano rinvenire le prove con una maggiore percentuale di successo[67], e programmi di IA finalizzati a dare oggettivi parametri di credibilità per la prova testimoniale[68].

Un ultimo cenno ad applicazioni e sperimentazioni di IA nei sistemi giudiziari riguarda la c.d. giustizia predittiva, l’idea cioè di progettare algoritmi in grado di predire gli orientamenti del giudice o il tempo che il procedimento giudiziario richiederà[69]. Sono chiari i vantaggi di progettare sempre più sofisticati strumenti di giustizia predittiva, i quali potrebbero in primo luogo servire come efficacissimi strumenti di deflazione del contenzioso. Ma c’è di più: sistemi algoritmici predittivi potranno venire utilizzati dagli stessi giudici per favorire quella circolarità della giurisprudenza tanto agognata dagli operatori del diritto e ancora decisamente carente[70] e, in ultimo, favorire una maggiore prevedibilità delle decisioni.

A fronte delle prime applicazioni e i primi esperimenti di IA all’interno dei tribunali, la recente dottrina che si è occupata del tema ha paventato la possibilità di una crescita esponenziale di strumenti algoritmici applicati alla giustizia. Se le caratteristiche degli algoritmi, anche di machine learning, non permettono oggi di lasciare a procedure interamente automatizzate le decisioni in cui il giudice deve attingere massicciamente al proprio potere discrezionale, dove la robotica e l’IA potranno certamente guadagnare terreno – come già si è rilevato in sede di decisione amministrativa algoritmica – sono invece quelle controversie caratterizzate da una certa automaticità delle decisioni, da fattispecie identiche e seriali, magari esclusivamente documentali, e dove sorge la necessità di calcoli e valutazioni matematiche[71].

Inoltre, si afferma che l’automazione guadagnerà terreno anche in alcune fasi e decisioni endoprocessuali: a titolo di esempio si pensi alla litispendenza e alla continenza: un algoritmo potrebbe rilevare senza alcuno sforzo l’esistenza di più procedimenti pendenti di fronte a uffici giudiziari diversi o rilevare se uno dei due processi sia idoneo a riassorbire il secondo. Non diversamente si potrebbe pensare ad un’automazione delle rilevazioni del giudice nelle ipotesi di difetto di rappresentanza, nelle eccezioni di giudicato o in casi di litisconsorzio necessario[72].

4.2 I rischi della decisione robotica

Come per l’automazione della decisione amministrativa, anche dietro una “giustizia algoritmica” si celano rischi che meritano adeguata attenzione.

Oltre ai problemi relativi all’opacità dell’algoritmo e alla sua progettazione – di cui si è dato conto nel precedente paragrafo e che sono estendibili all’utilizzo dell’algoritmo in sede di decisione giudiziaria (il caso Loomis ne è un esempio evidente) – occorre in questa sede svolgere qualche osservazione aggiuntiva.

Innanzitutto, se appare ovvio che un sistema di Intelligenza Artificiale con lo scopo di garantire maggiore prevedibilità si baserà certamente sul raffronto con casi precedentemente decisi, non si rischia di avvicinare il nostro ordinamento ai sistemi di common law in cui vige il principio dello stare decisis e, di conseguenza, contravvenire all’art. 101 Cost.? A questo tema si ricollega un’ulteriore questione legata al precedente: quali precedenti immettere all’interno del programma? La giurisprudenza è un quadro fluido, in continua evoluzione: quali precedenti dovrebbero orientare la scelta del robot[73]?

Altra criticità, legata al tema dei precedenti, riguarda l’evoluzione giurisprudenziale. Questa verrebbe – secondo alcuni[74]– irreversibilmente snaturata, data l’automaticità con cui un algoritmo elabora i precedenti e applica la medesima soluzione al caso prospettato. In tale contesto la cristallizzazione della giurisprudenza non può portare alcun beneficio, minando la comunicazione osmotica tra la magistratura e il cittadino, fondamentale per la tenuta dello Stato di diritto. Una giurisprudenza consolidata non ha il medesimo significato di una giurisprudenza paralizzata e imbrigliata[75]: una paralisi della giurisprudenza creerebbe una “dittatura del precedente”[76], non essendo oggi pensabile che un programma algoritmico riesca – sulla base delle circostanze del caso concreto e il contorno sociale – a dar forma ad un revirement discostandosi dai precedenti elaborati.

L’elasticità del nostro ordinamento è dunque garanzia di giustizia e difficilmente tale flessibilità è codificabile in precisi procedimenti algoritmici. I mutamenti giurisprudenziali formano parte di istituzioni dove è l’essere umano che, attraverso tensioni teleologiche, contribuisce ad adeguare il diritto al progresso sociale: non a caso il giudice amministra la giustizia “in nome del popolo” (art. 101, comma 1, Cost.) e trova la propria legittimazione nel popolo. In decisioni automatizzate in nome di chi deciderà la macchina? In nome della matematica? In nome di un algoritmo? Di un programmatore privato? Il giudice, in definitiva, è anch’egli un attore sociale e la sua decisione non può diventare astorica: come si è argutamente rilevato “Law must be stable and yet it cannot stand still[77].

Ulteriore problematica delle decisioni automatizzate riguarderà i rimedi esperibili contro di esse. È probabile che man mano che i sistemi artificiali si svilupperanno e miglioreranno, i ricorsi contro decisioni automatizzate assunte in casi standard o comunque caratterizzati da un elevato grado di prevedibilità saranno molto meno frequenti. Pur seguendo tale impostazione, un ordinamento giuridico che voglia affidare la decisione di alcune controversie a sistemi artificiali dovrebbe certamente prevedere ricorsi giurisdizionali contro di esse. Realisticamente è poco immaginabile un ricorso a un “robot di secondo grado” per la duplice ragione che sarebbe privo di senso, oltre che diseconomico, predisporre un programma di IA migliore quando si potrebbe utilizzare già nella prima fase del giudizio e che, inoltre, l’utilizzo virtuoso della tecnologia – nascendo questa dall’uomo – deve poter essere controllata dall’uomo. Come si articoleranno dunque i ricorsi contro una decisione robotica che difficilmente, almeno in un futuro prossimo, sarà in grado di dare una giustificazione adeguata della ragioni che hanno portato a quella decisione?

Vi è chi disegna un futuro in cui le impugnazioni – invece di avere la funzione di riformare l’opinione del giudice – saranno destinate a controllare il funzionamento dell’algoritmo ai fini di una sua correzione o un suo miglioramento[78]. Che valore avrà, in definitiva, l’impugnazione? Davvero si potrà solo contestare il funzionamento dell’algoritmo (se fosse così l’avvocato dovrebbe accrescere di gran lunga le proprie competenze tecnico-informatiche) oppure si potranno contestare anche i fatti (rectius i dati) immessi nella macchina? In questo ultimo caso probabilmente il ricorso potrebbe avere come presupposto l’emergere di un fatto nuovo che la parte sostiene di dover immettere nella macchina e per il quale la decisione finale muterebbe[79].

Abbiamo visto anche i problemi della poca trasparenza dell’algoritmo: come si potrà contestare una decisione in cui difficilmente i passaggi logico-sillogistici del sistema sono messi in evidenza? Il valore umano del ripensamento del percorso decisionale e della maturazione di una diversa decisione perderà probabilmente terreno a vantaggio di un ricorso che avrà come oggetto solo i vizi procedurali dei programmi artificiali.

Quelle che abbiamo delineato sono solo alcune delle criticità che aleggiano al di sopra della decisione giudiziaria automatizzata. Sono rischi reali che dovranno essere considerati in un dibattito serio tra le diverse istituzioni se si vuole che la tecnologia diventi uno strumento utile per l’operare del giudice. Una regolazione della materia non potrà dunque prescindere dalla considerazione di tali problematiche, di natura giuridica prima ancora che etica e sociale.

  1. Una conclusione comune

Dalla sentenza del Consiglio di Stato e dalle brevi riflessioni che ne sono scaturite, si possono trarre alcune conclusioni, necessariamente aperte stante la novità dei fenomeni trattati.

È indubbio che le nuove tecnologie rappresenteranno un aiuto concreto sia nell’attività amministrativa sia nell’attività giudiziaria: il continuo e rapido perfezionamento dei nuovi sistemi di IA ne provocherà un utilizzo sempre maggiore all’interno del mondo del diritto, persino in quelle situazioni dove residui un margine discrezionale al giudice o al funzionario pubblico.

Premesso questo, l’essere umano non si farà facilmente relegare in un angolo d’ombra. La tecnologia, infatti, non è in antitesi con l’uomo, ma è creazione dell’uomo, nasce dall’uomo con lo scopo primo di rendergli la vita più agevole. La scelta di affidare a sistemi intelligenti alcune attività è scelta umana e, per tale ragione, indirizzabile, controllabile e verificabile dall’uomo[80]. Siamo noi che dobbiamo comprendere quali possono essere le applicazioni virtuose della tecnologia, così da poterla facilmente modellare in modo da renderla sempre più utile alle nostre esigenze.

Il problema non è allora la tecnologia in sé, ma come questa venga utilizzata dall’uomo: non è importante chiedersi che cosa ne sarà del mondo nei prossimi decenni, è importante interrogarci su che cosa vogliamo essere noi e come ci dovremo porre nei confronti di rivoluzioni che entreranno, senza bussare, dalla porta principale.

In questo quadro la centralità di una decisione umana, amministrativa o giudiziaria che sia, non può e non deve essere messa in discussione: essa è la risultante di un procedimento valutativo che esprime il senso etico e di responsabilità che ogni soggetto che applica il diritto dovrebbe possedere. L’umanità è il “salvagente al quale afferrarci”[81] anche perché i connotati della coscienza umana, come sostiene lo storico Yuval Harari, potrebbero rappresentare uno scoglio insormontabile per l’Intelligenza Artificiale, almeno nei prossimi anni[82]. A questo proposito, per l’automazione di decisioni amministrative ci si è chiesti se: “un sistema di principi ed istituti giuridici pensato e costruito intorno al funzionario ‘essere umano’ sia così facilmente traslabile ed adattabile ad un mondo di algoritmi e macchine intelligenti, nel quale la Pubblica Amministrazione 4.0 diventa, magari, efficientissima, ma viene spogliata di quell’elemento di umanità che, in fondo, è quello che rende l’esercizio dell’azione amministrativa, pur con tutti i suoi elementi di unilateralità e imperatività, accettabile ai suoi destinatari”[83]. Analogamente con parole più forti, in ordine a un’automazione della decisione giudiziaria, in tempi risalenti si è sostenuto che “Ridurre la funzione del giudice a un puro sillogizzare vuol dire impoverirla, inaridirla, disseccarla. La giustizia è qualcosa di meglio: è creazione che sgorga da una coscienza viva, sensibile, vigilante, umana”[84].

[1] Cons. Stato, Sez. VI, sentenza del 4 febbraio 2020, n. 881.

[2] Oltre alla sentenza in oggetto si segnalano anche le sentenze del Consiglio di Stato, Sez. VI, sentenza dell’8 aprile 2019, n. 2270 e Consiglio di Stato, sentenza del 13 dicembre 2019, n. 8472 di cui si darà conto amplius nel paragrafo successivo.

[3] L’algoritmo è un procedimento di calcolo per la soluzione di specifici problemi. Per determinare un algoritmo, il problema deve essere rappresentato come un’associazione tra un insieme di valori numerici (c.d. ingresso) e un altro insieme di valori (c.d. uscita). Tra i dati di ingresso e di uscita si inseriscono anche i dati per le c.d. informazioni intermedie. L’esecuzione dell’algoritmo consiste dunque nell’elaborazione di un insieme di dati (ingresso, uscita, informazioni intermedie) e chi esegue l’algoritmo è detto elaboratore o calcolatore. Vedi A. Portalupi (a cura di), Fondamenti di informatica, Zanichelli, Bologna, 2007 pp. 180 ss.

[4] Ai fini di chiarezza, occorre precisare che non si tratterà dell’Intelligenza Artificiale quale strumento idoneo a rendere più diretto e trasparente il rapporto tra cittadino e Pubblica Amministrazione, bensì dell’utilizzo di algoritmi di Intelligenza Artificiale nella decisione amministrativa. Per i riferimenti a tali temi, che non verranno approfonditi nel presente scritto, cfr. D.U. Galetta, La pubblica Amministrazione nell’era delle ICT: sportello digitale unico e intelligenza artificiale al servizio della trasparenza e dei cittadini?, in Ciberspazio e diritto, vol. 19, n. 61 (3 – 2018), pp. 319-336 e D.U. Galetta, Digitalización y transparencia: ¿un “responsable de la trasparencia” y su “asistente digital” como herramientas del buen gobierno del futuro?, in Revista Jurídica de Buenos Aires, nr. 96/2018 I, pp. 159-180.

[5] L’applicazione di IA all’interno del procedimento amministrativo è strettamente collegata – poiché ne rappresenta l’evoluzione – all’avvento delle ICT (Information and Communication Technologies) nell’alveo dell’Amministrazione, il cui approfondimento specifico esula dai fini del presente scritto. Per i riferimenti e gli approfondimenti cfr. D.U. Galetta, La pubblica Amministrazione nell’era delle ICT: sportello digitale unico e intelligenza artificiale al servizio della trasparenza e dei cittadini?, cit.; D.U. Galetta, Information and Communication Technology and Public Administration: through the Looking-Glass, in D.U. Galetta, J. Ziller (a cura di.), Information and Communication Technologies Challenging Public Law, beyond Data Protection, Nomos Verlagsgesellschaft, 2018, pp 119-129; C. Benettazzo, ICT e nuove forme di interazione tra cittadino e Pubblica Amministrazione, in MediaLaws-Rivista di diritto dei media, 2/2020, pp. 262 ss.; M. L. Maddalena, La digitalizzazione della vita dell’amministrazione e del processo, in Foro Amministrativo, pp. 2535 ss.

[6] Per una definizione vedi D.U. Galetta, Information and Communication Technology and Public Administration: through the Looking-Glass, cit., p. 119, secondo cui “The term Digital Administration (or E-Government) refers to the use of ICT – Information and Communication technologies – in the various administrative processes, with the aim of providing services suitable to meet the needs expressed by citizens in a society that has profoundly changed thanks to the use of such technologies.” Vedi anche la Comunicazione della Commissione Europea del 26 settembre 2003 “Il ruolo dell’e-governement per il futuro dell’Europa” che definisce l’amministrazione digitale come “l’uso delle tecnologie dell’informazione e della comunicazione nelle pubbliche amministrazioni, coniugato a modifiche organizzative ed all’acquisizione di nuove competenze al fine di migliorare i servizi pubblici ed i processi democratici e di rafforzare il sostegno alle politiche pubbliche”.

[7] D.U. Galetta – J.G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità rischi e sfide della rivoluzione tecnologica in atto, in Federalismi.it, 6 febbraio 2019, p. 1.

[8] L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, Milano, 2017.

[9] La nascita dell’Intelligenza Artificiale come disciplina autonoma viene fatta risalire al 1956, quando un gruppo di scienziati si riunì al Dartmouth College di Hanover nel New Hampshire con lo scopo di introdurre alla comunità scientifica la materia. Il termine Intelligenza Artificiale venne introdotto per la prima volta nel documento di presentazione del seminario. V. J. McCarthy – M. Minsky – N. Rochester – C. Shannon, A proposal for the Dartmouth summer research project on artificial intelligence, 1955 (disponibile online).

Esistono diverse definizioni che prendono in considerazione l’IA da prospettive differenti. Una definizione generale, accettata dalla comunità scientifica, descrive l’IA come “una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana”, v. M. Somalvico, Intelligenza artificiale, Rusconi Editore, Milano, 1987. Altre definizioni più specifiche considerano l’IA dalla prospettiva del pensiero e del ragionamento della macchina o del suo comportamento. Da questo punto di vista l’IA è definita come il “tentativo di far sì che i computer arrivino a pensare”, v. J. Haugeland, Artificial intelligence: the very idea, MIT press, Cambridge, 1985; o “l’arte di creare macchine che eseguono attività che richiedono intelligenza quando vengono svolte da persone”, v. R. Kurzweil, The Age of Intelligent Machines, MIT press, Cambridge, 1990;  o ancora come il “far sì che una macchina si comporti in modi che sarebbero definiti intelligenti se fosse un essere umano a comportarsi così”, v. J. McCarthy – M. Minsky – N. Rochester – C. Shannon, A proposal for the Dartmouth summer research project on artificial intelligence, 1955.

[10] P. Lin – K. Abney – G. Bekey, Robot ethics: Mapping the issues for a mechanized world, in Artificial intelligence, 175, 2011, p. 944.

[11] Y.N. Harari, 21 Lessons for the 21st Century (2018), trad.it. di M. Piani, Bompiani Editore, 2018, pp. 44-45.

[12] P. Lin – K. Abney – G. Bekey, Robot ethics: Mapping the issues for a mechanized world, cit., pp. 944-945.

[13] Si è parlato di “algoritmo impazzito”, a indicare l’irrazionalità dell’output algoritmico che destinava alcuni docenti a sedi lontane dalla residenza pur in presenza di sedi vacanti più vicine per le quali i docenti avevano espresso la preferenza, v. L. Musselli, La decisione amministrativa nell’età degli algoritmi: primi spunti, in MediaLaws-Rivista di diritto dei media, 1/2020, p. 25, nota 39.

[14] Tar Lazio, Roma, Sez. III-bis, sentenza del 27 maggio 2019, n. 6607.

[15] Tar Lazio, Roma, Sez. III-bis, sentenza del 10 settembre 2018, n. 9224.

[16] Il TAR Lazio aveva infatti poggiato la propria decisione sul fatto che l’utilizzo dell’algoritmo avrebbe leso specifiche previsioni della l. 241/1990 (in particolare le garanzie procedimentali di cui agli artt.  2, 6, 7, 8, 9, 10). Di contro, il Consiglio di Stato non censura l’utilizzo dell’algoritmo decisionale in quanto contrario a specifiche previsioni delle legge sul procedimento amministrativo, bensì per il metodo utilizzato in quanto tale per il difetto di trasparenza dello stesso. Affermano infatti i giudici: “Il tema dei pericoli connessi allo strumento non è ovviato dalla rigida e meccanica applicazione di tutte le minute regole procedimentali della L. n. 241 del 1990 (quali ad esempio la comunicazione di avvio del procedimento sulla quale si appunta buona parte dell’atto di appello o il responsabile del procedimento che, con tutta evidenza, non può essere una macchina in assenza di disposizioni espresse), dovendosi invece ritenere che la fondamentale esigenza di tutela posta dall’utilizzazione dello strumento informatico c.d. algoritmico sia la trasparenza nei termini prima evidenziati riconducibili al principio di motivazione e/o giustificazione della decisione”. (Punto 12)

[17] Le già citate sentenze del Consiglio di Stato n. 2270 e n. 8472 del 2019.

[18] Di seguito il passaggio integrale della pronuncia, che chiarisce la portata delle affermazioni dei giudici: “la regola tecnica che governa ciascun algoritmo resta pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla macchina, per essere poi (solo) applicata da quest’ultima, anche se ciò avviene in via esclusiva. Questa regola algoritmica, quindi: possiede una piena valenza giuridica e amministrativa, anche se viene declinata in forma matematica, e come tale, come si è detto, deve soggiacere ai principi generali dell’attività amministrativa, quali quelli di pubblicità e trasparenza (art. 1 L. n. 241 del 1990), di ragionevolezza, di proporzionalità, etc.; non può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili (e ciò la rende in parte diversa da molte regole amministrative generali); la discrezionalità amministrativa, se senz’altro non può essere demandata al software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale; vede sempre la necessità che sia l’amministrazione a compiere un ruolo ex ante di mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti e modalità di perfezionamento dell’algoritmo (soprattutto nel caso di apprendimento progressivo e di deep learning)” (punto 8.2).

[19] Punto 6 della sentenza in commento.

[20] Affermano i giudici: “Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato. In proposito, va ribadito che, la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile. Con le già individuate conseguenze in termini di conoscenza e di sindacabilità” (punto 10).

[21] Punto 11 della sentenza in rassegna.

[22] Peraltro, il par. 2 dell’articolo in commento apre a procedimenti automatizzati nei casi in cui la decisione “a) sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento; b) sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato; c) si basi sul consenso esplicito dell’interessato”.

[23] Il Consiglio di Stato ricava tale principio dal considerando n. 71  del Reg. 679/2016.

[24] La prime riflessioni approfondite sul tema, quanto meno in Italia, vengono attribuite agli studi pioneristici di Giovanni Duni e Massimo Severo Giannini. Vedi G. Duni, L’utilizzabilità delle tecniche elettroniche nell’emanazione degli atti e nei procedimenti amministrativi. Spunti per una teoria dell’atto amministrativo elaborato nella forma elettronica, in Riv. Amm., 1978, 407 ss.; M.S. Giannini, Rapporto sui principali problemi dell’Amministrazione dello Stato, disponibile online all’indirizzo www.tecnichenormative.it.

[25] Cfr. S. Vernile, Verso la decisione amministrativa algoritmica, in MediaLaws-Rivista di diritto dei media, 2/2020, p. 137; L. Musselli, La decisione amministrativa nell’età degli algoritmi: primi spunti, in MediaLaws-Rivista di diritto dei media, 1/2020, p. 20 in cui l’A. afferma che “l’applicazione delle tecnologie informatiche all’Amministrazione viene finalizzata ad un aumento del grado di efficienza e produttività nelle attività svolte e nei servizi resi, restituendo nel contempo centralità alla figura del cittadino-utente a cui deve essere costantemente offerta la possibilità di interloquire con l’Amministrazione e di esprimere il proprio gradimento nei confronti del suo operato”. V. anche D.U. Galetta, Information and Communication Technology and Public Administration: through the Looking-Glass, cit., in cui si legge “The implementation of Information and Communication Technologies (ICT) in administrative processes shall indeed render Public Administration more efficient, improving on the one hand the quality of public services provided to the citizens and, on the other hand, decreasing the relative  costs for the community: at least in a medium-long-term perspective”.

[26] F. Patroni Griffi, Decisione robotica e giudice amministrativo, in A. Carleo (a cura di), Decisione robotica, Il Mulino, Bologna, p. 168. V. anche D.U. Galetta – J.G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità rischi e sfide della rivoluzione tecnologica in atto, cit., p. 10.

[27] S. Vernile, Verso la decisione amministrativa algoritmica, cit., p. 138. Si veda anche, in giurisprudenza, Cons.  Stato, sentenza del 4 febbraio 2020, n. 881, oggetto del presente commento, al punto 5.3: “non può essere messo in discussione che un più elevato livello di digitalizzazione dell’amministrazione pubblica sia fondamentale per migliorare la qualità dei servizi resi ai cittadini e agli utenti”.

[28] Sulle diverse ipotesi di automazione applicabili al procedimento vedi D.U. Galetta – J.G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità rischi e sfide della rivoluzione tecnologica in atto, cit., pp. 10-12, i quali distinguono tra a) Automazione completa; b) Automazione e intervento umano ridotto; c) Automazione più predizione.

[29] Lo stesso Consiglio di Stato, nella sentenza in commento, afferma che: “Anche il caso in esame, relativo ad una procedura di assegnazione di sedi in base a criteri oggettivi, l’utilizzo di una procedura informatica che conduca direttamente alla decisione finale non deve essere stigmatizzata, ma anzi, in linea di massima, incoraggiata: essa comporta infatti numerosi vantaggi quali, ad esempio, la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità, l’esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario (essere umano) e la conseguente maggior garanzia di imparzialità della decisione automatizzata”. (Punto 6.1).

[30] S. Vernile, Verso la decisione amministrativa algoritmica, cit., p. 141.

[31] Su questo tema vedi F. Patroni Griffi, Decisione robotica e giudice amministrativo, cit., p. 168, in quale rileva che “la neutralità dei dati immessi ed elaborati, accettata consensualmente e convenzionalmente, deve poter essere soggetta a verifica […] La decisione robotizzata non può tradursi in una minor tutela contro le distorsioni nell’uso del potere che, in un certo senso, possono verificarsi “a monte” del processo decisionale”.

[32] Vedi, per esempio, M. REID, Rethinking the Fourth Amendment in the Age of Supercomputers, Artificial Intelligence and Robots, in West Virginia Law Review, 2017, p. 110 il quale rileva che: “The first is a recurring critique of AI algorithms, particularly predictive big data analytics, which is not free of biases. Rather, the human beings that created the algorithm embed their own value-based judgments into the black box algorithm itself”. Cfr. anche L. Viola, L’intelligenza artificiale nel procedimento e nel processo amministrativo: lo stato dell’arte, in Federalismi.it, 7 novembre 2018, p. 10, il quale pone anche in risalto l’obbligo di collaborazione che dovrebbe esistere tra funzionario e programmatore.

Il problema è messo in luce anche dalla sentenza in commento in cui si legge (punto 5.2): “l’impiego di tali strumenti comporta in realtà una serie di scelte e di assunzioni tutt’altro che neutre: l’adozione di modelli predittivi e di criteri in base ai quali i dati sono raccolti, selezionati, sistematizzati, ordinati e messi insieme, la loro interpretazione e la conseguente formulazione di giudizi sono tutte operazioni frutto di precise scelte e di valori, consapevoli o inconsapevoli; da ciò ne consegue che tali strumenti sono chiamati ad operano una serie di scelte, le quali dipendono in gran parte dai criteri utilizzati e dai dati di riferimento utilizzati, in merito ai quali è apparso spesso difficile ottenere la necessaria trasparenza”.

[33] Esso si riferisce alla possibilità di un algoritmo di migliorare le proprie performance e di imparare senza l’intervento codificatore dell’essere umano: la macchina in questo modo sarà in grado di apprendere migliorando le proprie capacità e le proprie funzioni in base alle esperienze pregresse, v. P. Boucher, How artificial intelligence works, Briefing del Parlamento europeo, 14 marzo 2019, p. 2. Si suole distinguere tra: a) apprendimento supervisionato, che consiste nel fornire alla macchina una serie di informazioni codificate in modo da creare un database di nozioni dal quale la macchina può attingere per la soluzione di un determinato problema; b) apprendimento non supervisionato, quando vengono inserite nella macchina informazioni non codificate. In questo caso sarà la macchina ad attingere a tali informazioni senza aver alcun esempio del loro utilizzo: la macchina cataloga le informazioni, ne apprende il significato, le organizza e impara il risultato cui esse conducono; c) apprendimento per rinforzo, quando vengono dati alla macchina gli strumenti necessari che le permettono di comprendere le caratteristiche dell’ambiente che la circonda e, attraverso tale attività, migliorare autonomamente il proprio apprendimento e i propri comportamenti. Il machine learning ha tratto nuova linfa negli ultimi tempi, dove si è assistito ad una enorme proliferazione e diffusione di dati: le macchine hanno potuto imparare attraverso un “allenamento” continuo (il c.d. training) basato su quantità sempre maggiore dei dati immessi. Per approfondimenti vedi la voce machine learning in Internet al sito www.intelligenzaartificiale.it, consultato il 26 luglio 2020.

Poiché, come abbiamo visto, gli algoritmi che utilizzano la tecnologia di machine learning sono in grado di generare autonomamente dei modelli e delle regole dai dati che vengono inseriti nel programma, e da tali modelli elaborare nuovi dati attraverso i quali generare nuovi output. È chiaro che in un procedimento del genere è estremamente difficile tracciare il percorso attraverso il quale l’algoritmo, partendo dagli input, genera quello specifico risultato.

[34] F. Pasquale, The black box society. The secret algorithms that control money and information, Harvard University Press, Cambridge-London, 2015. Per una differente lettura si veda D.U. Galetta – J.G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità rischi e sfide della rivoluzione tecnologica in atto, cit., pp. 15-16, in particolare gli autori ivi citati (note 59-60).

[35] Cons. Stato, sent. del 4 febbraio 2020, n. 881, punto 10.

[36] Sul rapporto tra IA e proprietà intellettuale vedi C. Morgan (a cura di), Responsible AI: a global policy framework,  in ITechLaw, McLean (Virginia), 2019, p. 258 ss.. Il problema è messo in luce anche da C. Benettazzo, ICT e nuove forme di interazione tra cittadino e Pubblica Amministrazione, cit., p. 271.

[37] La questione sembra comunque essere stata risolta dalla giurisprudenza amministrativa. Oltre alla pronuncia in commento che, come visto, nega rilevanza al segreto industriale, precedentemente già la giurisprudenza di merito, in casi analoghi a quello sottoposto al giudizio del Consiglio di Stato, aveva fornito soluzioni coincidenti. Vedi, ad es., Tar Lazio, Roma, Sez. III-bis, sentenza del 21 marzo 2017, n. 3742 e Tar Lazio, Roma, Sez. III-bis sentenza del 22 marzo 2017, n. 3769.

[38] Sul punto cfr. P. Otranto, Decisione amministrativa e digitalizzazione della p.a., in Federalismi.it, 17 gennaio 2018, p. 15; L. Musselli, La decisione amministrativa nell’età degli algoritmi: primi spunti, cit., pp. 24-25.

[39] P. Otranto, Decisione amministrativa e digitalizzazione della p.a., cit., p 15.

[40] Per un approfondimento sul funzionamento di tali sistemi si vedano, ex plurimis, K. Warwick, Artificial intelligence – The basics, trad. it. di C. Barattieri di San Pietro-G. Maugeri, Dario Flaccovio Editore, Bologna, 2015, pp. 61 ss.; G. Sartor, Intelligenza artificiale e diritto. Un’introduzione, Giuffrè, Milano, p. 17; F. Amigoni – V. Schiaffonati – M. Somalvico, voce Intelligenza Artificiale, in Enciclopedia della scienza e della tecnica, Roma, 2008 (disponibile online).

[41] D.U. Galetta – J.G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità rischi e sfide della rivoluzione tecnologica in atto, cit., pp. 12-13. È utile comunque mettere in luce che parte della dottrina dubita dell’esistenza di vere e proprie ipotesi di atti totalmente vincolati, da cui sorgerebbe qualche complicazione in più nel trasporre nel software la regola giuridica che il sistema di IA sarà tenuto ad applicare. Un esempio chiaro è fornito da P. Otranto, Decisione amministrativa e digitalizzazione della p.a., cit., p. 17, nota 60: “si pensi all’ipotesi di un’amministrazione che decida di avvalersi delle ICT per l’organizzazione di un concorso per l’accesso ad un impiego pubblico. Essa potrebbe, ad esempio, prevedere l’obbligatorietà della presentazione della domanda di partecipazione attraverso un portale mediante il quale il candidato inserisca i dati ritenuti necessari, affidando al computer il compito di valutare la sussistenza dei requisiti di ammissione. Ipotizziamo che nel nostro esempio la legge (ovvero il regolamento o il bando) preveda che il candidato debba avere “un’età non superiore a 40 anni”. L’amministrazione dovrà fornire al sistema le istruzioni più opportune affinché in caso di carenza del requisito prescritto, sia comminata l’esclusione dell’istante. La norma sembra strutturata secondo lo schema fatto-effetto e dunque, anche in virtù dell’espresso richiamo ad un concetto matematico (“età non superiore a 40 anni”), l’attività dovrebbe essere interamente vincolata e facilmente traducibile in un algoritmo. Se non che al momento della predisposizione delle istruzioni da impartire alla macchina attraverso il software, l’amministrazione sarà chiamata a decidere se aderire all’orientamento giurisprudenziale in forza del quale “quando la legge ricollega il verificarsi di determinati effetti (quale la perdita di un requisito di ammissione al concorso stesso) al compimento di una data età, essi decorrono dal giorno successivo a quello del genetliaco, sicché il limite d’età fissato dalla norma deve intendersi superato quando ha inizio, dal giorno successivo al compimento, il relativo anno” (Cons. Stato, Sez. V, 26 settembre 1995, n. 1352; 14 settembre 2009, n. 4478; 23 agosto 2010, n. 5907) ovvero a quello che non ammette l’esclusione dalla procedura di chi, pur avendo “compiuto” gli anni indicati dalla lex specialis, non abbia tuttavia raggiunto il compleanno dell’anno successivo (Cons. Stato, Sez. V, 12 luglio 2010, n. 4476; 5 marzo 2010, n. 1284; Cass., Sez. lav., 26 maggio 2004, n. 10169). Qualora l’amministrazione aderisse alla prima opzione ermeneutica – fatta propria dal Consiglio di Stato, Ad. plen., 2 dicembre 2011, n. 21– l’elaboratore dovrebbe essere impostato per escludere automaticamente il candidato che abbia 40 anni ed un giorno; nella seconda ipotesi i candidati dovrebbero essere ammessi sino al compimento del quarantunesimo anno di età”.

[42] Punto 8 della sentenza in commento.

[43] Sul tema cfr. L.Viola, L’intelligenza artificiale nel procedimento e nel processo amministrativo: lo stato dell’arte, cit., pp. 27; M. L. Maddalena, La digitalizzazione della vita dell’amministrazione e del processo, in Foro Amministrativo, pp. 2535 ss.; P. Otranto, Decisione amministrativa e digitalizzazione della p.a, cit., pp. 23-24.

[44] M. Delgado, Automazione, intelligenza artificiale e pubblica amministrazione: vecchie categorie concettuali per nuovi problemi?, in Istituzioni del federalismo, 2019, 3, p. 647.

[45] L.Viola, L’intelligenza artificiale nel procedimento e nel processo amministrativo: lo stato dell’arte, cit., p. 28.

[46] Parte della dottrina esclude l’automazione di decisioni amministrative discrezionali, come rileva P. Otranto, Decisione amministrativa e digitalizzazione della p.a, cit., p. 21, il quale spiega che tale esclusione deriverebbe dal fatto che “l’atto discrezionale, essendo fondato sulla ragionevolezza umana, sarebbe informato ad una logica “opaca” non riconducibile a percorsi predeterminati e predeterminabili”.

[47] Nello stesso senso cfr. S. Vernile, Verso la decisione amministrativa algoritmica, cit., p. 147.

[48] D.U. Galetta – J.G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità rischi e sfide della rivoluzione tecnologica in atto, cit., p. 20; nello stesso senso cfr. C. Benettazzo, ICT e nuove forme di interazione tra cittadino e Pubblica Amministrazione, cit., p. 272. Anche il Consiglio di Stato, nella sentenza in commento, chiarisce che “assum[e] rilievo fondamentale […] l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo” (punto 9),  precisando che “al fine di applicare le norme generali e tradizionali in tema di imputabilità e responsabilità, occorre garantire la riferibilità della decisione finale all’autorità ed all’organo competente in base alla legge attributiva del potere”(punto 10.6).

[49] D. Marongiu, Gli atti amministrativi ad elaborazione elettronica: la compilazione di un “pre-software” in lingua italiana, in Riv. dir. amm. elettronico, www.cesda.it, 2003, pp. 3 ss.

[50] L.Viola, L’intelligenza artificiale nel procedimento e nel processo amministrativo: lo stato dell’arte, cit., p. 11.

[51] F. Patroni Griffi, Decisione robotica e giudice amministrativo, cit., p. 170.

[52] Ibidem.

[53] È utile fin d’ora accennare al fatto che vantaggi e criticità che contraddistinguono la decisione robotica giudiziaria sono oggetto di studio della Commissione Europea per l’efficacia della giustizia (CEPEJ), istituita in seno al Consiglio d’Europa. Nel dicembre 2018, la CEPEJ ha pubblicato l’ European Ethical Charter on the Use of the Artificial Intelligence in Judicial Systems and their environment, con cui  ha messo in luce cinque principi fondamentali che dovranno guidare l’uso dell’IA all’interno dei tribunali. Tali sono: il rispetto dei diritti fondamentali; il principio di non discriminazione; il principio di qualità e sicurezza, che richiede di costruire un ambiente tecnologico sicuro attraverso un approccio interdisciplinare nella formazione dell’algoritmo, che coinvolga esperti non solo in ambito giuridico, ma anche filosofico, sociologico ed economico, oltre evidentemente al necessario intervento di tecnici e ingegneri; il principio di trasparenza, imparzialità ed equità; infine, il principio “under user control” secondo cui l’autonomia degli utilizzatori, attraverso l’uso di sistemi di IA, deve essere aumentate non ristretta. A questo proposito il giudice dovrebbe poter in ogni momento essere in grado di tornare sulle decisioni prese e sui dati utilizzati dalla macchina e non dovrebbe mai essere vincolato totalmente ad essi, potendo discostarsi dalle decisioni robotiche in considerazione della specificità del caso concreto.

[54] D. Ben-Ari – Y. Frish – A. Lazovski – U. Eldan – D. Greenbaum, Artificial Intelligence in the Practice of Law: An Analysis and Proof of Concept Experiment, in 23 Rich. J.L. & Tech, 3, 2017, pp. 36 ss. V. anche J. Nieva-Fenoll, Intelligenza artificiale e processo, trad.it di P. Comoglio, Giappichelli, Torino, 2019 pp. 22 ss.

[55] J. Nieva-Fenoll, Intelligenza artificiale e processo, cit., p. 32.

[56] L’art. 101, c. 1, Cost. postula la soggezione esclusiva del giudice alla legge; l’art. 102, c. 1, Cost. affida la funzione giurisdizionale a “magistrati ordinari istituiti e regolati dalle norme sull’ordinamento giudiziario”, l’art. 111, c. 2, prescrive che ogni processo si svolga davanti a un giudice terzo e imparziale. Lo stesso art. 25 Cost, facendo riferimento a un “giudice naturale precostituito per legge”, postula chiaramente l’esistenza di un giudice umano. Per osservazioni simili v. M. Luciani, La decisione giudiziaria robotica, in A. CARLEO (a cura di), Decisione robotica, cit., pp. 86 ss; F. Donati, Intelligenza artificiale e giustizia, in Rivista AIC, n. 1, 2020, p. 429.

[57] Punto 11.2.

[58] Il problema dell’opacità dell’algoritmo è certamente uno dei punti di contatto tra amministrazione e giustizia, posto che principi di pubblicità e trasparenza guidano sia l’attività amministrativa sia l’attività giurisdizionale.

[59] State v. Loomis, 881 N.W.2d 749 (2016).

[60] Principio, come abbiamo visto, affermato dal Consiglio di Stato nelle sentenza in rassegna.

[61] Il contatto tra IA e diritto non forma oggetto di riflessioni recenti ma consta di una letteratura giuridica che affonda le proprie radici agli inizi degli anni Settanta quando due studiosi paventarono la possibilità di una possibile influenza dell’Intelligenza Artificiale sul mondo giuridico, sostenendo l’uso del computer per aiutare il ragionamento giuridico e per aiutare gli avvocati nella loro professione, v. B.G. Buchanan  – T.E. Headrick, Some Speculation About Artificial Intelligence and Legal Reasoning, in Stan. L. Rev., 23, 1970.

[62] Si vedano gli scritti  di N. Irti, La crisi della fattispecie, in Riv. Dir. Proc., 69, 1, 2014; N. Irti, Un diritto incalcolabile, in Riv. Dir. Civ., 2015, ora in N. Irti, Un diritto incalcolabile, Giappichelli, Torino, 2016. Invero l’A. aveva già denunciato la crisi del legalismo in N. IRTI, L’età della decodificazione, Giuffrè, Milano, 1979.

[63] J. Nieva-Fenoll, Intelligenza artificiale e processo, cit., p. 13.

[64] Un esempio è il programma STEVIE, capace di costruire storie coerenti sulla base dei dati immessi nel sistema. Vedi E. Nissan, Digital technologies and artificial intelligence’s present and foreseeable impact on lawyering, judging, policing and law enforcement, in Ai & Society, 32 (3), 2017, p. 449.

[65] Programma ECHO, basato su una rete neurale artificiale, potenzialmente utile per avvocati e pubblici ministeri V. E. Nissan, Digital technologies and artificial intelligence’s present and foreseeable impact on lawyering, judging, policing and law enforcement, cit., p. 451.

[66] Programma ALIBI, ibidem.

[67] J. Nieva-Fenoll, Intelligenza artificiale e processo, cit., p. 15.

[68] . E. Nissan, Digital technologies and artificial intelligence’s present and foreseeable impact on lawyering, judging, policing and law enforcement, cit., p. 443.

[69] La letteratura su questo argomento sta crescendo in termini esponenziali. Cfr., ad esempio C. Castelli-D.Piana, Giustizia predittiva. La qualità della giustizia in due tempi, in Questione giustizia, trimestrale n. 4, 2018; C. Castelli-D.Piana , Giusto processo e intelligenza artificiale, Maggioli Editore, Santarcangelo di Romagna, 2019; P. Serrao D’Aquino, Digito ergo sum, la tutela giuridica della persona dagli algoritmi, in www.QuestioneGiustizia.it, 21 dicembre 2017.

[70] C. Castelli-D.Piana, Giusto processo e intelligenza artificiale, cit., p. 50.

[71] Cfr. L. De Rienzis, Primi passi nel mondo di della giustizia high tech: la decisione in un corpo a corpo virtuale fra tecnologia e umanità, in A. Carleo (a cura di), Decisione robotica, cit., p. 150; M.R. Covelli, Dall’informatizzazione della giustizia alla decisione robotica? Il giudice di merito, in A. Carleo (a cura di), Decisione robotica, cit., p. 133.

[72] Sul punto vedi J. Nieva-Fenoll, Intelligenza artificiale e processo, cit., pp. 28 ss.

[73] Si pongono tale quesito M. Luciani, La decisione giudiziaria robotica, in A. Carleo (a cura di), Decisione robotica, cit., p. 85; E. Vincenti, Il «problema» del giudice-robot, in A. Carleo (a cura di), Decisione robotica, cit., p. 120.

[74] Cfr., ex multis, L. De Rienzis, Primi passi nel mondo di della giustizia «high tech»: la decisione in un corpo a

corpo virtuale fra tecnologia e umanità, in A.Carleo, Decisione robotica, cit., p. 156.

[75] S. Gaboriau, Libertà e umanità del giudice: due valori fondamentali della giustizia. La giustizia digitale può garantire nel tempo questi valori? in Questione giustizia, trimestrale n. 4, 2018, p. 209.

[76] Ibidem.

[77] R. Pound, Interpretations of legal history, The Macmillan Company, New York, 1923, p. 1.

[78] J. Nieva-Fenoll, Intelligenza artificiale e processo, cit., p. 95.

[79] M. Luciani, La decisione giudiziaria robotica, in A. Carleo (a cura di), Decisione robotica, cit., p. 90.

[80] Natalino Irti ha affermato che il robot “non è né il super-uomo né l’anti-uomo, ma appartiene, anch’esso, alla storia dell’uomo”. Vedi N. Irti, Il tessitore di Goethe (per la decisione robotica), in A. Carleo (a cura di), Decisione robotica, cit., p. 21

[81] E. Vincenti, Il «problema» del giudice-robot, in A. Carleo (a cura di), Decisione robotica, cit., p. 123.

[82] Y.N. Harari, 21 Lessons for the 21st Century, 2018, cit., pp. 114 ss.

[83] D.U. Galetta – J.G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità rischi e sfide della rivoluzione tecnologica in atto, cit., pp. 22-23.

[84] P. CALAMANDREI, Processo e Democrazia, in M. CAPPELLETTI (a cura di), Opere giuridiche, vol. I, Morano, 1965, pp. 646-647.

Lascia un commento