venerdì, Marzo 29, 2024
Uncategorized

Intelligenza Artificiale: se l’algoritmo è discriminatorio

Lo sviluppo dell’intelligenza artificiale si colloca nel più ampio contesto di quella che viene comunemente definita “rivoluzione digitale”, e malgrado l’AI (artificial intelligence) si presenti come strumento di supporto e ausilio nel disbrigo di diverse pratiche quotidiane, (dalla “banale” traduzione delle lingue straniere online alla selezione del personale amministrativo) rendendole più celeri ed efficaci, è necessario operare una riflessione sulle implicazioni etiche, morali e giuridiche che l’applicazione e l’utilizzo  della stessa pongono nelle nostre società, in particolare con riferimento alle possibili discriminazioni che la stessa opera, e agli impatti che le decisioni assunte tramite questa tecnologia, possono avere sulla vita delle persone.

Intelligenza artificiale: cos’è e come funziona?

Quando si parla di intelligenza artificiale si è spesso propensi a proiettare la propria immaginazione verso scenari fantascientifici e robot umanoidi in pieno stile Blade Runner o Mass Effect.

Siamo infatti tendenzialmente portati, complice una brillante produzione cinematografica in merito e non solo, a identificare l’intelligenza artificiale con qualcosa di fisico, e nello specifico con i robot.

In realtà la premessa doverosa dalla quale è necessario partire, è che non esiste un’univoca definizione di intelligenza artificiale. Alcuni la definiscono come a machine that is capable of completing tasks otherwise typically requiring human cognition”. [1]

Nell’Enciclopedia Treccani si legge che “L’intelligenza artificiale studia i fondamenti teorici, le metodologie e le tecniche che consentono di progettare sistemi hardware e sistemi di programmi software atti a fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.”

In una Comunicazione del 2018 la Commissione Europea definiva l’Intelligenza artificiale come insieme di sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi.” E ancora che “I sistemi basati sull’IA possono consistere solo in software che agiscono nel mondo virtuale (per esempio assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale); oppure incorporare l’IA in dispositivi hardware (per esempio in robot avanzati, auto a guida autonoma, droni o applicazioni dell’Internet delle cose)”. [2]

Se ne desume che la AI non si identifica con i robot più o meno umanoidi (che beninteso esistono), ma che, spesso e volentieri, altro non è che un software progettato appositamente per un determinato scopo.

Come scrivono Ryan Abbott e Alex Sarch infatti, AI only sometimes has the ability to directly act physically, as in the case of a “robot,” but it is not necessary for an AI to directly affect physical activity to cause harm”.

Proseguendo nella nostra analisi, possiamo notare che pur nella loro diversità, le definizioni riportate poco sopra hanno almeno un elemento in comune. Tutte in modo diretto o indiretto fanno riferimento all’intelligenza umana come a qualcosa che si cerca di trasmettere alla macchina, in modo tale che la stessa, alla stregua dell’uomo, sia capace, dati determinati input, di operare scelte e prendere decisioni.

Anzi, ciò che ci si attende dalla macchina è che la stessa sia in grado di prendere decisioni “migliori”, più giuste e corrette in quanto non corrotta, a differenza dell’animo umano, dalle emozioni.

Ed è proprio per via della “neutralità” della macchina che si è più propensi a “fidarsi” delle sue decisioni e dei suoi calcoli piuttosto che di quelli operati dall’uomo (in tempi certamente più lunghi).

Ma davvero è così? Davvero la macchina può sostituirsi all’uomo e assumere decisioni più “giuste”?

AI e Giustizia penale: il discusso caso Loomis

È il 2013 quando Eric L. Loomis viene fermato dalla polizia alla guida di un’auto utilizzata per commettere una sparatoria nello stato del Wisconsin, USA. Allo stesso vengono addebitati cinque capi d’accusa, tutti in recidiva. Dopo aver accolto l’ammissione di colpevolezza dell’uomo, la Corte ordina un Presentence Investigation Report (PSI) cioè una relazione sulla storia personale del soggetto utile al fine di determinare la severità della pena. Nel PSI viene utilizzato anche un software chiamato COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), strumento concepito per prevedere, tra gli altri, il rischio di recidiva.

Loomis viene condannato a scontare sei anni di reclusione. Il Tribunale Circondariale di La Crosse, nel determinare la pena, aveva ponderato tra i vari fattori anche i risultati di COMPAS che presentava il soggetto come individuo ad alto rischio per la comunità.

A quel punto Loomis decide di presentare appello avverso la sentenza, lamentando che l’utilizzo dei risultati del software non gli aveva di fatto garantito un processo equo.

La Corte Suprema del Wisconsin si pronuncia però a sfavore dell’uomo, sostenendo che la decisione sarebbe stata comunque la stessa, anche senza l’uso di COMPAS.

Ciò che però rileva ed è interessante in questo caso, è che lo stesso ha sollevato numerose discussioni circa la validità dei risultati di questo strumento.

Già nel 2016 alcuni ricercatori dell’organizzazione ProPublica, sottolineavano che “Our analysis of Northpointe’s tool, called COMPAS (which stands for Correctional Offender Management Profiling for Alternative Sanctions), found that black defendants were far more likely than white defendants to be incorrectly judged to be at a higher risk of recidivism, while white defendants were more likely than black defendants to be incorrectly flagged as low risk.”. [3]

Le persone ispaniche o di colore, insomma, secondo il software COMPAS, risultavano a maggior rischio recidiva rispetto ai bianchi, i quali, al contrario, avevano maggiori probabilità di essere qualificati come individui a basso rischio. Va tuttavia notato che il software effettuava i calcoli sulla base di fattori come età, sesso e precedenti penali. Nessun riferimento, dunque, alle origini etniche del soggetto, eppure, come hanno successivamente rilevato gli studiosi Julia Dressel e Hani Farid “Although the data used by COMPAS do not include an individual’s race, other aspects of the data may be correlated to race that can lead to racial disparities in the predictions.”.[4]

Gli stessi, in uno studio pubblicato per Science Advances sottolineavano come “nel valutare la potenziale recidività di un individuo, COMPAS non è più affidabile di un gruppo di volontari scelti a caso su internet”.[5]

Dal momento che si partiva dal presupposto che gli algoritmi fossero in grado di offrire risultati più “giusti” e più “corretti” rispetto a quanto non avrebbe fatto un essere umano, e malgrado nessuno studio confermasse tale orientamento, i due ricercatori, Dressel e Farid, avevano infatti deciso di condurre una propria analisi.

Avevano sottoposto a circa 400 volontari, una breve descrizione degli imputati presi in esame dall’indagine di ProPublica chiedendo loro di giudicare, sulla base di sole sette informazioni fornite, se l’imputato in questione avrebbe o no potuto commettere un reato nell’arco dei successivi due anni.

Sulla base si detto esperimento i due ricercatori sono stati in grado di dimostrare quanto la precisione del software Compas fosse “lacunosa”.

A che pro dunque utilizzare un software il cui margine di errore è analogo a quello di un gruppo di persone inesperte?

“Fuck the algorithm”

Il 16 agosto 2020 nella piazza del Parlamento a Londra, centinaia di studenti manifestano contro la decisione del Governo inglese di ricorrere ad un algoritmo per decidere il voto degli esami di maturità, che, quest’anno, causa pandemia, non si sono potuti svolgere regolarmente.

L’algoritmo scelto stabiliva il voto finale sulla base delle performance precedenti di ogni singolo studente e sul rendimento accademico ottenuto nel lungo termine dalla scuola di provenienza.

Come rileva Angela Napoletano tuttavia “L’aspetto più controverso dell’algoritmo è stato il peso dato dalla formula alle caratteristiche delle scuole di provenienza degli esaminandi: pubbliche o private, ricche o povere, di centro o periferia. Il pregiudizio che ha viziato i calcoli, insomma, è stato quello secondo cui il rendimento degli istituti privati, elitari e costosissimi, è tendenzialmente più alto rispetto a quello degli statali”. [6]

Circa il 40% degli studenti avrebbe ottenuto, per via del calcolo effettuato dall’algoritmo, un voto nettamente più basso rispetto alle iniziali valutazioni dei docenti, con la conseguenza naturale dell’esclusione dalle università più prestigiose quali Oxford e Cambridge.

Le proteste, condotte al grido di “Fuck the algorithm!” sono state tali da costringere il competente ministero ad annullare le valutazioni e dunque a rifare i giudizi, affidandoli stavolta solo ai docenti.

Conclusioni

Quando parliamo di algoritmi e di intelligenza artificiale diamo per scontato che i risultati prodotti dagli stessi siano più affidabili. Dimentichiamo tuttavia che essi sono prodotto a loro volta, dell’intelligenza e dell’operato dell’uomo, per cui i pregiudizi che fanno parte dell’umana natura, si riverberano necessariamente sulla natura e sulla struttura degli algoritmi che guidano l’AI.

In un interessante report pubblicato del 2018 dalla European Union Agency for Fundamental Rights, si legge che If the data used for building an algorithm are biased against a group (i.e. systematic differences due to the way the data are collected), the algorithm will replicate the human bias in selecting them and learn to discriminate against this group”. [7]

Insomma, l’AI, specie se utilizzata come strumento di polizia predittiva, rischia di trasformarsi, se non opportunamente regolata ed analizzata, da mezzo di prevenzione di alcune tipologie di reati, a potenziale strumento di perpetuazione ed esasperazione delle discriminazioni.

Inoltre, come fa notare Fabio Basile, i sistemi di polizia predittiva sono “sistemi che in una certa misura si auto-alimentano coi dati prodotti dal loro stesso utilizzo, col rischio di innescare circoli viziosi: se, ad esempio, un software predittivo individua una determinata “zona calda”, i controlli e i pattugliamenti della polizia in quella zona si intensificheranno, con inevitabile conseguente crescita del tasso dei reati rilevati dalla polizia in quella zona, che diventerà, quindi, ancora più “calda”, mentre altre zone, originariamente non ricondotte nelle “zone calde”, e quindi non presidiate dalla polizia, rischiano di rimanere, o di diventare, per anni zone franche per la commissione di reati”. [8]

Proprio le problematiche sopra esposte e la consapevolezza delle potenzialità lesive dell’AI, hanno spinto la European Commission for the Efficienty of Justice, a pubblicare nel 2018, la “Carta etica Europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi”, che tra gli altri fissa il “Principio di non discriminazione”.

Ivi si legge che “Deve essere esercitata una particolare vigilanza sia nella fase dell’elaborazione che in quella dell’utilizzo, specialmente quando il trattamento si basa direttamente o indirettamente su dati “sensibili”. Essi possono comprendere l’origine razziale o etnica, le condizioni socioeconomiche, le opinioni politiche, la fede religiosa o filosofica, l’appartenenza a un sindacato, i dati genetici, i dati biometrici, i dati sanitari o i dati relativi alla vita sessuale o all’orientamento sessuale. Quando è individuata una di queste discriminazioni, devono essere previste le misure correttive al fine di limitare o, se possibile, neutralizzare tali rischi e sensibilizzare gli attori”. [9]

Non resta dunque che augurarsi e sperare, che i buoni propositi per una AI realmente più giusta, efficace ed equa, si concretizzino in futuro e non vengano confinati a mere intenzioni.

[1] R.Abbot, A.Sarch “Punishing Artificial Intelligence: Legal Science or Science Fiction”, febbraio 2019, disponibile qui: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3327485;

[2] Comunicazione della Commissione al Parlamento Europeo, al Consiglio, al Comitato Economico e Sociale Europeo e al Comitato per le Regioni, “L’Intelligenza artificiale per l’Europa”, Aprile 2018, disponibile qui: https://ec.europa.eu/transparency/regdoc/rep/1/2018/IT/COM-2018-237-F1-IT-MAIN-PART-1.PDF;

[3] J. Larson, S. Mattu, L. Kirchner, J. Angwin “How We Analyzed the COMPAS Recidivism Algorithm”, maggio 2016, disponibile qui: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm;

[4] J. Dressel, H. Farid, “The accuracy, fairness, and limits of predicting recidivism”, gennaio 2018, disponibile qui: ;

[5] E. Yong, “A che servono gli algoritmi nei tribunali statunitensi”, febbraio 2018, disponibile qui:https://www.internazionale.it/notizie/ed-yong/2018/02/16/algoritmo-valutazione-rischio-tribunale;

[6] A. Napoletano, “Il caso degli esami di maturità. Gran Bretagna, se l’algoritmo è discriminatorio”, agosto 2020 per “Avvenire”, disponibile qui: https://www.avvenire.it/opinioni/pagine/lalgoritmo-che-discrimina-il-pasticcio-del-regno-unito;

[7] European Union Agency for Fundamental Rights, “#BigData: Discrimination in data-supported decision making”  disponibile qui: https://fra.europa.eu/sites/default/files/fra_uploads/fra-2018-focus-big-data_en.pdf;

[8] F. Basile, “Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine”, 2019, disponibile qui: ;

[9] Commissione  Europea per l’efficienza della giustizia, “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi”, dicembre 2018, disponibile qui: https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348.

Lascia un commento