venerdì, Marzo 29, 2024
Criminal & Compliance

Intelligenza Artificiale: implicazioni etiche in materia di privacy e diritto penale

Intelligenza Artificiale: implicazioni etiche in materia di privacy e diritto penale

a cura di Chiara Limiti

1. Definizioni dell’intelligenza artificiale: IA debole e forte

L’intelligenza artificiale (o Artificial Intelligence) è un argomento che negli ultimi anni ha coinvolto molti aspetti della nostra esperienza, anche quotidiana. In molti casi, le applicazioni, tuttavia, rischiano di avere degli importanti risvolti etici e normativi.  L’intenzione di questo articolo è analizzare le diverse implicazioni e gli utilizzi dell’intelligenza artificiale nell’ambito del diritto penale, sollevando, senza aver nessuna ambizione di trovare una soluzione, i dubbi etici a questi collegati. Le problematiche etiche e giuridiche vanno dalla protezione dei dati alla contrattualistica e alla proprietà intellettuale per arrivare alla responsabilità da prodotto difettoso (?).

Il tentativo di riprodurre le funzioni umane è argomento di indagine fin dagli inizi dell’informatica. Le basi del concetto sono rintracciabili sin dal 1936, quando Alan Turing ipotizzò una macchina in grado di risolvere qualsiasi tipo di calcolo, detta macchina di Turing[1]. Dall’idea di questa macchina, come noto, nacque il personal computer. Turing, tuttavia, andò oltre e si interrogò sulla possibilità che le macchine avessero la facoltà di pensiero. Questo tipo di ragionamento lo portò a formulare il teorema secondo cui una macchina pensante riesce a fornire una sequenza logica, una concatenazione efficace ed empirica delle idee, arrivando addirittura ad esprimerle[2]. Turing elaborò anche un test, passato alla storia come test di Turing[3], che consisteva in un esperimento per riconoscere la presenza di una macchina intelligente. Il test è usato anche attualmente per capire se siamo in presenza di un modello pensante, ma l’ipotesi, per il momento, non è stata mai verificata. Tuttavia, il termine “intelligenza artificiale” si deve a McCarthy[4], nel 1956, che organizzò a Dartmouth un seminario, durante il quale fu coniato il termine. Nascerà da qui una disciplina nuova nell’ambito dell’informatica che diventerà un settore autonomo. I primi esperimenti, quale per esempio il logic theorist, riuscivano a dimostrare i teoremi di logica matematica. Infatti in una prima fase l’intelligenza artificiale si è concentrata sulla risoluzione di problemi di ordine logico. Nel 1957 apparve il programma General problem solver, che per la prima volta aveva l’ambizione di riprodurre il comportamento umano nella soluzione di problemi di tipo generale. Se questi primi passi hanno sempre portato ad un sostanziale successo dei progetti, meno felice fu la strada che sperimentò l’emulazione, attraverso l’intelligenza artificiale, del sistema di percezione umano e verso l’interazione con l’ambiente. Allo stato attuale, la ricerca si è indirizzata verso usi specifici dell’intelligenza artificiale, con forti interazioni con altri settori[5].

Innanzitutto, la stessa definizione di intelligenza artificiale non sembra restituire dei risultati univoci. La Treccani, ad esempio, la definisce come “quel settore dell’informatica che studia la possibilità di costruire computer che siano in grado di riprodurre il funzionamento di alcune capacità della mente umana o, nel caso della cosiddetta intelligenza artificiale forte, dell’intero pensiero umano”. Dal punto di vista di un giurista, una prima definizione di intelligenza artificiale si può rintracciare nel documento “Draft Ethics guidelines for trustworthy AI”, pubblicato dalla Commissione Europea il 18 dicembre 2018: “Artificial intelligence (AI) refers to systems designed by humans that, given a complex goal, act in the physical or digital world by perceiving their environment, interpreting the collected structured or unstructured data, reasoning on the knowledge derived from this data and deciding the best action(s) to take (according to pre-defined parameters) to achieve the given goal. AI systems can also be designed to learn to adapt their behaviour by analysing how the environment is affected by their previous actions. As a scientific discipline, AI includes several approaches and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical systems)[6]”. La definizione della Commissione europea, così come accade anche per la definizione fornita nella proposta di legge USA di fine 2017[7], è volutamente ampia allo scopo di includere ogni sistema in grado di reagire alle variabili ambientali e di migliorare le prestazioni sulla base dell’esperienza acquisita.

A complicare maggiormente la situazione, all’interno della medesima intelligenza artificiale si suole distinguere tra due teorie fondamentali: l’Intelligenza Artificiale debole e l’Intelligenza Artificiale forte, così chiamate grazie allo studioso John Searle[8]. L’intelligenza artificiale debole agisce e pensa come se avesse un cervello. L’obiettivo dell’intelligenza artificiale debole non è quella di realizzare macchine che abbiano un’intelligenza umana, ma sistemi che possano agire con successo in alcune funzioni complesse umane. Un esempio ne è la traduzione automatica di testi offerta de Google translate. Searle affermò in “Menti, cervelli e programmi” che l’intelligenza artificiale debole consente di verificare le ipotesi in maniera estremamente precisa. Alla base di questa teoria, vi è la ferma convinzione che in un ipotetico scontro tra uomo e macchina, la mente avrebbe la meglio. Infatti, la macchina non è né sarà mai capace di pensare in maniera autonoma, pur sapendo svolgere molto bene il suo compito ha sempre bisogno della presenza umana per funzionare. L’intelligenza artificiale debole non ha l’ambizione di capire i processi cognitivi umani, ma si limita alla risoluzione dei problemi. Al contrario, sempre secondo Searle, nell’intelligenza artificiale forte, la macchina non è soltanto uno strumento. La macchina, infatti, progettata a tale scopo, diventa essa stessa una mente, con una propria capacità cognitiva. La tecnologia alla base dell’intelligenza artificiale forte è quella dei sistemi esperti, cioè una serie di programmi che vogliono riprodurre le prestazioni e le conoscenze delle persone esperte in un determinato campo. Questa concezione si basa sulla logica matematica, sul ragionamento e la dimostrazione automatica del problema, sull’analisi del linguaggio che permette alla macchina di capire le richieste umane, sulla pianificazione ad opera degli algoritmi. In un possibile futuro disegno le macchine, in un processo continuo di automiglioramento, potrebbero arrivare non solo a risolvere problemi ma potrebbero applicarsi anche nelle arti o nella robotica cognitiva, fino ad arrivare a complessi problemi di natura etica e giuridica[9]. Sicuramente l’intelligenza artificiale forte è quella che pone più interrogativi dal punto di vista etico e morale.

2. Intelligenza artificiale: una definizione normativa

 Uno dei motivi per  cui l’intelligenza artificiale rappresenta un tema così forte nell’agenda di nazioni e comunità è che si stima che questa possa raggiungere, in un lasso di tempo relativamente breve di  (cinque anni), il valore di 190,61 miliardi di dollari con un tasso annuo costante di crescita del 36%[10]. anche in Italia l’interesse sembra rimanere a livello alto (quantomeno  per le istituzioni che se ne devono occupare e nelle dichiarazioni dell’Agenda digitale italiana); ma secondo i dati dell’Osservatorio Artificial Intelligence del Politecnico di Milano, solo il 12% delle imprese ha portato a regime almeno un progetto di intelligenza artificiale. Ad oggi un’azienda su due non si è ancora mossa ma sta per farlo (l’8% è in fase di implementazione, il 31% ha in corso dei progetti pilota, il 21% ha stanziato del budget). Le applicazioni più diffuse sono, ovviamente, quelle di virtual assistant/chatbot. Le imprese italiane però hanno una visione ancora confusa delle opportunità dell’intelligenza artificiale. L’ascesa del mercato dei sistemi di intelligenza artificiale, con tutte le implicazioni ad essa connesse, porta delle conseguenze di ordine economico, etico e socio-antropologico che non risparmiano neanche il settore della giustizia penale.

2.1 Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari e nei loro ambienti

Da un punto di vista squisitamente normativo, troviamo all’interno dell’ordinamento e, nello specifico, nel sistema giudiziario un primo quadro di riferimento. Si tratta, a dire la verità, di un quadro composito ed eterogeneo dove a fianco di norme di diritto positivo, troviamo forme di soft law. Il più importante riconoscimento dei sistemi di intelligenza artificiale e la possibilità di un suo consapevole utilizzo nell’ambito dei sistemi giudiziari è rinvenibile nella Carta Etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari e nei loro ambienti[11] adottata dalla Commissione europea per l’efficienza nella giustizia (CEPEJ) il 4 e 5 dicembre 2018. La Carta nello specifico definisce un quadro di principi utili a intraprendere e affrontare lo sviluppo dell’intelligenza artificiale nei processi giudiziari nazionali e va letto nell’ambito del più vasto sistema di garanzie costituito dalla CEDU e dalla normativa generale sul trattamento dei dati personali (Regolamento UE 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 – GDPR). Questo strumento di soft law[12] si articola in 5 principi e 4 Appendici: una, contenente uno studio approfondito dello stato dell’arte e delle problematiche aperte sull’uso dell’intelligenza artificiale nei sistemi giudiziari, la seconda contenente una griglia sui possibili utilizzi dell’intelligenza artificiale nei sistemi giudiziari, la terza che reca un glossario, la quarta una checklist di autovalutazione della compatibilità dei modelli di utilizzo con i principi recati dalla Carta. L’articolo 1 è relativo ai diritti fondamentali, sulla cui base si definisce che il trattamento dei dati giudiziari e delle decisioni deve avere dei fini chiaramente individuati, nel pieno rispetto dei diritti fondamentali garantiti dalla Convenzione europea sui Diritti dell’Uomo e dalla Convenzione sulla protezione dei dati personali[13]. Nella stessa direzione si muovono le Linee Guida intergovernative sulle politiche relative all’intelligenza artificiale, siglate a Parigi il 22 maggio 2019 dal Consiglio dell’OCSE che raccomandano il rispetto dello stato di diritto, dei diritti umani e dei valori democratici in tutto il ciclo di vita del sistema di intelligenza artificiale e che includono libertà, dignità e autonomia, protezione dei dati, non discriminazione uguaglianza, diversità, equità, giustizia sociale e lavoro. Vi è poi il principio della non discriminazione secondo cui le applicazioni dell’intelligenza artificiale non devono riprodurre o aggravare le discriminazioni, pur esistenti all’interno della società, e portare ad analisi o pratiche deterministiche che non tengano cioè conto delle situazioni particolari. Si pensi a tale proposito, in particolare, a quanto avviene negli Stati Uniti dove si è scelto di ricorrere a sistemi di valutazione automatizzata di predizione del rischio di recidiva (risk assessment tools). Questi strumenti, tuttavia, possono innescare l’introduzione di pregiudizi di ordine razziale o comunque relativi all’appartenenza a determinati contesti. L’esempio di scuola è rappresentato dal Loomis e da un suo tool, il COMPAS[14], che aveva lo scopo di calcolare le probabilità di incorrere in futuri reati. Segue il principio di qualità e sicurezza relativo al trattamento dei dati: i dati trattati tramite l’apprendimento automatico dovrebbero provenire da originali certificati e la loro integrità dovrebbe essere garantita in tutte le fasi del trattamento. In questo contesto il principale riferimento è all’utilizzo dei cosiddetti open data. Gli strumenti nominati finiscono per avere una forte incidenza sul principio della trasparenza, dell’imparzialità e dell’equità nel trattamento delle decisioni giudiziarie. In questo caso, l’attenzione si pone sul fatto che debba essere garantita la possibilità di effettuare dei controlli da parte di autorità o di esperti esterni in merito al trattamento dei dati. Rimane ben agganciato al tema in questione, il problema del rapporto tra tutela dei diritti di proprietà intellettuale e brevettuale di quanti hanno sviluppato il prodotto di intelligenza artificiale e la necessità di rendere trasparente e riproducibile il giudizio. Infine, il principio del controllo dell’utente: ogni utente dovrebbe essere informato, in un linguaggio chiaro e comprensibile, della natura vincolante o non vincolante delle soluzioni proposte dagli strumenti di intelligenza artificiale, delle diverse opzioni disponibili e del loro diritto all’assistenza di un avvocato e al ricorso a un tribunale. Si parla, in un’accezione ampia, di una generale alfabetizzazione informatica del pubblico circa l’utilizzo dell’intelligenza artificiale, in particolare modo nell’ambito dei giudizi penali, al fine di conferire maggiore autonomia e consapevolezza all’uso.

2.2 Articolo 22 del GDPR

Se la Carta Etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari e nei loro ambienti rappresenta un esempio di strumento di soft law, l’articolo 22 del GDPR, relativo alla protezione delle persone fisiche (GDPR)[15] con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati è un esempio di diritto positivo[16]. Nel tempo il legislatore europeo è intervenuto – prima con la Direttiva 95/46 e successivamente con il Regolamento 2016/679 UE e stessa cosa hanno fatto i legislatori nazionali con le norme di recepimento e di adeguamento – per cercare di tenere il passo dell’evoluzione tecnologica e scientifica. L’articolo 22 è il tentativo del legislatore di disciplinare le condizioni in cui è consentito l’uso esclusivo di una decisione fondata sul trattamento automatizzato di dati e informazioni. Nello specifico il legislatore europeo, con l’articolo 22 del GDPR (Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione) ribadisce, come principio generale, che i soggetti hanno il diritto di non essere sottoposti a una decisione basata esclusivamente sul trattamento automatizzato dei propri dati, a cominciare dalla profilazione[17], che produca effetti giuridici che lo riguardano o che incida allo stesso modo sulla sua persona in modo significativo. I sistemi di intelligenza artificiale per elaborare dati personali di individui devono avere le seguenti caratteristiche:

  1. definire le finalità del trattamento
  2. informare sull’utilizzo che si fa della tecnologia IA
  3. raccogliere il consenso al trattamento automatizzato e alla profilazione
  4. determinare la base giuridica
  5. valutare l’impatto che l’uso dell’IA esercita sugli individui (DPIA)
  6. dare prospetto compiuto e completo del funzionamento della tecnologia, per individuarne i criteri di ragionamento (ed eventualmente anche alcuni bias di partenza)
  7. intervenire nel caso in cui si presentino possibili occasioni di violazione dei diritti degli interessati
  8. comunicare e informare in caso di data breach[18].

Il divieto generale alla decisione integralmente automatizzata non opera nei seguenti casi: a) è necessaria per la conclusione o l’esecuzione di un contratto; b) è autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che deve adottare altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato; c) si basa sul consenso esplicito dell’interessato. Inoltre, il successivo articolo 23 del GDPR introduce la possibilità per gli stati membri di limitare la portata dei diritti, se tale misura sia proporzionata e necessaria per salvaguardare, ad esempioun rilevante interesse economico o finanziario dell’Unione o di uno Stato membro“.

In relazione al punto 6 sopra ricordato, ovvero alla necessità di conoscere il funzionamento dell’algoritmo da parte dell’interessato, si ricorda quanto avvenuto in Italia in merito all’impugnazione di un provvedimento di assunzione di insegnanti di scuola superiore di secondo grado. Tale provvedimento scaturiva, infatti, da una procedura interamente gestita da un sistema informatico per mezzo di un algoritmo; tuttavia, l’algoritmo non era stato precedentemente portato a conoscenza degli interessati. Il Consiglio di Stato – con sentenza 8 aprile 2019 n. 2270[19] – ha accolto l’appello annullando il provvedimento.

2.3 Articolo 8 del Decreto legislativo 51/2018

Il Decreto legislativo del 21 maggio 2018, n. 51[20], recepisce la Direttiva 680/2016, adottata il 27 aprile 2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali. Il decreto si compone di cinquanta articoli, suddivisi in otto capi, dedicati a specifici aspetti della materia, che rinviano al Regolamento (UE) 2016/679 nelle parti il cui contenuto risulta coincidente con la direttiva. Il Decreto legislativo 51/2018 ha un doppio obiettivo: innanzitutto, intende tutelare i diritti e le libertà fondamentali delle persone fisiche, con particolare riferimento alla protezione dei dati personali; inoltre, assicura che lo scambio dei dati personali non sia limitato o vietato per motivi legati al trattamento dei dati personali, qualora tali dati siano richiesti dal diritto dell’Unione o da quello di uno Stato membro.

Infine, il decreto stabilisce alcuni limiti:

  • non sono consentiti trattamenti automatizzati di dati personali se minacciano di pregiudicare l’identità personale di un cittadino;
  • è obbligatorio mantenere distinti i dati personali che discendono da fatti, da quelli che, invece, rappresentano semplici deduzioni;
  • forte concentrazione in merito alla correttezza dei dati trattati ed alla sicurezza dei sistemi;
  • obbligo di denunciare alle Autorità di tutela della privacy ogni violazione dei database.

3. Diverse possibili applicazioni nell’ambito del diritto penale

Le possibili applicazioni dell’intelligenza artificiale nell’ambito del diritto penale sono disparate e hanno diversi livelli di pervasività e di problematicità dal punto di vista etico.

3.1 L’intelligenza artificiale e il law enforcement

Il law enforcement è un concetto che si traduce con l’applicazione di legge. Questo si riferisce a qualsiasi sistema attraverso il quale alcuni (in genere soggetti individuati e autorizzati) agiscono in modo organizzato per dare attuazione alla legge[21]. Si tratta, in genere, di macchine robotiche, non necessariamente umanoidi, utilizzate per una varietà di compiti, come ad esempio attività di pattugliamento, sorveglianza, disinnesco di bombe, individuazione di atteggiamenti sospetti, riconoscimento facciale… In merito a tali applicazioni, è lecito chiedersi quanto sia ampio il livello di autonomia delle macchine nello svolgimento delle funzioni predette. Inoltre, queste applicazioni utilizzano e immagazzinano un elevato numero dei dati in relazione ai quali potrebbe porsi un problema di privacy. Infine, quando queste applicazioni sono in qualche modo equipaggiate di oggetti atti ad offendere, come teaser, a chi è imputabile la responsabilità nei casi di un non corretto utilizzo degli stessi?

Rientrano in tale categoria anche gli strumenti di “polizia predittiva[22]” che attraverso l’applicazione di metodi statistici hanno l’obiettivi di predire chi commetterà un reato. I software di polizia predittiva si distinguono principalmente in due grandi categorie: quelli che sono volti ad individuare le cosiddette “zone calde” (hotspots), ovvero i possibili luoghi che potranno essere lo scenario di determinati reati; quelli che, ispirandosi invece all’idea del crime linking, seguono le serialità criminali di determinati soggetti (individuati o ancora da individuare), per prevedere dove e quando costoro commetteranno il prossimo reato.

L’uso di questo tipo di strumenti non è sicuramente scevro di problemi; si pensi a tale proposito che non risulta questo sia stato in qualche maniera regolato da parte di alcun Paese. Inoltre, è abbastanza noto come tali software soffrano di una certa inclinazione ad individuare fattori di rischio in alcune caratteristiche etniche, religiose o sociali[23]. Infine, questi sistemi sembrano chiudersi in una sorta di “circolo vizioso” per cui in una certa misura si alimentano con i dati prodotti dal loro stesso utilizzo.

3.2 La decisione giudiziale e gli automated decision systems

Un’ulteriore modalità di utilizzo degli strumenti di intelligenza artificiale è costituita dai cosiddetti automated decision systems al fine di tentare la composizione di liti, ma anche di prevenirle e di risolvere le controversie[24]. I sistemi automatizzati per le decisioni si basano su la capacità di analizzare un’enorme quantità di dati e sull’aver ormai predisposto dei dispositivi in grado di usare la teoria dei giochi, l’analisi dei risultati positivi e le strategie di negoziazione per risolvere le questioni. Seppure questo tipo di prodotti siano utilizzati prevalentemente nelle controversie civili, non è sfuggito alla Commissione europea il rischio collegato all’utilizzo di questi sistemi in ambito penale. La Commissione, infatti, nella già citata Carta Etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari e nei loro ambienti ha messo in guardia sul fatto che “anche se non sono specificamente progettati per essere discriminatori, l’uso di algoritmi basati sull’IA […] ha mostrato il rischio di favorire la rinascita di teorie deterministiche a scapito delle teorie dell’individualizzazione della pena”.

Ma oltre alle problematiche collegate alla discriminazione, ci sono altre questioni che alcuni studiosi[25] hanno messo in evidenza e sono: il fatto che il mezzo di prova usato più frequentemente nel processo penale per l’accertamento dei fatti è la testimonianza ed un computer non riuscirebbe a giudicare se questa sia vera oppure falsa o ancora reticente; inoltre, i criteri di valutazione delle prove sono diversi e non predeterminati, e questo, specialmente in un processo indiziario, rendere ancora più complicato per un algoritmo stabilire se si tratti di indizi “gravi, precisi e concordanti” ai sensi dell’art. art. 192, comma 2, c.p.p.; infine, non sembra possibile richiedere ad un computer, o ad un algoritmo, di applicare la regola basata sull’“oltre ogni ragionevole dubbio”[26].

3.3 Gli algoritmi predittivi

È possibile predire la possibilità che un determinato individuo, avente delle specifiche caratteristiche, commetta un reato o anche reiteri un reato? Dalla domanda sembrerebbe che stiamo tornando alle teorie di Lombroso, tuttavia se un algoritmo fosse in grado di fornire con accuratezza un tale livello di previsione questo avrebbe degli sviluppi di alleggerimento dell’intero sistema giudiziario. Infatti, l’algoritmo consentirebbe di applicare automaticamente delle misure di sicurezza, le misure cautelari e quelle di prevenzione; inoltre potrebbe trovare un’applicazione per concedere la sospensione condizionale di una pena o l’affidamento in prova al servizio sociale. Allo stato attuale il nostro sistema giudiziario affida questo tipo di valutazioni ai giudici, i quali decidono sulla base della loro esperienza o grazie al supporto di perizie di esperti. Tuttavia, una  branca dell’intelligenza artificiale si sta adoperando al fine di sviluppare degli algoritmi (risk assessment tools, o algoritmi predittivi) che siano in grado di effettuare tali valutazioni.

Rientrano in tale categoria di strumenti le valutazioni “attuariali” della pericolosità criminale[27], che predicono la pericolosità criminale attraverso l’analisi di una serie di fattori di rischio (o predittori) direttamente coinvolti nel comportamento criminoso[28]. Tuttavia, il caso più emblematico di questo tipo di prodotti dell’intelligenza artificiale è il COMPAS – Correctional Offender Management Profiling for Alternative Sanctions, ampiamente utilizzato negli USA. Gli studi in merito alla reale capacità predittiva di tali strumenti non sono mancati, ma tuttavia una reale indagine sconta la difficoltà di accedere ai dati circa il reale funzionamento dell’algoritmo, coperto da proprietà intellettuale a cui si aggiunge un effetto di black box algorithms[29].

4. Gli strumenti di intelligenza artificiale che “commettono reati”

Infine, consideriamo i casi di interazione tra diritto penale e intelligenza artificiale non perché quest’ultima possa essere utilizzata ai fini di una semplificazione ed efficientamento del procedimento ma perché lo strumento di intelligenza artificiale si potrebbe rendere protagonista nella commissione di un reato. Un aspetto problematico finora non considerato nei casi di impiego dell’intelligenza artificiale può verificarsi qualora gli strumenti dell’IA finiscano per “commettere dei reati”. La stessa locuzione deve essere mantenuta tra virgolette perché sono soggette alla responsabilità penale[30] le persone fisiche, ma in questo caso qual è la persona fisica che dovrebbe essere perseguita? Quelli che un tempo erano scenari quasi fantascientifici, ad oggi rappresentano problemi di forte attualità in grado, in ultima analisi, di mettere potenzialmente a dura prova il sistema giudiziario vigente.

Uno strumento di intelligenza artificiale potrebbe essere utilizzato, in questo caso sotto il controllo di un umano, per commettere un reato. Si pensi ad esempio a quanto avveniva con il bagarinaggio on line: alcuni soggetti, grazie all’utilizzo di bot, acquistavano una gran quantità di biglietti, ad una velocità che non era comparabile a quella di qualsiasi umano, e poi li rivendevano on line ad un prezzo maggiorato. È evidente la necessità di individuare nuove fattispecie di reato che possano essere applicate in casi di condotte criminose attraverso gli strumenti dell’intelligenza artificiale.

In fondo l’ipotesi sopra riportata è l’eventualità più semplice da risolvere, ma cosa succede se invece ci troviamo di fronte ad un sistema di intelligenza artificiale, basato sull’apprendimento e con un discreto livello di autonomia, che commette un reato[31]? Che fine fa il principio del “machina delinquere non potest[32]? Non avrebbe senso parlare di responsabilità né morale né giuridica della macchina, dal momento che questa è priva di coscienza e di intenzionalità delle proprie azioni, priva della capacità di determinarsi diversamente. Né essa potrebbe mai sensatamente essere rimproverata per un fatto da lei materialmente cagionato, perché al contrario dell’uomo non è libera ma determinata. Ma con l’intelligenza artificiale e negli algoritmi complessi la struttura non è completamente etero-determinata, non sono più integralmente preimpostati, chiusi e i non suscettibili di cambiamenti, ma sono aperti ad auto-modifiche strutturali, determinate dall’esperienza della macchina. La macchina “ricorda” il passato, apprende dal proprio “vissuto” – grazie al machine learning – e modifica il proprio comportamento di conseguenza, adattandolo così ai nuovi stimoli nel frattempo ricevuti. Addirittura, in molti casi l’intelligenza artificiale non si limita ad apprendere dalla propria esperienza, ma, come succede in un gruppo di pari, impara dall’esperienza dei propri simili, mediante il ricorso alle tecnologie di cloud computing.

Sembra un futuro lontano nel tempo, ma non lo è: abbiamo già visto le macchine a guida autonoma[33], i droni da combattimento non teleguidati[34]; i robot chirurghi.

In questo campo è impossibile non citare il lavoro di Gabriel Hallevy, un penalista israeliano che si è occupato a lungo del problema dei rapporti tra diritto penale e intelligenza artificiale[35], secondo cui non vi sono dei veri e propri argomenti validi da spendere contro la già attuale perseguibilità e punibilità di soggetti artificiali intelligenti, quali robot chirurghi, droni autonomi o self-driving cars.

Ma se i sistemi di intelligenza artificiale, almeno secondo alcuni studiosi, possono essere responsabili di reati, ne possono anche subire[36]. Si apre qui un ulteriore campo di indagine per il diritto penale: l’intelligenza artificiale può essere vittima di reato?

5. Conclusioni

Rimane difficile parlare di conclusioni nel momento in cui ci si accorge di aver appena iniziato ad intraprendere un cammino. Molte strade sono aperte, molte discussioni sono da approfondire e molte modifiche (anche sostanziali) rimangono da apportare. Come detto in premessa, tuttavia, il lavoro senza alcuna pretesa di esaustività o di approfondimento voleva offrire un quadro delle applicazioni e dei problemi collegati all’utilizzo delle tecnologie dell’intelligenza artificiale all’interno delle questioni riguardanti il diritto penale.

 

[1] Con “Macchina di Turing” si intende una classe di macchine calcolatrici astratte, che consistono in un nastro infinito e in un’unità di calcolo con un numero finito di stati interni. L’unità di calcolo può leggere e scrivere in una casella del nastro, e spostarsi di una casella, a destra o a sinistra, lungo il nastro. L’operazione successiva viene determinata dallo stato attuale e dal simbolo letto. Previa scelta di un codice adeguato per l’interpretazione dei simboli, dunque, tali macchine possono effettuare calcoli numerici (A. Turing, Sui numeri computabili con un’applicazione al problema della decisione, 1936).

[2] Alain Turing, Macchine calcolatrici e intelligenza, in V. Somenzi (a cura di), La filosofia degli automi, Bollati Boringhieri, Torino 1965.

[3] Un uomo, chiuso in una stanza, pone delle domande, attraverso una tastiera remota, a un calcolatore. Se l’uomo non riesce a capire se dall’altra parte della stanza le risposte gli vengono fornite da un essere umano o una macchina, allora siamo in presenza di un calcolatore intelligente.

[4] Scienziato informatico di Stanford e figura di primo piano nel campo dell’intelligenza artificiale. È considerato uno dei fondatori dell’intelligenza artificiale come campo di studi e ha coniato il termine “intelligenza artificiale”. Ha sviluppato il linguaggio Lisp, comunemente utilizzato per la programmazione dell’intelligenza artificiale.

[5] M. Somalvico, F. Amigoni e V. Schiaffonati Intelligenza artificiale, Enciclopedia della Scienza e della Tecnica.

[6] Draft Ethics guidelines for trustworthy AI, pubblicato dalla Commissione Europea il 18 dicembre 2018.

[7]La proposta “Fundamentally Understanding the Usability and Realistic Evolution of Artificial Intelligence Act of 2017” propone la seguente definizione “any artificial systems that perform tasks under varying and unpredictable circumstances, without significant human oversight, or that can learn from their experience and improve their performance (…)”

[8] J. Searle, Menti, cervelli e programmi: un dibattito sull’intelligenza artificiale, Graziella Tonfoni editore, 1984 (prima edizione).

[9]La differenza attuale fra cervello umano e computer è che il cervello compie più operazioni contemporaneamente, il computer esegue più velocemente le operazioni l’una dopo l’altra. Se si riuscirà a fare un sistema che operi in parallelo alla velocità dei computer, si potranno avere sviluppi impensati, dai risultati dei pensieri al modo stesso di percepire lo spazio e il tempo” da “Intelligenza artificiale forte e debole” di Umberto Santucci.

[10] ww.researchandmarkets.com/research/q9glsv/global_artificial?w=5

[11] Il testo integrale in lingua inglese e francese (non risulta ancora disponibile una traduzione in lingua italiana) è reperibile sul sito https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c

[12] La locuzione soft law, prestito non adattato dall’inglese, indica nel linguaggio giuridico norme prive di efficacia vincolante diretta.

[13] Si tratta della Convezione di Strasburgo sulla Protezione degli individui rispetto al trattamento dei dati a carattere personale, detta anche Convenzione 108, adottata dal Consiglio d’Europa nel 1981 e sottoposta da ultimo a revisione e modernizzazione (c.d. Convenzione 108+) il 18 maggio 2018. L’Italia ha ratificato il Protocollo di modifica il 5 marzo 2019.

[14] Supreme Court of Wisconsin, State of Wisconsin v. Eric L. Loomis, Case no. 2015AP157-CR, 5 April – 13 July 2016: il testo è reperibile in https://caselaw.findlaw.com/wi-supreme-court/1742124.html.

[15] A cui si aggiungono le Linee guida WP 251 del 3 ottobre 2017 (emendata il 6 febbraio 2018) sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione elaborate dal Comitato Europeo per la protezione dei dati personali (Working Party art. 29)

[16] https://www.altalex.com/documents/news/2018/04/12/articolo-22-gdpr-processo-decisionale-automatizzato-compresa-la-profilazione

[17] L’articolo 4 del GDPR, Definizioni, fornisce la seguente definizione del concetto di profilazione: “qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica”.

[18] Per data breach, nella versione italiana violazione dei dati personali si intende la violazione di sicurezza che comporta accidentalmente o in modo illecito la distruzione, la perdita, la modifica, la divulgazione non autorizzata o l’accesso ai dati personali trasmessi, conservati o comunque trattati. Sempre secondo il GDPR, la notifica di eventuali violazioni di dati dovrà avvenire possibilmente senza ingiustificato ritardo e, ove possibile, entro 72 ore, dal momento in cui si è venuto a conoscenza della violazione, a meno che sia improbabile che la violazione dei dati personali presenti un rischio per i diritti e le libertà delle persone fisiche. L’eventuale ritardo dovrà essere motivato.

[19] https://www.giustizia-amministrativa.it/portale/pages/istituzionale/visualizza/?nodeRef=&schema=cds&nrg=201704477&nomeFile=201902270_11.html&subDir=Provvedimenti

[20] https://www.gazzettaufficiale.it/eli/id/2018/05/24/18G00080/sg

[21] Con il termine law enforcement in genere ci si riferisce al sistema di tribunali e prigioni, personale impiegato in pattuglie.

[22] C. Cath, S. Wachter, B. Mittelstadt, M. Taddeo, L. Floridi, Artificial Intelligence and the “Good Society”: the US, EU, and UK approach, in Science and Eng. Ethics, 2018.; L. Bennet Moses, J. Chan, Algorithmic Prediction in Policing: Assumptions, Evaluation, and Accountability, in Policing and Society, 2016; G. Mastrobuoni, Crime is Terribly Revealing: Information Technology and Police Productivity, 2017;

[23] L. Pasculli, Genetics, Robotics and Crime Prevention e R. Pelliccia, Polizia predittiva, Human Rights Data Analysis Group (Hrdag), https://hrdag.org/usa/.

[24] A.R. Lodder, J. Zeleznikow, Artificial Intelligence and Online Dispute Resolution, in A.R. Lodder, J. Zeleznikow, Enhaced Dispute Resolution through the Use of Information Technology, Cambridge University Press, 2010, E. Latifah, A.H. Bajrektarevic, M.N. Imanullah, Digital Justice in Online Dispute Resolution: The Shifting from Traditional to the New Generation of Dispute Resolution, in Brawijaya Law Journal – Journal of Legal Studies, vol. 6, aprile 2019.

[25] A. Traversi, Intelligenza artificiale applicata alla giustizia, 2005.

[26]26 S. Gaboriau, Libertà e umanità del giudice: due valori fondamentali della giustizia. La giustizia digitale può garantire nel tempo la fedeltà a questi valori?, in Questione Giustizia, fasc. 4, 2018.

[27] G. Zara, Tra il probabile e il certo. La valutazione del rischi di violenza e di recidiva criminale, in Diritto penale contemporaneo, 20 maggio 2016.

[28] L. Castelletti, G. Rivellini, E. Straticò, Efficacia predittiva degli strumenti di Violence Risk Assessment e possibili ambiti applicativi nella psichiatria forense e generale italiana, in Journal of Psychopathology, 2014; G. Rocca, C. Candelli, I. Rossetto, F. Carabellese, La valutazione psichiatrico forense della pericolosità sociale del sofferente psichico autore di reato: nuove prospettive tra indagine clinica e sistemi attuariali, in Rivista Italiana di Medicina Legale (e del Diritto in campo sanitario), n. 4, 2012.

[29] Si parla talvolta di black box algorithms per indicare come tra i dati di input e i comportamenti tenuti come output vi sia un’opacità, un vuoto di comprensione da parte dell’osservatore umano esterno, che fa sì appunto che le condotte di queste intelligenze artificiali siano gravate, in un’ottica a priori, da un ineliminabile margine di imponderabilità.

[30] C. Bagnoli, Teoria della responsabilità, 2019.

[31] U. Pagallo, S. Quattrocolo, The impact of AI on criminal law, and its two fold procedures, in W. Barfield, U. Pagallo (a cura di), Research Handbook on the Law of Artificial Intelligence, Edward Elgar Pub, 2018; D. Lima, Could AI Agents Be Held Criminally Liable? Artificial Intelligence and the Challanges for Criminal Law, in South Carolina Law Review, 2018; T. King, N. Aggarwal, M. Taddeo, L. Floridi, Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions, in Science and Engineering Ethics, 2019; S. Gleß, E. Silverman, T. Weigend, If robots cause harm, who is to blame? Self-driving cars and criminal liability, in New Criminal Law Review, 2016; P. Asaro, A body to Kick, but Still No Soul to Damn: Legal Perspectives on Robotics, in P. Lin, K. Abney, G.A. Bekey (a cura di), Robot Ethics, MIT Press, 2012.

[32] Le macchine, in quanto tali e non species del genus di “cosa inanimata”, non possono essere perseguite e punite per fatti di reato.

[33] D. Gurney, Driving into the Unknown: Examining the Crossroads of Criminal Law and Autonomous Vehicles, in Wake Forest Journal of Law & Policy, 2015; Westbrook, The Google Made Me Do It: The Complexity of Criminal Liability in the Age of Autonomous Vehicles, in Michigan State Law Review, 2017.

[34] P. Asaro, The labor of surveillance and bureaucratized killing: new subjectivities of military drone operators, in Social Semiotics, 2013.

[35] G. Hallevy, The Criminal Liability of Artificial Intelligence Entities – from Science Fiction to Legal Social Control, in Akron Intellectual Property Journal, 2010; “I, Robot – I, Criminal”–– When Science Fiction Becomes Reality: Legal Liability of AI Robots committing Criminal Offences, in Syracuse Science & Technology Law Reporter, 2010; Virtual Criminal Responsibility, in Original Law Review, 2010; Dangerous Robots – Artificial Intelligence vs. Human Intelligence; Unmanned Vehicles: Subordination to Criminal Law under the Modern Concept of Criminal Liability, in Journal of Law, Information and Science, 2012. When Robots Kill. Artificial Intelligence under Criminal Law, Boston, 2013; Liability for Crimes Involving Artificial Intelligence Systems, Springer (Dordrecht), 2015.

[36] S. Riondato, Robotica e diritto penale (robot, ibridi, chimere, “animali tecnologici”), in D. Provolo, S. Riondato, F. Yenisey (a cura di), Genetics, Robotics, Law, Punishment.

Lascia un commento