lunedì, Aprile 29, 2024
Uncategorized

Intelligenza Artificiale e responsabilità per danno da agente intelligente

 Intelligenza Artificiale e responsabilità per danno da agente intelligente

a cura di Antonella Di Cerbo

 

1) Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno;

2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge;

3) Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

Le tre leggi della robotica di Isaac Asimov

 

Lo sviluppo delle nuove tecnologie, in particolare dei dispositivi dotati di intelligenza artificiale, sta ponendo alla società problemi inediti. Uno dei maggiori rischi legati alle intelligenze artificiali è che, in assenza di un definito inquadramento giuridico, qualora si verifichi un pregiudizio a danno del fruitore del dispositivo intelligente ovvero di un terzo, non vi sia un soggetto giuridicamente responsabile chiamato a rispondere dei danni stessi[1].

Il presente lavoro mira a ripercorrere le disquisizioni dottrinali degli ultimi anni in materia di intelligenza artificiale, a partire dalla discussa qualificazione degli agenti digitali quali soggetti giuridici dotati di personalità elettronica, passibili di azioni volte a riparare i danni causati da decisioni ed azioni adottate autonomamente. Le questioni aperte in materia di intelligenza artificiale riguardano, come anticipato, anche i profili di responsabilità, stante l’acclarata inadeguatezza della disciplina per danno da prodotti difettosi contenuta nella Direttiva 85/374, unico strumento normativo di cui ad oggi disponiamo. In tal senso, in seno alla Commissione Europea, è stato istituito un gruppo di esperti sulle responsabilità e le nuove tecnologie con il compito di fornire consulenza all’organo esecutivo dell’Unione in merito all’applicabilità della Direttiva sulla responsabilità per danno da prodotti difettosi e delle norme nazionali in materia di responsabilità civile e di sostenerla nell’elaborazione di orientamenti per possibili adeguamenti della normativa applicabile in relazione alle nuove tecnologie.1[2]

Lo European Robotic Technology Platform (EUROP) ha classificato i robot in tre categorie: i robot tele- operati, completamente eterodiretti e controllati dall’uomo; i robot autonomi capaci di svolgere un compito senza l’intervento dell’uomo ma secondo regole da questo definite; i robot di self learning capaci di autoprogrammarsi, di apprendere dai dati esperienziali raccolti e di adottare e mettere in atto delle decisioni indipendentemente da influenze esterne. Si tratta di sistemi intelligenti che sfuggono al controllo degli sviluppatori e degli utilizzatori ed il cui futuro comportamento si discosta considerevolmente dalle loro aspettative.

La complessità di tali dispositivi, ben distanti da quelli convenzionali, ha messo in tensione gli attuali modelli di responsabilità e diviso la dottrina tra chi accoglie la possibilità di ridefinire lo status privatistico degli agenti elettronici capaci di elaborare decisioni autonome e chi lo esclude.

L‘attribuzione della personalità giuridica ai dispositivi di IA, peraltro presa in considerazione in un    primo momento dal Parlamento europeo nell’ambito della risoluzione del 2017[3] concernente norme di diritto civile sulla robotica, è esclusa da centinaia di esperti che hanno elencato le ragioni del loro dissenso in una open letter[4]  indirizzata all’esecutivo europeo.

 Secondo il gruppo di esperti “si avverte una sopravvalutazione delle capacità reali anche dei robot   più avanzati, una comprensione superficiale dell’imprevedibilità e delle capacità di autoapprendimento e una percezione dei robot distorta dalla fantascienza e da alcuni recenti annunci sensazionalistici della stampa”. Mentre, da un punto di vista etico e legale, l’attribuzione della personalità giuridica agli agenti intelligenti si porrebbe in contrasto con gli attuali modelli di status giuridico. Invero, l’innovativo status giuridico degli agenti intelligenti non sarebbe sovrapponibile né a quello della persona naturale, poiché è escluso che possa essere titolare di diritti umani, né potrebbe derivare dai modelli della persona giuridica o del Trust anglosassone, in quanto questi richiedono, rispettivamente, l’esistenza di una pluralità di persone fisiche o di un complesso di beni e l’esistenza di un trustee responsabile della gestione del robot concesso.

La dottrina che invece propende per il riconoscimento di un nuovo status giuridico per i robot teorizza la creazione di un patrimonio dedicato o di un fondo assicurativo che consenta agli agenti intelligenti ritenuti responsabili di rispondere dei danni causati dalla loro condotta[5].

Tra le tesi dottrinali in materia si segnala la teoria della soggettività giuridica parziale degli agenti software formulata da Teubner[6]. Il giurista tedesco, partendo dalla tripartizione dei rischi digitali in autonomia, associazione e interconnessione e dalla radicata convinzione che al centro della dogmatica operino la giustizia ed il principio di eguaglianza, propone di considerare l’agente software come un ausiliario del dominus principale e di imputare a quest’ultimo le conseguenze nefaste dell’operato della macchina, anche quando essa non è colpevole di alcuna negligenza. Quest’ultimo inquadramento rimarca quanto previsto dal nostro codice civile in materia di responsabilità per fatto degli ausiliari di cui all’art. 1228 che recita “salva diversa volontà delle parti, il debitore che nell’adempimento dell’obbligazione si avvale dell’opera di terzi, risponde anche dei fatti dolosi o colposi di costoro”. Dunque, il dominus principale, al pari del debitore, risponderebbe della condotta del dispositivo intelligente per il solo fatto di essersi avvalso della sua opera, come avrebbe risposto qualora l’esecuzione della prestazione fosse stata affidata ad un uomo.

La Commissione giuridica Juri del Parlamento Europeo è recentemente intervenuta sulla qualificazione del regime di responsabilità in caso di danno causato da un dispositivo intelligente ipotizzando due diversi regimi calibrati sulla base del grado di automazione del sistema[7].

Un regime assicurativo obbligatorio e una responsabilità oggettiva dell’operatore in caso di eventuali danni o pregiudizi causati da un’attività, dispositivo o processo fisico o virtuale guidato dal sistema di IA, garantirebbero che la vittima sia sempre risarcita, indipendentemente dalla colpa ed al di là delle intenzioni del sistema intelligente. La definizione europea di operatore consentirebbe di qualificare come tale anche chi non esercita un controllo sul rischio associato all’utilizzo del sistema intelligente[8]. Tale regime troverebbe applicazione per i settori critici, puntualmente individuati in un elenco sottoposto ad aggiornamento semestrale, in cui l’attività posta in essere esponga la generalità dei consociati a pregiudizi talmente gravi da rendere inaccettabile la mancata previsione, ex ante, di un responsabile. Per le tecnologie di IA ad “alto rischio” la Commissione Europea ha inoltre proposto di istituire una valutazione preliminare per verificarne, prima della loro immissione nel mercato interno dell’UE, la conformità con una serie di requisiti (ossia solidità, precisione e riproducibilità, governance dei dati, responsabilità, trasparenza e sorveglianza umana).[9] Analogamente, la responsabilità oggettiva si applicherebbe ai sistemi di IA che causino incidenti ripetuti e che producano gravi danni o pregiudizi, anche se non classificati come ad alto rischio.

I sistemi di IA non inseriti in questi elenchi, tendenzialmente caratterizzati da un grado di automazione non particolarmente elevato, rimarrebbero soggetti ad un regime di responsabilità per colpa. Sotto il profilo probatorio, l’operatore avrà l’onere di dimostrare di aver adottato tutte le misure necessarie per prevenire ed evitare il rischio e di non aver disposto del sistema indebitamente. La condotta dell’utilizzatore assume rilievo laddove ignori gli avvertimenti e le istruzioni del produttore e, più in generale, nell’ambito dei sistemi aperti in cui gli è affidato un certo grado di controllo, anche per ciò che concerne la modifica delle condizioni di rischio del dispositivo attraverso update, servizi o prodotti offerti da soggetti diversi rispetto al produttore originario. Ad esempio l’aggiornamento del software può portare ad una modifica sostanziale del sistema intelligente che potrebbe, addirittura, essere considerato un nuovo prodotto. In tali casi la responsabilità del produttore sarebbe senza dubbio da escludere in quanto eccessiva ed ingiustificata. Si tratterebbe infatti di rischi estranei alla sua sfera di controllo.

Alla luce delle dichiarazioni del legislativo europeo, il nuovo regime di responsabilità civile dovrebbe coprire il danno alla vita, alla salute, all’integrità fisica e al patrimonio e il danno immateriale significativo che causa una perdita economica verificabile. Il diritto dell’UE dovrebbe stabilire l’importo e l’entità del risarcimento, nonché i termini di prescrizione per intentare un’azione legale per responsabilità civile.

Rimangono tuttavia ancora poco chiari, ad avviso della scrivente, i criteri in base ai quali identificare l’operatore. L’opacità e la complessità dei sistemi, così come la pluralità di attori coinvolti nella realizzazione, nell’utilizzo e nell’aggiornamento del prodotto, possono rendere davvero complicato l’accertamento dell’origine del danno e del soggetto responsabile. A ciò si aggiunga che, talvolta, per dimostrare il nesso di casualità tra l’impiego del dispositivo ed il danno, potrebbero essere necessarie specifiche capacità tecniche idonee a comprendere il funzionamento dell’algoritmo, nonché la collaborazione del potenziale soggetto responsabile per accedere ai dati utilizzati dall’intelligenza       artificiale.

Per fronteggiare queste fisiologiche difficoltà si ritiene che dovrebbero essere preferiti quei regimi probatori che rendano agevole fornire la prova del danno per il danneggiato o, persino, l’inversione dell’onere della prova.

A livello nazionale ed europeo non esiste un diritto positivo che disciplini l’impiego dei sistemi di intelligenza artificiale; la proposta di regolamento è ancora in fase embrionale e l’attuale tendenza è di ampliare la definizione di “prodotto” di cui alla Direttiva 85/374 sino a ricomprendere gli automi. Al di là delle rigide interpretazioni dottrinali circa la nozione di prodotto, secondo molti non idonea a ricomprende il software specie se non incorporato in quest’ultimo, resta problematico stabilire quando un difetto legato ai processi, automatici e sottratti al controllo umano di sistemi di self learning, possa essere imputabile al produttore. Come ha sostenuto la Commissione si tratta di sapere a quali condizioni le caratteristiche di autoapprendimento prolungano la responsabilità del produttore e in quale misura il   produttore dovrebbe essere in grado di prevedere alcune modifiche5.

Nei casi in cui gli esiti dell’impiego dei sistemi di intelligenza artificiale non possono essere pienamente predeterminati mediante una valutazione del rischio effettuata dal fabbricante, si potrebbe prevedere l’obbligo di una nuova valutazione dei rischi del prodotto6, vale a dire obblighi di verifica specifici che incombono sul produttore per tutto il ciclo di vita dei sistemi di intelligenza artificiale.

Il tema della responsabilità giuridica degli agenti software intelligenti full automation è imponente e ancora tutto da affrontare. Il diritto è chiamato a rispondere a questa nuova sfida tenendo stretta quella capacità regolativa della società che lo ha reso motore e tutore della stessa. L’esistenza di un libro bianco   sull’IA e i frequenti dibattiti dottrinali in materia appaiono un buon punto di partenza ma è necessario fare di più e farlo in fretta, cercando di massimizzare le opportunità dei cittadini dell’UE di beneficiare di tali tecnologie limitandone al contempo i rischi[10].

[1] M. Chiriatti, “Incoscienza artificiale”, 2021.

[2] European Commission – Expert Group on liability and new technologies, 9 marzo 2018 http://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupDetail&groupID=3592&NewSearch=1&NewSearch=1 .

[3] Risoluzione del Parlamento Europeo del 16 Febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2013 INL) https://eur-lex.europa.eu/legal-content/IT/ALL/?uri=CELEX%3A52017IP0051 – Risoluzione recante raccomandazioni alla Commissione su un regime di responsabilità civile sull’intelligenza artificiale, Bruxelles, Parlamento Europeo, 2020.

[4] Robotics – Over 150 experts in AI, robotics, commerce, law, and ethics from 14 countries – Open letter to the European Commission Artificial Intelligence and Robotic, 2018  http://www.robotics-openletter.eu/

[5] D. Imbruglia, L’intelligenza artificiale e le regole, Rivista MediaLaws, 2020 https://www.medialaws.eu/rivista/lintelligenza-artificiale-ia-e-le-regole-appunti/

[6] G. Teubner, “Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi”, 2019.

[7] U. Salantrino, “Intelligenza artificiale e responsabilità: la strategia della Commissione Europea”, 2020.

[8] C. Laenza, “Intelligenza artificiale e diritto: ipotesi di responsabilità civile nel terzo millennio”, 2021.

[9] Parlamento europeo, Un quadro per l‘intelligenza artificiale – Plenaria, Ottobre 2020 https://www.europarl.europa.eu/RegData/etudes/ATAG/2020/659282/EPRS_ATA(2020)659282_IT.pdf

[10] S. Wachter – B. Mittelstadt – L. Floridi, Transparent, Explainable, and Accountable AI for Robotics, 2017.

Lascia un commento