mercoledì, Aprile 17, 2024
Criminal & Compliance

Robot e responsabilità penale: prospettive attuali e future

Erano gli anni ’40 quando, dalla mente di Isaac Asimov, nacquero le tre leggi della robotica. Nonostante risultasse chiaro che l’enunciazione e i destinatari di questi precetti costituivano pura fantascienza, aleggiava però in alcune menti dell’epoca la consapevolezza che, in un lontano futuro, si sarebbero rivelate necessarie. Quel futuro sembra stare arrivando: già da alcuni anni possiamo affermare che l’umanità si trova sulla soglia di una nuova rivoluzione industriale, in cui robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale (AI) sembrano esserne il fulcro.

Tra le aziende leader nel settore della robotica figura la Honda, che fin dagli anni ’80 ha realizzato molti prototipi di robot, l’ultimo dei quali, che non è più un prototipo, è ASIMO (Advanced Step in Innovative MObility) presentato nel luglio 2014. È alto 130 centimetri, pesa 50 kg, raggiunge i 9km/h correndo, salta, apre bottiglie e versa liquidi in un bicchiere. Ma ancora, l’intelligenza di ASIMO si è evoluta a tal punto che, riconoscendo l’ambiente circostante, capisce in che direzione andare per evitare ostacoli in movimento e non.

ASIMO è solo uno fra tanti esempi: l’Istituto italiano di tecnologia di Genova ha dato alla luce R1-your personal humanoid, un robot umanoide ideato per svolgere funzioni principalmente domestiche, che verrà commercializzato nel 2017; un altro made in Italy è il robot per il condominio, un portiere hi-tech con tanto di divisa, il cui prototipo è stato ideato dalla Scuola Superiore Sant’Anna di Pisa. La commercializzazione di quest’ultimo è prevista per il 2018.

Al di là dei progetti e degli impatti positivi che questi avranno sulle nostre vite, bisogna sottolineare, però, che il comportamento dei robot è imprevedibile, dal momento che alcune intelligenze artificiali sono programmate oltre che per svolgere precise funzioni e agire in determinati modi in dati momenti, anche per imparare autonomamente e per avere capacità decisionali.

Quali sono, quindi, le implicazioni etico-giuridiche in relazione alla possibilità di prevedere il comportamento della macchina? Chi produce o programma una macchina intelligente è in grado di prevederne i comportamenti una volta che questa ha iniziato ad apprendere dall’esperienza?

Dalla questione scaturiscono due problemi: il primo di tipo filosofico, relativo allo status ontologico di macchine molto evolute. Sono meri oggetti, o a queste deve essere riconosciuto un qualche livello di soggettività?

Il secondo involve sempre il riconoscimento della soggettività, ma questa volta a fini giuridici: la tecnologia ha creato un nuovo soggetto di diritto? Questi soggetti non-umani sono in grado manifestare un proprio agire?

A riguardo si segnalano due orientamenti: quello dell’Intelligenza Artificiale Forte, che ritiene che le macchine siano capaci di produrre pensieri autentici e processi intellettuali identici a quelli degli umani, non vi sarebbe alcuna differenza tra cervello umano e cervello elettronico; quello dell’Intelligenza Artificiale Debole, che sostiene la non autenticità del pensiero meccanico.

Profili di responsabilità penale

Da queste due visioni scaturiscono due concezioni opposte in merito alla responsabilità penale.

  1. Il robot inteso come nuovo soggetto (non-umano) di diritto penale, responsabile penalmente. Andrebbero pertanto ridefiniti tutti i concetti di capacità soggettiva, di azione, di colpevolezza; resta da chiarire anche se il robot possa essere “autore” di reati, e se sia in qualche modo rimproverabile. Insomma le attività svolte dal robot possono avere rilevanza penale?
  2. Il robot inteso come mero oggetto, e come tale non responsabile penalmente. Ci si pone a questo punto il problema della responsabilità del programmatore e fino a che punto gli sia imputabile posto che la macchina intelligente è capace di prendere autonome decisioni? Ma soprattutto che tipo di responsabilità? Secondo la teoria della immedesimazione organica si ragiona in termini di dolo, dal momento che l’azione “volontaria” dell’agente non-umano rappresenta una longa manus della persona umana. Oppure a titolo di colpa qualora vengano riscontrati errori nella programmazione, costruzione, manutenzione etc.

Questo tipo di interrogativi non sono affatto avveniristici. Il futuro di cui stiamo parlando è alle porte ed il moderno giurista non può farsi trovare impreparato difronte a questa imminente rivoluzione industriale e tecnologica.

In tal senso si pone la Risoluzione del Parlamento Europeo del 16 febbraio 2017, che pur fornendo indicazioni esclusivamente in ordine alla responsabilità civile per danni causati dai robot, offre spunti di riflessione anche per quanto concerne l’ambito penalistico.

Nel documento figura la possibilità di creare uno status giuridico ad hoc per quei robot che, come accennato sopra, hanno capacità cognitive. Il novero dei soggetti del diritto, persone fisiche e persone giuridiche, potrebbe quindi aprirsi ad un tertium genus: gli umanoidi.

La proposta non si occupa solo di robot (domestici e medici), ma anche di auto con pilota automatico e droni, consigliando, per quanto concerne la responsabilità civile, un’ipotesi di responsabilità oggettiva per la quale sarebbe necessario una prova del danno e un nesso causale tra il comportamento del robot e il danno causato.

Auspichiamo che questa iniziativa, assolutamente necessaria, ponga le basi per una regolamentazione unitaria ed uniforme in materia, nella speranza che almeno per una volta il diritto operi prevenendo, almeno in parte, e non inseguendo un progresso tecnologico sempre più veloce e dinamico.

Quanto al nostro ordinamento dobbiamo, infine, specificare che ad oggi un robot, per quanto riesca a simulare il ragionamento umano, resta una macchina per cui l’eventuale responsabilità va imputata al programmatore e/o dell’utilizzatore.

Il robot, per quanto capace di scegliere, segue delle linee tracciate da altri (chi lo ha programmato o chi ha dato l’ordine). Per riassumere lo stato attuale delle cose, basta dire che queste macchine mancano del libero arbitrio.

L’ipotesi di un reato commesso da un robot potrebbe essere paragonata alla fattispecie dall’art. 111 c.p.: “Chi ha determinato a commettere un reato una persona non imputabile, ovvero non punibile a cagione di una condizione o qualità personale, risponde del reato da questa commesso, […]”. Ovviamente però il principio di legalità non consente di estendere per analogia la disposizione in esame all’ipotesi di reato commesso da robot, dal momento che non è una persona.

In definitiva, non si nega che lo scenario sia quanto mai confusionario e “pericoloso”, ma al contrario di altre problematiche, questa sembra essere all’attenzione di tutti e proprio tale considerazione rende la materia affascinante ed altresì bisognosa di una attenta cornice giuridica, sia sul piano internazionale che, ma soprattutto, sul piano nazionale, visto anche il forte interesse in materia mostrato dagli istituti di robotica del nostro paese.

Simone Cedrola

Laureto in Giurisprudenza presso l'Università Federico II di Napoli nel luglio 2017 con una tesi in Procedura Civile. Collaboro con Ius in itinere fin dall'inizio (giugno 2016). Dapprima nell'area di Diritto Penale scrivendo principalmente di cybercrime e diritto penale dell'informatica. Poi, nel settembre 2017, sono diventato responsabile dell'area IP & IT e parte attiva del direttivo. Sono Vice direttore della Rivista, mantenendo sempre il mio ruolo di responsabile dell'area IP & IT. Gestisco inoltre i social media e tutta la parte tecnica del sito. Nel settembre 2018 ho ottenuto a pieni voti e con lode il titolo di LL.M. in Law of Internet Technology presso l'Università Bocconi. Da giugno 2018 a giugno 2019 ho lavorato da Google come Legal Trainee. Attualmente lavoro come Associate Lawyer nello studio legale Hogan Lovells e come Legal Secondee da Google (dal 2019). Per info o per collaborare: simone.cedrola@iusinitinere.it

Lascia un commento