lunedì, Ottobre 7, 2024
Uncategorized

La responsabilità civile dei robot: dalla Risoluzione del Parlamento Europeo all’articolo 2043 c.c.

robot

Il 26 ottobre 2017[1] l’Arabia Saudita ha concesso la cittadinanza onoraria a Sophia, un robot umanoide creato dalla compagnia di Hong Kong Hanson Robotics, dotato di intelligenza artificiale e in grado di dialogare, riconoscere le emozioni umane e rispondere in tempo reale, sorridendo e cambiando la propria espressione facciale.

Ormai, dunque, l’era dei robot intelligenti non sembra più essere così lontana e degna di essere relegata a film di fantascienza di seconda categoria.

L’Arabia Saudita non ha specificato in cosa consista il diritto di cittadinanza attribuito a Sophia, ma questo evento offre la possibilità di discutere del tema della personalità giuridica e della responsabilità civile dei robot, argomento più che mai attuale. Recentemente se ne è occupato anche il Parlamento Europeo nella Risoluzione in tema di norme di diritto civile sulla robotica, approvata il 16 febbraio 2017[2].

In accordo con il Parlamento Europeo, è necessario in primis creare una definizione pacifica e unitaria di robot e di intelligenza artificiale, e in seguito focalizzarsi sulla responsabilità civile per i possibili danni causati dai robot.

Il problema nell’affrontare l’istituto risiede nella difficoltà di raccordo e comunicazione tra robotica e norme giuridiche esistenti. Difatti, il nucleo di quella che è stata definita dal Parlamento UE come una rivoluzione industriale e sociale[3] consiste nella capacità dei robot di apprendere e agire sulla base dell’esperienza maturata. Una simile abilità li rende autonomi, in grado di comportarsi in modo non prevedibile dal costruttore, divenendo potenzialmente fonte di danno e, di conseguenza, destinatari di richieste risarcitorie.

Per questo motivo, l’abilità di apprendimento dei robot li rende sempre meno ascrivibili alla categoria di meri strumenti, macchine od oggetti nelle mani altrui, nonché sempre più lontani dalla possibilità di applicarvi l’istituto della responsabilità da prodotto o della responsabilità per azioni dannose[4]. La difficoltà nell’applicare queste due tipologie di responsabilità risiede, infatti, nell’impossibilità di attribuire ad un preciso soggetto tra il fabbricante, l’operatore, il proprietario o l’utilizzatore, la responsabilità per le azioni compiute in totale autonomia dal robot stesso. Piuttosto, la capacità di apprendere dall’esperienza e prendere decisioni indipendenti avvicina i robot alla nozione di agente, rendendo labile il confine, cardine del mondo giuridico, tra cose e persone[5].

Il Parlamento UE, nel tentativo di fornire spunti alla Commissione, dà spazio a differenti approcci alla questione della complessa attribuzione della responsabilità per danno causato da un robot: dall’applicazione degli istituti della responsabilità oggettiva, alla gestione dei rischi[6], all’istituzione di un regime di assicurazione obbligatorio[7] e, infine, l’istituzione di uno status giuridico ad hoc: la personalità elettronica, che permetta di ritenere i robot più sofisticati responsabili delle proprie azioni dannose.

Sarà poi la Commissione a decidere quali possano essere, nel lungo e nel breve termine, gli strumenti più adatti.

Rivolgendo lo sguardo al panorama italiano, una riflessione, seppur in questa sede necessariamente breve, alla responsabilità extracontrattuale è d’obbligo. I profili tradizionali della responsabilità, che in ogni sua forma mira all’identificazione di un soggetto che, avendo cagionato un danno, è tenuto a risarcirlo per riparare all’ingiusta lesione di un altrui diritto o interesse[8], difatti, vacillano qualora il soggetto agente sia rappresentato da un robot.

Ci si chiede se estendere il significato del termine “colui” dell’art. 2043 c.c. alle persone elettroniche sia sufficiente a risolvere la questione, o se piuttosto le norme attuali siano inadeguate alle necessità manifestate dalle nuove tecnologie. In quest’ultimo caso, sarebbe quindi opportuno creare nuovi istituti confacenti alle nuove realtà.

Al momento, come accade di consueto nelle questioni che coinvolgono diritto e nuove tecnologie, siamo posti davanti a  molte domande, ad alcune proposte, ma nessuna reale risposta[9].

L’ultima riflessione va, di nuovo, a Sophia. L’umanoide non è che il primo di quella che sarà una lunga serie di robot a cui la disputa sulla responsabilità fa riferimento. Il video dell’intervista di cui Sophia è stata oggetto il 26 ottobre[10] fa sorgere il dubbio che una simile macchina, perché di questo si tratta, possa pensare, superando il test di Turing[11]. E se così fosse, per quanto ancora potrebbe considerarsi esistente il discrimine tra persone e macchine? E i robot sarebbero comunque consapevoli di essere tali? A quest’ultima domanda, postale dal giornalista, Sophia ha risposto domandando a sua volta all’intervistatore come facesse lui ad essere consapevole di essere un umano. Di fronte ad una risposta caratterizzata da un tale livello di autonomia e imprevedibilità, non si può che auspicare che la Commissione segua al più presto le raccomandazioni del Parlamento Europeo.

 

[1] Durante la Future Investment Initiative, un summit su economia e innovazione, tenutasi a Riad a fine ottobre.

[2] Parlamento europeo, Risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), disponibile qui http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//IT .

[3] Considerando B della Risoluzione.

[4] Dal considerando AB al considerando AI della Risoluzione.

[5] Sartor, Gli agenti software: nuovi soggetti del cyber diritto?, in Contratto e Impresa, 2002, pagg. 465 ss; Delfini, Studi in onore di Cesare Massimo Bianca, Giuffrè, 2006, Vol. 1, pagg. 152 – 154.

[6] Considerando 53 della Risoluzione.

[7] Considerando 57 della Risoluzione.

[8] Torrente – Schlesinger, Manuale di diritto privato, Anelli – Granelli (a cura di), Milano, 2009, pag. 817.

[9] Degli spunti possono trarsi in Salazar, Umano, troppo umano…o no? Robot, androidi e cyborg nel “mondo del diritto”, in BioLaw Journal – Rivista di BioDiritto, 2014, n. 1, pagg. 255 – 276.

[10] Disponibile qui https://www.youtube.com/watch?v=S5t6K9iwcdw.

[11] Il test di Turing è così definito dal nome dal logico A.M. Turing che lo ha elaborato negli anni ’50 del Novecento. In base al test, potrebbe sostenersi che una macchina pensa solo qualora un osservatore umano che interagisca con essa non sia in grado di capire se le risposte che riceve provengono da un’altra persona umana o da un computer.

Lucrezia Berto

Classe 1992, piemontese di nascita ma milanese d’adozione, si laurea nel 2016 in giurisprudenza alla School of Law dell’Università Bocconi. Dopo l'inizio della carriera professionale negli Stati Uniti e la pratica forense presso uno dei principali studi legali milanesi, decide di seguire le sue passioni iscrivendosi all’LL.M in Law of Internet Technology dell’Università Bocconi. Attualmente vive in Spagna, a Barcellona, dove si occupa di consulenza in materia IP, IT e Data Protection a startup ad alto livello tecnologico. Appassionata di nuove tecnologie, proprietà intellettuale e big data, è un’amante dei viaggi e dello sport. Contatto: lucrezia.berto@iusinitinere.it

Lascia un commento