venerdì, Marzo 29, 2024
Uncategorized

Responsabilità medica e intelligenza artificiale nel diritto unionale e italiano

Responsabilità medica e intelligenza artificiale nel diritto unionale e italiano

a cura di Francesco Giuseppe Murone

Indice: 1. Il sapere umano e il sapere artificiale – 2. I rischi e le opportunità da impiego dei software intelligenti in campo medico – 3. Attualità e prospettive della responsabilità medica nel diritto UE – 4. La corporate liability della struttura sanitaria – 5. Il danno da prodotto difettoso – 6. Il danno da malpractice medica – 7. Conclusioni critiche

1. Il sapere umano e il sapere artificiale

L’impiego dell’artificial intelligence (A.I.) nelle attività tradizionali è destinato ad incidere trasversalmente sulle modalità di gestione e di erogazione di beni e servizi. L’introduzione di software “intelligenti” non comporta una mera automatizzazione dei processi organizzativi, ma conduce a disruptive innovations nelle modalità di organizzazione delle attività imprenditoriali e istituzionali.

A fini esemplificativi, con il termine Artificial Intelligence “ci si riferisce a software o programmi capaci di porre in essere con successo, e con un grado più o meno elevato di autonomia, operazioni simili all’attività umana di apprendimento e di assunzione di decisioni al fine del raggiungimento di specifici obiettivi, grazie all’impiego di tecnologie fondate su processi di machine learning, di deep learning e dell’utilizzo di reti neurali (neural networks) programmate per funzionare sul modello del cervello umano”.[1]

L’apprendimento umano si basa sulla percezione degli stimoli provenienti dell’ambiente esterno, i quali consentono la memorizzazione e l’elaborazione delle strategie di reazione agli stimoli esogeni[2]. Dall’intreccio delle esperienze e delle percezioni egli è in grado di migliorare la risposta agli input mediante un processo di apprendimento condizionato da una serie di fattori sociali, economici, culturali e ambientali: non è possibile, dunque, individuare un modello predittivo delle decisioni umane standardizzato[3], poiché i processi cognitivi variano da individuo a individuo e da contesto in contesto.

È per tale motivo che il Codice Civile fa riferimento, per valutarne la correttezza della condotta del debitore, al concetto di “media”, ovvero dell’uomo medio, buon padre di famiglia e, nelle professioni, alla diligenza del professionista medio. La condotta del debitore è analizzata, dunque, in riferimento ad un parametro standardizzato, attendibile secondo una ordinaria verificazione statistica.

L’impiego dell’intelligenza artificiale riduce i rischi legati all’imprevedibilità dell’agire umano e attenua le conseguenze dannose dovute alla manualità della prestazione o della tecnica adottata. Le potenzialità dell’impiego di strumenti di intelligenza artificiale si colgono maggiormente in relazione ad attività complesse connotate da un elevato grado di rischio. Si pensi, in proposito, all’impiego crescente di software di machine learning o di robot in relazione all’attività medica.

Intelligenza artificiale e scienza medica rappresentano due saperi differenti. Il machine learnign è una sfida al tradizionale approccio dell’epidemiologia clinica sulla quale si basa la Evidence Based Medicine[4]: mentre il primo si fonda sull’interazione tra algoritmi e dati che vengono acquisiti dal software, la seconda si basa su relazioni eziologiche tra fatti percepibili ed osservabili con i sensi.

La medicina basata sulle evidenze: a) utilizza metodi analitici; b) si basa sul confronto tra dati per dedurre il nesso di causalità; c) utilizza minori volumi di dati.

L’apprendimento automatico, invece: a) utilizza un maggior volume di dati; b) opera attraverso algoritmi basati sui dati; c) ha un limitato potere esplicativo: l’algoritmo può identificare le correlazioni fra migliaia di variabili, ma non evidenzia il nesso di causalità. Si potrebbe dire, dunque, che la A.I.‘‘ragiona’’ per inferenza statistica, e non per deduzione causale[5].

2. I rischi e le opportunità da impiego dei software intelligenti in campo medico

Ad avviso di parte della scienza medica, una delle maggiori criticità è costituita dal rischio che nel tempo i medici possano sviluppare un ingiustificato ed eccessivo affidamento nelle capacità dell’automazione (c.d. over-reliance)[6].

Sorge così il rischio che derivi una dipendenza (overdependence) dai sistemi di A.I. con conseguente probabile dequalificazione (deskilling), dovuta alla progressiva automatizzazione dell’attività medica[7].

Come riporta uno studio specialistico, “in letteratura medica sono già presenti alcuni esempi di questo fenomeno: in un’analisi condotta da parte di un gruppo di ricercatori della City University of London sulla lettura di 180 mammogrammi da parte di 50 professionisti, è stata documentata una riduzione della sensibilità diagnostica del 14,5% per il rilievo di cancro mammario nei medici più esperti, quando a questi venivano presentate immagini di difficile lettura corredate con l’interpretazione da parte del computer, mentre solo un aumento dell’1,6% della sensibilità diagnostica è stato rilevato grazie al supporto del computer nel sottogruppo di medici meno esperti quando a questi venivano presentati casi di più semplice interpretazione”[8].

Nonostante le rilevate criticità, i continui progressi conducono a potenzialità sempre nuove e adattabili alle situazioni concrete, anche in contesti patologici ed eccezionali.

Si pensi ai cambiamenti demografici in corso, a causa dei quali i sistemi sanitari sono costretti a fornire assistenza a una popolazione che invecchia. Ciò anche alla luce dell’attuale emergenza pandemica: la vicinanza degli operatori sanitari alla popolazione anziana, nel corso di una pandemia, è causa di potenziale trasmissione di agenti patogeni.

Si pensi, ancora, alla chirurgia robotica, la quale consente l’esecuzione di interventi di grande precisione, specie di microchirurgia, ove si prevede l’applicazione di tecniche ad altissima precisione su superfici corporee molto ristrette e l’uso di speciali microscopi operatori.[9]

Infine, a titolo esemplificativo, si considerino le nanotecnologie applicate alla chirurgia, che permettono di introdurre nel corpo del paziente sistemi di monitoraggio, diagnosi o intervento, coordinabili da un sistema remoto.[10].

Occorre, inoltre, considerare che il software può essere dotato di algoritmi in grado di far migliorare il comportamento della macchina, di modo da poter operare in contesti per i quali i programmatori non possono, a priori, prevedere tutte le possibilità di sviluppo e i contesti in cui il sistema si trova a operare[11].

Lo sviluppo dell’A.I. reca con sé un altro fenomeno, quello della creazione di imponenti masse di dati, i quali vengono custoditi e adoperati per finalità che esulano dalla sola cura del singolo paziente. Tale massa di dati richiede specifiche competenze nel settore della gestione e della protezione degli stessi e spesso vengono adoperati appositi software intelligenti capaci di ordinare e ricercare informazioni, attività altrimenti gravosa per l’operatore tecnico.

A titolo esemplificativo, negli USA è stato approvato l’Health Information Technology for Clinical Health (HITECH) Act, strumento che ha consentito l’impiego di più di 35 miliardi di dollari di incentivi rivolti al settore medico per lo sviluppo di un sistema elettronico di gestione e comunicabilità delle cartelle cliniche[12].

3. Attualità e prospettive della medical liability nel diritto UE

La regolamentazione della responsabilità da impiego sanitario dell’A.I. trova espressa attenzione nel diritto comunitario. Con la Risoluzione del Parlamento europeo recante ‘‘Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica’’ del 16 febbraio 2017, la Commissione era stata destinataria di un invito ad elaborare una proposta di direttiva volta a regolare in modo uniforme l’impiego di robotica ‘‘intelligente’’, anche con riferimento al settore sanitario.

Le caratteristiche essenziali della responsabilità da impiego di robot nel settore medico presentano, a parere della Risoluzione, le seguenti caratteristiche:

  1. a) non dovrebbe in alcun modo limitare il tipo o l’entità dei danni che possono essere risarciti, né dovrebbe limitare le forme di risarcimento che possono essere offerte alla parte lesa per il semplice fatto che il danno è provocato da un soggetto non umano;
  2. b) necessità di un’analisi specifica dei rischi di danni
  3. c) l’approccio di gestione dei rischi non si concentra sulla persona “che ha agito con negligenza“, bensì sulla persona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontare l’impatto negativo;
  4. d) la responsabilità dovrebbe essere proporzionale all’effettivo livello di istruzioni impartite al robot e al grado di autonomia di quest’ultimo, di modo che quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore;
  5. e)   una possibile soluzione al problema della complessità dell’attribuzione della responsabilità per il danno causato da robot sempre più autonomi potrebbe essere un regime di assicurazione obbligatorio.

Viene posto, inoltre, l’importante principio dello ‘‘human in command approach’, in virtù del quale si afferma la necessità, anche in ambito sanitario, che ‘‘la programmazione iniziale di cura e la scelta finale sull’esecuzione [spettino, n.d.r.] sempre ad un chirurgo umano’’[13], con ciò scongiurando la possibilità di decisioni fondate esclusivamente sul contributo degli strumenti di intelligenza artificiale.

L’interesse dell’Unione Europea verso l’A.I. trova ulteriore spazio nel Libro Bianco della Commissione Europea sull’intelligenza artificiale del 19.2.2020, nel quale si riporta che uno dei principali problemi relativi all’impiego dell’AI è l’incertezza in merito all’attribuzione delle responsabilità tra i diversi operatori economici lungo la catena di approvvigionamento.

La Commissione Europea, del resto, è pienamente cosciente di tali complessità. Afferma, infatti, che il comportamento autonomo che mostrano alcuni sistemi di A.I. durante il loro ciclo di vita può comportare modifiche significative dei prodotti, che a loro volta hanno ripercussioni sulla sicurezza e possono rendere necessaria una nuova valutazione dei rischi.

Lo sviluppo e l’assemblamento di strumenti intelligenti o di software spesso richiede il concorso di più soggetti: sviluppatori, produttori, fornitori, trainer. Le caratteristiche delle tecnologie digitali possono rendere meno efficaci i sistemi di responsabilità da prodotto difettoso. Alla luce di tali ragioni, la Commissione, pur non fornendo indicazioni puntuali, non esclude la necessità di un quadro ad hoc della responsabilità da A.I.

Le esortazioni ad un intervento sul tema sono state recentemente reiterate dal Parlamento europeo con la Risoluzione del 20 ottobre 2020 recante ‘‘Raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale’’; in tale occasione, il Parlamento ha sostenuto la necessità di ‘‘un quadro giuridico orizzontale e armonizzato, basato su principi comuni, per garantire la certezza giuridica, fissare norme uniformi in tutta l’Unione e tutelare efficacemente i valori europei e i diritti dei cittadini’’.

Il Parlamento ritiene che non sia necessaria una revisione completa dei regimi di responsabilità correttamente funzionanti, ma che la capacità di modifica mediante aggiornamenti, l’autoapprendimento e la potenziale autonomia dei sistemi di A.I., come pure la molteplicità degli attori coinvolti nel settore, rappresentino comunque una sfida significativa per l’efficacia dei quadri normativi dell’Unione e nazionali in materia di responsabilità.

Accanto alla prefigurata necessità di ‘‘rivedere’’ la Direttiva in materia di product liability ‘‘per adattarla al mondo digitale’’, la Risoluzione, recependo le suggestioni provenienti dal Libro Bianco in materia di Intelligenza Artificiale, suggerisce che le nuove norme unionali in materia di responsabilità da A.I. siano differenziate a seconda del livello e delle tipologie di rischio che l’utilizzo dei sistemi in questione comporta. Ad esempio, per un sistema di IA che implica un rischio intrinseco elevato appare ragionevole istituire un regime di responsabilità oggettiva.

L’analisi dell’impatto delle tecnologie di intelligenza artificiale sulla responsabilità del medico deve altresì tener conto del Regolamento (UE) 2017/745 relativo ai dispositivi medici. La precedente Dir. 93/42/CEE prevedeva che per ‘‘medical device’’ dovesse intendersi ogni strumento o apparato impiegato a fini di diagnosi, prevenzione, monitoraggio o cura di malattie.

La Corte di Giustizia dell’Unione Europea ha, poi, confermato che, ai fini della normativa in esame, è da considerarsi ‘‘dispositivo medico’’ ogni device al quale il produttore abbia attribuito uno scopo di natura ‘‘medico-sanitaria’’, intendendosi per tale la finalità di ristorare, correggere o modificare in modo apprezzabile funzioni fisiologiche degli esseri umani[14].

Sulla base di tale ampia definizione, la Corte di Giustizia ha confermato l’applicabilità delle disposizioni in materia di medical device al software, ancorché quest’ultimo non agisca ‘‘direttamente’’ sul corpo umano. Si è, così, affermata, a titolo esemplificativo, l’applicabilità del regime in esame ad un programma finalizzato al controllo incrociato dei dati personali del paziente con quelli concernenti l’impiego di medicinali al fine di fornire automaticamente eventuali controindicazioni, interazioni tra farmaci e posologie eccessive; programma ritenuto costituire un ‘‘dispositivo medico’’ nonostante esso non agisse ‘‘direttamente nel o sul corpo umano’’ [15].

La Corte ha, poi, tracciato una distinzione tra tale tipologia di dispositivi ed altri software che abbiano, ad esempio, l’unico scopo di archiviare, memorizzare e trasmettere dati del paziente o si limitino ad indicare al medico curante il nome del medicinale generico associato a quello che intende prescrivere, o, ancora, software destinati a segnalare le controindicazioni: tali programmi non rientrerebbero, invece, nella definizione di ‘‘dispositivo medico’’.

Conseguentemente, programmi di nuova generazione, quali quelli sopra menzionati, che analizzino grandi quantità di big data al fine di sviluppare le conoscenze scientifiche su una certa malattia potrebbero non essere considerati ‘‘medical device’’ ai fini della normativa eurounitaria, mentre la risposta potrebbe essere diversa nel caso in cui l’analisi dei big data fosse volta all’assunzione di decisioni terapeutiche in relazione ad uno specifico paziente.

Ad ogni modo, in relazione agli strumenti qualificati come medical device, l’art. 10, par. 16 afferma che “le persone fisiche o giuridiche possono chiedere un risarcimento per danni causati da un dispositivo difettoso, ai sensi della normativa applicabile a livello dell’Unione e del diritto nazionale”.

4. La corporate liability della struttura sanitaria

L’art. 7, c. 1 L. Gelli-Bianco prevede che “la struttura sanitaria o sociosanitaria pubblica o privata che, nell’adempimento della propria obbligazione, si avvalga dell’opera di esercenti la professione sanitaria, anche se scelti dal paziente e ancorché non dipendenti della struttura stessa, risponde, ai sensi degli articoli 1218 e 1228 del codice civile, delle loro condotte dolose o colpose”.

La norma individua un regime sostanzialmente unitario della responsabilità medica. Infatti, salvo il caso dell’art. 7, c. 3, nel quale il medico risponde nei confronti del paziente a titolo extracontrattuale, ogni condotta dannosa posta in essere dal personale sanitario incardinato nell’organizzazione di una struttura sanitaria pubblica o privata è imputabile alla persona giuridica e non al singolo operatore.

La L. n. 24/2017 (legge Gelli-Bianco) ha reso le strutture sanitarie il principale fulcro del contenzioso in materia di medical malpractice, con un modello di responsabilità dell’ente improntato a criteri di allocazione del rischio omologhi a quelli che governano la più ampia materia della responsabilità d’impresa[16]. Non pare casuale che “l’oggettivizzazione” della responsabilità del personale sanitario coincida con l’emersione e lo sviluppo dell’impiego di strumenti di AI nel rapporto medico-paziente.

L’inadempimento della struttura alle obbligazioni ‘‘proprie’’ assunte verso il paziente determina responsabilità ‘‘diretta’’ dell’ente nei confronti di quest’ultimo, anche in assenza di errore medico. Il riferimento è, in estrema sintesi, ai casi di carenze o inefficienze strutturali che impediscano la corretta esecuzione della prestazione di cura. In tali casi la responsabilità dell’ente è, dunque, svincolata dall’accertamento di una condotta colposa dei suoi ‘ausiliari’.

Diversa è, invece, l’ipotesi di responsabilità della struttura per i danni occorsi al paziente in conseguenza dell’illecito del medico del quale la struttura stessa si avvale, delle cui ‘‘condotte dolose o colpose’’ l’ente risponde ai sensi dell’art. 1228 c.c., in ragione del rapporto tra preponente ed ausiliario.

L’espressa qualificazione, da parte della legge Gelli-Bianco, della responsabilità della struttura sanitaria come responsabilità per inadempimento non esclude di per sé che in capo all’ente si possano configurare, qualora ne ricorrano i presupposti, concorrenti responsabilità aquiliane, ex art. 2043 c.c. e ss.

Un primo riferimento può essere la responsabilità da cosa in custodia ex art. 2051 c.c. per malfunzionamento delle strumentazioni e dei macchinari che costituiscono l’apparato del quale essa si avvale.

Non può, poi, essere esclusa tout court l’applicabilità alla struttura sanitaria del regime di responsabilità ex art. 2050 c.c., quantomeno limitatamente a talune specifiche tipologie di attività. La giurisprudenza ha da tempo escluso la possibilità di interpretare la ‘‘ordinaria’’ attività diagnostica e terapeutica quale ‘‘attività pericolosa’’, le cui possibilità applicative in ambito sanitario sono state tradizionalmente limitate alle sole prestazioni di medicina trasfusionale implicanti l’impiego di sostanze ematiche o loro derivati[17].

Un ripensamento di tale impostazione potrebbe, in prospettiva, derivare anche quale conseguenza del pervasivo e sempre crescente impiego di applicazioni di strumenti di A.I.[18].

Il quadro delle possibili fattispecie dannose è eterogeneo, poiché molteplici e differenti sono le condotte astrattamente configurabili in relazione alle vaste opportunità di impiego che i software consentono. Si pensi, ad esempio, ai software che permettono alla struttura di monitorare lo stato dei pazienti; a quelli che raccolgono e analizzano dati al fine di individuare un miglior risultato terapeutico; quelli che coadiuvano il sanitario, quali i robots, nello svolgimento della prestazione medica: occorre chiedersi se e in che modo la diversa funzione del software incida sulla responsabilità del sanitario.

Nell’analisi puntuale dell’applicazione delle disposizioni sulla responsabilità medica pare allora opportuno distinguere tra due macro-fattispecie.

  1. a) Nella prima, il danno viene cagionato al paziente a causa di un difetto “intrinseco” del software, dovuto ad un difetto nella fase dello sviluppo o della implementazione.
  2. b) Nella seconda, il danno viene cagionato da un software o da uno strumento intelligente, il quale non presenti alcun difetto di produzione.

5. Il danno da prodotto difettoso

In relazione alla prima ipotesi, sembra applicabile la disciplina della responsabilità extracontrattuale da prodotto difettoso.

La normativa interna di riferimento (Decreto Legislativo n° 206 del 2005, c.d. “Codice del Consumo”) prevede, in recepimento della legislazione unionale, un regime di responsabilità extracontrattuale in capo al produttore e al fornitore. A beneficiare di tale sistema di protezione è il consumatore, utente finale del prodotto.

Il rinvio alla responsabilità da prodotto difettoso pare rassicurante, ma non tiene conto delle possibili variabili che possano presentarsi. Nel caso di sistemi intelligenti può rivelarsi difficile provare che il prodotto sia difettoso e dimostrare il nesso di causalità tra difetto e danno, specie se il difetto dipenda da carenze della cyber-sicurezza del prodotto.

Ulteriore problematica è quella relativa alla configurabilità di una responsabilità delle figure professionali che “addestrano” il software.

Un’indicazione sembra derivare dal richiamato Regolamento sui dispositivi medici. L’art. 16 Reg. 2017/745 prevede che gli obblighi del produttore in tema di responsabilità si applichino, in alcuni casi, al distributore, importatore o ad altra persona fisica o giuridica. Ciò avviene nel caso in cui venga alterata la destinazione d’uso di un device già distribuito nel mercato o entrato in servizio.

Si prevede, tuttavia, che alcuna responsabilità si configuri in capo ai soggetti che montano o adattano per un paziente specifico un dispositivo già presente sul mercato senza modificarne la destinazione d’uso.

Dunque, alla luce di tali indicazioni, può distinguersi tra l’impiego di un device medico senza che sia mutata la destinazione d’uso e impiego che comporti un mutamento di tale destinazione d’uso. In quest’ultimo caso, il danno è allocabile in capo all’effettivo utilizzatore del software. Ciò significa che dell’eventuale difetto risponde la struttura, la quale ha concorso, mutando la destinazione di un device, ad aumentare il rischio di insorgenza di un difetto del prodotto.

6. Il danno da malpractice medica

La seconda macro-categoria di danni individuata nel par. 4 è rappresenta dai pregiudizi che occorrono al paziente dall’impiego di un prodotto medico non difettoso. In relazione a tali ipotesi, sovviene la possibile responsabilità della struttura sanitaria.

Per brevità, si ricorda che la struttura può rispondere sia contrattualmente, tanto per responsabilità propria (art. 1218 c.c.) che per fatto altrui (1228 c.c.), che in via extracontrattuale.

Possono distinguersi una serie di fattispecie.

  1. a) I casi nei quali la struttura sanitaria impiega determinati software per monitorare lo stato di salute dei pazienti: si pone il problema dell’individuazione del soggetto responsabile del danno cagionato a causa di un difetto di manutenzione e di mancato tempestivo intervento.
  2. b) Il cattivo addestramento del software da parte della struttura. Il software non presenta un difetto intrinseco di sviluppo o produzione; tuttavia, a causa di una errata configurazione o aggiornamento dello stesso, occorre un danno al paziente.
  3. c) I casi in cui il medico faccia ricorso ai risultati predittivi o di analisi del software per elaborare una diagnosi o impostare una terapia. In tale situazione, può porsi il problema della scusabilità della condotta del sanitario: l’alternativa è se lo stesso possa riporre un legittimo affidamento nel funzionamento del software o se si richieda, in capo al sanitario, un dovere cautelare di “critica e revisione” del pensiero artificiale.
  4. d) I casi in cui il medico ponga in essere un errore esecutivo attraverso l’impiego della robotica medica nell’esecuzione della prestazione terapeutica-trattamentale.

In relazione al caso sub a), la struttura sanitaria ricorre ad alcuni software attraverso i quali monitora i parametri dei pazienti oppure automatizza la tenuta delle cartelle cliniche; il difetto di manutenzione o la scorretta gestione del software, dal quale deriva un danno, pare riconducibile ad una forma di responsabilità propria della struttura, ai sensi dell’art. 1218 c.c. La condotta lesiva è infatti qualificabile quale inadempimento negoziale dell’obbligo di protezione e di corretta esecuzione della prestazione assunta col contratto di spedalità.

In merito all’ipotesi sub b) può accadere che le strutture sanitarie, per l’addestramento dei software, ricorrano a personale tecnico qualificato oppure a consulenti esterni rispetto alla struttura. In un caso simile si pone il problema dell’applicabilità dell’art. 7 L. Gelli-Bianco. Il soggetto tecnico in questione potrebbe non essere qualificabile quale “esercente la professione sanitaria”. La struttura risponderebbe comunque ai sensi della generale fattispecie di cui all’art. 1228 c.c., poiché non v’è dubbio che la norma faccia generico riferimento ai terzi, e non alle sole figure dei sanitari normativamente qualificate.

Peraltro, laddove il professionista esterno non sia qualificabili quale “esercente la professione sanitaria”, si pone il problema dell’applicabilità dell’art. 9 L. Gelli-Bianco all’extranus alla struttura. La norma prevede un peculiare regime dell’azione di rivalsa in favore del personale sanitario, limitando la possibilità della struttura di rivalersi sul patrimonio dell’esercente la professione sanitaria ai soli casi di dolo o colpa grave.

La problematica in parola rende evidente la necessità di un aggiornamento della disciplina della responsabilità medica che tenga conto anche del professionista che, pur non qualificabile quale sanitario, in concreto svolga un’attività che vada a favorire l’esercizio dell’attività medica, con conseguente necessità che benefici anch’esso della più favorevole disciplina di cui all’art. 9 L. Gelli-Gallo.

Le rimanenti ipotesi sub) c) e sub d) fanno riferimento a situazioni relative ad errori decisionali ed esecutivi posti in essere dal personale medico. In tali casi, il medico adopera direttamente la tecnologia ai fini della diagnosi o della cura. Alcun dubbio sussiste in merito all’applicazione del regime di cui all’art. 7, c. 1, L. Gelli-Gallo in casi simili.

Nello specifico, una peculiare questione riguarda l’ipotesi sub c), ovvero la scusabilità della condotta del medico, il quale abbia adottato una decisione sulla base delle indicazioni predittive provenienti da un software: occorre domandarsi se l’affidamento del medico nello strumento possa essere sempre legittimo oppure se il medico sia tenuto ad un’attività di critica e di revisione della decisione dello strumento.

L’adesione alla prima o alla seconda conclusione non è questione di poco conto, dal momento che la soluzione più favorevole per il medico comporterà una riduzione del ventaglio dei danni risarcibili, mentre la soluzione restrittiva avrà l’effetto opposto, con inevitabili ripercussioni sulla celerità del trattamento: si pensi, infatti, al medico che, di volta in volta, sia chiamato ad analizzare possibili esiti alternativi, peraltro ripercorrendo a ritroso il “ragionamento” dell’algoritmo, attività complessa e che può esulare dalle competenze del medico.

Per risolvere la questione occorre richiamare il criterio della correttezza: il principio di eguaglianza e di ragionevolezza esclude alcun rilievo a meccanismi automatici di esclusione della responsabilità. Non si potrebbe, cioè, ritenere vigente in via assoluta un legittimo affidamento per il solo fatto che il medico si interfacci con un software.

Ciò è coerente con una serie di indici normativi. Anzitutto, la Risoluzione del Parlamento europeo recante ‘‘Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica’’ del 16 febbraio 2017 postula l’adesione al modello dello “human in command approach”: le indicazioni degli strumenti intelligenti non possono sostituire la decisione umana, la quale, dunque, non può utilizzare il software quale elemento di abdicazione dei propri obblighi e delle proprie responsabilità.

Inoltre, in relazione alla responsabilità penale, l’art. 6 L. Gelli-Gallo afferma che non esclude la colpa il pedissequo rispetto delle linee guida accreditate, qualora si siano rilevate inadeguate al caso concreto. Sebbene la norma non sia direttamente applicabile alla responsabilità civile, la stessa individua un principio di razionalità, insito, peraltro, nello stesso criterio della ragionevolezza e della buona fede: il medico non può andare esente da responsabilità qualora, dal caso concreto, emergano ragioni per le quali il risultato del software vada corretto o rimeditato.

Sulla questione si innesta un’altra problematica, relativa al rilievo da attribuire alla limitazione della responsabilità ai sensi dell’art. 2236 c.c. La norma prevede che, nel caso di esecuzione di prestazioni di particolare difficoltà, il professionista non risponda dei danni cagionati per colpa lieve. Occorre chiedersi se l’implementazione di software nell’attività medica sia idonea ad escludere la difficoltà di una prestazione, poiché viene semplificata l’attività diagnostica, ovvero se aggravi la difficoltà della stessa. Anche in tale situazione non è possibile individuare una soluzione univoca: alcuni software possono semplificare e automatizzare talune attività e ridurre i rischi connessi a talune prestazioni; in altri casi, tuttavia, per l’elevato rischio intrinseco, possono introdurre ulteriori difficoltà prima non sussistenti.

Infine, in relazione all’ipotesi sub d), si è in presenza non di un errore decisionale del medico, ma di un errore esecutivo occasionato da uno scorretto impiego del macchinario. Il danno dovuto ad un malfunzionamento, e non ad un errore esecutivo del medico, sembra rientrare, prima facie, nell’ambito di cui all’art. 2051. Tuttavia, la norma è un’ipotesi di responsabilità extracontrattuale, mentre il danno occorso al paziente si verifica nell’esecuzione della prestazione del contratto di spedalità. Pertanto, l’errore medico commesso attraverso l’impiego strumento di A.I. rientra in un’ordinaria ipotesi di danno da malpractice medica, come tale sussumibile nell’alveo dell’ordinaria responsabilità della struttura sanitaria.

7. Conclusioni critiche

A conclusione dell’analisi riportata, occorre richiamare, per tratti essenziali, il recente indirizzo che va consolidandosi in giurisprudenza sulla natura della responsabilità da attività medica[19].

Distinzione esemplificativa tra responsabilità da inadempimento e responsabilità extracontrattuale risiede sul piano dell’onere probatorio. La responsabilità da inadempimento richiede che il creditore provi il titolo e la causalità giuridica (quantum debeatur), ma non anche la causalità materiale, ovvero il fatto dell’inadempimento, il quale si presume una volta provato il titolo.

Sarebbe consequenziale, allora, che in relazione alla responsabilità sanitaria, di natura contrattuale, il creditore non sia tenuto alla prova del fatto dell’inadempimento, spesso di difficile accertamento, come nel caso di danni occorsi a causa di strumenti di intelligenza artificiale.

Tuttavia, la Cassazione ritiene che nel diverso territorio del facere professionale la causalità materiale debba essere provata dal creditore. Ciò poiché la prestazione oggetto dell’obbligazione non è la guarigione dalla malattia, ma il perseguimento delle leges artis nella cura dell’interesse del creditore. Allo stesso tempo, l’interesse primario del creditore consiste nel risultato favorevole per la propria salute, non nel mero impiego della diligenza professionale.

Il danno evento, allora, consiste nella lesione dell’interesse primario (lesione dell’integrità fisica), non nel mero inadempimento dell’obbligo di diligenza. Dunque, in altri termini, vi è scissione tra l’oggetto dell’obbligazione (diligenza) e l’interesse leso dall’inadempimento: il danno evento consiste nella lesione dell’integrità fisica.

Secondo l’impostazione della richiamata giurisprudenza, “la lesione dell’interesse strumentale non significa necessariamente lesione dell’interesse primario, e dunque allegare l’inadempimento non significa allegare anche il danno evento. La lesione dell’integrità fisica, infatti, non è automaticamente collegabile al mancato rispetto delle leges artis, ma potrebbe essere riconducibile ad una causa diversa dall’inadempimento. Pertanto, anche la prova della causalità materiale spetta al creditore, poiché provando l’inadempimento dell’obbligo di diligenza non viene provato automaticamente il danno all’integrità fisica”[20].

Tale indirizzo giurisprudenziale pone un freno alla generale tendenza in atto nel settore della responsabilità civile. La direzione è quella di oggettivare le ipotesi di responsabilità che concernono l’esercizio di attività rischiose, improntate ad una gestione di tipo imprenditoriale. L’approdo ai lidi della responsabilità contrattuale “classica” consentirebbe l’adeguato assorbimento dei rischi legati all’impiego, nel settore medico, di strumenti di intelligenza artificiale, poiché il creditore potrebbe limitarsi ad allegare l’inadempimento, non dovendo, invece, ricercare la prova di un nesso causale di difficile accertamento, specie nel settore dell’impiego di software intelligenti.

Al contrario, il recentissimo orientamento giurisprudenziale sembra porre un onere sproporzionato in capo al creditore, specie laddove ha ritenuto che il rischio della causa ignota gravi in capo al danneggiato. Il principio della vicinanza della prova impone che l’onere probatorio spetti al soggetto posto in posizione di maggiore prossimità con la fonte della prova. Ebbene, richiedere al debitore la dimostrazione che il danno derivi dall’impiego di uno strumento di intelligenza artificiale sembra violativo del suddetto principio.

La richiamata impostazione giurisprudenziale, dunque, allontana la responsabilità sanitaria dallo schema tradizionale della responsabilità contrattuale. Su tale aspetto, in conclusione, si auspica che gli interventi regolatori comunitari individuino standard di tutela più intensi per il creditore, il quale, specie in riferimento di strumenti di A.I., è maggiormente esposto alle richiamate difficoltà probatorie.

[1] Cfr. Ugo Ruffolo, L’Intelligenza artificiale in sanità: dispositivi medici, responsabilità e ‘‘potenziamento’’, «Giurisprudenza Italiana, Febbraio 2021».

[2] Cfr. Giovanni Pasceri, Intelligenza Artificiale in Radiologia, «Documento SIRM», 2020.

[3] Cfr. Giovanni Pasceri, Intelligenza Artificiale in Radiologia, «Documento SIRM», 2020.

[4] Cfr. Ian A.Scott,  IA. Machine Learning and Evidence-Based Medicine, «Annals of Internal Medicine», pag. 169:44- 46, 2018.

[5] Cfr. N. Musacchio, G. Guaita, A. Oz­zello, M.A. Pellegrini, P. Ponzani, R. Zilich, A. De Micheli, Intelligenza Artificiale e Big Data in ambito medico: prospettive, opportunità, criticità, «Journal of Associazione Medici Diabetologici», Vol. 21-3, 2018.

[6] Cfr. Goddard K, Roudsari A, Wyatt JC, Automation bias: a systematic review of frequency, effect mediators, and mitigators, «Journal of the American Medical Informatics Association», 2011.

[7] F. CABITZA; C. ALDERIGHI, R. RASONINI, G. GENSINI, Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina, Recenti Prog Med 2017; 108: 397-401

[8] Cfr. Povyakalo AA, Alberdi E, Strigini L, Ayton P., How to discriminate between computer-aided and computerhindered decisions: a case study in mammography, «Medical Decision Making», 2013.

[9] Kalan, S. et al., History of robotic surgery, «Journal of Robotic Surgery 4.3», 2010, pp. 141–147.

[10] Sitti, M., Micro-and nano-scale robotics, «American Control Conference», 2004, pp. 1–8.

[11] Cfr. Mauro colombo, Renzo Rozzini, Intelligenza artificiale in medicina: storia, attualità e futuro, «Psicogeriatria», 2019.

[12] Cfr. N. Musacchio, G. Guaita, A. Oz­zello, M.A. Pellegrini, P. Ponzani, R. Zilich, A. De Micheli, Intelligenza Artificiale e Big Data in ambito medico: prospettive, opportunità, criticità, «Journal of Associazione Medici Diabetologici», Vol. 21-3, 2018; si veda, inoltre, https://www.igi-global.com/chapter/electronic-health-re­cord-ehr-diffusion-and-an-examination-of-physician-resi­stance/184077.

[13] Per un esame della risoluzione del Parlamento del 2017, si rinvia ad Andrea Amidei, Robotica intelligente e responsabilità: profili e prospettive del quadro normativo europeo, «Intelligenza Artificiale e responsabilità», pag. 63 e segg.

[14] Casi Hecht-Pharma, C-140/07; BIOS Natuproduckte, C-27/08; Brain Products, C-219/11.

[15] Corte di Giustizia UE, caso Snitem – Syndicat national de l’industrie des technologies medicales, C-329/16.

[16] Cfr. Andrea Amidei, Le responsabilità, per fatto proprio e degli ausiliari, della struttura sanitaria, «Giurisprudenza Italiana», Febbraio 2021.

[17] Cfr. Andrea Amidei, Le responsabilità, per fatto proprio e degli ausiliari, della struttura sanitaria, «Giurisprudenza Italiana», Febbraio 2021.

[18] Sul tema delle implicazioni dell’impiego di sistemi di Intelligenza Artificiale in ambito sanitario, cfr. Savini Nicci, Vetrugno, Intelligenza artificiale e responsabilità nel settore sanitario, in Ruffolo (a cura di), Intelligenza Artificiale – Il diritto, i diritti, l’etica, Milano, 2020, 601 e segg.; cfr. altresì Ruffolo, Artificial Intelligence e nuove responsabilità nel settore medico e farmaceutico, in Ruffolo (a cura di), La nuova responsabilità medica, cit., 237 e segg.; Perlingieri, Responsabilità civile e robotica medica, in Tecnologie e Dir., 2020, 1, 161 e segg.

[19] Cass. Civ., Sez. III, 11 novembre 2019, n. 28991

[20] Cass. Civ., Sez. III, 11 novembre 2019, n. 28991

Lascia un commento