lunedì, Aprile 29, 2024
Litigation & Arbitration

La nuova disciplina europea sulla responsabilità extracontrattuale dei sistemi di intelligenza artificiale

Per la rubrica LITIGO ERGO SUM

A cura di Roberta Chicone, Partner Studio Legale Grande Stevens.

Da un anno (e mezzo circa) a questa parte, con la diffusione dell’arcinota interfaccia ChatGTP, che ha consentito un accesso indiscriminato a quella che è genericamente definita intelligenza artificiale, non si fa che parlare dell’applicazione di tali algoritmi non più solo ai vari ambiti professionali ma anche a qualsivoglia nostra attività quotidiana.

L’uso diffuso dei Sistemi di Intelligenza Artificiale (d’ora in poi SIA) negli ultimi cinque anni offre un saggio di quelli che sono i problemi (in aggiunta ai vantaggi) connessi al loro utilizzo.

In particolare, sono sempre più chiari rischi e limiti connessi all’applicazione dei tradizionali regimi civilistici risarcitori laddove l’algoritmo danneggi il suo utilizzatore. La questione è nota agli operatori del diritto ed alle istituzioni europee che hanno, infatti, redatto una proposta di disciplina della responsabilità extracontrattuale da utilizzo dell’intelligenza artificiale.

Prima però di analizzare in dettaglio tale disciplina (non ancora approvata in via definitiva), è necessario soffermarsi brevemente sulla proposta di normativa europea che, per prima al mondo, contempla una disciplina positiva globale dell’intelligenza artificiale: sto chiaramente parlando della Proposta di Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) proposta il 21 aprile 2021 dalla Commissione Europea[1], anche semplicemente detta AI ACT.

 

L’AI ACT

Secondo l’AI Act [2], il Sistema di Intelligenza Artificiale è un sistema che simula l’intelligenza umana nel rielaborare ed interpretare dati e informazioni, a determinati fini, con un certo grado di autonomia sempre maggiore nei sistemi di apprendimento autonomo (o machine learning).

L’AI Act suddivide i SIA in:

  1. i) SIA con rischio inammissibile e dunque vietati;
  2. ii) SIA ad alto rischio

iii) SIA a rischio minimo;

  1. iv) General Purpose AI.

 

I SIA vietati sono quelli che determinano un rischio inaccettabile per la sicurezza, i mezzi di sussistenza e i diritti delle persone. Sono (o meglio saranno) vietati, in particolare:

  • i sistemi di sfruttamento delle vulnerabilità delle persone e di utilizzo di tecniche subliminali ovvero deliberatamente manipolative o ingannevoli;
  • i sistemi di categorizzazione biometrica delle persone fisiche sulla base di dati biometrici per dedurne o desumerne la razza, le opinioni politiche, l’appartenenza sindacale, le convinzioni religiose o filosofiche, la vita sessuale o l’orientamento sessuale (sarà ancora possibile filtrare set di dati basandosi su dati biometrici nel settore delle attività di contrasto);
  • i sistemi di identificazione biometrica in tempo reale in spazi accessibili al pubblico (ossia il riconoscimento facciale mediante telecamere a circuito chiuso) da parte delle autorità di contrasto (con limitate eccezioni)
  • i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e negli istituti scolastici, eccetto per motivi medici o di sicurezza (ad esempio il monitoraggio dei livelli di stanchezza di un pilota);
  • l’estrazione non mirata (scraping) di immagini facciali da internet o telecamere a circuito chiuso per la creazione o l’espansione di banche dati;
  • i sistemi che consentono di attribuire un “punteggio sociale” (social scoring), classificando o valutando le persone in base al loro comportamento sociale o alle loro caratteristiche personali.

 

I SIA ad alto rischio sono classificabili in due categorie:

  • i SIA cui è associato un rischio potenziale di danno a diritti fondamentali[3](relativamente ai quali la proposta di AI Act prevede già una delega modificativa a favore della Commissione UE di modo che possa negli anni futuri modificare e, soprattutto, inserire nuovi sistemi);
  • i componenti di prodotti soggetti a marcatura CE e, specificamente, al controllo di terzi secondo la disciplina settoriale UE.

I SIA ad alto rischio sono sottoposti ai seguenti obblighi:

  1. a) sono tenuti ad effettuare una valutazione di impatto sui diritti fondamentali, ovverosia ad elaborare un piano dettagliato per mitigare i danni e gli impatti negativi da utilizzo del SIA, che preveda in particolare misure di sorveglianza umana e sia costantemente aggiornato e modificato in caso di mutamento delle condizioni concrete. Esiste poi un ulteriore obbligo di notifica di tale piano e dei relativi risultati all’Autorità di Vigilanza nazionale (ancora da identificare, quanto meno per l’Italia);
  2. b) sono obbligati alla redazione (e divulgazione) della documentazione tecnica dettagliata prima della immissione in commercio del SIA, al fine di consentire il controllo di conformità al Regolamento da parte delle autorità competenti;
  3. c) sono tenuti a registrare il SIA nella banca dati UE (se utilizzati da enti pubblici o privati incaricati di servizio pubblico, l’iscrizione deve essere effettuata in un data base UE pubblico);
  4. d) sono obbligati alla apposizione del marchio CE. Tale marcatura attesta la conformità al Regolamento e/o ad altre normative europee applicabili nei casi in cui si tratti di SIA componenti di altri prodotti sottoposti a valutazione di conformità. Nel primo caso (cd. stand alone SIA) il marchio CE verrà apposto previa autodichiarazione di conformità da parte del produttore o importatore del SIA, ferma la successiva controllabilità del SIA da parte delle Autorità di Vigilanza. Laddove invece l’algoritmo sia componente di un prodotto sottoposto, in forza di normativa settoriale europea, alla marcatura CE, verrà applicato la procedura speciale di controllo della conformità che avrà ad oggetto anche la verifica di osservanza delle obbligazioni di cui all’AI Act;
  5. e) devono sempre sottoposti ad una effettiva sorveglianza umano (cd. primato umano);
  6. f) dovranno essere addestrati e testati con set di dati sufficientemente rappresentativi per ridurre al minimo il rischio di integrare distorsioni inique nel modello e garantire che, se presenti, queste possano essere risolte mediante opportune misure di rilevazione, correzione e attenuazione;
  7. g) dovranno essere tracciabili e verificabili, garantendo la conservazione dell’opportuna documentazione, compresi i dati utilizzati per addestrare l’algoritmo, fondamentali per le indagini ex post.

 

Gli altri SIA (i.e. i SIA a rischio minimo) rappresentano attualmente la maggior parte dei SIA in circolazione e sono identificati residualmente. Salvo nelle ipotesi in cui interagiscano con le persone (es. chatbox), o manipolino audio o video (i cd. deep fake)[4], non hanno particolari obbligazioni.

 

I General Purpose AI[5] (o anche general foundation o modelli fondativi, e.g. quelli alla base di Chat GTP) sono invece quei sistemi configurati per adattarsi ad un’ampia gamma di applicazioni per le quali non sono stati specificamente progettati (es. Chat GTP).

I General Purpose AI sono caratterizzati da obblighi di trasparenza nei confronti degli utilizzatori,  che comprendono la documentazione tecnica afferente al SIA e le informazioni sui dati utilizzati per il funzionamento del sistema, con specifico obbligo di disclosure dei dati protetti dal diritto d’autore.

Sono sottoposti ad una disciplina più stringente ed assimilabile a quella dei SIA ad alto rischio i General AI ad alto impatto con rischio sistemico[6], quali i sistemi che potrebbero consentire una facile diffusione di un bias discriminatorio.

In tali ipotesi l’operatore è obbligato a svolgere la valutazione di modello, la valutazione de rischi, ad inviare un report alla Commissione Europeo su eventuali incidenti, a garantire idonei livelli di cybersicurezza, a fornire informazioni sul consumo energetico.

 

La proposta di Direttiva sulla responsabilità extracontrattuale dei sistemi di intelligenza artificiale

La breve panoramica di cui sopra si è resa necessaria al fine di consentire l’analisi della proposta di direttiva del Parlamento europeo del 28 settembre 2022 relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (la Direttiva), posto che tale Direttiva utilizza le medesime definizioni e categorie dei SIA di cui all’AI Act.

Anche la direttiva, come l’AI Act, è attualmente in fase di approvazione.

Differentemente dall’AI Act, la scelta dello strumento della “direttiva” è finalizzata a garantire l’armonizzazione delle discipline nazionali europee pur salvaguardando tradizioni giuridiche risalenti e radicate, in particolare nell’ambito della responsabilità da illecito civile.

Come noto, ai sensi degli artt. 2043 e 2967 del nostro codice civile, l’attore che agisca per il risarcimento del danno di natura aquiliana è tenuto a provare (a) il fatto illecito; (b) la riferibilità del suddetto fatto al soggetto agente, a titolo di dolo o colpa; (c) l’esistenza di un danno ingiusto; ed infine (d) la sussistenza del nesso di causalità tra il fatto illecito e il danno subito.

Ora, la Direttiva non interviene in alcun modo né modifica affatto le nozioni di fatto illecito, colpa, danno ingiusto, né tanto meno sui criteri di identificazione del nesso causale e sulla parte su cui grava il relativo onere probatorio, che restano competenza esclusiva degli ordinamenti nazionali.

La Direttiva si limita ad armonizzare il regime probatorio del nesso causale alleggerendolo a vantaggio degli utilizzatori dei SIA e, conseguentemente, dei produttori (oltre che investitori e importatori) dei SIA, poiché quanto più è percepita come “affidabile” – anche in termini di ristoro, in caso di danno – l’intelligenza artificiale, tanto più essa si diffonde.

In particolare, la Direttiva sgrava il danneggiato, che voglia trovare ristoro per i danni subiti dall’utilizzo di un SIA, dalla probatio diabolica cui sarebbe sottoposto laddove si applicasse, anche in caso di danno “da intelligenza artificiale”, l’onere probatorio proprio della responsabilità aquiliana secondo i sistemi nazionali europei.

Come noto, infatti, nella fase di ideazione, realizzazione, messa in esercizio e utilizzo i SIA necessitano di differenti e molteplici contributi da parte di plurimi operatori.

Si pensi ad esempio ai sistemi di guida autonoma: al contributo del fornitore dell’algoritmo e del software per la guida autonoma deve aggiungersi quello del produttore del veicolo (e dei vari subfornitori dei differenti componenti), poi ancora quello del fornitore dei sensori di guida ed, infine, quello del guidatore, senza voler considerare poi l’eventuale input esterno del pedone che, ad esempio, intralciando la strada, provochi l’incidente.

La pluralità di tali contributi, caratterizzata peraltro da una elevata complessità tecnica,  determina un’innegabile opacità del sistema, con oggettiva impossibilità per il cittadino “medio” di conoscere e provare lo specifico input cui sia conseguito l’altrettanto specifico output concretamente idoneo a cagionare il proprio ingiusto danno.

Questo è ancor più vero ove si consideri che in taluni SIA, i sopra citati machine learning, le decisioni possono essere frutto di un processo elaborativo critico autonomo del sistema, che rielabora autonomamente dati e parametri cognitivi forniti, con conseguente non prevedibilità dell’esito finale (cd. effetto scatola nera).

L’impossibilità di identificare e provare il rapporto eziologico tra input e danno corrisponde, in ultima istanza, all’impossibilità di agire a tutela dei propri diritti a fini risarcitori.

La proposta di Direttiva europea ha, quindi, come finalità immediata quella di fornire un reticolato normativo di supporto per il cittadino europeo danneggiato dall’utilizzo di un SIA, a prescindere dalla sua nazionalità o dal luogo in cui il danno avvenga, di modo da consentire nella massima estensione possibile (fermo il limite delle specificità normative nazionali) quella certezza giuridica[7] che è sempre un obiettivo ed un plus per il mercato ed i suoi operatori, dai produttori ai fruitori dell’intelligenza artificiale[8].

In tale ottica, la Direttiva si propone di agire su due direttrici:

  • l’alleggerimento probatorio assieme alla previsione di specifici obblighi di divulgazione gravanti sui produttori/importatori dei sistemi ad alto rischio, in una prima fase;
  • la previsione di una responsabilità oggettiva, congiuntamente all’introduzione di obblighi di assicurazione obbligatoria, in una seconda fase (eventuale).

 

Partiamo dalla prima fase.

In base ad un primo set di norme comune a tutti i SIA, esiste una presunzione relativa di causalità (sempre contestabile dall’asserito danneggiante convenuto) tra (i) la violazione di un’obbligazione, imposta a livello nazionale od europeo, purché finalizzata a prevenire l’evento lesivo concretamente verificatosi, e per l’appunto (ii) tale evento. La presunzione vige in presenza delle seguenti condizioni:

  1. l’attore provi la violazione, da parte del convenuto, dell’anzidetta obbligazione (ad es. si provi la violazione delle istruzioni per l’utilizzo sicuro del prodotto cui sia conseguita la tipologia di lesione che l’istruzione mirava ad evitare)
  2. l’attore provi la ragionevole probabilità che la condotta colposa contestata al convenuto abbia inciso sull’output o mancato output (ad es. non può considerarsi provata la ragionevole probabilità del nesso causale tra condotta colposa contestata e output lesivo qualora la violazione riguardi solo adempimenti “amministrativi”, quali la presentazione di determinata documentazione tecnica);
  3. l’attore provi il nesso causale tra ouput/mancato output e danno.

 

Deve inoltre precisarsi che in caso di SIA utilizzato per attività non professionali (e dunque per attività private), la presunzione di causalità può applicarsi solo nel caso di controllo del SIA da parte del convenuto e dunque nel caso in cui (i) costui abbia interferito materialmente con le condizioni di funzionamento o (ii) avrebbe potuto e dovuto intervenire ma tale condotta doverosa è stata omessa.

*

Un secondo set di norme è applicabile ai soli SIA ad alto rischio.

Per tali sistemi, la Direttiva prevede che le obbligazioni rilevanti ai fini della presunzione probatoria di cui al paragrafo che precede sono solo alcune tra le obbligazioni previste dall’AI Act e cioé:

  • quelle che impongono determinati criteri di qualità dei dati utilizzati dal SIA;
  • gli obblighi di trasparenza;
  • gli obblighi di supervisione umana;
  • gli obblighi di robustezza e cybersicurezza
  • obblighi di ritiro dei SIA in presenza di incidenti o in ogni caso in cui siano necessari interventi modificativi.

La ragione di tale delimitazione risiede, evidentemente, nella stringente disciplina applicabile ai SIA ad alto rischio e, quindi, nella preventiva valutazione delle condotte obbligatorie proprie di tali sistemi.

In secondo luogo, per i SIA ad alto rischio è previsto un obbligo di divulgazione, da parte del convenuto, delle informazioni richieste dall’attore qualora costui provi la plausibilità della sua domanda risarcitoria (il cd. fumus boni iuris).

La disclosure deve essere autorizzata dall’autorità giudiziaria previa valutazione della sua necessarietà e proporzionatezza: a tale fine dovrà essere in particolare verificata l’impossibilità, da parte dell’attore, di reperire altrove le informazioni richieste, anche considerati gli obblighi di divulgazione gravanti sugli operatori di SIA.

Dovranno poi essere in ogni caso tutelati, nella massima estensione possibile, i segreti industriali del convenuto.

La proposta di Direttiva prevede, per l’ipotesi di inosservanza dell’obbligo di disclosure, che si presumano provati esattamente gli elementi che la documentazione richiesta avrebbe provato.

Per quanto riguarda la seconda fase di attuazione della Direttiva, la Commissione ha previsto l’istituzione di un programma di monitoraggio finalizzato a consentire la valutazione dell’eventuale introduzione di un regime di responsabilità oggettiva e/o di una copertura assicurativa obbligatoria.

Si tratta dunque di una fase solo eventuale, la cui esistenza dipenderà interamente dalla fenomenologia di incidenti e danni conseguenti all’utilizzo dei SIA di cui saremo testimoni nei prossimi anni.

 

Conclusioni

Un po’ per gioco, un po’ per coerenza, ho chiesto direttamente a Chat GTP come avrebbe concluso un articolo avente ad oggetto la responsabilità extracontrattuale dei sistemi di intelligenza artificiale.

Questa è stata la sua risposta: “In conclusione, la questione della responsabilità extracontrattuale dell’intelligenza artificiale è un tema complesso e in continua evoluzione che richiede un approccio olistico e una regolamentazione adatta. Mentre l’IA offre numerosi vantaggi e opportunità, è fondamentale affrontare in modo adeguato le sfide e i rischi associati al suo utilizzo, inclusi quelli legati alla responsabilità legale in caso di danni o comportamenti indesiderati. La definizione di chiare linee guida e standard normativi, insieme a meccanismi efficaci di attribuzione della responsabilità, diventa quindi essenziale per bilanciare l’innovazione tecnologica con la tutela dei diritti e della sicurezza degli individui. Inoltre, è importante promuovere una cultura di trasparenza, responsabilità e fiducia nell’IA, coinvolgendo tutte le parti interessate, compresi i governi, le imprese, gli esperti tecnici e la società civile. Solo attraverso un approccio collaborativo e inclusivo possiamo garantire che l’intelligenza artificiale sia sviluppata e utilizzata in modo etico, sicuro e responsabile per il beneficio di tutti”.

Preciso, rapido e indolore.

La dice lunga sullo stravolgimento che ci aspetta e che, forse, abbiamo sinora solo fiutato.

[1] In esito ai triloghi (negoziati interistituzionali tra i rappresentanti di Parlamento europeo, Consiglio e Commissione), il 9 dicembre 2023, al termine di una sessione negoziale di tre giorni, è stato raggiunto un accordo politico provvisorio parzialmente modificativo di tale proposta, con l’obiettivo di approvare in via definitiva la nuova normativa entro la conclusione dell’attuale legislatura europea. L’accordo dovrà ora essere formalmente approvato dal Consiglio (a maggioranza qualificata), e dal Parlamento europeo (a maggioranza dei suoi componenti), al più tardi nella sessione del prossimo aprile.

[2] Letteralmente la definizione di SIA formulata nel regolamento, sub art. 3 (1), è la seguente: “un sistema basato su una macchina progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

[3] Ad oggi, in tale categoria, sono inclusi i sistemi:

  • di identificazione biometrica remota, categorizzazione biometrica e riconoscimento delle emozioni (al di fuori delle categorie vietate);
  • utilizzati come componenti di sicurezza nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale e della fornitura di acqua, gas, riscaldamento ed elettricità;
  • finalizzati a determinare l’accesso, l’ammissione o l’assegnazione agli istituti di istruzione e formazione professionale (ad esempio, per valutare i risultati dell’apprendimento e orientare il processo di apprendimento e il monitoraggio dei comportamenti disonesti);
  • relativi alla valutazione dell’occupazione, ad ottimizzare la gestione dei lavoratori e l’accesso al lavoro autonomo (ad esempio, per pubblicare annunci di lavoro mirati, analizzare e filtrare le candidature e valutare i candidati);
  • usati per determinare l’accesso a servizi e a prestazioni pubblici e privati essenziali (come, ad esempio, l’assistenza sanitaria);
  • finalizzati alla valutazione dell’affidabilità creditizia delle persone fisiche, alla valutazione dei rischi finanziari, nonché alla determinazione dei prezzi in relazione ad assicurazioni sulla vita e assicurazioni sanitarie;
  • utilizzati nelle attività di contrasto, di gestione della migrazione, dell’asilo e del controllo delle frontiere, di amministrazione della giustizia, nonché nello svolgimento dei processi democratici e per la valutazione e classificazione delle chiamate di emergenza.

 

[4]Queste tipologia di SIA sono sottoposti ad obblighi di disclosure nei confronti dell’utilizzatore, il quale cioè deve essere messo al corrente della propria interazione con sistemi di intelligenza artificiale.

[5] La nozione General Purpose AI è stata inserita nella proposta dell’AI Act a seguito del trilogo intervenuto lo scorso 8/12/23 tra Consiglio Europeo, Parlamento e Commissione, durante il quale è stato deciso che anche tali modelli fondativi (contrariamente alla proposta più blanda e “liberista” dei governi italiani, francese e tedesco) avrebbero dovuto trovare una specifica disciplina all’interno dell’AI Act.

 

[6] Il “rischio sistemico a livello di Unione” si riferisce alla possibilità che l’uso dell’IA possa avere un impatto significativo sul mercato interno a causa della sua portata e con effetti negativi reali o ragionevolmente prevedibili su salute pubblica, sicurezza, diritti fondamentali o sulla società nel suo insieme, che possono essere propagati su larga scala lungo tutta la catena del valore. Ad esempio, se un’applicazione di guida autonoma mal funzionasse su larga scala, potrebbe causare incidenti stradali su vasta scala, influenzando quindi l’intero sistema di mobilità urbana.

[7] Attualmente, nel nostro ordinamento la responsabilità da malfunzionamento dell’algoritmo, in assenza di contratto, può essere disciplinata anche ricorrendo alla responsabilità oggettiva del custode di cui all’art. 2051 c.c.,  e/o alla responsabilità da prodotto difettoso con svariati limiti, tra cui (tra i più evidenti): (i) l’impossibilità o quanto meno l’elevata difficoltà a configurare il controllo giuridicamente rilevanti ai fini della responsabilità del custode, in presenza di machine learning. Può interessare sapere che il tema è parimenti sentito e discusso dalla dottrina francese (il cui ordinamento, come il nostro, conosce la responsabilitè du gardien) la quale si divide tra coloro che ritengono sempre e comunque configurabile il controllo poiché, anche con riferimento ai SIA cd. autonomi, esiste pur sempre un pulsando di spegnimento attivabile dall’uomo, e coloro che invece contraddistinguono il controllo sulla parte strutturale da quello sulla parte algoritmica (mancanti in caso di machine learning); (ii) la responsabilità da prodotto difettoso, per molti autori (anche d’oltralpe) implica e si riferisce esclusivamente a prodotti materiali (differentemente dall’algoritmo dei SIA) ma soprattutto il difetto deve sussistere al momento della messa in circolazione del prodotto. Tuttavia, soprattutto con riferimento ai machine learning, il difetto può sopravvenire in base alla loro autonoma evoluzione con conseguente scarsa tutela per gli utilizzatori.

[8] È bene chiarire che la proposta di Direttiva regola esclusivamente la responsabilità per danni derivanti dalla interposizione di un SIA tra la condotta del danneggiante ed il danno cagionato al danneggiato e non la differente ipotesi in cui il SIA sia uno strumento utilizzato internamente alla propria sfera decisionale o operativa da parte del danneggiante. In una siffatta ipotesi, infatti, non sarebbe più gravoso l’onere probatorio gravante sull’attore.

 

Lascia un commento