sabato, Luglio 20, 2024
Uncategorized

Intelligenza artificiale, il Parlamento europeo adotta tre relazioni per regolarne l’uso e promuovere l’innovazione

L’Unione europea sta attualmente preparando la sua prima serie di regole per gestire le opportunità e le potenziali minacce dell’intelligenza artificiale, concentrandosi sulla creazione di fiducia nella tecnologia e sulla gestione del suo potenziale impatto su individui, società ed economia. Le nuove regole mirano altresì a generare un habitat ottimale in cui i ricercatori, gli sviluppatori e le imprese unionali possano prosperare e collaborare meglio tra di loro.

L’intenzione della Commissione europea è di aumentare gli investimenti privati e pubblici sulle tecnologie di intelligenza artificiale a circa 20 miliardi di euro all’anno, ritenendo che questo settore sarà cruciale per completare quella trasformazione digitale già avviata con la strategia Digital Single Market e tentare una ripresa post-pandemia da Covid-19.

In previsione di una vera e propria proposta legislativa della Commissione europea sull’intelligenza artificiale, attesa per l’inizio del 2021, il Parlamento europeo ha istituito un comitato speciale per analizzarne l’impatto sull’economia dell’Unione.

Secondo il nuovo presidente della Commissione, Dragoș Tudorach, l’Europa ha attualmente bisogno di sviluppare un’intelligenza artificiale che sia affidabile, elimini pregiudizi e discriminazioni[1] e serva il bene comune, assicurando al contempo che le imprese e l’industria prosperino e generino benessere economico.

In questo contesto, il 20 ottobre 2020, il Parlamento ha adottato tre relazioni che illustrano come l’Unione europea può regolamentare al meglio l’intelligenza artificiale, promuovendo al contempo l’innovazione, gli standard etici e la fiducia nella tecnologia.

Uno dei rapporti, sviluppato da Iban Garcìa del Blanco (S&D, ES) sulla base di un approccio che vede l’individuo al centro del processo di trasformazione, si concentra su come garantire sicurezza, trasparenza e responsabilità, prevenire pregiudizi e comportamenti discriminatori, promuovere la responsabilità sociale e ambientale e garantire il rispetto dei diritti fondamentali. Il testo, approvato con 559 voti favorevoli, 44 voti contrari e 88 astensioni, prevede inoltre che le tecnologie ad alto rischio, come quelle con capacità di autoapprendimento, dovrebbero essere progettate in modo da consentire la sorveglianza umana in qualsiasi momento. Se viene utilizzata una funzionalità che potrebbe comportare una grave violazione dei principi etici e risultare pericolosa, le capacità di autoapprendimento dovrebbero essere disabilitate e dovrebbe essere ripristinato il pieno controllo umano.

Axel Voss (PPE, Germania) è invece l’autore del testo di iniziativa legislativa inerente l’introduzione di un regime di responsabilità civile per l’intelligenza artificiale, il cui obiettivo è proteggere i cittadini europei fornendo al contempo alle imprese la certezza giuridica necessaria per incoraggiare l’innovazione. Secondo lo stesso autore, la necessità è quella creare regole uniformi per le imprese, e la legge esistente dovrebbe essere presa in considerazione quale base di partenza.

Le regole dovrebbero essere applicate alle attività di intelligenza artificiale fisiche o virtuali che danneggiano o influiscono sulla vita, la salute, l’integrità fisica, il patrimonio, o che causano un rilevante danno immateriale che si traduce in una “perdita economica verificabile”. Sebbene le tecnologie di intelligenza artificiale ad alto rischio siano ancora rare[2], i deputati che hanno avanzato l’iniziativa legislativa – approvata con 626 voti favorevoli, 25 voti contrari e 40 astensioni – ritengono che i loro operatori dovrebbero avere un’assicurazione simile a quella per i veicoli motorizzati.

Per quanto riguarda i diritti derivanti da proprietà intellettuale, il Parlamento ha sottolineato l’importanza di un sistema efficace per l’ulteriore sviluppo dell’intelligenza artificiale, compresa la questione dei brevetti e dei nuovi processi creativi. Tra le questioni da risolvere c’è la tutela e la titolarità della proprietà intellettuale di qualcosa interamente sviluppato dall’intelligenza artificiale, ha affermato l’autore della Stéphane Séjourné (Renew, Francia), approvata con 612 voti favorevoli, 66 voti contrari e 12 astensioni. Secondo i deputati, è importante distinguere tra le creazioni umane ottenute con l’assistenza dell’intelligenza artificiale e quelle generate autonomamente da essa, che non dovrebbe però avere personalità giuridica. La titolarità dei relativi diritti di proprietà intellettuale  dovrebbe essere quindi concessa solo agli esseri umani.

La questione è di grande interesse per gli uffici brevetti di tutto il mondo ed in particolare per lo European Patent Office, che all’inizio del 2020 ha affrontato un caso emblematico[3],  respingendo entrambe le domande di brevetto del richiedente il quale, nel completarle con i dettagli dell’invenzione, aveva spiegato come l’inventore fosse il sistema di intelligenza artificiale denominato “DABUS” (Device for the Autonomous Bootstrapping of Unified Sentience).

Nelle sue decisioni[4], l’EPO ha ritenuto che l’interpretazione del quadro giuridico del sistema del brevetto europeo porti alla conclusione che l’inventore designato deve obbligatoriamente essere una persona fisica. L’Ufficio ha inoltre osservato che l’interpretazione del termine inventore come riferito a una persona fisica sembra essere uno standard imprescindibile ed applicabile anche a livello internazionale,tanto che vari tribunali nazionali hanno emesso decisioni in tal senso.

Come sottolineato nel suo comunicato stampa, disponibile integralmente qui, il Parlamento europeo è tra le prime istituzioni a presentare delle raccomandazioni su ciò che le norme sull’intelligenza artificiale dovrebbero includere in materia di etica, responsabilità e diritti di proprietà intellettuale. Queste raccomandazioni aiuteranno l’Unione europea a diventare un leader globale nello sviluppo dell’intelligenza artificiale, in attesa della proposta legislativa della Commissione che, come già detto, è attesa per l’inizio del prossimo anno.

Quelli sopra riassunti non sono che gli ultimi step, in materia di intelligenza artificiale, etica e diritto, di un percorso che ha già visto alcuni passaggi fondamentali, che verranno brevemente ripercorsi nei paragrafi che seguono.

Nell’aprile del 2019, la Commissione Europea ha pubblicato le Ethical Guidelines for Trustworthy AI[5] al fine di istruire le imprese e il pubblico sulle loro aspettative in merito al corretto sviluppo e utilizzo dell’intelligenza artificiale. Le linee guida, come già accaduto per il Regolamento Generale sulla Protezione dei Dati (GDPR), hanno posto l’Unione europea, ancora una volta, nella posizione di stabilire standard elevati a livello globale per coloro che intendono stipulare relazioni commerciali all’interno dell’Unione.

Pur non comportando alcun obbligo vincolante, le linee guida contenute nel documento includono un “Trustworthy Assessment”, ovvero un elenco di principi a cui le aziende dovrebbero attenersi nello sviluppo di sistemi di intelligenza artificiale, tra cui, in particolare, azione-supervisione umana, sicurezza, privacy e governance dei dati,  trasparenza, diversity e non discriminazione, accountability.

Già all’epoca, era risultato piuttosto chiaro che un unico sistema di regolamentazione non sarebbe bastato a “coprire” l’intelligenza artificiale e tutte le diverse implicazioni ad essa inerenti (incluse, ma non limitate alla tutela della proprietà intellettuale, alle leggi sulla protezione dei dati, alla protezione dei consumatori ed alla tutela dei diritti fondamentali dell’uomo).

Sulla scorta di tale ragionamento, nel febbraio 2020, la Commissione europea ha pubblicato un White Paper[6] sull’intelligenza artificiale, che rappresenta un primo passo nella preparazione di un atto normativo dell’Unione – sebbene non sia insolito che il prodotto finale, cioè la normativa, abbia poi un aspetto molto diverso da quello del White Paper iniziale. Lo scopo del White Paper è, dunque, cercare input e proposte sullo sviluppo di un quadro comune all’interno dell’Unione per la regolamentazione dell’intelligenza artificiale, invitando gli Stati membri, le altre istituzioni europee e tutte le parti interessate, compresa l’industria, le organizzazioni della società civile, i ricercatori ed il pubblico in generale, a dare un riscontro per contribuire al futuro processo decisionale della Commissione in questo settore.

Il White Paper rileva come un certo numero di Stati membri abbia adottato, a livello nazionale, approcci tra loro incoerenti e difformi – problematica di particolare rilievo per aziende e professionisti che devono conformare la propria attività alle norme vigenti. Confermando un approccio tecnologicamente neutrale, quindi volto a non cristallizzare le tecnologie in evoluzione in definizioni che rischierebbero di divenire presto obsolete, il White Paper non fornisce alcuna definizione concreta delle varie applicazioni dell’intelligenza artificiale. Nonostante ciò, ritiene “essenziale che le pubbliche amministrazioni, gli ospedali, i servizi di pubblica utilità e i servizi di trasporto, i supervisori finanziari e altre aree di interesse pubblico inizino rapidamente a distribuire prodotti e servizi che si basano sull’intelligenza artificiale nelle loro attività”.

Il White Paper propone poi la creazione di una “coerenza paneuropea” sulla regolamentazione dell’intelligenza artificiale che potrebbe, in linea di principio, ridurre la difficoltà che le imprese devono attualmente affrontare nel conformarsi, proprio a causa di requisiti divergenti da uno Stato membro all’altro. A tale riguardo, le aziende che sono interessate o danneggiate da queste problematiche sono state invitate a fornire riscontri pratici e a fare pressione affinchè vi possa essere un cambiamento sistematico nell’approccio.

Infine, il 19 giugno scorso, lo European Data Protection Supervisor (comunemente noto ai più come Garante europeo) ha pubblicato il documento “Opinion on the European Commission’s White Paper on Artificial Intelligence – A European approach to excellence and trust”. Mediante tale documento, come si può facilmente evincere dal titolo, il Garante europeo ha voluto fornire un proprio parere sul White Paper pubblicato dalla Commissione, al fine di sottolinearne pregi e – soprattutto – aspetti critici, in riferimento ai quali vengono fornite suggerimenti e proposte.

Il Garante, pur riconoscendo le potenzialità e la crescente rilevanza dell’intelligenza artificiale non rinuncia ad a evidenziare come quest’ultima presenti costi e rischi che dovrebbero essere attentamente considerati da chiunque adotti una tecnologia[7] e, in particolare, dalle pubbliche amministrazioni che elaborano grandi quantità di dati personali. Oltre a questo, evidenzia come la mancanza di una definizione univoca di “intelligenza artificiale” sia in parte un’occasione persa dalla Commissione che, come detto, tende a mantenersi neutrale rispetto alle tecnologie per evitare di creare definizioni obsolete.

Si segnala, infine, la pubblicazione di un position paper, indirizzato principalmente alla Commissione europea e rilasciato congiuntamente da Belgio, Danimarca, Estonia, Finlandia, Francia, Irlanda, Lettonia, Lussemburgo, Paesi Bassi, Polonia, Portogallo, Repubblica Ceca, Spagna e Svezia in data 8 ottobre 2020. Nel documento, consultabile integralmente qui (in lingua originale), sebbene venga riconosciuto il ruolo dell’IA quale promotrice dei processi di innovazione e digitalizzazione e venga sottolineata l’importanza di un ecosistema favorevole e fiducioso rispetto all’implementazione dell’intelligenza artificiale, si spinge per evitare di porre barriere e requisiti ritenuti eccessivamente gravosi e, quindi, di ostacolo all’innovazione.

Sempre secondo il documento, al fine di promuovere in modo proattivo e sistematico un’intelligenza artificiale affidabile a vantaggio della società, dei cittadini e dell’economia, sarebbe necessario adottare soluzioni più tipiche di un approccio soft law come l’autoregolamentazione, il voluntary labelling ed altre pratiche facoltative, nonché favorire un processo di standardizzazione, come supplemento alla legislazione già esistente, che garantisca che gli standard di sicurezza e protezione essenziali siano rispettati. I paesi firmatari del documento ritengono, infatti, che un regime di soft law permetterebbe di trarre benefici dalla tecnologia e identificare in maniera più flessibile le potenziali sfide ad essa associate, sempre tenendo conto del fatto che si tratta di un sistema in rapida e continua evoluzione.

La presa di posizione dei paesi sopracitati si contrappone, in particolare, alla visione della Germania – senza dubbio annoverabile tra i governi UE ferventi sostenitori dell’adozione di un sistema normativo rigido in materia di intelligenza artificiale. Ma come evidenziato da un recente contributo di Politico, il punto focale della contesa tra regimi di hard e soft law (trattato, peraltro, proprio in un recente incontro informale tra ministri dell’Unione) rimane la questione di come definire in maniera esaustiva le applicazioni di intelligenza artificiale “ad alto rischio”.  Una volta elaborata tale definizione, si potrebbe stabilire che per tali applicazioni siano valide regole e test più rigidi prima della distribuzione, mentre per altre applicazioni considerate a basso rischio sia sufficiente un approccio più flessibile.

 

[1] M. Falchi, Se l’algoritmo è discriminatorio, 5 ottobre 2020, Ius in Itinere. Disponibile qui: https://www.iusinitinere.it/intelligenza-artificiale-se-lalgoritmo-e-discriminatorio-31066

[2] G. Bertelli, An overview on human rights, artificial intelligence and autonomous weapons systems, 26 giugno 2020, Ius in Itinere. Disponibile qui: https://www.iusinitinere.it/an-overview-on-human-rights-artificial-intelligence-and-autonomous-weapons-systems-29017

[3]https://www.epo.org/news-events/news/2020/20200128.html

[4]EP 18 275 163, https://register.epo.org/application?number=EP18275163#_blank e EP 18 275 174, https://register.epo.org/application?number=EP18275174#_blank

[5]https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

[6]https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf

[7] D. Dimalta, Il parere dell’EDPS, il Garante europeo, sul White paper della Commissione europea, 6 luglio 2020, AI4Business – Digital360.

Disponibile qui: https://www.ai4business.it/intelligenza-artificiale/il-parere-delledps-il-garante-europeo-sul-white-paper-della-commissione-europea/

Giacomo Bertelli

Nato a Genova nel 1992, si laurea in Giurisprudenza nel 2017 ed è abilitato alla professione forense dal 2021. Da sempre amante di cinema, sport, musica ed attualità politico-economica, durante gli anni universitari sviluppa un forte interesse per la tecnologia e l'informatica giuridica. Ha conseguito nel 2020 il master LL.M. in Law of Internet Technology presso l'Università Luigi Bocconi, incentrato principalmente su proprietà intellettuale, protezione dei dati personali e diritto della concorrenza nel mondo digitale. Dopo un'esperienza di un anno presso lo European Patent Office, dove si è occupato principalmente di brevetti, design, intelligenza artificiale e strategie legate alla proprietà industriale, attualmente lavora nel dipartimento legale di Google Italy.

Lascia un commento