venerdì, Marzo 29, 2024
Uncategorized

Intelligenza Artificiale e GDPR: un binomio possibile

Intelligenza Artificiale e GDPR: un binomio possibile

a cura di Luisa Grillo

  1. Introduzione

Oggi il mondo si avvicina ad una trasformazione radicale grazie allo sviluppo tecnologico nell’ambito dell’intelligenza artificiale, che col passare del tempo trasformerà velocemente il nostro modo di vivere ed esistere.

“L’intelligenza artificiale (IA) non è fantascienza: fa già parte delle nostre vite. Che si tratti di utilizzare un assistente personale virtuale per organizzare la nostra giornata lavorativa, viaggiare in un veicolo a guida autonoma o avere un telefono che ci suggerisce le canzoni o i ristoranti che potrebbero piacerci, l’IA è una realtà.”[1]

L’intelligenza artificiale però per attuare le proprie finalità ha bisogno di una grande quantità di dati per accrescere le proprie conoscenze e, basandosi su questi, riuscire a prendere decisioni. Infatti, la gestione della protezione dei dati costituisce un dilemma fondamentale su cui riflettere.

I dati sono stati definiti il “nuovo petrolio”[2], dal momento che costituiscono la principale risorsa della nuova economia digitale[3]. Sono lo specchio dell’umanità ed il motore che fa funzionare gli algoritmi, tuttavia allo stesso tempo non possono essere sempre accessibili e devono necessariamente essere protetti.

Nella Risoluzione del Parlamento europeo del 12 febbraio 2019  è riconosciuto, da un lato, che per far si che vengano usate tecnologie basate sull’intelligenza artificiale è necessario il libero flusso di dati all’interno dell’UE, dall’altro, che occorre garantire un forte livello di sicurezza, riservatezza e protezione dei dati, invitando “la Commissione a garantire che qualsiasi futuro quadro normativo dell’Unione europea in materia di intelligenza artificiale garantisca la riservatezza e la protezione dei dati personali”[4].

E’ proprio da questi contrasti che nascono una serie di questioni legali ed etiche nella ricerca di un equilibrio tra i notevoli progressi sociali e tecnologici in nome dell’IA e i diritti fondamentali in tema di privacy.

 

  1. Che cos’è l’IA?

John Mccarthy, un informatico americano, coniò il termine “intelligenza artificiale” nel 1956. Oggi questo termine si riferisce a tutto, dall’automazione dei processi robotici alla robotica reale, e recentemente ha assunto rilievo grazie ai “big data”.

È sicuramente un’operazione complicata definire l’IA, in quanto la definizione può cambiare a seconda del tipo di approccio che si intende attribuire, fondamentalmente secondo quattro modelli: pensando in modo umano; pensando razionalmente; agendo in modo umano; agendo razionalmente.

In ogni modo, l’IA può svolgere compiti quali l’identificazione di “patterns[5] nei dati in modo più efficiente rispetto agli esseri umani, consentendo alle imprese di ottenere maggiori informazioni.[6] L’intelligenza artificiale infatti descrive un sistema basato su dei computer che tramite i dati (per lo più personali) consentono ad esso di apprendere e diventare efficiente.

I sistemi basati sull’IA possono diventare efficaci solo se dispongono di dati sufficienti da cui imparare, al fine di prendere decisioni migliori. L’intelligenza artificiale, l’apprendimento automatico, l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento profondo, sono termini che sono spesso usati come sinonimi, ma chiariamo questi concetti:

  • IA: l’IA è la simulazione dei processi di intelligenza umana da parte delle macchine, in particolare i sistemi informatici. Tali processi comprendono l’apprendimento (acquisizione di informazioni e regole per l’utilizzo delle informazioni), il ragionamento (utilizzo di regole per raggiungere conclusioni approssimative o definitive) e l’auto-correzione.[7]
  • Machine Learning: l’apprendimento automatico si basa su algoritmi che possono imparare dai dati senza basarsi su una programmazione basata su regole.[8] Esso è dunque la scienza che permette ai computer di imparare e agire come fanno gli esseri umani, e migliorare il loro apprendimento nel tempo in modo autonomo, alimentando i loro dati e informazioni sotto forma di osservazioni e interazioni nel mondo reale.[9]
  • Supervised machine learning: l’apprendimento supervisionato è un metodo utilizzato per consentire alle macchine di classificare oggetti, problemi o situazioni sulla base di dati correlati immessi nelle macchine stesse.[10]
  • Unsupervised machine learning: l’apprendimento non supervisionato è un metodo utilizzato per consentire alle macchine di classificare oggetti materiali e immateriali senza fornire alle macchine alcuna informazione preventiva sugli oggetti.[11]
  • Deep learning: è una sottocategoria del Machine Learning e indica quella branca dell’Intelligenza Artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, chiamate reti neurali artificiali. Da un punto di vista più tecnico si potrebbe dire che è l’apprendimento da parte delle “macchine” attraverso dati appresi grazie all’utilizzo di algoritmi.[12]

Il potere dell’IA dunque consiste nell’identificare modelli complessi. Questo accade nello scenario dei big data quando il volume, la velocità e la varietà (le c.d. tre V)[13] dei dati sono semplicemente troppo grandi per un cervello umano per affrontare e riconoscere le correlazioni.

 

  1. Quadro europeo

Il momento in cui si è registrato un incremento dell’attenzione sulla Intelligenza artificiale è stato proprio nel 2018.

Nel gennaio 2018, il CEO di Google Sundar Pichai fece una forte affermazione, sostenendo che l’IA avrebbe cambiato l’umanità più di quanto ha fatto l’elettricità: AI is one of the most important things humanity is working on. It is more profound than, I dunno, electricity or fire[14]. Iniziava così un anno pieno di novità per l’IA, ed anche per l’Europa che da un lato voleva cercare di essere indipendente, dal punto di vista tecnologico, da paesi come Stati Uniti e Cina, e dall’altro lato mantenere l’eticità nei confronti di una tecnologia che fino ad allora non aveva mai avuto un’adeguata governance politica che ne stabilisse delle regole.

Proprio a causa della scarsa regolamentazione, Il 9 marzo 2018 il Gruppo europeo sull’etica nelle scienze e nuove tecnologie della Commissione europea ha pubblicato lo Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems[15]. Questa dichiarazione richiede l’avvio di un processo che spianerebbe la strada verso un quadro etico e giuridico comune e riconosciuto a livello internazionale per la progettazione, la produzione, l’uso e la governance dell’intelligenza artificiale.

Sulla stessa linea, sempre lo stesso anno, il 25 aprile 2018 la Commissione europea ha pubblicato la Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions – Artificial Intelligence for Europe[16], focalizzandosi sempre sul significato dell’IA, e definendola quindi  come un sistema che mostra un comportamento intelligente analizzando il suo ambiente e intraprendendo azioni con un certo grado di autonomia.

Successivamente, sempre la Commissione europea ha nominato il Gruppo di esperti di alto livello sull’Intelligenza artificiale (High-level Expert Group on Artificial Intelligence) per far si che il tema dell’IA venisse affrontato in maniera più approfondita.

Altro evento rilevante del 2018 è rappresentatodalla quarantesima Conferenza internazionale dei garanti privacy, tenutasi a Brussels, dove è stato pubblicato un documento intitolato: Declaration on Ethics and Data Protection in Artificial Intelligence[17]. Durante la conferenza si è ritenuto che qualsiasi creazione, sviluppo ed uso di sistemi di intelligenza artificiale dovesse rispettare pienamente i diritti umani, in particolare i diritti alla protezione dei dati personali e alla vita privata, nonché la dignità umana e la non discriminazione, e fornire soluzioni per consentire agli individui di mantenere il controllo e la comprensione dei sistemi di intelligenza artificiale.

Il 3 dicembre 2018 la European Commission for the Efficiency of Justice (cepej) del Consiglio d’Europa ha pubblicato la Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro contesto[18], adottando cinque principi fondamentali in tema di IA:

  • Principio del rispetto dei diritti fondamentali: assicurare che l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali.
  • Principio di non discriminazione: prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone.
  • Principio di qualità e sicurezza: in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro.
  • Principio di trasparenza, imparzialità ed equita: rendere le metodologie di trattamento dei dati accessibili e comprensibili ed autorizzare verifiche esterne.
  • Principio del “controllo da parte dell’utilizzatore”: precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte.

Sempre nel dicembre 2018 il Gruppo di esperti sull’Intelligenza artificiale della Commissione europea (European Commission’s High-Level Expert Group on Artificial Intelligence – ai hleg) ha pubblicato il documento dal titolo Draft Ethics Guidelines for trustworthy AI[19].

Secondo le linee guida, un IA affidabile dovrebbe essere:

  • legittima: rispettando tutte le leggi e i regolamenti applicabili.
  • etica: rispettando principi e valori etici.
  • robusta: sia da un punto di vista tecnico, sia da quello sociale.

Se quindi il 2018 può essere ricordato come l’anno in cui l’Europa ha scoperto l’importanza politica dell’IA, il 2020 ed 2021 sono gli anni in cui i piani nazionali sono finalmente arrivati.

Nel 2020 Il Ministero dello Sviluppo Economico ha pubblicato le proposte per la Strategia nazionale per l’intelligenza artificiale redatte da un gruppo di 30 esperti. Un documento con una visione destinata ad analizzare l’intero sistema produttivo del Paese dando indicazioni  sull’implementazione della futura Strategia in ambito di IA.[20]

La più recente regolamentazione invece la si può trovare nella Risoluzione del 20 gennaio 2021[21]. L’obbiettivo principale della risoluzione è quello di far si che gli stati membri facciano in modo che l’IA si concentri sull’uomo e si ponga al servizio dello stesso.

La Risoluzione, inoltre, individua ulteriori “Principi Guida” chiarendo che: le tecnologie dell’IA e i sistemi di rete dovrebbero mirare a garantire la certezza del diritto per i cittadini; le norme sul conflitto di leggi e giurisdizioni dovrebbero continuare ad applicarsi tenendo conto degli interessi dei cittadini, nonché la necessità di ridurre il rischio di forum-shopping; l’IA non può sostituire gli esseri umani nel processo giudiziario quando si tratta di emettere una sentenza o di prendere una decisione definitiva di qualsiasi tipo, in quanto tali decisioni devono sempre essere prese da un essere umano, ed essere rigorosamente soggetti a verifica umana e a giusto processo; quando si utilizzano le prove fornite dalle tecnologie assistite dall’IA, le autorità giudiziarie dovrebbero avere l’obbligo di motivare le loro decisioni; ricorda che l’IA è un progresso scientifico che non deve pregiudicare la legge, ma deve al contrario essere sempre disciplinato dalla legge stessa, e che in nessun caso l’IA può violare i diritti fondamentali, la democrazia e lo Stato di diritto; l’IA utilizzata a fini di difesa dovrebbe essere responsabile, equa, tracciabile, affidabile e governabile; l’intelligenza artificiale, la robotica e le tecnologie connesse, compresi il software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, indipendentemente dal settore in cui sono utilizzati, dovrebbero essere sviluppati in modo sicuro e tecnicamente rigoroso.

 

  1. IA e Big Data: processo decisionale automatizzato ai sensi del GDPR

Quando si parla di intelligenza artificiale risulta quasi automatico parlare anche del Regolamento Generale sulla Protezione dei Dati (GDPR)[22]. In effetti, il GDPR ha avuto un impatto più forte di qualsiasi altra legge a livello mondiale in termini di creazione di un mercato di dati più regolamentato.[23] Infatti il GDPR entra in vigore in un momento cruciale per l’economia digitale e per il mondo digitale in generale.

Il GDPR non fa riferimento specificamente all’IA, ma piuttosto disciplina il trattamento dei dati personali indipendentemente dalla tecnologia utilizzata. Di conseguenza, qualsiasi
tecnologia che è progettata per elaborare i dati personali, compresa l’IA, è pienamente catturata dal regime. L’European Data Protection Board (EDPB)[24] si è espresso con testuali parole in una recente lettera a un membro del Parlamento europeo: “il GDPR è costruito in modo tecnologicamente neutro per poter affrontare qualsiasi cambiamento tecnologico o rivoluzione.”[25]

La domanda principale da porsi è: quali sono le disposizioni del GDPR rilevanti per lo sviluppo dell’intelligenza artificiale nello scenario dei big data?

Con particolare attenzione al processo decisionale automatizzato, compresa la profilazione[26], il GDPR conferisce agli individui il diritto di non essere soggetti esclusivamente al processo decisionale automatizzato.

A questo proposito, giova ricordare che l’art. 4 del GDPR definisce i dati personali[27] come “qualsiasi informazione relativa a una persona fisica identificata o identificabile” e la profilazione[28]come qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di dati soggettivi per valutare aspetti relativi ad una persona fisica”.

La relazione tra intelligenza artificiale e big data è bidirezionale: da un lato, l’intelligenza artificiale, attraverso l’apprendimento automatico, ha bisogno di un enorme volume di dati (compresi i dati personali) per imparare e per eseguire un processo decisionale migliore, dall’altro lato, gli analisti di dati utilizzano tecniche di intelligenza artificiale per sintetizzare informazioni da enormi set di dati.[29]

Altro principio rilevante nell’uso dei dati è quello relativo alla qualità degli stessi. Tale principio è inteso come garanzia che i dati trattati siano “adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per le quali sono trattati; esatti, e se necessario, aggiornati”. Si tratta di un principio sancito nel regolamento[30], ma già presente nella Direttiva 95/46/CE del 1995, relativa alla tutela delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati.[31]

A conclusione di un percorso normativo non semplice, il legislatore ha inserito nel Regolamento l’art. 22: “Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione”[32].

L’articolo 22 fa riferimento al concetto di processo decisionale automatizzato, ossia: la capacità di prendere decisioni con mezzi tecnologici senza coinvolgimento umano, sulla base di qualsiasi tipo di dati. In linea generale, questo articolo stabilisce che l’IA non può essere utilizzata come unica autorità decisionale nelle scelte che hanno effetti giuridici significativi sugli utenti.

Inoltre, l’art. 22, paragrafo 1 prevede che: “l’interessato ha diritto di non essere sottoposto ad una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.

Al riguardo occorre chiarire la reale portata di tale norma, la quale non vieta tout court le decisioni automatizzate, ma semplicemente limita l’assunzione di decisioni unicamente con sistemi automatizzati. Difatti, nel considerando 71 del GDPR viene previsto il rifiuto automatico di una domanda di credito online o pratiche di assunzione elettronica senza interventi umani.

Al paragrafo 2 dell’art. 22, si possono trovare tre eccezioni al divieto generale di un processo decisionale completamente automatizzato che porti effetti nella sfera giuridica dell’individuo: a) quando la decisione è necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento; b) quando la decisione è autorizzata dal diritto dell’Unione o dallo Stato membro di appartenenza del titolare del trattamento; c) quando la decisione si basa sul consenso esplicito dell’interessato.

Soltanto nei casi di cui ai punti a) e c), il titolare del trattamento dovrà attuare misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione.

Un’ulteriore garanzia è prevista dalla limitazione al trattamento di particolari categorie di dati previste dal GDPR, ammenochè non vi sia il consenso esplicito dell’interessato o qualora il trattamento sia necessario per motivi di interesse pubblico rilevante sulla base del diritto dell’Unione o degli Stati membri.

Pertanto, l’articolo 22 del GDPR stabilisce una specifica norma giuridica che disciplina i processi decisionali, e più in generale, conferisce all’individuo il diritto di non essere sottoposto a tali processi senza un intervento umano[33].

Si pensi ad esempio a decisioni automatizzate che impediscano ad un soggetto l’ingresso in uno Stato o l’accesso ad un aiuto statale. Data l’importanza degli effetti di tali decisioni è necessario che vi sia la possibilità per l’interessato di chiedere l’intervento di un soggetto umano per la decisione finale.

In questo modo l’articolo 22 ha un impatto diretto sul sistema dei big data, vietando l’analisi automatizzata di molti set di dati, richiedendo l’intervento umano che però potrebbe gravare sul processo automatizzato e potrebbe rallentare i sistemi delle tecnologie innovative.

L’articolo 22 potrebbe far sorgere una profonda diffidenza verso i processi automatizzati che sono alla base dell’intelligenza artificiale. Pertanto, potrebbe essere possibile che le imprese siano costrette a modificare i loro modelli commerciali, optando per pratiche meno efficienti ma conformi a questa regola.[34]

Il diritto all’intervento umano sancito dall’articolo 22 richiede che le decisioni dell’IA debbano essere supervisionate. Un modello supervisionato di apprendimento utilizza insiemi etichettati di dati per sviluppare algoritmi, integrati dalla supervisione umana, i modelli non supervisionati invece consentono all’IA di evolversi da sola.

Dunque, l’ampia protezione dei diritti alla privacy dei dati garantita dal GDPR potrebbe, in qualche modo, limitare l’uso delle caratteristiche più utili dell’IA: autonomia e automazione[35].

  1. Conclusioni

Il GDPR apparentemente potrebbe sembrare incompatibile con l’IA, dato che contiene principi quali, limitazione delle finalità, minimizzazione dei dati, trattamento speciale dei “dati sensibili” e limitazione delle decisioni automatizzate, che andrebbero ad intaccare le proprie funzionalità principali.

In realtà però è possibile attuare un’interpretazione del GDPR che vada a conciliare le due necessità contrastanti: proteggere i dati personali e consentire l’utilizzo dell’IA.

Un’efficace regolamentazione della privacy rappresenta quindi un punto chiave per consentire a tecnologie come l’intelligenza artificiale di aiutare a risolvere le più grandi sfide del mondo.

Allo stesso tempo, è fondamentale riconoscere la necessità di un sistema legale per prevenire usi dannosi della tecnologia e per salvaguardare le informazioni personali al fine di abbracciare le nuove tecnologie basate sull’IA.[36]

La privacy è un diritto umano fondamentale, e un’efficace protezione della stessa è importante per consentire agli individui di fidarsi della tecnologia. È infatti essenziale trovare un equilibrio tra la capacità di effettuare un’analisi dei big data (e di conseguenza di abbracciare pienamente uno sviluppo etico dell’IA) e la tutela degli interessi e dei diritti in materia di privacy.

In conclusione, è fondamentale essere consapevoli che un fallimento nel campo dello sviluppo dell’intelligenza artificiale potrebbe implicare un regresso nell’economia algoritmica emergente. A causa dell’applicazione del GDPR, molte imprese potrebbero essere scoraggiate dall’offrire i propri servizi basati sull’IA nell’UE, lasciando in tal modo i consumatori e le imprese europee impossibilitati ad accedere a servizi vantaggiosi e rendendo il mercato dell’UE per l’IA meno competitivo ed innovativo.

Riprendendo la citazione di Stephen Hawking, secondo il quale “Il successo nella creazione di IA efficaci, potrebbe essere il più grande evento nella storia della nostra civiltà, o il peggiore, non lo sappiamo, quindi non possiamo sapere se saremo infinitamente aiutati dall’IA, o ignorati da essa e fiancheggiati, o presumibilmente distrutti, ammenochè  non impariamo a prepararci ed evitare i potenziali rischi”, la realizzazione ottimistica di queste previsioni la si potrà avere soltanto attraverso un uso della tecnologia al servizio dei diritti, e non viceversa.

 

[1] Commissione europea nella Comunicazione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, L’intelligenza artificiale per l’Europa, COM(2018) 237, 25 aprile 2018, p. 1.

[2] The Economist, The world’s most valuable resource is no longer oil, but data, pubblicato il 6 maggio 2017.

[3] RICCIUTO, La patrimonializzazione dei dati personali. Contratto e mercato nella ricostruzione del fenomeno, in Dir. Inf., 2018, 4-5, 689.

[4] Risoluzione del Parlamento europeo del 12 febbraio 2019 su una politica industriale europea globale in materia di robotica e intelligenza artificiale.

[5] Nell’intelligenza artificiale il pattern è un sinonimo di schema, modello, esempio.

[6] AI (artificial intelligence), https://searchenterpriseai.techtarget.com/definition/AI-Artificial-Intelligence

[7] UGO RUFFOLO, Intelligenza artificiale, il diritto, i diritti e l’etica, Milano, 2020.

[8] An executive’s guide to machine learning, (McKinsey & Co) – https://www.mckinsey.com/industries/high-tech/our-insights/an-executives-guide-to-machine-learning

[9] What is machine learning?” – https://www.techemergence.com/what-is-machine-learning/

[10] “Supervised Learning”https://www.techopedia.com/definition/30389/supervised-learning

[11]Unsupervised Learning”https://www.techopedia.com/definition/30390/unsupervised-learning.

[12] “Deep Learning” – https://www.ai4business.it/intelligenza-artificiale/deep-learning/deep-learning-cose/

[13] Le tre V dei big data – https://www.dataskills.it/le-tre-v-dei-big-data/#gref

[14] https://www.cnbc.com/2018/02/01/google-ceo-sundar-pichai-ai-is-more-important-than-fire-electricity.html

[15] Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems- https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf

[16] Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions – Artificial Intelligence for Europe – https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN

[17] Declaration on Ethics and Data Protection in Artificial Intelligencehttp://globalprivacyassembly.org/wp-content/uploads/2018/10/20180922_ICDPPC-40th_AI-Declaration_ADOPTED.pdf

[18] Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata dalla CEPEJ nel corso della sua 31 ͣ Riunione plenaria (Strasburgo, 3-4 dicembre 2018) – https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348

[19] Ethic guidelines for thrusty AI – https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

[20] https://www.mise.gov.it/index.php/it/198-notizie-stampa/2041246-intelligenza-artificiale-online-la-strategia

[21] European Parliament resolution of 20 January 2021 on artificial intelligence: questions of interpretation and application of international law in so far as the EU is affected in the areas of civil and military uses and of state authority outside the scope of criminal justice (2020/2013(INI)) – https://www.europarl.europa.eu/doceo/document/TA-9-2021-0009_EN.html

[22] REGOLAMENTO (UE) 2016/679 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) – https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=celex%3A32016R0679.

[23] GDPR and AI: Friends, foes or something in between?” – https://www.sas.com/en_us/insights/articles/data-management/gdpr-and-ai–friends–foes-or-something-in-between-.html

[24] Il comitato europeo per la protezione dei dati è un organo europeo indipendente, che contribuisce all’applicazione coerente delle norme sulla protezione dei dati in tutta l’Unione europea e promuove la cooperazione tra le autorità competenti per la protezione dei dati dell’UE.  Il comitato europeo per la protezione dei dati è composto da rappresentanti delle autorità nazionali per la protezione dei dati e dal Garante europeo della protezione dei dati (GEPD). Ne fanno altresì parte le autorità di controllo degli Stati EFTA/SEE per quanto riguarda le questioni connesse al regolamento generale sulla protezione dei dati (GDPR), senza però che i loro rappresentanti godano del diritto di voto o di essere eletti presidente o vicepresidenti. Il comitato è istituito dal regolamento generale sulla protezione dei dati e ha sede a Bruxelles. La Commissione europea e, per quanto riguarda le questioni connesse al regolamento generale sulla protezione dei dati, l’Autorità di vigilanza EFTA hanno titolo a partecipare alle attività e alle riunioni del comitato senza diritto di voto.

[25] EDPB Response to the MEP Sophie in‘t Veld’s letter on unfair algorithms.

[27] Qualsiasi informazione relativa a una persona fisica identificata o identificabile (persona interessata); una persona fisica identificabile è una persona fisica che può essere identificata, direttamente o indirettamente, in particolare mediante riferimento ad un identificatore quale un nome, un numero di identificazione, dati di localizzazione, un identificatore online o uno o più fattori specifici dell’identità fisica, fisiologica, genetica, mentale, economica, culturale o sociale di tale persona fisica.

[28] Qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di dati soggettivi per valutare aspetti relativi ad una persona fisica, in particolare per analizzare o prevedere aspetti relativi all’operato di tale persona fisica sul lavoro, sulla situazione economica, salute, preferenze personali, interessi, affidabilità, comportamento e così via.

[29] Artificial Intelligence, robotics, privacy and data protection”https://edps.europa.eu/sites/edp/files/publication/16-10-19_marrakesh_ai_paper_en.pdf.

[30] Cfr. art. 5 del Regolamento.

[31] La direttiva dedicava l’intera sezione VI a tale principio, rubricandola “Principi relativi alla qualità dei dati”.

[32] REGOLAMENTO (UE) 2016/679 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO, Art. 22.

[33] Z. ZARSKY,The GDPR in the Age of Big Datahttps://scholarship.shu.edu/cgi/viewcontent.cgi?referer=http://scholar.google.it/&httpsredir=1&article=1606&context=shlr

[34] F. Pizzetti, Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli, 2018

[35] “Supervised V Unsupervised Machine Learning — What’s The Difference?”, https://www.forbes.com/sites/bernardmarr/2017/03/16/supervised-v-unsupervised-machine-learning-whats-the-difference/#747839485d85

[36] Intel Privacy Proposal Aims at ‘Ethical’ Data Use, AI Development”https://www.meritalk.com/articles/intel-privacy-proposal-aims-at-ethical-data-use-ai-development/

Lascia un commento