giovedì, Aprile 25, 2024
Uncategorized

Intelligenza Artificiale, dai principi alla pratica: tra effetti dirompenti e mera applicazione del diritto

Intelligenza Artificiale: dai principi alla pratica tra effetti dirompenti e mera applicazione del diritto

a cura di Avv. Francesco Nesta (DPO Regione Umbria), per il progetto “Intelligenza artificiale e Diritti Umani” di ELSA Perugia

Siamo avvolti da crescenti esigenze e ricerca continua della migliore soluzione digitale, che sia al tempo stesso di immediato utilizzo e di facile comprensione, senza preoccuparci dei possibili effetti che ne possano derivare rispetto alle implicazioni, non prevedibili o finanche negative, sui nostri diritti e sulle nostre libertà fondamentali.

Difficile rinvenire una definizione generale e condivisa di intelligenza artificiale, soprattutto se teniamo conto che tale branca della scienza dei dati è venuta agli albori e si è imposta non più di 70 anni fa: nel 1956, nel New Hampshire, al Dartmouth College, si tenne un convegno al quale presero parte alcune delle figure di spicco del nascente campo della computazione dedicata allo sviluppo di sistemi intelligenti: John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester. Tra le possibili definizioni che si possono trovare e che si considerino accettate da giuristi, matematici, fisici, ingegneri e filosofi, siano essi contemporanei o meno, quella che trovo maggiormente attinente ai fini dell’analisi del rapporto tra innovazione tecnologica e diritto è la seguente: “l’intelligenza artificiale è la scienza che consente  ad una macchina di fare cose che richiedono intelligenza quando vengono eseguite dagli esseri umani[1] (Citazione dalla riedizione del 2006 in McCarthy, Minsky, Rochester, Shannon 2006)[2].

Tale definizione contiene in sé una pluralità di concetti, sfaccettature e implicazioni che vanno ben al di là della discussione che affronta i temi del rapporto tra tecnologia da una parte e l’etica e la morale dall’altra. Per dirla con Luciano Floridi, “l’intelligenza artificiale è prima di tutto una etichetta vaga, che fa riferimento a una famiglia di discipline, tecniche e soluzioni ingegneristiche[3]. Il professore di filosofia ed etica dell’informazione non la considera né intelligente né artificiale: l’IA è fondamentalmente “stupida” in quanto ha la capacità di svolgere specifiche, determinate e limitate azioni e, al tempo stesso, è “umana” proprio in quanto agisce secondo le istruzioni impartite dall’uomo. Eppure, l’intelligenza artificiale ci spaventa a tal punto che necessita di uno specifico inquadramento tra principi fondamentali che ci possano rassicurare ai fini della consapevolezza che ogni suo utilizzo non avvenga a danno o in contrasto con le necessità e le aspettative proprie di ogni essere umano. Per questo la Commissione europea ha individuato un gruppo di 52 esperti rappresentanti del mondo accademico, della società civile e dell’industria per dettare delle linee guida e delle raccomandazioni per il legislatore europeo su temi legati agli aspetti etici, legali e societari connessi con l’intelligenza artificiale. Il gruppo ha individuato nel 2019 cinque principi alla base dell’azione dell’intelligenza artificiale basati sui quattro principi di bioetica esistenti e su un quinto principio aggiuntivo e specifico dell’intelligenza artificiale. Tali principi sono[4]:

  1. “Principio di Beneficenza (“fare solo bene”) Creare una tecnologia di IA che sia benefica per l’umanità e che metta al centro la promozione del benessere delle persone e del pianeta. “Dignità umana”, “bene comune”, “sostenibilità”: le parole chiave di riferimento.” – ciò a beneficio dell’intelligenza umana per promuovere il miglioramento dell’umanità senza presentare alcun rischio e, ovviamente, senza la possibilità di essere utilizzata impropriamente;
  2. “Principio di Non Maleficenza (“non nuocere”) Prevenire le violazioni della privacy personale; evitare l’uso improprio delle tecnologie IA (corsa agli armamenti); essere cauti rispetto alle future capacità dell’intelligenza artificiale (auto-miglioramento ricorsivo). Prevenire dunque i danni che sorgono sia dall’intenzione degli esseri umani che dal comportamento delle macchine.” – con limitazione all’uso eccessivo o improprio delle tecnologie di intelligenza artificiale se non per perseguire conseguenze positive operando appunto entro determinati limiti sicuri;
  3. “Principio di Autonomia (“il potere di decidere”) Quando adottiamo l’IA e il suo agire intelligente, cediamo volontariamente e trasferiamo parte del nostro potere decisionale alle macchine. Pertanto, affermare il principio di autonomia nel contesto dell’IA significa raggiungere un equilibrio tra il potere decisionale che manteniamo per noi stessi e quello che deleghiamo agli agenti artificiali. Non solo dovrebbe essere promossa l’autonomia degli umani, ma anche l’autonomia delle macchine dovrebbe essere ristretta e resa intrinsecamente reversibile. Il punto centrale è proteggere il valore intrinseco della scelta umana – almeno per decisioni significative – e, come corollario, contenere il rischio di delegare troppo alle macchine. Gli umani dovrebbero mantenere il potere di decidere quali decisioni prendere, esercitando la libertà di scegliere dove necessario, e cedendola nei casi in cui altri interessi, come l’efficienza, superino la perdita del controllo sul processo decisionale.” – con affermazione del potere di ciascun individuo di decidere autonomamente, di decidere di nuovo e di tornare sui propri passi senza delegare definitivamente la possibilità di scelta ad agenti artificiali;
  4. “Principio di Giustizia (“prosperità e solidarietà”) La giustizia si riferisce all’usare l’intelligenza artificiale per correggere errori del passato, eliminando la discriminazione; assicurare che l’uso dell’IA crei benefici condivisi (o almeno condivisibili); prevenire la creazione di nuovi danni, come l’indebolimento delle strutture sociali esistenti.” – con garanzia della parità di accesso alle tecnologie di intelligenza artificiale e ai relativi benefici in un’ottica solidaristica e senza creare disuguaglianze;
  5. “Principio della Esplicabilità (“intelligibilità e responsabilità”) Affinché l’IA sia benefica e non malata, dobbiamo essere in grado di comprendere il bene o il danno che sta effettivamente facendo alla società e in quali modi; perché l’IA possa promuovere e non limitare l’autonomia umana, la nostra “decisione su chi dovrebbe decidere” deve essere informata dalla conoscenza di come l’IA agirà al posto nostro; e per fare in modo che l’intelligenza artificiale sia giusta, dobbiamo garantire che la tecnologia, compresi i suoi sviluppatori umani, sia ritenuta responsabile in caso di un risultato negativo serio, che richiederebbe a sua volta una certa comprensione del perché di questo risultato.” – con necessità di comprendere e di rendere conto dei processi decisionali alla base delle tecnologie di intelligenza artificiale, garantendo trasparenza, responsabilità, intelligibilità, comprensibilità e interpretabilità delle decisioni (cd accountability).

Nonostante la consapevolezza di questi principi, quasi sempre ci ritroviamo ad avere a che fare con disposizioni normative o con analisi di testi normativi che fondano ogni considerazione e approfondimento sull’intelligenza artificiale e sui sistemi di intelligenza artificiale partendo dal comune assunto secondo cui il dirompente sviluppo tecnologico è talmente proiettato verso una continua evoluzione al punto tale che il diritto si trova ad arrancare per arrivare quasi sempre in ritardo nel dettare la disciplina e delineare i confini delle relative responsabilità e imputabilità. Perché, in definitiva, è proprio di questo che parliamo, ovvero del fatto che non ci spaventa tanto quale sia l’effetto e la conseguenza dell’azione o del risultato di ciò che si definisce ed è riconducibile all’intelligenza artificiale, quanto piuttosto ci si sofferma sull’interrogativo riferito all’individuazione del soggetto responsabile che ha determinato l’agire e l’azione e il risultato dell’intelligenza artificiale da cui derivano esiti sia positivi, sia negativi; sia prevedibili, sia imprevedibili; sia accettabili, sia inaccettabili. L’imputabilità dei risultati è il punto saliente di ogni riflessione sull’intelligenza artificiale e sui sistemi o progetti di intelligenza artificiale, soprattutto quella guidata algoritmicamente, proprio perché da un lato abbiamo la necessità di garantire l’individuazione del soggetto che risponde di eventuali danni causati per l’effetto, diretto o indiretto, dell’azione dell’artefatto tecnologico guidata dall’intelligenza artificiale, mentre dall’altro lato abbiamo l’interesse ben più rilevante a vedersi riconosciuta la paternità del risultato positivo e, per l’effetto, poterne ricevere e rivendicare relativo vantaggio anche e soprattutto economico[5]. Alla ricerca di responsabilità affianchiamo o forse anteponiamo la ricerca dell’ascrivibilità, della riconducibilità e dell’imputabilità. Responsabilità come suitas, come volontà, volizione e volontarietà sia dell’azione sia del risultato dell’intelligenza artificiale.

Già più di vent’anni fa, Stefano Rodotà si poneva la domanda “se tutto quel che è tecnicamente possibile è pure eticamente lecito, politicamente socialmente accettabile, giuridicamente ammissibile”, ponendo l’accento sul limite umano della tecnica, ancora oggi attuale non solo riguardo i temi legati alla tutela del trattamento dei dati personali, ma anche e ancor di più riguardo gli effetti che la tecnica ha e può avere sui diritti e sulle libertà fondamentali delle persone. Lo stesso Giovanni Buttarelli, compianto Garante europeo, in un’intervista del 2017, in piena continuità con il pensiero del primo Garante italiano, ha affermato che “la rivoluzione dei Big data stravolgerà il mondo” e che in tale rivoluzione “c’è un problema di dignità delle persone” proprio perché “non tutto quello che è tecnicamente possibile è di per sé eticamente accettabile”.

I due illustri giuristi richiamati, senza dimenticare il proficuo lavoro portato avanti su tale scia sia dall’attuale Garante nella persona del presidente Pasquale Stanzione, dalla Vicepresidente Virginia Cerrina Feroni e dai componenti del collegio Agostino Ghiglia e Guido Scorza, sia dai precedenti Presidenti dell’Autorità Francesco Pizzetti e Antonello Soro, ci portano a riflettere e ad affermare che il diritto non è poi così davvero in ritardo rispetto all’evoluzione dell’innovazione tecnologica. Piuttosto sembra quasi che rispetto a quest’ultima si voglia fuggire ogni tentativo di inquadramento nella secolare disciplina giuridica dei rapporti tra consociati e questo indipendentemente dal voler prediligere approcci regolatori propri dei sistemi di common law o dei sistemi di civil law, senza escludere la possibilità di volerne ricavare, per contaminazione dei due, un nuovo e distinto sistema giuridico incentrato sulla nuova realtà che stiamo vivendo. È un po’ quello che è avvenuto, senza apparire ardito il riferimento, con gli istituti del trust e del negozio fiduciario e ancor prima con le fattispecie contrattuali del factoring, del leasing e del franchising o anche con la multiproprietà. Tutti istituti che inizialmente hanno rappresentato situazioni ignote e sostanzialmente prive di disciplina e che hanno trovato poi la giusta collocazione e riconduzione nell’alveo del diritto ad opera del legislatore intervenuto anche grazie alla stratificazione delle posizioni giurisprudenziali che hanno consentito di superare le prime fasi di incertezza.

Del resto non soltanto il regolamento europeo 2016/679 GDPR è intervenuto sul rapporto tra innovazione tecnologica e tutela dei diritti e delle libertà fondamentali delle persone[6], ma anche una serie di provvedimenti delle istituzioni europee hanno in più occasioni evidenziato come il ricorso all’utilizzo delle nuove tecnologie sia necessariamente caratterizzato da particolare delicatezza e attenzione per evitare e comunque limitare la possibilità di determinare effetti ed impatti negativi sulla sfera personale dell’uomo. Già la carta della robotica[7] si è preoccupata di garantire la massima tutela dei diritti e delle libertà fondamentali delle persone in ogni ambito di intervento della tecnologia. L’ultimo intervento della Commissione europea è dello scorso 21 aprile 2021 ed è rappresentato dalla bozza di Regolamento UE sull’intelligenza artificiale che si articola in XII Titoli[8] e 3 Allegati che piuttosto che definire l’intelligenza artificiale definisce il “sistema di intelligenza artificiale o sistema di IA” quale “software sviluppato con l’utilizzo di tecniche specifiche che, sulla base di una serie di indicazioni fornite dall’uomo, è in grado di generare output quali contenuti, previsioni raccomandazioni o decisioni in grado di influenzare l’ambiente esterno con cui questo interagisce”. Il Regolamento è basato sul pieno rispetto dei principi e di valori europei salvaguardando le implicazioni etiche e umane che l’utilizzo della intelligenza artificiale determina sulla vita delle persone e sui loro diritti fondamentali. Tra le tecniche di sviluppo dei sistemi di IA intelligenza artificiale vengono espressamente menzionati il machine learning supervisionato e non supervisionato, il deep learning, gli approcci basati sulla logica, i sistemi di programmazione induttiva, gli approcci statistici, i metodi di ricerca e di ottimizzazione [9]. Ma il presente approfondimento non è rivolto all’analisi della proposta disciplina, quanto piuttosto a porre l’accento sull’approccio che deve precedere la realizzazione di ogni progetto o sistema di intelligenza artificiale[10].

Per comprendere l’intelligenza artificiale e ricondurla nei confini giuridicamente accettabili, abbiamo detto, sono stati mutuati e integrati i principi propri della bioetica[11] aggiungendo alla beneficenza, alla non magnificenza, alla autonomia e alla giustizia il principio della “esplicabilità” ovvero, al tempo stesso, della intelligibilità, della trasparenza, dell’accountability, della responsabilità intesa come capacità di rendere conto delle decisioni adottate e della non ripudiabilità dei relativi effetti. Ogni progetto di intelligenza artificiale è chiamato a prendersi cura del benessere degli individui, a rispettare l’autonomia dell’individuo, a proteggere le persone dal male e a trattare tutti gli individui in modo equo e giusto, nonché a “spiegare”, perché e come, viene posta in essere ogni azione secondo una attenta selezione di procedure e algoritmi. Esplicabilità quale interpretabilità del processo decisionale che sta alla base della intelligenza artificiale che non si limita soltanto alla logica delineata e seguita, ma che va oltre e la precede al tempo stesso, ricercando e condividendo la giustificabilità di tale decisione. Appunto spiegare e giustificare perché si è deciso di ricorrere e intraprendere un determinato progetto di intelligenza artificiale proprio per soddisfare un’esigenza cui l’uomo non può rinunciare né sottrarsi. Occorre dunque avere ben presente che ogni nuovo progetto che abbia a che fare con il ricorso e l’utilizzo di intelligenza artificiale non possa prendere avvio se non dopo una chiara e preventiva valutazione e descrizione dello stesso. Il fine ultimo resta sempre la tutela dei diritti e delle libertà fondamentali delle persone che includono il diritto a pari libertà e dignità ai sensi della legge, la protezione dei diritti civili, politici e sociali, il riconoscimento universale della personalità e della dignità e il diritto alla partecipazione libera alla vita della comunità. Tutto basato e orientato ad evitare e prevenire ogni eventuale e potenziale uso improprio, ogni abuso, ogni cattiva progettazione o conseguenze dannose, anche non intenzionali, dei sistemi e dei progetti di intelligenza artificiale. Principi fondamentali come equità, responsabilità, sostenibilità e trasparenza hanno appunto lo scopo di superare e colmare il deficit di responsabilità e imputabilità dell’azione e del risultato ad opera dell’intelligenza artificiale. Gli algoritmi alla base di ogni soluzione di intelligenza artificiale non devono lasciare spazio a deficit di comprensione della portata delle azioni realizzate e dei relativi risultati.

Occorre operare con trasparenza e rendere disponibile e comprensibile la logica che sta dietro a tali algoritmi e a tali procedure per fornire la relativa motivazione circa l’opportunità e la necessità di implementazione e di raggiungimento del risultato del progetto di intelligenza artificiale. Ai principi di secure by design e privacy by design possiamo quindi aggiungere, proprio nello sviluppo dell’intelligenza artificiale, il principio di accountability by design secondo cui tutti i sistemi e i progetti di intelligenza artificiale devono essere progettati per facilitare la responsabilità e la verificabilità end-to-end (per ogni singola fase – passo dopo passo). Ciò richiede sia persone responsabili nell’intera catena di progettazione e implementazione, sia protocolli di monitoraggio delle attività che consentano la supervisione e la revisione end-to-end.

La disamina fin qui riportata relativamente alla intelligenza artificiale “spiegabile” che impronti tutti i progetti e i sistemi di IA basati su decisioni algoritmiche autonome trova conferma in una recente decisione della Suprema Corte di Cassazione intervenuta lo scorso 25 maggio 2021 con ordinanza n. 14381 [12] dove viene stabilita la necessità che per il trattamento di dati personali con sistemi automatizzati non solo è necessario e imprescindibile il consenso informato e specifico, ma viene affermata la necessaria presenza di alcune condizioni che non sempre ricorrono in maniera così limpida quando ci troviamo di fronte a sistemi di intelligenza artificiale di tipo complesso, come machine learning o deep learning. In base alla decisione della Corte di legittimità si può concludere che la semplice adesione ad una piattaforma non è comprensiva anche dell’accettazione di un sistema automatizzato, in special modo se si basa su un algoritmo per la valutazione oggettiva di dati personali. Occorre infatti che siano stati resi conoscibili sin dall’iniziale decisione di ricorrere all’algoritmo sia lo schema esecutivo in cui l’algoritmo si esprime sia gli elementi considerati a tal fine. Ciò a cui rimanda la Cassazione è quel magistrale principio di motivazione che sta alla base di ogni azione del pubblico così come del privato e che, insieme ad affidamento, correttezza e buona fede, sostanziano il principio di lealtà che permea ogni rapporto di comunità. Conoscere il perché e il come di ogni azione e risultato consente di realizzare quella fiducia che rappresenta l’altra faccia della tutela e garanzia della protezione delle persone fisiche con riguardo al trattamento dei dati personali e della libera circolazione di tali dati. La fiducia si crea e si consolida soltanto se si opera con trasparenza e quest’ultima è presente soltanto se intellegibile, spiegabile e comprensibile.

Gli aspetti di “fiducia, trasparenza, spiegabilità e comprensibilità” dell’algoritmo e dei sistemi di intelligenza artificiale trovano purtroppo ancora parziale attuazione mantenendosi distanti dai principi individuati dalla Commissione europea e alla base della bozza di Regolamento di aprile 2021 nonché del pacchetto del quadro europeo del digital fair market di cui, oltre al Regolamento su Intelligenza Artificiale, fanno parte il Digital Service Act (DSA), il Digitale Market ACT, il Data Governance e lo stesso GDPR. La regolamentazione sulla Intelligenza Artificiale è infatti da considerare come normativa trasversale dalla protezione dei cittadini, dei consumatori e delle PMI, fino alla cyber security in relazione ai domini di riferimento: ICT e infrastrutture, sicurezza, mercato/consumatori/competizione, servizi on line e e-commerce, data protection e data governance, copyrights, e-government.

[1] L. Floridi “Etica dell’intelligenza artificiale – Sviluppi, opportunità, sfide” – Edizione italiana a cura di Massimo Durante – 2022 Raffaello Cortina Editore.

[2] Conferenza di Dartmouth: A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955 – https://ojs.aaai.org/index.php/aimagazine/article/view/1904

[3] L. Floridi e F. Cabitza, “Intelligenza Artificiale – L’USO DELLE NUOVE MACCHINE” –– Martini Lecture – 2021 Edizioni Giuffré Bompiani.

[4] F. Pelagalli, “IA, cinque principi per un modello di sviluppo etico” – 15 luglio 2018 https://feliciapelagalli.nova100.ilsole24ore.com/2018/07/15/ia-cinque-principi-per-un-modello-di-sviluppo-etico/

[5] The UK’s independent authority ICO (Autorità di controllo UK – ICO) “il principio di responsabilità richiede che l’onere di giustificare le decisioni supportate da intelligenza artificiale e da algoritmi sia posto sui creatori e sviluppatori dei sistemi di intelligenza artificiale. Ciò significa che è essenziale stabilire una catena continua di responsabilità umana attraverso l’intero flusso di lavoro di consegna del progetto di intelligenza artificiale. Garantire che la responsabilità sia efficace da un capo all’altro richiede che non siano consentite lacune nella responsabilità delle autorità umane responsabili dai primi passi della progettazione di un sistema di intelligenza artificiale ai suoi risultati guidati algoritmicamente” – https://ico.org.uk/for-organisations/guide-to-data-protection/key-dp-themes/guidance-on-artificial-intelligence-and-data-protection/ .

[6] Reg.UE 2016/679 “Regolamento generale sulla protezione dei dati” – Considerando (6) “La rapidità dell’evoluzione tecnologica e la globalizzazione comportano nuove sfide per la protezione dei dati personali. La portata della condivisione e della raccolta di dati personali è aumentata in modo significativo. La tecnologia attuale consente tanto alle imprese private quanto alle autorità pubbliche di utilizzare dati personali, come mai in precedenza, nello svolgimento delle loro attività. Sempre più spesso, le persone fisiche rendono disponibili al pubblico su scala mondiale informazioni personali che li riguardano. La tecnologia ha trasformato l’economia e le relazioni sociali e dovrebbe facilitare ancora di più la libera circolazione dei dati personali all’interno dell’Unione e il loro trasferimento verso paesi terzi e organizzazioni internazionali, garantendo al tempo stesso un elevato livello di protezione dei dati personali.”.

[7] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica – https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.html

[8] Proposta di REGOLAMENTO DEL PARLAMENTO EUROPEO E DEL CONSIGLIO CHE STABILISCE REGOLE ARMONIZZATE SULL’INTELLIGENZA ARTIFICIALE (LEGGE SULL’INTELLIGENZA ARTIFICIALE) E MODIFICA ALCUNI ATTI LEGISLATIVI DELL’UNIONE – Titolo I: ambito e definizioni; Titolo II: pratiche IA vietate; Titolo III: sistemi IA ad alto rischio; Titolo IV: obblighi di trasparenza per certi sistemi IA; Titolo V: misure a supporto dell’innovazione; Titolo VI, VII, VIII: governance e implementazione; Titolo IX: codici di condotta; Titoli X, XI, XII: disposizioni finali. – https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:52021PC0206

[9] Il nuovo Regolamento europeo “Intelligenza artificiale: le nuove regole europee che disciplinano l’uso della tecnologia”  https://www.cybersecurity360.it/legal/intelligenza-artificiale-le-nuove-regole-europee-che-disciplinano-luso-della-tecnologia/

[10] C. Palmieri, “Intelligenza Artificiale, il nuovo quadro normativo europeo” 17/08/2021 https://www.altalex.com/documents/news/2021/05/20/intelligenza-artificiale-nuovo-quadro-normativo-europeo.

La proposta di Regolamento del Parlamento europeo e del Consiglio presentato il 21 aprile 2021 e intitolato “Regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale e che modifica alcuni atti legislativi dell’Unione”, stabilisce norme armonizzate in materia di AI, modifica alcuni atti legislativi dell’Unione e definisce un quadro giuridico uniforme, in particolare per lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale, conformemente ai valori dell’Unione. Classifica i prodotti che utilizzano completamente o parzialmente il software AI in base al rischio di impatto negativo su diritti fondamentali quali la dignità umana, la libertà, l’uguaglianza, la democrazia, il diritto alla non discriminazione, la protezione dei dati ed, in particolare, la salute e la sicurezza. Più il prodotto è suscettibile di mettere in pericolo questi diritti, più severe sono le misure adottate per eliminare o mitigare l’impatto negativo sui diritti fondamentali, fino a vietare quei prodotti che sono completamente incompatibili con questi diritti. Rischi per i diritti fondamentali:

  • totale (art. 5) L’uso di questi prodotti è proibito in quanto prodotti suscettibili a) di causare o poter causare danni fisici o psicologici manipolando il comportamento umano per aggirare il libero arbitrio degli utenti; b) di imporre il c.d. ‘social scoring’ da parte o per conto delle autorità pubbliche che può portare a un trattamento dannoso o sfavorevole;
  • da totale ad alto in base all’uso che si fa del prodotto (art. 5) Questo tipo di prodotto, sebbene proibito in linea generale, in casi eccezionali e sotto il controllo di un’autorità, è soggetto alle stesse regole stabilite per i prodotti ad alto rischio – i sistemi di identificazione biometrica a distanza “in tempo reale” in spazi accessibili al pubblico usate dalle forze dell’ordine rientrano in questa categoria;
  • alto (art.6) Al fine di mitigare l’alto rischio, il Regolamento: a) stabilisce che prima di immettere sul mercato tali prodotti, siano rispettati le seguenti condizioni: adozione di un sistema di gestione del rischio per valutare e contrastare il rischio; gestione dei dati affinché siano di alta qualità. Più alta è la qualità dei dati, più bassi sono i rischi per i diritti fondamentali e il rischio di esiti discriminatori; adozione di documentazione tecnica che fornisca tutte le informazioni necessarie per valutare la conformità del sistema ai requisiti e per consentire alle autorità di valutare tale conformità; conservazione della documentazione tramite registri (file di log) per garantire la tracciabilità dei risultati; trasparenza nei rapporti con gli utenti e doveri di informarli; supervisione umana per controllare e minimizzare il rischio; garantire robustezza, sicurezza e accuratezza nella gestione dell’IA affinché i risultati non siano corrotti o soggetti ad errori, difetti o incongruenze; b) obbliga i fornitori, i distributori e gli utenti (art. 16-29) a rispettare le condizioni di cui al punto precedente; c) stabilisce un sistema di standard, valutazione della conformità, certificati e registrazione per accertare e certificare l’adozione delle condizioni di cui al primo punto;
  • medio (art. 52) le persone fisiche devono essere informate a) che stanno interagendo con una IA; b) che sono esposte a un sistema di riconoscimento delle emozioni o di categorizzazione biometrica c) che il contenuto è stato generato o manipolato artificialmente.

[11] The UK’s independent authority ICO (Autorità di controllo UK – ICO) “la bioetica sottolinea in gran parte i valori normativi che sono alla base della tutela degli individui nei casi in cui le pratiche tecnologiche influiscono sui loro interessi e sul loro benessere, il discorso sui diritti umani si concentra principalmente sull’insieme dei diritti sociali, politici e legali che sono dovuti a tutti gli esseri umani sotto un universale quadro della tutela giuridica e dello Stato di diritto” https://ico.org.uk/media/about-the-ico/consultation-responses/2614332/eu-hleg-draft-level-ethics-guidelines-ico-response.pdf .

[12] https://juriswiki.it/wp-content/uploads/2021/05/cassazione-civile-i-sentenza-14381-2021.pdf

Lascia un commento