sabato, Giugno 15, 2024
Uncategorized

Deepfake: la tutela del dato biometrico non è solo questione di privacy

La tecnologia che può “far sembrare che chiunque dica o faccia qualsiasi cosa”[1].  Così è stata anche definita “Deepfake”, la tecnica che permette di creare una sintesi dell’immagine umana in grado di sovrapporre video e immagini originali ad altri già esistenti.

Nel tempo gli errori del sistema sono andati via via diventando sempre meno evidenti, tanto da rendere difficile distinguere fra un fake e un video originale. Ciò è possibile mediante il sistema di intelligenza artificiale che realizza un “generative adversarial network” che, in termini semplificativi, rappresenta un framework entro il quale una rete neurale artificiale impara, attraverso il training, a generare autonomamente nuovi dati, che prendono le mosse da quelli forniti in fase di training e sono distribuiti sul modello di questi ultimi. È questo, in altri termini, il modello di funzionamento base di un sistema di intelligenza artificiale che costruisce se stesso mediante un processo di deep learning[2].

La tematica non è nuova agli onori delle cronache: la tecnologia deepfake è stata usata, con risultati sempre più indistinguibili dal vero, per realizzare video porno fasulli di celebrità, video satirici (anche in Italia, da parte del programma tv “Striscia la notizia”[3]), bufale e truffe[4]. Niente di buono, insomma.

Uno dei primi utilizzi illeciti di questa tecnologia risale al 2017, anno in cui il termine “deepfake” entra nel vocabolario comune dopo che la firma di Vice Samantha Cole pubblica il suo “We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now”, articolo con cui descrive il fenomeno che stava impazzendo su Reddit[5]. Proprio su Reddit nasce infatti il termine “deepfake”, dallo username di un utente che creava e condivideva i propri contenuti realizzati mediante l’utilizzo di tale tecnologia. Fra questi contenuti, ne spiccano diversi di pornografici, ovviamente realizzati all’insaputa degli involontari protagonisti. (Solo) parte dei video sono stati successivamente rimossi.

Questo utilizzo non è però passato di moda, a quanto pare: a inizio maggio 2021 i quotidiani Coreani diffondono la notizia di 94 arresti, tutti in danno di giovanissimi che sono sospettati di aver compiuto reati di diversa natura mediante l’utilizzo della tecnologia deepfake negli ultimi cinque mesi. In particolare, hanno realizzato numerosi video dai contenuti pornografici che ritraggono le vittime ignare intente in atti osceni. Gli autori dei reati sono ragazzi fra i 18 e i 20 anni. Le vittime, 114 delle quali sono state identificate, sono ancora più giovani: hanno fra i 10 e i 20 anni[6].

Il fatto di cronaca riportato è, a tutti gli effetti, un episodio di furto di identità, come categorizzato anche dal Garante per la Privacy. Nel vademecum pubblicato alla fine del 2020[7] con il quale viene descritto il fenomeno deepfake e i rischi ad esso correlati, il Garante scrive infatti:

“Quella realizzata con i deepfake è una forma particolarmente grave di furto di identità. Le persone che compaiono in un deepfake a loro insaputa non solo subiscono una perdita di controllo sulla loro immagine, ma sono private anche del controllo sulle loro idee e sui loro pensieri, che possono essere travisati in base ai discorsi e ai comportamenti falsi che esprimono nei video. Le persone presenti nei deepfake potrebbero inoltre essere rappresentate in luoghi o contesti o con persone che non hanno mai frequentato o che non frequenterebbero mai, oppure in situazioni che potrebbero apparire compromettenti. In sostanza, quindi, un deepfake può ricostruire contesti e situazioni mai effettivamente avvenuti e, se ciò non è voluto dai diretti interessati, può rappresentare una grave minaccia per la riservatezza e la dignità delle persone.”

Tuttavia, se l’applicazione del filtro deepfake al materiale pornografico e revenge-porn (il cosiddetto “deep nude”[8]) è già di per sé abominevole, le conseguenze che questa tecnologia può avere a livello sociale sono forse anche maggiori quando riguardano esponenti politici. Fintanto che l’applicazione è limitata ad utilizzi satirici, come il video della rete Fox con cui l’emittente televisiva derideva l’allora Presidente degli Stati Uniti Donald Trump[9], ciò può ancora considerarsi accettabile (nonostante il dipendente che ha messo in onda il video de quo sia stato poi licenziato). Non può esserlo, invece, quando gli esponenti politici “creati” con deepfake partecipano a conference call istituzionali.

È quanto è accaduto durante gli impegni politici di diversi parlamentari del Regno Unito, della Lituania, della Lettonia e dell’Estonia, che si sono trovati ad incontrare virtualmente (cosa ancora più frequente ora a causa della pandemia Covid) i loro colleghi rappresentanti dell’opposizione russa. Vittime di questa sorta di sostituzione di persona sono l’Onorevole Alexei Navalny, leader del partito contrapposto a quello di Vladimir Vladimirovič Putin, e il suo alleato Leonid Volkov[10].

Il Prof. Avv. Guido Scorza, Componente del Collegio del Garante per la protezione dei dati personali, sul punto ha recentemente segnalato una pronuncia dell’omonimo organismo canadese, il quale esprime una marcata preoccupazione per la tutela non solo della privacy ma degli stessi diritti umani che sono seriamente messi in pericolo dai sistemi “estremamente invasivi della privacy” che utilizzano la tecnologia di riconoscimento facciale[11]. Tali sistemi accedono, registrano ed entrano in possesso di tutta una serie di dati biometrici che consentono di ricostruire i volti e finanche di riconoscerli in contesti estranei all’utilizzo delle app per le quali era stato fornito il consenso. L’attività di storage di tali dati rappresenta una tipologia di trattamento di dato personale estremamente delicata: non si tratta soltanto di collegare una specifica identità ad un volto con fattezze e caratteristiche proprie di quella persona, si tratta di avere a disposizione un modello tridimensionale di sintesi facciale riconducibile ad un determinato individuo e trattabile informaticamente.

Questo tipo di utilizzo dei dati e la mole degli stessi permette, letteralmente, di avere il controllo sulla vita dei cittadini, potendo risalire, ad esempio, all’identità di un soggetto che passa per una strada in cui è posizionata una videocamera di sorveglianza, ove siano stati preventivamente registrati in passato i dati relativi alla biometrica facciale di tale soggetto.

Per fare un altro esempio, quegli stessi sistemi di riconoscimento facciale possono permettere una profilazione delle pubblicità che vengono mostrate al singolo soggetto che osservi un determinato cartellone pubblicitario il quale, a sua volta, “osserva” l’osservatore. Questo esperimento, già avvenuto alcuni anni fa, permetteva all’epoca di modificare il contenuto delle pubblicità mostrate in base a condizioni quali il traffico o il meteo presente nella zona in cui si trovava il display[12]. Se invece fosse possibile, tramite una videocamera, inquadrare il volto dell’osservatore e risalire alla sua identità, in un attimo il cartellone potrebbe mostrare pubblicità basate sugli acquisti precedenti del soggetto e sugli interessi manifestati da quest’ultimo, come già avviene durante la normale navigazione su siti internet.

Tornando a deepfake, ciò che è avvenuto da ultimo in Corea e in Russia non è che la prova delle potenzialità del dato biometrico.

Il volto è, fin dall’antichità, ciò che distingue maggiormente gli esseri umani l’uno dall’altro. Questa concezione era già profondamente radicata negli antichi, i quali dedicarono stimolanti e complesse teorizzazioni al tema del volto e della maschera (basti pensare alla letteratura e alla drammaturgia classica), e lo è anche oggi, più che mai, nell’epoca dei “profili” social, che iniziano proprio da questo, da una foto profilo. Se è vero dunque che il volto è lo specchio di ciò che siamo, questo elemento profondamente “nostro” e tutti i dati ad esso collegati devono essere protetti e tutelati con una cura estrema. “Salvare la faccia” non è solo questione di privacy.

[1] Oscar Schwartz, You thought fake news was bad? Deep fakes are where truth goes to die, in The Guardian, 12 November 2018, disponibile su https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth

[2] Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville e Yoshua Bengio, Generative Adversarial Nets disponibile su https://proceedings.neurips.cc/paper/2014/file/5ca3e9b122f61f8f06494c97b1afccf3-Paper.pdf

[3] L’estratto della relativa puntata è disponibile su https://www.striscialanotizia.mediaset.it/video/come-nasce-il-deepfake-di-striscia-la-notizia_66450.shtml

[4] Simone Cedrola, DeepFakes: il lato “fake” dell’Intelligenza Artificiale, disponibile su https://www.iusinitinere.it/il-lato-fake-dell-artificial-intelligence-7945

[5] Samantha Cole, We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now, su Vice, 24 January 2018, disponibile su https://www.vice.com/en/article/bjye8a/reddit-fake-porn-app-daisy-ridley

[6] Redazione The Korean Times, Police arrest 94 suspects over deepfake crimes in 5 months, disponibile su https://www.koreatimes.co.kr/www/nation/2021/05/251_308142.html

[7] Disponibile qui: https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9512226

[8] Naddeo Giovanna, IA e Deep Nude, il lato oscuro del digitale “anonimo”, disponibile su https://www.iusinitinere.it/ia-e-deep-nude-il-lato-oscuro-del-digitale-anonimo-32702

[9] Kyle Swenson, A Seattle TV station aired doctored footage of Trump’s Oval Office speech. The employee has been fired., su The Washington Post, January 11, 2019 disponibile su https://www.washingtonpost.com/nation/2019/01/11/seattle-tv-station-aired-doctored-footage-trumps-oval-office-speech-employee-has-been-fired/https://www.washingtonpost.com/nation/2019/01/11/seattle-tv-station-aired-doctored-footage-trumps-oval-office-speech-employee-has-been-fired/

[10] Andrew Roth, European MPs targeted by deepfake video calls imitating Russian opposition, The Guardian, 22.04.2021, disponibile su https://www.theguardian.com/world/2021/apr/22/european-mps-targeted-by-deepfake-video-calls-imitating-russian-opposition

[11] Privacy watchdog warns facial recognition tools endanger human rights – RCI | English (rcinet.ca)https://www.rcinet.ca/en/2021/05/10/privacy-watchdog-warns-facial-recognition-tools-endanger-rights/

[12] Diletta Parlangeli, Google testa i cartelloni che cambiano annuncio in base a chi ci passa sotto, disponibile su https://www.wired.it/internet/tlc/2015/11/03/google-cartelloni-che-cambiano-annuncio/

Elisa Simionato

Trainee Lawyer e Legal Researcher Classe 1995, nel 2019 Elisa Simionato si laurea con lode presso la Scuola di Giurisprudenza dell’Università degli Studi di Padova, discutendo una tesi intitolata “La tecnologia Blockchain e le criptovalute nel contrasto al riciclaggio e al finanziamento al terrorismo” (relatore Prof. Riccardo Borsari), nella quale declina l’interesse per le nuove tecnologie con quello per il diritto commerciale e i profili di internazionalità dello stesso. Dopo la laurea, dando seguito alle numerose esperienze all’estero compiute durante gli anni universitari (fra le altre, Dresda, Mülheim, Spalato, Budapest) si trasferisce a Praga presso uno Studio Legale Internazionale, dove si occupa di corporate and media law. Tornata in Italia, svolge la pratica forense inizialmente presso uno Studio boutique del Veneziano dove, sotto la guida dei professori cafoscarini Ticozzi e Sicchiero, si abilita al patrocinio sostitutivo, e, successivamente, presso il dipartimento Digital IP/IT di Legalitax - Studio Legale e Tributario. Oggi è Associate di ICT Legal Consulting. Si occupa di nuove tecnologie, privacy, ICT e compliance e, al contempo, si dedica alla redazione di articoli di approfondimento giuridico per diverse testate, in particolare Ius in Itinere. Email: simionatoelisa0@gmail.com Linkedin

Lascia un commento