giovedì, Marzo 28, 2024
Uncategorized

DeepFakes: il lato “fake” dell’Intelligenza Artificiale

Le nuove tecnologie mettono continuamente alla prova i nostri sensi. L’ultima sfida si chiama DeepFakes, ed è potenzialmente devastante. Questa volta ci troviamo a dover riconoscere dei contenuti sessualmente espliciti (ma non sempre di questa natura) creati dall’apprendimento automatico di un’intelligenza artificiale, in inglese machine learning, applicando i volti dei VIP a quelli delle attrici.

Appresa la notizia, verrebbe da pensare che l’artificio in questione sia immediatamente riconoscibile: audio non sincronizzato, volti sproporzionati o evidentemente tagliati. Una considerazione del genere sarebbe stata valida qualche mese fa, quando il fenomeno DeepFakes fu portato alla luce per la prima volta[1] con la scoperta di un video porno che vedeva come protagonista il volto tagliuzzato e fuori synchro di Gal Godot (l’attrice che ha recentemente interpretato Wonder Woman). Il contenuto è stato postato su Reddit da un utente sotto il nome di deepfakes, dal quale è poi scaturito il fenomeno, che ha applicato un algoritmo di apprendimento automatico a foto e video, facilmente accessibili e open source.

In poche settimane il fenomeno è letteralmente esploso[2]. La community[3], creatasi intorno all’utente deepfakes, è stata recentemente bannata e contava milioni di user che, per via della gratuità e immediata reperibilità del software e del materiale, hanno iniziato a produrre a loro volta contenuti del genere. Il main trend è rimasto quello dei video porno falsi con i volti di altre celebrità come Taylor Swift, Emma Watson, Cara Delevigne, Katy Perry. Ma c’è anche chi ha deciso di farsi semplicemente una risata applicando il volto dell’attore statunitense Nicolas Cage o il volto del presidente americano Donald Trump a video buffi.

Lo step successivo? Ovviamente un’app. Un altro utente di Reddit, deepfakeapp, ha creato FakeApp[4]: un’applicazione che consente a chiunque di creare i propri video con i propri database in pochissime mosse. Se fino a questo momento la tecnologia usata restava comunque inaccessibile ai più, con un’app del genere tutti possono creare i propri contenuti dando vita alle proprie fantasie, tant’è che si stima che sia stata scaricata più di 100.000 volte in pochissimo tempo.

Ci sono due enormi criticità: la prima è che in pochissimi mesi la tecnologia, grazie soprattutto alla sua diffusione virale, è migliorata a dismisura tanto che risulta quasi impossibile riconoscere la falsità delle immagini in questione. E la seconda è relativa alla infinita mole di foto e video disponibile su internet, e non solo con riferimento ai VIP, ma anche a persone comuni, che potrebbero da un giorno all’altro trovarsi in un video porno falso, o in qualche altro contesto facendo chissà cosa.

La questione sembra quindi richiamare un problema più vecchio, ma forse meno potenzialmente devastante, come quello delle Fake News[5]. Come distinguere il vero dal falso? Come spiegare che, ad esempio, quello che sembra un politico, o il vostro vicino, che uccide una persona non è realmente lui ma è un’immagine generata da un algoritmo?

Inoltre, bisogna considerare quali strategie difensive la vittima possa adottare in questi casi. Purtroppo, le strade non sono molte, e non esiste una legge che preveda tale fattispecie. Pertanto, gli autori del video potrebbero essere accusati di violazione del copyright, in quanto hanno adattato un’opera protetta senza il consenso del titolare di tale diritto; ancora, potrebbero essere accusati di diffamazione, dal momento che i contenuti di cui sono autori rappresentano una falsa affermazione della presenza della vittima nel video. Queste ipotesi d’accusa presupporrebbero però l’identificazione dell’autore, che sappiamo essere a dir poco impossibile nel mondo online e, tuttavia, si scontrerebbero sicuramente contro il “sempreverde” scudo della libertà di espressione.

L’interessato potrebbe richiedere la rimozione del contenuto, ma né in questo caso né in quelli sopra appena citati è pensabile credere di poter rimuovere da internet tutte le copie del contenuto in questione. Attualmente è la “giustizia privata” ad essere intervenuta: molte piattaforme, a partire da Reddit (come anticipato sopra), e a seguire con PornHub e Twitter, hanno provveduto a dichiarare illegali tali contenuti in quanto integrano una forma non consensuale di pornografia.

La verità è che questa situazione, considerata in via più generale, non è affatto nuova: pensiamo al sexting, al revenge porn[6] o al cyberbullisimo[7]. La lezione che tali fenomeni ci impartiscono è che una volta che il contenuto è online, è praticamente impossibile rimuovere tutte le copie che ne vengono fatte con un click. Pertanto, il ban da parte delle grandi piattaforme sopracitate è sicuramente un segnale d’allarme forte, ma non è di certo una soluzione, anche perché ormai il fenomeno non ha bisogno di alcuna piattaforma per esistere e diffondersi.

In conclusione, è innegabile che l’intelligenza artificiale insieme con le speranze di un futuro migliore porti con sé diverse preoccupazioni legate al mondo del lavoro e, più fantascientificamente parlando, ad una possibile rivolta da parte delle macchine, ma in questa sede si è preso atto del potenziale impatto devastante che questa tecnologia può avere sull’immagine, sulla reputazione e sulla vita personale di un individuo, sia esso una celebrità o una persona comune.

Come accennato sopra, la creazione di video porno falsi è solo la punta dell’iceberg. Questa tecnologia, come molte altre, non ha avuto, non ha e non avrà una crescita lineare, ma esponenziale. Pertanto, come per il problema “madre” delle Fake News, è necessario uno sforzo da parte della collettività sia a saper informare sia ad informarsi per cercare di arrivare quanto più è preparati possibile al momento in cui sarà visibile tutto l’iceberg, e non solo la punta.

 

[1]AI-Assisted Fake Porn Is Here and We’re All Fucked”, dicembre 2017, disponibile qui: https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn

[2]We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now”, gennaio 2018, disponibile qui: https://motherboard.vice.com/en_us/article/bjye8a/reddit-fake-porn-app-daisy-ridley

[3] L’avviso che la community è stata bannata, disponibile qui:

[4] Il post dell’utente deepfakeapp, creatore dell’app FakeApp, disponibile qui:

[5]I reati informatici: le “bufale”, tra libertà di espressione e conseguenze penali”, Simone Cedrola, febbraio 2017, disponibile qui: https://www.iusinitinere.it/reati-informatici-le-bufale-liberta-espressione-conseguenze-penali-1053

[6]Sexting e Revenge Porn: tutela delle vittime secondo l’ordinamento italiano”, Alessia Di Prisco, febbraio 2017, disponibile qui: https://www.iusinitinere.it/sexting-revenge-porn-tutela-delle-vittime-secondo-lordinamento-italiano-1093

[7]La nuova Legge sul Cyberbullismo: la tutela delle vittime del Web”, Alessia Di Prisco, maggio 2017, disponibile qui: https://www.iusinitinere.it/la-nuova-legge-sul-cyberbullismo-la-tutela-delle-vittime-del-web-2916

Simone Cedrola

Laureto in Giurisprudenza presso l'Università Federico II di Napoli nel luglio 2017 con una tesi in Procedura Civile. Collaboro con Ius in itinere fin dall'inizio (giugno 2016). Dapprima nell'area di Diritto Penale scrivendo principalmente di cybercrime e diritto penale dell'informatica. Poi, nel settembre 2017, sono diventato responsabile dell'area IP & IT e parte attiva del direttivo. Sono Vice direttore della Rivista, mantenendo sempre il mio ruolo di responsabile dell'area IP & IT. Gestisco inoltre i social media e tutta la parte tecnica del sito. Nel settembre 2018 ho ottenuto a pieni voti e con lode il titolo di LL.M. in Law of Internet Technology presso l'Università Bocconi. Da giugno 2018 a giugno 2019 ho lavorato da Google come Legal Trainee. Attualmente lavoro come Associate Lawyer nello studio legale Hogan Lovells e come Legal Secondee da Google (dal 2019). Per info o per collaborare: simone.cedrola@iusinitinere.it

Lascia un commento