domenica, Novembre 3, 2024
Uncategorized

Social media, libertà d’espressione e attività legislativa: un complicato bilanciamento di interessi

Nel 1995 meno dell’1% della popolazione mondiale aveva accesso ad internet. Oggi, nel 2018, il 40%[1]. È un dato generico che andrebbe contestualizzato, eppure tanto basta per prendere atto del ruolo che Internet ha assunto. È diventato uno strumento indispensabile con cui prendere parte alla vita e al dibattito culturale, sociale e politico. Da qui l’interrogativo, quasi spontaneo: Internet deve essere regolamentato?

Una breve ma esaustiva risposta a questa complicata domanda è stata data dal CEO di Facebook, Mark Zuckerberg, durante le due audizioni dinanzi al Congresso ed al Senato degli Stati Uniti d’America[2]. Egli ha affermato che “la vera domanda mentre internet diventa più importante nella vita delle persone è che tipo di regolamentazione adottare, e non se adottarla o meno”[3].

Anche se può sembrare la risposta giusta alla domanda giusta, in realtà non dice molto e il motivo è semplice, la sua risposta fa sorgere un interrogativo ancora maggiore: chi decide qual è la giusta regolamentazione?

La pace di Westphalia pose fine alla sanguinosa guerra dei trent’anni e, ridefinendo tutti i confini, creò un principio che ancora oggi perdura: il principio di territorialità, o in altre parole, il principio del “il mio paese le mie regole, il tuo paese le tue regole”.

Per anni ci si è basati su questo assunto, fino al momento in cui Internet non ha spazzato ogni confine eliminando qualsiasi tipo di limite territoriale e fornendo innumerevoli strumenti per accedere alle informazioni e per interagire gli uni con gli altri.

Ciò accade in un luogo particolare del cyber spazio: i social media. Ci si aspetta che il numero di utenti nel mondo raggiunga quota 2.5 miliardi entro il 2018[4]. La Corte Europea per i Diritti Umani (d’ora in poi Corte EDU) ha riconosciuto la crescita e l’importanza dei social media a più riprese, statuendo inoltre che essi “sono diventati uno dei mezzi principali per esercitare il diritto alla libertà di espressione e il diritto di accedere alle informazioni[5].

Tuttavia, la fantastica opportunità fornita da internet di essere parte integrante della comunità globale è presto diventata l’incubo dei Governi e delle Autorità, che hanno iniziato a chiedersi come fare a proibire efficacemente la diffusione di alcuni tipi di informazioni. In particolare, un numero sempre maggiore di contenuti dannosi sta invadendo il web, mortificando giorno dopo i diritti umani.

Ne ha preso atto anche la Corte EDU affermando che “contenuti diffamatori e altri tipi di contenuti chiaramente illegali, incluso l’hate speech, oggi possono essere diffusi in modi mai visti, in tutto il mondo e nel giro di pochi secondi e il più delle volte non c’è modo di rimuoverli dal web”[6]. La desiderata e giusta regolamentazione dovrebbe comprendere: contenuti razzisti, xenophobia e hate speech; la negazione, minimizzazione, approvazione o giustificazione del genocidio o dei crimini contro l’umanità; la propaganda terrorista e l’utilizzo di internet da parte dei terroristi; la pornografia minorile; la diffamazione; la diffusione di fake news; il cyber bullismo.

Definiti i problemi principali dei Social Media, e guardando la normativa attuale, non possiamo non constatare quanto questa sia – purtroppo – incapace di farvi fronte in maniera efficace.

Gli articoli 19 della Dichiarazione dei Diritti Umani[7] e 19, paragrafo 2, della Convenzione internazionale sui diritti civili e politici[8], promuovono la libertà di espressione su scala globale. Anche a livello europeo vi sono diverse disposizioni in materia, come gli articoli 10 e 17 della Convenzione Europea dei Diritti dell’Uomo[9] (d’ora in poi CEDU) e l’articolo 11 della Carta dei Diritti Fondamentali dell’Unione Europea[10].

Tuttavia, le libertà di cui si riferisce non sono garantite e promosse in senso assoluto, dal momento che vi sono alcune eccezioni, ossia casi in cui la libertà di espressione subisce una compressione in virtù di un interesse maggiore da tutelare. Ne è un esempio l’articolo 10, paragrafo 2, della CEDU, secondo cui “L’esercizio di queste libertà, poiché comporta doveri e responsabilità, può essere sottoposto alle formalità, condizioni, restrizioni o sanzioni che sono previste dalla legge e che costituiscono misure necessarie, in una società democratica, alla sicurezza nazionale, all’integrità territoriale o alla pubblica sicurezza, alla difesa dell’ordine e alla prevenzione dei reati, alla protezione della salute o della morale, alla protezione della reputazione o dei diritti altrui, per impedire la divulgazione di informazioni riservate o per garantire l’autorità e l’imparzialità del potere giudiziario”.

Alcuni Stati hanno cercato di affrontare tali complicati bilanciamenti di interesse sviluppando ed implementando nuove disposizioni specifiche per i contenuti online. Tale frammentazione normativa di seconda generazione, perché diretta al web, si aggiunge alla frammentazione tradizionale che vede diversi gradi di apprezzamento e tutela del diritto alla libertà di espressione e del diritto di accedere alle informazioni.

In tal senso, uno degli esempi più recenti è la legge chiamata “Enforcement on Social Networks[11] da pochi mesi entrata in vigore nell’ordinamento tedesco, all’evidente scopo di assicurare una celere rimozione di hate speech, fake news e materiale illegale da internet. In particolare, le piattaforme social con più di 2 milioni di utenti registrati in Germania potranno incorrere in sanzioni fino a 50 milioni. Inoltre, la nuova normativa prevede anche un doppio termine entro il quale va valutato il contenuto incriminato: 24 ore e 7 giorni per i casi più complessi.

L’intento del legislatore tedesco è abbastanza chiaro: far sentire ai giganti Social la pressione dell’attività legislativa che incombe al fine di farli agire immediatamente, a tutela degli utenti i cui diritti sono stati lesi.

Senza dubbio questo intervento normativo è un punto di partenza che risulta come un campanello d’allarme per le piattaforme Social Media e che nel breve periodo potrebbe portare molti benefici. In realtà però, questo approccio, nel lungo periodo, rischia di causare un chilling effectsulla libertà di espressione. Pertanto, i Facebook e i Twitter di turno, ad esempio, per non rischiare di incorrere in sanzioni limiterebbero la possibilità di partecipare al dialogo online causando una compressione del diritto alla libertà di espressione online che sarebbe, nel tempo, eccessiva.

Un approccio diverso e magari anche migliore, vede invece protagonista non la legge, ma le stesse piattaforme. Chi meglio di loro comprende i propri prodotti e servizi e ha gli strumenti e i mezzi per intervenire? Pertanto, da un lato i Giganti social devono investire in ricerca e sviluppo per soluzioni tecnologiche da implementare proattivamente al fine di controllare e limitare la diffusione di contenuti dannosi. Mark Zuckerberg, ha sottolineato tale esigenza diverse volte affermando che “over the long term, building AI tools is going to be the scalable way to identify and root out most of this harmful content”.

Dall’altro, tali piattaforme devono accettare di lavorare fianco a fianco con le autorità e organi legislativi. Un approccio più collaborativo e più incentrato sul dialogo consentirebbe di combattere la diffusione di contenuti dannosi riducendo i rischi di una ingiustificata compressione del diritto alla libertà di espressione e del diritto a ricevere le informazioni.

 

[1]Più informazioni disponibili qui: http://www.internetlivestats.com/internet-users/

[2]Congress: https://www.youtube.com/watch?v=mZaec_mlq9M; Senate: https://www.youtube.com/watch?v=GQN4On0K7-w

[3]Traduzione non ufficiale, “I think the real question as the internet becomes more important in people life is what is the right regulation not whether there should be one”.

[4]Nel 2017 tale numero si attesta sui 2.46 miliardi, più informazioni disponibili qui: https://www.statista.com/topics/1164/social-networks/

[5]Ahmet Yildirim v. Turkey, disponibile qui, http://hudoc.echr.coe.int/eng-press?i=003-4191041-4965778; Delfi AS v. Estonia, para 110, disponibile qui: http://hudoc.echr.coe.int/eng?i=001-155105

[6]Traduzione non ufficiale, defamatory and other types of clearly unlawful speech, including hate speech and speech inciting violence, can be disseminated like never before, worldwide, in a matter of seconds, and sometimes remain persistently available online

[7]Dichiarazione Universale dei Diritti dell’Uomo, 1948, disponibile qui:

[8]Patto internazionale relativo ai diritti civili e politici, 1966, disponibile qui: https://www.admin.ch/opc/it/classified-compilation/19660262/201110270000/0.103.2.pdf

[9]Convenzione Europea dei Diritti dell’Uomo, disponibile qui: https://www.echr.coe.int/Documents/Convention_ITA.pdf

[10]Carta dei Diritti Fondamentali dell’Unione Europea, 2000, disponibile qui: http://www.europarl.europa.eu/charter/pdf/text_it.pdf

[11]Act to improve Enforcement of the Law on Social Media, disponibile qui: https://www.bmjv.de/SharedDocs/Gesetzgebungsverfahren/Dokumente/NetzDG_engl.pdf?__blob=publicationFile&v=2

Simone Cedrola

Laureto in Giurisprudenza presso l'Università Federico II di Napoli nel luglio 2017 con una tesi in Procedura Civile. Collaboro con Ius in itinere fin dall'inizio (giugno 2016). Dapprima nell'area di Diritto Penale scrivendo principalmente di cybercrime e diritto penale dell'informatica. Poi, nel settembre 2017, sono diventato responsabile dell'area IP & IT e parte attiva del direttivo. Sono Vice direttore della Rivista, mantenendo sempre il mio ruolo di responsabile dell'area IP & IT. Gestisco inoltre i social media e tutta la parte tecnica del sito. Nel settembre 2018 ho ottenuto a pieni voti e con lode il titolo di LL.M. in Law of Internet Technology presso l'Università Bocconi. Da giugno 2018 a giugno 2019 ho lavorato da Google come Legal Trainee. Attualmente lavoro come Associate Lawyer nello studio legale Hogan Lovells e come Legal Secondee da Google (dal 2019). Per info o per collaborare: simone.cedrola@iusinitinere.it

Lascia un commento