lunedì, Maggio 27, 2024
Uncategorized

L’ordine esecutivo di Trump contro Twitter: quali prospettive di regolamentazione?

L’ordine esecutivo di Trump contro Twitter: quali prospettive di regolamentazione?

a cura di Pierfrancesco De Felice

  1. Introduzione

L’affermazione delle moderne piattaforme di social networking ha avuto il pregio di aver agevolato un esercizio più semplice ed ampio del diritto di espressione del pensiero, ma già da tempo è emerso il rovescio della medaglia: il dilagare delle c.d. fake news (notizie false), dell’hate speech (espressioni di incitamento all’odio online), o comunque di contenuti qualificabili come controversi. Di conseguenza ci si è interrogati su come definire i limiti entro cui i gestori delle piattaforme online possano moderare i contenuti immessi in queste da soggetti terzi (gli utenti), e su chi debba definire tali limitazioni: un soggetto pubblico (nazionale o sovranazionale), o dei soggetti privati come le stesse piattaforme attraverso proprie content policy (le politiche sulla gestione dei contenuti).

La questione si presenta assolutamente cruciale tenendo conto della circostanza per la quale tali piattaforme sono divenute lo strumento principale di propaganda e confronto politico, anche da parte delle figure apicali degli odierni sistemi democratici. Ciò premesso, è facilmente intuibile il grande potere di influenza esercitabile dai social network rispetto allo svolgimento del dibattito pubblico.

  1. Il caso: Twitter vs. Trump (e viceversa)

Ultimo esempio di questo fenomeno è stato lo scontro che ha visto protagonisti l’attuale presidente degli Stati Uniti, Donald Trump e la piattaforma Twitter. Il casus belli è sorto lo scorso 26 maggio nel momento in cui Trump ha pubblicato dei tweet come risposta alla proposta del governatore della California di implementare il sistema di votazione da remoto attraverso l’invio di schede elettorali direttamente ai domicili degli elettori, così da evitare assembramenti ritenuti pericolosi alla luce dell’attuale pandemia in corso. Tale proposta è stata bocciata dal Presidente degli Stati Uniti in quanto ritenuta essere una modalità di votazione che si sarebbe prestata a fenomeni quali brogli elettorali, furti di schede o compravendita di quest’ultime.

Tali esternazioni sono state oggetto della nuova politica di fact checking della piattaforma, in ragione della quale sotto questi tweet sono comparsi dei banner recanti la dicitura “Get the facts about mail-in ballots”[1], che rinviano ad un sunto tratto da articoli di testate giornalistiche terze autorevoli, nei quali si affermava come non vi fosse alcun riscontro fattuale tra la modalità di voto in discussione ed i fenomeni di brogli ipotizzati, e come tale metodologia sia già in uso in cinque Stati degli USA (tra cui la California).

La reazione del Presidente a tale pratica, ritenuta essere una forma di attivismo politico ai propri danni, e, dunque, una presa di posizione a favore del partito democratico americano, si è concretizzata nell’ordine governativo del 28 maggio[2], con il chiaro intento di limitare l’autonomia delle piattaforme nella gestione dei contenuti e di ridurre le tutele previste dalla legislazione di riferimento, in particolare la sezione 230(c) del Communications Decency Act del 1996[3] (CDA).

  1. La sezione 230(c) del Communications Decency Act 1996: una disciplina inadeguata?

L’ordine esecutivo esordisce, nella sua prima parte, con enunciati altisonanti ed espliciti verso Twitter, Facebook, Instagram e YouTube, criticate per la loro condotta nell’attività di moderazione dei contenuti, che sfocerebbe, a detta del Presidente, nella censura e nel supporto alla propaganda perpetrata da Stati esteri, come la Cina, a danno del popolo americano. Da qui l’individuazione, in una seconda parte del documento, di misure atte a definire strumenti mirati ad incidere sull’ampia libertà de facto riconosciuta a providers come Twitter e Facebook.

Innanzitutto nell’ordine si ravvisa la necessità di un chiarimento in sede applicativa della norma di cui alla sezione 230(c) del CDA (Protection for “Good Samaritan” blocking and screening of offensive material), che fornisce una forte tutela per le piattaforme online in cui siano presenti contenuti di terze parti: si prevede l’esclusione della responsabilità civile delle piattaforme in quanto si stabilisce che nessun fornitore o utente di un servizio informatico deve essere trattato come editore rispetto a qualsiasi informazione fornita da un altro fornitore di contenuti d’informazione.

In particolare, è estremamente rilevante il concetto di buona fede nel momento in cui la responsabilità per il provider of an interactive computer service (cioè qualsiasi servizio di informazione, sistema o software che fornisca o consenta l’accesso da parte di più utenti ad un server, come indicato nella sezione dedicata alle definizioni del CDA) venga esclusa alla luce di qualsiasi azione volontariamente intrapresa in buona fede per limitare l’accesso o la disponibilità di materiale che il fornitore o l’utente considera osceni, lascivi, a contenuto eccessivamente violento, molesto o altrimenti discutibile, o di qualsiasi azione intrapresa per consentire o rendere disponibile ai fornitori di contenuti informativi i mezzi tecnici per limitare l’accesso al materiale.

È facilmente intuibile la nota problematicità insita nel definire il contenuto di elementi extra giuridici quali la buona fede, l’oscenità o la discutibilità dei contenuti, termini ontologicamente vaghi che trovano il loro contenuto in base alla morale del tempo in cui vengono ad essere interpretati. Proprio in questo iato semantico sembrerebbe volersi inserirsi l’intervento governativo, in modo da restringere arbitrariamente l’ambito applicativo della norma, fino a giungere alla discutibile prospettiva per la quale sia lo Stato a determinare cosa possa essere considerato aderente al concetto di buona fede o moralità (ancor più discutibile se tale prospettiva si inscrive nella cornice liberale americana).

Nello specifico, tale chiarimento dovrebbe provenire da agenzie governative quali la Federal Communications Commission (FCC), incaricata di ridisegnare, attraverso un apposito regolamento governativo, i limiti entro i quali tali presunte censure siano riconducibili ad ambiti non coperti dalla normativa citata, e la Federal Trade Commission (FTC), avente il compito di adottare misure appropriate atte a rimuovere ed evitare pratiche ingiuste ed ingannevoli nel settore commerciale di riferimento, richiamando così la normativa di cui alla sezione 45 del titolo 15 dello United States Code, disciplinante i metodi di concorrenza sleale e l’attività di prevenzione da parte della FTC[4]. Il richiamo, tuttavia, sembra mal adattarsi al fenomeno in esame, che esula dalla sfera della regolamentazione antitrust americana.

Infine, viene conferito un mandato al Procuratore Generale dello Stato (Attorney General) di istituire una commissione con l’obiettivo di valutare la possibilità di applicare statuti statali (presumibilmente di natura governativa) che vietino alle piattaforme di compiere atti o pratiche ingiuste o ingannevoli, nonché di elaborazione di una proposta di legge federale utile a raggiungere gli obiettivi politici con cui esordisce l’ordine esecutivo.

Da un punto di vista giuridico-formale sembra non esserci dubbio sulla illegittimità costituzionale dell’ordine governativo: il compito di prevedere una disciplina che impatti su un diritto fondamentale come quello di libera espressione del pensiero (ad integrazione di quella esistente, o che addirittura regoli ex novo il fenomeno) dovrebbe essere evaso dall’organo legislativo americano, cioè il Congresso, e non da organi esecutivi attraverso modalità surrettizie come l’emanazione di regolamenti governativi col compito di definire in via interpretativa i limiti applicativi della legge federale in esame. L’ovvio pericolo è rappresentato dalla possibilità che si giunga ad una sostanziale modificazione nella disciplina in sede applicativa, senza che ciò sia stato legittimato dal processo democratico da celebrarsi in seno agli organi legislativi competenti.

Dal punto di vista sostanziale, l’intervento di Trump ha avuto il merito di aver riaperto la discussione sulla regolamentazione dell’attività dei social network rispetto ad ipotesi di censura o limitazione del diritto d’espressione online. La disciplina qui esaminata appare non più adeguata a disciplinare un fenomeno inesistente al tempo della sua emanazione, nonché ideata per altre finalità: limitare il diffondersi di contenuti considerabili indecenti su internet, ed accessibili a soggetti vulnerabili come i minori, restringendo di fatto la libertà di espressione sulla rete, che subito dopo si è riespansa grazie all’intervento della Corte Suprema americana nel caso Reno vs American Civil Liberties Union (1997)[5]. In tale pronuncia la Corte dichiarò l’incostituzionalità di tutte le sezioni del CDA contrarie all’indecenza per mancanza di proporzionalità (e di conseguente violazione) rispetto al Primo Emendamento della costituzione americana che garantisce la libertà di espressione[6], ma lasciò inalterata l’odierna sezione 230(c). In sostanza, i giudici supremi americani hanno riadattato il concetto di marketplace of ideas[7] alla sfera digitale, applicando il principio per il quale una legge che vieti sia i discorsi protetti sia quelli non protetti viola il Primo Emendamento.

  1. Diritto di espressione online ed interessi economici delle piattaforme: un binomio inconciliabile?

L’inadeguatezza della normativa in esame sorge, come già accennato in fase introduttiva, dall’affermazione di un nuovo paradigma economico impostosi sulla rete, ed affermatosi definitivamente con le piattaforme di social network: la monetizzazione derivante dalle sponsorizzazioni. Tali modalità di guadagno presuppongono l’afflusso di ampi bacini di utenza nelle piattaforme in questione e la conseguente profilazione degli utenti per consentire ad aziende ed altri soggetti terzi di ottenere servizi di advertising targettizzato, svolgendo così una tipica attività d’impresa.

Dall’altro lato, il grande numero degli utenti ha reso queste piattaforme centrali anche in attività aventi rilevanza pubblica, come lo svolgimento del confronto politico-istituzionale, nell’ambito del quale ogni cittadino/utente può esercitare il proprio diritto di manifestazione del pensiero. In quest’ottica i social network hanno ottenuto di fatto una qualche sorta di rilevanza pubblica su un piano funzionale[8]. Questo aspetto, però, tende a mal conciliarsi con le logiche del modello economico di riferimento, che presuppongono inevitabilmente l’attività di selezione dei contenuti che vengono ad essere visualizzati dagli utenti. Questi non sono completamente liberi di decidere cosa poter visualizzare o meno sulla propria bacheca virtuale, in quanto l’attività di moderazione (che può concretizzarsi nell’oscuramento di contenuti) viene ad essere realizzata automaticamente dalla piattaforma (sempre più spesso attraverso software di intelligenza artificiale) al fine di convogliare le views degli utenti su notizie coerenti con le preferenze degli utenti, nonché per far rispettare i community standards[9] stabiliti dalle piattaforme stesse, potendo però tale attività tramutarsi in censure impattanti sulla sfera del dibattito pubblico.

Da tale cortocircuito sorgono complessi problemi che si legano alla necessità di riformulare le classiche categorie concettuali utilizzate nell’approccio normativo, e che si inscrivono nel più ampio fenomeno della sempre maggiore compenetrazione della sfera socioeconomica (e di riflesso anche di quella giuridica) pubblica con quella privata.

Da ultimo, sembra opportuno ricordare come nell’ordinamento comunitario e nazionale non si rinviene una specifica normativa che vada a disciplinare la problematica descritta, sussistendo solo la direttiva dell’8 giugno del 2000 (Direttiva sul commercio elettronico, 2000/31/CE[10], recepita dal D. Lgs. n. 70 del 2003[11]) sulla responsabilità degli Internet Service Provider (ISP, i fornitori di servizi internet), pensata nell’ambito dell’ampio fenomeno del commercio elettronico, e finalizzata essenzialmente alla tutela di diritti patrimoniali.

Sulla base di tale direttiva si è affermata l’assenza di obblighi generali verso gli ISP di sorveglianza sulle informazioni che trasmettono o memorizzano, o di ricerca attiva di fatti o circostanze che indichino la presenza di attività illecite. Gli ISP hanno il solo obbligo di informare senza indugio l’autorità giudiziaria, o quella amministrativa, qualora venga a conoscenza di presunte attività o informazioni illecite riguardanti un utente, nonché di fornire senza indugio, a richiesta delle autorità, le informazioni che consentano l’identificazione dell’utente coinvolto. Gli ISP sono responsabili dei contenuti pubblicati solo nel caso in cui non adempiano a tali obblighi.

Il presupposto logico per l’esenzione da tale responsabilità per i providers sarebbe quello per cui essi mantengano una posizione neutrale, e tendenzialmente passiva, rispetto ai contenuti degli utenti.

La direttiva sottolinea espressamente la necessità di valorizzare la libertà di espressione solo al considerando 46, secondo il quale la rimozione delle informazioni, o la disabilitazione dell’accesso alle medesime, da parte degli ISP deve essere effettuata “nel rispetto del principio della libertà di espressione e delle procedure all’uopo previste a livello nazionale”.

Alla luce di tale scenario normativo, le stesse piattaforme sono state, di fatto, delegate ad autodeterminare l’approccio da applicare al tema della disinformazione online: vi sono realtà, come Twitter, che si sono manifestamente impegnate in attività di moderazione, ed altre, come Facebook, che si sono sempre ritenute essenzialmente un mero contenitore, con un approccio più blando alla moderazione dei contenuti condivisi (almeno fino al c.d. scandalo Cambridge Analytica[12], dopo il quale sembra che anche Facebook abbia iniziato ad avere un approccio più deciso circa l’oscuramento di contenuti discutibili, anche verso lo stesso Trump, con la recente eliminazione di un post di propaganda politica contro gruppi di estrema sinistra contenenti un simbolo – un triangolo rosso rovesciato – riconducibile alla simbologia nazista). Alla diversità di approcci tra piattaforme esercitanti attività assimilabili sottende evidentemente una questione irrisolta dal punto di vista legislativo.

  1. Conclusioni provvisorie e prospettive future: l’approccio “accountable” di una possibile normativa

In conclusione, si può affermare come la disciplina prevista nel 1996 negli USA, così come quella europea, sembri inadeguata e che non abbia resistito efficacemente alla prova del tempo a causa della velocità con la quale le nuove tecnologie progrediscono producendo fenomeni non facilmente ipotizzabili nel medio-lungo periodo, con la conseguenza che la disciplina legale tende a tramutarsi celermente in uno strumento obsoleto rispetto alla finalità di regolare settori rivoluzionabili nel giro di pochi anni. In considerazione di ciò, sembrerebbe che ci sia da prendere atto della necessità di approcciarsi in maniera differente alla regolamentazione del settore delle piattaforme di social network.

Una possibile soluzione potrebbe prospettarsi nell’adozione del concetto di accountability, che sta prendendo sempre più piede nella legislazione comunitaria (esempio tipico è quello del GDPR[13]), in sede di elaborazione normativa. Un modello di regolamentazione contraddistinto da una maggiore elasticità della normativa che, al di là delle classifiche categorie di divieti e responsabilità, si basi sul concetto di responsabilizzazione, cioè sull’obbligo della piattaforma di rispondere ad esigenze di trasparenza rispetto alle metodologie utilizzate nell’attività di moderazione dei contenuti condivisi dagli utenti.

In definitiva, una normativa che preveda l’obbligo per le piattaforme di inserire nelle proprie policy l’indicazione chiara e comprensibile per l’utente di quelle che sono le logiche utilizzate dalla piattaforma per porre in essere l’attività di moderazione, cancellazione, oscuramento o fact checking di un determinato contenuto, così da avere un parametro per valutare la ragionevolezza del comportamento tenuto dalla piattaforma, ed eventualmente porre rimedio ad errate applicazioni di tali parametri in violazione dei diritti dell’utente (attraverso meccanismi di segnalazioni interne alle piattaforme stesse, oppure attraverso l’intervento delle corti)[14].

Tale approccio potrebbe anche dare modo di ridurre il vulnus al principio di eguaglianza tra le varie tipologie di utenti delle piattaforme nell’esercizio del proprio diritto di espressione e manifestazione del pensiero, grazie ad una applicazione uniforme delle content policy, così da evitare che l’intervento su determinati contenuti sia effettuato in base a parametri discutibili come la rilevanza pubblica del soggetto che abbia immesso il contenuto attenzionato.

[1] I tweet in questione sono visionabili qui: https://twitter.com/realDonaldTrump/status/1265255845358645254?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1265255845358645254&ref_url=https%3A%2F%2Fwww.essence.com%2Fnews%2Fpolitics%2Ftrump-twitter-mail-in-ballots%2F.

[2] Executive Order on Preventing Online Censorship, disponibile qui: .

[3] Il testo normativo è disponibile qui: https://www.law.cornell.edu/uscode/text/47/230.

[4] Il testo normativo è disponibile qui: https://www.law.cornell.edu/uscode/text/15/45.

[5] Corte Suprema degli Stati Uniti, sentenza n. 96–511, 26 giugno 1997, disponibile qui: https://supreme.justia.com/cases/federal/us/521/844/case.pdf.

[6] La disposizione normativa è disponibile qui: https://constitution.congress.gov/constitution/amendment-1/.

[7] Il concetto del marketplace of ideas si ritiene essere stato introdotto da John Milton nel suo lavoro Areopagitica del 1644, e si sostanzia nell’assioma per cui la verità emerge dalla competizione delle idee in un discorso pubblico libero e trasparente, e le idee, o le ideologie, sono selezionate in base alla loro diffusa accettazione da parte della popolazione.

[8] Cass. Pen., sez. I, sentenza n. 24431, 8 giugno 2015. Inoltre, la stessa Corte Suprema americana si è mostrata incline a identificare Facebook come una moderna piazza pubblica (“modern public square”) in Packingham v. North Carolina (sent. n. 15-1194, giugno 2017), poiché consente agli utenti di accedere alle informazioni e di confrontarsi su qualsiasi argomento, la sentenza è disponibile qui: https://www.supremecourt.gov/opinions/16pdf/15-1194_08l1.pdf.

[9] A titolo esemplificativo, gli standard di Twitter sono disponibili qui: https://help.twitter.com/it/rules-and-policies/twitter-rules.

[10] Testo normativo reperibile qui: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:32000L0031.

[11] Testo normativo reperibile qui: https://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:decreto.legislativo:2003;070.

[12] A proposito v. G. Cavallari, “Facebook e Cambridge Analytica: tra preoccupazioni e promesse”, maggio 2018, disponibile qui: https://www.iusinitinere.it/facebook-e-cambridge-analytica-tra-preoccupazioni-e-promesse-10519; A. Fonsi, “Facebook e lo scandalo Cambridge Analytica un anno dopo”, maggio 2019, disponibile qui: https://www.iusinitinere.it/facebook-e-lo-scandalo-cambridge-analytica-un-anno-dopo-20819.

[13] General Data Protection Regulation (regolamento europeo sulla protezione dei dati personale), il testo normativo è disponibile qui: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32016R0679.

[14] In proposito v. G. De Gregorio e R. Radu, “Trump’s Executive Order: Another Tile in the Mosaic of Governing Online Speech”, giugno 2020, disponibile qui: http://www.medialaws.eu/trumps-executive-order-another-tile-in-the-mosaic-of-governing-online-speech/?fbclid=IwAR1YcNAkjg1UanO-QZs0cE2KxeB44p8AKw53ZCDNShjAgUiHO-de3r9UVy4.

Lascia un commento