giovedì, Marzo 28, 2024
Uncategorized

Contenuti illeciti su Facebook: l’ordine di rimozione del Tribunale di Milano del 4 giugno 2020

La vicenda in esame trae origine dal già dibattuto tema relativo agli ordini di rimozione dei contenuti illeciti online, precisamente sui social network, nonché dell’ambito di operatività territoriale di tali ordini, laddove imposti.

Nel presente articolo si effettuerà un’analisi della recente ordinanza del Tribunale di Milano Sezione Prima – depositata in data 17.06.2020, avente ad oggetto l’obbligo di rimozione di contenuti a carattere illecito presenti su noti social network ed il suo ambito di operatività territoriale e, precisamente, se esso debba dispiegare i propri effetti a livello mondiale ovvero limitatamente agli Stati Europei.

1. La vicenda

Un noto imprenditore italiano, con ricorso ex art. 700 c.p.c. depositato il 10.06.2019, ha chiesto al Tribunale di Milano di ordinare a Facebook Inc., Facebook Ireland Limited, Instagram LLC, Twitter Inc, YouTube LLC, Google Inc e Google Ireland Holding la rimozione di contenuti online, presenti nelle pagine social, ritenuti denigratori nei propri riguardi. Il ricorrente ha dedotto che tali contenuti fossero stati inseriti a suo discredito ed intenzionalmente inseriti in relazione ad una vicenda di carattere personale che lo ha visto coinvolto e che fossero stati pubblicati per porre in essere una “campagna denigratoria violentissima” nei suoi confronti, caratterizzata da “un’aggressività sempre crescente” sui diversi social network citati. A sostegno di ciò ha dedotto che i post e le immagini avessero un contenuto gravemente diffamatorio del proprio onore e della propria reputazione, personale e professionale.

In virtù della circostanza per cui i contenuti presenti su Twitter erano stati prontamente rimossi e il canale YouTube era stato immediatamente chiuso, il ricorrente ha rinunciato agli atti del giudizio nei confronti di Twitter, YouTube e Google.

Quanto alla decisione, il Giudice, valutati gli atti di causa, con ordinanza depositata in data 20.03.2020, ha accolto il ricorso ex art. 700 c.p.c. ed ha ordinato alle società resistenti Facebook Inc., Facebook Ireland Ltd e Instagram LLC di rimuovere a livello mondiale i contenuti segnalati e ha condannato le medesime società resistenti, in via tra loro solidale, alla rifusione delle spese di lite in favore del ricorrente.

2. Gli sviluppi processuali

Con reclamo depositato il 6.4.2020 Facebook Inc., Facebook Ireland LTD e Instagram LLC hanno chiesto la revoca dell’ordinanza e la condanna del reclamato al pagamento delle spese di lite del ricorso cautelare e della fase di reclamo. In particolare le società reclamanti hanno dedotto che:

  • le stesse erano prive di legittimazione passiva, atteso che unico responsabile dei contenuti visibili per gli utenti italiani era Facebook Ireland;
  • il Giudice della fase cautelare aveva ordinato erroneamente la rimozione a livello mondiale di tutti i contenuti, atteso che tale domanda non era stata formulata nel ricorso introduttivo ma solo nella successiva memoria autorizzata;
  • non poteva ritenersi sussistente il requisito del periculum in mora, atteso che l’accesso ai contenuti illeciti era stato prontamente rimosso per gli utenti italiani di Facebook e Instagram e che i restanti contenuti non potevano ritenersi illeciti;
  • Facebook Ireland aveva adempiuto agli obblighi sulla stessa gravanti (in forza degli artt. 16 e 17 del d.lgs. 70/2003) provvedendo a rimuovere i contenuti;
  • tra i contenuti oggetto del ricorso erano presenti messaggi dal tenore inoffensivo, che non potevano considerarsi illeciti.

Il reclamato si è poi costituito chiedendo il rigetto del reclamo e la conferma dell’ordinanza impugnata. Egli in particolare ha dedotto che:

  • le società convenute avevano la possibilità e l’obbligo di rimuovere i contenuti offensivi e denigratori, anche in via d’urgenza (come previsto dagli artt. 14, 15, 16 e 17 del d.lgs. 70/2003 – di seguito analizzati);
  • l’eccezione di difetto di legittimazione passiva doveva ritenersi infondata, atteso che oggetto del ricorso era un ordine di rimozione a livello mondiale;
  • l’ordinanza reclamata aveva correttamente richiamato i principi affermati dalla Corte di Giustizia, che aveva espressamente riconosciuto la possibilità di uno Stato membro di ordinare la rimozione dei contenuti a livello mondiale;
  • la rimozione a livello mondiale era necessaria atteso che le società in cui era coinvolto il ricorrente esportavano gran parte dei prodotti in tutto il mondo, avevano sede in 62 Paesi e godevano di una politica imprenditoriale caratterizzata dalla riservatezza e dall’impegno nella filantropia e che, inoltre, i contenuti erano redatti in lingua inglese (pertanto conoscibili in tutto il mondo);
  • la controversia in esame non atteneva al trattamento dei dati personali, ma ad una controversia civilistica in materia di diffamazione e che, pertanto, non potevano essere invocati i principi sul bilanciamento tra diritti, affermati da parte della giurisprudenza richiamata dalle società reclamanti;
  • la campagna diffamatoria era proseguita anche dopo la pronuncia del provvedimento impugnato.

Ora, a fronte del reclamo avanzato dalle società reclamanti e della costituzione del reclamato, il Tribunale di Milano ha chiarito preliminarmente come dal punto di vista della competenza: “l’evento illecito possa ritenersi dannoso nel momento in cui provochi la lesione concreta del bene protetto, in relazione al soggetto che per tale lesione chieda tutela”. Nella specie, detta lesione poteva ritenersi consumata nel luogo e nel momento in cui il soggetto leso avesse preso consapevolezza dei commenti denigratori postati sui profili Facebook e Instagram. Tale consapevolezza ha trovato concreta attuazione nel paese di origine del danneggiato; pertanto, non poteva venire messa in dubbio la sussistenza della giurisdizione dell’autorità giurisdizionale italiana a pronunciarsi sulla questione.

Per quanto riguarda poi la legittimazione passiva delle società reclamanti, il Tribunale ha rilevato come: “Facebook Ireland Limited, società registrata in Irlanda con sede a Dublino, è una controllata della società statunitense Facebook Inc. Facebook Ireland gestisce, per gli utenti situati al di fuori degli Stati Uniti e del Canada, una piattaforma di rete sociale in linea e tale piattaforma consente agli utenti di creare pagine di profili e di pubblicare commenti. In base ai documenti depositati dalla difesa di Facebook, Facebook Inc e Instagram Llc, invece, non ospitano né gestiscono i servizi Facebook e Instagram per gli utenti Europei”. Dunque, è stato riformato il provvedimento cautelare nella parte in cui erano state condannate anche Facebook Inc e Instagram LLC.

Esaminate le ulteriori questioni preliminari, il Tribunale si è poi espresso nel merito ed ha posto dei cenni in merito alla figura dell’hosting provider. Ciò in quanto – sebbene sia pacifico che la piattaforma Facebook Ireland fornisca servizi di hosting ai sensi dell’articolo 14 della direttiva 2000/31[1] – tuttavia è sembrato opportuno comprendere se esso fosse qualificabile come hosting provider attivo o  passivo, considerate le differenze esistenti tra le due figure nonché il diverso regime di responsabilità oggi vigente in capo ad esse.

Per meglio comprendere il contenuto dell’ordinanza in esame è opportuno fare luce sul regime di responsabilità da contenuti illeciti in capo all’Internet Service Provider e sulla figura dell’Hosting provider.

3. La responsabilità da contenuti illeciti in capo all’Internet Service Provider

La figura dell’Internet Service Provider (di seguito anche ISP) è disciplinata dalla direttiva comunitaria 2000/31/CE – anche nota come direttiva E-commerce[2]– la quale ha definito i “servizi della società dell’informazione” come quei servizi generalmente prestati dietro retribuzione, a distanza, mediante strumenti elettronici di trattamento e di memorizzazione di dati. Il provider, dunque, è il soggetto che offre agli utenti l’accesso alla rete internet e ai servizi connessi al suo utilizzo permettendo così il collegamento tra i soggetti che intendono comunicare un’informazione sul web e i soggetti destinatari della stessa.

Il tema della responsabilità dell’internet service provider è stato più volte oggetto di dibattiti in passato e non è stato di semplice risoluzione. Tanto la dottrina quanto la giurisprudenza si sono soffermate sullo stabilire se il prestatore di servizi possa essere chiamato a rispondere degli eventuali illeciti messi in atto da soggetti che accedono alla rete. Per far ciò si è dovuto considerare il diverso ruolo che svolgono gli hosting nonché le circostanze per le quali si hanno le condotte contrarie alla legge, che tuttavia non sono sempre controllabili dai provider[3].

Il riferimento normativo nazionale dal quale partire per chiarire quale siano le attività svolte e il regime di responsabilità in capo al provider è dato dal d.lgs. 70/2003[4] – attuativo della direttiva 2000/31/CE – che ha previsto delle esenzioni di responsabilità sulla base dell’attività compiuta dal prestatore di servizi.

Le attività sono sancite agli artt. 14 (responsabilità per le attività di semplice trasporto o Mere conduit, si pensi ai c.d. Access Provider come Fastweb, Vodafone, TIM), 15 (responsabilità nell’attività di memorizzazione temporanea o Caching provider, si pensi all’attività dei motori di ricerca come Google Web Search, Bing e Yahoo) e 16 (responsabilità nell’attività di memorizzazione di informazioni o Hosting provider, si pensi ai c.d. social network come Facebook, Youtube, Instagram, Twitter). Queste disposizioni prevedono un’esenzione di responsabilità per il provider nell’ambito della fornitura del servizio a patto che siano rispettate alcune condizioni, che verranno analizzate nel paragrafo seguente con particolare riferimento alla figura dell’hosting provider.

Giova, inoltre, ricordare che l’art. 17 del sopracitato decreto sancisce il principio generale secondo cui il provider sia esente da un obbligo generale di sorveglianza sulle informazioni – tenuto conto della notevole quantità delle stesse – nonché dall’obbligo di dover attivamente ricercare dati e/o fatti che indichino la presenza di contenuti illeciti.

E’ in ogni caso previsto che l’autorità giudiziaria o quella amministrativa avente funzioni di vigilanza possa esigere, anche in via d’urgenza, che il prestatore impedisca o ponga fine alle violazioni commesse e il prestatore resta comunque tenuto ad informare l’autorità giudiziaria o quella amministrativa avente funzioni di vigilanza, qualora sia a conoscenza di presunte attività o informazioni illecite riguardanti un suo destinatario del servizio della società dell’informazione; nonché a fornire, a richiesta delle autorità competenti, le informazioni in suo possesso che consentano l’identificazione del destinatario dei suoi servizi, al fine di individuare e prevenire attività illecite.

3.1. Hosting provider attivo e passivo. Quali le differenze?

L’art. 16 del d.lgs 70/2003[5] sopra richiamato disciplina il servizio di Hosting come attività di memorizzazione di informazioni online fornite dagli utenti prevedendo un’esenzione di responsabilità dello stesso a condizione che:

  • non sia effettivamente al corrente del fatto che l’attività o l’informazione è illecita e, per quanto attiene ad azioni risarcitorie, non sia al corrente di fatti o di circostanze che rendono manifesta l’illegalità dell’attività o dell’informazione
  • non appena al corrente di tali fatti, agisca immediatamente per rimuovere le informazioni o per disabilitarne l’accesso.

Sebbene il legislatore abbia previsto un’unica categoria di Hosting provider, l’evoluzione giurisprudenziale – sulla scorta dell’evoluzione tecnologica di queste piattaforme – è giunta a qualificare l’hosting provider come attivo o passivo in base al ruolo, di volta in volta, più o meno neutrale assunto nella fornitura del servizio.

Il discrimen tra le due figure è stato oggetto di recente analisi da parte della Suprema Corte di Cassazione che con la sentenza n. 7708 del 2019[6] ha stabilito che si possa parlare di hosting “attivo” quando questo svolga un ruolo attivo nella prestazione dei propri servizi agli utenti, e sia dunque “ravvisabile una condotta di azione che completa e arricchisce in modo non passivo la fruizione dei contenuti. Tale attività può desumersi da una serie di indici di interferenza da accertare ad opera del giudice e cioè le attività di filtro, selezione, indicizzazione, organizzazione, catalogazione, aggregazione, valutazione, uso, modifica, estrazione o promozione dei contenuti, operate mediante una gestione imprenditoriale del servizio, come pure l’adozione di una tecnica di valutazione comportamentale degli utenti per aumentarne la fidelizzazione”. Questi, sostanzialmente, secondo la Corte, sono tutti segnali di una condotta non meramente passiva del prestatore.

La figura del provider “passivo”, invece, è ravvisabile qualora il prestatore si limiti ad ospitare in modo del tutto neutrale i contenuti (informazioni, dati, immagini, video e simili) degli utenti e svolga sostanzialmente prestazioni dal carattere meramente tecnico, automatico e, dunque, di natura passiva[7].

Ora, quale principio generale derivante tanto dal tenore delle predette disposizioni quanto dalla recente sentenza della Cassazione, emerge quello secondo cui vi sia responsabilità del prestatore di servizi passivo se – avendo egli avuto conoscenza degli illeciti che potessero pregiudicare un utente – non ne abbia dato comunicazione all’autorità ovvero non abbia risposto alle richieste di essa. In altre parole, può rimproverarsi al provider passivo la “condotta commissiva mediante omissione” per aver concorso nel comportamento lesivo altrui (avendone avuto conoscenza senza aver agito con la rimozione o con la disabilitazione degli accessi ai contenuti).

Per quanto riguarda invece la responsabilità in capo all’hosting attivo, la Corte di Cassazione ha previsto un differente e più severo regime in quanto – stante il ruolo attivo svolto in tal caso dal provider – non si può ritenere che esso sia estraneo alla condotta ma che piuttosto concorra nella commissione dell’illecito, laddove si verifichi. La natura della responsabilità del provider attivo rientra infatti nel regime della responsabilità civile applicabile quando egli abbia avuto la conoscenza effettiva – o la ragionevole possibilità di conoscere – il fatto illecito altrui e ne deriva pertanto che non goda del regime privilegiato concesso invece ai provider passivi.

Infine, giova ricordare che con riferimento alla citata pronuncia n. 7708/2019 della Cassazione e al requisito della “conoscenza effettiva”, era stato chiarito che:

  • la conoscenza dell’altrui illecito, quale elemento costitutivo della responsabilità del prestatore stesso, coincide con l’esistenza di una comunicazione in tal senso operata dal soggetto il cui diritto si assume leso;
  • l’onere della prova a carico del mittente riguarda l’avvenuto recapito all’indirizzo del destinatario;
  • il sorgere dell’obbligo in capo al prestatore del servizio non richiede una “diffida” in senso tecnico – quale richiesta di adempimento dell’obbligo di rimozione dei documenti illeciti – essendo a ciò sufficiente la mera “comunicazione” o notizia della lesione del diritto.

4. La pronuncia del Tribunale sul ruolo di Facebook e sull’estensione territoriale dell’ordine di rimozione

Tutto ciò premesso, nel caso in esame, per individuare la disciplina applicabile, il Tribunale di Milano si è interrogato sul ruolo di Facebook Ireland come provider attivo o provider passivo, stante il differente regime di responsabilità previsto.

Nel corso del giudizio è stato accertato che Facebook Ireland e Instagram fornivano – e tutt’ora forniscono – servizi online gratuiti, mediante i quali gli utenti possono entrare in contatto, condividere informazioni e condividere e scambiare immagini. Facebook e Instagram erogano, pertanto, servizi di fruizione di contenuti e di immagini, con mera prestazione di servizi di “ospitalità” di dati o hosting, senza proporre altri servizi di elaborazione dei dati. Non è emersa in alcun modo, pertanto, l’avvenuta manipolazione dei dati, dunque ciò non ha permesso di determinare il mutamento della natura del servizio, rimasto meramente “passivo“. Facebook ed Instagram, quindi, sono stati qualificati come hosting provider passivi. 

Inoltre, dalla pronuncia del Tribunale è emerso che la “comunicazione” alle società reclamanti sia avvenuta solo con la notifica del ricorso ex art. 700 c.p.c. e gli ulteriori contenuti per mezzo della memoria autorizzata; pertanto, solo in tale momento poteva ritenersi sorto l’obbligo e la conseguente responsabilità dell’hosting provider.

Quanto poi all’ordine di rimozione dei contenuti, una volta accertata l’illiceità di taluni dei contenuti oggetto del presente caso, nella scelta del rimedio da adottare, il Tribunale ha ritenuto che per assicurare al ricorrente una tutela effettiva fosse il caso di optare per un rimedio dal carattere fortemente incisivo, quale la rimozione definitiva dei contenuti. Soluzione, questa, che sembrava confermare quanto statuito in via cautelare.

Tuttavia, l’esigenza di bilanciamento tra la protezione dei dati personali e il diritto all’informazione, e ancora, tra dignità della persona e libertà di espressione ha imposto un’analisi sull’estensione territoriale del rimedio per garantire la più equa tutela al soggetto leso dal contenuto diffamatorio, ed in particolare sul se bastasse una condanna giudiziale limitata unicamente all’ambito europeo ovvero estesa a livello mondiale. In tal senso, in applicazione del principio di proporzionalità e in ragione della tipologia di contenuti, delle caratteristiche del soggetto denigrato e delle espressioni utilizzate, il Tribunale ha ritenuto che l’ordine di rimozione fosse idoneo a garantire una tutela equa ed effettiva all’utente senza tuttavia necessità di estensione a tutto il mondo; la rimozione, pertanto, è stata ordinata a Facebook Ireland con riferimento esclusivamente agli Stati Europei. Le attività lavorative del ricorrente non hanno giustificato l’estensione territoriale a livello mondiale.

5. Rilievi conclusivi

La pronuncia in esame ha sancito un evidente sviluppo rispetto alla disciplina già esistente che ha accolto la tesi sulla rimozione di contenuti a livello globale (il c.d. “Global Removal”) senza limitazioni agli effetti ed alle conseguenze da ciò scaturenti. La predetta tesi – confermata da diverse sentenze della Corte di Giustizia[8] – sancisce infatti che qualunque Paese possa ordinare a Facebook di eliminare post, fotografie e video e limitarvi l’accesso a livello mondiale. Non solo, in base al tenore delle preesistenti pronunce della Corte di Giustizia Europea, la piattaforma sulla quale erano presenti i contenuti illeciti era chiamata altresì ad eliminare i contenuti, dati o commenti “equivalenti” a quelli denunciati[9].

Il Tribunale ha sancito invece che l’imposizione in uno Stato membro di un obbligo consistente nel rimuovere contenuti a livello mondiale – in conseguenza di un accertamento in fase sommaria – per tutti gli utenti di una piattaforma elettronica, avrebbe come conseguenza inevitabile che l’accertamento del loro carattere illecito esplichi effetti in altri Stati che ben potrebbero, invece, secondo le norme nazionali di conflitto, ritenere leciti i contenuti.

Dunque, sebbene in teoria possa concepirsi la rimozione delle informazioni manifestamente illecite a livello globale, non sono apparse trascurabili le differenze esistenti fra le leggi nazionali, da un lato, e la tutela della vita privata e dei diritti della personalità da esse prevista, dall’altro; pertanto, al fine di rispettare i diritti fondamentali, si è deciso per un atteggiamento di autolimitazione, attraverso l’applicazione del principio di proporzionalità.

Si è ricordato nella pronuncia che l’articolo 52, paragrafo 1, della Carta dei diritti fondamentali dell’Ue ammette che possano essere apportate limitazioni all’esercizio di diritti previsti dalla Carta stessa, purché tali limitazioni siano previste dalla legge, rispettino il contenuto essenziale di detti diritti e libertà e, nel rispetto del principio di proporzionalità, siano necessarie e rispondano effettivamente a finalità di interesse generale riconosciute dall’Unione o all’esigenza di proteggere i diritti e le libertà altrui[10]. La nostra Corte Costituzionale, inoltre, ha affermato che nessun diritto fondamentale è protetto in termini assoluti dalla Costituzione, ma che – al contrario – è soggetto a limiti per integrarsi con una pluralità di altri diritti e valori, giacché altrimenti si farebbe “tiranno” e porterebbe al totale annientamento di uno o più fattori in gioco[11].

Ancora, in merito alla operatività territoriale dell’ordine di rimozione nonché alla modalità in cui la rimozione può venire ordinata, il Collegio ha osservato che: “la forte compressione della libertà di espressione (in Stati che ben potrebbero prevedere discipline nazionali diverse da quella dello Stato che emette l’ordine) conseguente ad un ordine di rimozione di contenuti a livello mondiale, richiede – proprio per il delicato bilanciamento tra diritti fondamentali e in ossequio ai principi costituzionali e sovranazionali – l’intervento dell’autorità giudiziaria e difficilmente sembra demandabile a società private, quali i motori di ricerca o i social network”.

Si evince allora che l’ulteriore aspetto di cui si discuterà sarà quello mirato a comprendere se, fuori dai confini dell’Ue, la tutela degli utenti sarà affidata alla discrezionalità dei provider e il dibattito in merito andrà presumibilmente verso la possibilità sul se attribuire o meno agli stessi dette competenze.

[1] L’articolo 14 della direttiva 2000/31, intitolato “Hosting“, così dispone: “Gli Stati membri provvedono affinché, nella prestazione di un servizio della società dell’informazione consistente nella memorizzazione di informazioni fornite da un destinatario del servizio, il prestatore non sia responsabile delle informazioni memorizzate a richiesta di un destinatario del servizio, a condizione che detto prestatore: a) non sia effettivamente al corrente del fatto che l’attività o l’informazione è illecita e, per quanto attiene ad azioni risarcitorie, non sia al corrente di fatti o di circostanze che rendono manifesta l’illegalità dell’attività o dell’informazione, o b) non appena al corrente di tali fatti, agisca immediatamente per rimuovere le informazioni o per disabilitarne l’accesso.  Ai sensi dell’articolo 15, paragrafo 1, di tale direttiva: “Nella prestazione dei servizi di cui agli articoli 12, 13 e 14, gli Stati membri non impongono ai prestatori un obbligo generale di sorveglianza sulle informazioni che trasmettono o memorizzano né un obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite“.  Inoltre, l’articolo 18, paragrafo 1, della direttiva citata prevede quanto segue: “Gli Stati membri provvedono affinché i ricorsi giurisdizionali previsti dal diritto nazionale per quanto concerne le attività dei servizi della società dell’informazione consentano di prendere rapidamente provvedimenti, anche provvisori, atti a porre fine alle violazioni e a impedire ulteriori danni agli interessi in causa”.

[2] Direttiva 2000/31/CE del Parlamento e del Consiglio Europeo dell’8.06.2000 disponibile qui: https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:32000L0031&from=ET

[3] L. Izzo, “Hosting Provider”, www.studiocataldi.it

[4] D.lgs 70/2003 consultabile qui: https://www.camera.it/parlam/leggi/deleghe/03070dl.htm

[5] Tale articolo dispone precisamente che: “Nella prestazione di un servizio della società dell’informazione, consistente nella memorizzazione di informazioni fornite da un destinatario del servizio, il prestatore non è responsabile delle informazioni memorizzate a richiesta di un destinatario del servizio, a condizione che detto prestatore: a) non sia effettivamente a conoscenza del fatto che l’attività o l’informazione è illecita e, per quanto attiene ad azioni risarcitorie, non sia al corrente di fatti o di circostanze che rendono manifesta l’illiceità dell’attività o dell’informazione; b) non appena a conoscenza di tali fatti, su comunicazione delle autorità competenti, agisca immediatamente per rimuovere le informazioni o per disabilitarne l’accesso. Le disposizioni di cui al comma 1 non si applicano se il destinatario del servizio agisce sotto l’autorità o il controllo del prestatore. L’autorità giudiziaria o quella amministrativa competente può esigere, anche in via d’urgenza, che il prestatore, nell’esercizio delle attività di cui al comma 1, impedisca o ponga fine alle violazioni commesse”.

[6] Corte di Cassazione, Sent. n. 7708/2019 consultabile qui: https://sentenze.laleggepertutti.it/sentenza/cassazione-civile-n-7708-del-19-03-2019

[7] C. Cristalli, Caso Mediaset contro Yahoo!: la Cassazione sulla responsabilità dell’hosting provider alla luce della nuova direttiva sul copyright, maggio 2019, Ius in itinere, disponibile qui: https://www.iusinitinere.it/caso-mediaset-contro-yahoo-la-cassazione-sulla-responsabilita-dell-hosting-provider-alla-luce-della-nuova-direttiva-sul-copyright-20160

[8] Si richiama a tal proposito il procedimento C-18/18 nell’ambito del quale la Corte di Giustizia Europea si era espressa prevedendo l’obbligo di rimozione a livello mondiale in capo ai social network ospitanti in qualità di hosting provider di contenuti dichiarati da un tribunale illeciti pubblicati dai propri utenti. In questo caso, la Corte ha preso una posizione di favore dei diritti dell’utente, prevedendo altresì che l’hosting provider – in tal caso Facebook Ireland Limited – dovesse rimuovere tutti i contenuti identici e con un contenuto equivalente a quello dichiarato illecito. Pronuncia consultabile qui: http://curia.europa.eu/juris/document/document.jsf?text=&docid=218621&pageIndex=0&doclang=EN&mode=req&dir=&occ=first&part=1&cid=835867

[9] A. Longo, “L’Ue impone a Facebook di cancellare anche contenuti simili a illeciti”, www.repubblica.it

[10] Sentenza del 9 novembre 2010, Volker und Markus Schecke e Eifert, C-92/09 e C-93/09, EU:C:2010:662.

[11] Corte Costituzionale, Sent. n. 85/2013.

Sofia Giancone

Avvocato e Dottoranda di Ricerca in diritto privato presso l'Università Tor Vergata - Roma Sofia Giancone fa parte di Ius In Itinere da maggio 2020. Ha conseguito la laurea magistrale in Giurisprudenza nel 2019 con Lode presso l'Università di Roma Tor Vergata, discutendo la tesi in Diritto Commerciale dal titolo: "Il software: profili strutturali, tutela giuridica e prospettive". Ha svolto la pratica forense in ambito civile e il tirocinio formativo in magistratura ex art. 73 d.l. 69/2013 presso la Corte d'appello civile di Roma. Successivamente ha approfondito i temi legati all'IP & IT e si è specializzata in Tech Law & Digital Transformation con TopLegal Academy. Si è occupata di consulenza e assistenza legale nell'ambito del Venture Building, innovazione e startup, contrattualistica di impresa. Ad ottobre 2022 ha conseguito l'abilitazione all'esercizio della professione forense e ad oggi esercita la professione di Avvocato. Dal 2022 svolge inoltre il Dottorato di ricerca in diritto privato presso l'Università di Roma Tor Vergata. Profilo LinkedIn: linkedin.com/in/sofia-giancone-38b8b7196

Lascia un commento