venerdì, Giugno 14, 2024
Uncategorized

“Una cronologia dettata dalla tecnologia”: intervista a Luciano Floridi, prof. di Filosofia ed Etica dell’Informazione – Università di Oxford

Ho avuto l’opportunità e l’onore di intervistare Luciano Floridi[1], professore ordinario di filosofia ed etica dell’informazione presso l’Università di Oxford e direttore del Digital Etichs Lab[2] presso l’Oxford Internet Institute della stessa università. Una delle voci più autorevoli nel campo della filosofia e dell’etica digitale nonché delle nuove tecnologie. Abbiamo avuto una piacevole conversazione sul tema dei dati, dalla quale sono emersi tantissimi spunti di riflessione. Ringraziandolo nuovamente per la disponibilità e cordialità, vi lascio alle domande e risposte.

1) Cos’è e come siamo arrivati alla società dell’informazione?

Noi abbiamo tante tassonomie e tante cronologie per il passato, il presente e più in generale per il tempo. Si parla di società dell’informazione perché guardando al mondo attraverso quello che possiamo fare tra di noi e, a volte, anche su di noi, è facile notare come ci siano state varie fasi e la fase attuale è quella dominata dalla tecnologia dell’informazione.
Vorrei evidenziare due punti in particolare: in primo luogo, stiamo adottando una cronologia che è dettata dalla tecnologia. In secondo luogo, attenzione a non cadere nella trappola della falsa equivalenza “informazione = comunicazione”.
Noi viviamo in una società dell’informazione e non della comunicazione, e la differenza è che le tecnologie che abbiamo oggi non fanno solo il lavoro dell’alfabeto, cioè di registrazione e non fanno neppure soltanto il lavoro del libro, ossia distribuzione, ma fanno il lavoro del computer: manipolazione.
Un conto è registrare i fatti, un conto è distribuire questa registrazione e un altro conto è avere macchine che fanno cose al posto nostro con queste informazioni. Questa tripartizione, esemplificata nell’alfabeto, nel libro e nel computer, altro non è che l’evoluzione lineare della storia.
Parliamo di rivoluzioni quando qualcosa si trasforma in qualcos’altro molto velocemente, per questo parliamo di rivoluzione digitale. Ma questa trasformazione da registrazione a anche diffusione a anche manipolazione, è una differenza fondamentale.

2) Qual è il ruolo dei dati in questa società e perché sono così importanti?

Chiariamo subito che è errato pensare che l’informazione, in passato, non fosse importante. Il nostro modo di organizzarci come società va di pari passo e riesce a sfruttare le tecnologie che ci circondano. Ad esempio, una società senza strade, ponti e acquedotti, non diventa mai Roma; una società senza la scrittura non può trasformarsi in una società dove esistono i contratti e la legge. In questa dialettica, perché oggi i dati sono importanti? Ma lo sono sempre stati, solo che oggi lo sono più di altre cose perché ne abbiamo quantità immense, che creano un valore aggiunto, e perché oggi li possiamo manipolare in modo automatico.
Ancora, ad esempio, si pensi alla prima crittografia. Giulio Cesare cifrava i messaggi ben conscio dell’importanza e del valore di quell’informazione.
I dati rappresentano un valore aggiunto dato che la priorità non è più produrre grano o automobili, ma capire quali sono i prodotti che possono essere migliorati e realizzati, grazie alle informazioni.
È come una sorta di stratificazione di complessità dove ad ogni livello si rendono necessarie più informazioni e una maggiore e più intelligente manipolazione delle informazioni precedenti.  In altre parole, i dati sono fondamentali e oggi ci servono per fare cose che non potremmo fare altrimenti; per migliorare cose che già facciamo ma che non potremmo fare meglio senza i dati; e infine, anche per capire meglio il mondo.
Tutto il mondo della scienza infatti vive soltanto di dati, basti pensare alle prime osservazioni delle stelle, attraverso le quali ricavando un dato empirico si cercava di capire come funzionasse il mondo.

3) In un suo intervento[3] in merito al diritto all’oblio lei ha accennato ad una doppia concezione cui possiamo guardare ai dati personali che aveva a che fare con due verbi, “trespassing” e “kidnapping”. Potrebbe riprendere quel concetto?

Quello era un modo per spiegare una diversa concezione dei dati personali. Noi finora abbiamo parlato di dati nel senso generale. Di questi tempi quando si parla di dati viene istintivo pensare ai dati personali, ma non è così. La maggior parte dei dati che abbiamo non sono tutti di tipo personale, sono dati sul mondo, sul traffico, sulla piovosità di una zona etc.
Attenzione qui a non fare confusione con i Big Data che sono invece una cosa ben precisa. I Big Data sono grandi quantità di dati non strutturati di tipo, spesso, testuale come Facebook, Twitter o i risultati di ricerca di Google. Da questa grande mole di dati testuali si può estrarre ad esempio un trend politico, questa analisi è la famosa analisi dei Big Data. Questi non sono grandi banche dati, e la differenza si sostanzia nella struttura. In una banca dati strutturata la ricerca è semplice, al contrario, le cose si complicano quando analizzo dati non strutturati, in questo caso è come cercare l’ago nel pagliaio.
Tornando a noi, molti dei dati che abbiamo oggi sono di tipo Machine to Machine, sono macchine che parlano con altre macchine. Si pensi alla mole di dati che produce un’automobile di ultima generazione: è spaventosa.
Nel mondo dei grandi quantitativi di dati, alcuni di questi sono anche personali. Ad esempio: parte dei dati che un’automobile produce come la localizzazione, che altro non è che l’associazione della mia presenza in un posto piuttosto che in un altro, sono anche dati personali.
Venendo quindi alla distinzione tra “trespassing” (oltrepassare) e “kidnapping” (rapire), la prima concezione, derivata dalla letteratura americana, va intesa nel senso di “io ho la mia casa, il mio muretto, questo è il mio spazio informativo e tu non ci puoi entrare se ci entri violi la mia proprietà, il mio spazio informativo”.
Io ho argomentato che in realtà questa metafora non funziona, ed è un modo sbagliato di guardare ai dati personali, dal momento che i veri dati personali con la P maiuscola, non sono uno spazio che mi appartiene, ma sono me stesso. Sono io che sono fatto di queste informazioni, dunque, se qualcuno mi porta via queste informazioni è più corretto parlare di “rapimento” che di “intrusione”.
In realtà noi parliamo di privacy anche in pubblico, che è un po’ strano se intendessimo la privacy come uno spazio privato, dal momento che uno spazio privato che però è pubblico è una contraddizione. Invece un quantitativo di dati, o di informazioni, che mi costituisce, mi costituisce anche in pubblico.
Se qualcuno mi porta via questi dati, e li riproduce da qualche altra parte, senza la mia autorizzazione, e magari li usa per creare un profilo e lo sfrutta per vendermi qualcosa, è come se questo qualcuno avesse strappato qualcosa da me, che poi questo rapire non impedisca a me di usare questi dati, ciò fa parte della natura informazionale dei dati.
In conclusione, qui, al di la delle metafore, c’è una duplice visione da cui osservare i dati: una che è in termini di filosofia dell’economia, i dati visti come spazio privato e io posso far o non far accedere altre persone. L’altra visione, invece, è in termini non di filosofia dell’economia ma di filosofia della mente o della propria individualità, che invece vede i dati personali come qualcosa che costituiscono me: chi sono, i miei ricordi, le mie esperienze, i miei modi di fare, le mie preferenze etc., sono tutte informazioni su di me che però fanno di me chi sono e in questo caso è evidente che si tratta di una diversa analogia, di una diversa filosofia e, infine, di una diversa legislazione.

4) Ci sono dei limiti, legali, tecnologici o etici, a questa sfrenata raccolta di dati?

Ci possono essere limiti di tipo legale, lo vediamo adesso con la legislazione del GDPR (Regolamento generale sulla protezione dei dati n. 679/2016) che pone diversi vincoli su cosa, come, quando e su chi raccoglie e gestisce i dati. Senza dubbio, quindi, ci sono vincoli legali che potremmo veder crescere.
Pensiamo al dibattito sul software per il riconoscimento facciale e la sua introduzione, ad esempio, in una scuola. In questo caso abbiamo un limite di tipo legale che ben si concilia con il limite etico, è davvero questa la società che vogliamo?
Poi c’è un limite di tipo tecnologico, cioè quali sono i dati che riusciamo a raccogliere? Ci sono cose sulle quali noi non riusciamo a raccogliere un sufficiente numero di dati, o sulle quali non abbiamo dati, o i cui dati non riusciamo a trattenere.
Il mondo produce molti più dati di quanto è lo spazio fisico per salvarli che viene prodotto. Questi dati si trovano su memorie fisiche, ma noi ne produciamo abbastanza? Stando alle mie ultime letture, che potrebbero non essere aggiornate, la risposta è no. Ormai abbiamo la possibilità di generare molti più dati di quanti non ne possiamo conservare su supporti fisici.
La semplice e banale esperienza di cancellare le foto dal cellulare quando la memoria è piena, è un’esperienza diffusa in tutto il mondo. Su questo non ci sono molte strategie legislative, ci sono delle previsioni per quanto riguarda il mantenimento di alcuni dati per specifici motivi per un determinato lasso di tempo.
Infine, vorrei sottolineare che il digitale ci ha fatto cambiare strategia. Noi fino a poco fa ci preoccupavamo di che cosa registrare, se ad esempio vi fosse una lastra di marmo da incidere, presteremmo molta attenzione a quale forma vogliamo dargli e soprattutto come, dato che se si sbaglia si deve ricominciare daccapo.
Imprimere qualcosa su di un qualsiasi supporto, una carta, una pietra, un papiro e così via, è una scelta, e il digitale ha completamente ribaltato questa situazione dal momento che di suo, il digitale, registrerebbe tutto, poi sta a noi decidere cosa entra e cosa no. Al contrario dell’analogico che richiedeva uno sforzo per capire cosa registrare, il digitale ci costringe ad uno sforzo per cancellare, ad elaborare, in ultima analisi, una strategia per cancellare.
Questa è una grande differenza, per noi che veniamo da millenni di raffinate strategie di registrazione, per intenderci: che cosa mettere nero su bianco. Adesso non so quanti anni o decenni ci serviranno per sviluppare altrettante raffinate strategie di cancellazione, tenendo anche conto del fatto che quello che non viene salvato sul digitale rischia spesso di essere perso per sempre.

5) Come e perché sono così importanti l’etica e la filosofia nel mondo digitale?

La filosofia lavora al suo meglio quando ci sono grandi trasformazioni, una rivoluzione politica o magari culturale o scientifica. La filosofia da il suo meglio quando c’è una sfida che viene dall’esterno, una sfida culturale, sociale, religiosa, scientifica. Su questa base, al contrario, la filosofia da il suo peggio quando non è sfidata e quando si può “rilassare”, entrando in una fase di scolasticismo.
In questo contesto, oggi la filosofia può dare il suo meglio perché c’è una grande sfida, oggi la filosofia è chiamata ad uscire dalla sua “torre d’avorio” e dare il suo meglio per affrontare questioni aperte, poste dal digitale.
Queste ultime non sono semplicemente risolvibili con numeri e operazioni matematiche, altrimenti staremo parlando di scienza, ma la soluzione va pensata e argomentata.
D’altra parte, oggi la società ne ha molto bisogno. Non è un caso che la filosofia dia il suo meglio quando c’è una rivoluzione in corso. Quando c’è una rivoluzione il filosofo torna utile, quando c’è una rivoluzione la gente vuole sapere cosa pensa il filosofo, ecco che oggi la filosofia è in prima linea nel dibattito sul digitale.

6) Infine, una previsione: come vede i dati tra 20 anni? Vi sarà, secondo lei, un diritto a monetizzare i dati personali? 

Quanto alla seconda domanda, direi che ritorna la mentalità novecentesca, e che quindi non ci siamo proprio. Monetizzare i dati non ha senso perché significa non aver capito che i dati personali non valgono niente. In realtà tutti i dati che mi costituiscono non valgono nulla, sono un granello di sabbia. Ciò che conta è che quel granello vale solo quando è parte di una spiaggia. Siccome ciò che vale è la spiaggia e non il granello, è inutile pensare che l’individuo possa monetizzare il granello, ci sono altre centinaia di migliaia di granelli nel mondo.
Nel dibattito sulla monetizzazione dei dati si sta affiancando alla mentalità del “trespassing”, già sbagliata, un’altra mentalità, sempre sbagliata, di centralità dell’io. Bisogna abbandonare questo approccio basato solo su una filosofia dell’economia.
Quanto alla prima domanda, in realtà, penso che ci avvieremo sempre di più verso un mondo bipolare, in cui da un lato ci saranno aziende che generano i loro dati e sono in grado di avere software che non necessitano di dati esterni, creandone di propri e lavorando su quelli. L’esempio classico è quello degli scacchi. Siamo passati da un contesto in cui il software per gli scacchi aveva bisogno di grandi banche dati, come tutte le partite dei grandi maestri, e poteva vincere facendo riferimento proprio a queste ultime, ad un software che genera, nella frazione di un secondo, tutte le possibili combinazioni utili per vincere quella partita generando i propri dati.
L’ultimo software di DeepMind non ha memoria storica nel senso ordiario, vince non perché conosce le partite dei grandi maestri, ma perché ha giocato contro se stesso miliardi di partite ricostruendo tra sé e sé la storia del gioco degli scacchi.
Dall’altro lato avremo grandi società che avranno sempre bisogno dei dati esterni, penso subito al campo medico, in cui non riesco a immaginare come faccia un software, giocando contro sé stesso, a creare una banca dati di tutti i possibili tumori del cervello, questo perché non conosciamo le regole di generazione, al contrario degli scacchi dove conoscendo tali regole abbiamo la possibilità di conoscere tutte le combinazioni. Sarebbe più facile in tal caso fare affidamento sulla banca dati dell’ospedale che i tumori li ha studiati.
Il mondo, secondo me, nei prossimi 5-10 anni andrà in questa duplice direzione. Ci saranno aziende che lavoreranno su grandi banche dati empiriche, quelle estratte dal mondo, e aziende che lavoreranno su banche dati autogenerate.
Come si farà a capire chi andrà meglio o come verrà gestita questa autogenerazione, è una partita che chi la imposta bene oggi, l’avrà vinta nel futuro e chi non l’ha capita si troverà a subire le decisioni altrui.

 

[1]https://www.oii.ox.ac.uk/people/luciano-floridi

[2]

[3]On Personal Data, Forgiveness, and the Right to Be Forgotten, disponibile qui: https://www.youtube.com/watch?v=JVTu-0SfvzQ&t=195s

Simone Cedrola

Laureto in Giurisprudenza presso l'Università Federico II di Napoli nel luglio 2017 con una tesi in Procedura Civile. Collaboro con Ius in itinere fin dall'inizio (giugno 2016). Dapprima nell'area di Diritto Penale scrivendo principalmente di cybercrime e diritto penale dell'informatica. Poi, nel settembre 2017, sono diventato responsabile dell'area IP & IT e parte attiva del direttivo. Sono Vice direttore della Rivista, mantenendo sempre il mio ruolo di responsabile dell'area IP & IT. Gestisco inoltre i social media e tutta la parte tecnica del sito. Nel settembre 2018 ho ottenuto a pieni voti e con lode il titolo di LL.M. in Law of Internet Technology presso l'Università Bocconi. Da giugno 2018 a giugno 2019 ho lavorato da Google come Legal Trainee. Attualmente lavoro come Associate Lawyer nello studio legale Hogan Lovells e come Legal Secondee da Google (dal 2019). Per info o per collaborare: simone.cedrola@iusinitinere.it

Lascia un commento