venerdì, Luglio 26, 2024
Criminal & Compliance

Lotta al terrorismo per mezzo dell’Intelligenza Artificiale

Lotta al terrorismo per mezzo dell’Intelligenza Artificiale

A cura di Sofia D’Amico

Il presente lavoro è una rielaborazione di parte della Tesi, dal titolo “Criminalità organizzata ed intelligenza artificiale: nuove frontiere e strategie di contrasto al fenomeno”, redatta con il contributo di una delle 15 borse di studio finanziate dall’Assemblea Regionale Siciliana ed intitolate alla memoria di Giovanni Falcone e Paolo Borsellino, assegnata alla dott.ssa Sofia D’Amico nell’anno 2022 dalla Fondazione Falcone.

Grazie agli sbalorditivi progressi nell’ambito dell’intelligenza artificiale registrati negli ultimi decenni, è divenuto possibile, fra le altre opportunità, impiegare tali tecnologie nella repressione del terrorismo grazie al potenziale rappresentato dalla raccolta dei dati, impiegando le tecnologie a scopo di raccolta, conservazione e analisi di dati possibilmente utili nel monitoraggio di attività sospette.[1]

Preme evidenziare, inoltre, che la lotta al terrorismo dispiega i suoi effetti anche nel contrasto alla criminalità organizzata, data l’inestricabilità dei due fenomeni: già nel 2002, all’interno della Posizione Comune adottata dal Consiglio dell’Unione Europea,[2] erano stati messi in evidenza i profondi legami tra terrorismo e criminalità organizzata di tipo mafioso; si pensi ad esempio ai rapporti nel campo del contrabbando di merci e dei traffici di materiali da armamento. Oltretutto, è imprescindibile ricordare come negli anni ‘80, in Italia, le mafie abbiano affermato la loro egemonia anche per mezzo delle azioni terroristiche: gli appartenenti a Cosa Nostra che misero in atto le stragi nel continente nel 1993 (a titolo esemplificativo:  a Roma, via dei Georgofili e Stadio Olimpico, a Milano, Museo Nazionale d’Arte Moderna) sono stati condannati per tali delitti ritenuti aggravati dall’aver agito per finalità di terrorismo ed eversione dell’ordine costituzionale (art. 1 dl n. 625/1979, conv. dalla l. 15/1980).[3]

A partire dagli attentati dell’11 settembre 2001, le democrazie occidentali hanno dovuto fronteggiare una minaccia completamente nuova, non assimilabile ad altri fenomeni terroristici che, ben prima dell’inizio del nuovo millennio, avevano interessato diversi Paesi europei: si pensi alla continua variazione delle strategie impiegate per la realizzazione degli attentati, che ha comportato un’estrema difficoltà nel prevederli e prevenirli.[4] In questo scenario, la tecnologia ha iniziato a rivestire un ruolo preminente: il diffondersi della minaccia terroristica internazionale, infatti, ha coinciso con l’avanzamento tecnologico che ha caratterizzato i primi venti anni di questo secolo, sviluppandosi in parallelo allo stesso.

Seguendo l’evoluzione tecnologica, le attività di sorveglianza hanno assunto un carattere massivo: si è assistito, infatti, allo sviluppo di nuove tecnologie come la criptoanalisi, nonché alla predisposizione di databases in grado di conservare e confrontare i c.d. metadati[5], in modo da consentire la profilazione degli individui con scopo criminal-preventivo e non più, come prima dell’11 settembre 2001, a fini commerciali.[6]

Ma in cosa consiste, esattamente, l’impiego dell’IA nella lotta al terrorismo? Dal momento che la stessa è una tecnologia nuova ed in continua evoluzione, per larga parte è ancora in fase sperimentale; nonostante ciò, vi sono già diversi campi dove l’intelligenza artificiale ha rivoluzionato le precedenti tecniche.

Innanzitutto, vi è l’azione, a monte, contro la radicalizzazione: l’IA può essere utilizzata per identificare coloro che sono più vulnerabili e, perciò, maggiormente esposti agli sforzi radicalizzanti dei gruppi terroristici.

Ad esempio, il c.d. Redirect method[7], pilotato da Jigsaw e Moonshot nel 2016 e successivamente distribuito a livello internazionale da Moonshot in collaborazione con aziende tecnologiche, governi e organizzazioni di base. Tale “metodo” consiste in un sistema algoritmico capace di individuare i profili degli individui potenziali obiettivi della narrativa dell’odio. Preventivamente si testa l’algoritmo sul discorso islamista, insegnandogli i vocaboli e le frasi utilizzati dalla retorica jihadista: una volta programmato l’algoritmo, lo si usa per intercettare l’utente di Internet sensibile al discorso terroristico, con l’obiettivo di “re-indirizzarlo” a pagine web di contro-narrativa,[8]  mirando tramite ciò a diminuire le possibilità di adesione ad ideologie violente o estremiste.

Un ulteriore impiego, forse il più famoso, è la cd facial recognition; in materia di immigrazione questo strumento risulta già impiegato nei riconoscimenti alle frontiere, ai sensi del “Regolamento (UE) 2018/1861 del Parlamento europeo e del Consiglio sull’istituzione, l’esercizio e l’uso del sistema d’informazione Schengen (SIS) nel settore delle verifiche di frontiera”.[9]  Per quanto riguarda l’antiterrorismo, il riconoscimento facciale è ancora in via di test presso le autorità di law enforcement di vari paesi; tale tecnologia consiste nell’estrazione ed elaborazione da parte dei sistemi di riconoscimento facciale di dati biometrici del volto di individui[10], raccolti mediante telecamere installate in luoghi pubblici, per raffrontarli con altri visi, raccolti in databases, di persone sospettate di terrorismo oppure già condannate per questo tipo di reati.

Un’altra applicazione dell’intelligenza artificiale si basa sulla capacità degli algoritmi di analizzare i metadati delle comunicazioni che avvengono online, come gli indirizzi IP utilizzati ed i siti web visitati, per individuare comportamenti potenzialmente pericolosi ed eventualmente effettuare segnalazioni alle competenti autorità pubbliche.

Allo stato dell’arte, l’impiego di sviluppo più recente degli algoritmi nel campo del contrasto al terrorismo è quello della cancellazione dei messaggi a sfondo terroristico trasmessi attraverso il web. Preso atto dell’impossibilità di un controllo capillare continuo ed efficace da parte di esseri umani per quanto riguarda i messaggi terroristici, service providers, hosting providers, social networks e motori di ricerca stanno investendo risorse e ricerca in apparati tecnologici che possano scandagliare la rete alla ricerca di contenuti terroristici, violenti o pericolosi,[11] con l’obiettivo di rimuoverli, in ottemperanza delle proprie policies interne da un lato e di atti normativi dall’altro.[12]

Data la pressante attualità della tecnica ora esposta, e a parere di chi scrive la metodologia che più di altre dispiega i suoi effetti nella vita quotidiana dei consociati, si è scelto di dedicare alla stessa una apposita sezione del presente contributo.

Rimozione dal web dei contenuti a carattere terroristico

Il terrorismo ed i media hanno un rapporto di lunga data: in quanto forma di violenza politica, il terrorismo è propaganda dell’atto[13], basandosi sulla comunicazione di atti di violenza ad un vasto pubblico per moltiplicarne gli effetti. Tuttavia, mentre un tempo i terroristi dipendevano in gran parte dai mezzi di comunicazione tradizionali per pubblicizzare le loro azioni e raggiungere i loro obiettivi di divulgazione, i social media consentono loro di mantenere il controllo diretto dell’immagine che proiettano, producendo e diffondendo i propri contenuti su scala potenzialmente globale, in quella che è stata definita “mass self-communication”.[14]

La materia della rimozione dei contenuti terroristici sul web è poco regolamentata dalle fonti adottate dagli organismi internazionali; guardando al quadro giuridico delle Nazioni Unite si vede che tra le risoluzioni del Consiglio di Sicurezza adottate ex capitolo VII della Carta ONU, giuridicamente vincolanti nei confronti degli Stati membri,  alcune trattano dei rischi posti dallo sfruttamento di Internet da parte delle organizzazioni terroristiche, il cosiddetto e-terrorism, evidenziando l’utilità, in tale ambito, di un partenariato pubblico-privato.[15] Ciò nonostante, queste fonti non citano mai il potenziale utilizzo di strumenti automatizzati (come ad es. gli algoritmi di intelligenza artificiale) e nemmeno costruiscono un quadro giuridico di cui gli Stati possano servirsi per provvedere alla rimozione dei contenuti terroristici online. Piuttosto, le risoluzioni riportano solamente, senza però istituzionalizzarli, alcuni accordi informali, attuati su base volontaria, fra le più importanti aziende tecnologiche, come ad esempio Facebook (ora Meta), o Google per quanto riguarda YouTube; le stesse, grazie a tali sistemi di cooperazione, si vincolano a fare il possibile per evitare, anche mediante l’ausilio di sistemi automatizzati, disciplinati nelle loro policies, che sui loro spazi virtuali siano presenti contenuti pericolosi.

A livello di soft law, va evidenziato come e quanto l’intervento del settore privato sia assolutamente predominante, nonché precedente rispetto agli sforzi di regolazione istituzionale; i soggetti coinvolti appartengono a tre categorie: innanzitutto i c.d. ISP, Internet service providers, organizzazioni o infrastrutture che offrono agli utenti, previa stipulazione di un contratto di fornitura, servizi inerenti a Internet; secondariamente, gli hosting providers, piattaforme online (ad es. Youtube) che permettono di “ospitare” contenuti di vario genere; in ultimo le ICT (Information and Communication Technology) companies, società che mettono a disposizione del fruitore sia la possibilità di pubblicare contenuti sia di comunicare con altri utenti online. [16]

Tali operatori tendono a dare delle precise definizioni, ad esempio chiarendo in cosa consista il messaggio terroristico o radicalizzante[17], preannunciando le conseguenze dell’eventuale caricamento o condivisione in rete di contenuti di tal genere: prendendo ad esempio YouTube, ove l’algoritmo impiegato individui contenuti violanti le policies, gli stessi verranno eliminati e al soggetto che li ha caricati verrà inviata un’e-mail.[18] Ove la violazione si ripetesse, l’account YouTube verrà disabilitato.

Ma come può, il titolare dell’account, tutelarsi in queste situazioni? I mezzi di reclamo a disposizione dell’utente ove reputasse che un proprio contenuto sia stato ingiustamente o per errore eliminato consistono, per esempio, nella compilazione di moduli che permettano di esporre quanto accaduto, sottoponendo il caso alla valutazione della ITC Company, oppure la possibilità di “ricorrere” a organismi interni, come  il Facebook Oversight Board[19]: quest’ultimo è un organo collegiale, il cui compito è quello di assicurare un controllo ulteriore e indipendente nell’ambito delle rimozioni di contenuti o sospensioni di account effettuate da Facebook per asserite violazioni delle proprie regole di community. La mission del Board, come si legge sul sito ufficiale, è quella “di proteggere la libertà di espressione prendendo decisioni autonome e di principio in merito ai contenuti su Facebook e Instagram, ed emettendo raccomandazioni riguardanti la normativa sui contenuti pertinente per l’azienda Facebook.”[20]

Per quanto riguarda invece l’aspetto definitorio, o della fattispecie che andrà rimossa, le già menzionate  policies sono citano espressamente gli algoritmi e i casi in cui il mezzo automatico può operare, non richiamando, però, fonti istituzionali[21]; prendendo il caso della già menzionata piattaforma Facebook, la stessa fa uso dell’intelligenza artificiale per calcolare la probabilità che un post contenga un messaggio che supporti il terrorismo: ove la probabilità fosse di livello elevato, si procederà ad una rimozione automatizzata, senza intervento dell’operatore umano.[22]

Queste cosiddette “norme” vengono adottate da detti soggetti privati solitamente mediante i  terms of services, contenenti i c.d. community standards[23], ovverossia documenti predisposti dagli organi delle singole società, con il supporto di soggetti, generalmente non identificati, che si definiscono esperti del settore: guardando alla pagina YouTube dedicata alle norme della community, si legge che esse sono “sviluppate in collaborazione con numerosi esperti di norme indipendenti specializzati nel settore, oltre ai creator di YouTube”.

Questi atti, non riconducibili di certo alle fonti del diritto canoniche, prendono di fatto il posto del regolatore pubblico, colmando un vuoto normativo. [24]

Orbene, tanto premesso, la domanda che sorge spontanea è: questo processo è assimilabile a quello legislativo?

Vi sono, senza dubbio, alcuni punti in comune tra i due: Il primo sta nella generalità e astrattezza delle cosiddette “norme” imposte dall’operatore tecnologico, dal momento che per individuare i contenuti da eliminare e precisarne le circostanze si muove dal generale al particolare. Il secondo punto è che tali “norme” nei fatti, hanno forza coercitiva: quest’ultima, nel caso delle fonti tradizionali, deriva dal fatto che le stesse si poggiano su di una fonte gerarchicamente sovraordinata, che le rende formalmente valide e idonee a vincolare ciascuno; nello scenario suesposto, invece, trae origine dalla forza contrattuale di terms of service e community standards:  se l’utente non sottoscrive, oppure infrange, le regole poste dal gestore della piattaforma, non potrà godere dei servizi messi a disposizione. Il terzo punto di contatto lo si rinviene negli effetti di tali disposizioni sulla sfera giuridica del singolo: mentre le fonti tradizionali dispiegano i loro effetti giuridici sui soggetti che ricadono nel loro ambito di applicazione, le “norme” dei privati ora viste prevedono la possibile eliminazione di un messaggio, e con essa la limitazione della libera espressione individuale. [25]

Si comprende come le normative or ora analizzate, diversamente da quelle classiche, non discendono da un processo deliberativo definibile come “democratico”.

Le fonti “tradizionali”, infatti, presentano un marcato carattere rappresentativo (si pensi alla legge, frutto per eccellenza del lavoro dell’assemblea), che può essere più o meno evidente, permanendo comunque un collegamento tra quanto approvato e la maggioranza politica: è proprio tale connessione, infatti, che garantisce loro un posto nel circuito democratico.  Questo collegamento, come visto, non esiste nelle policies suesposte, ove il procedimento di produzione ed i suoi attori principali rimangono nell’ombra, mettendo così in discussione i principi di trasparenza e di pubblicità che idealmente dovrebbero permeare il Rule of Law, e con esso l’adozione delle norme vincolanti. [26] [27]

[1] Cfr. Patriot Act, emanato in risposta agli attacchi dell’11 settembre 2001. Patriot Act, P.L. 107-56, Oct. 26, 2001; v. COLE, Oversight of the USA Patriot Act: Hearing Before the S. Comm. on the Judiciary, 109th Cong., Apr. 5, May 10, 2005, in Georgetown University Law Center, 2005 E K.L. Scheppele, Exceptions that Prove the Rule. Embedding Emergency Government in Everyday Constitutional Life, In J.K. Tulis-S. Macedo (eds.), The Limits of Constitutional Democracy, Princeton University Press, Princeton, 2010, 124 ss.

[2] Posizione comune 2001/931/PESC del Consiglio, del 27 dicembre 2001, relativa all’applicazione di misure specifiche per la lotta al terrorismo.

[3] Cfr F. Roberti, Terrorismo internazionale. Contrasto giudiziario e prassi operative; in Gli Speciali di Questione Giustizia: Terrorismo internazionale. Politiche della sicurezza. Diritti fondamentali; settembre 2016.

[4] A. Verdaschi, Intelligenza artificiale e misure antiterrorismo alla prova del diritto costituzionale; in Consulta Online, 17 febbraio 2020.

[5] dati afferenti alle comunicazioni che sebbene non ne rivelano il contenuto, permettono di conoscere significative informazioni relative ad essa (si pensi alla durata di una chiamata telefonica, il luogo da cui viene inviata un’e-mail, l’orario in cui si accede ad un determinato sito, ecc.). cfr  E. GUILD-S. CARRERA, The Political and Judicial Life of Metadata: Digital Rights Ireland and the Trail of the Data.

[6] A. Verdaschi, Intelligenza artificiale e misure antiterrorismo alla prova del diritto costituzionale; in Consulta Online, 17 febbraio 2020.

[7] https://moonshotteam.com/redirect-method/.

[8] A. Verdaschi, Intelligenza artificiale e misure antiterrorismo alla prova del diritto costituzionale; in Consulta Online, 17 febbraio 2020.

[9] https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=celex:32018R1861

[10] K. Huszti-Orbán, Use of Biometric Data to Identify Terrorists: Best Practice or Risky Business?; Human Rights Center, University of Minnesota; 2020.

[11] S. Stuart Macdonald-S. Giro Correia-A.-L. Watkins, Regulating Terrorist Content on Social Media: Automation and the Rule of Law, in 15 International Journal of Law in Context, 2019, 183 ss.

[12] A. Verdaschi, Intelligenza artificiale e misure antiterrorismo alla prova del diritto costituzionale; in Consulta Online, 17 febbraio 2020.

[13] Cfr M. Borelli, Social media corporations as actors of counter-terrorism; in New Media and Society, 2021;

[14] B. Nacos, Mass-Mediated Terrorism: Mainstream and Digital Media in Terrorism and Counterterrorism. Third edition; Rowman & Littlefield eds, 2016.

[15]Consiglio di Sicurezza delle Nazioni Unite, risoluzione n. 21129 del 17 dicembre 2013; id., risoluzione n. 2354 del 24 maggio 2017; id., risoluzioni nn. 2395 e 2396 del 21 dicembre 2017.

[16] Chiara Graziani; Intelligenza artificiale e fonti del diritto: verso un nuovo concetto di soft law? La rimozione dei contenuti terroristici online come case-study; DPCE Online, [S.l.], v. 50, n. Sp, mar. 2022.

[17] Per esempio, leggendo le norme della community YouTube, spicca il divieto di: “Contenuti prodotti da organizzazioni criminali violente o terroristiche; […] che elogiano o commemorano figure di spicco degli ambienti terroristici e criminali allo scopo di incoraggiare altri a commettere atti di violenza”.

[18]Sulla pagina https://transparencyreport.google.com/youtube-policy/featured-policies/violent-extremism si può trovare il report, aggiornato, sul numero di video rimossi dalla piattaforma, oltre che esempi di video che vengono segnalati per presunte violazioni delle Norme della community.

[19] https://www.agendadigitale.eu/cultura-digitale/facebook-oversight-board-che-succede-ora-ecco-perche-puo-essere-unarma-a-doppio-taglio/

[20] https://www.oversightboard.com/

[21] https://transparencyreport.google.com/youtube-policy/featured-policies/violent-extremism

[22] V. Facebook, Hard Questions: Questions: What Are We Doing to Stay Ahead of Terrorists?, 2018, about.fb.com/news/2018/11/staying-ahead-of-terrorists/.

[23] M. Borelli. Social media corporations as actors of counter-terrorism; in  New Media and Society, 2021.

[24] ibidem

[25] Cfr Chiara Graziani; Intelligenza artificiale e fonti del diritto: verso un nuovo concetto di soft law? La rimozione dei contenuti terroristici online come case-study; DPCE Online, [S.l.], v. 50, n. Sp, mar. 2022.

[26] ibidem

[27] S. Stuart Macdonald-S. Giro Correia-A.-L. Watkins, Regulating Terrorist Content on Social Media: Automation and the Rule of Law, in 15 International Journal of Law in Context, 2019, 183 ss.

Lascia un commento