lunedì, Giugno 24, 2024
Uncategorized

Intelligenza artificiale, la Commissione europea presenta la proposta di regolamento

La Commissione europea ha presentato oggi la bozza di regolamento che dovrebbe disciplinare l’uso dell’intelligenza artificiale. La nuova normativa, che fa seguito alle risoluzioni avanzate nell’ottobre del 2020[1] e si inserisce nella strategia digitale europea[2], mira all’ambizioso obiettivo di rendere l’Unione un polo di attrazione per lo sviluppo di un’intelligenza artificiale affidabile.

Come testimoniato dalla stessa presidente della Commissione, Ursula von der Leyen, sebbene l’intelligenza artificiale rappresenti certamente un’opportunità – anche in relazione al piano Next Generation EU, che contribuirà a rafforzare l’eccellenza nell’IA dell’Unione europea con un investimento di circa 150 miliardi – i cittadini necessitano di tecnologie di cui potersi fidare e, proprio per questo motivo, le nuove regole stabiliscono standard di sicurezza elevati e proporzionali al livello di rischio.

Ha visto così la luce il primo quadro giuridico sull’intelligenza artificiale mai realizzato in Europa. Un piano che, in coordinazione con gli Stati membri, è volto a garantire la sicurezza e i diritti fondamentali di cittadini e imprese e a rafforzare, nel contempo, l’adozione dell’IA e gli investimenti nel settore in tutta l’Unione.

Per quanto riguarda la struttura della proposta di regolamento, l’impostazione generale è basata sulla valutazione del rischio[3]. Alcuni sistemi di IA importano un rischio ritenuto inaccettabile e, pertanto, saranno vietati. Rientrano in questa categoria i sistemi di social scoring, i “punteggi” attribuiti da governi come quello cinese per valutare l’affidabilità dei cittadini ma anche tutti quei sistemi che manipolano opinioni decisioni, sfruttano e prendono di mira le vulnerabilità delle persone nonché quelli che mirano alla sorveglianza di massa[4] (“Non c’è spazio per la sorveglianza di massa nella nostra società” ha dichiarato la Vice presidente Margrethe Vestager[5]).

Altri sistemi vengono invece ritenuti ad “alto rischio”: questi ultimi sono sottoposti a norme prescrittive che riprendono l’approccio dell’accountability che caratterizza il Regolamento n. 679/2016 (GDPR): risk assessment; alta qualità dei datasets; tracciabilità dei risultati; documentazione dettagliata; supervisione umana; alto livello di robustezza, sicurezza e accuratezza.

Le regole contenute all’interno della normativa porrebbero, pertanto, dei limiti all’uso dell’intelligenza artificiale in una serie di attività, che spaziano dai procedimenti di assunzione, alla concessione di prestiti bancari, alle selezioni per l’iscrizione a scuola e al punteggio degli esami. Limiterebbero, inoltre, l’uso dell’intelligenza artificiale da parte delle forze dell’ordine e dei sistemi giudiziari – aree considerate “ad alto rischio” perché potrebbero minacciare la sicurezza delle persone o i diritti fondamentali.

Alcuni usi, invece, sarebbero vietati del tutto e tra questi spicca certamente il riconoscimento facciale negli spazi pubblici. Tuttavia, rispetto al divieto generale, sarebbero previste delle esenzioni sulla base di situazioni specifiche (quali, ad esempio, la difesa della sicurezza nazionale).

Infine, è importante sottolineare che il regolamento proporrebbe l’istituzione di una governance tanto a livello nazionale quanto a livello europeo. Seguendo l’approccio già adottato dal GDPR, sono previste delle sanzioni amministrative in caso di violazione o mancata osservanza delle norme contenute nel regolamento: in particolare, tali sanzioni possono arrivare fino a 30 milioni di euro o fino al 6% del fatturato globale annuo.

La bozza di regolamento rappresenta, dunque, un tentativo di disciplinare una tecnologia emergente prima che diventi “mainstream”. E’ plausibile ritenere che le regole avranno implicazioni di vasta portata per le principali aziende tecnologiche tra cui Amazon, Google, Facebook e Microsoft che hanno riversato ingenti risorse nello sviluppo dell’intelligenza artificiale, ma anche decine di altre aziende che utilizzano software per sviluppare medicinali, sottoscrivere polizze assicurative ed effettuare valutazioni di rischio del credito.

L’entrata in vigore della bozza di regolamento, consultabile qui, è prevista per la seconda metà del 2022 in un periodo di transizione volto a sviluppare gli standard previsti e rendere operative le strutture di governance[6].

La proposta di regolamento ufficiale è disponibile qui.

Lascia un commento