Generative AI: considerazioni di proprietà di intellettuale
1. Che cos’è la generative AI e quali sono alcuni temi connessi al suo utilizzo
Con “IA generativa” (in inglese, “generative AI”) si intende quel particolare tipo di intelligenza artificiale che, sfruttando algoritmi di apprendimento, può creare nuovi contenuti, tra cui audio, codici, immagini, testo, simulazioni e video.
In particolare, l’IA generativa è una forma avanzata di machine learining, ossia quel tipo di intelligenza artificiale che può “imparare” dai data patterns (cioè campioni di dati che veicolano un’informazione utile) senza intervento umano.
Sebbene il termine sia spesso associato a ChatGPT e ai deep fake, tale tecnologia è stata inizialmente utilizzata per automatizzare i processi ripetitivi utilizzati nella correzione delle immagini e dell’audio digitali e, ad oggi, il suo utilizzo presenta numerosi vantaggi anche per le aziende[1].
Si pensi all’ottimizzazione di processi aziendali ripetitivi con conseguente riduzione dei costi (un esempio classico è la revisione e correzione di documenti standardizzati) o, ancora, al miglioramento della customer experience, con la produzione di contenuti personalizzati per i clienti.
Tuttavia, se questa tecnologia è davvero destinata a reinventare il modo in cui molte organizzazioni lavorano, essa pone anche dei problemi di “fiducia” che potrebbero rappresentare un potenziale ostacolo al suo concreto utilizzo.
In particolare, i quesiti fondamentali in materia di fiducia e generative AI possono essere sintetizzati come segue[2]:
- accuratezza: i risultati ottenuti dall’IA generativa sono abbastanza affidabili? Per rispondere a questa domanda, chiaramente, occorre avere contezza del codice software e, in generale, dei sistemi e dei processi utilizzati (cosa non sempre possibile visto che, di norma, le aziende utilizzano sistemi di IA prodotti da terzi);
- sicurezza dei dati: di recente Stephen Almond (Executive Director e Regulatory Risk leads dell’Information Commissioner Office) ha riportato che ChatGPT stessa gli ha riferito che l’IA generativa, come qualsiasi altra tecnologia, può potenzialmente comportare rischi per la riservatezza dei dati se non viene utilizzata in modo responsabile[3]. Secondo Almond, guardando al funzionamento di questo tipo di tecnologia, non ci vuole molto a capire che, nelle sue applicazioni di business, un’azienda potrebbe facilmente danneggiare un rapporto duramente guadagnato con i clienti attraverso un uso scorretto dell’IA generativa e, pertanto, le organizzazioni dovrebbero adottare un approccio di privacy by design quando sviluppano o utilizzano l’IA generativa[4];
- responsabilità: l’utilizzo di IA generativa può comportare – soprattutto se utilizzata all’interno di un’azienda – rischi etici e legali.
Tra i rischi legali da tenere maggiormente in considerazione quando si sviluppa o si utilizza un sistema di generativa AI sicuramente spiccano quelli a danno dei diritti di proprietà intellettuale, soprattutto rispetto all’output prodotto dal sistema.
I temi, a tale proposito, sono diversi e complessi e, certamente, per snocciolarli tutti non basterebbero fiumi di inchiostro (o di bit). Pertanto, in questo contributo, si proverà a fare una panoramica – per quanto necessariamente incompleta – rispetto a due grandi problemi IP che sorgono quando si sviluppa e si utilizza un sistema di generative AI.
2. IP e sviluppo di una generative AI
Sono poche le organizzazioni che utilizzano sistemi di IA generativa sviluppati in house, ricorrendo – nella maggior parte dei casi – a sistemi progettati da terzi o, in ogni caso, utilizzando framework e codici di terze parti.
L’utilizzo di questi strumenti, com’è evidente, sottende numerosi problemi di copyright, anche laddove venga utilizzata una licenza open-source.
Da un lato, l’utilizzo di un sistema di un terzo non consente di “dominare” (ossia, di essere a conoscenza) delle informazioni, dei dati e dei codici utilizzati dal terzo per sviluppare il modello.
Dall’altro lato, anche laddove sviluppato in house, un sistema di IA generativa richiede non poca attenzione nella scelta di “cosa utilizzare” per implementare il sistema.
I rischi che potrebbero presentarsi sono numerosi (primo tra tutti, la violazione di diritti di proprietà intellettuale di terzi), ma non si può sottacere come anche una errata scelta del codice sorgente da cui “partire” potrebbe avere ripercussioni sfavorevoli per una azienda che intende sfruttare il modello sviluppato[5].
Pensiamo al caso in cui un modello di IA venga implementato utilizzando un codice sorgente disponibile in librerie open source (come quelle disponibili su GitHub).
Molte licenze disponibili in open source sono anche copyleft: l’opera può essere utilizzata, diffusa e, se del caso, modificata da soggetti diversi dall’autore originario, purchè i fruitori dell’opera, nel distribuire l’opera modificata, lo facciano sotto lo stesso regime giuridico (quindi, come opera liberamente accessibile)[6].
In questi casi, il codice open-source copyleft può “contaminare” il codice sviluppato che, a sua volta, potrà essere considerato un codice open-source ed è evidente che ciò comporta diversi rischi, sia di incertezza giuridica sia di business (perché il proprio prodotto potrebbe essere utilizzato/modificato liberamente e gratuitamente da terzi).
3. La proprietà intellettuale degli output dell’IA generativa
Un secondo tema – ad oggi molto dibattuto – attiene alla tutela della proprietà intellettuale rispetto all’output prodotto da modello di IA. Per esempio, chi detiene i diritti di proprietà intellettuale su un dipinto prodotto da un sistema di generative AI? Chi ha sviluppato il sistema o chi lo ha utilizzato per creare quel dipinto?
In alcuni casi qualcuno si è chiesto se i diritti non dovessero appartenere all’IA stessa. Di recente l’U.S. Copyright Office (USCO) ha prima concesso e poi revocato la registrazione del copyright di un fumetto prodotto utilizzando l’IA generativa, affermando che solo gli esseri umani possono essere considerati autori di un’opera[7].
Ora, al di là di problemi che ad oggi sembrano essere più futuristici che attuali, rimane da capire chi, tra chi tra lo sviluppatore e l’utilizzatore possa essere considerato il titolare dei diritti IP di un prodotto generato da una IA.
La risposta a questa domanda è non poco complessa, soprattutto se si considera che, ad oggi, manca una regolamentazione che indichi chiaramente chi (e sulla base di quali presupposti) può essere considerato l’autore di un output creato da un sistema di intelligenza artificiale.
Quando si parla di aziende, il problema si pone soprattutto laddove si utilizzino sistemi sviluppati da terzi. Lo stato di incertezza in cui molte organizzazioni si ritrovano oggi ad utilizzare questi sistemi porta inevitabilmente a concludere che – laddove possibile – la questione dovrebbe essere regolata a livello contrattuale: chi detiene i diritti sugli output? È possibile sublicenziare i diritti sull’output? Su chi ricade il rischio di violazione della proprietà intellettuale di terzi? Ecco, questi (e molti altri se ne potrebbero elencare) sono i quesiti che dovrebbero trovare risposta all’interno dei termini e condizioni di utilizzo del sistema negoziate tra l’azienda/utilizzatrice e l’azienda/sviluppatrice.
4. Considerazioni conclusive: verso una regolamentazione dell’IA
L’intelligenza artificiale generativa cambierà il modo in cui le persone e le aziende creano contenuti, semplificando processi e consentendo a molti di fare ciò che finora solo pochi avevano le competenze per fare.
Questo cambiamento non potrà compiutamente avvenire, però, fintanto che vi sarà incertezza, a livello giuridico, su così tanti aspetti connessi all’utilizzo di una generative AI.
Il Parlamento europeo stesso, già nel 2020, ha evidenziato che “In un momento in cui la definizione dell’IA è oggetto di discussioni […] la certezza del diritto tende a favorire gli investimenti indispensabili nel settore all’interno dell’Unione”[8].
Tenendo a mente le parole del Parlamento, la sfida nel breve futuro è quindi quella di promuovere una forma di flessibilità legislativa che tenga conto della realtà multiforme dell’IA.
Questa sfida è oggi affrontata – in UE – dalla proposta di Regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (cosiddetto Artificial Intelligence Act) che, pur citando una serie di diritti fondamentali da tutelare quando si utilizza l’IA, non affronta esaustivamente il tema dei diritti di proprietà intellettuale.
E se non è il legislatore a tutelare i diritti che potrebbero essere “minacciati”, per dir così, dall’IA, verrebbe da pensare che questo compito dovrebbe spettare alle aziende che sviluppano sistemi di intelligenza artificiale, sospetto che trova conferma – volgendo uno sguardo al di fuori dell’Unione Europea – nelle parole del presidente Joe Biden, secondo cui la responsabilità di assicurare la sicurezza dei propri prodotti ricadrebbe sulle aziende tecnologiche stesse[9].
Non si può sottacere, tuttavia, come il compito di individuare standard di protezione, requisiti, regole e misure volte ad arginare eventuali rischi generati dallo sviluppo e dall’uso dell’IA non può che spettare alle autorità di regolazione, come tra l’altro evidenziato da Humanity in Fiction – un collettivo di autori, editori, accademici, pubblicisti contro l’utilizzo non etico dell’IA negli spazi creativi – che, criticando le parole del presidente Biden, ha chiarito che non può essere responsabilità delle aziende garantire un uso corretto dell’AI[10].
[1] Generative AI: che cos’è e quali sono le applicazioni di business dei sistemi come ChatGPT, di Patrizia Licata, in Digital4Marketing, 19 giugno 2023.
[2] How To Apply Generative AI For Software Development, di Teresa Tung, in Forbes, 27 luglio 2023.
[3] Generative AI: eight questions that developers and users need to ask, di Stephen Almond, sito ufficiale ICO, 3 aprile 2023.
[4] Sul punto, si segnala che l’ICO ha fornito indicazioni in merito agli elementi che dovrebbero essere presi in considerazione in relazione alla generative AI, da leggere congiuntamente alle Guidance on AI and Data Protection, che forniscono una roadmap per la conformità alla protezione dei dati per gli sviluppatori e gli utenti dell’IA generativa. Le linee guida, aggiornate al 15 marzo 2023, sono disponibili al seguente URL: Guidance on AI and data protection | ICO.
[5] IP Issues With AI Code Generators, di By Srikanth Jandhyala, Jinwoo Kim e Arpita Bhattacharyya, Bloomerg Law, 11 gennaio 2023.
[6] Per un approfondimento sul punto, Le regole del software libero, di Marco Ciurcina, disponibile al seguente URL: regole_software_libero.pdf (industriasoftwarelibero.it).
[7] U.S. Copyright Office Backtracks on Registration of Partially AI-Generated Work, di Franklin Graves, in IPWatchdog, 1 novembre 2022.
[8] Relazione sui diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale del 2 ottobre 2020, disponibile al seguente URL: RELAZIONE sui diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale | A9-0176/2020 | Parlamento Europeo (europa.eu).
[9] The White House, Remarks by President Biden in Meeting with the President’s Council of Advisors on Science and Technology, 4 aprile 2023.
[10] Notizia riportata in L’IA minaccia la proprietà intellettuale? Responsabilità di tutti, di M. Dal Co, in Agenda Digitale, 21 agosto 2023.
Laureata in Giurisprudenza nel 2017 presso l’Università LUISS “Guido Carli”, dal 2021 è abilitata all’esercizio della professione forense.
Dopo aver conseguito il master in “Diritto e Impresa” erogato dalla 24ORE Business School di Milano, si occupa di contrattualista IT e di diritto dei dati.