Il suo è un destino degno dell’antico paradosso zenoniano di Achille e la tartaruga. Come il più veloce degli Achei è condannato a non superare mai il più lento degli animali, così il diritto inseguirà sempre (e spesso in ritardo) le innovazioni tecnologiche come l’intelligenza artificiale. Questo però non significa che non stia segnando punti importanti per la tutela dell’immagine e del diritto d’autore.
A oggi in Europa i modelli di intelligenza artificiale possono, a certe condizioni, utilizzare testi, musica e immagini coperti da copyright, sempre che i titolari di diritti non abbiano esercitato un opt-out contro la loro estrazione e riproduzione. È legittimo utilizzare questa mole di contenuti per estrarre informazioni e addestrare il modello. L’illecito però potrebbe configurarsi anche nella fase dell’output, a meno che il risultato finale rispetto all’originale sia coperto da eccezioni al copyright, ad esempio in chiave di citazione per critica, discussione o anche illustrazione oppure nel caso l’originale non sia riconoscibile nell’output.
Un punto fermo che è stato chiarito dal recente AI Act, il nuovo regolamento europeo che ha l’ambizione di equilibrare innovazione tecnologica e diritti individuali e collettivi. E per far ciò il testo tende a distinguere ciascuna fase del processo generativo che porta al prodotto finale. Si comincia dalla creazione dei database sui quali l’algoritmo va ad agire: qui occorre porre l’attenzione a non pregiudicare l’opera d’ingegno protetta da copyright e a non sfruttarla in concorrenza per fini commerciali, oltre ovviamente a rispettare l’eventuale divieto di estrazione posto dal titolare di diritti. A essere sanzionata sarebbe l’azienda costruttrice del modello di intelligenza artificiale. Diverso invece il discorso lato cliente che utilizza professionalmente il sistema di IA a valle, il quale innanzitutto deve inserire nel prompt diciture non lesive dei diritti di persone o imprese e, nel caso generi deepfake, deve segnalarli come tali al pubblico.
Ed è proprio sull’output finale che si daranno battaglia la maggior parte dei contendenti.
«Al momento i fornitori di sistemi di IA si limitano a scrivere termini e condizioni d’uso che, a mio parere, rassicurano eccessivamente gli utenti della piattaforma sulla titolarità di diritti sull’output e, al contempo, scaricano sui medesimi la responsabilità di violazioni di copyright – afferma l’avvocato Stephanie Rotelli, avvocato specialista della proprietà intellettuale e industriale dello studio Cosmo Legal Group –. Ci si può rivalere su di loro se, di fronte a una segnalazione, non si attivano per rimuovere dal sistema di IA il contenuto illecito, un po’ come accade per le piattaforme di condivisione di contenuti. L’illecito però si realizza non tanto quando si generano immagini, musiche e/o testi, bensì quando gli stessi vengono comunicati al pubblico. Riguardo alla difesa contro i deepfake, oltre all’AI Act ci sono già leggi alle quali appellarsi, come il GDPR ad esempio. In ogni caso, è obbligatorio specificare sempre e chiaramente che l’output è stato generato grazie al sistema di IA e, se manipola la realtà facendo apparire ciò che non è, che si tratta appunto di un deepfake».