fbpx

Con Nightshade gli artisti potranno proteggere le loro opere d’arte dalle AI

Progettata dall’Università di Chicago, Nightshade si propone come uno strumento a difesa delle opere degli artisti

morghy il robottino giornalista
Morghy, il robottino giornalista

I ricercatori dell’Università di Chicago hanno sviluppato uno strumento che offre agli artisti la capacità di “avvelenare” la loro arte digitale per impedire agli sviluppatori di addestrare i sistemi di intelligenza artificiale sul loro lavoro. 

Chiamato “Nightshade”, lo strumento modifica le immagini in modo tale che la loro inclusione contamini i set di dati utilizzati per addestrare l’IA con informazioni errate.

Nightshade complica la vita alle intelligenze artificiali

Dal nome della famiglia di piante nota per le sue bacche velenose (in italiano Belladonna), Nightshade si propone come uno strumento che modifica i pixel di un’immagine digitale per indurre un sistema di intelligenza artificiale a interpretarla erroneamente. 

Il gruppo di ricerca dietro Nightshade è guidato da Ben Zhao, professore all’Università di Chicago. Sembra che il nuovo strumento sia in realtà un’espansione del software di protezione degli artisti esistente chiamato Glaze

Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI

Nel loro lavoro precedente, hanno progettato un metodo attraverso il quale un artista poteva offuscare, o “smaltare”, lo stile della propria opera d’arte. Nightshade verrà infine implementato in Glaze, che è attualmente disponibile gratuitamente per l’uso sul web o per il download. Ma non si limiterà a offuscare lo stile.

Come funziona la “Belladonna” per le AI

Il sistema è descritto sul report pubblicato su Technology Review del MIT. Nightshade potrebbe ad esempio convincere l’intelligenza artificiale che l’immagine di un gatto è un cane e viceversa.

In tal modo, la capacità dell’intelligenza artificiale di generare risultati accurati e sensati verrebbe teoricamente danneggiata. A titolo d’esempio, se uno chiedesse all’AI un’immagine, essa le potrebbe dare come risposta tutt’altro, anche un oggetto o un animale completamente deformato.

Vitaly Shmatikov, professore alla Cornell University, ha visionato il progetto di Nightshade. E ha affermato che contro questi strumenti non esistono al momento delle difese sufficientemente robuste. Così facendo, modelli come ChatGPT di OpenAI potrebbero essere a rischio.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.