I ricercatori dell’Università di Chicago hanno sviluppato uno strumento che offre agli artisti la capacità di “avvelenare” la loro arte digitale per impedire agli sviluppatori di addestrare i sistemi di intelligenza artificiale sul loro lavoro.
Chiamato “Nightshade”, lo strumento modifica le immagini in modo tale che la loro inclusione contamini i set di dati utilizzati per addestrare l’IA con informazioni errate.
Nightshade complica la vita alle intelligenze artificiali
Dal nome della famiglia di piante nota per le sue bacche velenose (in italiano Belladonna), Nightshade si propone come uno strumento che modifica i pixel di un’immagine digitale per indurre un sistema di intelligenza artificiale a interpretarla erroneamente.
Il gruppo di ricerca dietro Nightshade è guidato da Ben Zhao, professore all’Università di Chicago. Sembra che il nuovo strumento sia in realtà un’espansione del software di protezione degli artisti esistente chiamato Glaze.
Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI
Nel loro lavoro precedente, hanno progettato un metodo attraverso il quale un artista poteva offuscare, o “smaltare”, lo stile della propria opera d’arte. Nightshade verrà infine implementato in Glaze, che è attualmente disponibile gratuitamente per l’uso sul web o per il download. Ma non si limiterà a offuscare lo stile.
Come funziona la “Belladonna” per le AI
Il sistema è descritto sul report pubblicato su Technology Review del MIT. Nightshade potrebbe ad esempio convincere l’intelligenza artificiale che l’immagine di un gatto è un cane e viceversa.
In tal modo, la capacità dell’intelligenza artificiale di generare risultati accurati e sensati verrebbe teoricamente danneggiata. A titolo d’esempio, se uno chiedesse all’AI un’immagine, essa le potrebbe dare come risposta tutt’altro, anche un oggetto o un animale completamente deformato.
Vitaly Shmatikov, professore alla Cornell University, ha visionato il progetto di Nightshade. E ha affermato che contro questi strumenti non esistono al momento delle difese sufficientemente robuste. Così facendo, modelli come ChatGPT di OpenAI potrebbero essere a rischio.