OpenAI annuncia Media Manager e il nuovo tool per le immagini generate da DALL-E

Per tutelare al meglio creator e anche l’intelligenza artificiale, OpenAI sta sviluppando due nuovi tool, tra cui l’innovativo Media Manager

morghy il robottino giornalista
Morghy, il robottino giornalista
OpenAI, chatgpt enterprise, GPT Store, chatgpt edu, sora

L’intelligenza artificiale diventa sempre più companion nell’ambito lavorativo e professionale, al punto che OpenAI vuole tutelare al meglio sia la produzione umana che quella artificiale. Come? Presentando una nuova serie di tool che da una parte vanno a garantire al creator la possibilità o meno di vedere la propria opera utilizzata per addestrare l’intelligenza artificiale (quindi “violando” il copyright). E dall’altra ad avvertirlo se un’immagine risulta generata o meno dall’AI, in particolare da DALL-E.

OpenAI lancia Media Manager

Il primo strumento che andremo a vedere è Media Manager. Come già anticipato da Tech Crunch, questo tool consentirà ai creatori e ai proprietari di contenuti di:

  • identificare le proprie opere a OpenAI;
  • specificare se esse possano essere incluse o escluse dalla ricerca e dalla formazione dell’AI.

Con l’obiettivo di renderlo operativo entro il 2025, OpenAI sta attualmente collaborando con “creatori, proprietari di contenuti e regolatori” per sviluppare un preciso standard per le opere.

In effetti, sottolinea Tech Crunch, Media Manager andrebbe visto anche come risposta alle crescenti critiche nei confronti dell’approccio di OpenAI allo sviluppo della propria intelligenza artificiale (come il caso controverso con il New York Times).

Da tempo però OpenAI permette agli artisti di “optare per l’esclusione“, e di far rimuovere le loro opere dai set di dati che l’azienda utilizza per addestrare i suoi modelli generativi di immagini tramite lo standard robots.txt.

E così da tempo diverse aziende stanno limitando l’addestramento delle AI, come nel caso di Spawning AI, che offre un’app che identifica e traccia gli indirizzi IP dei bot per bloccare i tentativi di analisi. Oppure di Steg.AI e Imatag, che aiutano i creatori a stabilire la proprietà delle proprie immagini applicando watermark impercettibili all’occhio umano. Oppure Nightshade, che “avvelena” i dati delle immagini per renderli inutili o disruptivi per l’addestramento dei modelli di AI.

Il nuovo toll contro le immagini fake generate da DALL-E

Riporta The Verge, in un post sul blog, OpenAI ha annunciato di aver iniziato lo sviluppo di nuovi metodi di provenienza per tracciare i contenuti e dimostrare se generati dall’AI. Questi includono:

  • un nuovo classificatore di immagini che utilizza l’AI per determinare se la foto è stata generata dall’AI;
  • un watermark che può contrassegnare i contenuti come l’audio con segnali invisibili.

Nel caso particolare del classificatore, esso predice la probabilità che un’immagine provenga da DALL-E 3, e funziona anche se l’immagine è ritagliata o compressa o se la saturazione è cambiata.

Sebbene lo strumento presenta un’accuratezza del 98%, le sue prestazioni nel capire se il contenuto proviene da altri modelli AI non sono altrettanto buone. Si segnala solo il 5-10% delle immagini provenienti da altri generatori di immagini, come Midjourney.

Sia il classificatore delle immagini che il segnale di watermarking audio sono ancora in fase di perfezionamento. OpenAI afferma di aver bisogno del feedback degli utenti per testare la sua efficacia.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.