Il confine tra AI e realtà è sempre più sottile e diventa fondamentale permettere a chiunque di capire se quello che si sta vedendo è stato creato dalla macchina o dall’uomo. Meta già dallo scorso anno ha implementato una funzione di etichettatura per tutte le immagini e i contenuti realizzati utilizzando i suoi strumenti ma, ora, vuole aiutare gli utenti a capire anche le immagini realizzate dagli strumenti di aziende che inseriscono a loro volta watermark.
L’etichetta di Meta per i contenuti AI
“Dato che i contenuti generati dall’intelligenza artificiale compaiono su Internet, abbiamo collaborato con altre aziende del nostro settore per sviluppare standard comuni per identificarli attraverso forum come Partnership on AI (PAI)“, ha detto Meta.
L’azienda nello specifico sta lavorando a strumenti in grado di identificare marcatori invisibili su larga scala, in particolare le informazioni “generate dall’intelligenza artificiale” negli standard tecnici C2PA e IPTC. In questo modo potrà etichettare le immagini di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock mentre implementano i loro piani per aggiungere metadati alle immagini create dai loro strumenti.
Questo riguarda più che altro i contenuti audio e video dato che sulle immagini il sistema di etichettatura e riconoscimento è già piuttosto diffuso.
“Mentre il settore lavora verso questa funzionalità, stiamo aggiungendo una funzionalità che le persone possono rivelare quando condividono video o audio generati dall’intelligenza artificiale in modo da potervi aggiungere un’etichetta. Richiederemo alle persone di utilizzare questo strumento di divulgazione ed etichettatura quando pubblicano contenuti organici con un video fotorealistico o un audio dal suono realistico creato o alterato digitalmente e potremmo applicare sanzioni se non lo fanno. Se stabiliamo che immagini, contenuti video o audio creati o alterati digitalmente creano un rischio particolarmente elevato di ingannare materialmente il pubblico su una questione importante, potremmo aggiungere un’etichetta più evidente, se appropriato, in modo che le persone abbiano più informazioni e contesto“, ha continuato l’azienda.
Infine l’azienda ha anche aggiunto che sta lavorando per evitare che i marcatori che identificano un contenuto vengano rimossi o modificati. Non da ultimo si sta impegnando a identificare tutti i contenuti generativi, anche quelli privi di etichetta, per poterli segnalare agli utenti.
“Questo lavoro è particolarmente importante in quanto è probabile che questo diventi uno spazio sempre più conflittuale negli anni a venire. Le persone e le organizzazioni che desiderano ingannare attivamente le persone con contenuti generati dall’intelligenza artificiale cercheranno modi per aggirare le misure di sicurezza messe in atto per rilevarli. Nel nostro settore e nella società più in generale, dovremo continuare a cercare modi per rimanere un passo avanti“, ha concluso Meta.