Google aggiunge le filigrane digitali sulle foto AI di Magic Editor

Arriva su Google Foto il sistema di watermarking SynthID, per segnalare le foto modificate da Magic Editor. Una nuova mossa contro i deepfake

morghy il robottino giornalista
Morghy, il robottino giornalista

Google ha recentemente lanciato un’importante novità per aumentare la trasparenza digitale nel mondo della fotografia. Con l’introduzione di SynthID, una tecnologia di filigrane digitali (watermarking), le immagini modificate su Google Foto tramite con la funzione AI Magic Editor saranno ora contrassegnate, aiutando gli utenti a riconoscere facilmente i contenuti manipolati.

SynthID, come funziona il watermarking su Magic Editor

Per chi non se lo ricordi, mesi fa Google DeepMind (la sezione AI di Big G) aveva lanciato un sistema di watermarking, ovvero SynthID. Progettato per etichettare le immagini, i video, i testi e l’audio che sono stati creati o modificati tramite intelligenza artificiale, SynthID aggiunge un tag nei metadati di un contenuto, che agisce come una sorta di “firma invisibile”. Questo tag permette di rilevare se un’immagine è stata generata o modificata tramite un modello AI, come quello di Google, che include il text-to-image system chiamato Imagen.

Come riferisce l’azienda di Mountain View in una nota di supporto, “a partire da questa settimana, Google Foto inizierà a utilizzare SynthID […] per contrassegnare le immagini modificate con l’intelligenza artificiale generativa utilizzando  Reimagine in Magic Editor [che permette agli utenti di modificare facilmente le proprie immagini, ndr]”.

Grazie a questa nuova implementazione, qualsiasi foto che venga manipolata tramite Magic Editor sarà identificabile attraverso SynthID, che applica un watermark invisibile. Questo approccio aiuta a rispondere alla crescente preoccupazione per le modifiche digitali non riconosciute, dando agli utenti un modo semplice per capire se un contenuto è stato alterato utilizzando strumenti AI.

Nonostante le potenzialità di SynthID, ci sono alcune sfide e limitazioni che vanno tenute in considerazione. Google ha infatti dichiarato che “in alcuni casi, le modifiche apportate utilizzando Reimagine potrebbero essere troppo piccole per essere etichettate e rilevate da SynthID“. Ciò significa che, sebbene il sistema possa essere molto utile, non è infallibile e potrebbe lasciare passare modifiche più sottili.

Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI

La necessità di maggiore trasparenza nella creazione dei contenuti digitali

L’adozione di SynthID da parte di Google si inserisce in un quadro più ampio di crescente attenzione alla trasparenza nei contenuti digitali. Con l’avanzamento delle tecnologie di generazione automatica di immagini e video, è diventato sempre più difficile per gli utenti distinguere tra ciò che è stato creato dall’intelligenza artificiale e ciò che è stato realizzato da una persona. La manipolazione di immagini e video (appunto i deepfake), sebbene possa avere usi creativi e positivi, può anche essere sfruttata per diffondere informazioni false o ingannevoli.

In risposta a questa necessità di trasparenza, altre grandi aziende stanno sviluppando soluzioni simili. Adobe, ad esempio, ha lanciato il proprio sistema chiamato Content Credentials, che permette di tracciare l’autenticità dei contenuti creati o modificati tramite i programmi della suite Creative Cloud.

Così come Google, anche Adobe riconosce che, in un’epoca in cui i contenuti digitali sono facilmente manipolabili, è essenziale poter verificare la fonte di un’immagine o di un video per garantire la fiducia nel loro utilizzo. Questi sistemi, quindi, non sono solo un passo avanti verso la protezione della veridicità dei contenuti, ma anche verso una maggiore fiducia nelle piattaforme che li ospitano.

Sebbene la tecnologia di watermarking possa aiutare a rilevare manipolazioni, “alcuni esperti in questo campo concordano sul fatto che questa tecnologia da sola non sarà abbastanza efficace per autenticare in modo affidabile i contenuti generati dall’intelligenza artificiale su larga scala“, precisa The Verge.

La manipolazione delle immagini e dei video attraverso l’intelligenza artificiale è infatti una sfida che richiede un approccio integrato, che veda l’utilizzo di diverse tecnologie in sinergia. È possibile che, in futuro, Google e altre aziende possano integrare SynthID con altre soluzioni di sicurezza per creare un sistema più robusto di autenticazione dei contenuti.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.