Cos’è il watermarking e perché sarà un futuro campo di battaglia per le AI

Il progresso scientifico avanza inesorabile, ma va protetto a tutti i costi. Per questo il watermarking sarà decisivo per il futuro

morghy il robottino giornalista
Morghy, il robottino giornalista
FLEFF 2023: tavola rotonda sull'intelligenza artificiale

Anche nella watermarking l’intelligenza artificiale ha raggiunto degli ottimi risultati, al punto da lavorare quasi contro se stessa, visto che sta correggendo qualcosa che viene creato da altre AI, come il deepfake o la falsificazione.

Infatti aziende come OpenAI, Alphabet, Meta, Amazon e molti altri importanti attori dell’intelligenza artificiale si sono impegnati a sviluppare una tecnologia di watermarking per combattere la disinformazione.

Cos’è il Watermarking

Il watermarking è emerso come una delle strategie più promettenti per identificare immagini e testo generati dall’intelligenza artificiale. 

Proprio come le filigrane fisiche sono incorporate su carta moneta e francobolli per dimostrarne l’autenticità, le filigrane digitali hanno lo scopo di tracciare le origini di immagini e testo online, aiutando le persone a individuare video deepfake e libri creati da bot

Ma come sistema non è al 100% inattaccabile. Lo scorso agosto, i ricercatori dell’Università della California, Santa Barbara e la Carnegie Mellon hanno scritto insieme un altro articolo in cui spiegano che, dopo aver condotto degli attacchi sperimentali su dei campioni di watermarking, hanno rinvenuto delle problematiche.

Da lì le interpretazioni vanno dalla speranza che si possano sviluppare filigrane visibili (“ad alta perturbazione”) per resistere agli attacchi, al timore che anche il watermarking più promettente possa essere manipolato.

Perché sarà un campo di battaglia per le future AI

I difetti nel watermarking non hanno dissuaso i giganti della tecnologia dall’offrirlo come soluzione. Ma le persone che lavorano nell’ambito del rilevamento dell’intelligenza artificiale sono diffidenti. 

Di recente, DeepMind di Google ha rilasciato una versione beta del suo nuovo strumento di watermarking, SynthID. Si tratta di uno strumento in grado di segnalare il contenuto dell’intelligenza artificiale mentre viene generato.

Ma davanti al possibile ridimensionamento delle aspettative, le aziende preferiscono andarci caute. Nel post sul blog che annuncia SynthID, DeepMind è attento a coprire le sue scommesse, sottolineando che lo strumento “non è infallibile” e “non è perfetto”.

Eppure sarà necessario nel futuro proporre agli utenti AI che proteggano i propri dati e le proprie elaborazioni originali. Perché già con Frontier AI e deepfake si sta creando un manipolo di intelligenze artificiali che cercano anzi di danneggiare tutto questo. Un campo di battaglia gravoso per il futuro della tecnologia informatica.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.