La copiosa produzione di immagini AI sta diventando un problema, visto che diventa sempre più difficile distinguerle dalle foto reali. Da tempo le società sono state esortate a sviluppare delle protezioni, e sembra che OpenAI abbia finalmente recepito la richiesta, per il suo DALL-E 3.
Il generatore di OpenAI aggiungerà infatti delle filigrane alle immagini AI, in modo da permettere una più facile distinzione da quelle originali. Ma vediamo bene come dovrebbe funzionare, e cosa cambierà per le immagini.
DALL-E 3 aggiunge le filigrane alle immagini AI
Come riporta ufficialmente OpenAI, il suo generatore di immagini di OpenAI DALL-E 3 aggiungerà filigrane ai metadati delle immagini, in modo da garantire ai propri utenti il rispetto degli standard della Coalition for Content Provenance and Authenticity (C2PA).
Esse appariranno nelle immagini generate sul sito Web ChatGPT e sull’API per il modello DALL-E 3. Nel caso del servizio mobile, le filigrane saranno invece disponibili entro il 12 febbraio. Inoltre includeranno due componenti:
- una componente di metadati invisibile,
- un simbolo CR visibile, che apparirà nell’angolo in alto a sinistra di ogni immagine.
Così facendo, le persone possono verificare da quale generatore di immagini AI provenga attraverso siti Web come Content Credentials Verify. Precisa però The Verge, solo le immagini fisse, non i video o il testo, possono portare la filigrana.
E se temi per la qualità dell’immagine, non preoccuparti. L’aggiunta dei metadati della filigrana alle immagini “non influirà sulla qualità della generazione dell’immagine“, segnala l’azienda.
Il watermarking come soluzione transitoria
Quando parliamo di watermarking ci riferiamo all’applicazione di queste filigrane per rendere riconoscibile la natura AI di un’immagine o video. Voluta dalla C2PA, un gruppo composto da aziende come Adobe e Microsoft, l’uso della filigrana CC (Content Credentials) dovrebbe garantire al momento una distinzione base per evitare che le immagini AI creino troppo scompiglio.
The Verge ricorda che negli ultimi tempi aziende come Adobe e Meta si erano già mosse. Adobe ha creato uno specifico simbolo di credenziali di contenuto, mentre Meta aggiungerà tag ai contenuti generati dall’intelligenza artificiale sulle sue piattaforme di social media.
Ma come soluzione rimane comunque transitoria. Inoltre non sempre efficace. Riporta The Verge l’avviso di OpenAI: i metadati di C2PA possono essere facilmente rimossi, anche in maniera non intenzionale.
E questo perché la maggior parte delle piattaforme di social media spesso rimuovono i metadati dai contenuti caricati, anche solo facendo uno screenshot, col quale si omettono tutti questi metadati.