Crolla la fiducia nelle immagini: la guerra dei deepfake

Sistemi di etichettatura e metadati non bastano a proteggere gli utenti da immagini e video manipolati dall’intelligenza artificiale

Redazione

Nel 2026 la crisi della realtà condivisa è un tema sempre più urgente: le immagini e i video generati o manipolati dall’intelligenza artificiale stanno inondando le piattaforme social senza controllo, mettendo in discussione la nostra capacità di fidarci di ciò che vediamo online. Secondo l’ultimo episodio del podcast Decoder di The Verge, intitolato Reality is losing the deepfake war, siamo in un momento in cui i contenuti falsificati diventano così realistici e diffusi da superare strumenti e pratiche pensate per proteggerci dalla disinformazione digitale.

La diffusione della manipolazione digitale dei deepfake

Il podcast parte dall’osservazione che foto e video, per anni sempre più “elaborati” anche solo per migliorarne l’estetica, ora vengono alterati o generati interamente dall’AI su vasta scala. Secondo i conduttori, nel 2026 ci troviamo nel mezzo di una vera e propria crisi. Un esempio citato nell’episodio è la pubblicazione da parte della Casa Bianca di immagini modificate con tecnologie AI, che mostrano persone in situazioni sensazionalistiche — un fenomeno che, seppure contestato, continua a essere utilizzato come strumento comunicativo.

Per cercare di arginare questo problema, esistono iniziative come C2PA (Coalition for Content Provenance and Authenticity): uno standard di metadata pensato per registrare origine e modifiche di foto e video, in modo da permettere agli utenti e ai sistemi di piattaforme di identificare contenuti autentici o manipolati.

Tuttavia, come viene spiegato nel podcast, C2PA nasce come strumento di etichettatura dei metadati di file multimediali, non come sistema completo di rilevamento o autenticazione su larga scala. La tecnologia non è stata adottata in modo uniforme: molti social media rimuovono i metadata durante l’upload, e aziende fondamentali nel mondo della fotografia digitale non partecipano pienamente all’iniziativa

Il ruolo dei media e gli strumenti di etichettatura

Il dibattito sulle etichette di autenticità e i sistemi di verifica dei contenuti generati dall’AI è centrale nella discussione del podcast. C2PA viene presentato come lo standard con più “slancio” nel settore, ma anche come un progetto che può fallire nel raggiungere l’obiettivo di aiutare gli utenti a distinguere tra vero e falso online.

Secondo The Verge, la difficoltà principale sta nel fatto che molti strumenti e piattaforme non leggono o mantengono correttamente i metadati, oppure semplicemente non li implementano in modo coerente. Anche l’adozione di label “Made with AI” o simili può provocare resistenza o confusione tra i creatori di contenuti, che temono che l’etichettatura deprezzi la creatività o l’opera stessa.

Questo porta a un paradosso: pur essendo uno strumento potenzialmente utile, l’etichettatura dei contenuti non basta a garantire un senso condiviso di realtà digitale, perché manca una standardizzazione diffusa e una chiara interpretazione delle metriche di autenticità

Impatto sociale e responsabilità dei deepfake

La diffusione incontrollata di immagini e video realistici generati dall’AI ha effetti che vanno oltre il semplice intrattenimento. Nel podcast si sottolinea come questi contenuti possano influenzare la percezione pubblica dei fatti, erodendo la fiducia nelle istituzioni, nei mezzi di comunicazione e nelle informazioni visive che un tempo consideravamo affidabili.

Un punto significativo riguarda il cambiamento di prospettiva anche tra gli stessi dirigenti delle piattaforme social: l’episodio cita il capo di Instagram, Adam Mosseri, il quale suggerisce che non si possa più “assumere che le foto o i video siano riprese accurate di eventi reali”, suggerendo un approccio di partenza basato sulla scetticismo.

Questo riflette una trasformazione culturale: immagini e video, un tempo percepiti come testimonianze dirette della realtà, non sono più automaticamente considerati prove affidabili di eventi accaduti. La difficoltà di definire cosa sia realmente un “contenuto generato o modificato da AI” rende ancora più complessa la creazione di regole e strumenti che possano davvero aiutare gli utenti a orientarsi nella massa di informazioni digitali.

Takeaway operativo

Secondo The Verge, la guerra alla falsificazione digitale è tutt’altro che vinta: le soluzioni attuali, come C2PA e altri sistemi di etichettatura dei metadata, non sono ancora all’altezza della scala e della complessità del problema.

In questo contesto, l’unico modo per difendersi dalla confusione generata dai contenuti falsi rimane un atteggiamento critico e consapevole nella fruizione dei media digitali. Verificare le fonti, comprendere i limiti delle tecnologie di autenticazione e mantenere un approccio informato sono strumenti fondamentali per non perdere il senso di ciò che è reale in un panorama dove la linea tra vero e falso è sempre più sfumata.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.