Deepfake e disinformazione: il 46% degli attacchi è in formato video

Allarme deepfake dal report di IdentifAI: quasi il 50% delle minacce da video deepfake. Nel mirino: la politica e la criminalità informatica

Redazione

Foto e video manipolati dall’intelligenza artificiale stanno diventando una delle principali minacce dell’era digitale. I cosiddetti deepfake si stanno affermando come strumenti sempre più sofisticati, utilizzati per colpire politica, pornografia e criminalità informatica. Un fenomeno che si inserisce nella cosiddetta post-verità, dove distinguere reale e artificiale diventa sempre più complesso.

Il quadro emerge dal primo Deepfake Intelligence Report di IdentifAI, startup italiana specializzata nel riconoscimento di contenuti generati dall’IA, che ha analizzato il periodo compreso tra il 2020 e l’inizio del 2026 su scala globale.

Politica, frodi e pornografia: gli usi principali dei deepfake

Secondo l’analisi riportata dall’ANSA, il 46% delle minacce globali legate ai deepfake avviene tramite video manipolati. Gli obiettivi sono molteplici, ma la finalità principale resta la manipolazione politica, che rappresenta il 24,6% dei casi, seguita dalle frodi con il 20,1%.

Più distante, ma comunque rilevante, il comparto della pornografia con l’11,3% delle manipolazioni, un ambito che ha già spinto diversi Paesi a intervenire dopo esperimenti controversi su piattaforme social. L’abuso dell’immagine di celebrità raggiunge il 9,3%, mentre la satira si ferma al 3,2%, a conferma di un utilizzo orientato soprattutto alla disinformazione e alla monetizzazione.

Nel mirino anche figure e contesti geopolitici: tra gli obiettivi compaiono un leader politico israeliano (5,4%), una figura di primo piano negli Stati Uniti (3,1%) e diverse entità statali mediorientali (1,4%).

Stati Uniti epicentro e social media come amplificatore

Gli Stati Uniti risultano il Paese più colpito, con il 46,9% degli incidenti globali, seguiti da Regno Unito (8,2%), India (7,2%) e Israele (6,6%). Più distanti Iran, Corea del Sud e Australia.

A fare da moltiplicatore è soprattutto l’ecosistema dei social media. La piattaforma X concentra il 51,2% della diffusione dei casi, seguita da TikTok con il 21,1%. YouTube e Facebook rappresentano rispettivamente il 10% e l’8,2%, mentre Instagram, Telegram e WhatsApp restano su quote più marginali.

Secondo il report, la diffusione è favorita da sistemi algoritmici che privilegiano l’engagement rispetto all’affidabilità delle fonti.

Tecniche sempre più sofisticate e allarme per il futuro

La ricerca evidenzia anche un’evoluzione rapida delle tecniche di manipolazione. I metodi più utilizzati sono i video (45,6%), seguiti da media misti (25,2%), immagini (17,4%) e clonazione vocale (10,5%).

La direzione, avverte il report, è verso sistemi sempre più complessi e multimodali, capaci anche di aggirare verifiche biometriche e automatizzate. “La sofisticazione delle operazioni è maturata fino a superare le soglie di verifica avanzate”, si legge nell’analisi. Una tendenza che potrebbe accelerare nei prossimi mesi.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.