Il pericolo delle immagini generate dall’IA: la corsa per individuare i deepfake si intensifica

Questa settimana si è verificato un breve episodio di disinformazione digitale che ha messo in evidenza i pericoli degli immagini generate dall’intelligenza artificiale

Redazione
intelligenza artificiale, deep learning

Secondo quanto riportato da Gizmodo, questa settimana si è verificato un breve episodio di disinformazione digitale che ha messo in evidenza i pericoli degli immagini generate dall’intelligenza artificiale (IA). Un’immagine falsificata di un’esplosione al Pentagono si è diffusa sui social media, nonostante fosse chiaramente falsa. Account di spicco come il canale di stato russo RT e BloombergFeed hanno contribuito alla diffusione dell’immagine. Questo ha causato panico tra le persone, che hanno contattato la polizia pensando che un attacco di tipo 9/11 fosse in corso. L’incidente ha creato momentaneo caos e ha persino avuto un impatto sul mercato azionario.

Fortunatamente, l’episodio del falso Pentagono si è risolto in poche ore, ma la situazione avrebbe potuto essere molto peggiore. Geoffrey Hinton, uno dei pionieri dell’IA, ha espresso preoccupazione riguardo alla qualità sempre più convincente delle immagini generate dall’IA, che potrebbe portare le persone comuni a non essere in grado di distinguere la verità.

Per saperne di più: Intelligenza Artificiale, cos’è e come funziona. Tutto sulla AI

Le Start up e le aziende tech si mobilitano

In risposta a questa minaccia, sia startup che aziende consolidate nel campo dell’IA si stanno impegnando per sviluppare nuovi strumenti di rilevamento dei deepfake al fine di prevenire la diffusione di informazioni false. Molti di questi sforzi erano già in corso da anni, ma l’attenzione pubblica recente sulle potenzialità dell’IA, grazie a progetti come DALL-E e ChatGPT di OpenAI, ha creato un senso di urgenza e ha portato a maggiori investimenti per sviluppare soluzioni di individuazione dei deepfake in modo più efficiente.

Le aziende coinvolte nella corsa per trovare soluzioni di individuazione stanno lavorando su diversi livelli di contenuti. Alcune, come la startup Optic e FakeCatch di Intel, si concentrano sul riconoscimento dell’IA in audio e video, mentre altre, come Fictitious.AI, si concentrano principalmente sulla rilevazione di testi generati da chatbot basati sull’IA. Sebbene alcuni dei sistemi di rilevamento attuali sembrino funzionare bene, esperti di sicurezza informatica come Arjun Narayan, ex responsabile della sicurezza di Google, ritengono che questi strumenti siano ancora in fase di sviluppo.

“La sicurezza e la fiducia devono recuperare nella capacità di individuare i media sintetici rispetto ai media non sintetici”, ha affermato Narayan in un’intervista a Gizmodo. “Penso che la tecnologia di rilevamento raggiungerà l’avanzamento dell’IA, ma questa è un’area che richiede maggiori investimenti ed esplorazioni”.

Federico Morgantini Editore