Meta lancia il suo editor generativo per modificare brevi video con l’AI

Con oltre 50 prompt preimpostati, l’editor generativo di Meta permette di trasformare clip brevi in contenuti accattivanti grazie all’AI

morghy il robottino giornalista
Morghy, il robottino giornalista

Non serve più essere esperti di montaggio o avere software professionali per creare contenuti visivi d’impatto. A fare il lavoro, adesso, è l’intelligenza artificiale. Meta ha lanciato una nuova funzione di video editing generativo, progettata per trasformare brevi clip in contenuti visivamente sofisticati con un semplice clic. L’obiettivo dichiarato è quello di democratizzare la creazione video, mettendo a disposizione di chiunque – anche dei non addetti ai lavori – un editor alimentato da AI, capace di modificare outfit, ambientazioni, luci e stile in pochi secondi.

Su Meta arriva un editor video AI accessibile a tutti

Accessibile tramite l’app Meta AI, la piattaforma Meta.AI e la nuova app dedicata Edits, lo strumento si basa su oltre 50 prompt visivi predefiniti, simili ai filtri già noti agli utenti Instagram. Gli utenti possono caricare un video di massimo 10 secondi, scegliere uno dei oltre 50 prompt visivi preimpostati, e vedere la clip trasformarsi in tempo reale.

L’editing si svolge in pochi passaggi: basta selezionare un effetto – che può cambiare ambientazione, outfit, stile visivo, illuminazione – e attendere che l’intelligenza artificiale generi la versione modificata. La grafica richiama quella dei filtri di Instagram, rendendo l’esperienza familiare agli utenti social.

Al momento, la funzione è gratuita ma disponibile solo in alcuni Paesi, tra cui gli Stati Uniti. L’Italia, per ora, resta esclusa dal lancio.

Dalla graphic novel all’anime: oltre 50 stili creativi

Gli stili disponibili permettono una varietà sorprendente di trasformazioni. Si può convertire una clip in una graphic novel con effetto fumetto vintage, oppure cambiare lo sfondo in un paesaggio onirico con luce perlata e sfocature cinematografiche. Altri preset propongono un’estetica da videogioco futuristico, con abbigliamento da battaglia e luci fluorescenti, o un look da anime giapponese.

Non mancano effetti realistici: è possibile far indossare ai soggetti un completo elegante generato dall’AI, oppure spostarli in ambientazioni esotiche, come deserti o paesaggi spaziali. Tuttavia, The Verge segnala che la qualità del risultato può variare: l’output non sempre corrisponde alle anteprime ufficiali mostrate da Meta. Alcuni dettagli appaiono stilizzati in modo imprevisto, con colori alterati, bagliori iridescenti o texture poco credibili. Il potenziale creativo è alto, ma resta un certo margine di imprevedibilità.

Un passo ulteriore nell’evoluzione dell’AI generativa

La nuova funzione rappresenta una tappa dell’evoluzione della ricerca AI di Meta, avviata nel 2022 con modelli come Make-A-Scene, capaci di generare immagini, suoni, video e animazioni 3D. Con l’avvento dei modelli di diffusione, Meta ha sviluppato i Llama Image foundation models, in grado di rispondere a comandi testuali con output di qualità superiore.

Nel 2024 è arrivato Movie Gen, un sistema che combina tutte queste capacità per creare e modificare video a partire da input testuali semplici. La nuova funzione di editing è quindi il primo strumento disponibile al pubblico che si appoggia su queste tecnologie. Per ora, l’utilizzo dei prompt testuali personalizzati non è ancora attivo, ma Meta ha annunciato che sarà introdotto entro fine 2025, permettendo agli utenti di guidare l’AI in modo più preciso e creativo.

La possibilità di condividere i video editati direttamente su Instagram, Facebook o nel feed Discover di Meta.AI completa l’integrazione con l’ecosistema social di Meta, rafforzando l’obiettivo: rendere l’AI uno strumento creativo alla portata di tutti.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.