Meta sfida OpenAI con Movie Gen: l’IA che crea video dal testo

Meta sta investendo massicciamente nello sviluppo di modelli di intelligenza artificiale capaci di superare la concorrenza, come dimostra il lancio del nuovo strumento Movie Gen. Si tratta di un modello di base, noto anche come text-to-video, che al momento è destinato principalmente al mondo della ricerca. Con questa tecnologia, Meta mira a rivoluzionare il processo di creazione video grazie all’AI generativa.

Un modello basato su 30 miliardi di parametri

Movie Gen è alimentato da un modello di tipo Transformer con 30 miliardi di parametri, che permette di generare video della durata massima di 16 secondi a una velocità di 16 fotogrammi al secondo. Secondo Meta, questa tecnologia è in grado di superare altri modelli presenti sul mercato in termini di qualità e precisione​.

Generazione audio avanzata: un’innovazione unica

Accanto alla capacità video, Meta ha sviluppato anche un potente modello di generazione audio. Dotato di 13 miliardi di parametri, questo strumento permette di generare suoni di alta qualità fino a 45 secondi, includendo suoni ambientali, effetti sonori e musica sincronizzata con il video. La funzione di estensione audio consente inoltre di adattare la lunghezza del suono a video di diverse durate​.

Le potenzialità di Movie Gen per la personalizzazione video

Movie Gen si distingue per la sua capacità di creare contenuti personalizzati. A partire da un semplice prompt testuale o una singola immagine, il modello può generare video unici e perfettamente sincronizzati con il contesto descritto. Questa caratteristica ricorda molto Sora, lo strumento text-to-video sviluppato e annunciato da OpenAI. Tuttavia, Meta sembra voler puntare su un impiego più ampio e accessibile del suo modello.

P.S. Meta AI non è ancora accessibile in Italia.

Questo contenuto è stato scritto da un utente della Community.  Il responsabile della pubblicazione è esclusivamente il suo autore.