Generare video con un testo, OpenAI presenta Sora: nuova rivoluzione in arrivo

Il creatore di ChatGPT, giovedì scorso, 15 febbraio, ha svelato il suo prossimo grande passo nell’intelligenza artificiale generativa: uno strumento che crea istantaneamente brevi video in risposta a comandi scritti.

OpenAI, con sede a San Francisco, ha presentato il nuovo generatore di video testuali chiamato Sora, che non è il primo del suo genere. Google, Meta e la startup Runway ML sono tra le altre aziende che hanno già annunciato tecnologie simili.

Qualità ineguagliabile

Tuttavia, la qualità dei video mostrati da OpenAI – alcuni dei quali prodotti dopo che il CEO Sam Altman ha chiesto agli utenti dei social media di inviare idee per i prompt – ha stupito gli osservatori, suscitando al tempo stesso timori riguardo le implicazioni etiche e sociali.

Esempi innovativi

“Una sessione di cucina didattica per fare gli gnocchi in casa, presentata da una nonna influencer sui social media, ambientata in una rustica cucina di campagna toscana con illuminazione cinematografica”, è stato un prompt suggerito su X, l’ex Twitter, da un fotografo freelance del New Hampshire, negli Stati Uniti. Altman ha risposto poco dopo con un video realistico che raffigurava quanto descritto nel prompt.

Il lancio?

Lo strumento non è ancora disponibile al pubblico e OpenAI ha rivelato informazioni limitate su come sia stato costruito. L’azienda, che è stata citata in giudizio da alcuni autori e dal New York Times per l’uso di opere letterarie protette da copyright per addestrare ChatGPT, non ha nemmeno divulgato quali immagini e fonti video siano stati utilizzati per addestrare Sora. L’azienda, a tal proposito, paga già una tariffa non divulgata all’Associated Press per la licenza del suo archivio di notizie testuali. OpenAI ha, comunque, dichiarato in un post sul proprio blog di essere in contatto con artisti, responsabili politici e altri prima di rilasciare il nuovo strumento al pubblico.

Sicurezza ed etica

“Stiamo lavorando con red teamers che testeranno il modello in modo avversariale”, ha dichiarato l’azienda. “Stiamo anche sviluppando strumenti per aiutare a rilevare contenuti fuorvianti, come un classificatore di rilevamento che può indicare quando un video sia stato generato da Sora”.

I “red teamers” sono esperti di dominio in vari campi, come la disinformazione, i contenuti d’odio e i pregiudizi, che vengono incaricati di testare in modo avversariale un modello o un sistema. Il loro compito è quello di identificare vulnerabilità, problemi di sicurezza o potenziali abusi simulando attacchi o tentativi di manipolazione in modo controllato. Questo processo aiuta a migliorare la robustezza e la sicurezza del sistema prima che venga rilasciato o implementato su larga scala. Nel contesto della generazione artificiale di contenuti, come i video generati dall’intelligenza artificiale, i red teamers valuteranno il modello per identificare e mitigare rischi legati alla generazione di contenuti ingannevoli, offensivi o polarizzanti.

Leggi anche questi articoli