Meta se vante que son dernier outil vidéo d’IA surpasse ses concurrents comme OpenAI

Meta se vante que son dernier outil vidéo d'IA surpasse ses concurrents comme OpenAI

Meta a publié vendredi un nouvel outil de génération de vidéos IA qui est également la dernière volée de l’entreprise dans sa bataille avec OpenAI pour la suprématie de l’IA.

« Aujourd’hui, nous sommes ravis de présenter Meta Movie Gen, notre recherche révolutionnaire sur l’IA générative pour les médias, qui inclut des modalités telles que l’image, la vidéo et l’audio », a déclaré la société dans un communiqué de presse. « Movie Gen surpasse les modèles similaires de l’industrie dans ces tâches lorsqu’ils sont évalués par des humains. »

Dans son communiqué de presse, Meta a qualifié Movie Gen de « suite de modèles de narration la plus avancée et la plus immersive », comprenant la génération vidéo, la génération audio, la génération vidéo personnalisée et le montage vidéo. Les modèles ont été formés à l’aide de données accessibles au public et de données sous licence, a indiqué la société.

Avec une invite de texte, Movie Gen peut créer des vidéos d’une durée maximale de 16 secondes à 16 images par seconde tout en raisonnant « sur le mouvement de l’objet, les interactions sujet-objet et le mouvement de la caméra ». Les utilisateurs peuvent télécharger une photo d’eux-mêmes pour l’incorporer dans des vidéos personnalisées, et Movie Gen peut éditer des vidéos avec des instructions textuelles de l’utilisateur.

L’exemple de vidéo de Meta montre une perspective sous-marine d’un bébé hippopotame (référence à Moo Deng, ça vous dit ?) nageant joyeusement dans une scène aquatique sereine.

Une autre montre un koala sur une planche de surf et le message qui l’accompagne : « Un koala moelleux surfe. Il a un pelage gris et blanc et un nez rond. La planche de surf est jaune. L’ours koala tient la planche de surf avec ses pattes. Le koala L’expression du visage de l’ours est concentrée. Le soleil brille.

Grâce à la génération audio, les utilisateurs peuvent « créer et étendre des effets sonores, une musique de fond ou des bandes sonores entières » jusqu’à 45 secondes, indique le communiqué de presse. Un exemple de clip d’un serpent se faufiler à travers une zone boisée comprend le invite : « Feuilles bruissantes et brindilles cassantes, avec une piste de musique orchestrale. »

Meta est un peu en retard dans le jeu de la génération audio et vidéo, car les principaux concurrents comme OpenAI et Google ont déjà pris pied dans l’espace. OpenAi a lancé Sora, son générateur vidéo, en février, et Google a emboîté le pas avec Veo en mai.

Meta, cependant, a donné du fil à retordre à OpenAI dans la course aux armements de l’IA. Bien que ChatGPT d’OpenAI ait fait ses débuts et propulsé l’entreprise vers une renommée mondiale, les récentes itérations du modèle Llama de Meta ont été bien accueillies. Beaucoup considéraient Llama 3.1, sorti en juillet, comme supérieur au GPT-4o d’OpenAI, sorti peu de temps auparavant.

Meta affirme que ses nouveaux « modèles de pointe » surpassent ses concurrents dans les comparaisons humaines A/B. Pour la génération vidéo, les personnes interrogées par Meta ont préféré Movie Gen à OpenAI Sora, indique le communiqué de presse de la société. Meta n’a pas partagé de comparaison A/B avec Veo de Google, qui propose également des effets sonores et de la musique, mais Meta a déclaré dans un long document de recherche qu’il pensait que les modèles de génération vidéo-audio de Google pourraient être plus limités en longueur que ceux de Meta. .

Meta, OpenAI et Google n’ont pas immédiatement répondu à une demande de commentaire.

A lire également