Veo 2 : face au succès de Sora d’OpenAI, Google met à jour son générateur de vidéos
DeepMind, l’une des divisions de Google, vient de présenter la version 2.0 de son générateur de vidéos par IA, Veo 2. Celle-ci afficherait des performances nettement supérieures à Veo premier du nom.
En février dernier, OpenAI impressionnait le public en dévoilant Sora, un puissant générateur de vidéos par IA. Ce dernier est capable de produire de courtes vidéos d’une qualité impressionnante. Mais Google n’a pas tardé à réagir en lançant son propre générateur baptisé Veo. Et, si Sora était jusqu’à présent réservé à quelques privilégiés, OpenAI a récemment mis son générateur de vidéos par IA à la disposition de – presque – tous. DeepMind vient donc de répondre en présentant son générateur de vidéos de deuxième génération, Veo 2.
Et, selon Google, Veo 2 battrait à plate couture son principal rival, Sora. En effet, DeepMind affirme que Veo 2 est capable de générer des clips d’une durée maximale de deux minutes à des résolutions atteignant la qualité 4K. Cela représente pas moins de six fois la longueur et quatre fois la résolution des clips de 20 secondes/1080p que Sora est capable de créer.
Veo 2 : un générateur de vidéos de pointe
Mais ce n’est pas tout. En effet, Veo 2 serait également capable de mieux maîtriser la physique, la dynamique des fluides, ainsi que la gestion des ombres et des lumières. En d’autres termes, Veo 2 serait en mesure de générer des clips vidéo « plus clairs », selon DeepMind. De plus, le générateur de vidéos permettrait à l’utilisateur de positionner l’objectif de la caméra virtuelle avec plus de précision qu’auparavant.
En revanche, le développement de Veo 2 ne serait pas encore tout à fait terminé. « La cohérence et l’homogénéité sont des domaines à développer », déclare Eli Collins. « Veo peut adhérer de manière cohérente à un message pendant quelques minutes, mais il ne peut pas adhérer à des messages complexes sur de longues périodes. De même, la cohérence des caractères peut être un défi. Il est également possible d’améliorer la génération de détails complexes, de mouvements rapides et complexes, et de continuer à repousser les limites du réalisme. »
Source : digitaltrends