C’est incroyable et peut-être un peu effrayant. La question se pose à nouveau : jusqu’où peuvent aller les modèles génératifs IA ? OpenAI a fait un bond en avant impressionnant avec le lancement de son dernier produit, Sora, un modèle de conversion de texte en vidéo, le 15 février 2024.
Comme d’habitude, le principe est simple. Donnez à Sora des instructions textuelles, et l’IA transformera vos concepts en une vidéo jusqu’à une minute. OpenAI, qui a déjà bousculé le monde des IA génératives avec ChatGPT, promet des scénarios "imaginatifs et réalistes". Cela pourrait bouleverser le secteur de l’art numérique, où les artistes passent habituellement des heures à produire un tel contenu.
OpenAI a partagé une démonstration de Sora créant une vidéo à partir d’un texte qui dépeint une scène hivernale animée à Tokyo, avec des détails précis et des émotions vibrantes reflétées par les personnages. La précision, la richesse des détails et le réalisme bluffant de l’animation ont laissé le public abasourdi.
Malgré ses performances impressionnantes, Sora n’est pas sans ses lacunes. En tentant de simuler avec précision la physique d’une scène complexe, le modèle peut faire des erreurs. De plus, certains problèmes causaux spécifiques peuvent échapper à Sora, comme un personnage mangeant un morceau de cookie et le cookie restant intact ensuite.
Sora est actuellement disponible pour les membres Red, des experts en IA qui sont chargés d’évaluer les risques. OpenAI prévoit également de donner accès à Sora à quelques artistes, designers et cinéastes dans le but de recueillir des commentaires pour améliorer Sora et l’orienter dans la direction la mieux adaptée aux professionnels créatifs.
Donnez votre avis !