OpenAI ha presentado Sora, un modelo de inteligencia artificial diseñado para transformar instrucciones textuales en videos realistas e imaginativos. Este desarrollo representa un avance significativo en la capacidad de generar escenas visuales detalladas, ofreciendo desde vistas urbanas hasta representaciones de criaturas míticas, manteniendo una alta fidelidad visual y una precisa adherencia a las indicaciones de los usuarios.
El núcleo de Sora radica en su profunda comprensión del lenguaje, que le permite no solo captar la esencia de los prompts textuales, sino también plasmarlos en videos que son emocionalmente resonantes y visualmente coherentes. La capacidad de Sora para animar imágenes estáticas y extender videos existentes demuestra su versatilidad y su potencial para revolucionar la producción de contenido audiovisual, abriendo nuevas posibilidades para creativos y profesionales en diversos campos.
Introducing Sora, our text-to-video model.
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
— OpenAI (@OpenAI) February 15, 2024
A pesar de su impresionante capacidad para generar contenido visual complejo, Sora aún se encuentra en una fase de pruebas y no está disponible para el público general. OpenAI está trabajando en colaboración con expertos en diversos campos para asegurar que el modelo se desarrolle de manera segura y ética, anticipando un futuro en el que herramientas como Sora podrían transformar radicalmente el panorama de la creación de contenido digital.
Revisa todos los detalles y más ejemplos de vídeos generados en la web oficial.