Runway Gen-3: otro paso en la generación de texto a video
Hace unas horas Runway ha presentado Gen-3 Alpha, su nuevo generador de IA de texto a video. Y los resultados son espectaculares.
Gen-3 Alpha es el primero de una serie de modelos entrenados por Runway en una nueva infraestructura creada para el entrenamiento multimodal a gran escala. Supone una importante mejora de la fidelidad, la coherencia y el movimiento con respecto a Gen-2, y un paso más hacia la creación de modelos mundiales generales.
Gen-3 Alpha se ha entrenado conjuntamente con vídeos e imágenes, potenciando las herramientas de texto a vídeo, imagen a vídeo y texto a imagen de Runway, los modos de control existentes como Motion Brush, Advanced Camera Controls y Director Mode, así como las próximas herramientas para un control más preciso de la estructura, el estilo y el movimiento.
Gen-3 Alpha incluye el nuevo y mejorado sistema interno de moderación visual junto con las normas de procedencia C2PA.
- Control temporal preciso: Gen-3 Alpha ha sido entrenado con subtítulos altamente descriptivos y temporalmente densos, lo que permite transiciones imaginativas y un encuadre clave preciso de los elementos de la escena.
- Humanos fotorrealistas: Gen-3 Alpha sobresale en la generación de personajes humanos expresivos con una amplia gama de acciones, gestos y emociones, desbloqueando nuevas oportunidades de narración.
- Para artistas, por artistas: El entrenamiento Gen-3 Alpha ha sido el resultado de la colaboración de un equipo interdisciplinar de investigadores científicos, ingenieros y artistas. Se ha diseñado para interpretar una amplia gama de estilos y terminología cinematográfica.
Información basada el anuncio oficial de Runway «Introducing Gen-3 Alpha» y los ejemplos creados por Javi López (Comparto tutoriales, herramientas y noticias de IA) en Twitter/X.