Character-driven video from references
Wan 2.7 Reference to Video es un modelo de vídeo IA de última generación que transforma tus imágenes de referencia, vídeos y indicaciones de texto en contenido de vídeo impresionante y coherente. Diseñado para creadores que necesitan dar vida a personajes y escenas con consistencia y calidad cinematográfica, este modelo destaca en la generación de vídeos que preservan fielmente la apariencia de los sujetos que proporcionas — ya sea un personaje específico, un objeto o incluso un aspecto estilizado extraído de tus propias referencias visuales.
En su núcleo, este modelo resuelve uno de los problemas más desafiantes en la generación de vídeo IA: mantener la identidad visual a lo largo de los fotogramas y tomas. Al subir imágenes o vídeos de referencia de tus personajes y objetos, le das al modelo un ancla visual clara. Combínalo con una indicación de texto descriptiva y Wan 2.7 produce vídeos con mayor suavidad de movimiento, superior fidelidad de escena y mayor coherencia visual que las generaciones anteriores. El resultado es contenido de vídeo que parece intencional y pulido — no aleatorio ni inconsistente.
¿Para quién es esto?
Wan 2.7 Reference to Video está diseñado para un amplio rango de profesionales creativos. Cineastas y productores de vídeo pueden usarlo para prototipar escenas rápidamente, previsualizar storyboards o generar material suplementario con personajes consistentes. Animadores y diseñadores de movimiento pueden aprovechar imágenes de referencia para mantener el aspecto de un personaje a lo largo de múltiples clips generados. Creadores de contenido para redes sociales, vídeos musicales o contenido de marca pueden producir vídeo estilizado y llamativo con solo unos pocos materiales de referencia y una descripción escrita. Artistas conceptuales y diseñadores pueden explorar cómo su arte estático se traduce en movimiento, probando ideas cinematográficas antes de comprometerse con un flujo de producción completo.
Qué puedes crear
El modelo genera vídeo hasta resolución 1080p, ofreciéndote salida nítida y en alta definición adecuada para uso profesional. También puedes elegir 720p si prefieres iteraciones más rápidas o archivos más pequeños. Los vídeos pueden durar de 2 a 10 segundos, facilitando la generación de cualquier cosa, desde un fragmento de movimiento rápido hasta una escena más desarrollada.
Una de las características destacadas es el soporte para múltiples relaciones de aspecto. Puedes generar vídeos panorámicos 16:9 ideales para contenido cinematográfico y estilo YouTube, vídeos verticales 9:16 perfectos para plataformas sociales como TikTok e Instagram Reels, formatos cuadrados 1:1 para publicaciones en redes sociales, o relaciones 4:3 y 3:4 para composiciones más tradicionales u orientadas a retrato. Esta flexibilidad significa que puedes adaptar tu salida a cualquier plataforma o contexto creativo sin recortar ni reformatear.
Generación basada en referencias
Lo que distingue a este modelo es su enfoque basado en referencias. Puedes subir una o más imágenes de referencia para definir la apariencia de personajes u objetos en tu vídeo. ¿Necesitas dos personajes distintos interactuando en una escena? Proporciona imágenes de referencia separadas para cada uno y el modelo maneja la generación multi-sujeto. También puedes suministrar vídeos de referencia, que informan tanto la apariencia como el estilo de movimiento de tus sujetos. Esto es increíblemente potente para mantener la continuidad — imagina generar múltiples clips del mismo personaje en diferentes entornos, todos con aspecto consistente.
El modelo también soporta etiquetas para transformaciones estilizadas y capacidades de sincronización labial, abriendo posibilidades creativas para animación de personajes y escenas impulsadas por diálogo.
Controles creativos
Tu herramienta creativa principal es la indicación de texto, que puede tener hasta 5000 caracteres — dándote amplio espacio para describir escenas complejas, estados de ánimo, movimientos de cámara y detalles narrativos. También puedes usar una indicación negativa (hasta 500 caracteres) para alejar al modelo de cualidades indeseables, como baja resolución, artefactos visuales o estilos específicos que quieras evitar.
Una característica particularmente emocionante es el modo multi-toma. Cuando está activado, el modelo segmenta inteligentemente tu vídeo en múltiples tomas en lugar de producir una sola toma continua. Esto es ideal para crear secuencias narrativas o ediciones dinámicas que parecen footage cortado profesionalmente. Cuando está desactivado, obtienes una toma única suave e ininterrumpida — perfecta para tomas de establecimiento, revelaciones de personajes o piezas de movimiento fluido.
Para proyectos que requieren reproducibilidad, un valor de semilla te permite fijar resultados específicos. Si generas un vídeo que te encanta y quieres recrearlo exactamente — o hacer ajustes leves a la indicación manteniendo la misma base visual —, usar la misma semilla asegura una salida consistente. Esto es invaluable para flujos de trabajo creativos iterativos donde refinas un concepto paso a paso.
Calidad y coherencia
Wan 2.7 representa un salto generacional en la calidad de vídeo IA. La documentación destaca tres fortalezas principales: mayor suavidad de movimiento, lo que significa que personajes y objetos se mueven de forma natural sin temblores o transiciones antinaturales; superior fidelidad de escena, asegurando que los entornos y escenarios que describes se rendericen con precisión y detalle; y mayor coherencia visual, para que los elementos en tu vídeo mantengan su apariencia y relaciones espaciales de fotograma a fotograma.
Seguridad de contenido
El modelo incluye un sistema de moderación de contenido integrado que está activado por defecto, revisando tanto tus entradas como la salida generada. Esto ayuda a asegurar que el contenido que creas se mantenga dentro de límites apropiados.
Consideraciones prácticas
Al trabajar con imágenes de referencia, cada archivo puede tener hasta 20 MB, mientras que los vídeos de referencia pueden tener hasta 100 MB cada uno. Estos límites generosos significan que puedes proporcionar material fuente de alta calidad sin compresión pesada. Ten en cuenta que el modelo funciona mejor cuando tu indicación de texto describe claramente la escena que quieres y tus materiales de referencia proporcionan representaciones limpias y bien iluminadas de los sujetos que quieres destacar.
Ya sea que estés construyendo una narrativa centrada en personajes, generando contenido social estilizado, prototipando secuencias cinematográficas o explorando conceptos de diseño de movimiento, Wan 2.7 Reference to Video te ofrece una herramienta potente y flexible para convertir tu visión creativa en imágenes en movimiento con notable consistencia y calidad.
A woman kneeling in darkness, illuminated by a warm, radiant beam of light emerging from her raised hand.
Describe tu escena de vídeo con movimiento, ángulos de cámara y estado de ánimo
El modelo crea movimiento cinematográfico con física e iluminación natural
Descarga y comparte tu vídeo listo para producción
¡Cambia hoy a la síntesis guiada por razonamiento!

High-quality, fast video generation
2 créditos

Fast, high-quality text-to-video
2.1 créditos

Cinematic video from references
10 créditos

Fast cinematic video with audio
0.1 créditos
![Kling Video v3 Text to Video [Standard]](/marketing-assets/_next/image?url=https%3A%2F%2Fv3b.fal.media%2Ffiles%2Fb%2F0a8cfc9f%2Fdei5OqFRB9HK8AgSHwk8f_9a5eea197b3045d1be55aedb0213f6f9.jpg&w=3840&q=75)
Cinematic text-to-video with audio
4.2 créditos

Cinematic video with native audio
1.4 créditos

Cinematic video from references
0.4 créditos

Fast balanced text-to-video generation
1.6 créditos

Smooth, coherent AI video generation
2 créditos