ShortGeniusShortGenius
Présentation de Wan 2.7 Reference to Video

Wan 2.7 Reference to Video

Création vidéo de nouvelle génération

Character-driven video from references

Wan 2.7 Reference to Video est un modèle vidéo IA de dernière génération qui transforme vos images de référence, vidéos et prompts textuels en contenu vidéo époustouflant et cohérent. Conçu pour les créateurs qui doivent donner vie à des personnages et des scènes avec cohérence et qualité cinématographique, ce modèle excelle à générer des vidéos qui préservent fidèlement l'apparence des sujets que vous fournissez — qu'il s'agisse d'un personnage spécifique, d'un objet ou même d'un style stylisé tiré de vos propres références visuelles.

Au cœur de ce modèle, il résout l'un des problèmes les plus complexes de la génération vidéo IA : le maintien de l'identité visuelle d'un cadre à l'autre et d'un plan à l'autre. En téléversant des images ou vidéos de référence de vos personnages et objets, vous donnez au modèle une ancre visuelle claire. Associez cela à un prompt textuel descriptif, et Wan 2.7 produit des vidéos avec une fluidité de mouvement accrue, une fidélité de scène supérieure et une cohérence visuelle plus grande que les générations précédentes. Le résultat est un contenu vidéo qui semble intentionnel et soigné — pas aléatoire ou incohérent.

Pour qui est-ce fait ?

Wan 2.7 Reference to Video est conçu pour une vaste gamme de professionnels créatifs. Les cinéastes et producteurs vidéo peuvent l'utiliser pour prototyper rapidement des scènes, prévisualiser des storyboards ou générer des séquences supplémentaires avec des personnages cohérents. Les animateurs et motion designers peuvent exploiter des images de référence pour conserver l'apparence d'un personnage sur plusieurs clips générés. Les créateurs de contenu pour les médias sociaux, clips musicaux ou contenu de marque peuvent produire des vidéos stylisées et accrocheuses à partir d'une poignée de matériaux de référence et d'une description écrite. Les artistes conceptuels et designers peuvent explorer comment leurs œuvres statiques pourraient se traduire en mouvement, en testant des idées cinématographiques avant de s'engager dans une chaîne de production complète.

Ce que vous pouvez créer

Le modèle génère des vidéos jusqu'à une résolution 1080p, vous offrant une sortie nette et en haute définition adaptée à un usage professionnel. Vous pouvez aussi choisir 720p si vous préférez des itérations plus rapides ou des fichiers plus petits. Les vidéos peuvent durer de 2 à 10 secondes, facilitant la génération de tout, d'un court extrait de mouvement à une scène plus développée.

L'une des fonctionnalités phares est le support de multiples ratios d'aspect. Vous pouvez générer des vidéos grand écran 16:9 idéales pour du contenu cinématographique et style YouTube, des vidéos verticales 9:16 parfaites pour les plateformes sociales comme TikTok et Instagram Reels, des formats carrés 1:1 pour les publications sur les médias sociaux, ou des ratios 4:3 et 3:4 pour des compositions plus traditionnelles ou orientées portrait. Cette flexibilité vous permet d'adapter votre sortie à n'importe quelle plateforme ou contexte créatif sans recadrage ni reformatage.

Génération pilotée par références

Ce qui distingue ce modèle, c'est son approche pilotée par références. Vous pouvez téléverser une ou plusieurs images de référence pour définir l'apparence des personnages ou objets dans votre vidéo. Besoin de deux personnages distincts interagissant dans une scène ? Fournissez des images de référence séparées pour chacun, et le modèle gère la génération multi-sujets. Vous pouvez aussi fournir des vidéos de référence, qui informent à la fois l'apparence et le style de mouvement de vos sujets. C'est incroyablement puissant pour maintenir la continuité — imaginez générer plusieurs clips du même personnage dans différents environnements, tous avec une apparence cohérente.

Le modèle supporte aussi des étiquettes pour des transformations stylisées et des capacités de synchronisation labiale, ouvrant des possibilités créatives pour l'animation de personnages et les scènes pilotées par dialogues.

Contrôles créatifs

Votre principal outil créatif est le prompt textuel, qui peut atteindre 5 000 caractères — vous laissant ample place pour décrire des scènes complexes, ambiances, mouvements de caméra et détails narratifs. Vous pouvez aussi utiliser un prompt négatif (jusqu'à 500 caractères) pour éloigner le modèle de qualités indésirables, comme une faible résolution, des artefacts visuels ou des styles spécifiques à éviter.

Une fonctionnalité particulièrement excitante est le mode multi-plan. Quand activé, le modèle segmente intelligemment votre vidéo en plusieurs plans plutôt qu'en un seul plan continu. C'est idéal pour créer des séquences narratives ou des montages dynamiques qui ressemblent à un montage professionnel. Quand désactivé, vous obtenez un plan unique fluide et ininterrompu — parfait pour des plans d'établissement, des révélations de personnages ou des pièces de mouvement fluides.

Pour les projets nécessitant de la reproductibilité, une valeur de seed vous permet de verrouiller des résultats spécifiques. Si vous générez une vidéo que vous adorez et voulez la recréer exactement — ou faire de légers ajustements au prompt tout en gardant la même base visuelle — utiliser le même seed assure une sortie cohérente. C'est inestimable pour les flux de travail créatifs itératifs où vous affinez un concept étape par étape.

Qualité et cohérence

Wan 2.7 représente un bond générationnel dans la qualité vidéo IA. La documentation met en lumière trois forces principales : une fluidité de mouvement accrue, signifiant que les personnages et objets bougent naturellement sans saccades ou transitions anormales ; une fidélité de scène supérieure, assurant que les environnements et décors que vous décrivez sont rendus avec précision et détail ; et une plus grande cohérence visuelle, pour que les éléments de votre vidéo maintiennent leur apparence et leurs relations spatiales d'un cadre à l'autre.

Sécurité du contenu

Le modèle inclut un système de modération de contenu intégré activé par défaut, qui examine vos entrées et la sortie générée. Cela aide à s'assurer que le contenu que vous créez reste dans des limites appropriées.

Considérations pratiques

Pour les images de référence, chaque fichier peut atteindre 20 MB, tandis que les vidéos de référence peuvent aller jusqu'à 100 MB chacune. Ces limites généreuses vous permettent de fournir du matériel source de haute qualité sans compression excessive. Gardez à l'esprit que le modèle fonctionne le mieux quand votre prompt textuel décrit clairement la scène désirée, et que vos matériaux de référence offrent des représentations nettes et bien éclairées des sujets que vous voulez mettre en vedette.

Que vous construisiez une narration centrée sur des personnages, génériez du contenu social stylisé, prototypiez des séquences cinématographiques ou exploriez des concepts de motion design, Wan 2.7 Reference to Video vous offre un outil puissant et flexible pour transformer votre vision créative en imagerie en mouvement avec une cohérence et une qualité remarquables.

Générez avec le modèle vidéo le plus avancé

A woman kneeling in darkness, illuminated by a warm, radiant beam of light emerging from her raised hand.

Étape 1

Écrivez votre scénario

Décrivez votre scène vidéo avec mouvement, angles de caméra et ambiance

Étape 2

L’IA génère

Le modèle crée un mouvement cinématographique avec une physique et un éclairage naturels

Étape 3

Commencez à partager

Téléchargez et partagez votre vidéo prête pour la production

L'attente est enfin terminée

Découvrez la perfection avec Wan 2.7 Reference to Video

Passez à la synthèse guidée par le raisonnement dès aujourd'hui

Questions fréquentes

Vous pouvez téléverser une ou plusieurs images de référence qui définissent l'apparence des personnages ou objets dans votre vidéo générée. Le modèle utilise ces images comme ancres visuelles, assurant que vos sujets restent cohérents tout au long de la sortie. Pour des scènes multi-personnages, fournissez simplement des images de référence séparées pour chaque sujet — le modèle supporte la génération multi-sujets, de sorte que chaque personnage conserve son apparence distincte. Vous pouvez aussi fournir des vidéos de référence à la place (ou en plus) des images, ce qui aide le modèle à capturer à la fois l'apparence et le style de mouvement de vos sujets.