Character-driven video from references
Wan 2.7 Reference to Video ist ein KI-Videomodell der neuesten Generation, das Ihre Referenzbilder, Videos und Textprompts in atemberaubende, kohärente Videoinhalte umwandelt. Entwickelt für Kreative, die Charaktere und Szenen mit Konsistenz und kinoreifer Qualität zum Leben erwecken möchten, zeichnet sich dieses Modell durch die Generierung von Videos aus, die das Aussehen der von Ihnen bereitgestellten Subjekte treu erhalten – sei es ein bestimmter Charakter, ein Objekt oder sogar ein stilisiertes Erscheinungsbild aus Ihren eigenen visuellen Referenzen.
Im Kern löst dieses Modell eines der anspruchsvollsten Probleme in der KI-Videogenerierung: die Erhaltung der visuellen Identität über Frames und Einstellungen hinweg. Durch das Hochladen von Referenzbildern oder -videos Ihrer Charaktere und Objekte geben Sie dem Modell einen klaren visuellen Anker. Kombinieren Sie das mit einem beschreibenden Textprompt, und Wan 2.7 erzeugt Videos mit verbesserter Bewegungsweichheit, überlegener Szenentreue und größerer visueller Kohärenz als frühere Generationen. Das Ergebnis sind Videoinhalte, die intentional und poliert wirken – nicht zufällig oder inkonsistent.
Für wen ist das?
Wan 2.7 Reference to Video ist für eine breite Palette kreativer Profis konzipiert. Filmemacher und Videoproduzenten können es nutzen, um Szenen schnell zu prototypen, Storyboards vorzuvisualisieren oder ergänzende Aufnahmen mit konsistenten Charakteren zu generieren. Animatoren und Motion-Designer können Referenzbilder einsetzen, um das Aussehen eines Charakters über mehrere generierte Clips hinweg beizubehalten. Content-Creator für Social Media, Musikvideos oder Markeninhalte können aus wenigen Referenzmaterialien und einer schriftlichen Beschreibung stilisiertes, auffälliges Video produzieren. Konzeptkünstler und Designer können erkunden, wie ihre Stillarbeiten in Bewegung umgesetzt werden, und kinematografische Ideen testen, bevor sie eine vollständige Produktionspipeline starten.
Was können Sie erstellen?
Das Modell generiert Videos bis zu 1080p-Auflösung und liefert scharfe, hochauflösende Ausgaben für professionelle Anwendungen. Sie können auch 720p wählen, falls Sie schnellere Iterationen oder kleinere Dateigrößen bevorzugen. Videos können eine Dauer von 2 bis 10 Sekunden haben, sodass Sie von kurzen Bewegungssequenzen bis hin zu ausführlicheren Szenen alles generieren können.
Ein herausragendes Feature ist die Unterstützung mehrerer Aspektverhältnisse. Sie können Breitbild-16:9-Videos für kinematografische und YouTube-Inhalte generieren, vertikale 9:16-Videos für Social-Plattformen wie TikTok und Instagram Reels, quadratische 1:1-Formate für Social-Media-Posts oder 4:3- und 3:4-Verhältnisse für traditionellere oder porträtorientierte Kompositionen. Diese Flexibilität erlaubt es Ihnen, Ihre Ausgabe an jede Plattform oder jeden kreativen Kontext anzupassen, ohne Zuschneiden oder Umformatieren.
Referenzbasierte Generierung
Was dieses Modell auszeichnet, ist sein referenzbasierter Ansatz. Sie können ein oder mehrere Referenzbilder hochladen, um das Aussehen von Charakteren oder Objekten in Ihrem Video zu definieren. Brauchen Sie zwei unterschiedliche Charaktere, die in einer Szene interagieren? Stellen Sie separate Referenzbilder für jeden zur Verfügung, und das Modell übernimmt die Multi-Subjekt-Generierung. Sie können auch Referenzvideos angeben, die sowohl das Aussehen als auch den Bewegungsstil Ihrer Subjekte beeinflussen. Das ist unglaublich mächtig für Kontinuität – stellen Sie sich vor, mehrere Clips desselben Charakters in unterschiedlichen Umgebungen zu generieren, die alle konsistent aussehen.
Das Modell unterstützt zudem Tags für stilistische Transformationen und Lip-Sync-Funktionen, die kreative Möglichkeiten für Charakteranimation und dialoggetriebene Szenen eröffnen.
Kreative Kontrollen
Ihr primäres kreatives Werkzeug ist der Textprompt, der bis zu 5.000 Zeichen lang sein kann – das gibt Ihnen reichlich Raum für komplexe Szenenbeschreibungen, Stimmungen, Kamerabewegungen und narrative Details. Sie können auch einen negativen Prompt (bis zu 500 Zeichen) verwenden, um das Modell von unerwünschten Eigenschaften fernzuhalten, wie niedriger Auflösung, visuellen Artefakten oder spezifischen Stilen, die Sie vermeiden möchten.
Ein besonders spannendes Feature ist der Multi-Shot-Modus. Wenn aktiviert, teilt das Modell Ihr Video intelligent in mehrere Einstellungen auf, statt einen einzigen kontinuierlichen Take zu erzeugen. Das ist ideal für narrative Sequenzen oder dynamische Edits, die wie professionell geschnitten wirken. Wenn deaktiviert, erhalten Sie einen fließenden, unterbrechungsfreien Einzelshot – perfekt für Establishing-Shots, Charakter-Enthüllungen oder fließende Bewegungsstücke.
Für Projekte, die Reproduzierbarkeit erfordern, ermöglicht ein Seed-Wert das Fixieren spezifischer Ergebnisse. Wenn Sie ein Video generiert haben, das Ihnen gefällt, und es exakt nachstellen möchten – oder leichte Prompt-Anpassungen vornehmen, während Sie die visuelle Basis beibehalten –, sorgt der gleiche Seed für konsistente Ausgaben. Das ist unschätzbar für iterative kreative Workflows, in denen Sie ein Konzept schrittweise verfeinern.
Qualität und Kohärenz
Wan 2.7 stellt einen generationellen Sprung in der KI-Videoqualität dar. Die Dokumentation hebt drei Kernstärken hervor: verbesserte Bewegungsweichheit, sodass Charaktere und Objekte natürlich ohne Ruckeln oder unnatürliche Übergänge bewegen; überlegene Szenentreue, die sicherstellt, dass Umgebungen und Settings, die Sie beschreiben, genau und detailliert gerendert werden; und größere visuelle Kohärenz, damit Elemente in Ihrem Video ihr Aussehen und räumliche Beziehungen von Frame zu Frame beibehalten.
Inhaltsicherheit
Das Modell enthält ein integriertes Inhaltsmoderationssystem, das standardmäßig aktiviert ist und sowohl Ihre Eingaben als auch die generierten Ausgaben überprüft. Das hilft, sicherzustellen, dass Ihre Inhalte innerhalb angemessener Grenzen bleiben.
Praktische Hinweise
Bei Referenzbildern darf jede Datei bis zu 20 MB groß sein, Referenzvideos bis zu 100 MB pro Stück. Diese großzügigen Limits erlauben hochwertiges Quellenmaterial ohne starke Kompression. Beachten Sie, dass das Modell am besten funktioniert, wenn Ihr Textprompt die gewünschte Szene klar beschreibt und Ihre Referenzmaterialien saubere, gut beleuchtete Darstellungen der zu featured Subjekte bieten.
Ob Sie eine charaktergetriebene Erzählung aufbauen, stilisierten Social-Content generieren, kinematografische Sequenzen prototypen oder Motion-Design-Konzepte erkunden – Wan 2.7 Reference to Video bietet Ihnen ein mächtiges, flexibles Werkzeug, um Ihre kreative Vision in bewegte Bilder mit bemerkenswerter Konsistenz und Qualität umzusetzen.
A woman kneeling in darkness, illuminated by a warm, radiant beam of light emerging from her raised hand.
Beschreiben Sie Ihre Videoszene mit Bewegung, Kamerawinkeln und Stimmung
Modell erzeugt kinematische Bewegungen mit natürlicher Physik und Beleuchtung
Laden Sie Ihr produktionsreifes Video herunter und teilen Sie es
Wechseln Sie heute zur durch Reasoning gesteuerten Synthese

High-quality, fast video generation
2 Credits

Fast cinematic video with audio
0.1 Credits

Film-grade video with audio
0.1 Credits
![Kling Video v3 Text to Video [Standard]](/marketing-assets/_next/image?url=https%3A%2F%2Fv3b.fal.media%2Ffiles%2Fb%2F0a8cfc9f%2Fdei5OqFRB9HK8AgSHwk8f_9a5eea197b3045d1be55aedb0213f6f9.jpg&w=3840&q=75)
Cinematic text-to-video with audio
4.2 Credits

Smooth, coherent AI video generation
2 Credits

Fast, high-quality text-to-video
2.1 Credits

Cinematic video from references
10 Credits

Cinematic video from references
0.4 Credits

Fast balanced text-to-video generation
1.6 Credits