ShortGeniusShortGenius
Introducerer Wan 2.7 Reference to Video

Wan 2.7 Reference to Video

Neste generasjons videoproduksjon

Character-driven video from references

Wan 2.7 Reference to Video er en nyeste-generasjons AI-videomodell som forvandler dine referansebilder, videoer og tekstprompter til fantastisk, sammenhengende videoinnhold. Designet for skapere som trenger å bringe karakterer og scener til live med konsistens og kinematisk kvalitet, utmerker denne modellen seg i å generere videoer som trofast bevarer utseendet til subjektene du oppgir – enten det er en spesifikk karakter, et objekt eller til og med et stilisert utseende hentet fra dine egne visuelle referanser.

Kjernen i modellen løser et av de mest krevende problemene i AI-videogenerering: å opprettholde visuell identitet på tvers av rammer og scener. Ved å laste opp referansebilder eller videoer av karakterene og objektene dine, gir du modellen et klart visuelt anker. Kombiner det med en beskrivende tekstprompt, og Wan 2.7 produserer videoer med forbedret bevegelsesmykhet, overlegen scenetrofasthet og større visuell sammenheng enn tidligere generasjoner. Resultatet er videoinnhold som føles bevisst og polert – ikke tilfeldig eller inkonsekvent.

Hvem er dette for?

Wan 2.7 Reference to Video er bygget for et bredt spekter av kreative profesjonelle. Filmmakere og videoprodusenter kan bruke det til å raskt prototype scener, forhåndsvise storyboards eller generere supplerende opptak med konsistente karakterer. Animatører og motiondesignere kan utnytte referansebilder for å opprettholde en karakters utseende på tvers av flere genererte klipp. Innholdsskapere som jobber med sosiale medier, musikkvideoer eller branded innhold kan produsere stilisert, iøynefallende video fra bare noen få referansematerialer og en skriftlig beskrivelse. Konseptkunstnere og designere kan utforske hvordan deres stillestående kunstverk kan oversettes til bevegelse, og teste kinematiske ideer før de forplikter seg til en full produksjonslinje.

Hva kan du lage?

Modellen genererer video opp til 1080p-oppløsning, som gir deg skarpt, høykvalitetsutdata egnet for profesjonell bruk. Du kan også velge 720p hvis du foretrekker raskere iterasjon eller mindre filstørrelser. Videoer kan variere fra 2 til 10 sekunder i lengde, noe som gjør det enkelt å generere alt fra et raskt bevegelsesutdrag til en mer utviklet scene.

En av de fremtredende funksjonene er støtte for flere aspektforhold. Du kan generere bredskjerm 16:9-videoer ideelle for kinematisk og YouTube-stil innhold, vertikale 9:16-videoer perfekte for sosiale plattformer som TikTok og Instagram Reels, firkantede 1:1-formater for sosiale medieinnlegg, eller 4:3- og 3:4-forhold for mer tradisjonelle eller portrettorienterte komposisjoner. Denne fleksibiliteten betyr at du kan tilpasse utdataene dine til enhver plattform eller kreativ kontekst uten beskjæring eller omformatering.

Referansebasert generering

Det som skiller denne modellen ut, er dens referansebaserte tilnærming. Du kan laste opp ett eller flere referansebilder for å definere utseendet til karakterer eller objekter i videoen din. Trenger du to distinkte karakterer som interagerer i en scene? Oppgi separate referansebilder for hver, og modellen håndterer multisubjektgenerering. Du kan også levere referansevideoer, som informerer både utseende og bevegelsesstil for subjektene dine. Dette er utrolig kraftfullt for å opprettholde kontinuitet – forestill deg å generere flere klipp av samme karakter i forskjellige omgivelser, alle med konsistent utseende.

Modellen støtter også tags for stilisert transformasjon og leppe-synkroniseringsfunksjoner, som åpner opp kreative muligheter for karakteranimasjon og dialogdrevne scener.

Kreative kontroller

Ditt primære kreative verktøy er tekstprompten, som kan være opptil 5000 tegn lang – noe som gir deg rikelig med plass til å beskrive komplekse scener, stemninger, kamerabevegelser og narrative detaljer. Du kan også bruke en negativ prompt (opptil 500 tegn) for å styre modellen bort fra uønskede kvaliteter, som lav oppløsning, visuelle artefakter eller spesifikke stiler du vil unngå.

En særlig spennende funksjon er multi-shot-modus. Når den er aktivert, segmenterer modellen intelligent videoen din i flere scener i stedet for å produsere et enkelt kontinuerlig take. Dette er ideelt for å skape narrative sekvenser eller dynamiske klipp som føles mer som profesjonelt kuttet opptak. Når den er deaktivert, får du et jevnt, uavbrutt enkelt shot – perfekt for etableringsshots, karakteravsløringer eller flytende bevegelsesstykker.

For prosjekter som krever reproduserbarhet, lar en seed-verdi deg låse inn spesifikke resultater. Hvis du genererer en video du elsker og vil gjenskape den nøyaktig – eller gjøre små justeringer i prompten mens du beholder samme visuelle grunnlag – sikrer bruk av samme seed konsistent utdata. Dette er uvurderlig for iterative kreative arbeidsflyter der du raffinerer et konsept trinn for trinn.

Kvalitet og sammenheng

Wan 2.7 representerer et generasjonshopp i AI-videokvalitet. Dokumentasjonen fremhever tre kjerne styrker: forbedret bevegelsesmykhet, som betyr at karakterer og objekter beveger seg naturlig uten risting eller unaturlige overganger; overlegen scenetrofasthet, som sikrer at omgivelsene og settingene du beskriver gjengis med nøyaktighet og detalj; og større visuell sammenheng, slik at elementer i videoen din opprettholder utseende og romlige relasjoner fra ramme til ramme.

Innholdssikkerhet

Modellen inkluderer et innebygd innholdsmodereringssystem som er aktivert som standard, og som screener både inndataene dine og det genererte utdata. Dette bidrar til å sikre at innholdet du lager holder seg innenfor passende grenser.

Praktiske hensyn

Når du jobber med referansebilder, kan hver fil være opptil 20 MB, mens referansevideoer kan være opptil 100 MB hver. Disse generøse limitene betyr at du kan levere høykvalitets kilde materialer uten tung komprimering. Husk at modellen fungerer best når tekstprompten din tydelig beskriver scenen du vil ha, og referansematerialene dine gir rene, godt opplyste fremstillinger av subjektene du vil fremheve.

Enten du bygger en karakterdrevet narrativ, genererer stilisert sosialt innhold, prototyper kinematiske sekvenser eller utforsker motiondesign-konsepter, gir Wan 2.7 Reference to Video deg et kraftfullt, fleksibelt verktøy for å forvandle din kreative visjon til bevegelige bilder med bemerkelsesverdig konsistens og kvalitet.

Generer med den mest avanserte videomodellen

A woman kneeling in darkness, illuminated by a warm, radiant beam of light emerging from her raised hand.

Trinn 1

Skriv scenariet ditt

Beskriv videoscenen din med bevegelse, kameravinkler og stemning

Trinn 2

AI genererer

Modellen lager filmatisk bevegelse med naturlig fysikk og lys

Trinn 3

Begynn å dele

Last ned og del din produksjonsklare video

Ventetiden er endelig over

Opplev perfeksjon med Wan 2.7 Reference to Video

Bytt til resonneringsstyrt syntese i dag

Ofte stilte spørsmål

Du kan laste opp ett eller flere referansebilder som definerer utseendet til karakterer eller objekter i den genererte videoen din. Modellen bruker disse bildene som visuelle ankere og sikrer at subjektene dine ser konsistente ut gjennom hele utdataen. For scener med flere karakterer, oppgi bare separate referansebilder for hvert subjekt – modellen støtter multisubjektgenerering, så hver karakter beholder sitt distinkte utseende. Du kan også levere referansevideoer i stedet for (eller i tillegg til) bilder, noe som hjelper modellen å fange både utseende og bevegelsesstil for subjektene dine.