ShortGeniusShortGenius
介绍 Wan 2.7 Reference to Video

Wan 2.7 Reference to Video

下一代视频创作

Character-driven video from references

Wan 2.7 Reference to Video 是一款最新一代的 AI 视频模型,它可以将您的参考图像、视频和文本提示转化为惊艳、连贯的视频内容。专为需要以一致性和电影品质将角色和场景带入生活的创作者设计,该模型擅长生成忠实保留您提供的主体外观的视频——无论是特定角色、物体,还是从您自己的视觉参考中抽取的风格化外观。

其核心解决了 AI 视频生成中最具挑战性的问题之一:跨帧和镜头保持视觉身份。通过上传角色和物体的参考图像或视频,您为模型提供了清晰的视觉锚点。结合描述性文本提示,Wan 2.7 即可生成比前代更平滑的运动、更高的场景保真度和更大的视觉连贯性的视频。结果是感觉有意且精炼的视频内容——而非随机或不一致。

适合谁使用?

Wan 2.7 Reference to Video 为广泛的创意专业人士打造。电影制作人和视频制作者可以使用它快速原型化场景、预览故事板,或生成具有一致角色的补充镜头。动画师和动态设计师可以利用参考图像在多个生成片段中保持角色外观。专注于社交媒体、音乐视频或品牌内容的创作者,可以仅用少量参考材料和书面描述生成风格化、引人注目的视频。概念艺术家和设计师可以探索静态艺术如何转化为动态,测试电影想法后再投入完整制作流程。

您可以创建什么

该模型生成高达 1080p 分辨率的视频,提供适合专业使用的清晰高清输出。您也可以选择 720p 以实现更快迭代或更小文件大小。视频时长可从 2 秒到 10 秒不等,便于生成从快速运动片段到更完整的场景。

一项突出特性是支持多种宽高比。您可以生成适合电影和 YouTube 风格内容的宽屏 16:9 视频、完美用于 TikTok 和 Instagram Reels 等社交平台的竖屏 9:16 视频、社交媒体帖子的方形 1:1 格式,或更传统或竖屏构图的 4:3 和 3:4 比例。这种灵活性意味着您可以为任何平台或创意情境定制输出,而无需裁剪或重新格式化。

参考驱动生成

该模型的独特之处在于其参考驱动方法。您可以上传一张或多张参考图像来定义视频中角色或物体的外观。需要两个不同角色在场景中互动?为每个主体提供单独的参考图像,模型即可处理多主体生成。您还可以提供参考视频,这有助于模型捕捉主体的外观和运动风格。这对于保持连续性极为强大——想象生成同一角色在不同环境下的多个片段,所有片段外观一致。

该模型还支持用于风格化转换的标签以及唇同步功能,为角色动画和对话驱动场景开启创意可能性。

创意控制

您的主要创意工具是文本提示,最长可达 5000 字符——为您描述复杂场景、氛围、相机运动和叙事细节提供充足空间。您还可以使用负面提示(最长 500 字符)来引导模型避开不良品质,如低分辨率、视觉伪影或您想避免的特定风格。

一项特别令人兴奋的功能是多镜头模式。启用后,模型会智能地将您的视频分割成多个镜头,而非生成单一连续镜头。这非常适合创建叙事序列或动态剪辑,让视频感觉更像专业剪辑的镜头。如果关闭,您将获得平滑、不间断的单镜头——完美用于建立镜头、角色揭示或流动运动片段。

对于需要可重复性的项目,种子值可锁定特定结果。如果您生成喜欢的视频并想精确重现——或在保持相同视觉基础的同时微调提示——使用相同种子可确保一致输出。这对于迭代创意工作流程至关重要,您可以逐步完善概念。

品质与连贯性

Wan 2.7 代表了 AI 视频品质的代际飞跃。文档强调三大核心优势:增强的运动平滑度,即角色和物体自然移动而无抖动或不自然过渡;卓越的场景保真度,确保您描述的环境和设置以准确和细节渲染;更大的视觉连贯性,使视频元素从帧到帧保持外观和空间关系。

内容安全

该模型内置默认启用的内容审核系统,对您的输入和生成输出进行筛选。这有助于确保您创建的内容保持在适当界限内。

实际注意事项

使用参考图像时,每个文件上限 20 MB,参考视频每个上限 100 MB。这些宽松限制意味着您可以提供高质量源材料而无需过度压缩。请记住,模型在文本提示清晰描述所需场景、参考材料提供干净、照明良好的主体描绘时效果最佳。

无论您是在构建角色驱动叙事、生成风格化社交内容、原型化电影序列,还是探索动态设计概念,Wan 2.7 Reference to Video 都为您提供强大、灵活的工具,将创意愿景转化为具有惊人一致性和品质的动态影像。

使用最先进的视频模型生成

A woman kneeling in darkness, illuminated by a warm, radiant beam of light emerging from her raised hand.

步骤 1

编写您的场景

描述您的视频场景,包括动作、相机角度和氛围

步骤 2

AI 生成

模型创建具有自然物理和光照的电影化动作

步骤 3

开始分享

下载并分享您的生产就绪视频

等待终于结束

使用 Wan 2.7 Reference to Video 体验完美

立即切换到推理引导合成

常见问题

您可以上传一张或多张参考图像来定义生成视频中角色或物体的外观。模型使用这些图像作为视觉锚点,确保您的主体在整个输出中外观一致。对于多角色场景,只需为每个主体提供单独的参考图像——模型支持多主体生成,因此每个角色都会保留其独特外观。您也可以提供参考视频(代替或补充图像),这有助于模型捕捉主体的外观和运动风格。