Open source models are crazy. Alibaba just dropped Wan 2.2 Animate, a new model that can animate any character based on a simple souce image. It handles facial expressions and body movements like no other model. 10 insane examples: (sound on)
WAN 2.2
阿里巴巴下一代视频生成模型,具备270亿参数和每步140亿活跃参数的专家混合架构,提升了视觉质量。在电影级视频生成方面实现突破性性能,改进了动作控制、生成速度和扩展了训练数据。
Wan 2.2 YouTube 视频
观看展示 Wan 2.2 强大 AI 视频生成和长视频能力的演示和教程
WAN 2.2 在 X 上的热门评价
看看大家在 X (Twitter) 上对 WAN 2.2 Animate 的评价
Wan 2.2 Animate is CRAZY and it actually excels at 3 things from my tests: 1. Lip syncing (so far the best open source I have seen, beating Runway Act2) 2. Consistent lighting & shadows with color tone replication when you swap a character 3. It keeps the replacement character
Wan 2.2 Animate Lip syncing Test. Definitely way better than Runway Act2 in my opinion. Takes about 8 minutes for a HD video to be processed at 720p vertical (reels style)
You've probably seen viral character swaps from Wan 2.2 Animate. But now you can swap the character AND background using a reference video + new image. I turned myself into a YouTuber in Paris. How it works 👇
New tool to swap characters in a video: Wan 2.2 Animate Spent a few hours testing it out this weekend and have some thoughts on strengths + weaknesses. It's particularly strong at videos like this where you need to replicate lip sync and body movement. Other tips ⬇️
Wan 2.2 Animate is actually Crazy!! You can replace characters from a simple source image. No need to first frame anymore. It handles facial expressions and body movements like no other model I have ever seen. It is open source and free to use, that's the crazy part!
pretty much the end for dancing influencers lol… wan 2.2 animate can not only copy crazy camera moves, but it literally mimics body moves and.. even facial expressions accurately like honestly… can you even tell which one’s the real video?
omg... it's over... Hollywood has officially been left behind you can swap out any actor from any film in one click using Higgsfield’s Wan Replace, it even works with intense camera motion now, anyone can achieve Hollywood level motion control using AI here’s how to do it:
Just tried Wan2.2-Animate... and HOLY SMOKES, it's PERFECT! 🤯 @Alibaba_Wan
What used to take hours in After Effects now takes just ONE prompt. Nano Banana, Seedream 4, Wan 2.2, Runway Aleph et al are pioneering instruction-based editing -- collapsing complex VFX pipelines into a single, implicit step. Here's everything you need to know in 10 mins:
什么是 WAN 2.2
阿里巴巴突破性的专家混合视频生成模型,具有革命性架构和电影级质量
WAN 2.2 代表了AI视频生成技术的质的飞跃,推出了突破性的专家混合(MoE)架构,拥有270亿总参数和每个去噪步骤140亿活跃参数。相比前代产品,训练图像增加了65.6%,训练视频增加了83.2%,WAN 2.2实现了前所未有的电影级质量、动作保真度和生成效率,为AI驱动的视频创作树立了新标准。
WAN 2.2 代表了AI视频生成技术的质的飞跃,推出了突破性的专家混合(MoE)架构,拥有270亿总参数和每个去噪步骤140亿活跃参数。相比前代产品,训练图像增加了65.6%,训练视频增加了83.2%,WAN 2.2实现了前所未有的电影级质量、动作保真度和生成效率,为AI驱动的视频创作树立了新标准。
什么是 WAN 2.2
阿里巴巴突破性的专家混合视频生成模型,具有革命性架构和电影级质量
WAN 2.2 的先进功能
探索使WAN 2.2成为最强大AI视频生成模型的尖端功能,具备专家混合架构和前所未有的电影级质量
专家混合架构
革命性的双专家系统,拥有270亿总参数和每步140亿活跃参数,利用专门的高噪声和低噪声专家实现最佳计算效率和卓越视频质量。
大规模扩展训练数据
相比WAN 2.1,使用了65.6%更多的图像和83.2%更多的视频进行训练,包含带有详细光照、构图和调色标签的美学数据,以实现电影级输出。
增强运动一致性
提供卓越的时间一致性,具有流畅的物体交互、复杂的身体动作和流体相机运动,准确模拟现实世界的物理和动力学。
多分辨率支持
支持480p和720p视频生成,可配置16:9、9:16、1:1、4:3和3:4等宽高比,满足多样化创意应用和平台需求。
灵活帧控制
生成65-257帧(最长5秒)的视频,帧率8-30 FPS,为各种创意需求提供对视频时长和时间动态的精确控制。
先进文本生成视频
通过增强的语言处理,将详细文本提示转换为高质量视频,对复杂描述、动作序列和场景构图具有卓越理解能力。
高端图像生成视频转换
使用140亿A14B模型将静态图像转换为动态视频,在保持视觉一致性的同时为静止图像添加真实运动和时间深度。
消费级GPU优化
在NVIDIA RTX 4090和类似消费级硬件上高效运行,使专业级视频生成对没有企业级设备的创作者变得可及。
高质量电影级输出
产生电影质量的视频,具有增强的视觉保真度、真实的光照、专业的调色和自然的运动模糊,可与传统视频制作相媲美。
智能提示词处理
先进的提示词扩展和安全检查功能通过复杂的语言理解确保最佳结果,同时保持内容适宜性和创意意图。
可召回任务系统
内置任务召回功能允许检索待处理或正在处理的视频生成,提供无缝的工作流连续性和高效的资源管理。
开源可访问性
在Apache 2.0许可下发布,包含完整的模型权重和推理代码,使研究人员和开发者能够基于该技术构建创新应用。
WAN 2.2 常见问题
查找关于WAN 2.2专家混合架构、功能和使用的最常见问题答案
如何使用 WAN 2.2 进行文本生成视频
掌握使用WAN 2.2先进的专家混合架构和电影级控制从文本提示创建专业质量视频的艺术
制作您的文本提示词
配置视频参数
生成和优化
如何使用 WAN 2.2 图片转视频
学习如何使用 WAN 2.2 的先进图片转视频生成功能,将静态图片转换为电影级视频
上传您的图片
编写动作描述
生成和下载
价格
选择适合您的计划。没有隐藏费用,没有意外。
年付账单,享受50%折扣