Open source models are crazy. Alibaba just dropped Wan 2.2 Animate, a new model that can animate any character based on a simple souce image. It handles facial expressions and body movements like no other model. 10 insane examples: (sound on)
无限 WAN 2.2 视频生成器 - 270亿参数MoE电影级AI模型
阿里巴巴下一代视频生成模型,具备270亿参数和每步140亿活跃参数的专家混合架构,提升了视觉质量。在电影级视频生成方面实现突破性性能,改进了动作控制、生成速度和扩展了训练数据。
Wan 2.2 YouTube 视频
观看展示 Wan 2.2 强大 AI 视频生成和长视频能力的演示和教程
WAN 2.2 在 X 上的热门评价
看看大家在 X (Twitter) 上对 WAN 2.2 Animate 的评价
Wan 2.2 Animate is CRAZY and it actually excels at 3 things from my tests: 1. Lip syncing (so far the best open source I have seen, beating Runway Act2) 2. Consistent lighting & shadows with color tone replication when you swap a character 3. It keeps the replacement character Show more
Wan 2.2 Animate Lip syncing Test. Definitely way better than Runway Act2 in my opinion. Takes about 8 minutes for a HD video to be processed at 720p vertical (reels style)
You've probably seen viral character swaps from Wan 2.2 Animate. But now you can swap the character AND background using a reference video + new image. I turned myself into a YouTuber in Paris. How it works 👇
New tool to swap characters in a video: Wan 2.2 Animate Spent a few hours testing it out this weekend and have some thoughts on strengths + weaknesses. It's particularly strong at videos like this where you need to replicate lip sync and body movement. Other tips ⬇️
Wan 2.2 Animate is actually Crazy!! You can replace characters from a simple source image. No need to first frame anymore. It handles facial expressions and body movements like no other model I have ever seen. It is open source and free to use, that's the crazy part!
pretty much the end for dancing influencers lol… wan 2.2 animate can not only copy crazy camera moves, but it literally mimics body moves and.. even facial expressions accurately like honestly… can you even tell which one’s the real video?
omg... it's over... Hollywood has officially been left behind you can swap out any actor from any film in one click using Higgsfield’s Wan Replace, it even works with intense camera motion now, anyone can achieve Hollywood level motion control using AI here’s how to do it:
Just tried Wan2.2-Animate... and HOLY SMOKES, it's PERFECT! 🤯 @Alibaba_Wan
What used to take hours in After Effects now takes just ONE prompt. Nano Banana, Seedream 4, Wan 2.2, Runway Aleph et al are pioneering instruction-based editing -- collapsing complex VFX pipelines into a single, implicit step. Here's everything you need to know in 10 mins: Show more
什么是 WAN 2.2
阿里巴巴突破性的专家混合视频生成模型,具有革命性架构和电影级质量
WAN 2.2 推出了突破性的专家混合(MoE)架构,拥有270亿总参数和每个去噪步骤140亿活跃参数,实现了前所未有的电影级质量。
什么是 WAN 2.2
阿里巴巴突破性的专家混合视频生成模型,具有革命性架构和电影级质量
WAN 2.2 推出了突破性的专家混合(MoE)架构,拥有270亿总参数和每个去噪步骤140亿活跃参数,实现了前所未有的电影级质量。
WAN 2.2 的先进功能
探索使WAN 2.2成为最强大AI视频生成模型的尖端功能,具备专家混合架构和前所未有的电影级质量
专家混合架构
革命性的双专家系统,拥有270亿总参数和每步140亿活跃参数,利用专门的高噪声和低噪声专家实现最佳计算效率和卓越视频质量。
大规模扩展训练数据
相比WAN 2.1,使用了65.6%更多的图像和83.2%更多的视频进行训练,包含带有详细光照、构图和调色标签的美学数据,以实现电影级输出。
增强运动一致性
提供卓越的时间一致性,具有流畅的物体交互、复杂的身体动作和流体相机运动,准确模拟现实世界的物理和动力学。
多解析度支援
支援480p和720p视频生成,可配置16:9、9:16、1:1、4:3和3:4等宽高比,满足多样化创意应用和平台需求。
灵活帧控制
生成65-257帧(最长5秒)的视频,帧率8-30 FPS,为各种创意需求提供对视频时长和时间动态的精确控制。
先进文本生成视频
通过增强的语言处理,将详细文本提示转换为高质量视频,对复杂描述、动作序列和场景构图具有卓越理解能力。
高端图像生成视频转换
使用140亿A14B模型将静态图像转换为动态视频,在保持视觉一致性的同时为静止图像添加真实运动和时间深度。
消费级GPU优化
在NVIDIA RTX 4090和类似消费级硬體上高效运行,使专业级视频生成对没有企业级设备的创作者变得可及。
高质量电影级输出
产生电影质量的视频,具有增强的视觉保真度、真实的光照、专业的调色和自然的运动模糊,可与传统视频制作相媲美。
智慧提示词处理
先进的提示词扩展和安全检查功能通过复杂的语言理解确保最佳结果,同时保持内容适宜性和创意意图。
可召回任务系统
内置任务召回功能允许检索待处理或正在处理的视频生成,提供无缝的工作流连续性和高效的资源管理。
开源可访问性
在Apache 2.0许可下发布,包含完整的模型权重和推理代码,使研究人员和开发者能够基于该技术构建创新应用。
如何使用 WAN 2.2 进行文本生成视频
掌握使用WAN 2.2先进的专家混合架构和电影级控制从文本提示创建专业质量视频的艺术
使用WAN 2.2的提示词公式编写详细的英文提示词。使用基础公式(主体+场景+动作)制作简单视频,或使用高级公式(主体描述+场景描述+动作描述+美学控制+风格化)获得专业效果。包含具体的电影术语,如相机角度、光照条件和视觉风格。
如何使用 WAN 2.2 图片转视频
学习如何使用 WAN 2.2 的先进图片转视频生成功能,将静态图片转换为电影级视频
上传您想要制作动画的高质量图片(JPEG/PNG)。图片应具有清晰的主体和良好的构图以获得最佳效果。