Open source models are crazy. Alibaba just dropped Wan 2.2 Animate, a new model that can animate any character based on a simple souce image. It handles facial expressions and body movements like no other model. 10 insane examples: (sound on)
WAN 2.2
阿里巴巴下一代影片生成模型,具備270億參數和每步140億活躍參數的專家混合架構,提升了視覺質量。在電影級影片生成方面實現突破性性能,改進了動作控制、生成速度和擴展了訓練資料。
Wan 2.2 YouTube 影片
觀看展示 Wan 2.2 強大 AI 影片生成和長影片能力的演示和教學
WAN 2.2 在 X 上的熱門評價
看看大家在 X (Twitter) 上對 WAN 2.2 Animate 的評價
Wan 2.2 Animate is CRAZY and it actually excels at 3 things from my tests: 1. Lip syncing (so far the best open source I have seen, beating Runway Act2) 2. Consistent lighting & shadows with color tone replication when you swap a character 3. It keeps the replacement character Show more
Wan 2.2 Animate Lip syncing Test. Definitely way better than Runway Act2 in my opinion. Takes about 8 minutes for a HD video to be processed at 720p vertical (reels style)
You've probably seen viral character swaps from Wan 2.2 Animate. But now you can swap the character AND background using a reference video + new image. I turned myself into a YouTuber in Paris. How it works 👇
New tool to swap characters in a video: Wan 2.2 Animate Spent a few hours testing it out this weekend and have some thoughts on strengths + weaknesses. It's particularly strong at videos like this where you need to replicate lip sync and body movement. Other tips ⬇️
Wan 2.2 Animate is actually Crazy!! You can replace characters from a simple source image. No need to first frame anymore. It handles facial expressions and body movements like no other model I have ever seen. It is open source and free to use, that's the crazy part!
pretty much the end for dancing influencers lol… wan 2.2 animate can not only copy crazy camera moves, but it literally mimics body moves and.. even facial expressions accurately like honestly… can you even tell which one’s the real video?
omg... it's over... Hollywood has officially been left behind you can swap out any actor from any film in one click using Higgsfield’s Wan Replace, it even works with intense camera motion now, anyone can achieve Hollywood level motion control using AI here’s how to do it:
Just tried Wan2.2-Animate... and HOLY SMOKES, it's PERFECT! 🤯 @Alibaba_Wan
What used to take hours in After Effects now takes just ONE prompt. Nano Banana, Seedream 4, Wan 2.2, Runway Aleph et al are pioneering instruction-based editing -- collapsing complex VFX pipelines into a single, implicit step. Here's everything you need to know in 10 mins: Show more
什麼是 WAN 2.2
阿里巴巴突破性的專家混合影片生成模型,具有革命性架構與電影級質量
WAN 2.2 推出了突破性的專家混合(MoE)架構,擁有270億總參數與每個去噪步驟140億活躍參數,實現了前所未有的電影級質量。
什麼是 WAN 2.2
阿里巴巴突破性的專家混合影片生成模型,具有革命性架構與電影級質量
WAN 2.2 推出了突破性的專家混合(MoE)架構,擁有270億總參數與每個去噪步驟140億活躍參數,實現了前所未有的電影級質量。
WAN 2.2 的先進功能
探索使WAN 2.2成為最強大AI影片生成模型的尖端功能,具備專家混合架構同前所未有的電影級質量
專家混合架構
革命性的雙專家系統,擁有270億總參數同每步140億活躍參數,利用專門的高噪聲同低噪聲專家實現最佳計算效率同卓越影片質量。
大規模擴展訓練資料
相比WAN 2.1,使用了65.6%更多的影像同83.2%更多的影片進行訓練,包含帶有詳細光照、構圖同調色標籤的美學資料,以實現電影級輸出。
增強運動一致性
提供卓越的時間一致性,具有流暢的物體交互、複雜的身體動作同流體相機運動,準確模擬現實世界的物理同動力學。
多解析度支援
支援480p同720p影片生成,可配置16:9、9:16、1:1、4:3同3:4等寬高比,滿足多樣化創意應用同平台需求。
靈活幀控制
生成65-257幀(最長5秒)的影片,幀率8-30 FPS,為各種創意需求提供對影片時長同時間動態的精確控制。
先進文本生成影片
通過增強的語言處理,將詳細文本提示轉換為高質量影片,對複雜描述、動作序列同場景構圖具有卓越理解能力。
高端影像生成影片轉換
使用140億A14B模型將靜態影像轉換為動態影片,在保持視覺一致性的同時為靜止影像添加真實運動同時間深度。
消費級GPU最佳化
在NVIDIA RTX 4090同類似消費級硬體上高效運行,使專業級影片生成對沒有企業級設備的創作者變得可及。
高質量電影級輸出
產生電影質量的影片,具有增強的視覺保真度、真實的光照、專業的調色同自然的運動模糊,可與傳統影片製作相媲美。
智慧提示詞處理
先進的提示詞擴展同安全檢查功能通過複雜的語言理解確保最佳結果,同時保持內容適宜性同創意意圖。
可召回任務系統
內置任務召回功能允許檢索待處理或正在處理的影片生成,提供無縫的工作流連續性同高效的資源管理。
開源可訪問性
在Apache 2.0許可下發布,包含完整的模型權重同推理代碼,使研究人員同開發者能夠基於該技術構建創新應用。
如何使用 WAN 2.2 進行文本生成影片
掌握使用WAN 2.2先進的專家混合架構和電影級控制從文本提示創建專業質量影片的藝術
製作您的文本提示詞
配置影片參數
生成和最佳化
如何使用 WAN 2.2 圖片轉影片
學習如何使用 WAN 2.2 的先進圖片轉影片生成功能,將靜態圖片轉換為電影級影片