映像生成AIは2025年に入り、再び大きな転換点を迎えています。その背景にあるのが、Alibaba 系の研究チームが開発を進めてきた WAN シリーズです。これまでも高解像度かつ高品質な動画生成で注目を集めてきましたが、今回発表された 「WAN2.5」 は、単なる映像生成の枠を超え「マルチモーダル」設計を取り入れたことが特徴です。
具体的には、Higgsfield.ai の WAN Video 解説ページや、Alibaba 研究チームの公式発信によって、以下の点が明らかになっています。
1080p クラスの高解像度動画生成
音声と同期したリップシンク(口パク)の実現
長尺動画の生成への対応強化
これらの進化によって、WAN2.5 はクリエイティブ制作の現場に新しい可能性を切り開きつつあります。本記事では、WAN2.2 から WAN2.5 への進化の流れをたどりながら、その特徴と活用の方向性を探っていきます。
WAN2.2 から WAN2.5 への進化
WAN シリーズは短期間のうちに大きな進化を遂げています。特に WAN2.2 と WAN2.5 (通称:WAN Video) の違いは、単なるバージョンアップにとどまらず、「映像生成」から「映像+音声を統合したマルチモーダル生成」への飛躍を示しています。
WAN2.2 は、テキストから動画を生成する Text-to-Video、画像を入力して動きをつける Image-to-Video、さらにキャラクターを置き換えて動かす Animate モジュール といった複数の機能を備えた基盤モデル群として登場しました。つまり「動画をつくるための柔軟な仕組み」が整ったのが WAN2.2 の段階です。
一方で WAN2.5 は、その土台の上に「音声」という新たな軸を組み込みました。画像やテキストだけでなく 音声を入力に加え、リップシンクを伴う 1080p 動画を生成できる という点で、クリエイティブの幅が大きく広がっています。
WAN2.2 と WAN2.5 の比較表
| 項目 | WAN2.2(基盤モデル群含む) | WAN2.5 (WAN Video) |
|---|---|---|
| 公開時期 | 2025年初頭(WAN2.2 モデル+Animate 公開) | 2025年秋 |
| 主機能 | テキスト⇄動画、画像→動画生成、キャラクター置換やアニメーション | 映像と音声を融合したマルチモーダル動画生成 |
| 入力 | テキスト・画像(動画拡張も可能) | 画像+テキスト+音声 |
| 出力 | 動画(アニメーション、置換機能を含む) | 1080p 動画+Lip-sync |
| 音声対応 | なし | 音声同期可能 |
| 提供形態 | モデル重み公開・ComfyUI 統合など | Webサービス型(Higgsfield.ai) |
この表からも明らかなように、WAN2.2 では「映像を作る」こと自体が革新でしたが、WAN2.5 では「映像と音声を同時に扱える」ことで、より人間的で自然な表現が可能になっています。
特に音声同期(Lip-sync)に対応したことは、広告や教育コンテンツ、アバター制作などの実用領域を一気に広げる要素となっています。
WAN2.5 の最大の特徴:映像と音声の統合
WAN2.5 の革新性を端的に表すなら、「音声との同期」です。
従来の動画生成AIは、リアルな映像を作れても、キャラクターの口の動きと音声がずれてしまうケースが多々ありました。しかし WAN2.5 では、テキストや音声データを入力することで リップシンクを自然に実現 できるようになっています。
ポイント
セリフやナレーションを入力 → 自動で口の動きと同期
歌唱データと組み合わせ → MV 的な演出も可能
多言語対応も視野に入れて開発
これにより、広告、教育、エンタメといった幅広い分野での活用が見込まれています。
技術的なアプローチ
少し専門的な視点から、WAN2.5 の中身を覗いてみましょう。
マルチモーダルアーキテクチャ
映像と音声の両方を同時に処理する設計
テキスト → 音声 → 動画 の一貫したパイプラインを構築
高精度な時間制御
動画のフレームと音声波形をマッピング
これにより「口パクのズレ」が減少
長尺生成への最適化
WAN2.2 では30秒程度が目安だったが、WAN2.5 では1分以上の生成も安定化
メモ
技術資料の一部では「Transformer ベースのフレーム予測」と「拡散モデルの強化版」が組み合わされているとされ、Stable Diffusion 系の進化をさらに発展させたものと考えられます。
利用できるプラットフォーム
WAN2.5 の提供形態は、現時点ではローカル導入よりも クラウドベース が中心とされています。
Higgsfield.ai 経由でのデモ提供
Alibaba 系サービスでの利用拡大が検討中
Hugging Face での公式リリースは未確認
クラウドを通じた利用であれば、環境構築不要で誰でも試せるのは大きな利点です。
WAN2.5 の活用分野
ここでは、想定されるユースケースをいくつか紹介します。
教育コンテンツ
講師の声をAIに読み込ませ、動画教材を自動生成。
広告・プロモーション
商品説明をそのままキャラクター動画化し、SNS配信用の映像を短時間で制作。
エンタメ・VTuber
生配信や録画映像に音声を加え、より自然なキャラクター表現が可能に。
映画・アニメ制作の補助
絵コンテから仮映像を生成し、制作の効率を飛躍的に改善。
このように、WAN2.5 は「人の手による作業を補助するツール」として現場に浸透していくと予想されます。
まとめ:WAN2.5 が開く未来
WAN2.5 は、動画生成AIにおいて 「静から動」そして「動から声」へ と進化した象徴的な存在です。
映像と音声の融合は、今後のマルチモーダルAI開発の方向性を示しており、教育・広告・エンタメなど幅広い分野でインパクトを与えることは間違いありません。
現時点ではクラウドでの利用が中心ですが、オープンモデルとして研究者や開発者が触れられる形に展開されれば、さらに広がりを見せるでしょう。
今後、WAN2.5 の動向を追うことは、生成AIの未来を理解するうえで欠かせないポイントになりそうです。
こちらもCHECK
-
-
WAN 2.2 Animateとは?最新の動画生成AIの特徴・使い方・活用事例を徹底解説
続きを見る