詳細はリンク先でどうぞ。
動画生成AIでは初であろう音声対応が売りになっていまして、
口の動きに合わせて喋らせたり歌わせる事ができるみたい。
ギターなどを弾く動画も作れるのだそう。
この点はGoogleのGemini2.5Proより上かな。
*
■WAN2.5とは?
動画生成AIのWAN2.2が2.5へとバージョンアップされたみたいで、
かなりの改良が施されているみたいです。
オーディオビジュアル同期: 高忠実度の音声、ASMR、エフェクト、音楽。中国語、英語、方言をサポートします。
10 秒のビデオ: より充実したストーリーテリングのために 2 倍の長さになっています。
指示に従う: より自然な言語、カメラの動き、構造化されたプロンプト。
ビデオ品質: よりダイナミック、安定、映画のような画質。最大 1080P 24fps。
ID 保存: 画像とビデオ間の一貫性が強化されます。
オーディオ調整: プロンプトまたはキーフレームによる入力としてオーディオを使用します。
※以上は上記サイトの説明を機械翻訳しています。
*
■ComfyUIでは試せない…?
原因はよく分かりませんが、
うちのComfyUIにはWAN2.5(Preview)が表示されず、
少し検索をかけてみたのですが、
究明に至りそうな情報は見つからず。
Desktop版なら表示されているのかな?
でも今更Desktop版にするのも嫌だし…。
※中国ソフト(EXEファイル)はPCにインストールしたくない…。
ひょっとしたら2.5からは有料であり、
WANへの課金(クレカ登録?)が必要なのかも?
お試しはWebサイト上でできるらしいです。
但し、いちいち会員登録しないといけない…。
中国サイトには怖くて会員登録できません。
日本人には犯罪をしても良いと思ってる
お国柄ですからね…。
*
■
私がComfyUI+WAN2.2で生成した動画はこちら。
残念な仕上がりになっていますが!(苦笑)
みろかありさんの花の妖精キャラを動かしたもの。
※みろかありさんにお礼を申し上げます。
記事の最後の方にアカイトリノムスメとユーバーレーベンの動画。
WAN2.2では画像から動画を作る場合に、
画像を解析してキャラを3Dモデル化し、
モーションライブラリで動かすといった事を
やっているみたい。
この解析がまだ力不足なので、
思った様な動きが出来なかったり、
キャラが崩壊したりします。
上記のはまだ良く出来た方ですね。
●おまけ
今回はWAN2.2-14Bの
「開始画像と終了画像を繋ぐ」
機能のテストをしてみました。
ソダシのいつものVM勝利絵を弄って
開始と終了の画像を作ります。
▽開始画像
▽終了画像
この2枚だけでComfyUI+WAN2.2-14Bで中割を作らせます。
▽出力された動画
あまり開始画像と終了画像に差がないので
大した動きはありませんが、
思った通りの結果は得られています。
キャラ崩れは無いですし良好です。
●おまけ2
アニメ・ウマ娘S3よりキタサンブラックの走りを参考に
ソダシを走らせてみました。
凄いよね…(汗)
※追記:Gemini2.5Proについて…。
Gemini2.5FlashImage(nanoBanana)の方はいつの間にか
約2.8万ほど残っていた筈の無料トークンが消滅…(謎)
初ログインした日だけ有効なトークンだったの?
イミフだよ…。
そしてProの方も月3,000円のサブスク(制限あり)が消失。
代わりにこんな風に…。
は???
1回で$11.25って何!?
約1,670円も取るの!?
しかも20万トークン使い切ったら
次からは1回で約2,600円なの????
誰か説明して下さい…。
もうワケ分からん…。
●おまけ2
ソダシを走らせた動画をブラッシュアップして
Youtubeに投稿しました。
※GIFだと2MB超えるのでやめました。
3秒くらいの短い動画ですので
お気楽にどうぞ。
かなり良くなったと思います!
-AR









