詳細はリンク先でどうぞ。

 

動画生成AIでは初であろう音声対応が売りになっていまして、

口の動きに合わせて喋らせたり歌わせる事ができるみたい。

ギターなどを弾く動画も作れるのだそう。

この点はGoogleのGemini2.5Proより上かな。

 

■WAN2.5とは?

 

 

動画生成AIのWAN2.22.5へとバージョンアップされたみたいで、

かなりの改良が施されているみたいです。

  • オーディオビジュアル同期: 高忠実度の音声、ASMR、エフェクト、音楽。中国語、英語、方言をサポートします。

  • 10 秒のビデオ: より充実したストーリーテリングのために 2 倍の長さになっています。

  • 指示に従う: より自然な言語、カメラの動き、構造化されたプロンプト。

  • ビデオ品質: よりダイナミック、安定、映画のような画質。最大 1080P 24fps。

  • ID 保存: 画像とビデオ間の一貫性が強化されます。

  • オーディオ調整: プロンプトまたはキーフレームによる入力としてオーディオを使用します。

 

※以上は上記サイトの説明を機械翻訳しています。

 

 

■ComfyUIでは試せない…?

 

原因はよく分かりませんが、

うちのComfyUIにはWAN2.5(Preview)が表示されず、

少し検索をかけてみたのですが、

究明に至りそうな情報は見つからず。

 

Desktop版なら表示されているのかな?

でも今更Desktop版にするのも嫌だし…。

※中国ソフト(EXEファイル)はPCにインストールしたくない…。

 

ひょっとしたら2.5からは有料であり、

WANへの課金(クレカ登録?)が必要なのかも?

 

お試しはWebサイト上でできるらしいです。

https://wan.video/

但し、いちいち会員登録しないといけない…。

 

中国サイトには怖くて会員登録できません。

日本人には犯罪をしても良いと思ってる

お国柄ですからね…。

 

 

 

私がComfyUI+WAN2.2で生成した動画はこちら。

残念な仕上がりになっていますが!(苦笑)

 

みろかありさんの花の妖精キャラを動かしたもの。

※みろかありさんにお礼を申し上げます。

 

記事の最後の方にアカイトリノムスメとユーバーレーベンの動画。

 

WAN2.2では画像から動画を作る場合に、

画像を解析してキャラを3Dモデル化し、

モーションライブラリで動かすといった事を

やっているみたい。

 

この解析がまだ力不足なので、

思った様な動きが出来なかったり、

キャラが崩壊したりします。

 

上記のはまだ良く出来た方ですね。

 

 

●おまけ

 

今回はWAN2.2-14Bの

 「開始画像と終了画像を繋ぐ」

機能のテストをしてみました。

 

ソダシのいつものVM勝利絵を弄って

開始と終了の画像を作ります。

 

▽開始画像

 

▽終了画像

 

この2枚だけでComfyUI+WAN2.2-14Bで中割を作らせます。

 

▽出力された動画

 

 

あまり開始画像と終了画像に差がないので

大した動きはありませんが、

思った通りの結果は得られています。

キャラ崩れは無いですし良好です。

 

 

●おまけ2

 

アニメ・ウマ娘S3よりキタサンブラックの走りを参考に

ソダシを走らせてみました。

 

 

凄いよね…(汗)

 

 

※追記:Gemini2.5Proについて…。

 

Gemini2.5FlashImage(nanoBanana)の方はいつの間にか

約2.8万ほど残っていた筈の無料トークンが消滅…(謎)

初ログインした日だけ有効なトークンだったの?

イミフだよ…。

 

そしてProの方も月3,000円のサブスク(制限あり)が消失。

代わりにこんな風に…。

 

 

は???

 

1回で$11.25って何!?

約1,670円も取るの!?

 

しかも20万トークン使い切ったら

次からは1回で約2,600円なの????

 

誰か説明して下さい…。

もうワケ分からん…。

 

 

●おまけ2

 

ソダシを走らせた動画をブラッシュアップして

Youtubeに投稿しました。

 

※GIFだと2MB超えるのでやめました。

 

3秒くらいの短い動画ですので

お気楽にどうぞ。

 

かなり良くなったと思います!

 

 

-AR