もう誰も信じられない・・・

 

GIZMODOの記事に、ディープフェイクを使った動画通話詐欺が中国で発生、被害額8500万円! てのがありました。

 

中国でディープフェイクを使った詐欺事件が発生。被害に遭った男性は、8500万円も奪われてしまったそうです。記事によると・・・

 

中国の福州市に住む男性は、先月、友人からビデオ通話を受けました。
友人は、「入札のために8500万円の補償金が必要だから振り込んでほしい」と言ったそうです。
男性は言われた通りに指定の口座に振り込み、友人に確認の電話をかけました。しかし、友人は「そんな電話はしていない」と言い、詐欺だったと判明したのです。

 

だそうです。中の人はディープフェイクによる詐欺よりもむしろ、友達から「8500万円振り込んで!ニヤリと言われて、振り込んでしまう富裕層にもびっくりしてしまいました。

 

ビデオ通話を受けて顔も声もまさにその人だったために振り込んでしまったのだと思いますが、このAI全盛の時代にはもうそんなディープフェイクは誰でもすぐに簡単に作れてしまう時代だということを認識しておきましょう。

 

では、実際にどうするのかを実例を上げてご紹介します。

 

まずはビデオ通話をするためには顔を対象の人にする必要がありますね。これはその対象となる人の写真だけあればどうにかなります。写真さえ手に入れば Xpression camera というサービスを利用すればスグにその人になりすますことが可能です。

 

ウェブサイトの紹介動画を見ていただければ分かりますが、写真だけあれば故オードリー・ヘップバーンに喋らせることも、ベートーヴェンに喋らせることも、猫に喋らせることも可能です。

 

これを使えば誰にでもスグになりすますことができます。

 

次に音声ですが、これも coefont というサービスを使えば他人の声を合成することが可能です。実際にcoefontのサービスでは多くの有名人の声で喋らせることも可能です。Coefontでは ひろゆき、Daigo 、成田悠輔 などの声を無料で利用できるようです。

 

 

これを利用した おしゃべりひろゆきメーカー というひろゆきに勝手なことを喋らせることができるサービスなんかもあります。

 

このようにディープフェイクは、今スグに誰でも簡単に作れる時代となっています。

 

知り合いから電話があって、声はその人ソックリだとしてもその声はcoefontで作った声かもしれませんよ。すぐに信じることはせずにアヤシイ内容であったらその人に電話して確認するなどの対応が求められる時代となっています。

 

皆様も十分にご注意くださいね。