“自分の声”が悪用される?
「フェイクボイス」で振り込め詐欺
アメリカで年間15億円の被害??
イスラム組織「ハマス」が、イスラエルに襲撃した瞬間としてある映像をSNSに投稿しました。
映像では多くのパラグライダーが空から降りてきていますが、実は「フェイク動画」です
ロイター通信によると、エジプト・カイロで撮影されたものだといいます。
衝突が激しくなるにともなって、旧Twitterの「X」では「フェイク動画」が複数確認されているといいます。
✢日テレNEWS NNN お借りしました
人々をだますこうしたフェイク、実はどんどん巧妙になってきてるのー?
「自分の声が勝手に悪用され、犯罪に使われてしまうかも」という話
コワイ

今年4月、中国でこんな事件がありました。『福建省でIT企業を経営する男性のもとに友人からビデオ電話がかかってきました。
友人が言うには「入札に参加していて430万元(約8500万円)の保証金が必要なんだ。振り込んでくれないか」とのことでした。
男性は指定された口座にお金を振り込み、友人に「振り込んだよ」とメッセージを送りました。
すると、友人の返信は「?」…なんのこと? そんなお願いしてないと。。
ビデオ通話の相手は、顔も声もAIが作り出したフェイクだったらしく、男性は完全にだまされたそうです。』
「フェイク画像」はあるのは知ってるけど「フェイクボイス」というもの・・。
◇ニセの声 どう作る?
◇相次ぐ悪用 どう防ぐ?
■本当に似ている?
◇相次ぐ悪用 どう防ぐ?
■本当に似ている?
「フェイクボイス」わずか7秒ほどで生成


✢日テレNEWS NNN お借りしました
特別に協力していただいたのは、AI総合研究所の「NABLAS」です。普段は「フェイク動画」などを見つけて防ぐ取り組みを行っている企業ですが、どうやってフェイクが作られているのかお願いして見せてもらいました。
まずネットにアップされている「news every.」の動画から鈴江キャスターの声を見つけて、AIに学習させました。7秒ほどあれば十分だといいます。
次にAIにしゃべらせたい内容をパソコンのキーボードでシステムに打ち込むと、わずか10秒ほどで「今夜も『news zero』をご覧いただきありがとうございました。私の声をまねるなんてどういうことですか?」という「フェイクボイス」ができあがりました。

例えば振り込め詐欺。
次にAIにしゃべらせたい内容をパソコンのキーボードでシステムに打ち込むと、わずか10秒ほどで「今夜も『news zero』をご覧いただきありがとうございました。私の声をまねるなんてどういうことですか?」という「フェイクボイス」ができあがりました。
■「フェイクボイス」で本当にだませるのか? (日テレスタッフで実験)
次に別のやり方でも実験しました。
まず、取材した小野解説委員の声をネット上の動画からAIに学習させた上で、協力いただいたNABLASの滝創一朗さんが、小野解説委員の口調をまねてセリフを吹き込みます。
滝さんが小野解説委員に似た口調で
「調査報道班の小野です。折り入って相談したいことがあるんですけど」
というセリフを吹き込むと、即座に小野解説委員の声に変換されます。
そして、AIが生成した小野解説委員の「フェイクボイス」を使って、日本テレビのスタッフに電話をしてみました。
相手が電話に出たら“ニセの声”の再生ボタンを押します。
――結果は――
AI(小野解説委員のフェイクボイス)
「調査報道班の小野です」
電話に出たスタッフ
「お疲れさまです」
AI(小野解説委員のフェイクボイス)
「折り入って相談したいことがあるんですけど」
電話に出たスタッフ
「はい」
AI(小野解説委員のフェイクボイス)
「このあとそっちに行っていいですか」
電話に出たスタッフ
「はい大丈夫です! お待ちしています」
AI(小野解説委員のフェイクボイス)
「ではのちほど」
その後、電話に出たスタッフに“ニセの音声”だと種明かししました。
「調査報道班の小野です」
電話に出たスタッフ
「お疲れさまです」
AI(小野解説委員のフェイクボイス)
「折り入って相談したいことがあるんですけど」
電話に出たスタッフ
「はい」
AI(小野解説委員のフェイクボイス)
「このあとそっちに行っていいですか」
電話に出たスタッフ
「はい大丈夫です! お待ちしています」
AI(小野解説委員のフェイクボイス)
「ではのちほど」
その後、電話に出たスタッフに“ニセの音声”だと種明かししました。
電話に出たスタッフは小野解説委員と電話で話しているものだと見事にだまされていました。
これがAIの怖さでもあるのね、、、
■アメリカでは振り込め詐欺が多発
■アメリカでは振り込め詐欺が多発
娘の「フェイクボイス」で身代金の要求も

✢日テレNEWS NNN お借りしました
「相次ぐ悪用 どう防ぐ?」
YouTubeやTikTokなどにSNS上に自分や子どもの顔と声を投稿していると、それをもとに“ニセの声”を作られて悪用されかねません。
例えば振り込め詐欺。
アメリカでは身内や知人にそっくりな声で電話かかってきて、だまされてお金取られる被害がすでに多発していて、ワシントン・ポストによれば、被害の総額が年間15億円になるといいます
『アメリカアリゾナ州では、母親が電話に出たら、15才の娘そっくりの声で「ママ」と泣き叫ぶ声が聞こえ、直後に男が身代金を要求することが起きました。

『アメリカアリゾナ州では、母親が電話に出たら、15才の娘そっくりの声で「ママ」と泣き叫ぶ声が聞こえ、直後に男が身代金を要求することが起きました。
実際には、娘は誘拐されていないことがわかって事なきを得ましたが、これもAIのニセ物の声と見られています。』
■AIの早まる進化のスピード
■AIの早まる進化のスピード
1年~2年で自然に会話できるツールが実装されるかも
犯罪グループがフェイクを悪用しようとしていることもわかりました。
サイバーセキュリティーの会社「トレンドマイクロ」が見つけたのが、サイバー犯罪をする人が集まるネット空間に「『フェイク動画』の専門家求む」と書かれています

2~3年ほど前から「フェイク動画」を作るための情報交換などが行われているということです
トレンドマイクロ・広報担当の成田直翔さんは「サイバー犯罪者が『フェイク動画』を悪用したいというのは目に見えている」といいます。
実際に「フェイクボイス」の実験に協力してくれた「NABLAS」も、「この先1年ほどでも技術が進化すると、それがリスクにもなる」と話しています。
【NABLAS 鈴木都生取締役】
「進化するスピードが早まっているので、本当に1年~2年で自然に話せて、かつどういった環境でも簡単に使えるツール、そういったものが、実装されるのが予想される。

トレンドマイクロ・広報担当の成田直翔さんは「サイバー犯罪者が『フェイク動画』を悪用したいというのは目に見えている」といいます。
実際に「フェイクボイス」の実験に協力してくれた「NABLAS」も、「この先1年ほどでも技術が進化すると、それがリスクにもなる」と話しています。
【NABLAS 鈴木都生取締役】
「進化するスピードが早まっているので、本当に1年~2年で自然に話せて、かつどういった環境でも簡単に使えるツール、そういったものが、実装されるのが予想される。
人間の目や耳で見破ることがどんどん難しくなる」
また「フェイクを検出する技術もできてきているので、ぜひそういったものも活用してほしい」と話していました
また「フェイクを検出する技術もできてきているので、ぜひそういったものも活用してほしい」と話していました

最後に
私たち自身がだまされないためには、身近な人が「この言動ちょっとおかしいな」と思ったら、そこに気づいていくのが大事になるよね!
便利な世の中になっても怖さもあるね・・
誰もがターゲットになりえるこうした実態があることを知って、正しく身を守っていかないとね。
おしまい♪
長文読み頂きありがとう♡
頭の片隅に入れておいてね♪