音声合成できちゃうからね・・・

 

GIGAZINEの記事に、 「オレオレ詐欺」にAI製クローン音声を用いる事例が急増、被害額は年間15億円近くに てのがありました。

 

知り合いなどを装って金銭をだまし取る「オレオレ詐欺」で、AI技術を用いて作った音声が利用されるケースが出てきていることが報告されているそうです。記事によると・・・

 

カナダ・サスカチュワン州レジーナに住むルース・カードさんの場合、孫を名乗る男から「財布も携帯電話もなくて刑務所に入れられている、保釈金が必要だ」という電話があったとのこと。間違いなく孫の声だと思ったカードさんは、できる限りのことをしなければいけないと思い、銀行で1日の限度額である3000カナダドル(約30万円)を引き出し、さらに別の支店に行ってお金を下ろそうとしました。しかし、カードさんの不審な行動に気付いた支店長が行動を阻止。「作られた声で電話をかけてくるケースがある」と説明したことで、カードさんははじめてだまされていることに気付いたそうです。
 

 

だそうです。本ブログでもAIに関するエントリーは増えていますが、それとともにAIの間違った利用方法も増えてきています。いわゆる ”ディープフェイク” と呼ばれている利用方法などはその典型でしょう。

 

以前の本ブログの ヨサゲなもの Vol375 写真がリアルタイムにしゃべるアプリ xpression camera とのエントリーでご紹介した xpression camera を使えば、簡単に自分のクローンを使ってウェブ会議などに参加できることをお伝えしました。

 

今回はこれの音声版といったところでしょうか?他人の音声をAIにより学習させてクローン音声を作成し、その音声で電話を掛ければその人が喋っているように聞こえます。

 

SNSなどで顔出しで喋っている方であれば音声サンプルを入手することは容易ですし、同僚や友達などであればスマホのボイスレコーダーでも音声サンプルを入手することは可能です。

 

アメリカでもこれだけの被害があるわけですから、今後日本でもこういった被害が拡大することが予想されます。いや、既に被害が出ているかも知れません。

 

オレオレ詐欺への対策はもちろんのこと、声が同じだからといって闇雲に信じるのではなく必ずこちらから掛け直して本人かどうかを確認するなどの対応が必要でしょう。

 

それと、SNSなどに顔出しで動画などを出すことへのデメリットなども十分に認識しておきたいところです。

 

今後、こういったAIを利用した犯罪は増加することが予想されますのでくれぐれもご注意下さい。