2024年初め、世界各地で「本人が知らぬうちに犯罪に使われる」事件が相次いでいる。
それはもはや、SFの中の出来事ではない。AIが人の顔や声を完全に再現し、現実世界で詐欺や情報操作を行う時代が到来したのだ。
最も衝撃を与えたのは、香港で起きたディープフェイク詐欺事件である。
犯罪グループは、実在する企業幹部の映像と声をAIで複製し、ビデオ会議上で「本物」として社員に資金送金を指示。
結果、会社から数十億円が奪われた。
その会議に参加した社員の誰一人として「偽物」だと気づけなかったという。
顔も声も、動きさえも、完璧に本人だった。
こうした事件はすでに国境を越え、日本でも確認されつつある。
SNSでは、実在の人物の顔を流用した“偽アカウント”が急増。
「写真を無断使用され、見知らぬ詐欺広告に登場していた」
「就活の面接動画が、別人の“犯罪自白映像”に加工されて拡散された」
など、本人の意志と無関係に「存在」が切り取られ、犯罪の部品として使われる事例が出ている。
問題は、AIによる生成物が「誰の著作物でもない」点にある。
つまり、法的には“所有者不明の偽物”として扱われることが多く、現行法では明確に処罰できないグレーゾーンが存在する。
被害者が訴えても、「本人が写っているとは限らない」として削除請求が通らないケースさえある。
警察もまた、この新しい犯罪形態への対応に苦慮している。
従来の犯罪捜査は「犯行現場」「物証」「通信履歴」などの実体を追う構造だった。
しかしディープフェイク犯罪では、“犯人”も“被害者”もデジタル上にしか存在しない。
痕跡がクラウド上に分散しており、どこから手をつけるべきか判断が難しい。
この問題の本質は、「人間の信用がデータ化されてしまった」ことにある。
顔も声も身分も、AIによって模倣可能となった今、「本人である」という証明の根拠が急速に失われつつあるのだ。
つまり、かつて最も信頼された「顔の一致」が、もはや本人性を保証しない。
SNSや動画プラットフォームでは、すでに“自分が自分であることを証明する”
AI本人認証の導入が進められている。皮肉なことに、AIが生み出した問題を、AIによって解決しようとしている構図である。
AIは人の顔を使って犯罪を始めた。
だがそれは、AIが悪意を持ったからではない。
人間が「信頼」をデータに変換し、それを制御できなくなった結果である。
この先、顔や声といった“個人の象徴”が、どこまで他者に利用されるのか。
私たちは、もう一度問い直さねばならない。
「人間とは何をもって“本人”と呼べるのか」。