他人の顔写真をアップすれば自動的にAVにしてくれるサイトが間もなく公開されます。
公開に先立ちX(旧Twitter)に公式アカウントができています。
フォロワー4万人という数字は真偽不明ですが、フェイクポルノを作るサイトは人気ですから利用者は集まるでしょう。
https://twitter.com/FaceSwitch_1
従来のリベンジポルノとは違い、顔写真があれば誰でもAIを利用してAVにされてしまいます。
それを利用したセクストーションも予想できます。
写真を公開しなければ良い、とよくいわれますが、現実には生成AIのデータセットには企業や団体の公式サイトの写真、無断転載や他人がアップした写真、盗撮も入っています。卒業アルバムも専門学校の卒業式の写真も、病院や介護施設で撮影された写真もあります。病院で撮影された妊婦の写真、胎児のエコー画像まで入っています。
様々な職場で撮影された写真、公報もあります。全て生成に無断利用されています。
データを利用したポルノも投稿されています。
データはネットから集めたもので、個人がチェックして消すことは難しく、AV生成に使うこともできます。
個人の努力に任せても解決しません。
生成AIを使ったディープフェイク動画製作者は日本でも逮捕されています。女性芸能人の名誉を傷つけたと報じられていますが、一般の女性(男性も)が使われても芸能人ほど話題にはならず、通報もされにくいため舐めているのかもしれません。
2024年4月1日追記
FaceSwitchのXアカウントは凍結されました(下の記事参照)。