画像生成AI(人工知能)に追加学習させるためのデータがネット上で出回り、実在する児童に酷似した性的画像の生成が容易になっている。AIを手がける主要IT企業は今年4月、対策強化を表明したが、「被害」に歯止めがかかるかどうかは不透明だ。(桑原卓志)
指導難しい図工と美術に生成AI活用、子どもと対話重ね個性や関心引き出す…群馬県教委が導入へ
「私は反対」
「AIを使えば誰でも好きな女性の画像を作ることができる」。画像生成AIで、実在の児童に酷似した画像を作るための追加データを販売している英語のサイトの運営者は、読売新聞のメール取材にそう答えた。
このサイトで販売する追加データの大半は女性に関するもの。成人のほか、過去に日本や英語圏で活動した複数の児童タレントと酷似した紹介画像が名前付きで並び、それぞれに価格が記されている。
追加データは、人物の写真を数十点用意し、AIに関する一定の知識があれば製造できるとされる。多くはその人物に無断で製造しているとみられ、この追加データを画像生成AIに学習させれば、酷似した画像が生成できる。
2010年代に日本で活動したある児童タレントの追加データを紹介しているページには、製造方法を「ジュニアアイドル時代の写真数十点使用」と記載していた。
この児童タレントと酷似した性的画像が、日本語のサイトで販売されている。AIと追加データで作ったとみられ、今年2月時点で3000回以上閲覧されていた。
追加データの販売サイトの運営者は、サイト上で自身を「the third world(第三世界=発展途上国を指す言葉)」に住み、自らデータを製造していると記していた。
メール取材に「私は日本のジュニアアイドルが好きだ。過去の画像であれば、知的財産権を侵害しない」と主張。技術があり、データを悪用すれば、性的画像が生成できるとした上で、自身の関与には触れず、「私は性的画像は規制すべきだと考えている」とした。
性的画像を販売しているサイトや販売者にもメールで取材を申し込んだが、いずれも回答はなかった。
海外で警鐘
実在する人物に似せた性的画像は従来も作られていたが、既存の性的画像の顔部分を実在の人物にすげ替える手法が主だった。
しかし、画像生成AIに追加学習させれば、どのようなポーズや表情でも作れるようになった。AIかどうかの判別も困難で、「本物」としてネットで拡散する恐れがある。
英国の非営利団体「インターネット監視財団」の調査では、過去に性的虐待を受けた児童の追加データや、データを使ってAIで生成された性的画像が闇サイト上で共有されていることを確認。データを作るための実在児童の画像を共有するページもあったという。
米スタンフォード大の研究チームなども昨年6月に公表した報告書で、「性的虐待の被害児童の追加データに関する情報が、愛好者コミュニティーで共有されている」と指摘していた。
児童の権利擁護に取り組む国際NGO「チャイルド・ファンド・ジャパン」(東京)の武田勝彦事務局長は「AIによる偽画像でも、酷似した性的画像がネットで出回ってしまえば、その子どもが受ける精神的なショックや風評被害は計り知れない」と危機感をあらわにする。
企業側の対策、効果不透明
AI開発企業は対策を進めているが、実効性は未知数だ。
人気画像生成AI「ステーブル・ディフュージョン(SD)」を開発した英新興企業「スタビリティーAI」やチャットGPTの米オープンAIなど主要IT企業10社は4月、AIによる児童の性的画像の生成や拡散の防止に取り組む原則に合意した。
SDの最新モデルでは性的画像が生成できないよう対策が強化されているとされるが、SDの旧モデルを基に改造された画像生成AIが多数ネット上に存在しており、性的画像を生成できるものがあるとされる。
欧米の主要国ではAIによる児童の性的画像も法規制の対象としている。しかし、日本の児童買春・児童ポルノ禁止法は、被害児童が実在していないと原則適用されない。法務省に実在児童に似せたAIによる性的画像が規制対象になるかどうか尋ねたが、「個別の司法判断による」とした。
国立情報学研究所の越前功教授(情報セキュリティー)は「今後、AIの開発が進めば、動画でも同様の問題が起こりかねない。いつ、誰が被害に遭ってもおかしくない状況だ。法制度と技術の両面から、児童の被害を防ぐ手立てを早急に構築する必要がある」と指摘している。