米フロリダ州オーランドにあるディズニー・ワールドは一般的に、子供たちに最高の思い出を与える場所だと考えられている。しかし、そこを訪れる子供らの動画を撮影し、児童の性的虐待のコンテンツ(CSAM)を作成していた小児性愛者(ペドフィリア)が逮捕された。 今月初めにオーストラリアの当局者にこの事件を説明した連邦捜査官によると、2023年半ばに逮捕されたジャスティン・カルモ容疑者は、ディズニー・ワールドと少なくとも1つの中学校で撮影した画像を、人工知能(AI)ツールのStable Diffusion(ステーブル・ディフュージョン)で加工し、数千枚の違法画像を作成していたという。
カルモは、自身の2人の娘に対する虐待や未成年者を密かに撮影し、ダークウェブ上で児童性的虐待のコンテンツ(CSAM)を配布したことを含む児童性的搾取の容疑により、フロリダ州で起訴された。カルモは昨年、無罪を主張しており、10月に陪審員裁判が開かれる予定だ。
「これはプライバシーの重大な侵害というだけでなく、子供たちの安全を脅かす攻撃だ」と、元国土安全保障省の捜査官のジム・コールは述べている。25年にわたり児童の虐待の調査担当者を務めた彼は、カルモ被告のオンライン上の行動を追跡してきたという。
カルモの行為は、生成AIがもつ画像の生成能力を悪用した例としては、恐らくこれまでで最も気味の悪いものと言える。彼は、ディズニー・ワールドの来場者の多くを標的にした可能性があるが、ディズニーは、この件について法執行機関からの連絡を受けていないと述べている。
コールによると、カルモは世界の法執行機関の間ではよく知られた小児性愛者で、当局は2012年から彼を追跡していたという。この事件を担当した刑事は、顔認識テクノロジーを使って被害者の一人を特定し、加工された画像を辿って容疑者のカルモを割り出した。
この事件を含め、AIが実在の子どもの写真をリアルな性的搾取画像に変換するために使用されるケースが増えている。司法省は今年8月、セス・ヘレラという名の米陸軍兵士が生成AIツールを使って児童の性的画像を作成したことに対する告訴状を公開した。また、今年初めにウィスコンシン州のスティーブン・アンデレッグという名の男は、インスタグラムで募集した子供の画像から、CSAMを生成したとして告発された。