日本の児童ポルノ禁止法では創作物は実在のモデルが特定できない限り違法になりません。そのためAI CSAMの投稿が規約違反でも罪には問われません。
昔から児童ポルノを問題にしている人から見ると、AI CSAMが特に問題には見えないかもしれません。しかしAIに特定のモデルを追加学習させると、そのモデルのイメージでバリエーションを作ることができます。1人の女児のイメージがAIを通して無限に増えてしまいます。仮に特定のモデルの追加学習が禁止されたとしても、複数のモデルを使えば合法といわれてしまいます。モデルが1人に特定できないからです。パブコメはそこを問題にして書きました。1人でも複数でも犠牲者がいることに変わりはありません。複数のモデルのキメラになっていても、部分的な特徴から誰かわかる場合もあります。
大手出版社のAIグラドルは5人のモデルを使って生成したものでしたが、その中の特定のモデルに似ていることが肖像権・パブリシティ権の問題となり、照明やポーズが写真集に似ていることが
著作権侵害となる可能性もあり、批判を受けて販売終了となりました。AI生成ポルノも同じ問題があります。有名人でないモデルを個別に探して類似性を判断するのは不可能です。モデルを特定できなくても類似する可能性を考慮して禁止すべきです。
児童ポルノは違法です。仮にAI規制が今以上に厳しくなっても、2人以上のモデルを合成すれば合法的に販売できるのでは、都合の良い抜け穴になってしまいます。
合法児童ポルノ天国です。
ですからAI CSAM(児童ポルノ)もPhotoshop等による合成でも規制すべきだと考えます。