LAION-5BはCSAMだけでなく成人のポルノも、イラストや漫画も含めて広い範囲で削除しています。以前検索したloli pornやpornでは写真だけでなくイラストも漫画もCGも合成も表示されません。ソフトなヌードも削除されています。ただし昨日書いた通り検索ワードを変えるとまだ出ます。言語を変えても出る画像が違ってきます。まだ完全にクリーンになってはいません。
それでも相当な努力は認められます。このまま徹底して削除していただきたいと思います。
日本では創作物は児童ポルノと見做されませんが、日本の製品ではありませんから、欧米の法律に抵触する素材が削除されることには異論をはさめません。
米国でも成人のヌードは違法ではありません。LAION-5Bの素材の削除は合法範囲の画像も含んでいます。それを表現規制だ捉える人もいると思います。私も表現規制には反対していますので、その点については後で補足します。
しかし現在のLAIONのグレーゾーンも含めた削除は支持します。
なぜかといえば、ネットにアップされた性的画像は非合法に取得されたものが多いからです。
CSAMは誘拐、人身売買の被害者が被写体になっています。成人もラブホテルやトイレや露天風呂で盗撮されています。騙されたり脅されたりして撮影された写真、ハッキング、リベンジポルノや流出画像もあります。自分の意思で公開していない非合法な素材が使われる問題は著作権法でカバーできません。
非合法な素材の利用は著作権以前の問題です。
現在も商業では非合法な素材は使えません。仮に隠れて使う人がいても発覚すれば信用を失います。過去逮捕された人もいます。
文化庁もパブコメへのコメントで、児童ポルノは犯罪ですと答えています。日本でも著作権法以前の問題です。
非合法な素材の削除は表現規制ではありません。
ただし、仮に将来完全なオプトインによりデータセットが作れるようになれば、その時は製作する国の合法範囲でNSFWも認めるべきだと思います。漫画やイラスト等の創作物の性的表現も許諾を得た上なら使用して良いと思います。そうでなければ生成AIを使用することで強制的に外国の規制を押しつけられ、知的生産を一元管理されてしまうからです。
しかしそういう将来は現実にはまだ見えません。性的素材を利用したディープフェイクポルノや剥ぎコラ等の被害が深刻です。
ゆえに現在は悪用したくてもできないデータセットの製作を優先すべきだと考え、LAIONのNSFW素材削除を支持します。
また個人の追加学習を規制して非合法な素材の追加を防止すべきです。そもそも個人は追加学習できないようにするくらいでないと現在の無法な利用者の暴走を止められないと思います。