画像生成AIが児童ポル〇を学習!国立国会図書館のデータに違法画像が紛れ込む! | 心と体を健康にするダイエット法

心と体を健康にするダイエット法

新型コロナ時代に免疫力を上げて健康に生きてゆきたい。そんな中高年のダイエットは健康法と美容法とアンチエイジングを兼ねた方法が必須です。過食と体調不良を改善してウイズコロナ時代に楽しく続けることのできるダイエット法を提案しています。

いつもありがとうございます。

ハッピーダイエットライフの船田です。

 

生成画像AIのデータに違法な児童ポル〇やスカート内の盗撮画像が一部見つかったという事件です。

 

ドイツのライオンとう企業がAIで自動収集した写真に「日本の少女」というカテゴリがあり、その58億枚の中の3000万点を調査したところ、そのなかから1008点の違法画像が発見。

 

つまりすべての画像データのうち、0.003%は児童ポル〇や盗撮画像だったことになる。

 

ライオンではフィルターを通して収集しているが、排除できな違法画像が混じることがあると説明。

 

そもそも、インターネットというのは、軍事用であり、闇権力の違法画像共有のために作られたと聞いたことがある。

 

つまり、違法児童ポル〇の画像データは、インターネットのメインコンテンツと言ってもいいくらい、多く出回っているのだと思う。普通の成人ポル〇はもっと多いだろうね。

 

つまり、AIで自動生成画像を作ると、自動的に違法ポル〇が参考データとして使われる可能性があるっていうこと。

 

私の私見ですが、

わざとじゃないの?

 

今までも、生成AIで作られた美女は、そこはかとなくエロい雰囲気があると思っていましたが、これが原因なんじゃないの?

 

AIの乱用は反対!

 

生成AIが違法画像学習か、データ収集先に画像投稿サイトやネット掲示板…フィルターすり抜けも

 

画像生成AI(人工知能)の学習に使われる画像データの中に、違法な「児童ポルノ」に該当する恐れがある画像が紛れ込んでいることが明らかになった。背景には、膨大なデータを無差別に学習することで精度が上がる生成AIの仕組みがある。(桑原卓志)

機械的に収集

 昨年12月、画像生成AI「ステーブル・ディフュージョン(SD)」が学習に使うデータセット(データ群)を公開するサイトを読売新聞が確認すると、児童が体を露出した画像がいくつも表示された。

 

約30年前に出版され、国立国会図書館が「児童ポルノの恐れがある」と判断した写真集の画像、個人のブログに掲載されていたとみられる児童の裸の写真……。女性がスカート内を盗撮されたような写真も見つかった。

 このデータセットを提供しているのは、ドイツの非営利団体「 LAIONライオン 」だ。

 ホームページによると、ライオンは「(AIによる)学習の研究は(誰でもできるように)『民主化』されるべきだ」との理念を掲げ、2021年に活動を始めた。

 

ネットを巡回するプログラムで機械的に集めた画像58億5000万点が掲載されたURL(アドレス)に「日本の少女」などの説明文をつけ、データセットとして無償で提供している。

 収集先には画像投稿サイトやネット掲示板が含まれていた。

問題点を指摘


 画像生成AIは、プログラミングの知識がなくても、文章を入力するだけで精巧なイラストや写真のような画像を手軽に作ることができる。SDは、英新興企業「スタビリティーAI」が22年に公開し、無料で使えることから利用が拡大した。

 ライオンのデータセットについては昨年12月、米スタンフォード大インターネット観測所の研究チームが問題点を指摘していた。

 調査報告書によると、チームは58億点超のデータのうち約3000万点を調べ、児童の性的画像のデータを1008点検出した。疑いが強いデータを含むと3226点あった。米国の匿名掲示板やアダルトサイトなどに存在したものだという。

 スタ社は、SDでは性的な画像を生成できないとしている。しかし、ネット上にはSDで生成したとする性的画像が投稿されているサイトもある。

 データセット全体から見れば、児童の性的画像は一部とみられ、調査報告書は「生成する画像に劇的な影響を与えることにはならない」としている。一方、「影響を与えている可能性がある」とも指摘。ライオンに対し、データセットから児童の性的画像のデータを削除するよう要請し、データセットを利用するAI開発企業にも、対策を講じるよう求めた。

排除に限界
 スタンフォード大の調査を受け、ライオンは昨年12月、データセットの公開を停止。中身の画像データを確認できるサイトも見られなくなった。読売新聞のメール取材に「私たちは違法なコンテンツを許容しない。現在、違法の疑いがあるデータを特定し、削除している。安全性を確認できれば、再度公開する」と回答した。

 スタ社は取材に、データセットを学習に利用する際、違法画像を排除するフィルター機能を使っているとしている。

 しかし、スタ社と提携する米企業「スポーニング」は2月、X(旧ツイッター)への投稿で、フィルター機能の問題点を明らかにしていた。

 同社によると、同月中の8日間にフィルターで除外されない児童の性的画像が13点見つかったといい、取材に対し「数日でこれだけ見つかったということは全体ではもっと多くの児童の性的画像があるだろう」と説明。

 

「人が見れば明らかに児童の性的画像だとわかる画像でも機能は見落とすことがある。データセットの画像が膨大な分、ミスも多くなる」とした。

 画像生成AIは他にも複数あるが、多くはどのようなデータを学習しているのか明らかにしていない。
 

 

船田の関連記事

つまり、このようなAI生成女性のデータにポル〇の画像が混じるということでしょう。

たしかに、そんな雰囲気があるような・・