画像生成AIは米国製です。学習に使ったデータは日本製も含まれますが、やはり本場よりは少なく日本独特の文化を描くのは苦手です。
相撲を取る男性
ボクシングをする男性
ボクシングも少し変ですがだいぶマシです。
日本の墓地
教会の墓地
教会墓地の方がリアルです。
稲荷神社
カトリック教会
神社は建物も文字も変ですが教会はまともです。
回転寿司
ハンバーガーセット
回転寿司は理解されておらずハンバーガーは理解されています。
データが多いか少ないかで生成結果に差がつきます。
毎回こればかり繰り返して申し訳ありません。
写実的なAI生成疑似児童ポルノも、実在モデルのデータが大量にあるから生成できる、ということがわかります。
データがなければ生成できません。
過去モデルの特定できるCGは児童ポルノと判断され、有罪判決を受けています。
AI生成イラストは判例がありませんが、多くのデータを使うためモデルが特定できないから児童ポルノではないと判断されるならそれもおかしいと思います。
モデルが1人なら有罪、モデルが多ければ無罪というなら、被害児童が多ければ多いほど、児童ポルノが多ければ多いほど、安心してAIで疑似児童ポルノ生成できる、ということになります。
逆に考えれば画像生成AIはモデルのデータを必要としますから、現実の被害児童、性犯罪を必要とすることになります。
児童ポルノを是認して求めるのと同じです。
新しいデータがほしいから児童を捕まえて写真を撮るということも起こり得ます。
現実の犯罪に依存するAIイラストは、実態に基づく法規制が必要だと思います。