パブコメを提出しました。
今回はAIだけではなくディープフェイク対策に関して思うところを書きました。昭和生まれでフェイクは色々と見てきています。
TVでもラジオでも口コミでも色々ありました。それが今はネットが使われ、メールや動画や掲示板で偽情報が流され、現在はAIで精度の高いディープフェイクが簡単に作れるようになり、加害者が低年齢化して数も増えています。AI特有の問題はありますが、それだけを問題にはできません。
しかし文化庁の著作権問題のパブコメでディープフェイクポルノについて満足に書くことができなかったため、今回はそこを中心に具体例を上げながら書きました。
NCII(non-consensual intimate imagery、非同意の親密画像)という言葉があります。AI以前からの問題で同意なく性的画像を使う虐待を示す言葉です。同意を得ていないという点が重要です。ポルノと同義ではありません。ポルノも合意によって作られるものがあります。NCIIはモデルの意思を無視していることが問題です。生成AIで作られるポルノの多くが該当します。
現在はAIを使って合成NCIIが簡単に作れるようになり、新たな問題が生じています。
NCIIは人権侵害であり表現の自由で守るべき創作ではないということを強調して対策を求めました。