画像生成AIは、約58億枚のデータセットから構築されるStable Diffusionが基礎になっています。
Stable Diffusionは現在複数の訴訟を起こされています。
3人のアーティストによる著作権侵害などの集団訴訟、及び大手写真素材サイトによる著作権法、商標および不正競売防止法を侵害するとの訴訟が注目されています。
いずれも画像生成AIの開発元に対して権利侵害を訴え、利用者を訴えているわけではありません。
ところが日本ではAI開発・学習段階では原則著作権者の許諾なく利用することが可能とされています。
開発元が訴訟を起こされている米国とは違います。
そして画像生成AIの生成・利用段階では従来通り利用者の成果物が著作権侵害に問われる可能性はあります。
内閣府が出したAIと著作権の関係についての文書だが、新しい内容があるわけでなく従来の考え方をそのままというか、著作権法30条の4の「不当に害する」がデータセット作成やモデル開発において対象外と改めて明記しているので、反AI派的な方にはしんどい文書のはずである。 pic.twitter.com/96uu6ljA8m
— Shuji Sado (佐渡 秀治) (@shujisado) June 2, 2023
開発元は原則無罪、利用者が著作権侵害の全責任を負います。
現実にアーティストの訴えで著作権侵害が認められるハードルは高いですが、侵害が認められる場合でも、利用者自身、生成された画像を見て著作権等の権利を侵害しているとわからない場合が多いと思います。そして気づかぬ間に拡散、流通して被害が拡大してしまいます。
問題になるのは著作権だけではありません。
Stable DiffusionはLAION-5Bというデータセットから構築されています。LAION-5Bには約58億枚の画像があり、その中に流出した医療用画像が含まれていることがわかっています。
たまたま自分が撮影された写真を見つけた患者が写真の検索中に他の患者の医療記録と思われる写真も数千枚見つけました。倫理的および法的な正当性が疑わしいものもあるとのことです。
日本ではAIイラスト集、写真集が販売されていますが、おすすめ商品の上位を独占しているのは下着、水着、裸ばかりという状況です。利用したデータは不明ですが、開発元のデータに商用利用を認めない医療記録も含まれているのであれば、悪用してポルノを作ることも可能ということになります。
日本では開発段階では原則著作権侵害の責任を問われません。
しかしすでに利用者が同時進行で生成販売しています。学習元のアーティストが偶然気づいて無断利用に抗議すると、新しい技術の開発を恐れていると、政治家までが見下した発言をするのは、問題のすり替え、矮小化だと思います。データの無断学習、利用の是非はアーティストだけの問題ではなく、全ての人の人権に関わる問題だと思います。
このような状況で私的利用の範囲を超えて画像生成AIを扱うべきでないと思います。