Stable Diffusionという画像生成AIは人気があり大勢の人が利用しています。
ただしそのデータセットには、すでに書いたように国会図書館で閲覧禁止の児童ポルノや医療情報や盗撮、犯罪関係の写真も含まれています。過去報道されたことのある人は顔写真が入っている可能性が高いので、今後も使われ続けたくなければオプトアウトしてください。
犯罪被害者、殺人事件の犠牲者、生存者、遺体の写真は直接確認しています。被害者は実名写真入りで報道されるため、どこかに画像が残っていれば使われている可能性があります。
まずStable DiffusionのデータセットLAION-5Bの中のデータを検索できるHave I Been Trained?にアクセスします。
名前などの文字でも検索できます。文字で出ない場合は検索窓の右側のカメラアイコンをクリックして画像検索します。
探したい自分の画像をクリックして開きます。
検索用にアップした写真は保存されません。
データの中に一致する画像があれば左上に表示されます。
なければ似ている別の画像が出ます。
使われたくない画像が表示されたらメールアドレスとパスワードを決めて登録(sign up)し、問題の画像の上で右クリックするとプルダウンメニューが出ます。Add to My Opt-outsを選択すれば完了です。一度オプトアウトすれば表示されなくなります。
あちこちに無断転載されている場合は同じ画像が大量に出ます。それを全部オプトアウトします。次に転載元からも削除します。
広告のように削除できない写真は仕方ありません。
報道だけでなくSNSやブログに掲載されている画像も出ます。
個人サイトも企業の公式サイトも使われています。
このように使われたくない個人情報が無断で集められています。
Stable Diffusionを使っている生成ツールはたくさんあります。
Mage、Hugging FaceだけでなくDream Studio、Dream Up、Leonard. AI、Seaart. AI、Midjourney(niji)、
Memeplex. app、AIイラストくん、他たくさんあります。
わからない場合は検索して確認してください。
一度酷い写真を見てしまうと嫌悪感が出てしまい平気で使えなくなります。知っても使うかどうかはその人次第です。
オプトアウトしても適用されるのはStable Diffusion3.0以降で、旧ヴァージョンや派生モデルにすでにばらまかれたデータは消えません。
データセットを公開していない画像生成AIがクリーンというわけではありません。
ChatGPTのオプトアウトはこちらを参照してください。