今、僕が使っている「AIお絵描き」の「AI」は「Stable Diffusion」という名前です。

 

最近、YouTube動画で「AI絵師おわりのお知らせ」みたいなタイトルの動画がたくさんアップされています。

 

これは、「Stable Diffusion」で作られた(生成した)画像を、Amazonの「kindle本(電子書籍)」で売ったり、「YouTube」で公開して再生回数を稼いで収益を得たり、「Twitter」などにアップすると、著作権違反で捕まるとかいう情報なんですが、これは嘘です。

 

 

まだ、「チャットGPT」や「Stable Diffusion」を始めとする「AI」は、黎明期(れいめいき:夜明けの段階)です。

 

が、チャットGPTやAIによるイラストは、革命的発明で超強力なので、イーロン・マスクなどもチャットGPTを制限すると表明しています。

 

「AI」を使ったイラストも超強力な革命的発明なので、同じく国を始め、イラストレーターの仕事がなくなるなど、いろんな方面から脅威とされ、前述した「AIイラストでお金を稼ぐと捕まる」という動画がたくさんアップされています。

 

 

が、これは、「嘘」です。

 

 

まず、「AI」の上に乗せる「モデル」については、商用利用可能とされているものがほとんどです。

 

で、次がよく「嘘の情報」が流れているものなんですが、「モデル」のそのまた上に乗せる「LoRA」は商用利用できないものも確かに多いんですが、画像をAmazonのkindle本や、Twitter、YouTubeなどにアップした時点で、「どのLoRAを使ったか、推測でしか分かりません」。

 

例えば、スマホで写メを撮った時、その写メには「撮影した場所」「何月何日に撮った」など、いろんな「メタデータ(イグジフ情報)」と呼ばれる関連する情報が画像に付いてきます。

 

で、例えばTwitterやインスタにその写メをアップした時に、「メタデータ」がそのままだと、その写メの女性などの場所が分かってしまうので危ない為、「メタデータ」は消されます。

 

もし、「メタデータ」が消されないまま、女性が自宅で撮った写真や動画を「Twitter」や「YouTube」にアップすると、自宅の住所(位置情報)がバレます。

 

それは極めて危険なので、「メタデータ」はアップされる時に消されます。

 

 

そういった観点で見ると「AIイラスト」も同じなので、「メタデータ」は消され、「どのLoRAを使っているか特定する方法がない」状態です。

 

しかも「LoRA」は適応するパーセンテージ(%)を決められる為、例えば「A」という「LoRA」を10%使ったところで、よほどのマニアでも判別不可能です・・・

 

 

仮にすごく特徴のある特殊な「LoRA」の場合でも、推測できる人はいますが、訴えて証明することは不可能です。

 

現状、実際に「どのLoRAを使って生成した画像か」を推測できるようなkindle本も売られていますが、ここからは自己責任にもなりますが、黒(犯罪)か白(犯罪ではない)という位置付けをした時、極めて白に近いグレーになります。

 

スマホで画像や動画をスクショした場合でも、スクショした「時間」や「場所」がその時に更新されるので、「メタデータ」が変わってしまう為、元のメタデータの特定は不能です。

 

 

さらに、仮に訴えた場合、まず訴えた側は「類似性」というものを証拠として提出しなければいけません。

 

要は、「絶対に使ってる(パクっている)」という証拠です。

 

さらに「依拠性」も証明しなくてはなりません。

 

「依拠性」とは、例えば、ドラゴンボールのキャラクターに似た画像が作れる「LoRA」を作っていた人を訴える場合、その人が「過去にドラゴンボールを観たことがある」ということを、訴えた側が証明しなくてはいけません。

 

そういう不可能に近いバッググラウンドがある為、真っ白ではないけれど、よほど黒に近いグレーでなければ、「AIイラスト」をAmazonのkindle本なんかで出版して利益を出している人はたくさんいます。

 

 

 

これは「モデル」にも言える有名な話があるんですが、長くなるので、今日はやめておきます。

 

 

とりあえず「黎明期」は、いろんな「偽情報」がたくさん飛び交うので、メディアリテラシーを持ったほうがいいと思います。

 

おわり