画像生成AIといっても色々あります。ポルノを生成しやすいStable Diffusionを避けて別のAIを使う人もいます。Stable Diffusionの使っているデータセットLAION-5Bに無修正ポルノや児童ポルノ、医療写真も入っていることがかなり知られていますから。しかしStable Diffusion以外もデータセットが公開されていないだけでクリーンとはいえません。著作権のあるアニメや漫画のキャラクターが生成できるなら黒です。
Bing Image Creatorでもマリオが出ますね。
現時点では何を使っても、悪気がなくても著作権侵害のリスクがあります。使うだけで快く思われないのでAIを使っていることを隠す人もいます。
しかしAI画像は生成AIごと、モデルごとに特徴がありますから、知っている人が見れば何を使ったかわかってしまいます。
この動画で具体例を上げて説明しています。冒頭の3分でわかりますのでお薦めします。ごまかしても見抜かれます。
私はAIには詳しくない方ですが、絵の狂いは気になります。
まず髪の毛の流れが不自然で、髪の毛と洋服やバッグが合体している、指の数がおかしい、数は5本でも長さがおかしい(小指が長いなど)、影がおかしい、背景の建物が崩れているなど、すぐわかります。
ましてプロがそれを広告や広報に使うのは理解できません。
イラストも現実と異なるディープフェイクです。
特に医療や防災には使うべきでないと思います。
誤った情報を与え、判断を狂わせる危険があります。