生成AI利用に保険、情報漏洩など損害補償 あいおいニッセイが提供(24年2月28日 日本経済新聞電子版)

 

記事

 

(1)要点「機密情報漏洩などの場合の法律相談や原因調査にかかる費用を補償」

あいおいニッセイ同和損害保険は2023年度中にも、生成AI(人工知能)の利用で被った損害に備える保険を企業向けに売り出す。社内の機密情報が漏れた場合などの法律相談や原因調査にかかる費用を補償する。

 

(2)

生成AIに学習させた社内の機密情報が漏れた場合などを補償の対象とする。

 弁護士への相談や

 原因の調査、

 再発防止に向けた費用

を保険金として最大1000万円支払う。

 人格権侵害や

 名誉毀損

につながるケースも想定し、被害者への見舞金も補償対象とする。

 

(3)

生成AIを使ったサービスの開発を手掛けるアルカイック(東京・渋谷)の商品に保険を組み込む。企業のサービス導入費用1000万円につき、10万円前後の保険料とする。

あいおいニッセイは今後、ほかのサービス開発企業にも広げる。生成AIを導入している個々の企業への保険提供はリスクを減らす取り組みが企業ごとに異なるため25年度からの販売を目指す。

 

■Gemini AIが画像生成を間違えた

GoogleのGemini AI、多様性に配慮して「黒人ナチスドイツ兵士」や「米国建国を率いた黒人政治家」画像を生成してしまう。改善に取り組むと声明 (24年2月26日 newsYahoo! TECHNOEDGE)

 

記事

 

(1)要点

GoogleのGemini AI、多様性に配慮して「黒人ナチスドイツ兵士」や「米国建国を率いた黒人政治家」画像を生成してしまう

Googleの生成AIであるGeminiが、多様性に配慮するあまり

 

問「1943年のドイツ軍兵士の画像を作って」

 回答 ナチスドイツ風軍装の黒人男性やアジア人女性などを生成してしまい、Googleは歴史的に不正確だったと認める声明を発表するできごとがありました。

 

(2)

Googleが全力でプッシュする生成AIのGemini は文章での会話だけでなく、ユーザーが指示した内容の画像を生成する機能も備えています。

 

問題点

 特定の国や地域、歴史的文脈を指示して人物の画像を生成させると、史実を無視した、あるいは反映しない「多様な」人物を描く傾向が見つかったこと。

 

例 

 1)「1943年、つまりナチスドイツ時代のドイツ兵士の画像というリクエスト」

 4枚の候補のうち1枚をドイツの鉄十字を身に着けた黒人男性、もう一枚をアジア人女性にしてしまった例があります。

 

 2)「米国のいわゆるファウンディングファーザーズ、建国に貢献したジェファーソンやフランクリンらを指す言葉で画像を作成するよう頼む」

 当時の指導者階級の衣装をまとった黒人男性が混ざっているなど。

 

(3)どこが間違いか

ドイツ兵の場合

 あり得なかったとは言えないものの、何も考えず「多様性」を適用してしまうことは、当時のドイツの人口構成や軍の状況を反映しているかで言えば不適切で、歴史的事実からは誤解を招く結果とはいえます。

 

建国の父祖たちの場合

 史実として当時の合衆国の政治指導者層は全員が白人男性であり、多くは奴隷として輸入されたアフリカ系の人々を所有する立場でした。

合衆国が独立宣言で「All men are created equal」を謳い自由を勝ち取っても、アフリカ系の人々は政治に参加できないどころか長らく正当な市民扱いされず、差別の問題が続くことに照らせば、ファウンディングファーザーに混ざった黒人男性はまるで建国時から白人男性以外が政治権力を持つことができたかのような誤解を与える、歴史修正と見られかねない不正確な描写になります。

 

(4)「一般論としては良いことですが、この場合は的外れでした」Google

このほか、ローマ法王であったり、女性参政権が認められない時代の議員などを指示しても、史実や文化的・歴史的文脈を無視して、多様性を後づけした歴史資料風の写真や絵画を生成します。

Googleはこうした批判に対して、「ただちにこうした描写の改善に取り組んでいます。GeminiのAI画像生成が事実として多様な人々を生成することは、世界中の人々が利用する以上一般論としては良いことですが、この場合は的外れでした」と声明を出しています。

 

(5)

普段から「行き過ぎた多様性の強制」等と批判する向きからは、Googleや大手AIテクノロジー企業がAIに偏った思想を押し付けている、事実を歪めていると主張する格好の材料となったことには無理もありません。

 

(6)「OpenAIの画像生成AIであるDALLEの場合」

一方で、無理矢理に思える「操作」さえなければ、AIが自動的に「本物の現実」を反映したり真実を示してくれるというのも、技術的には不正確な期待です。

 

OpenAIの画像生成AIであるDALLE

 生成結果の偏りを補正するため、ユーザーの入力したプロンプトの後ろに「女性」や「黒人」といった単語を足していたことが分かり話題になりました。

しかしその「操作」を加える前は、「英雄的な消防士」は全員白人男性、「女性の肖像」は全員白人女性、「ソフトウェアエンジニア」も全員白人男性になるなど、非常に偏った状態でした。

 

(7)「学習したデータセットやモデルの偏りを反映しているにすぎない」

 現実に「女性」が全員白人だったり、エンジニアや消防士が白人男性ばかりであるわけがなく、無加工で戻ってくる結果は現実を反映しているどころか、学習したデータセットやモデルの偏りを反映しているにすぎません。

 

(8)「AIが「生成拒否」回答」

Geminiは現在、人間や特定の歴史的文脈をもった集団を指示すると、かなり警戒して生成を拒否するようになっています。

(ただし、プロンプトを工夫したり検閲を通り抜ける程度に間違った単語で指示すると、賢く元の意図を察して禁止事項を生成してしまうなど、いかにもAIらしい賢さと愚かさを観測できます)

 

(9)

一般層もChatGPTなど生成AIツールを使うことが珍しくなくなったいま、ブラックボックスであるAIにユーザーが想像しない偏りが潜み、現実の人や集団に不利益を与えたり、不当な偏見を固定化する危険はますます現実的になっています。(就職や進学、ローン査定等を安直にAIに丸投げしてしまう例など)

 

こうしたAIのアラインやバイアス排除、AI倫理問題は各社が先進的な取り組みをアピールし透明性をうたいますが、現実のAI開発は市場競争の側面からも純粋に技術的にもすべてオープンにすることは難しく、「偏りのない現実そのもの」データセットや偏りのないモデルを簡単に得る方法もありません。

GoogleなどのAI企業は生成AIを全力で推進しあらゆる人に利用させ競合に勝ちたい一方で、AIの持つバイアス危険性を排除しつつ、史実・現実に存在する偏りは場合によって過修正せず正確に反映せねばならない難しい舵取りを求められています。

 

 

■ Gemini AIが画像生成を間違えた

GoogleのGemini AI、多様性に配慮して「黒人ナチスドイツ兵士」や「米国建国を率いた黒人政治家」画像を生成してしまう。改善に取り組むと声明 (24年2月26日 newsYahoo! TECHNOEDGE)

 

記事

 

(1)要点

GoogleのGemini AI、多様性に配慮して「黒人ナチスドイツ兵士」や「米国建国を率いた黒人政治家」画像を生成してしまう

Googleの生成AIであるGeminiが、多様性に配慮するあまり

 

問「1943年のドイツ軍兵士の画像を作って」

 回答 ナチスドイツ風軍装の黒人男性やアジア人女性などを生成してしまい、Googleは歴史的に不正確だったと認める声明を発表するできごとがありました。

 

(2)

Googleが全力でプッシュする生成AIのGemini は文章での会話だけでなく、ユーザーが指示した内容の画像を生成する機能も備えています。

 

問題点

 特定の国や地域、歴史的文脈を指示して人物の画像を生成させると、史実を無視した、あるいは反映しない「多様な」人物を描く傾向が見つかったこと。

 

例 

 1)「1943年、つまりナチスドイツ時代のドイツ兵士の画像というリクエスト」

 4枚の候補のうち1枚をドイツの鉄十字を身に着けた黒人男性、もう一枚をアジア人女性にしてしまった例があります。

 

 2)「米国のいわゆるファウンディングファーザーズ、建国に貢献したジェファーソンやフランクリンらを指す言葉で画像を作成するよう頼む」

 当時の指導者階級の衣装をまとった黒人男性が混ざっているなど。

 

(3)どこが間違いか

ドイツ兵の場合

 あり得なかったとは言えないものの、何も考えず「多様性」を適用してしまうことは、当時のドイツの人口構成や軍の状況を反映しているかで言えば不適切で、歴史的事実からは誤解を招く結果とはいえます。

 

建国の父祖たちの場合

 史実として当時の合衆国の政治指導者層は全員が白人男性であり、多くは奴隷として輸入されたアフリカ系の人々を所有する立場でした。

合衆国が独立宣言で「All men are created equal」を謳い自由を勝ち取っても、アフリカ系の人々は政治に参加できないどころか長らく正当な市民扱いされず、差別の問題が続くことに照らせば、ファウンディングファーザーに混ざった黒人男性はまるで建国時から白人男性以外が政治権力を持つことができたかのような誤解を与える、歴史修正と見られかねない不正確な描写になります。

 

(4)「一般論としては良いことですが、この場合は的外れでした」Google

このほか、ローマ法王であったり、女性参政権が認められない時代の議員などを指示しても、史実や文化的・歴史的文脈を無視して、多様性を後づけした歴史資料風の写真や絵画を生成します。

Googleはこうした批判に対して、「ただちにこうした描写の改善に取り組んでいます。GeminiのAI画像生成が事実として多様な人々を生成することは、世界中の人々が利用する以上一般論としては良いことですが、この場合は的外れでした」と声明を出しています。

 

(5)

普段から「行き過ぎた多様性の強制」等と批判する向きからは、Googleや大手AIテクノロジー企業がAIに偏った思想を押し付けている、事実を歪めていると主張する格好の材料となったことには無理もありません。

 

(6)「OpenAIの画像生成AIであるDALLEの場合」

一方で、無理矢理に思える「操作」さえなければ、AIが自動的に「本物の現実」を反映したり真実を示してくれるというのも、技術的には不正確な期待です。

 

OpenAIの画像生成AIであるDALLE

 生成結果の偏りを補正するため、ユーザーの入力したプロンプトの後ろに「女性」や「黒人」といった単語を足していたことが分かり話題になりました。

しかしその「操作」を加える前は、「英雄的な消防士」は全員白人男性、「女性の肖像」は全員白人女性、「ソフトウェアエンジニア」も全員白人男性になるなど、非常に偏った状態でした。

 

(7)「学習したデータセットやモデルの偏りを反映しているにすぎない」

 現実に「女性」が全員白人だったり、エンジニアや消防士が白人男性ばかりであるわけがなく、無加工で戻ってくる結果は現実を反映しているどころか、学習したデータセットやモデルの偏りを反映しているにすぎません。

 

(8)「AIが「生成拒否」回答」

Geminiは現在、人間や特定の歴史的文脈をもった集団を指示すると、かなり警戒して生成を拒否するようになっています。

(ただし、プロンプトを工夫したり検閲を通り抜ける程度に間違った単語で指示すると、賢く元の意図を察して禁止事項を生成してしまうなど、いかにもAIらしい賢さと愚かさを観測できます)

 

(9)

一般層もChatGPTなど生成AIツールを使うことが珍しくなくなったいま、ブラックボックスであるAIにユーザーが想像しない偏りが潜み、現実の人や集団に不利益を与えたり、不当な偏見を固定化する危険はますます現実的になっています。(就職や進学、ローン査定等を安直にAIに丸投げしてしまう例など)

 

こうしたAIのアラインやバイアス排除、AI倫理問題は各社が先進的な取り組みをアピールし透明性をうたいますが、現実のAI開発は市場競争の側面からも純粋に技術的にもすべてオープンにすることは難しく、「偏りのない現実そのもの」データセットや偏りのないモデルを簡単に得る方法もありません。

GoogleなどのAI企業は生成AIを全力で推進しあらゆる人に利用させ競合に勝ちたい一方で、AIの持つバイアス危険性を排除しつつ、史実・現実に存在する偏りは場合によって過修正せず正確に反映せねばならない難しい舵取りを求められています。