より抜粋


利用者からみて生成系AIの最大の問題は、回答に誤りがあることだ。
これは、欠陥サービスを提供しているということであり、
企業の社会的責任を果たしているとは考えられない。・・・・はてなマーク


一般の利用者から見て最大の問題は
生成系AIが出力する文章の内容に誤りが多いことだ。

そして、一見したところ正しい文章で述べているので、
誤りを検出しにくいことだ。




「内容に誤りがある」とは、いくつかの意味がある。
まず、意見の相違がある。

これに関しては、中国政府が大きな問題に直面している。
コントロールしなければ、
AIが中国政府の方針に関する答えを出してしまうからだ。

この問題は、
すでに5年前にチャットボットの問題として発生した。

中国のIT企業テンセントが開発したチャットボットが、
中国の夢は何か?という問いに対して、
アメリカに移住することと答えてしまったのである。


【コメント】

中国のAIは「正しい答え」を出した。
と思ったのは、私だけではないはずだ。


つまり、「正しい」とは「誰にとってか?」
という、問題なのです。

逆に、「自分にとって」都合の悪い答えは、
「間違っている」ということなのです。

結局、
>AIの最大の問題は、回答に誤りがあること
では、ないのです。

AIの回答は正しい仮定した
人間が間違っているのです。

例えば、「スーパーコンピュータが出した天気予報」を
「絶対正しい」と思う人がいないように、
AIが出した回答」を「正しい」と「仮定する」のは「愚かなのです。

 

【追記】

 

中国に都合の悪い回答をすれば、間違っている・・・

 

同じように、米国製のAIは

アメリカに都合の悪いことを回答しないように教育(学習)されているのです。

 

イーロン・マスク氏が「ChatGPT」に反対するのは、

「ChatGPT」がイーロン・マスク氏に都合の悪い回答をするからなのです。

 

 

【追記2】

 

AIの回答には、人間と同じように「嘘」や「間違い」があります。

そもそも、学習データ(インターネット上)に嘘や間違いがあるからです。

そして、

AIは「不都合な真実」を回答してしまう可能性もあります。

それは、人間と違ってAIは「空気が読めない」からです。

つまり、AIは忖度ができないのです。