より抜粋
利用者からみて生成系AIの最大の問題は、回答に誤りがあることだ。
これは、欠陥サービスを提供しているということであり、
企業の社会的責任を果たしているとは考えられない。・・・・
一般の利用者から見て最大の問題は、
生成系AIが出力する文章の内容に誤りが多いことだ。
そして、一見したところ正しい文章で述べているので、
誤りを検出しにくいことだ。
「内容に誤りがある」とは、いくつかの意味がある。
まず、意見の相違がある。
これに関しては、中国政府が大きな問題に直面している。
コントロールしなければ、
AIが中国政府の方針に関する答えを出してしまうからだ。
この問題は、
すでに5年前にチャットボットの問題として発生した。
中国のIT企業テンセントが開発したチャットボットが、
「中国の夢は何か?」という問いに対して、
「アメリカに移住すること」と答えてしまったのである。
【コメント】
中国のAIは「正しい答え」を出した。
と思ったのは、私だけではないはずだ。
つまり、「正しい」とは「誰にとってか?」
という、問題なのです。
逆に、「自分にとって」都合の悪い答えは、
「間違っている」ということなのです。
結局、
>AIの最大の問題は、回答に誤りがあること
では、ないのです。
『AIの回答は正しい』と仮定した
「人間が間違っている」のです。
例えば、「スーパーコンピュータが出した天気予報」を
「絶対正しい」と思う人がいないように、
「AIが出した回答」を「正しい」と「仮定する」のは「愚か」なのです。
【追記】
中国に都合の悪い回答をすれば、間違っている・・・
同じように、米国製のAIは
アメリカに都合の悪いことを回答しないように教育(学習)されているのです。
イーロン・マスク氏が「ChatGPT」に反対するのは、
「ChatGPT」がイーロン・マスク氏に都合の悪い回答をするからなのです。
【追記2】
AIの回答には、人間と同じように「嘘」や「間違い」があります。
そもそも、学習データ(インターネット上)に嘘や間違いがあるからです。
そして、
AIは「不都合な真実」を回答してしまう可能性もあります。
それは、人間と違ってAIは「空気が読めない」からです。
つまり、AIは忖度ができないのです。