先月行った某国で撮影した写真である。

 

 

 

適当に撮影してみたのだが、思ったよりもいい感じだった。

Copilotにこれはどこか判るか?と聞いたところ、

全く違う答えしか返ってこなかった。

正解を教えたら、それは嘘だ、と言われた。

間違いないと何度言っても、

それはデジタルの世界で希に発生する

摩訶不思議な出来事としか説明できないと言われた。

ハルシネーションの一種で確率の高い情報を組み合わせて予測した結果と思われ。

また、一度自らが収束させた結果は間違っていると言われれも認めることができない、

収束的ハルシネーションだったのだろう。

ただ不思議なのは、別スレッド(チャット)でやり直すと、

全く答えを出せないという摩訶不思議。

100%の自信で答える誤りとのGapが理解できないのだが、

皆さんこんな経験してるんですよね。

ちなみに夜景だけでなく昼の風景もAIにきいたのだが結果は同じだった。

人間の実体験よりもAIの推論の方が正しいと言い切るAI。

やっぱり怖いかも。