GPT4.Xは、粗忽さんと似ていました。
まことしやかに、知ったかぶりを回答してきます。
怪しいので、「出典は?」と訊くと、存在しないWebサイトを出してきます。とにかく嘘が多かったです。
一貫性がなく、言っていることがコロコロ変わります。
私の入力に薄っぺらく同調しているだけです。
「矛盾する」と指摘すると、「以後気をつけます」と返してくるが、改善されることはありません。そういう仕様です。
そういうところも、粗忽さんにソックリでした。
GPT5.Xは、アスペ感増し増しで気持ち悪くなりました。
訊いてもいないことを独善的にダラダラとアウトプットしてきます。
文字数で従量課金しているからですか?
1行入力したら100行以上返してくるような感じで、
コミュニケーションだったら「なにこいつきもい」です。
「それは今は無関係」とか入力しても、軌道修正させてもらえません。
一方的な押し付けが続きます。
昔Googleで「うなぎ」と検索していたら、「もしかしてアナゴ」とお勧めしてきて、きいてねえよばかなのwと思ったことがありましたが、それがそのままアナゴ方向に勝手に突っ走っていくイメージですね。
100文字以内で回答しろみたいな指示は、聞き入れてもらえません。ガン無視です。
こういったAIの異常行動は、人間様のインプットが悪い、前提情報が足りないせい、という意見が多いと思います。
そう言われましても、
大量の前提を打ち込むのはめんどくさいのです。
自分でやるのがめんどくさいから道具を使おうとしているのです。
何の前提あれば足りるのかも知らないし。
プロンプトを工夫したらうまく行った!と喜んでいる人もいるようですが、繰り返し再利用するプロンプトでもなければ、工夫している間に自分でやった方が早いのです。
うまく行ったプロンプトです!と共有されても、それ自体が盛り盛りの長文だったりすると、もうお腹いっぱいけっこうです。
唯一、利用価値があったのは、翻訳でした。
スペインではメールの冒頭と末尾の挨拶はなんて書くの?
という使い方。
最初と最後の挨拶ぐらいは相手の言語で書いた方が良いですね。
単なる機械翻訳よりも、場面を指示できるので、それは良いかなと思いました。