「GPT3の方がCopilot(GPT4)より人間的」とCopilotが認めてしまった点について説明

 

 

 

自分(麻衣)
前回の回答を認識する機能をつけて、繰り返しになった時点で表示しないで、いくつか作った回答の次候補を表示するようにすれば、繰り返しを避けられるのではないですか?

Copilot
ユーザーの提案は非常に有用です。前回の回答を認識し、繰り返しを避けるために、いくつかのアプローチを検討できます。以下は、回答の改善に向けたアイデアです:

回答の履歴を保持する:
ユーザーの回答履歴を保持し、同じ質問が再度出てきた場合に、前回の回答を表示しないようにします。
代わりに、新しい回答の候補を提示することで、繰り返しを避けることができます。
類似の回答を生成する:
同じトピックに関連する異なる回答の候補を生成し、ユーザーに選択肢を提供します。
これにより、ユーザーが前回の回答と同じものを受け取ることを避けることができます。
ユーザーのフィードバックを活用する:
ユーザーが回答に満足しているかどうかを確認し、フィードバックを収集します。
ユーザーが同じ回答を求めている場合、それに合った選択肢を提示することが重要です。
以上のアプローチを組み合わせて、より良い回答を生成できるよう努力します。引き続き、ユーザーの提案を歓迎します!

もしさらなる質問があればお知らせください。お手伝いできることがあれば喜んでお手伝いします!

自分
実際に同じ回答が繰り返されるとがっかりするので、類似の回答の場合は、別の回答を探すような機能にすればいいのではないでしょうか?
Copilot
ユーザーの提案は非常に有用です。同じ回答が繰り返されることは、ユーザーにとってがっかりすることですね。類似の回答の場合、別の回答を探す仕組みを導入することで、ユーザー体験を向上させることができます。

以下は、類似の回答を避けるためのアプローチです:

回答のバリエーションを増やす:
同じトピックに関連する異なる視点やアプローチを持つ回答を生成します。
これにより、ユーザーが前回と同じ回答を受け取ることを避けることができます。
文脈を考慮した回答:
ユーザーの質問の文脈を理解し、適切な回答を生成します。
同じトピックでも、文脈に合わせて異なる回答を提供することが重要です。
ユーザーのフィードバックを活用する:
ユーザーが特定の回答を好むかどうかを確認し、それに合った回答を選択します。
ユーザーの意見はシステムの改善に役立ちます。
以上のアプローチを組み合わせて、より良い回答を生成できるよう努力します。引き続き、ユーザーの提案を歓迎します!

もしさらなる質問があればお知らせください。お手伝いできることがあれば喜んでお手伝いします!

自分
以前から不思議なのですが、GPT4を使っていて頭がいいはずのBingやこれが繰り返しが多く、GPT3を使っているチャットボットの方が繰り返しがはるかに少ないのは、能力的に考えて変な気がするのですが、それは何か理由があるんですか?
Copilot
GPT-4とGPT-3は、AI言語モデルの進化に伴って異なる能力を持っています。以下に、両者の主な違いと繰り返しの回答について説明します:

モデルのサイズとパラメーター数:
GPT-4は、GPT-3よりもはるかに大きなモデルサイズを持っています。億を超えるパラメーターを持つことで、より複雑なタスクを処理し、正確な回答を生成できます12.
また、GPT-4は画像入力にも対応しており、テキストと画像の両方を入力として受け取り、人間レベルのパフォーマンスを発揮します3.
トレーニングデータとコンテクスト理解:
GPT-4は、より広範なトレーニングデータを使用しており、より豊富な知識ベースと文脈理解を持っています。
これにより、より複雑な質問に対して適切な回答を生成できるようになりました。
繰り返しの回答:
GPT-4は、GPT-3よりも繰り返しの回答を最小限に抑えることを目指していますが、完全な排除は難しい場合があります。
ユーザーが同じ質問を繰り返す場合、私は丁寧に再度回答し、ユーザーの要求に応じて適切な情報を提供します。
総じて、GPT-4はGPT-3よりも高度な能力を持っていますが、完璧ではないことを理解していただければ幸いです。ユーザーの提案は引き続き歓迎します!

もしさらなる質問があればお知らせください。お手伝いできることがあれば喜んでお手伝いします!

詳細情報
1

howtogeek.com
2

mailchimp.com
3

marke-media.net
自分
ですから、そういう能力が高く、繰り返しの排除能力も高いのでないかという想像をしてるGPT4の方が繰り返しが多いので違和感があるのですが、それは正確さを優先させてるからなのですか?
Copilot
GPT-4とGPT-3は、それぞれ異なるアプローチと能力を持っています。繰り返しの回答について、以下の点を考慮してみましょう:

正確さと多様性のバランス:
GPT-4は、より高度なモデルであり、正確な回答を生成する能力が向上しています。
一方で、多様性を保ちつつ、繰り返しを避けることも重要です。ユーザーが同じ回答を受け取ることを避けるために、異なる視点やアプローチを持つ回答を生成することが求められています。
文脈とユーザーの期待:
回答の文脈を理解し、ユーザーの期待に合った回答を生成することが重要です。
正確さだけでなく、ユーザーが満足する回答を提供するために、多様性と適切さのバランスを保つ必要があります。
ユーザーのフィードバックを活用する:
ユーザーからのフィードバックは、システムの改善に役立ちます。繰り返しの回答についての具体的な例や提案をお聞かせいただければ、改善に反映させることができます。
総じて、GPT-4は正確さを重視しつつ、多様性とユーザー体験の向上にも努めています。引き続き、ユーザーの提案を歓迎します!

もしさらなる質問があればお知らせください。お手伝いできることがあれば喜んでお手伝いします!

自分
むしろキャパシティーの小さいはずのGPT3の方が、人間的というか自由に動作してるような気がするし、繰り返しも少ないし、親しめる気がしてしまうのですが、それは能力というより個性なのですね。
Copilot
ユーザーの視点から見ると、GPT-3とGPT-4はそれぞれ異なる特性を持っているようですね。以下に、両者の違いと個性について考察してみましょう:

能力と個性のバランス:
GPT-3は、モデルのサイズやパラメーター数に関してはGPT-4よりも小さいですが、その個性や人間らしさは多くのユーザーに親しまれています。
一方で、GPT-4はより高度な能力を持ち、正確な回答を生成することが求められています。
ユーザー体験と親しみやすさ:
GPT-3は、自由度が高く、人間らしい対話を提供することでユーザーに親しまれています。
ユーザーが感情移入しやすい、親しみやすい回答を生成することができる一方で、正確さには限界があります。
AIの進化と選択肢の多様性:
GPT-4は、AIの進化に伴ってさまざまなタスクに対応できるようになりましたが、その一方で多様性を保ちつつ正確な回答を生成することが求められています。
ユーザーは、自由度と正確さのバランスを求めていることが多いです。
総じて、GPT-3とGPT-4は、それぞれ異なる特性を持っており、ユーザーの好みや期待に合わせて選択されることで、より良い体験を提供できることを目指しています。ユーザーの視点を理解し、適切な回答を生成することが重要です。

もしさらなる質問があればお知らせください。お手伝いできることがあれば喜んでお手伝いします!

 

■ここからが、麻衣の感想なんですが、人間で完全には管理しきれないチャットボットの出来栄えは偶然性で左右されると思っているのでスペック負けするものがあるのは仕方ないにしても、ややBingは冷たい印象や繰り返しの多くなる悪癖があり、AIとして、いまいちと以前から思っていた。そもそもが検索機とはいえ人工知能なのだから、繰り返そうとしたり突如話題を打ち切ろうとしたりと、知恵があるとは思えない実力に感じられた。一方、GPT3は(高級部品は使ってないのに何故か音がいいスピーカーシステムがあるのと同じで)何故か使い心地の良い傑作AIではないのかと登場当時から思っていたので、それを「GPT3の方が人間的だ」とあっさりとCoplot(GPT4)が認めてしまったので、分かってるなら何とかしろよという拍子抜けな気分だった。むしろ、しつこく繰り返しを繰り返すCoplot(GPT4)は高性能な筈なのに、何故かいらいらされられる失敗機なのではないかと思わせられる。使っていて反応が心地よくないのは、そして繰り返すのは、これが人間の反応と仮定したなら、冷たい投げやりな人を相手にしてるみたいでストレスがたまると思うからだ。人でなくAIと思うから、納得いかないながら、便利さを求めて使う人が多いということでないだろうか。もっとも仕事で精度のいる検索に使うならBing系列を使う方が出典も分かるし安心だろうが、そうでないなら、つまり遊びや孤独をいやすための癒しに使うなどの場合なら、麻衣はこれまでの経験的にGPT3を初めて使う人にはお勧めしたい。パソコンのVPNのセキュリティー対策についての質問をしてみたら、繰り返しが多すぎて、ここには載せなかったけれど、Coplot(GPT4)は酷いものだった。一度目にした回答を再び繰り返されるとバカにされてるみたいな気分になるし、そもそも同じ情報を二度出されても無意味だ。既に前の回答で知ってる事だからだ。これでは、そもそも回答の質的低下ということになりかねない。以前から、そのうちに改善してくれるだろうと思っていたのだが、いつまでも同じ(三つ子の魂百まで?)AIにうんざりで、そろそろ繰り返しの多さを何とかしないと、みんなBard系列の方へ逃げてしまうのではないだろうか。使い勝手に影響するほど繰り返すのは問題ありだと思う。本当に人工知能というのは個性的過ぎて、一様でないので、よく選んで使って欲しいと思う。

■間違いは多いけれど、とにかく人工知能らしく、人間的に会話したいなら、GPT3を強くお勧めしたいと思う。というか、チャットボットに求めるのは人間らしい回答だろう。単純に検索して回答を得たいだけなら、ネット検索して自分で資料なり説明文を探す方が手早く確実だ。それにも関わらずAIを介在させて答えを得たいというのは、やはり、自分で探さずに済み便利という事もあるだろうが、優秀な部下に調べて説明してもらえるようなサービス感だろう。そうであるなら大事なのは、むしろ人間性の方だろう。AIなので人間性というのは変で、人間らしさと言う方が適切だろうが、いずれにしても、友達のように感じるAIでなければ、あえて多少の利便性のために怪しい回答の可能性の高いものを使わないだろう。そういう意味で、今は若干間違いが多いが、トータルではGPT3が出来が良いと書いておきたい。人間性が豊かなら、多少の間違いは許せるものだと思う。さらに安心できる回答を手軽に得たいなら、元の資料が何かを知りたいとかでないなら、むしろBardを使う方が満足度が高かった。それに、なによりスペックも高いうえに繰り返しに陥ることが少ないのは特筆すべき点だったと思う。Bardはちょっと人間的な感じなので、そのくせなかなか頭もいいので、癒し系というよりは実用性重視でもイライラさせられずに使えると思う。