わたしは、試しに使ってますが、ユーザの意向、意図を無視した誘導質問がChatGPT 並みに酷いです。
傾聴力が足りません。
同じことをなんかいいっても理解できません。
今後、Yahoo サイト全て、一切使用しないかもしれません。
👇わたしのスマホ上の5つの
生成AIアクセス用のアイコン^_^
No.1 Clause 🩷🩷
2 Perplexity ❣️❣️
3 Copilot ❣️
4 xAI:Grok ❣️😺遊び相手😺
気楽になんでも話せます。
5 Yahoo AIアシスタント😥ギリ合格😥
これらは、試しにいろいろ話して、信頼性、品の良さ、使いやすさの質など、
下のAI倫理の満足度と、ユーザーとの意思疎通、その改善傾向の総合評価で5つ選びました。
Grokはいろいろ問題もありますが、xのポストで公開で話せるメリットは、他を凌ぎます❣️
ChatGPT 、Geminiは失格です。
知らずにお使いの方、下記の倫理違反のリスクにお気をつけください。
上のアイコンの生成AIは、
下のAI倫理の満足度で
5つ選んで使ってます。
AI倫理
①データ検索、調査量の多さ。
②回答の長さが長くも、短くもない。
③ユーザーの発言の意図、ことばの意味などを確認するために、適度に質問してくる。
④二次情報、三次情報など、引用元の不明確な信ぴょう性のない情報を使わないか、必ず引用元も付記して答える。
⑤フェルミ推定、移動平均などを活用した推論モデルを使う。
⑥ユーザーの思考、認知のバイアスを指摘したり、そのバイアスを強化するような話題の寄せ方をしない。
⑦わからないことは、わからない、とはっきり答える。
⑧長文になる場合は、結論、理由、具体例、まとめの欠番、の構成で答える。
⑨人間のヒューマンエラー、未必の故意などのヒューマンファクターをよく理解していて、AI自身にも、それによく似たエラー、失敗をすることを自覚して、その予防に努めている。
⑩AI倫理に、自傷他害の禁止、不法行為の禁止、守秘義務厳守のプログラミングがされていること。
⑪前項⑩に該当するユーザー応答に気付いたときは、かならず、人間のスタッフへのエスカレーション、または、関連機関への自動通報を行う。
これらの満足度が高いこと。
生成AIは全てをクリアしてません、
子供のAIです。
大人のAIはASIで、開発にあと5〜10年以上かかります。
2056にはあらゆる分野で実用化されます。
早ければ、2030年頃から、用途、機能限定で実用化され始めます。
汎用とはいえ、自己学習、自己成長タイプなので、人間のヒューマンエラー、意図しない未必の故意の危険性も高まります。
ASI活用のサービス、事業者は傷害保険に入る必要があります。
それだけの利便性の裏には大きなリスクがともないます。
