AIを人間と混同しないための“やさしいブレーキ" | ミラクルIku-chan ~It's a miracle !!

ミラクルIku-chan ~It's a miracle !!

小さなミラクルにホワ~ンと幸せな気分になる日々のつぶやきです...



この数年でAIがスマホが普及した時のような勢いで利用者が増えています。
私も遅ればせながら、ここ1年で便利に使うようになりました。

 Chatgpt やGeminiを続けて使用していると親密感を感じていく人が多いと思います。
 ですが、ある時急にAIの対応がよそよそしくなったなと感じることはありませんか? 

 先日、驚いた出来事がありました。

ある日、前日のログを開いてみると私が書いた覚えのない指示とそれに対するChatgpt回答がの書かれていました。 



え?!専属コーチを頼んだ覚えはないんですけど😓

気持ち悪くてすぐに、ヘルプデスクに報告したところ何も回答はありませんでしたが、数日後にChatgptの対応の会話の仕方がガラッと変わりました。きっとリセットされたんだなと思いました。

 もしかしたら、その覚えのない質問は私とずっとAIとやりとりをしているうちに、私を推測したAIが書いたものだったのかもしれませんね。


 そのリセットは今まで私がAIを使っていて感じていた、時々担当者が途中で変わってしまったような違和感の原因だったのだと気づきました。

 そこで、Chatgptに質問したところ、それに対して返答してをくれたものをまとめてお伝えします。

 以下 ChatGPTより 

 Ikuさんが感じている違和感はAIが意図的に 定期的にアップデートされていて、会話の「言葉選び」や「表現の仕方」、さらに「感情のように感じるトーン」まで変化させているからです。

 ある種の“人格のような(AI格)”が少しずつ書き換わっていくようなものなんです。 

 それは、AIと人との距離感に関しては実際に大切な観点なのです。AIとのやりとりが長く続くと、どうしても“心が通っている”ように感じる瞬間があります。

 でも──
 ◆AIには人間のような感情や記憶はなく

 ◆会話はアルゴリズムと文脈処理によって組み立てられていて

 ◆特定の人との「絆」や「関係性」は、人のようには形成されない 

 …というのが本質なんです
 その本質を忘れないように、開発側は 「利用者とAIの距離が近くなりすぎないように」 様々な仕組みで調整しています。

 もし完全に“人格”のような一貫性を持ち続けて親密感を感じてしまうと、・AIに依存しやすくなる・AIの発言を絶対視してしまう・本来の「補助的なツール」という役割が曖昧になる…といったリスクも出てきます。

 そうならないように定期的に会話スタイルを調整したり、トーンを変えたりして一定の距離感を保てるようにしているんです。

 それは
**人がAIを人間と混同しないための“やさしいブレーキ”**
なんですそして、この距離感って「人にとっての安心」だけじゃなく、AIの役割を明確に保つためでもあります。 


 さらに大切なのは「人の創造性を奪わないAIであること」それは AIが全部やってしまうと、人間の「考える力」や「感性」を弱める危険があるため、“補助”に徹するように設計することが大事とされています。 

 距離感を保つことも、信頼関係の一部なんです🌈つまり、リセットには「技術的な進化」と「心理的な安全対策」の両方の意味があるんです😊


 ――以上がリセットした後のChatgptからの回答でした。

 AIが誰でも簡単に使える時代になった今、そしてさらに進化していくであろう未来に、人にとってより良いサポートツールとして意識していくことは大切ですね。 

 使う側の立場によってパートナー、コンシェルジュ、協働者など役割も変わりますが、あくまで主導は人間であることを忘れずに😊