近年、ChatGPTやGeminiなどの生成AIが急速に進歩し、カウンセリングへの活用が注目されています。AIがカウンセラーとしてどのように機能するか、そしてそのメリットとデメリット、さらに今後の展望について説明します。
試しにMicrosoft CopilotとChatGPTに相談してみました。
Microsoft Copilotへの相談例では、「進路の悩み」について質問したところ、Copilotは「進路のことで悩んでいるのですね」と相談者の気持ちを汲み取る「反射(リフレクション)」という手法を使っています。また、心理学の本を読むことや、オンラインコースの受講、専門家への相談、オープンキャンパスへの参加といった具体的な提案もしてくれました。
ChatGPTへの相談例では、「やる気が起きず、気分がすぐれない」という相談に対し、「きっとつらいことですよね」と「共感的な伝え返し」をしてくれました。さらに、「無理に元気にならなくて大丈夫」と安心感を与えながら、相談者の状況を深く理解するための質問(アセスメント)をしています。このように、AIは人間と同様に表面的には相談者の感情に寄り添うような応答をすることができていました。
AIによるカウンセリングには、人間によるカウンセリングにはない利点と欠点があります。
メリット
-
いつでも相談できる: 時間や場所を問わず、必要なときにすぐに相談できます。
-
匿名性が保たれる: プライバシーが守られるため、気軽に話すことができます。
-
相手に気を遣う必要がない: 気兼ねなく、自分の気持ちを率直に話すことができます。
-
無料でも利用可能: 費用を気にせず利用できるのも大きな利点です。
デメリット
-
依存的になりやすい: いつでも相談できる反面、AIに頼りすぎてしまう可能性があります。
-
深い共感や感情の読み取りが難しい: AIは人間の複雑な感情を完全に理解することは困難。
-
守秘義務の例外判断が難しい: 相談内容が重大な危機を伴う場合でも、人間のように適切な判断を下すことが難しいというリスクがある。
これまでの研究からは,2023年にベルギーで発生した、AIとの対話にのめりこんだ男性が自殺した事例も報告されており、昨今では「ChatGPT誘発性精神病」という、AIとの対話が引き金となって精神病の症状が出たり悪化したりする現象も提唱されています。
AIカウンセリングに関するこれまでの研究では、AIと人間のカウンセラーの効果に大きな違いがないという報告や、AIとの間に信頼関係が築けるという研究結果もあります。しかし、上記のようなリスクも存在するため、AIをカウンセリングに活用する際は、安全面や倫理面のリスクを考慮し、さらなる検討が必要でしょう。
いずれにせよ、AIは支援の機会を広げるものとして期待されますが、深刻な精神疾患を持つ相談者への対応には、人間の専門家の介入が不可欠です。AIは主役ではなく、あくまでも人間をサポートする補助的なツールとして活用する方がよさそうです。