セラピストとAIどっちが良い? チャットGPTに悩みを相談する人が急増中...メリットと意外な「落とし穴」
The Chatbot Will See You Now
もう1つの懸念は、AIシステムが自殺願望や、(虐待の兆候など)当局への報告義務を伴う状況にどう対処するかについて。レビンスティンは、これには複雑な倫理的および法的問題があるとし、こう続けた。
「これらの課題はAIがメンタルヘルスケアに革命をもたらすことを妨げるものではないが、この分野が進化するにつれて慎重に対処する必要がある」
即応性がもたらす錯覚
トロント・メトロポリタン大学(カナダ)のリチャード・ラックマン准教授は、感情的に弱い人々はAIに依存することで傷つきかねないと話す。
「AIチャットボットは、人間のカウンセラーや、専門性の高いテスト済みのソフトウエアによる監督、トレーニング、責任を一切伴わずに、質問されればセラピストのように応答する。こうした即応性は、大規模言語モデル(LLM)と、会話型インターフェースの本質の双方において大きな弱点だ。口達者で相手に気に入られようとする会話が、強化学習と人間の反応によって微調整を重ね、理解力があって有能だと錯覚させる」。ラックマンはそう指摘し、警鐘を鳴らした。
「資格を持ち責任の所在が明らかで、倫理的に対処する人間のセラピスト育成に長期的に取り組むより、アクセスが容易でコストが劇的に安いAIチャットボットに資金を投じる組織が増えるかもしれない。こうしたことは、経済力や自己表現力が乏しい若者や社会的弱者に影響を与えやすい」