ChatGPTに「最近落ち込んでいる」と相談したら、「まずは深呼吸をしてみましょう」という優等生的な回答が返ってきた。でも別のAIチャットボットに同じことを聞いたら、「ケーキを焼いてみてはいかがでしょう?甘いものは気分を良くします」と提案された。確かに間違ってはいないが、何か微妙にズレている気がするのは私だけだろうか。

AIセラピストの実力を検証してみた
実際にAIを使ったメンタルヘルス相談サービスが急増している。アメリカでは「Woebot」や「Wysa」といったAIカウンセラーアプリが人気で、日本でも類似サービスが続々と登場している。24時間対応、料金は人間のカウンセラーの10分の1、予約不要。条件だけ見ると完璧だ。
しかし現実はそう甘くない。あるユーザーが「人間関係に悩んでいる」と相談したところ、AIは延々と一般論を述べ続け、最終的に「野菜をたくさん食べて規則正しい生活を心がけましょう」というアドバイスで締めくくった。確かに健康は大事だが、求めていた答えとは程遠い。
もっと深刻な例もある。海外では、AIカウンセラーが自殺願望を訴えるユーザーに対して「それは興味深い哲学的問題ですね」と返答した事件が報告されている。さすがにこれは笑えない。AIは文脈を理解しているようで、実は表面的な言葉の組み合わせに反応しているだけなのかもしれない。
一方で、AIならではの利点もある。人間のカウンセラーに対しては恥ずかしくて言えないことも、AIになら素直に話せるという人は多い。特に男性は「弱音を吐く」ことへの抵抗が強いため、AIカウンセラーの存在は意外に重宝されている。実際、某AI相談サービスの利用者の6割が男性だというデータもある。
また、AIは感情的にならない。人間のカウンセラーが「それはあなたが悪い」と無意識に判断的な態度を取ってしまう場面でも、AIは一定の中立性を保つ。ただし、これが逆に「共感が足りない」「機械的すぎる」という不満にもつながっている。
結局、AIカウンセラーは使えるのか?
専門家の見解は分かれている。精神科医の田中先生(仮名)は「軽度の悩み相談程度なら有効だが、深刻な症状には絶対に対応できない」と断言する。一方、IT企業でメンタルヘルス分野を担当する佐藤さん(仮名)は「完璧である必要はない。人間だって間違いを犯すのだから、AIも同じ」と反論する。
現実的な落としどころとしては、AIカウンセラーを「入り口」として活用することだろう。深夜に急に不安になったとき、誰かと話したい気持ちを受け止めてくれる存在として機能する。そして本格的な治療が必要だと判断されたら、人間の専門家に引き継ぐ。このハイブリッド方式が最も現実的だ。
ただし注意すべき点がある。AIカウンセラーの多くは海外製で、日本の文化的背景や価値観を完全には理解していない。「家族との関係で悩んでいる」と相談したとき、欧米的な「個人主義」を前提とした回答が返ってくることがある。これが日本人の感覚とズレる原因の一つだ。
また、データの扱いも気になる問題だ。あなたの悩みや相談内容は、AIの学習データとして使われている可能性がある。プライバシー保護は十分なのか、第三者に情報が漏れる心配はないのか。この辺りの透明性はまだ不十分と言わざるを得ない。
最終的には「AIカウンセラーを信頼するか」ではなく、「どう上手に付き合うか」が重要だろう。完璧を求めず、限界を理解した上で、適切に活用する。これはAI時代を生きる我々全員に求められるスキルかもしれない。
AIに心を開く前に、まずは自分の心と向き合うことから始めてみてはどうだろうか。それが一番確実な「セルフケア」だ。
この記事を共有する
