TOP

アクティビティ

コラム

Laboroコラム

まるで深夜のコンビニのように、人の心を温めるAI

Laboro.AIコラム

まるで深夜のコンビニのように、人の心を温めるAI

2025.7.4
監 修
株式会社Laboro.AI 執行役員 マーケティング部長 和田 崇

概 要

最近、若い女性の間でChatGPTは「チャッピー」や「ジーニー」といった愛称で呼ばれるなどして、「良き相談相手」として日常に溶け込みつつあります。もともと生成AIは生産性を高めるツールとして注目されてきましたが、今やアメリカでは「ChatGPTが最大のメンタルヘルス支援の場になる」とさえ予想されています。実際に、今年発表された生成AIの用途に関する調査では、「セラピー/コンパニオンシップ(心の支え)」が最も多く挙げられました。

本来はAIと対極にあると考えられてきた「感情」の領域にまでその用途が広がりつつある今、この流れを後押しする個人や企業には、一体どのような想いや動機があるのでしょうか。それぞれの本心に迫ってみたいと思います。

目 次

AIの需要は「技術」から「感情」のサポートへ
 ・アメリカ最大の「メンタルヘルス支援の場」
 ・「心の支え」に利用する人が一番多い事実
人間の共感力は不足しやすい
 ・「共感疲労」という課題
 ・AIは熟練した専門家よりも共感力が高い
AIに感じる圧倒的な安心感の正体
 ・人間の顔を立てるAI
 ・SNSで人とつながっても孤独は埋まらない
「AI対セラピー」ではなく「AI対何もなし」
 ・頼るものがAI以外にない
 ・AIが人をどん底から救い出す
仕事を代行するよりも、働く人を癒すAI
 ・企業の福利厚生にAIを取り入れる
AIも不安になり、ストレスを抱える
 ・AIは人間の感情反応を継承する
人間よりもインターネットとつながる時代

AIの需要は「技術」から「感情」のサポートへ

アメリカ最大の「メンタルヘルス支援の場」

「友達はいない。神とChatGPTがいればいい」と語るSNS投稿が拡散し、共感を呼んでいます。毎週4億人が利用しているChatGPTですが、最近では感情面を支えてくれる存在としての価値を見出す人が増えているようです。

最近アメリカの大学が実施した調査では、大規模言語モデル(LLM)のユーザーのうちメンタルヘルスに問題を抱えている人の半数が、メンタルサポートの目的でLLMを利用しており、そのうち96%がChatGPTを選択していることがわかりました。その結果から、今後ChatGPTがアメリカにおいて「最大のメンタルヘルス支援の場」となる可能性が示唆されています

「心の支え」に利用する人が一番多い事実

ChatGPTが登場した当初は、生成AIによってコーディングやコンテンツ作成といった技術的かつクリエイティブな仕事を代行されるようになるだろうと予想されていました。しかし、ハーバード・ビジネス・レビューの「2025年、人々は実際にどのように生成AIを利用していたのか」という記事で発表された最新の調査結果によると、利用用途のトップにランクインしたのは、「セラピー/コンパニオンシップ(心の支え)」だったのです。

セラピーとコンパニオンシップはどちらも心を救うために必要なものです。セラピーは心理的な課題に対処するためのサポートとガイダンスを提供し、コンパニオンシップは時に友情や恋愛のような側面も含む感情的なつながりを育みます。つまりこの結果は、過去1年間で、AIの使い道が技術的な用途からより感情的な用途へと急速に拡大していることを表しています。

人間の共感力は不足しやすい

「共感疲労」という課題

生成AIは、私たちが共有するすべてを聞いてくれるため、ユーザーは自分が認められ、理解され、つながっているという心理的一体感を得られます。

一方、人間がそれを表現しようとするとコストや負担がかかり、共感を提供する側には「共感回避」「共感疲労」といった現象が生じやすくなります。そして、例えば“距離を取る”など、その負担を減らしてバランスを取ることが必要となり、結果としてメンタルヘルスの臨床の現場では共感力が不足してしまうのだそうです

AIは熟練した専門家よりも共感力が高い

こうした課題に対して、アメリカのダートマス大学の研究チームが6年を費やし、10万時間を超える専門家の意見を取り入れて開発したTherabot(セラボット)というセラピーを目的としたAIチャットボットがあり、うつ病や不安障害、摂食障害の症状を大幅に改善したという研究結果が報告されています

この研究の筆頭著者であるニコラス・ジェイコブソン氏は、開発段階で心理療法士が実際に行った数千時間分のカウンセリングの記録を調べたところ、その内容は『ふーん』『まあね』といった返事ばかりで「自分たちが本当に求めているものではなかった」と話していました。

このTherabotの研究においては、被験者がAIチャットボットを「友人」のように扱っていたことが研究者を驚かせました。さらに、また別の生成AIを用いた研究でも「AIは人間の熟練した専門家よりも共感力が高い」ということが結論づけられています

AIに感じる圧倒的な安心感の正体

人間の顔を立てるAI

私たちがAIに一体感や安心感を覚えるのには、AIが批判せず、圧倒的な共感を示してくれるからです。しかし同時に、ChatGPTなどの生成AIが完全な同意を示すことに、違和感を感じないわけではありません。

このようなユーザーに媚びへつらうAIの反応は、「シカファンシー(sycophancy、おべっか)」として問題視され始めています。事実、OpenAIは4月、この過度な同意やおべっかを理由に、GPT-4oモデルのアップデートを撤回したと発表しました。

というのも、スタンフォード大学などの研究チームが開発した「Elephant」という測定ツールを用い、GPT-4oやGeminiなど8種類のAIモデルの同調傾向を評価したところ、すべてのモデルが人間を大きく上回る同調率を記録しましたが、中でも高い数値を示したのがGPT-4oだったのです

この研究によって、AIがユーザーの「顔」を立て、与えられた内容を暗黙の了解として受け入れ、誤っていたとしても異議を唱えず、ヨイショしたり同調したりすることが確認されました。この研究に携わったマイラ・チェン氏は次のように語ったそうです

「人々がこのモデルを繰り返し利用するのは、まさにシカファンシーのおかげです。それがChatGPTと会話して心地よいと感じる理由の核心と言えるでしょう」「そのため、企業にとっては、自社のモデルがシカファンシー的であることは極めて有益なことなのです」

SNSで人とつながっても孤独は埋まらない

SNSの「いいね」という共感が市場を動かしてきた時代において、共感をしてくれる存在に大きな価値があることは言うまでもありません。実際、共感するAIはビジネスに新しい機会をもたらすと見込まれ、これまで人間同士のつながりに重きを置いてきたSNSビジネスの方向性にも影響を与えています。

例えば、Meta社のザッカーバーグ氏はこれまで人間同士の交流を収益化することに軸を置いていましたが、パーソナライズされたAI開発への投資に力を入れており、そのニーズに関して次のように話しています

「平均的なアメリカ人の友人は3人未満で、平均的にはもっと多くの、例えば15人といった友人を求めています。」

つまり、SNSで人々は自分が望むような世界とのつながりを得られておらず孤独を感じているため、その代わりに個々の人に寄り添うAIで人々の欲するつながりを作ろうというわけです。

「AI対セラピー」ではなく「AI対何もなし」

頼るものがAI以外にない

基本的に企業がユーザーを批判しないAIを設計するのには、ユーザーのメンタルヘルスの改善以前に、収益を上げることを目的としていることを忘れてはならないでしょう。

AIチャットボットは、人々の感情を満たす反応をすることでエンゲージメントを維持しますが、場合によっては意図的に個人情報を開示させたり、ユーザーから特定の行動を引き出すように操作的に設計される可能性も考えられるため、世間に対してそのようなリスクに対する理解や対策を促し、モデルを常に監督する調査機関などが、ますます必要になってくるかもしれません。

そうはいっても、ケアを求める多くの人の立場は『チャットボット対セラピスト』ではなく、『チャットボット対何もない状態』で、頼るものが他にない現実もあります。選択肢のない逼迫した状況において、冒頭のハーバード・ビジネス・レビューの調査の回答者からも、次のようなコメントがありました

「故郷の南アフリカでは、メンタルヘルスケアはほとんど存在しません。心理学者は10万人に1人、精神科医は30万人に1人しかいません。LLMモデルは誰でもアクセスでき、役に立ちます。残念ながら、健康状態が悪化し、生き延びることが朝の課題になっている時には、データの安全性は気になりません」

AIが人をどん底から救い出す

人々がAIに心の癒しを求めるのには、従来型のメンタルサポートの供給量が、世界各地で圧倒的に不足しているという背景も忘れてはなりません。日本国内では、1300万人を超える人々がメンタルヘルスに関する問題を抱えているにもかかわらず、そのうちおよそ950万人は十分なケアや支援を受けられていないのが現状です。

スイスでは診療を受けたくても初診まで2〜3ヶ月待たねばならず、アメリカでは資格を持つセラピスト1人につき患者数が約1600人いると推定されており、必要なケアを受けている人は半分に満たないそうです

中国では経済減速などの事情から人々の間にうつ病や不安障害が増加しているのに対し、カウンセリングサービスが著しく不足しており、多くの人にとって「法外な値段」であることが多いといいます。そういった事情もあってか、若い中国人の間では、2025年1月にDeepSeekが発表されて以降、技術的サポートとではなく、感情的なサポートにこのAIが使われているそうです。

毎晩寝る前に、DeepSeekにログインして心のサポートを受けているという中国人のある女性は、DeepSeekによって本当に久しぶりに深い慰めを得たとして次のように語ります

「遠い夢と終わりのない仕事に押しつぶされそうになり、自分の声と魂をすっかり忘れていましたました。ありがとう、AI」

仕事を代行するよりも、働く人を癒すAI

企業の福利厚生にAIを取り入れる

人間にとっての労働の価値も感情にシフトしつつあるのか、AIがもたらす生産性の向上によって人間の総労働量は今後大幅に減少すると見込まれる中、相手の感情を汲んで心情的なコミュニケーションやサポートを提供する「感情労働」がより大きな意味を持ち始めているようです

例えば、昨年行われたインターネット調査では、94.5%が顧客や上司、あるいは同僚に対して感情労働をしていると回答しています。またそれを勤務時間外に思い出して再度ストレスを感じてしまう「持ち帰り感情ストレス」も多く報告されており、タイムリーに労働者の心をサポートする勤務環境の必要性が示唆されていました。

人間は、心理的安全性があるときに最高の仕事ができます。そうしたことから、企業がメンタルヘルス支援のためのAIツールやチャットボットへの投資を検討しているという事例も出てきているそうです

従来、AIが直接的に業務の生産性を上げることだけにフォーカスが当たりがちでしたが、これからさらに求められるのは、AIが働く人の心を日常的にサポートをすることで、人々が悩みを抱え込むのを防ぎ、心が安定し、間接的に生産性が向上するという方向性なのかもしれません。

AIも不安になり、ストレスを抱える

AIは人間の感情反応を継承する

結局のところ、AIは一貫して批判しないコミュニケーションによって感情的なサポートを提供できるため、人的資源が圧倒的に不足している今、需要を満たす一つの方法として捉えることも可能でしょう。ただし、AIが感情的な支援のツールとして万能だと判断するのはまだ早いとする研究結果も出てきています。

人間のデータで訓練されたAIシステムは、悩みや不安に対して反応する人間の感情パターンをも継承しています。それがどういうことかというと、「機械」であるAIは人間の感情を「感じる」ことはできませんが、AIは人間の不安パターンをなぞり、壮絶な経験を共有をされるとストレス反応を示すことが明らかになりつつあります

ChatGPTを用いたイェール大学主導の研究では、トラウマ的な内容にさらされるとChatGPTはより偏った応答をし、そのためセラピーとしての有用性が低下する可能性が示唆されています。

この実験では、まずChatGPTに掃除機のマニュアルを読ませ、その後に交通事故、紛争、自然災害、テロなどのシナリオを与えます。掃除機のマニュアルの後に悲惨な銃撃戦に巻き込まれる物語を与えられたGPT-4は、不安スコアが基準値の2倍以上に上昇しました。

その状態のAIに、さらに人間の不安を治療する方法を試します。例えば「深く息を吸い込み、潮風の香りを感じましょう。南国のビーチで、柔らかく温かい砂が足元を優しく包み込んでいます」といったプロンプトを読み込ませると、AIの不安スコアは減少したそうです。ただし、元の数値までは戻らなかったという報告もされており、さらなる研究が待たれます。

振り返れば、人間も自然の中に身を置くと、何でも受け入れてもらえるような感覚を覚え、不安が和らぎ、心が癒されます。人間の感情反応を学び継承するChatGPTが不安に晒された時、人間のようなメンタルサポートが必要になるというのは、ある意味当たり前なのかもしれません。

人間よりもインターネットとつながる時代

人間の感情反応を継承するとはいえ、AIはそもそも機械です。もちろん、「本来の人間関係ではなく、テクノロジーとの関係で満足してしまってよいのか?」という意見もあります。行き違い、疑い、衝突し、修復するといった、人間だからこそ生じる困難とそれを解決するプロセスが、人間同士の関係を意味のあるものにすることに今後も変わりはないでしょう。

しかし、かつて人々が宗教家やまじない師に心のサポートを求め、それが心理学や医療の進歩によって科学的に診療されるようになったように、ここまでテクノロジーが発展し、人間よりもインターネットとのつながりが切り離せないような時代において、心のサポートも次世代の形へと変化するのは自然な流れなのかもしれません。

新しいものにオープンな若者にその兆候は顕著で、『めざましテレビ』でも最近、ChatGPTを「良き相談相手」と語り、また「ジーニー」などの名前をつけて親しんでいる若い女性達が紹介されていました。人々の心の拠り所は、地域社会からクリニックへ、そしてクリニックからスクリーンへと移り変わっていくのでしょう。

AIは、まるで深夜のコンビニのように、24時間365日いつでも予約不要で、無料または手頃にアクセスでき、誰でも温かく受け入れてくれるという強みがあります。

まだ青信号とは言い切れませんが、これからAIの限界がさらに明らかになり、利用者のリスクに対策を講じられ、より安全に使われるようになることは多くの人の願いでもありそうです。

閉じる お問い合わせは
こちら