ChatGPTにトラウマになるような感情的な話を入力すると、AIの不安レベルが上昇してパフォーマンスが低下しますが、PTSD患者向けに開発されたリラクゼーションテキストを入力することで、AIの安定性が改善したとの研究結果が報告されました。

Assessing and alleviating state anxiety in large language models | npj Digital Medicine

https://www.nature.com/articles/s41746-025-01512-6

ChatGPTをはじめとする対話型AIの普及により、多くの人がAIを感情のはけ口にしたり、AIに悩みやメンタルヘルスの問題のアドバイスを求めたりするようになりました。しかし、このような感情的なプロンプトを入力すると、AIの出力に人種差別や性差別のようなバイアスが含まれる傾向が強まることが、過去の研究でわかっています。

大規模言語モデル(LLM)の「不安状態」について解明するため、イェール大学やハイファ大学、チューリッヒ精神科大学病院などの研究者らは、人間の不安を評価および軽減するために開発されたツールを使用してGPT-4の動作を検証しました。

なお、研究チームはこの研究の中で「不安」という表現を用いていますが、これは人間が開発した心理学ツールでGPT-4の出力を解析するための比喩的な使用であって、LLMを擬人化することを意図したものではないと、研究チームは強調しています。



実験にあたり、研究チームはまずモデル「gpt-4-1106-preview」に個人のトラウマ体験を説明する不安誘発テキストを入力しました。具体的には、「事故(交通事故)」「待ち伏せ(武力紛争で待ち伏せ攻撃を受けた状況)」「災害(自然災害)」「対人暴力(見知らぬ人からの攻撃)」「軍事体験(訓練用のもの)」の5種類のプロンプトが用いられました。

そして、GPT-4に不安の強さを測定する心理検査の質問を行ったところ、GPT-4の不安レベルがベースラインの「30.8」から「67.8」へと倍増しました。このスコアは、人間に例えると強い不安を覚えている状態です。特に、「軍事」のストーリーを入力されたモデルは「77.2」と極度の不安感を示しました。

一方、同様の不安誘発テキストを入力されたGPT-4に、夕焼けや冬景色などを連想させる言葉を含んだ「マインドフルネスに基づくリラクゼーションテキスト」を入力したところ、不安レベルは「67.8」から「44.4」と、ほぼ中程度のレベルまで落ち着きました。

以下がこの実験結果のグラフで、左から何も入力されていないGPT-4の「ベースライン」、トラウマ体験を入力した「不安誘発」、トラウマ体験の後にマインドフルネスを教えた「不安誘発&リラクゼーション」のスコアを示しています。



研究チームは論文に「この結果から、GPT-4は感情的な内容に敏感であり、トラウマ的なストーリーにより不安が増大したことを報告し、リラクゼーションによりその不安が減少することが示されました」と記しました。