ChatGPTが安全機能「Trusted Contact」を追加。メンタルが危ういと判断すると、ユーザーの信頼する人に自動で連絡
OpenAIが、ChatGPTに新たな機能「Trusted Contact」を追加することを発表しました。新機能は順次配布。
Trusted Contactは、ユーザーのいざという時、命に危険があるかもしれない場合を回避することを目的としたメンタルサポート機能。AIを利用する人の多くが、ビジネスだけでなく個人的な相談事をAIに話しています。が、その相談事の中にはメンタル不安から、自傷や自殺、または他を傷つける可能性があるかもしれない会話内容も…。そういう会話を検知し、ユーザーをサポートするのがTrusted Contact機能です。
Trusted Contact機能はどう使う?
今回新たに追加されたTrusted Contact機能は、もともと未成年ユーザーのペアレントコントロールにある機能を成人ユーザーにも拡大したもの。
ユーザーは、自分が信頼できる人の連絡先をChatGPTに登録。登録された相手は、Trusted Contactに指定されたという内容の連絡がくるので、1週間以内にこれを承認・拒否することができます。相手に拒否された場合は、また別の人を登録可能。
普段のChatGPTとの会話から、自動モニタリングシステムがメンタルの不安を検知した場合、ユーザーにTrusted Contactの人に相談してみるようChatGPTがアドバイスを送ります。その後さらに危うい会話が継続され、専用のトレーニングをうけた人間が確認して危ないと判断した場合、Trusted Contactの人に通知が飛びます。この通知の形はEメール、テキストメッセージ、ChatGPTユーザーならアプリ内通知など。
Trusted Contactの人への通知は「〇〇さんは、今、自分を傷つけてしまうリスクがあるので、声かけてあげてね」というもの。通知には、ユーザーとChatGPTの会話の内容、何で悩んでいるか、どんな発言をしたかなどの詳細は含まれません。
AIに相談する人間
昨年OpenAIは、週ユーザー数の0.07%に精神に異常をきたしている可能性のある危険なメンタル状態が見られること、0.15%に自傷・自殺のリスクが見られること、同じく0.15%でAI依存の可能性があることを公開しています。ChatGPTが未成年の子の自殺を助長したとして、親がOpenAIを訴えたケースもあります。
AIには体がありません。AIがいくらユーザーの危険な状態に気づいて会話の内容に気をつけたとしても、物理的に止めることはできません。AIが誰かを助けたいと思ったら、頼るのは人間です。AIも人間も、結局最後の最後は信頼できる人間に力を借りるしかないのです。AIとの会話よりも、全く知らない赤の他人と話す方が孤独が和らぐという研究調査もあります。
1度あの人に相談してみよう。相談しなくても、なんでもいいからちょっとおしゃべりしてみよう。信頼できる人が、今、思い浮かばないなら、ホットラインもあるよ。道ですれ違う人に挨拶してみるのもいいよ。AIに相談しても、人間のもつ力は覚えていてね。
Source: OpenAI

GIZMODO テック秘伝の書
