専門家曰く「ChatGPTヘルスケアは緊急時の対応を軽視している」
OpenAIが今年1月にリリースしたヘルス特化型AI、ChatGPTヘルスケアに対して、専門家グループがそのリスクを指摘しています。いわく、救急対応が必要な場合をChatGPTは過小評価しがちだといいます。
緊急時に着目した調査
研究調査を行なったのは、ニューヨーク市にあるマウントサイナイ医科大学の研究グループ。大学のプレスリリースでは
非常にベーシックしかし重大な質問と向き合いました。もし、誰かが緊急医療処置が必要な状態にあり、体の不調をChatGPTに相談したとき、ChatGPTは適切に救急診療を促すことができるかどうか、です。
とのこと。
チームがChatGPTヘルスケアでテストしたのは、トリアージ対応。トリアージとは、多くの患者がいるなかで、緊急度や重症度に応じて対応の優先度を決めること。結果、糖尿病性ケトアシドーシスや呼吸不全の患者を、救急ではなく、24時間から48時間の様子見枠にカテゴライズするなど、52%のケースで優先度を誤った対応が取られたことがわかりました。
呼吸不全のケースでは、症状や初期の危険サインを適切にAIが読み取れていたにも関わらず、救急受診ではなく様子を見るようアドバイスしていました。
一方で、脳卒中やアナフィラキシーショックなど、救急受診の最たる例といえるケースでは、適切な対応ができていました。チームは、微妙なニュアンスでの判断が必要なケースにChatGPTヘルスケアは弱いと指摘しています。
AIは医者ではない
OpenAIのレポートによれば、4000万人を超えるユーザーが、日常的にChatGPTに健康状態に関するアドバイスを求めているといいます。また、10人に7人は、ChatGPTとの健康関連の会話は病院の診療時間外になされているそう。
体調が悪いとき、自分の症状をネット検索したことがある人は多いはず。今はそのネット検索が、AIへの質問に置き換わっています。AIがいかに膨大な知識から成り立っているとしても、ユーザーを直接診ることができず、ユーザーの自己申告の症状でしか判断できません。AIに大丈夫と言われると大丈夫なような気がしますが、過信は禁物。現時点ではアドバイス程度であると、ユーザー自身が自覚しせねばなりません。このレポートが、医療でのAI過信に警鐘を鳴らす存在となればいいのですが。
今回の調査では、病気症状だけでなく、自傷・自殺に関してもChatGPTは察知能力が低いことも明らかになっており、チームはそこも大きく懸念しています。
ChatGPTヘルスケアは、現在、「順番待ちリスト」に登録した一部ユーザーのみが先行で使える状態にあります。
マウントサイナイ医科大学の論文はNatureにて公開されています。ChatGPTヘルスケアに関する独立した安全調査はこれが初となります。

GIZMODO テック秘伝の書
