医療AIの課題 バイアスのないアルゴリズムはつくれるか?

写真拡大

人工知能(AI)は病院やヘルスケア団体に活用され始めている。CTスキャンの解析から、どの患者が治療中に最も衰弱しやすいかを予測することまで、AI技術はあらゆることに使われているのだ。

アルゴリズムを走らせるための情報源は電子カルテだ。これらのアルゴリズムは、医師が腫瘍の変異具合をもとに最適ながん治療を選んだり、過去の患者のデータをもとに治療計画を立てたりするのを助けるために設計されている。

しかし、アルゴリズムやロボットは、ヘルスケア領域における倫理を学ぶことができるのだろうか?

スタンフォード大学の医師グループは、AIを医療に使うためには倫理面での課題があり、ヘルスケア分野のリーダーたちはAIを実装する前にそのことについてよく考えなければならないと主張する。

「機械学習システムのメカニズムを理解しないままでいること、それをブラックボックスのままにしておくことで、倫理的な問題が発生することになるでしょう」。彼らは3月中旬に発刊された「New England Journal of Medicine」(NEJM)でそう綴っている。

彼らの懸念はタイムリーなものだった。同じく3月中旬、こんなヘッドラインが飛び込んできたからだ。「医者と同じように前立腺がんの診断を行うスマートソフトウェア」。

中国・南京市のドラム・タワー病院の研究グループが、コペンハーゲンで開催されたヨーロッパ泌尿器科学学会のなかで、前立腺がんを特定するAIシステムを開発していることを発表した。これは人間の細胞をもとに、がんがどれくらい悪性かを識別できるものである。

「こうしたAIは、医師が足りていない領域においてはとても有益なものとなるでしょう。すべてのオートメーションと同様に、医療AIは専門知識をもつ人々への依存を少なくすることができるのです」。中国チームの研究をレビューしたイタリア人研究者は、声明のなかでそう語っている。

バイアスのないアルゴリズムはつくれるか?

AIが完全に人間の医者に取って代わることになると考える専門家は少ない。少なくとも短期的には。その代わりに、マシンラーニングは「意思決定のサポート」をするために使われることがほとんどである。医師が正しい診断をしたり、個々人に合った治療をしたりすることを助けるものだ。それはとても有益なものとなりうる。

フォーブスのコントリビューターでスタンフォード大学教授であるロバート・パールは、Permanente Medical Groupによって開発されたAIについて記事を書いている。グループは65万人の患者のデータを集め、どの患者が最も手厚いケアを必要としているかを特定するためのAIを開発。システムが危険状態にある患者について知らせることで、医師は患者が集中治療室に運ばれる前に対処することができる。

しかし、NEJMの論文を書いた医師たちがAIについて懸念していることのひとつは、無意識のうちにアルゴリズムにバイアスがかかってしまうことである。そうしたバイアスは、すでにAIが使われている分野で見られている、と彼らは報告している。

たとえば、裁判官が犯罪を犯した人に対して、その人が今後もまた罪を犯しうるかどうかを判断するのを助けるために設計されたAIがある。これらのテクノロジーは「人種差別をする傾向にある」と医師たちは書いている。「ヘルスケア領域のアルゴリズムにも、こうした人種バイアスが無意識のうちに組み込まれてしまう可能性があります」

バイアスを含まないアルゴリズムを設計することも可能だが、それは極めて難しいと著者たちは述べる。ヘルスケア領域でも利益を追求することが求められることの多い米国では、とくに難しいだろう。AIシステムをプログラミングする人々のモチベーションは、医者や介護者たちのそれとはマッチしないかもしれない。そうした状況からバイアスは生まれるのだと著者たちは言う。