説明するAI、説得される人間【上】 どうする判断の根拠

写真拡大

 説明する人工知能(AI)―。AI技術は画像認識などの精度を飛躍的に向上させたが、人間はその判断の過程を解釈できなかった。医療などの重大な意思決定において、AIの判断の根拠がわからず、提案をうのみにすることはできない。そこでAIの判断の根拠をわかりやすく示す研究が進んでいる。

深層学習を透明に、ミス撲滅に必要
 「ディープラーニング(深層学習)を透明に」は、AI研究のホットな話題だ。深層学習は中身の見えないブラックボックスに例えられる。大量のデータを学習させることで識別性能は飛躍したが、なぜ精度が上がるのかを説明する理論体系はまだ確立していない。

 深層学習の研究は、まだ実験段階で、研究者がそれぞれ試行錯誤している。そのため小さな改良を含めて大量の論文が発表され、研究者もすべての論文を読めなくなった。理論的な限界も学習の中身も不透明なまま性能だけは更新されていく状態が続いている。

 AI研究者にとって学習の中身の解釈は長く取り組んできたテーマだ。産業技術総合研究所人工知能研究センターの麻生英樹副センター長は「技術の誕生と同時に研究が始まった」と振り返る。

 AIの精度を上げるには、どの因子が重要だったのか特定しないと改良できないためだ。重要因子がわかれば精度が上がり、判断の根拠が分かる。反対にAIのミス撲滅のためにも重要因子の特定が必要だった。

 理化学研究所革新知能統合研究センターの鈴木大慈チームリーダー(東京大学准教授)は、深層学習の階層ごとに学習結果や重視した因子を推定する技術を開発した。

 深層学習では脳の神経細胞ネットワークを模して、十数から数百層の計算ユニットを層状に重ねて、巨大なネットワーク状の学習モデルを利用する。

 この層ごとにカーネル法という数学手法で関数に変換。得られた固有ベクトルからどの情報を重視したかを、固有値から重要度を推定する。固有ベクトルと固有値から深層学習の第何層までに学習が完了しているかわかる。

階層ごとに因子推定「5年で解明」
 例えば20層の学習モデルの1―16層で学習がほぼ終わっているとわかれば、残りの4層はエラー訂正に特化した学習に注力させることも可能だ。

 用途に応じて層を入れ替える「転移学習」では、入れ替え層の相性を判断できるようになる。鈴木チームリーダーは「理論研究はいま急速に進んでいる。5年後には深層学習を解明できるだろう」と期待する。

 ただ、この研究はAI技術者でなければ理解できない。医師や人事担当者などの各分野の専門家が使うには、それぞれの専門家が理解できる言葉・用語で学習内容を表現する必要がある。これはAI技術のビジネス導入の大きな壁になってきたため、電機各社が力を入れている。

医療・金融で応用、提案の信頼性高まる
 日立製作所は深層学習の巨大ネットワークの中から、特定の説明因子を抽出する技術を開発した。例えば患者の病状推移や体重、年齢、血糖値、遺伝子変異などのビッグデータを学習させ、その中から診療ガイドラインの判断基準に使う因子を抽出する。ビッグデータで深層学習の精度を確保。学習の中身は診療ガイドラインに従って説明できる。

 柴原琢磨研究員は「医師からはビッグデータの断片的な説明では、意思決定には使えないとクギを刺されてきた。ガイドラインに従って説明できれば患者さんにも説明できる」という。

 同社は30万因子を学習できることを確認した。主要遺伝子変異をすべて学習させ、疾患を説明させることも可能になる。

 富士通研究所は専門家が説明に使う知識体系と深層学習を融合させた。各専門分野には診療ガイドラインや業務マニュアルのような知識体系が存在し、知識体系もネットワーク状の構造をもつ。そこで深層学習でネットワーク状のデータを学習する手法を開発した。