ネット上のウソ・いじめ、AIで対策は進むか

写真拡大

 フェイクニュースやヘイト、セクハラ、パワハラの情報がメディアやSNSを駆け巡っている。フェイクは2016年の米大統領選でも社会問題になり、いじめやハラスメントは学校と会社の抱える問題だ。この難問に人工知能(AI)で対応する技術開発が進んでいる。AIによるファクトチェック(事実確認)やカウンセリングの支援は現実のものになりつつある。

 「虚偽」「根拠なし」「事実誤認」―。ファクトチェックの実践を広げるために17年6月に発足したファクトチェック・イニシアティブ(FIJ、東京都渋谷区)は、第48回衆議院議員選挙に関連した報道や政治家らの発言に厳しい判断を突きつけた。検証作業ではネットの大量の情報の中から記事になる前の「端緒」をつかみ、疑わしい情報を絞り込んで調査にかける。

 端緒となった情報は181件、その内68件が調査され22本が記事化された。FIJ理事の乾健太郎東北大学教授は「ツイートのほとんどは役に立たない。“誤報”や“デマ”と検索しても有用な情報は1000に一つもない」と振り返る。これらの端緒情報は人海戦術で調査した。

 人海戦術に対し、AI技術でフェイクのスクリーニングを効率化する研究が進んでいる。AIがフェイクを特定するのではなく、フェイクの確率が高い順番に情報を並べ替える。

 人間が情報をすべて検証することは不可能だが、優先順位の高いものから確認するとフェイクを見つけやすくなる。乾教授は「手探りよりもはるかに良い技術ができている」と胸を張る。

 このAIは文法を加味してフレーズ(単語の集まり)の意味をとる。まず文章の中から単語を高精度に抜き出し、単語をベクトルで表現。この「単語ベクトル」を単純に足し算せずに、文法に則して行列計算にかける。すると、例えば「殺人事件で容疑者が逮捕された」という文脈で、逮捕したのは“警察官”、逮捕されたのは“犯人”など、意味の通った解析が可能になる。

 この技術をベースに、人間の見つけたフェイクをAIに学習させ、優先順位を決める。乾教授は「単語ベクトルだけでは、フェイクをいくら学習させても精度は上がらない。文法を加味することで学習が回るようになる」という。

 フェイクニュースが集まるほど識別精度が高まり、人間の負担が軽くなる。東北大の技術をもとにスマートニュース(東京都渋谷区)がシステムを構築し、18年夏に稼働させる予定だ。

真偽・深刻さ、どう見分ける?
 ネット上でのいじめやハラスメントも深刻化している。SNSはいじめの道具にも、相談窓口にもなる。文部科学省はSNSを活用した相談体制の構築するために17年度補正予算に2億円を計上した。

 神奈川県座間市で起きた殺人事件を受け、自殺願望やいじめなどの悩みを広く受け止めるのが狙いだ。SNS相談は電話や対面に比べて心理的なハードルが低く、気軽に相談できる窓口になるかもしれない。

 LINEは長野県や情報法制研究所(東京都文京区)などと、いじめ相談の実証実験をしてきた。この実験では10人のカウンセラーが390人の相談に乗った。京都大学の杉原保史教授(臨床心理士)は「テキストメッセージだけでも、子どもに寄り添うことはできた」と評価する。

 課題は相談内容の真偽や深刻さを判断しにくい点だ。AI技術を研究する鳥海不二夫東京大学准教授は「『死にたい』『もう死ぬ』といったメッセージだけでは解析し難い」と説明する。

 とはいえ、LINE相談から電話相談への切り替えも難しい。SNSなら誰にも聞かれずに匿名のまま相談できるが、電話だと家族に相談内容を聞かれるリスクがあるためだ。

 そこでカウンセラーとの相談の前に、自動応答AIの大雑把な対話で状況を整理する用途を検討する。鳥海准教授は「背景情報を一覧して状況を把握してから相談できるよう支援したい」とする。自動応答AIは民間のコールセンターやECサイトなどの顧客対応に導入が進んでいる。