フェイスブックではユーザーが快適に使えるようにAI(人工知能)を活用するほか、先端研究も進めている(編集部撮影)

各国の大企業がこぞって独自開発し、活用に乗り出すAI(人工知能)。日々、膨大な量の写真や動画が投稿されるフェイスブックも、プラットフォーム全体の健全性を維持するのにAIをフル活用しているほか、すぐにはビジネスに結び付かないような先端研究にも力を注ぐ。
今のAIには何ができて、何ができないのか。AIはこの先、どう進化するのか。同社の学術的研究を担うチーム「Facebook AI Research(フェイスブック人工知能研究所)」のエンジニアリング・マネージャー、アレクサンドル・ルブリュン氏に最前線の研究について聞いた。

100億枚から不適切な写真をAIが監視

――フェイスブックのサービス上では、AIはどのように使われていますか。

フェイスブックには、1日約100億枚の写真が投稿されている。そのすべてを人間の目でチェックするのは不可能なので、ここでAIが活躍する。具体的には、タイムラインやメッセンジャーに写真が投稿されると、これは一般に見せていいものか、たとえば暴力的だったり、性的だったりしないかを瞬時に判断する。好ましくない写真をアップしようとしている人は絶えず存在しているので、まずはそれをはじくのがAIの重要な仕事だ。


アレクサンドル・ルブリュン氏はフェイスブックにおけるAI研究の第一人者。2015年に同社が買収したベンチャーのCEOを務めていた(記者撮影)

もう一つの役割は、AIで写真の内容をより深く理解し、誰が「いいね!」するかを判断すること。たとえばネコ好きの人には、ネコが写っているとAIが認識したものを優先的に見せようとする。一方で友人の赤ちゃんの写真を見飽きている人には、赤ちゃんの写真を見せる頻度を下げようとする。コンテンツの中身を理解して、それを楽しめる人とのマッチングを図っているわけだ。

写真だけでなく、テキスト、動画、VR(仮想現実)でも何でも、コンテンツの内容をより深く理解しなければ、ユーザーにとってよいセレクションをするのは難しい。特に写真や動画に関しては、テキストと違った難しさがある。どのユーザーに見せるべきか、誰に好まれるコンテンツか、という判断を的確にできるよう、研究を進めている。

それ以外にも、視覚障害がある人のためにAIで写真の内容を把握して音声で説明したり、テロ行為や自殺願望をほのめかすような写真・動画投稿を検知して迅速に対応したりと、あらゆる面でAIを活用している。

――さまざまなITサービスの中でも、フェイスブックのようなSNSはAIと親和性が高い分野ですか。

フェイスブックに限らず、今日のSNSはどれもAIなしでは存在しえない。なぜなら表示するコンテンツを高度に選択しないと、ノイズが多すぎるからだ。いかがわしいもの、不適切なものを機械的にフィルターにかける機能がない状態では、あっという間に危険なプラットフォームになってしまう。今のソーシャルメディアの規模を考えればなおさらだ。

残念なことに、悪いことをしようとする人々も、AIの目をどうにかすり抜けようと頭を使って新しい手法を編み出している。10年前には、(テキストの)キーワードを含むものを抽出して不適切性を判断していればよかったが、今はそれだけではまったく不十分。ソーシャルメディアの未来は、質のよい、高精度なAIなくしてはありえないといえる。


フェイスブックのライブ動画機能で自殺などをほのめかす発言をしていると、AIが検知し、助けになるリソースの案内が表示される(写真:Facebook)

AIはまだまだ”インテリ”ではない

――今のAIの改善点、限界はどこにあるのでしょう?

アーティフィシャルインテリジェント(AI)と言われる割に、まだそんなに“インテリ”ではない点だ。今、機械学習は「教師あり学習」という手法が主流だが、膨大な量の例をAIに見せて学ばせる必要がある。たとえば、AIが温度のセ氏からカ氏への変換をできるようにするには、200〜300の事例を読み込ませる。AIが「これはネコの写真だ」と認識するには、少なくとも1万枚程度のネコの写真を見せる必要がある。

人間の子どもならどうか。たとえば、ネコという動物を認識させたい場合、せいぜい5回くらいネコに遭遇すれば、「これがネコだ」という認識が生まれる。熱湯に指を突っ込んでやけどをしてしまったら、一度だけでその先ずっと覚えていると思う。AIは、最先端のものでも何千回と同じ経験をしなければうまく認識できない。

実はAIの教師あり学習という手法は、1980年代から30年くらい行われている。その間、裏側のアルゴリズムはほとんど変わっていなくて、やっと(収集できる)データの量とPCの計算能力が十分な水準に達し、機能し始めたのがここ5年だ。それと同時に専門家の間では、教師ありの機械学習は数年内に一定のポイントに到達できるという自信が生まれている。限界地点が見えてきた、ともいえる。

アウトプットの種類を考えても、教師あり学習には限界がある。不適切な写真をはじく、英語から日本語に翻訳する、交通規制通りに自動運転をする、チェスの試合をする、といった、ある程度シンプルなタスクの場合はうまく機能する。でも、感情豊かに人と対話したり、もっと深い推論を行ったりする能力は、今の教師あり学習の延長上にはないまったく新しい分野になる。

――「教師なし」の機械学習はどのくらい研究が進んできたのでしょうか。

まだ始まったばかりで、最適な解決策の糸口を探している段階だ。その中で一つ、私たちが進めているのが、子ども、乳幼児を生物学的に深く研究し、そこからインスピレーションを得ようという試み。彼らの学び方を観察して、それを機械の学び方に生かせないかという考え方だ。

子どもは本当にすごい。1日10時間起きているとすれば、そのうち95%は「教師なし学習」の時間。つまり、「これはペンだよ」「これはリンゴだよ」と教え込む作業をしていないにもかかわらず、自分で見て、聞いて、遊んで、探検して、学んでいる。ほんの少量のデータで、一気に賢くなる。われわれの最先端のAIよりはるかに頭がいい。

会社が違っても研究コミュニティは一緒

――子どもの学び方にヒントを得ようとするのは、AI研究の共通的なアプローチなのでしょうか。

研究者のコミュニティはある種の”家族”のようなもので、所属がフェイスブックだろうがグーグルだろうがIBMだろうが、あまり関係がない。皆が同じカンファレンスに出て、とてもオープンな環境で研究しており、この会社だからこの方向性、というものもない。自由度の高い、ボトムアップの世界だ。


すぐに自社のビジネスに結びつかないようなAIの基礎研究もフェイスブック社内では進められている(写真:Facebook)

私自身が所属しているAI研究チームも、もっぱら学術的な研究開発を行い、すべての活動をオープンにしている。私たちの第一の目的はフェイスブックの事業を助けることではなく、あくまで最先端のAI技術を追い求めることだ。もちろん、それが時としてフェイスブックのビジネスに直接役立つことはあるが。

特に教師なし学習の研究は、これから非常に長期戦になるだろう。10年間研究し続けても結果が出るかわからないというレベル。そういう類の研究に投資し続けられる企業はあまり多くないが、長期的かつ抽象的な研究が科学の発展のためには重要だ。

――最近では音声アシスタントやスマートスピーカーが盛り上がっていますが、非ディスプレー型製品が普及した先に、フェイスブックはどのような姿になっているでしょう?

構図として、(テキストや写真などの)ビジュアルに相対する概念としての音声、という形にはならず、相互補完的になっていくのではないか。たとえば、オープンスペースで仕事をしているときや、すごく複雑で体系的な情報を取得しようとしているときには、テキストや写真、表などのほうが適している。でも運転中や料理の途中にちょっとしたニュースを聞くときなら、音声のほうがいい。どちらか一方ではなく、組み合わせて使うことで便利さが増していく。

その流れの中で、フェイスブックをはじめとするSNSの使い方に何らか変化が生じてくるのは明らか。スクリーンを見て使う、というだけではなく、聴覚的な情報や付加価値がより重要度を増す可能性はある。一方で、友達と楽しい出来事をシェアしたり、一緒に何かを体感したりといったコンセプトは変わらないはずだ。