自動代替テキストを説明するアクセシビリティー・チームのマット・キング氏。自身も視覚障害を持つ Photo by Noriko Takiguchi

写真拡大

ディープラーニングの成果を投入

 最近は、コミュニケーションの方法が画像になる傾向がますます高まっている。チャットでテキストを送る代わりにスナップ写真を送ったり、ピンタレストやインスタグラムなどの写真投稿サイトで自分を表現したりする。

 こうしたことによって取り残されているのは、視覚に障害を持つ人々だ。健常者にとって写真は「一目瞭然」だが、視覚障害者にとっては「情報ゼロ」に等しい。そこに何が写っているのかの手がかりが何もないからだ。

 それをどうにかしようと、フェイスブックが自社のAI(人工知能)を利用して開発に乗り出した。そして作り上げたのが、フェイスブックに投稿されている写真の内容を読み上げるしくみである。視覚障害者は、ウェブのテキスト内容を知るのにテキストを読み上げるソフトウェアを利用していることが多いが、そこにAIが解析して認識した写真の内容をテキストで記述する機能が付く。

 開発にあたったのは、同社のアクセシビリティー・チーム。数人のチームで5年前から活動しているという。

 このしくみ「自動代替テキスト」は、現在iOS環境かつ英語でのみ利用が可能だ。読み上げ機能(VoiceOver)機能を立ち上げてフェイスブックを開くと、投稿の上部から順に「投稿者名」「投稿日、時間」「投稿テキスト」を読み上げた後に、「次のようなものが写っていると見られる写真があります。樹木、空、屋外」と記述し、その後何人がシェアしたかが加えられる。

 これは、フェイスブックで進められているディープラーニング研究の成果を統合したもので、AIが行う画像認識機能を盛り込み、それをテキストで読み上げているわけだ。同社のAIは画像内に写っているモノをすでにかなり認識できるようになっているが、この自動代替テキストでは現在のところ100のコンセプトに絞っているという。

続きはこちら(ダイヤモンド・オンラインへの会員登録が必要な場合があります)