スマートフォンとパソコンの画面に表示された米フェイスブックのロゴ。英ロンドンで(2016年11月21日撮影、資料写真)。(c)AFP=時事/AFPBB News

写真拡大

【AFP=時事】米フェイスブック(Facebook)は15日、自社の交流サイト(SNS)上でヘイトスピーチ(憎悪表現)の拡散を試みるイスラム過激派に敵対的な環境作りを目的として、人工知能(AI)の活用を強化する方針を発表した。

 フェイスブックなどSNSを運営する大手IT企業に対しては、ヘイトスピーチや過激派の勧誘を撲滅するための対策がほぼ皆無、または遅れているとして何らかの措置を取るよう圧力が強まっている。

 同社幹部はブログで、イスラム過激派組織「イスラム国(IS)」や国際テロ組織アルカイダ(Al-Qaeda)、またそれらの傘下組織などに関連する内容を自動的に特定・削除するプロセスを説明。今後、他の過激派組織も削除対象に加えていく意向だという。

 AIは例えば、新たに投稿された写真・映像が前にもフェイスブック上から削除されたものと一致するかどうかを確認するために用いられている。フェイスブックは現在80以上の言語で運営され、約20億人のユーザーがいる。

 フェイスブックはまた、テロリズムへの賛美・支援を表す文言を十分認識する機能を持つシステムの実験も行っている。さらに過激派に関する内容を投稿してフェイスブックから排除されたことのある「常習犯」の偽アカウントを見抜く機能も向上していると強調している。

 AIの活用は今後、フェイスブックのメッセージアプリ「ワッツアップ(WhatsApp)」や画像共有サービス「インスタグラム(Instagram)」にも拡大される。

 ただし、AIによって過激派関連の全投稿を発見するのは不可能であり、またAIがミスを犯すこともある。フェイスブックは平行して監視人員の強化も行っており、過激な映像を追跡・削除するために新たに3000人を雇用する方針をすでに明らかにしている。
【翻訳編集】AFPBB News