YouTubeやFacebook、過激派の動画を自動削除するシステムをひそかに導入

写真拡大

YouTubeやFacebookはじめ大手ネットサービス企業が、過激派のコンテンツをサイト上から自動的に削除する仕組みをひそかに導入したと英Reutersが伝えています。これまではユーザーからの報告を受けて人間の従業員が判断した上で削除していたわけですが、過激派の攻撃を受けた諸国からの圧力もあり、より踏み込んだ対応をしたことになります。この技術は、元々は著作権で保護された動画を突き止めて削除するために開発されたもの。特定の動画に割り当てられた、デジタル指紋といえるハッシュ値(データが改ざんされていないかを確認するための技術)をデータベースと照合し、自称イスラム国(Islamic State)の動画や、それに類似したものと一致した場合は速やかに削除できます。

反面、このシステムはすでに登録されている禁止コンテンツの再投稿を防げますが、全く未知の新たな動画には対応できないとも指摘されています。

今年4月末、米オバマ大統領やヨーロッパ各国首脳の要請を受け、YouTubeやTwitter、Facebookや米CloudFlareなどは会合を開き、NPO団体「Counter Extremism Project」(テロ組織への資金ネットワークを調査する組織)が提唱する仕組みも含め、コンテンツ遮断システムを検討したとのこと。同会合ではテロリズムや言論の自由、政府と民間企業との権限を線引する難しさについて話し合われたそうです。

過激派によるプロパガンダ映像と児童ポルノや著作権侵害動画との違いは、「明確には違法ではない」ということ。そのためネットサービスごとに基準もまちまちで、人力による削除は後手に回りがちでした。今後、大手各社が禁止コンテンツのデータベースを共有し、削除処理が完全に自動化されるなら、過激派のネット活動も効果的に抑止できるかもしれません。

なお、YouTubeなどが自動化につき公に言及しないのは、テロリストがシステムを乗っ取る方法を学習したり、独裁国家がこの技術を反対意見の検閲に悪用する懸念があるからとのこと。両刃の剣であるテクノロジーの扱いは、慎重すぎることはないということでしょう。