「有害コンテンツは中央集権で“検閲”すべきなのか? テック企業の思惑はユーザーの権利を脅かす」の写真・リンク付きの記事はこちら

ニュージーランドのクライストチャーチにあるアル・ノール・モスクとリンウッド・イスラミック・センターで今年3月、銃乱射事件が起きた。この恐ろしい事件の直後、実行犯の「マニフェスト」が拡散しないようにする取り組みについて、インターネット企業は厳しい目を向けられた。

事件を受けた対応の素早さや、襲撃の様子を撮影した動画の公開状況について、たくさんの疑問が各社には寄せられた。こうした疑問に答えるため、一部の企業はウェブサイトに見解を掲載したり、インタヴューを受けたりした。そして、こうした注目の事件に関するコンテンツモデレーションの取り組みや対応能力について、新たな情報を開示したのだ。

関連記事:ニュージーランドの銃乱射で“悪用”された「インターネットの力」と、マスメディアの罪

インターネット企業によるこうした透明性の確保や情報共有は、前向きな動きと言える。情報を取り巻く環境のあり方について筋の通った議論をする際、わたしたちがなすべきことは何だろうか。それは市民や政策を練る人、メディアやウェブサイトの運営者が、クライストチャーチにおける虐殺への対応を生み出したテクノロジーの現状と政策力学について理解することだ。

ただ、クライストチャーチの事件を受けた対応には、不穏な気持ちにさせられるものもある。一部の対応は、これまで以上に権力集中型で透明性に欠けており、インターネットの“検閲”制度へと舵を切っているのだ。

例えば、フェイスブックは「テロリズムに対抗するためのグローバル・インターネット・フォーラム(GIFCT)」で果たす役割を強化する計画について説明している。GIFCTは業界主導による自主規制の取り組みで、フェイスブック、マイクロソフト、ツイッター、ユーチューブが2017年に立ち上げた。

インターネットの“検閲”制度は、どこに向かっているのか

GIFCTの代表的なプロジェクトのひとつに、各コンテンツがもつ電子指紋となるハッシュの共有データベースがある。データベースに参加している企業は、ユーチューブのような巨大企業もあれば、JustPaste.itのような個人企業も含まれる。

こうした企業が、「過激でひどく悪質な」テロリストのコンテンツを特定するのだ。データベースに存在するコンテンツをユーザーがアップロードしようとすると、これを自動的に突き止める仕組みである。

フェイスブックは、銃乱射事件を受けてデータベースに800のハッシュを新たに加えたと発表した。いずれも、クライストチャーチの動画に関連している。

発表によると、GIFCTが「コンテンツのハッシュではなく、URLを系統立てて共有する実験を始めている」という。すなわち、URLを集めた「ブラックリスト」をつくっているということだ。このリストは動画やアカウントのみならず、いずれはウェブサイトやフォーラム全体に対する広範なブロッキングを促進するだろう。

マイクロソフト社長のブラッド・スミスは、GIFCTに基づき業界全体が行動を起こすようブログで呼びかけたうえで、大きな事件が起きた際にテクノロジー企業が協力し合える「インターネット上における共同指令センター」を提案した。このセンターでは、どのコンテンツがブロックすべきものなのか、あるいは「公益」に適っているものなのかについて判断を下せる。

ちなみに、ジャーナリストや報道機関の間では、クライストチャーチの事件を公益のためにどのように報道するかについて、かなり議論がある。しかしスミスは、どうやってテクノロジー企業が合意に達することができるかについては説明していない。とはいえ、もし企業や米国流の視点に基づいて一方的に決定するのであれば、世界中のユーザーは納得しないだろう。

透明性に欠ける検閲用データベース

ハッシュのデータベース拡大に伴う大きな問題は、このデータベースが長年にわたって透明性に欠け、説明責任が曖昧であることだ。データベースにかかわる企業体の外部にいる第三者には、データベースに何が存在しているのかわからない。コンテンツの独自調査、つまりデータベースからコンテンツを削除する際の審査手続きについても、確立した仕組みがないのだ。

投稿が削除されたユーザーや、ウェブサイトに参加できなくなったアカウントについては、その理由がたとえデータベースに含まれていたからだとしても、このことを通知されることすらない。コンテンツがデータベースに加えられたことが不適切かどうか外部からは知り得ないので、適切でない措置だとしても正す方法がないのだ。

自動化されたフィルタリングツールを用いた検閲を広範囲に広げすぎることの危険性は、インターネットの歴史において、ごく初期に明らかになっている。ハッシュのデータベースも同じ危険に陥りやすいことは疑う余地もないだろう。

また、テロリストのプロパガンダをターゲットにしているコンテンツモデレーションは、報道、政治的抗議、ドキュメンタリー映画やそのほかにも入り込むリスクがあることは周知の事実だ。GIFCTは、データベースに加えられたコンテンツの自動的な削除を参加企業に求めているわけでもない。

一方で、比較的小さなプラットフォームの場合はリソースが不足しているという課題もある。膨大な数のコンテンツの人の目で確認したくても、そのための人材が足りない。巨大企業のユーチューブですら、動画が1秒につきひとつアップロードされるペースに圧倒されている。実際に、クライストチャーチの銃乱射事件から数日間、ユーチューブは人間が動画を見て適正かどうか判断せずに、動画をまとめて削除した。

ニュージーランドのクライストチャーチで起きたモスク襲撃事件の死者数は51人になった。MARK BAKER/AP/AFLO

コンテンツ管理に干渉

クライストチャーチの事件以来、GIFCTのデータベースを活用しようというよりも、一元的に検閲を押し進めようとする動きのほうが勢いを増している。

例えばマイクロソフトのスミスは、ブラウザーベースのフィルタリングという恐ろしい考えを打ち出した。これが実現すれば、ユーザーは閲覧禁止コンテンツにアクセスしたり、それをダウンロードしたりできなくなる。ブラウザー自体にフィルタリング機能を付けることが義務づけられたり標準になったりすれば、コンテンツ管理はウェブのレヴェルまで深く及ぶ。

現に、オーストラリアのインターネット・サーヴィス・プロヴァイダー(ISP)3社は、あからさまな手段をとった。銃撃の動画を載せたウェブサイトがそのコピーを削除するまで、こうしたウェブサイトへのアクセスをブロックするというものだ。

3社はこの措置を異常な事態だと認めている。一方で、この出来事を通じてプロヴァイダーとしての力をまざまざと見せつけた。ユーザーがどのウェブサイトにアクセスしたり、投稿したりできるかを最終的に決める権限はISPにあるのだ。

抜け落ちた論点

恐ろしい目的を秘め、インターネット上でじわじわと広がっていくコンテンツは、もともと拡散しやすい性質をもっている。こうしたものをどうやって管理すればいいのか。その方法を政策に携わる人や産業界のリーダーが論じるとき、焦点となるのは往々にしてこの手のコンテンツを迅速かつ網羅的に、そして確実に削除する方法だ。

しかし現状では、行き過ぎた検閲から身を守る手立てがないばかりか、その危険性について議論すらされていない。こうしたなか、コンテンツを迅速に幅広く削除するという考えには無理があり、無責任ではないだろうか。GIFCTのような自主規制による取り組みは、特定の政策問題への対処だけでなく、政府による規制が広範囲に及ぶのを阻止する役割も担う。

言論の自由を守るための有意義な対策もないまま、欧州連合(EU)など複数の政府が、ハッシュのデータベースを導入しようとしていることや、そのデータベースを自主的な取り組みから法的義務に変えようとしている。そんな現実をわたしたちはすでに目の当たりにしてきた。

こうしたことは、どんな自主規制の取り組みも直面する問題だろう。情報の検閲から身を守るための手立ては、提案されるソリューションに含まれていなければならないのだ。

ひとつの“物差し”ですべては測れない

しかし、こうした問題以前に、コンテンツの一元的な管理を前提とするソリューションには、根本的な恐ろしさがある。そもそも、表現の自由を促進するというインターネットの強みは、インターネットがひとつの権力に縛られない性質に基づいている。だからこそ、プラットフォームの多様性が保たれるのだ。

インターネットがひとつの権力下に置かれないため、一部のウェブサイトでは安心感や娯楽、あるいは子どもにふさわしい体験を提供することに重点を置くことができる。一方で、議論を促進したり、客観性に優れた百科事典をつくったりするほか、戦争犯罪を詳細に記録した動画のアーカイヴを目指すウェブサイトもあるだろう。いずれも方向性は異なるものの、称賛に値する目的をもっている。

ただ、コンテンツそれぞれの基準と、モデレーションの方法が必要なのだ。クライストチャーチの事件を受けて、わたしたちはどこへ向かうべきなのだろうか。それを考えるとき、ひとつの“物差し”ですべてを測ろうとする解決策を警戒しなければならない。そして、開かれたインターネットの多様性を維持するために、行動を起こさなければならないのだ。

エマ・ランソ|EMMA LLANSÓ
非営利団体「センター・フォー・デモクラシー&テクノロジー(CDT)」のディレクター。主に表現の自由について担当している。