by geralt

Facebookが、有害なコンテンツの削除などサービス運営に関する「2019年度コミュニティ標準施行レポート」を2019年11月13日付けで発表しました。その中で、Facebookが2019年4月から9月までの間に、前年同期比の2倍以上になる32億人分ものニセアカウントを削除したことが報告されています。

Community Standards Enforcement

https://transparency.facebook.com/community-standards-enforcement

Facebook removed 3.2 billion fake accounts between April and Sept.

https://www.cnbc.com/2019/11/13/facebook-removed-3point2-billion-fake-accounts-between-apr-and-sept.html

Facebookが定めるニセアカウントとは、異なる名前あるいは生年月日で登録されたアカウントのことで、明確に人をだます目的で作られたもののほか、13歳未満のものや他人と共有されているもの、利用規約の登録要件を回避したものが含まれます。2019年4月〜9月で削除されたニセアカウントの数は、Facebookの月間アクティブユーザー数のおよそ5%だったとFacebookは報告しています。

ニセアカウントの削除数をまとめたものが以下のグラフ。縦軸が人数(1B=10億人分)、横軸が四半期を表しています。Facebookは2019年1月〜3月におよそ22億人分のニセアカウントを削除したと報告しており、この数字は2018年全体で削除されたニセアカウントの数に匹敵します。また、2019年4月〜9月で合計32億人分と、2018年同期比で2倍以上のニセアカウントが削除されたとのこと。



そして、以下のグラフはしたニセアカウントのうち、通報される前にFacebookが発見して削除されたアカウント(濃い青色)と、通報されてから削除されたアカウント(薄い青色)を割合を示す棒グラフ。Facebookは2017年7月から2019年9月まで、そのほとんどを通報前に発見していると報告しています。



また、Facebookは機械学習を使用してヘイトスピーチを発見してフラグを立てるという検出技術を開発し、ヘイトスピーチの検出能力が上がったと述べています。以下のグラフはヘイトスピーチの削除件数を示したものですが、年を通じて増加傾向にあることがわかります。最も多い2019年7月〜9月はおよそ700万件のヘイトスピーチが削除されたとのこと。



そして、削除されたヘイトスピーチのうち、通報される前にFacebookが発見したものの割合を示した以下のグラフを見ると、Facebookが通報前に検出している割合も年々上がっていることがわかります。



さらに、Facebookは有害なコンテンツの新しいカテゴリとして「Suicide and Self-Injury(自殺と自傷行為)」を設けていて、2019年の4月から9月にかけて、Instagramで160万件以上の該当コンテンツを削除したことを明らかにしました。Facebookによると、2019年4月から9月までの間に450万件の該当コンテンツを削除したとのこと。

FacebookのSafety&Integrity部門ヴァイス・プレジデントのガイ・ローゼン氏は「私たちは検出技術の進歩に満足していますが、これらの技術は完璧ではなく、間違いが起こる可能性があることを認識しています」と語り、これからもヘイトスピーチやニセアカウントを検出するシステムに投資し続けると述べました。