YouTube、AI使用の不適切動画対策で830万本を削除。2017年第4四半期ガイドライン施行報告書公開


YouTubeは、初めて発行したコミュニティガイドライン施行報告書にて、2017年10月から12月の間に830万本の動画を削除したことを明らかにしました。YouTubeは昨年来のガイドライン違反動画の扱いに批判を受けたことから、四半期ごとに報告書で対策の進捗を示すと発表していました。はじめて発表されたこの報告書によると、まず動画が投稿された際に機械学習したAIが自動レビューを行い、この時点で670万本の動画にフラグが立てられ公開を停止、うち76%は1度もユーザーに再生されなかったとのこと。そして(それが完全ではないとしつつも)AIによる検閲が悪いことではないとYouTubeは「説明しています。

YouTubeのアルゴリズムは明らかなスパム動画や違反コンテンツを独自の判断で削除します。そして主にガイドライン違反と判定された動画は人間のオペレーターへと受け渡され、人の目によって公開取り下げや、年齢による視聴制限を設定するといった対応を施します。報告書ではオペレーター対応で削除した動画の本数は約113万本、ユーザーからの報告で削除対応になった動画は約40万本とされ、あとは外部の団体や政府からの削除依頼が約6万4000本といった割合になっています。

2017年12月、Googleは不適切とフラグの立てられた動画を処理するためにおよそ1万人もの人員を新規採用してレビューを徹底しています。

なお、YouTubeは今回のコミュニティガイドラインに違反する動画へどのようにフラグが付けられるかを説明する動画を公開しました。YouTuberとまでは行かなくとも、YouTubeに動画を投稿している人は、一度目を通しておくと良いでしょう。