YouTube、AI使用の不適切動画対策で830万本を削除。2017年第4四半期ガイドライン施行報告書公開
YouTubeは、初めて発行したコミュニティガイドライン施行報告書にて、2017年10月から12月の間に830万本の動画を削除したことを明らかにしました。YouTubeは昨年来のガイドライン違反動画の扱いに批判を受けたことから、四半期ごとに報告書で対策の進捗を示すと発表していました。はじめて発表されたこの報告書によると、まず動画が投稿された際に機械学習したAIが自動レビューを行い、この時点で670万本の動画にフラグが立てられ公開を停止、うち76%は1度もユーザーに再生されなかったとのこと。そして(それが完全ではないとしつつも)AIによる検閲が悪いことではないとYouTubeは「説明しています。
2017年12月、Googleは不適切とフラグの立てられた動画を処理するためにおよそ1万人もの人員を新規採用してレビューを徹底しています。
なお、YouTubeは今回のコミュニティガイドラインに違反する動画へどのようにフラグが付けられるかを説明する動画を公開しました。YouTuberとまでは行かなくとも、YouTubeに動画を投稿している人は、一度目を通しておくと良いでしょう。