YouTubeの動画やライブ配信には、視聴者が感想や意見をコメントすることができますが、しばしば心ない悪口や「荒らし」と呼ばれるコメントが現れます。そのようなスパムコメントをAIで検出して除去する取り組みや、複数の不正なコメントを残し続けたユーザーは最大24時間コメントができなくなる新機能などを、YouTubeが発表しました。

Updates on Comment Spam & Abuse - YouTube Community

https://support.google.com/youtube/thread/192701791



YouTubeは「コメント体験の向上のために取り組んでいること」として大きく分けて3件を示しています。まず第一に、コメントのスパムを自動検出する機械学習モデルの改善に取り組んでおり、2022年の上半期の間に11億件以上のスパムコメントを除去しているとのこと。スパムを投稿する人が戦術を変えるにしたがって、機械学習モデルも新しいタイプのスパムをよりよく検知できるよう、継続的に改善されています。



第二に、ライブ配信のリアルタイムコメント(チャット)欄に現れるボット検出についても、ボットを排除するための改善が進んでいます。YouTubeは「ライブチャットは他のユーザーやクリエイターとの交流の場であり、ボットはライブ配信を視聴する体験に悪影響を与えることが分かっています」と取り組みの重要さについて述べています。



そして最後に、それらのコメントやボットの検出機能を用いてコミュニティ・ガイドラインに違反するコメントを検出し削除した場合に、そのコメントを投稿したユーザーに対し警告を表示する新機能についても告知しています。この警告を無視して不正なコメント投稿を継続した場合、「タイムアウト」が発生して最大で24時間コメントができなくなるとのこと。YouTubeが行ったテストによると、この警告・タイムアウトを「荒らし」ユーザーに行うことで、ユーザーが再び違反コメントを残す可能性が低くなることが示されているそうです。

不正なコメントを検出して警告を行う機能の目的は、コメントによってコミュニティに悪影響を与えようとするユーザーから視聴体験およびクリエイターを保護すると同時に、ポリシー違反のためにコメントを削除されたユーザーに透明性を提供し、コミュニティガイドラインを理解してもらうことにあるとYouTubeは説明しています。

記事作成時点では違反コメントの警告とタイムアウトは英語で入力されたコメントに対してのみ有効ですが、数カ月のうちにより多くの言語へ対応していくことが計画されています。