Image: pixinoo/Shutterstock.com


Google(グーグル)は同社が運営する動画配信サイトYouTubeにアップされた不適切なコンテンツを排除するために、人工知能(AI)をパートナーとすることを発表しました。

Googleが今回発表した不適切なコンテンツ対策は以下の4つ。

・AIと機械学習を利用したコンテンツ分類
・50のNGOをTrusted Flagger program(不適切なコンテンツをユーザーや第三者機関と特定するプログラム)に加える
・グレーゾーンにあったコンテンツに対しても厳しい姿勢をとる
・Google持ち株会社Alphabet傘下のシンクタンク、Jigsawの役割拡大

YouTubeといえば、動画の掲載・視聴の手軽さがうけて世界的動画配信サイトにのぼりつめたことで知られています。しかしその手軽さは仇となりました。テロに関連するものやヘイトスピーチといった不適切なコンテンツを排除しきれなくなったのです。

そういったコンテンツの広告収入に加担するわけにはいかないということで、イギリス政府がYouTubeの広告撤退を発表。それを皮切りに数々の企業がYouTubeから手を引くと発表し、今や広告収益は大幅に減少しているんだとか。みなさんも耳を澄ましてみてください。とばっちりをくらって広告収入が激減したYouTuberたちの悲痛な叫びがきこえてきませんか? 当初は「表現の自由」を守るなどと強気なコメントしていたGoogleもこれには大慌て。先の対策を発表するにいたりました。

たしかに広告を出す側からすれば、これは大きな問題です。例えばテレビ番組にコマーシャルを出すとすれば、その番組の内容、時間帯、出演者、視聴者層などを加味して選ぶでしょう。しかしYouTubeへの広告はどのような動画に広告を出すかを選べません。ダイエット関連の動画にファストフードのCMが出てくるくらいなら笑い話で済みます。しかしテロ関連の動画に広告が出てしまったら、むしろイメージダウンにつながりかねません。


AIにYouTubeは救えるか?2
Screenshot: YouTube


試しに私のYouTubeアカウントから動画広告掲載の設定を進めてみました。ターゲティングできるのはその広告を出す地域、表示方法、ユーザーの性質(年齢・性別・関心)です。テレビCMと違って、表示するユーザーを具体的に絞れるのは有効ですね。どうりで私のYouTubeは映画の予告ばかり流すわけだ...(最後まで見ちゃうんですけど)。

今回導入したAIは不適切なコンテンツの排除を目的としたものです。しかしコンテンツ分類が発展すれば、視聴するユーザーだけでなく掲載するコンテンツまで選べるようになるかもしれませんね。


Image: pixinoo/Shutterstock.com
Source: YouTube via WIRED, Jigsaw

(瀧川丈太朗)