Google、児童ポルノ画像検出特化のAIツールキットをリリース。人力判別の精神的ストレスを大幅軽減
これまで、多数の組織がインターネットに潜む性的な児童虐待画像(CSAM, child sexual abuse material)の発見と撲滅に取り組んできましたが、こうした画像を大量に審査するのは技術的に難しく、精神的にも辛いものです。Googleは、こうした作業を肩代わりできるようAIを鍛えた「Content Safety API」を開発しました。
このツールキットに含まれるディープニューラルネットワークは膨大な素材をスキャンし、CSAMである疑いがあるものにランク付けを施し、人力チェックへ回す必要があるものを選び出します。
これに対して、AIによる検出方法ではまったく未発見の(新しい)素材にもフラグを立てることができ、それは当局の犯罪者逮捕と新たな虐待の発生防止の手助けにもなります。
Content Safety APIは企業パートナーやNGO団体などに無料で提供されます。このAPIの導入がインターネット上の悪質なCSAM画像を劇的に減らすことができるかはまだわからないものの、少なくともこの作業に当たる組織が、これまでよりも少ない人員で同じ仕事量をこなせるようになることは間違いありません。
人間の脳の働きを関数モデル化したニューラルネットワークを多層化し、ディープラーニングで鍛えたAIシステムは、このような画像認識や迷惑メールフィルタリング、音声認識など単純作業の繰り返しでありながら、若干の"感性"を必要とする処理の分野に親和性があります。「それが大量に普及すれば人間の仕事が奪われてしまう」と考えるのではなく、今回のようにより良い世の中にするための方向で、積極的な活用が広がってほしいものです。