これまで、多数の組織がインターネットに潜む性的な児童虐待画像(CSAM, child sexual abuse material)の発見と撲滅に取り組んできましたが、こうした画像を大量に審査するのは技術的に難しく、精神的にも辛いものです。Googleは、こうした作業を肩代わりできるようAIを鍛えた「Content Safety API」を開発しました。このツールキットに含まれるディープニューラルネットワークは膨大な素材をスキャンし、CSAMである疑いがあるもの
ランキング
- 総合
- 国内
- 政治
- 海外
- 経済
- IT
- スポーツ
- 芸能
- 女子