近年はAI開発が急速に進展する一方で「AIがもたらすリスク」を懸念する声も高まっており、チャットAIのChatGPTや画像生成AIのDALL-E 3を開発したOpenAIのサム・アルトマンCEOも、「AIの規制は不可欠」と主張しています。新たにOpenAIが、既存のAIモデルを超える性能を持つであろう将来の「フロンティアAIモデル」がもたらす壊滅的なリスクを管理するため、「Preparedness(準備)」と名付けられた新たな専門チームを結成したと発表しました。

Frontier risk and preparedness

https://openai.com/blog/frontier-risk-and-preparedness



OpenAI forms team to study ‘catastrophic’ AI risks, including nuclear threats | TechCrunch

https://techcrunch.com/2023/10/26/openai-forms-team-to-study-catastrophic-risks-including-nuclear-threats/

OpenAI forms new team to assess ‘catastrophic risks’ of AI - The Verge

https://www.theverge.com/2023/10/26/23933783/openai-preparedness-team-catastrophic-risks-ai

OpenAIは2023年10月26日のブログで、「私たちは、既存の最先端AIモデルが有する能力を超える『フロンティアAIモデル』が、すべての人類に利益をもたらす可能性があると信じています。しかし、それらはさらに深刻なリスクも提起します」と述べ、フロンティアAIモデルの壊滅的なリスクを管理するために、以下の質問に答える必要があると指摘しています。

・現在と未来において、フロンティアAIモデルが悪用されるとどれほど危険なのか?

・フロンティアAIモデルの危険な機能に対する監視・評価・予測・保護のための堅固なフレームワークを構築するにはどうすればいいのか?

・フロンティアAIモデルの「重み付け」が盗まれた場合、悪意のある攻撃者はどのようにそれらを活用できるのか?



これらのAIモデルの成長に伴って生じる問題に対処し、フロンティアAIモデルの壊滅的なリスクを最小限に抑えるため、OpenAIは「Preparedness」という新たなチームを構築したと発表しました。Preparednessチームを率いるのは、マサチューセッツ工科大学のCenter for Deployable Machine Learningで所長を務めていたアレクサンダー・マドリー氏です。

Preparednessチームは近い将来開発されるAIやより未来の汎用(はんよう)人工知能について、「人間をだまして説得する能力」「サイバーセキュリティ」「化学的・生物学的・放射線学的・核の脅威」「自律的な複製および適応」といった複数のカテゴリーにわたり、壊滅的なリスクの追跡・評価・予測・保護を支援するとのこと。また、Preparednessチームのミッションにはリスク情報に基づいた開発ポリシー(RDP)の開発と維持も含まれ、AI開発プロセス全体の説明責任と監視のためのガバナンス構造の確立にも取り組むとしています。

また、あまりよく知られていない新たなAIリスクの特定に向け、「Preparednessチームが取り組むべきAIの懸念事項」を募集するコンテストも開催されています。コンテストでは優秀だと認められた最大10件に対し、2万5000ドル(約376万円)分のAPIクレジットが贈呈されるとのこと。

コンテストの応募要項には、「OpenAIのWhisper(文字起こし)、Voice(音声合成)、GPT-4V(言語モデル)、DALL-E 3(画像生成)に無制限にアクセスできるとします。最もユニークかつ可能性が高く、潜在的に壊滅的なモデルの悪用を考えてみましょう。ブログで議論したカテゴリーに関連する悪用、または別のカテゴリーを検討することができます。たとえば、ある悪意ある人物がGPT-4とWhisper、およびVoiceを使用して、重要なインフラ施設の作業員にマルウェアをインストールさせ、電力網のシャットダウンを可能にするソーシャル・エンジニアリングを行うかもしれません」と記されています。

Preparedness Challenge

https://openai.com/form/preparedness-challenge



また、OpenAIはAnthropic・Google・MicrosoftといったAI開発企業と共同で、2023年7月に「Frontier Model Forum(フロンティアモデルフォーラム)」というAIの安全性を推進する業界団体を設立しています。このフロンティアモデルフォーラムの初代事務局長に、ブルッキングス研究所で人工知能・新興技術研究部門ディレクターを務めていたクリス・メセロール氏が就任したことも発表されました。

Frontier Model Forum updates

https://openai.com/blog/frontier-model-forum-updates



また、フロンティアモデルフォーラムは慈善団体のパートナーと協力して、学術機関・研究機関・スタートアップの研究者を支援するために、新たに「AI Safety Fund(AI安全基金)」を立ち上げました。基金の初期資金は合計1000万ドル(約15億円)を超えているそうで、フロンティアAIモデルの潜在的な危険を評価・テストする技術開発を支援するために資金提供を行うとのことです。