アメリカ国立標準技術研究所の内部組織である「U.S. Artificial Intelligence Safety Institute(アメリカAI安全研究所)」が、OpenAIおよびAnthropicと「リリース前のAIのテストに関する契約」を締結したことを発表しました。

U.S. AI Safety Institute Signs Agreements Regarding AI Safety Research, Testing and Evaluation With Anthropic and OpenAI | NIST

https://www.nist.gov/news-events/news/2024/08/us-ai-safety-institute-signs-agreements-regarding-ai-safety-research



今回の契約は、アメリカAI安全研究所がOpenAIおよびAnthropicのリリース前のAIモデルにアクセスする枠組みを確立するものです。アメリカAI安全研究所は両社のAIモデルにアクセスすることで機能および安全リスクの評価が可能となります。また、アメリカAI安全研究所は両社と共にAIの安全リスクを軽減する方法を研究する意向を示しています。

さらに、アメリカAI安全研究所はOpenAIとAnthropicの新型AIモデルに関する安全性評価をイギリスAI安全研究所に共有することも明らかにしています。

OpenAIのサム・アルトマンCEOは「私たちは将来のモデルのリリース前テストについて、アメリカAI安全研究所と合意に至ったことをうれしく思います。私たちは多くの理由からAIの安全テストが国家レベルで実施されることが重要だと考えています。アメリカは引き続き主導的な役割を果たす必要があります」と述べ、アメリカAI安全研究所との取り決めを歓迎しました。





なお、OpenAIは数学を解けるAIモデル「Strawberry」を開発しており、アメリカ国家安全保障局(NSA)にデモを披露したと報じられています。

OpenAIがアメリカ当局者に対し「Strawberry」と呼ばれる画期的な成果をデモ、コード名「Orion」という主力LLMのトレーニングデータを作成することでGPT-4越えの性能を目指す - GIGAZINE