OpenAIが2024年1月10日にポリシー変更を行い、軍事・戦争目的への使用を禁止することを明示した一文を削除していたことがわかりました。

Usage policies

https://openai.com/policies/usage-policies



OpenAI Quietly Deletes Ban on Using ChatGPT for “Military and Warfare”

https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/



OpenAI's policy no longer explicitly bans the use of its technology for 'military and warfare'

https://www.engadget.com/openais-policy-no-longer-explicitly-bans-the-use-of-its-technology-for-military-and-warfare-123018659.html

ニュースサイト・The Interceptによると、2024年1月10日までChatGPTのポリシーでは「身体的活動の危険性が高い活動」として「武器開発」と「軍事・戦争目的」での使用が禁止されていたとのこと。

ポリシー変更後も「自分や他人に危害を加えるために当社のサービスを使用しないこと」という条項は残り、その中で「武器の開発や使用」は禁止されていますが、「軍事・戦争目的」での使用を全面的に禁止するような文言はなくなっています。

The Interceptの取材に対し、OpenAIの広報担当者であるニコ・フェリックス氏は「我々は覚えやすく、適用しやすい普遍的な原則を作ることを目指しました。我々のツールはいまやGPTを構築可能な一般ユーザーによって世界的に利用されています。『他人に危害を加えてはならない』のような原則は、広範でありつつも容易に把握できるもので、多くの文脈で関連性があります。さらにその具体例として、武器開発・使用や他者への危害を挙げました」と述べたとのこと。

その上で、フェリックス氏は「危害」にすべての軍事利用が含まれるかどうかは明言を避けつつ、「軍隊によるものを含め、『兵器開発や使用、他人に危害を加えること、財産の破壊、サービスやシステムの安全保障を侵害する不正な活動』に対して、我々の技術を使用することは認められません」と回答しました。

なお、フェリックス氏はニュースサイト・Engadgetによる取材に対して「自分たちの使命に沿った国家安全保障上の利用例はあります。たとえば、我々はDARPAと協力して重要なインフラや産業が依存しているオープンソースソフトウェアを保護するための新たなサイバーセキュリティツールの開発を進めています。これらの有益なユースケースは、これまでのポリシーにおいて『軍事目的』にあたるかどうかが不透明でした。ポリシー変更の目的は、明確さとこういった議論を行う能力を提供するためのものです」と述べました。