近年のAI技術の発達は目覚ましく、人間が書いたように自然な文章を高い精度で生成するだけではなく、プログラムのソースコードを自動で記述したり、タンパク質の立体構造を予測したりすることも可能になっています。そして、専門家が「AIを利用することで新たな生物兵器を開発するハードルが下がっている」と警鐘を鳴らしています。

Threats From AI: Easy Recipes for Bioweapons Are New Global Security Concern - Bloomberg

https://www.bloomberg.com/news/features/2024-08-02/national-security-threat-from-ai-made-bioweapons-grips-us-government



生化学者で元国連武器査察官のロッコ・カサグランデ氏は2023年春、ホワイトハウスの高官たちに対して、AIチャットボットが危険なウイルスの作成方法を教えてしまう可能性について警告しました。

カサグランデ氏はデモンストレーションで、AIが提案した病原体の合成DNAを実際に購入し、試験管に入れてホワイトハウスに持ち込むまでの過程を示し、AIを使用して生物兵器の材料を比較的容易に入手できることを証明しました。



カサグランデ氏の警告は、国家安全保障ネットワークを通じて広まり、国防省、国務省、国土安全保障省などの高官たちも同様のデモンストレーションを求めるようになりました。こうしたデモンストレーションは、AIが生物兵器の開発を容易にする可能性に対してアメリカがいかに無防備であるかを認識させる機会となっています。

この問題の背景には、合成生物学とAIの融合があります。遺伝子編集技術の進歩、(PDFファイル)コンピュテーショナル・バイオメカニクスの発展、オンラインで実験をシミュレートできるクラウドラボの登場などにより、従来の研究設備がなくても迅速かつ安価に危険な生物を作り出せる可能性が出てきました。そこにAIが加わることで、有害な生物に関する情報へのアクセスがさらに容易になっていると、カサグランデ氏は警鐘を鳴らしています。

バイデン政権は、この脅威に対応するため、2023年10月末に包括的な大統領令を発令しました。

FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence | The White House

https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/



この命令には、人工DNAを使用した政府資金による研究の監視強化、AIの安全性を検討する機関の設立、生物学的データを扱うAIツールに対するガイドラインや報告要件の作成などが含まれています。

また、2024年3月には130人以上の科学者がAIを生物兵器開発に利用することを防ぐ誓約書に署名しています。

AIを生物兵器開発に使うのを防ぐ誓約書に130人以上の科学者が署名、AIによるタンパク質設計の利益を最大化しリスクを最小限に抑える - GIGAZINE



ジョンズ・ホプキンス大学健康安全保障センターのトム・イングルスビー所長は、「政府がAI企業を定期的に監査し、危害を及ぼした場合の責任を問う方法を検討すべきです」と主張しました。

一方、AI企業側も対策を講じています。AnthropicとOpenAIは、生物兵器に関する情報をAIが提供しないよう、モデルの調整を行っています。カサグランデ氏もAnthropicやOpenAの協力の下、AIの安全性を検査するための専門家チームを結成しました。

しかし、有害な情報をすべて特定して削除することや、「有用な科学情報」と「潜在的に危険な情報」を区別することは困難です。さらに、セキュリティ上の理由からAI企業は具体的な対策の詳細を公開しない傾向がある上、AIの能力が向上することで新たな脆弱(ぜいじゃく)性が生まれる可能性もあるため、対策は十分なものだとはいえません。

Anthropicの共同創設者であるジャック・クラーク氏はAI企業を「会計士のいない金融機関」に例え、AIシステムのテスト、評価、保証を行う第三者機関の必要性を指摘しました。