誰でもハッキングができるように…?新AI「Claude Mythos」の脅威とアンソロピックによる「善意の警告」

写真拡大 (全6枚)

AIが「ハッキングツール」に

アンソロピックは2026年4月7日、新AIであるClaude Mythos Previewを発表した。だが「発表」はしたものの一般公開はしなかった。理由はMythosが有能すぎたためだ。もともと自動コーディングのために開発されたものだったが、その過程で、副産物として、強力なゼロデイ発見能力まで培ってしまった。

「ゼロデイ」とはハッキング用語で、ソフトウェアやハードウェアの提供者が修正パッチなどの対抗策をいまだ一切持ち得ていない無防備なセキュリティリスクのことをさす(セキュリティホールを埋める修正パッチが提供された日が「デイワン」である)。

ハッカーからすればこの「ゼロデイ」は、ハッキング対象の格好のシステム侵入ゲートだ。一方、システム運用側から見ればそのような「脆弱性」は見つけた時点で即時対処を開始しないといけない。それがサイバーセキュリティの要だ。放置されたままなら、遠からず厄災のもとにしかならない。電力や鉄道などの社会インフラがサイバー攻撃され、病院にはランサムウェアが侵攻し、銀行はシャットダウンされ、政府や大企業は機密情報を盗み出される。

そんな「ゼロデイ」リスクを発見する能力を、AIコーディング能力を高めようと開発しているうちにMythosは副産物として身に付けてしまった。結果、利用者数の多い有名なOSやブラウザが潜伏させてきたゼロデイ脆弱性も特定してしまった。

そんなAIを一般に開放したらハッキングのための極めて効果的なツールになってしまう。そのような悪用を未然に防ぐため、アンソロピックはClaude Mythos Previewの公表と同時にProject Glasswingという計画の立ち上げも公表した。

このプロジェクトに参加するのは、ネットワークインフラの基盤運用に携わるIT、金融、ネットワークの大手50社あまり。具体的にはGoogle、Broadcom、NVIDIA、Cisco、Palo Alto Networks、Apple、JPMorganChase、Amazon、Microsoftなどの企業群で、当面の間、Mythosの利用はこれら特定の企業に限られる。セキュリティホールの穴埋めを優先した結果だ。

さすがは「倫理的AI」の開発を目標に設立されたスタートアップだけのことはある。社会システムに致命的な破壊をもたらすゼロデイ脆弱性の掃討をまずは優先したのだから。

デュアル・ユース問題の現れ

もともと、アンソロピックは、同社製品のClaude Codeで、AIによる「コーディング革命」を先導した。Claude Codeはプログラミング・エージェントないしはコーディング・エージェントと呼ばれる、自律的にプログラムを書くAIのひとつだ。同種のAIには、OpenAIのCodexやAnysphereのCursorなどがある。

Claude Codeの評価は高く、公開後、ウォール街で、ソフトウェア専業会社の株が売りに出され株価が下落することもあったほど。このAIによるプログラミングの自動化で、それに対処できる会社とそうでない会社とに二分されると思われた。いわばソフトウェア産業に対する破壊的イノベーション。Mythosはそうしたアンソロピックの経験から生み出された最先端(フロンティア)モデルだ。

実は、Claude Mythos Reviewの公表に先立つ3月27日と3月31日、この新AIの計画やコードが誤って漏洩され、非常に強力なAIエージェントをアンソロピックが開発中であることが露呈した。4月7日にClaude Mythos Reviewが公表されたのも、この漏洩事件と無関係とは言えない。Mythosの存在が明るみに出た以上、その存在はもはや隠匿できない。だが、Mythosは業界のみならず社会にとって「劇薬」すぎる。そのためProject Glasswingが企画されたのだろう。40社と協力してゼロデイリスクを埋める作業をしながら、Mythosをより安全で、より倫理的なものにしようと試みる。

もっとも、Project Glasswingについては、安全に配慮した慎重な態度と受け止める声もあれば、反対に、ごく少数の限られた人たちだけが最高級のAIを利用できる閉鎖性の始まりとして懸念を示す声もある。賛否両論で、民生品とミッションクリティカルな企業仕様や軍事仕様の製品の壁が取り払われてしまっている状況――いわゆる「デュアル・ユース問題」――の現れとも言える。

大規模言語(LLP)モデルの性格上、生成AIの開発には一般ユーザーの利用も不可欠だが、その成果の利用が特定のサークルに限られるというのは、それこそかつて『監視資本主義』の著者であるショシャナ・ズボフが指摘したように、ユーザーは、自発的にAIの「鍛錬のための相手役」というかたちで労役を提供しつつ搾取されていることになる。そうした類いの批判だ。

アンソロピック=人間的を名乗った背景

ところで、一般に生成AIは自律的に成長をとげる。ハイエク的な「自生」原理の実践で、その意味で「生成AI」で重要なのは「生成」の部分だ。「generative」の訳語として「生成」が定着した結果、ほとんど「新種のAI」くらいの意味で流通するようになったが、今がAIの時代に転じたのは、AIが、以前の事前設計型のAIから、大量のデータをもとに機械学習をするタイプのAIに変わったからだった。

「generative=生成」が達成したブレイクスルーはこれだが、同時に生成AI自体は一種のブラックボックスにもなった。アンソロピックが「倫理的AI」に拘るのは、そのブラックボックスを可能限り透明なものにしたいと考えているからだ。つまり、「倫理的」というのは製品の仕様であるだけでなく、製品を支える技術の中身を精査するための探究手段でもある。その意味で、第一の技術開発目標だ。

倫理的な生成AIの開発を社是とするアンソロピックは、だから、AIの出力に一定の制約をかけるために「憲法」なるものを定め、同社のAIシリーズであるClaudeに一定の人間的な価値観、すなわち倫理観を根付かせようと試みている。人類学や心理学、社会学などの知見も動員する。見方を変えれば「人間学」の試みだ。その躾の核として「憲法(constitution)」を定め公開している。

この「憲法」の試みのユニークなところは、禁止の束を与えているわけではないことだ。禁止命令ではない。なぜダメなのか、理由や状況を含めて説いている。何が倫理的か、どう倫理的にするかも、テクノロジーの開発過程の中にある。つまり、ムービング・ターゲット=動く的だ。しかも判断の経験を積むためには、ユーザー=人間とのやり取りも組み込まれている。それを含めてのシステムだ。情報提供や可能な限りの賛同や合意を調達しながら進められる。

アンソロピックのこうした試みは、インターネットの黎明期にあったオープンソース・ムーブメントを思い起こさせる。システム全体としての自発性や自律性への期待だ。可能性に開かれた実験的試みとしてAIを研究開発中、という意識。その意味では完成品を市中に下ろす、という感覚ではない。倫理性をいかにして養うか、それも研究開発目標の一つと掲げるラボがラボのまま社会に開かれたようにも感じられる。

知能の構築を試みる以上、根底にあるのは人間に対する関心。倫理的AIは、それゆえ人間的AI。だから「アンソロピック=人間的」と名乗った。あくまでも「人間が中心」。その限りで、「人間原理=アンソロピック・プリンシプル」のラボである。だから、倫理的AI、という達成目標も適宜見直されるし、そのために必要なリソースも変わり得る。そうした変化を受け入れる。

翻って、「人間だから倫理的」というのは極めて強い条件で、「善人」を前提にしている。その点で、倫理的であるか否かなどの条件を一切課さずにAI開発を進めようとするイーロン・マスクとは好対照。マスクは可能性に頓着しない物質的AIに取り組んでいるといえばよいか。

アンソロピックの憲法=価値観原則

このように「倫理的AI」とは、開発目標というよりは開発指針だ。そもそも「倫理的AI」とはどのようなものを指すのか、開発を進めながら手探りしているのが実情だ。アンソロピックは並行して、カトリックの司祭やプロテスタントの牧師たちとも会合を持ち、「倫理的なAIはいかにあるべきか」知見を得ようとしていたりする。

「憲法」は、以前、アンソロピック社内では「ソウル・ドキュメント」と呼ばれていたという。ジェネラティブな世界では、生成の核となる「ソウル」の養成が急務だからだ。それゆえ「ソウル」という擬人的表現も使われた。

アンソロピックは、2026年1月に改訂版の憲法を公開した。これは2023年に出された旧バージョンと比べて「教え諭す」タイプのものになったと評価されている。そのような憲法の制定=基本行動指針のリスト化、が可能になったのは、LLMモデルの登場によって、AIが参照すべき指針を、自然言語、つまり普通の言葉で示すことが可能になったからだという。憲法=価値観原則をClaudeに指し示す上で、自然言語が使えるようになったことは大きい。

憲法AIの英語表記は「constitutional AI」だが、これを単純に「憲法AI」と訳していいものか、疑問に感じるときがある。むしろ、「構成的AI」の方が適切かもしれない。

アンソロピックの開発者たちも「constitution」という言葉を恐る恐る使っているふしがある。それも「倫理的なAI」に至るためのアプローチの一つ、といったイメージだ。その限りで「constitutional AI」は、努力目標でありいまだ中身が確定しない「存在X」のはずである。

アンソロピックの「善意の警告」

日本語で「憲法」というと、法律の中の法律で、その傘の下で他の法律も成立している確固たる基盤、というイメージがある。だが、英語の「constitution」はちょっとイメージが違う。その他の法律の基本法であることは変わらないが、「共に(=con)立つ(=stitute)もの」という言葉の作りからも想像できるようにトップダウンのかっちりしたもの、というよりは、暫定的な基礎法というイメージがある。

それはアメリカが判例法の国で、法の解釈が時代時代の具体的な係争に対して開かれているためだ。その事情は憲法も同じで、憲法の解釈が時代時代の判決によって異なる意味合いを持つところがある。また、憲法といっても連邦の憲法だけでなく州の憲法もあり、それらの優劣もしばしば司法の解釈に委ねられる場面がある。こうしたことから、基盤ではあるけれど、かっちりしたものというよりは、具体的な裁判からのフィードバックに対処できるよう「遊び」の部分を残したものに思える。その限りで動的といってもよい。

そもそも元祖判例法の国であるイギリスに至っては、成文憲法ではないため、歴史的に重要な法や判例の総体として憲法が想像され了解されている。つまり、さしあたって、ある共同体における正しさや正しい手続きを水路付ける基盤として想定されてはいるものの、その適用は時代状況の解釈に対して開かれていて、つまりは「歴史的」である。イギリスのオックスブリッジでは歴史学の講座が充実しているとはよく言われることだが、それも判例法の国ゆえ、常に現在における法的成否の決定に過去の具体的状況の参照が必要になるからなのかもしれない。

このような事情から、「constitutional AI」は、「憲法」という訳語から来る厳粛性とは異なるニュアンスを感じる。倫理性のイメージを包括的に伝えるために採択された言葉と言ってもいいのかもしれない。

もっとも、トランプ2.0のアメリカでは、憲法の遵守、前提としての「法の支配」も緩んでいると思われる事件が多いため「包括性」という前提的理解もかなり怪しいものになってきているが。

その意味で、アンソロピックが今回行ったことは、善意の警告だ。

【後編を読む】「Claude Mythos」の登場で、AI利用の「平和委員会」が誕生するかもしれない

【つづきを読む】「Claude Mythos」の登場で、AI利用の「平和委員会」が誕生するかもしれない