Anthropicは新たな生成AIモデルをリリースした(画像:Anthropicのサイト)

オープンAIの独走状態に待ったをかける動きとなるのか。6月21日、AIスタートアップ企業Anthropicは、同社の生成AIモデルClaude(クロード)の最新版となるClaude 3.5 Sonnetをリリースした。このAIは一部の機能において、OpenAIの最新AIモデルであるGPT-4oを凌ぐ性能を持つと同社は主張している。

2021年に設立されたAnthropic(アンスロピック)は、OpenAIでGPT-3などの開発に関わった幹部を含む元従業員7人が共同で設立した、スタートアップ企業兼パブリック・ベネフィット・コーポレーション(公共利益を重視し、社会貢献を目的とする法人)だ。

現在はGoogleとアマゾンから支援を受けて生成AIチャットボットのClaudeファミリーを開発している。Claudeという名は、情報理論の考案者で、電気工学者・数学者のクロード・シャノンに敬意を表してつけられたという説が有力だが、Anthropicは由来を明確にはしていない。

人ではなく「憲法AI」がAIをトレーニング

Claudeは、特に安全性を重視して開発されている。その目標としては、人の役に立つこと、無害であること、誠実であることを掲げ、文脈の理解力が高く倫理的な応答を生成するAIチャットボットとして評価されている。

たとえば、2023年7月にリリースされたClaude 2.0の開発からは、上に挙げた3つの目標を実現するためにConstitutional AI(憲法AI) と呼ばれるアプローチが取り入れられた。

Constitutional AIのアプローチでは、有用で、無害で、誠実であることを保証する倫理原則を「憲法」としてClaudeのAIモデルに学習させ、これに遵守するように強化学習を施している。

ClaudeのAIモデルは自己監査機能を持ち、出力が倫理原則に違反していないかをチェックする。その結果、敵対的な質問文に対しても適切に(つまり無害な)応答を返すようになる。さらにAIはチャットを通じて継続的に学習するため、自身の応答を調整し、常により高度で安全になるよう改善される。

Constitutional AIの学習に使われた倫理原則は、Anthropicが独自に構築した原則に加え、国連の世界人権宣言やアップルの利用規約などの外部情報源を組み合わせて作成されている。

スピード感ある開発体制

Claudeの最初のリリースは2023年3月だったが、それ以来、スピード感を保ちながらバージョンアップが重ねられており、最近ではOpenAIのChatGPTのライバルのなかでも有力株と評価されるようになってきている。今回のClaude 3.5 Sonnetは、前バージョンのClaude 3.0がリリースされてから、わずか3ヵ月のインターバルで登場している。

バージョンナンバーの後ろに記されるSonnetという名称は、Claudeファミリーのなかでは中間的なレベルのモデルであることを示す。

このレベルは、文章作成など日常的なAIタスクのほとんどに対応する標準的な機能を備えている。ほかには、エントリー向けで、軽量かつ高速なHaikuと、複雑な数学的処理やプログラムコーディングに強いハイエンド・エンタープライズ向けのOpusが存在する。今回のリリースではまずSonnetだけが公開されており、エントリー向け、ハイエンド・エンタープライズ向けは遅れて登場する予定となっている。

以前のバージョンに比べて、Claude 3.5 Sonnetはニュアンスやユーモア、複雑な指示を理解する能力が著しく向上し、自然で共感できる表現で、高品質なコンテンツを出力できるようになった。

リリースに伴い公開された資料によれば、推論やコーディングといった生成AIにおける主要な比較カテゴリーのいくつかで、GPT-4oやGoogleのGemini 1.5 Pro、MetaのLlamaを上回るスコアを記録している。ただ、その差は数パーセント程度であるため、実際の使用においては、ユーザーがはっきり違いを感じるほどではないだろう。


コストはそのままに、intelligence(能)が大幅に向上したと示している(写真:Anthropic)

認知科学者でAI分野の実績を持つゲイリー・マーカス氏は、X(旧Twitter)への投稿で、ここ最近は生成AIの計算能力の向上が鈍化していると指摘し、「この分野は昨年、GPT-4を打ち負かすために500億ドル以上が費やされたが、これまでのところでは、指数関数的な成長が続くというよりは、収束に向かっている」と述べている。

インタラクティブなコンテンツ生成機能

Claude 3.5 Sonnetには、Artifactsと呼ばれる新機能が追加された。これはユーザーがAIとのチャットを通じて文書の記述やフローチャートを生成したり、ビジネス用文書を作成したり、プログラムコードを書かせるといった使い方ができるものだ。


Artifacts機能でブラウザーゲームを作成する様子(写真:Anthropic 公式YouTubeチャンネル

さらに、HTMLやCSSを使ってウェブサイトの叩き台になるものを書き出したり、Javascript言語でブラウザーゲームを作り出すこともできる。

これらのコンテンツは、AIと会話しながらリアルタイムに生成し、画面内でプレビューしながら編集ができる。ウェブ開発者やアプリ開発者なら、使い方次第で従来よりも作業時間を大きく節約することができそうだ。

Artifactsは、まだプレビュー段階であるため、できあがったコードはユーザーが自分で実装し、動作確認する必要がある。とはいえ、この新機能によってClaudeは単なるAIチャットボットというだけでなく、生産性向上ツールとしても使えるようになったと言えるだろう。


ゲノム解析に関するグラフやチャートの画像からJSON形式データを書き起こす様子(写真:Anthropic 公式YouTubeチャンネル)

そのほかの機能向上としては、画像やグラフ、チャートを解釈する機能、画像からのテキスト抽出といった視覚的な能力が大幅に強化され、無料ユーザーでも使えるようになった。Anthropicは不完全な画像からテキストを正しく書き出すこともできると説明している。統計的な資料を読み込ませれば、グラフやチャートを織り込んだプレゼンテーション資料を生成することもできる。

画像を視覚的に解釈する機能はGPT-4oなどにもあり、Claude特有というわけではないが、Anthropicの発表ではGPT-4o、GoogleのGemini 1.5 Proを上回る能力を持つことが示されている。


Claude 3.5 Sonnetの視覚的機能を他社AIと比較 (写真:Anthropic)

注意点としては、Claude 3.5 Sonnetには画像生成機能がないことが挙げられる。

これはもともとClaudeがテキストによる自然言語処理用のAIモデルであるためだが、ディープフェイクや著作権、プライバシーに関する倫理的なリスクを抱えてしまうのを避けるために、機能を用意していないとも考えられる。

悪用と見なされれば回答拒否も

Constitutional AI手法の採用からもわかるとおり、AnthropicはAI技術を誤った目的に使用したり、悪用する可能性があることに対して慎重な姿勢を取っている。もし、悪意を持つユーザーがClaudeで虐待的、欺瞞的、または誤解を招くコンテンツなどを生成しようとすれば、その入力文には同社のポリシーに違反することを示すフラグが付けられ、システムはAIチャットボットに対して、より慎重に回答するか、または回答を拒否するよう指示するとのことだ。

Claude 3.5 Sonnetは、 ClaudeのウェブサイトおよびiPhone / iPadアプリを通じて、無料で利用することが可能だ。ただ、無料の場合はチャットの使用量割り当てが少ないため、業務のなかで使いたい場合や、複数人数で使用したい場合には、有料のClaude ProやTeamプランが用意されている。

Anthropicには先月、Instagramの共同創業者で最高技術責任者(CTO)を務めたマイク・クリーガー氏が加わった。クリーガー氏はInstagramで技術チームを450人以上に増強し、10億人を超えるユーザーが利用するサービスに成長させた実績を持つ。また、OpenAIで人工知能の安全に関する部門を率いたヤン・ライケ氏も迎え入れた。Anthropicは今後も、過度に商業路線に走ることなく、ユーザーをさらに増やしていくことになりそうだ。

(タニグチ ムネノリ : ウェブライター)