米OpenAIは3月23日(現地時間)、ChatGPTとサードパーティのアプリケーションの接続を可能にするプラグイン「ChatGPT Plugins」を発表した。

アルファ版として限定的に提供し始め、プラグイン構築を希望する開発者のウェイトリストへの登録受け付けを開始した。トラベルサービスの「Expedia」や「Kayak」、法律や政策のデータ分析を行うFiscalNote、デリバリーサービス「Instacart」、プロダクト検索「Shop」、科学技術計算「Wolfram」など11社が最初のプラグインを作成しており、ChatGPTユーザーには有料サービス「ChatGPT Plus」で一部のユーザーからロールアウトを開始した。



「対話型AI」と呼ばれているイメージからChatGPTは万能なAIアシスタントのように見なされがちだが、ChatGPTは「AI言語モデル」である。言葉を理解し巧みにテキストを生成する言語モデルは様々なタスクに役立つものの、その力を発揮できる範囲は限定的であるのが現状だ。

例えば23日時点で「How do this year's Oscar winners compare to recently released movies for box office sales?」(今年のアカデミー賞の受賞作品と最近公開された映画の興行成績を比べてどうですか?)と質問しても、ChatGPTは情報に基づいた回答を生成できない。「AI言語モデルである私は、最新の興行収入データをリアルタイムで入手することはできませんが、過去の傾向から一般的な情報をお伝えすることは可能です」という回答になる。



言語モデルが回答で対応できる情報は学習データに依存する。学習データに最新の情報が反映されるのには時間がかかり、そのためChatGPTはリアルタイムの情報の処理には対応できない。だから、授賞式(3月12日)から1週間の受賞作品の興行成績に関するニュースが報じられていても、その質問には答えられない。

プラグインはAI言語モデルであるChatGPTを活用できる範囲を広げるものになる。OpenAIは「完全な例えではありませんが、」と前置きした上で、「プラグインは言語モデルの目や耳となり、学習データに含まれないような最新の情報、パーソナルな情報、特殊な情報にアクセスできるようにします」としている。



活用例としてOpenAI自身が「Browsing」と「Code interpreter」というアルファ版のプラグインをホストし、また「Retrieval」プラグインをオープンソース提供している。

「Browsing」はプロンプトに対してWeb検索を行い、検索で収集した情報に基づいて回答を生成する(Web検索にはBing検索APIを利用)。Microsoftの「新しいBing」のような検索チャットをChatGPTでも可能にするプラグインといえる。OpenAIのデモ動画の例だと、ChatGPTを「Browsing」に設定して上のアカデミー賞授賞作品の興行収入に関する質問をすると、ChatGPTはニュースサイトや情報サイトから得た最新の作品評価や興行成績データから比較分析してくれる。



「Code interpreter」は、サンドボックス化された実行環境で動作するPythonインタープリターだ。一時的なディスク領域も用意され、プラグインによって実行されるコードはチャットを通じて有効な永続セッションで評価されるので、後続の呼び出しは相互に重ねて構築できる。会話のワークスペースへのファイルのアップロードに対応、作業結果のダウンロードも可能だ。初期のユーザー調査では、数学的問題(定量的と定性的の両方)、データ分析・可視化、フォーマット間のファイル変換などで特に便利なユースケースがあることが明らかになったという。



「Retrieval」は、個人または組織のアクセスが許可された情報ソース(ファイル、メモ、メール、公開文書など)でChatGPTの利用を可能にする。例えば、製品マニュアルに適用し、製品に関する情報をユーザーが探す際にマニュアルを読んで探すのではなく、ChatGPTに質問してすばやく回答を得るといった使い方が可能になる。

国連のデータを情報ソースに「昨年はどのような人権が導入されましたか?」と質問

プラグインはAI言語モデルの既存の制限への対処になり、製品カタログなどの閲覧から航空券の予約や食事の注文といったアクションまで、AI言語モデルがユーザーを支援するユースケースを広げてくれる。また、AIが間違いや誤解を招く情報を示す「ハルシネーション」の対策になる可能性も期待されている。

「シカゴから東京までの距離は?」、WolframAlphaを使って計算

さらに「進路を表示して」でシカゴから東京までをマップ表示

一方で言語モデルを外部のツールに接続することは同時にリスクも増大させる。OpenAIは外部の協力者とともにレッドチーム演習(セキュリティ専門家が攻撃者となって演習形式でセキュリティ課題を洗い出す)を実施した。その結果、プラグインがセーフガードなしでリリースされた場合、高度なプロンプトインジェクションの実行、詐欺やスパムメールの送信、安全規制の回避、プラグインに送信される情報の悪用などが起こることが確認された。その知見を、プラグインの動作の制限と、プラグインの動作をユーザー体験の中で認識できるようにするセーフティ・バイ・デザインに活かし、また安全性を確認しながらプラグインへのアクセスを徐々に拡大する提供方法の採用を決めた。OpenAIは言語モデル分野のセキュリティと安全対策の進捗を加速させるために、それらに取り組む研究者の研究者アクセスプログラムへの参加を呼びかけている。