AmazonがジェネレーティブAIアプリケーションの作成を簡素化し、導入による利便性を高め、さらに精度を向上させるためのツールを増やそうとしている。

アマゾンウェブサービス(Amazon Web Services、以下AWS)は7月10日に開催された「AWSサミット・ニューヨーク(AWS Summit New York)」において、ジェネレーティブAIで企業向けのアプリケーションを作成する新サービスを発表した。

大規模言語モデル(LLM)の精度改善の取り組みについても紹介されたが、多くの企業が「ハルシネーション」を警戒するなかで各種LLMの精度改善は喫緊の課題と言える。

Amazonが追加した新機能



そこで追加された新たな機能が「コンテクストグラウンディングチェック」だ。これはソースデータをリアルタイムで相互に照らし合わせ、AIが生成した応答をチェックする機能である。業種やデータの種類によって応答精度に対する企業の許容範囲も異なる可能性があるため、グラウンディングチェックではその企業の許容レベルに基づいてAIの応答を制御する「関連性(レリバンス)」の測定も実施するという。

AWSが発表したもうひとつの新機能が「Guardrails API」で、ユーザーのプロンプト入力とAIモデルの応答についてやAmazon Bedrock上の各種LLMおよび企業固有のLLMを評価する。また企業が定めるポリシーに基づいてコンテンツを特定し、機微情報の編集または削除、有害なコンテンツのフィルタリング、望ましくないトピックや不適切なコンテンツのブロックなどもサポートするという。

「APIリクエストはそのリクエストやインプットに対して最適のアウトプットが得られるよう、これまでよりもずっと具体的に調整可能になった」とAWSでAI担当責任者を務めるディア・ウィン氏は米DIGIDAYに語った。「ここで重要なのは、追加の保護レイヤーまたはもう一段高いレベルの安全性を顧客に提供できるようにすることだ。そしてこのAPIはAmazon Bedrock上のLLMだけでなく、どのLLMにも対応する」。

Amazonが実施したテストによると、AIモデルの応答に含まれるハルシネーションの最大75%がコンテクストグラウンディングチェックによって検出・除去されたという。さらに、Guardrails APIと併用することでブロックできるコンテンツが最大で85%以上増加した。AWSのAIプロダクト担当バイスプレジデントを務めるマット・ウッド氏はAWSサミット・ニューヨークに登壇し、公共のインターネット上で訓練されたAIモデルは、企業が使うデータセットや文書フォーマットの種類よりも「ずっと広範で一般的な」データセットを使用していると指摘した。

「その情報はたいてい、多くの企業が日常業務で扱う情報の深さに比べると相当に浅いものだ。このような世界モデルを深く掘り下げていくと、まるでスイスチーズにようになることがある。情報の密度が高い部分がある一方で、希薄な部分が存在する。そして情報密度が高く、モデルにコンテクストが伴うところにおいてこのモデルは実にうまく機能する」。

この発表はAWSサミット・ニューヨークで公開された多くの機能のうちの2つにすぎない。AmazonはジェネレーティブAIプラットフォームにからむ数多くの機能を公開した。たとえば法人顧客向けの新機能である「AWS App Studio」では、テキストプロンプトから業務用AIアプリを作成できる。企業が独自のAIアプリを構築する機能「Amazon Q Apps」の拡張も発表された。

AIはなんでもできる?



こうしたAmazonの取り組みが示すように、AIモデルのプロバイダーたちはさまざまな方法で互いに競り合いながら、より簡単、より有用、そしてより正確なジェネレーティブAIツールの開発を試みている。

たとえば創業4年のAI新興企業であるライター(Writer)は7月中旬、同社AIプラットフォームのアップグレード版を公開した。同社はグラフベースのRAG(検索拡張生成)技術を採用しており、今回の新機能ではチャットアプリを開発する際に最大1000万ワードを分析するプロセスにこのRAGを組み込む新たな方法を紹介した。また、AIモデルが回答を生成した過程を説明する能力もアップデートされた。「説明可能なAIをめざす」ことは業界が直面する主要な課題のひとつでもある。さらに、ユーザーがドキュメントを処理する際、実行するタスクによって異なる「モード」を選択できる機能も追加された。

ライターでプロダクトマーケティング責任者を務めるディアナ・ドン氏は、ユーザーはブラックボックスから出てくる答えを当然のように信用するわけではないと説明する。またジェネレーティブAIは「魔法」のように見えるかもしれないが、それでも「すべての問題を解決する百発百中の魔法の弾丸ではない」とも付け加えた。

「我々はオープンエンドのプロンプトを用いる画一的なチャットアプリは、必ずしもユーザーにとって最良のアウトプットにつながらないことをすでに目にしている。多くの混乱があり、AIから適切な出力を引き出せるか否かはプロンプトを使いこなすユーザーの力量に大きく依存しているのが現状だ」。

AWSのエージェンシーパートナーであるメディアモンクス(Media.Monks)でエクスペリエンス担当シニアバイスプレジデントを務めるカーリ・デフィリポ氏は、AI導入における課題のひとつは、企業が自分たちに必要なもの、あるいは作りたいものを必ずしも分かっていないことだと語った。そのため何が可能であるかについてのより多くの事例が必要であると同時に、「AI関連の施策で何か問題が生じたらどうなってしまうのか」という企業側の不安も解消させる必要がある。

「クライアントと話をして準備が整っていないと分かれば、我々は何がなんでも進めるというやり方はしない。それは考えすぎて決められない、いわゆる分析麻痺のような状態だ。AIはやりたい、KPIも設定した、上司にもやれと追い詰められている。その反面で、彼らはまだ何が正しいのか、どの選択肢が正しいのか、正確には分かっていないように思われる。なぜなら、現状にはあまりに多くの選択肢があるからだ」。

[原文:Amazon adds tools for scaling generative AI applications - and improving accuracy issues]

Marty Swant(翻訳:英じゅんこ、編集:都築成果)