オラクル、インデータベースLLM備える「HeatWave GenAI」 - ベクトル処理で競合圧倒
米オラクルは6月26日(現地時間)、「HeatWave GenAI」の提供開始を発表した。「HeatWave」はオブジェクト・ストレージ内のデータのクエリに最適化されたスケールアウト型データ処理エンジンで、トランザクションとレイクハウス規模のアナリティクス向けに、統合された生成AIと機械学習を単一のサービスで提供する。
HeatWaveは、OCIとAmazon Web Services上でネイティブに利用できるほか、「Oracle Interconnect for Azure」を介してMicrosoft Azure上で、また、「OCI Dedicated Region」と「Oracle Alloy」によりユーザーのデータセンター内でも利用可能。
HeatWave GenAIのほか、HeatWaveが提供する機能としては、「HeatWave Lakehouse」「HeatWave MySQL」「HeatWave AutoML」「HeatWave Autopilot」がある。
![](https://image.news.livedoor.com/newsimage/stf/2/d/2df5a_1223_fc3aa7872db20af6ea888d9c5b9bee16.jpg)
「HeatWave」が提供する機能
米オラクル MySQLおよびHeatWave開発担当シニア・バイスプレジデント ニプン・アガーワール氏は、HeatWave GenAIについて、「これまでOLTP、OLAP、レイクハウスに対応してきたが、生成AIとベクトルストアに対応する。これにより、非構造化データへの対応、自然言語による操作が可能になる」と述べた。
![](https://image.news.livedoor.com/newsimage/stf/e/f/ef43d_1223_cf023c31f6d3519451bb369d105af79d.jpg)
米オラクル MySQLおよびHeatWave開発担当シニア・バイスプレジデント ニプン・アガーワール氏
さらに、アガーワール氏はベクトルストアがもたらすメリットとして、「LLMを活用して、自社内のプライベートデータを活用することが可能になる」「非構造化データに対しセマンテックサーチが可能になる」の2点を挙げた。
アガーワール氏「HeatWave GenAI」の主要機能として、以下4点を紹介した。
自動化されたインデータベース・ベクトル・ストア
インデータベースLLM
スケールアウト可能なベクトル処理
HeatWave Chat
自動化されたインデータベース・ベクトル・ストア
HeatWave GenAIでは、自動化されたインデータベースベクトル・ストアにより、データを別のベクトル・データベースに移動することなく、また、AIの専門知識がなくても、ビジネス・ドキュメントで生成AIを利用できる。
通常、ベクトル・ストアを作成する際は、「ドキュメントの発見」「解析」「埋め込み生成」「ベクトル・ストアへの登録」という手順を踏む必要がある。これに対し、HeatWave GenAIでは、ベクトル・ストアとベクトルの埋め込みを作成するすべてのステップは自動化されており、1つのコマンドでこれらを実行できる。データ変換はデータベース内で完了する。
ベンチマークテストによると、pdf/ppt/word/html形式のドキュメントのベクトル・ストアの作成は、Amazon BedrockのKnowledge baseを使用する場合と比べ、HeatWave GenAIを使用すると最大23倍速く、コストは4分の1になることがわかったという。
![](https://image.news.livedoor.com/newsimage/stf/6/9/69573_1223_9faf13eb65302053d4ad8ef60313ec2e.jpg)
HeatWaveはAmazon Bedrockのknowledge basesよりも高速かつ安価にベクトル・ストアを作成できる
インデータベースLLM
HeatWave GenAIでは、インデータベースLLMとデータベース内埋め込み生成を提供するため、追加のコストを支払うことなくLLMを利用できる。
インデータベースLLMにより、ユーザーはHeatWaveの ベクトル・ストアでデータを検索し、コンテンツを生成・要約し、検索拡張生成(RAG)を実行できる。HeatWave GenAIは、「OCI Generative AI」と連携されており、主要なLLMプロバイダーの事前トレーニング済みの基盤モデル(cohere、Llama)にアクセスでき、データベースにLlama 3と
アガーワール氏は、インデータベースLLMのメリットの一つとして、どんなリージョンやどんなクラウド(マルチクラウド)でも一貫した結果を提供できることを挙げた。また、AutoMLとの統合により、パフォーマンス向上とコスト削減といったメリットが得られるという。
![](https://image.news.livedoor.com/newsimage/stf/4/8/48ff2_1223_81a5439197c315b759d59d2bf238f104.jpg)
HeatWave GenAIとAutoMLとの統合で実現されるパフォーマンス向上とコスト削減
スケールアウト可能なベクトル処理
HeatWave GenAIは、新しいVECTORデータ型と最適化された距離関数の実装をサポートしており、標準SQLでセマンティック検索を実行できる。HeatWaveのインメモリ・ハイブリッド・カラムナー表現とスケールアウト・アーキテクチャにより、ベクトル処理はメモリに近い帯域幅で実行され、最大512のHeatWaveノード間で並列化される。
また、セマンティック検索を他のSQL演算子と組み合わせることで、例えば、異なるドキュメントを持つ複数のテーブルを結合し、すべてのドキュメントで類似検索を実行できる。
1.6GBから300GBのサイズのテーブルに対する類似検索クエリを使用したベンチマークにおいて、HeatWave GenAIはSnowflakeより30倍高速でコストは25%削減、Databricksより15倍高速でコストは85%削減、Google BigQueryより18倍高速でコストは60%削減するという結果が出たという。
![](https://image.news.livedoor.com/newsimage/stf/2/2/2256c_1223_edffa954ccabcfdf3fc264631b33edf5.jpg)
HeatWave GenAIと他社製品における類似検索のコスト比較
HeatWave Chat
HeatWave ChatはMySQL Shell用のVisual Codeプラグインで、「HeatWave GenAI」のGUIを提供し、開発者は自然言語またはSQLで質問できる。Lakehouse Navigatorにより、オブジェクト・ストレージからファイルを選択し、ベクトル・ストアを作成できる。
サーバには以下のコンテキストが保持され、これらにより、コンテキストに基づいた会話が容易になり、ユーザーはLLMが生成した回答の出典を確認できる。
チャット履歴:過去のユーザープロンプトと生成された応答
テーブル:使用するベクトル・ストアのテーブルを自動検出
ドキュメント:マッチするドキュメントのスニペット(元ファイルへのURLを含む)
モデルオプション:使用するLLM、パラメーター
プロンプト:ユーザーからの元プロンプト
レスポンス:LLMが生成したレスポンス
HeatWaveは、OCIとAmazon Web Services上でネイティブに利用できるほか、「Oracle Interconnect for Azure」を介してMicrosoft Azure上で、また、「OCI Dedicated Region」と「Oracle Alloy」によりユーザーのデータセンター内でも利用可能。
![](https://image.news.livedoor.com/newsimage/stf/2/d/2df5a_1223_fc3aa7872db20af6ea888d9c5b9bee16.jpg)
米オラクル MySQLおよびHeatWave開発担当シニア・バイスプレジデント ニプン・アガーワール氏は、HeatWave GenAIについて、「これまでOLTP、OLAP、レイクハウスに対応してきたが、生成AIとベクトルストアに対応する。これにより、非構造化データへの対応、自然言語による操作が可能になる」と述べた。
![](https://image.news.livedoor.com/newsimage/stf/e/f/ef43d_1223_cf023c31f6d3519451bb369d105af79d.jpg)
さらに、アガーワール氏はベクトルストアがもたらすメリットとして、「LLMを活用して、自社内のプライベートデータを活用することが可能になる」「非構造化データに対しセマンテックサーチが可能になる」の2点を挙げた。
アガーワール氏「HeatWave GenAI」の主要機能として、以下4点を紹介した。
自動化されたインデータベース・ベクトル・ストア
インデータベースLLM
スケールアウト可能なベクトル処理
HeatWave Chat
自動化されたインデータベース・ベクトル・ストア
HeatWave GenAIでは、自動化されたインデータベースベクトル・ストアにより、データを別のベクトル・データベースに移動することなく、また、AIの専門知識がなくても、ビジネス・ドキュメントで生成AIを利用できる。
通常、ベクトル・ストアを作成する際は、「ドキュメントの発見」「解析」「埋め込み生成」「ベクトル・ストアへの登録」という手順を踏む必要がある。これに対し、HeatWave GenAIでは、ベクトル・ストアとベクトルの埋め込みを作成するすべてのステップは自動化されており、1つのコマンドでこれらを実行できる。データ変換はデータベース内で完了する。
ベンチマークテストによると、pdf/ppt/word/html形式のドキュメントのベクトル・ストアの作成は、Amazon BedrockのKnowledge baseを使用する場合と比べ、HeatWave GenAIを使用すると最大23倍速く、コストは4分の1になることがわかったという。
![](https://image.news.livedoor.com/newsimage/stf/6/9/69573_1223_9faf13eb65302053d4ad8ef60313ec2e.jpg)
インデータベースLLM
HeatWave GenAIでは、インデータベースLLMとデータベース内埋め込み生成を提供するため、追加のコストを支払うことなくLLMを利用できる。
インデータベースLLMにより、ユーザーはHeatWaveの ベクトル・ストアでデータを検索し、コンテンツを生成・要約し、検索拡張生成(RAG)を実行できる。HeatWave GenAIは、「OCI Generative AI」と連携されており、主要なLLMプロバイダーの事前トレーニング済みの基盤モデル(cohere、Llama)にアクセスでき、データベースにLlama 3と
アガーワール氏は、インデータベースLLMのメリットの一つとして、どんなリージョンやどんなクラウド(マルチクラウド)でも一貫した結果を提供できることを挙げた。また、AutoMLとの統合により、パフォーマンス向上とコスト削減といったメリットが得られるという。
![](https://image.news.livedoor.com/newsimage/stf/4/8/48ff2_1223_81a5439197c315b759d59d2bf238f104.jpg)
スケールアウト可能なベクトル処理
HeatWave GenAIは、新しいVECTORデータ型と最適化された距離関数の実装をサポートしており、標準SQLでセマンティック検索を実行できる。HeatWaveのインメモリ・ハイブリッド・カラムナー表現とスケールアウト・アーキテクチャにより、ベクトル処理はメモリに近い帯域幅で実行され、最大512のHeatWaveノード間で並列化される。
また、セマンティック検索を他のSQL演算子と組み合わせることで、例えば、異なるドキュメントを持つ複数のテーブルを結合し、すべてのドキュメントで類似検索を実行できる。
1.6GBから300GBのサイズのテーブルに対する類似検索クエリを使用したベンチマークにおいて、HeatWave GenAIはSnowflakeより30倍高速でコストは25%削減、Databricksより15倍高速でコストは85%削減、Google BigQueryより18倍高速でコストは60%削減するという結果が出たという。
![](https://image.news.livedoor.com/newsimage/stf/2/2/2256c_1223_edffa954ccabcfdf3fc264631b33edf5.jpg)
HeatWave Chat
HeatWave ChatはMySQL Shell用のVisual Codeプラグインで、「HeatWave GenAI」のGUIを提供し、開発者は自然言語またはSQLで質問できる。Lakehouse Navigatorにより、オブジェクト・ストレージからファイルを選択し、ベクトル・ストアを作成できる。
サーバには以下のコンテキストが保持され、これらにより、コンテキストに基づいた会話が容易になり、ユーザーはLLMが生成した回答の出典を確認できる。
チャット履歴:過去のユーザープロンプトと生成された応答
テーブル:使用するベクトル・ストアのテーブルを自動検出
ドキュメント:マッチするドキュメントのスニペット(元ファイルへのURLを含む)
モデルオプション:使用するLLM、パラメーター
プロンプト:ユーザーからの元プロンプト
レスポンス:LLMが生成したレスポンス