VMwareとNVIDIAが企業向け生成AIで協業 知的なチャットボット、アシスタント、検索、要約などの生成AI プラットフォーム発表

写真拡大

ビジネス上の利益をより早く達成するため、企業は生成AIアプリケーションの開発、テスト、展開を効率化しようとしており、大手コンサルティングファームのマッキンゼーは、生成AIが世界経済に年間最大4兆4,000億ドルの利益をもたらすと予測している。
このような現状の中、あらゆるアプリケーションに対応したマルチクラウドサービスを提供するリーディングプロバイダーVMwareとNVIDIAは、企業の生成AI利用を可能にするプラットフォーム「VMware Private AI Foundation with NVIDIA」を、米国ラスベガスで開催されたVMware Exploreにて2023年8月22日(現地時間)に発表した。
VMware Cloud Foundation上に構築され、AI 向けに最適化された NVIDIA の生成AIソフトウェアとアクセラレーテッド コンピューティングが提供される完全な統合ソリューションである同プラットフォームにより、企業はモデルをカスタマイズし、インテリジェントなチャットボット、アシスタント、検索、要約などの生成AIアプリケーションを実行できるようになる。
同発表における両社代表のコメントは以下の通りだ。

VMware CEO Raghu Raghuram氏
生成AIとマルチ クラウドは完璧な組み合わせです。顧客のデータは、データセンター、エッジ、クラウドなど、あらゆる場所に存在します。NVIDIA と協力することで、企業のデータ プライバシー、セキュリティ、管理に関する懸念に対処しながら、企業が安心してデータに隣接した生成 AIのワークロードを実行できるようになりますNVIDIA 創業者/CEO Jensen Huang氏
あらゆる企業が、生成 AI のビジネスへの統合を急いでいます。VMware との協業の拡大は、金融サービス、ヘルスケア、製造業など、さまざまな分野の何十万ものお客様に、独自のデータで構築されたカスタム アプリケーションを使用して、生成 AI の可能性を引き出すために必要なフルスタックのソフトウェアとコンピューティングを提供します
なお、VMware Private AI Foundation with NVIDIAは2024年初頭にリリース予定となっている。
●生成AIを強化するフルスタック コンピューティング
VMware Private AI Foundation with NVIDIAは、両社の10年にわたるパートナーシップを基盤としており、両社の共同エンジニアリングにより、NVIDIA AI Enterpriseをベアメタルに匹敵するパフォーマンスで実行できるよう、VMwareのクラウド インフラストラクチャが最適化された。企業はこの機能を活用して、大規模言語モデルをカスタマイズし、よりセキュアでプライベートなモデルを社内向けに作成し、生成AIをサービスとしてユーザーに提供し、大規模に推論ワークロードをより安全に実行できるようになる。同プラットフォームには、企業がコスト効率の高い方法で、自社のプライベートなデータでトレーニングさせた実証済みのモデルを実行できるようにする統合AIツールが含まれる予定だ。
■【動画】VMware Private AI Foundation with NVIDIA - Readying Enterprises for Generative AI:

●同プラットフォームのメリット
VMware Cloud Foundation と NVIDIA AI Enterpriseソフトウェア上に構築されるこのプラットフォームには、以下のようなメリットが含まれる。
プライバシーデータのプライバシーを保護し、安全なアクセスを可能にするアーキテクチャにより、データのある場所に隣接してAIサービスを簡単に実行することが可能。選択肢企業は、NVIDIA NeMoから Llama2、そしてその先のモデルを構築し実行する場所において、主要なOEMハードウェア構成や、将来的にはパブリッククラウドやサービスプロバイダーの提供するものを含め、幅広い選択肢を持つことが可能。パフォーマンスNVIDIAアクセラレーテッドインフラストラクチャ上での実行は、最近の業界ベンチマークで証明されているように、いくつかの使用例においてベアメタルと同等、あるいはそれを上回るパフォーマンスを提供。※VMware公式ブログ内記事(英語)
参照データセンター規模仮想環境におけるGPUスケーリングの最適化により、AIワークロードを単一の仮想マシン内の最大16基のvGPU/GPUや複数のノードにまたがって拡張できるようになり、生成AIモデルのファインチューニングと展開が高速化。コスト削減GPU、DPU、CPUなど、すべての演算リソースを最大限に活用することで、全体的なコストを削減し、チーム間で効率的に共有できるリソース環境を構築。ストレージの高速化VMware vSAN Express Storage Architecture は、パフォーマンスに最適化されたNVMeストレージを提供し、RDMAによるGPUDirectストレージをサポートすることで、CPUを介さずにストレージからGPUに直接 I/O 転送が可能。ネットワークの高速化vSphereとNVIDIA NVSwitchテクノロジとの高度な統合により、マルチGPUモデルをGPU間のボトルネックなしに実行可能。Time to Value迅速な展開と価値実現までの時間:vSphere Deep Learning VMイメージとイメージリポジトリは、フレームワークとパフォーマンスに最適化されたライブラリがプリインストールされた安定したターンキーソリューションイメージを提供し、迅速なプロトタイピング機能を実現。
●VMware 環境に本稼働可能な生成AIを展開する方法を紹介
同プラットフォームは、NVIDIA AI Enterpriseに含まれるエンドツーエンドのクラウド ネイティブなフレームワーク「NVIDIA NeMo」を備えており、企業は事実上どこでも生成AIモデルを構築、カスタマイズ、展開することができる。NeMoにより、VMware Private AI Foundation with NVIDIAは、企業が VMwareのハイブリッド クラウド インフラストラクチャ上で独自のデータを取り込み、カスタム生成AIモデルを構築、実行できるようになる。VMware Explore2023で、NVIDIAとVMwareは、企業内の開発者が新しいNVIDIA AI Workbenchを使用して、Hugging Faceで利用可能なLlama 2のようなコミュニティモデルを取り込み、それらをリモートでカスタマイズし、VMware 環境に本稼働可能な生成AIを展開する方法を紹介する。
NVIDIA NeMo::
https://www.nvidia.com/ja-jp/ai-data-science/generative-ai/nemo-framework/
NVIDIA AI Workbench::
https://www.nvidia.com/ja-jp/deep-learning-ai/solutions/data-science/workbench/
Hugging Face::
https://huggingface.co/blog/llama2
●同プラットフォームの幅広いエコシステムサポート
VMware Private AI Foundation with NVIDIA は、NVIDIA L40S GPU、NVIDIA BlueField-3 DPU、およびNVIDIA ConnectX-7 SmartNICにより、企業のLLMのカスタマイズと推論ワークロードを強化するシステムをいち早く提供する Dell Technologies、Hewlett Packard Enterprise、およびLenovoによってサポートされる。
NVIDIA L40S GPUNVIDIA A100 TensorコアGPUと比較して、最大1.2倍の生成AI推論性能と最大1.7倍のトレーニング性能を可能にする。NVIDIA BlueField-3 DPU仮想化、ネットワーク、ストレージ、セキュリティ、その他のクラウドネイティブなAIサービスの膨大な計算負荷をGPUやCPUから加速、オフロード、分離する。NVIDIA ConnectX-7 SmartNI世界で最も要求の厳しいAIワークロードを加速するために、データセンターインフラストラクチャにスマートで高速なネットワークを提供。
NVIDIA L40S GPU::
https://www.nvidia.com/ja-jp/data-center/l40/
NVIDIA BlueField-3 DPU::
https://www.nvidia.com/en-us/networking/products/data-processing-unit/
NVIDIA ConnectX-7 SmartNIC::
https://www.nvidia.com/ja-jp/networking/ethernet-adapters/