Microsoftが2024年5月21日に開催された開発者向け年次カンファレンス「Microsoft Build 2024」の基調講演で、AI特化のPC「Copilot+ PC」に搭載されたNPU上でローカルに動作する小規模言語モデル「Phi-Silica」をはじめとする40以上のAPIを発表しました。

New models added to the Phi-3 family, available on Microsoft Azure | Microsoft Azure Blog

https://azure.microsoft.com/en-us/blog/new-models-added-to-the-phi-3-family-available-on-microsoft-azure/

NVIDIA Collaborates With Microsoft to Help Developers Build, Deploy AI Applications Faster | NVIDIA Blog

https://blogs.nvidia.com/blog/microsoft-build-optimized-ai-developers/

基調講演の様子は以下から見ることが可能です。

Full Keynote: Satya Nadella at Microsoft Build 2024 - YouTube

Microsoftのサティア・ナデラCEOは基調講演で「Windowsを、AIアプリを構築できる最適なプラットフォームにするためのツール」として、「Windows Copilot Library」を発表しました。ナデラCEOによれば、このWindows Copilot LibraryはWindowsですぐに使用できるローカルAPIをまとめたライブラリとなっており、Phi-Silicaはその中に含まれるAIモデルの1つだそうです。



Phi-Silicaは、Microsoftの言語モデルである「Phi」ファミリーの1つで、パラメーター数33億と最も小さい規模のモデルとなっています。さらに、Phi-SilicaはCopilot+ PCのNPUに最適化されており、ローカルで実行できるとのこと。

さらに、ナデラCEOはPhiファミリーに「Phi-3-vision」「Phi-3-small」「Phi-3-midium」という3つのモデルを新しく追加したことを発表しました。



この中でも、Phi-3-visionはパラメーター数42億というコンパクトな規模でありながら、画像も認識できるマルチモーダルなAIモデルとなっています。



新しく追加されたPhi-3の3モデルは、いずれもMicrosoft Azureで利用可能となっています。



そして、MicrosoftはNVIDIAと提携し、NVIDIAの推論マイクロサービス「NVIDIA NIM」にもPhi-3の新しいモデル3つを提供すると発表しました。これらのモデルはすべてNVIDIA TensorRT-LLMで最適化されており、ai.nvidia.comあるいはAzure MarketplaceのNVIDIA AI Enterpriseを通じて入手可能です。



また、ナデラCEOはOpenAIのGPT-4oのサポートをAzure AI Studioに追加することを発表。基調講演では、ゲーム「マインクラフト」の画面をGPT-4oに認識してもらい、GPT-4oと会話しながらプレイする様子が公開されました。



さらに、MicrosoftとオンラインAIプラットフォームのHugging Faceとのパートナーシップが拡大され、テキスト埋め込み推論をAzure AI Studioに直接導入できるようにすることも発表されました。