マイクロソフト“Copilot+”が描く、AI中心のパーソナルコンピューター革命
毎年、5月から6月はテクノロジー業界で多くの新しい発表が行われるが、中でも今最も大きな話題になっているのがマイクロソフトの「Copilot+ PC」だ。
この時期は、いわゆる“プラットフォーマー”と呼ばれる技術基盤を提供している企業が、年末に向けて開発者たちの興味を惹きつけるため、予定している機能や近い将来のロードマップについて訴求する。
6月10日からはアップルもWWDC 2024を開催するが、既にGoogleとマイクロソフトはそれぞれのイベントを終えた。Copilot+ PCもマイクロソフトのBuild 2024の中で発表されたものだ。
ギズモードの読者はArmアーキテクチャを採用しながらもパワフル、かつ1000ドルから入手できる新しいSurfaceシリーズに注目したかもしれない。確かに魅力的なハードウェアだが、筆者が興味深く感じたのはマイクロソフトが“パーソナルコンピュータの評価軸”を変えようとしていることだ。
新世代Surface LaptopはM3 MacBook超えをうたうSnapdragon X Elite搭載
AI強化Surface登場。マイクロソフト発表「Copilot+ PC」まとめ #MicrosoftBuild
下がるCPUアーキテクチャへの依存度
Copilot+ PC最初の製品である新型Surfaceに着目すると、クァルコムの最新チップであるSnapDragon Xシリーズを搭載していることに目が行きがちだ。アップルが真っ先にMacをArmに移行させたように、Armアーキテクチャがカバーする応用領域は着実に広がってきた。
つよつよ性能でAIにもガチ対応。これからやってくる「スナドラXエリートなPC」まとめ #MicrosoftBuild
それが、x86アーキテクチャを基本としてきたWindowsを開発するマイクロソフトが作る、新しいトレンドとコンセプトを示す主力デバイスにまで広がってきたということは、今後インテルやAMDへは厳しい道のりが…といった文脈を想像しがちだ。
アップルが高性能なSoC*1をMacで展開していることを考えれば、今後、これが世の中のトレンドになるという想像をするかもしれない。
*1:一枚のチップ上に、様々なシステム機能を集合させた半導体製品
しかしインテルやAMDが競っている領域と、ArmをライセンスしているSoCメーカーが狙っている領域はノートPC向けで一部重なっている領域もあるが、基本的には異なるものだ。
今回のニュースは、パーソナルコンピューターの進化の軸として、かつてCPU性能が進化の多くを支えていた時代から、GPUがグラフィクスおよび各種演算処理を高め、コンピュータを進化させる要素として加わってきた過去の歴史を踏襲するように、NPU*2が新たな進化の軸足としてフィーチャーされ始めたことを示している。
*2:ディープラーニングや機械学習など、AI処理に特化したプロセッサ
Windowsを開発するマイクロソフトが、モバイル機でArmを用いるクァルコムのチップを採用した理由は、デバイスの特性を考慮した上でSurfaceでは適しているとして採用したに過ぎない。しかし、CPUアーキテクチャに関しては(少なくともモバイル向けでは)CPUアーキテクチャを意識しなくても良くなったとの判断だととらえる。
エンドユーザーの視点で言えば、インテル、AMD、クァルコム(あるいはそれ以外のArmライセンシー)など、どのプラットフォームからも選べる自由が生まれたと考えるべきだろう。
たとえばハイパフォーマンスコンピューティングやゲーミングPCなど、電力効率と絶対パフォーマンスのバランス点が異なるジャンルでは、インテルやAMDの方がプラットフォームとして良い選択肢となるはずだ。
デバイス内AI処理の開発基盤を整備
現時点において、Copilot+ PCが実現している機能は夢のようなものではなく、想像の範疇と言えるだろう。クラウドの大きな計算能力を用いた大規模なAIによる問題解決に慣れている人には、「今の時代、それぐらいはできるだろう」と冷ややかに感じている人もいるかもしれない。
Copilot AIで仕事の生産性がアップ。便利になったMicrosoft Teamsの機能 #MicrosoftBuild
しかしもっとも重要なことは“現時点で”何ができるかではない。
Copilot+ PCの発表において重要なポイントは、AI処理をPC内部で行うNPU性能のボトムラインを設定したことと、それを活用するためのAPI(ソフトウェアが呼び出す際のインターフェイス)標準が定義されたことが大きい。
NPUのボトムラインはWindowsプラットフォームにとって重要なインテルやAMD(いわゆるx86プロセッサ)が、発表時点では到達できていない演算性能に設定された。すでにComputex2024でAMDがクァルコムのNPU性能を超える「Ryzen AI 300」を発表しており、近くインテルも同様の発表を行うだろう。
このボトムラインに合わせ、マイクロソフトは生成AIの基礎となる言語モデルを開発した。
近年、仕事のやり方を変えつつある生成AIの主役であるLLM(大規模言語モデル)をPCハードウェア内部で処理可能な規模に最適化したSLM(Small Language Model:小規模言語モデル)を開発し、そのパフォーマンスを引き出すための性能水準として、ニューラル処理プロセッサ(NPU)に毎秒40兆回の演算性能を設定したのだ。
Surfaceが搭載するSnapdragon X Elite/Plusは毎秒45兆回、アップルがiPad Proに搭載した最新のM4チップが毎秒38兆回。アップルも年末の新しいiPhoneでは新たなNPU(彼らの言い方ではNeural Engine)もアップデートされるだろう。
業界の標準として毎秒50億回前後のNPU性能が、ひとつのスタンダードになりそうだ。
そしてこうしたNPUを活用するAPIとしてWindows Copilot Runtimeが用意されている。これはアップルのプラットフォームにおけるCoreMLのようなものだ。
このランタイムから利用できるAPIでは、前述したSLM(Small Language Model)はもちろん、RAG(Retrieval-Augmented Generation)*3などの機能を利用できる。
*3:ネットやストレージなど外部データを参照、解析した上で応答を生成するAI技術
つまり発表時点ではWindowsそのものが実現しようとしているAI機能に目が行きがちだが、未来を見据えるとWindows Copilot Runtimeを活用したより複雑なAIアプリケーションが、さまざまな開発者によって作られ、新たな進化の突破口を開いていくだろうということだ。
省電力性と拡張性、幅広い用途を受け止められるAIプラットフォームに
デバイス内でのAI処理に関して、過去数年はアップルがその主役だった。アップルは“AI”という言葉を今まで使ってこなかったが、彼らのデバイスを改良するために進化させてきたNeural Engineは、Core ML(機械学習モデル)を通じてアプリケーションに応用され、使いやすさを増してきた。
当然ながらハードウェアが主業務ではないマイクロソフトには、最終製品の機能や性能を評価軸に半導体やソフトウェア設計を主導する立場にはないが、Copilot+ PCでAPIと性能の枠組みを作ることで、より幅広い用途や目的での進化を促すプラットフォームになろうとしている。
例えばNVIDIAはGeForce RTXに、Tensor Coreと呼んでいるNPUとしても利用できる行列演算向きの処理エンジンが内蔵されている。この行列処理エンジンはGPU経由でしか利用できないが、NVIDIAはWindows Copilot Runtime経由でTensor Coreを利用可能にするようマイクロソフトと協業しているという。
現時点では直接、NPUを呼び出しているWindows Copilot Runtimeだが、GPUなどの機能を用いて性能を拡張できるとなれば、使い方に幅が出てくる。例えばNVIDIAのGPUカードを複数搭載することでAI性能を大幅に引き上げたマシンと、それを活用するアプリケーションといったものも出てくるだろう。
最終的なハードウェアを想定したものづくりはマイクロソフトにはできないが、ソフトウェア開発の視点でハードウェアを抽象化することで、別の進化を促すことはできる。
AIの主役はあくまでもソフトウェアだ。そのソフトウェアがデバイスの中で動作するのか、それともクラウドを通じて提供されるのか。それはパラメータの規模によって異なるが、半導体メーカーが自ら販売するチップの都合とは無関係に“AI開発の会社”であるマイクロソフトがスキームを定義したことは一つの楔になるだろう。
しかし、その裏返しもまた事実だ。
近くアップルの開発者向け会議「WWDC 2024」が始まる。そこではAIに関するさまざまな取り組みが発表されると見込まれる。