新型MacBook Proにみる、「シリコンの統合」がもたらす盤石の製品ライン(本田雅一)
iPhone、iPad mini、Apple Watchと続いた新製品ラッシュにMacが加わることは確実と言われてきたが、噂されていたAirPodsに加え、HomePodも年内新製品のラインナップに顔を並べることになった。
それぞれの製品についてはApple自身のプレゼンテーション、あるいは本誌をはじめとする速報レポートでその概要が伝えられているので、ここでは少し違う方向から見ていきたい。
Appleは昨年6月のWWDC(世界開発者会議)で、Macのラインナップを2年かけて一新し、Intelから調達していたプロセッサをAppleシリコン(Apple自身で設計した半導体)へと切り替えていくと発表していた。
最初のAppleシリコン搭載Macが登場してから1年、すなわち中間地点になるこの時期だけに、登場した製品そのものはもちろんだが、そこに搭載されているAppleシリコンがどのようなものなのか気になっていた読者も多いだろう。
ところが今回の発表、俯瞰して見るとMac向けAppleシリコンはもちろん、オーディオ向けにも”Appleシリコン”の影響、製品強化の影響が色濃く感じられた。iPhone、iPadがApple製半導体になってから長い期間が経過しているが、そこへMacが加わり、さらにオーディオ製品にも活かされている。
”年間2億台”の価値を多様なジャンルに応用
以前にも筆者のコラムでお伝えしてきたように、Appleの強みはiPhoneにある。
……と、このように書き出した理由は、今回のスペシャルイベントの主役となった新型MacBook ProにはiPhone向けに開発、蓄積してきた技術がたっぷり使われているからだが、細かく言うならばそれはAirPodsの新型モデルにも言える。
iPhoneがたくさん売れて利益が出ているということもあるが、年間に2億台近く出荷されるiPhoneの全数に、Appleが設計したSoC(システムオンチップ)が搭載されている。
そしてこのSoCに組み込まれた様々な役割の回路は、AppleがiPhoneとともに開発しているiOSと結びついて製品価値になっている。
代表的な例はカメラだ。iPhoneの内蔵カメラは約3年前に”次の世代のカメラに必要な信号処理”がまとめられ、SoCの設計回路に信号処理用のハードウェアが実装された。ソフトウェアと半導体を同時に設計することで、カメラの画質や機能を高めることができる。
この価値はAppleシリコンのMacにも応用され、FaceTime HDカメラのノイズ低減やホワイトバランス、露出制御に用いられているが、それはあくまで一例であって、マイクやスピーカーの音質もiPhone向けの開発成果が応用(ご存知の方も多いだろうが、IntelIntel搭載Macでも搭載されるT2チップが持つ機能で一部恩恵があった)されてきた。
さらにはAPIを通じてサードパーティーのアプリにも好影響を与えている。Core MLを使って実装しているAI的なさまざまな機能は、AppleのNeural EngineやMLアクセラレータによって”より良い結果”を出してくれるようになる。
それもこれも、圧倒的な台数のiPhoneをAppleが出荷しているからだ。
”Appleシリコン”をAppleが設計した、iPhoneが持つ大きなモーメンタムを拡げるための基盤と考えるなら、ペアで開発される信号処理とともに他ジャンルの製品付加価値を高めることができる。
すべて最初から計画していたのかどうかはわからないが、Apple Watch、AirPods、HomePod miniといった製品を見ると、いずれもその競争力の源泉にApple自身が開発した半導体、ソフトウェア、そしてそれらで行う信号処理技術がある。
そう考えると、昨年発売されたHomePod miniやAirPods MAXからその予感はあったにせよ、今回発表された製品すべてにおいて年間2億台を出荷する主力製品向けに投資してきた成果が商品力を高めていると考えられる。オーディオ製品もまた、iPhone向けの開発成果を切り出したものだからだ。
M1のコンセプトをそのままスケールアップした狂気
ということで本題のMacに入っていきたいが、表面的な数字や仕様に関してはあらためて書く必要もないだろう。発売時には実機でのレポートをお届けできると思うので、ここでは、新たに発表されたMacBook Proに搭載されるM1 Pro、M1 Maxについて話していきたい。
昨年登場したAppleシリコンのM1は、その省電力性能と絶対的な性能の両方で驚きをもたらしただけではなく、コストパフォーマンスの良さも光っていた。とはいうものの、あらゆる要素をSoCに取り込み、さらにメモリを同じパッケージに封入するという方法で高性能化していた。
この手法はiPhoneで経験のあるものだが、スマートフォンのように拡張性が求められないハードウェアでは問題がないものの、拡張性が求められるMacでは応用が難しいと予想していた。あまりに多くのコアを並べたり、パッケージに封入するメモリチップのバリエーションが多くなるとコストが上がってしまう。
まさかそのままスケールアップすることはないだろうと予想していたら、そのままスケールアップしてきた。本当にクレイジーな考えだが、おかげでM1チップの特徴を引き継いだまま、パフォーマンスを大きく向上させている。
8個の高パフォーマンスコアはM1の2倍の数、それに2個の高効率コアの組み合わせだが、コアの設計が現時点ではM1と同じかどうかはわからない。現在発表されている性能値は、いずれもIntel搭載の前モデルからの比較だ。
ただ、名称こそ”M1”ではあるものの、Neural Engineが新設計になっている上、メディアエンジンも新設計など内蔵するプロセッサ回路が刷新されているためA15 Bionic世代のCPU、GPUコアの可能性が高そうだとみている。
そしてGPUコアの搭載数はM1 Proで12もしくは16個、M1 Maxだと24個もしくは32個。M1 Maxでは共有メモリへのアクセスチャネルが倍増するためメモリ帯域も2倍になる。
337億トランジスタのM1 ProはM1の2倍以上、570億トランジスタのM1 MaxはM1 Proの1.7倍、M1の3.5倍を集積しているという。
ちなみにCPUやGPU、A15 Bionicに搭載されている各種処理回路に加えてThunderbolt 4などを提供するための回路なども入っているが、いずれにしろM1でさえ規模が大きいと思っていたのに、そのさらに2倍以上(あるいは3.5倍)のトランジスタと言うのだから、その数字だけをみれば狂気の沙汰と言える。
新型MacBook Proのユニークな機能とAppleシリコン
結局のところ、”さらに統合度が増して進化”しただけとも言えてしまうのだが、3アレイマイクによる指向性マイクやスピーカーの信号処理などが進化しているのは当然。なにしろIntel CPU時代には、おそらくA10 Fusion世代とみられる信号処理能力をT2チップから拝借していたのだから、かれこれ5世代分ぐらい進化し、新しいソフトウェアと組み合わせられることになる。
実際の製品で試してみたいところだが、FaceTime HD(1080p)カメラの画質もかなり良くなっているはず。最新のiPhoneに内蔵するカメラと同等の信号処理が盛り込めるからだ。
Liquid Retina XDRディスプレイも、ミニLEDバックライトによる1000分割のローカルディミング制御はAppleがSoCに内蔵させている信号処理回路とセットで実現していると考えられる。もっともこれ自体はM1搭載のiPad Pro 12.9インチモデルと同じ分割数だが。もちろん、省電力性能もiPhone向けに省電力な半導体設計技術を磨き込んできたからに他ならない。
まずは商品があり、その商品を磨き込むために構成要素のすべてを内製し、もっとも大きなモメンタムを持つ製品で培う技術の恩恵をすべてのファミリー製品が受け取れる。こんな仕組みは他にはない。価格面でもM1搭載モデル程ではないにしろ、その性能を考えればかなり安価ともいえるだろう。
ここまで半導体と製品、さらには製品を磨き込むための信号処理技術までを統合した設計を水平分業で行うことは至難の業だ。垂直統合だからできたとも言えるが、ここまでやり切ったことは素直に驚く。単にテクノロジに自己陶酔するのではなく、ユーザー価値にまで落とし込まれている点も素晴らしい。
M1のコンセプトをさらにこのレベルまで引き上げたことに対して、PC業界がどう反応するのか。Intelや他PCメーカー大手をどのように刺激するだろう。そうした意味でも、興味深い発表になったとは思う。
関連記事:
Apple (Amazonストアページ)5分でわかるApple新製品まとめ。M1 Pro / M1 Max採用の新型MacBook Pro、第3世代AirPods、HomePod mini新色など