●2024年のDDR - 話題は製造体制のシフトと、DDR6へ

2024年の幕開けに、パーソナルコンピュータのハードウェア技術の動向を占う毎年恒例の特集記事「PCテクノロジートレンド」をお届けする。本稿はMemory編だ。まずDDRでは2023年に無事DDR5がメインストリームになった。これに続くDDR6に関してはまだJEDECで標準化作業が続いているが、短期的に標準化が完了する見込みはなさそうだ。

***

○DDR

2023年は無事にDDR5がメインストリームになった。とはいえDDR4とDDR5のbit cross(bitあたり単価の逆転)は依然起きていない。PC Parts Pickerのメモリ価格追跡によれば、2023年末の段階でDDR4-3200 2×16GBの価格$70ほど。対してDDR5-4800 2×16GBの価格は$100ほどになっている(Photo01)。ただここに来てDDR4の値段が次第に上がり始めているのはメーカーが生産量を絞り始めているからで、この調子なら今年6月くらいにはbit crossが発生しそうだ。勿論より高速なメモリ(DDR5-5200/5600)はさらに後になるだろうが、これはまぁ当然の話である。

Photo01: 2024年1月1日現在におけるPC Parts PickerのMemory Price Trend。

さて問題はここからの話だ。Micronは2023年5月に1γnmプロセスを広島で量産する旨を発表しているが、これにはEUV Stepperの導入も必要になるから稼働開始は早くて今年後半、実際に量産に入れるのは2025年度に入ってからとなると思われるので、当面は1βnmプロセスでの量産となる。ただその1βnmプロセスでも32Gbit DDR5-8000を製造可能な事を既にアナウンスしており、今年には実際に量産に入るものと思われる。Samsungも2023年9月に12nm世代の32Gbit DDR5の開発が完了した事をアナウンスしており、これでDDR5-7200までの目途が立っている。12nmプロセスそのものは2022年12月に開発が完了し、2023年5月から量産もスタートしている。2023年9月のものはTSVを使わない、つまり16Gbitダイを3D積層するのではなく、1層で32Gbitを実現する構成の開発に成功したという話である。これに引き続き現在同社は11nm世代の開発を行っている事を2023年10月のSamsung Memory Tech Day 2023で公開しているが、まだ開発中という段階だから流石に2024年中に量産が始まるとは思えないので、2024年中はこの12nmでの製造になるだろう。SK Hynixも2023年5月に1b nmを利用したサーバー向けのDDR5-6400 DIMMの開発完了を発表している。

そんな訳でDRAMトップ3社は2023年中にDDR5-6400の量産準備を完全に整え終わっており、あとは価格と容量の問題となっている。とはいえ、Intel/AMD共に今年は恐らくDDR5-6400対応のプロセッサをリリースする(Arrow Lake-SとZen 5 Ryzen)ので、これに向けて第4四半期辺りにはDDR5-6400のメモリモジュールが大量に出荷開始されるものと予測される。問題はNanyaとかWinBond、PowerChipなどの4位以下のメモリベンダーがどこまでこれに追従できるか、というあたりだろうか。

ちなみに容量としては、まだ8GB DIMMも多少は残る(16Gbit×4)とは思うが、大勢は16GB DIMM(32Gbit×4ないし16Gbit×8)で、32GB DIMM(32Gbit×8ないし16Gbit×16)がかなりメジャーになってゆき、64GB DIMM(32Gbit×16)も2023年に比べれば流通量も増え、かつ価格的にもややこなれて来ると考えられる。

ちなみにこの速度はあくまでも定格動作という話であって、既にOC MemoryはDDR5-8000とかまで発売されている(例:https://www.amazon.co.jp/dp/B0BWM1T88J/)から、こちらは2024年にはDDR5-10000とかに達するんじゃないかと思われる。

これに続くDDR6に関してはまだJEDECで標準化作業が続いているが、短期的に標準化が完了する見込みはなさそうだ。一応、例えば最大12800MT/secの転送速度とか、On-die ECCに加えて転送データをCRCで保護するとか、最大256GBの容量に対応など、断片的に聞こえてくる特徴はあるのだが、これらがFinalizeされたという訳ではなく、参画メーカーが予測(というか、願望?)を述べているに過ぎない。しいて楽観的な側面を言えば、もう2DPC(2 DIMM Per Channel)は非現実的とほぼ理解されたことで、実際DDR5-4400あたりが2DPCの限界で、これを超えるとサポートされない(というか、頑張ればDDR5-5200のDPCとか一見動くように見えるのだが、ちょっと負荷をかけるとリブートしたりするのでかなり無理があり、安定稼働しているとは言えない)事を考えると、もう1DPCで行く事はほぼ確定していると考えて良く、そこだけは標準化作業が楽になるかもしれない。話を戻すと、そんな訳でDDR5の時代はまだ数年続きそうである。2025年あたりに何かしら展望が見えると良いのだが。

DDR5に関連する話で言えば、まず薄型ノート向け、SO-DIMMに代わる規格としてCAMM2が2023年12月に標準化が完了した。SO-DIMMより小型で、しかも厚みを抑えられ、配線長も短縮でき、結果として消費電力削減にも繋がるとする。またSO-DIMMは基本的にDIMMの小型版(Small Outline DIMM)だからDDR5チップの装着となるが、CAMM2ではDDR5だけでなくLPDDR5/5Xも利用できる。実際Samsungは2023年11月にLPDDR5X CAMM2をアナウンスしている。今年登場するノートの中には、このCAMM2を利用する製品が次第に増えてゆくのではないか、と思う(というかCESのタイミングで複数社がこのCAMM2を採用するノートを展示してそうだが)。

もう一つの話題がMR-DIMM(MCR-DIMM)である。MR-DIMMはこちらの記事で紹介したが、要するにDIMMとホストの間にBufferを挟み、ここを倍速(第1世代は8800MT/sec)で転送。メモリの方は2 Rankを同時にアクセスするという形で、メモリチップそのものに手を入れずに転送速度を倍にする仕組みである。AMDはまだ公式にはMR-DIMMサポートを表明していないが、IntelはMCR-DIMMをGranite Rapidsでサポートする事を既に表明済である。JEDECでは現在これの標準化作業をやっている最中でまだ仕様が固まった訳ではないのだが、早ければ2024年第4四半期頃にはモジュールが出荷開始されるかもしれない。もっともこれは検証用という位置づけであって、最終的に市場に製品が出てくるのは2025年に掛かりそうである。

ちなみにこのMR-DIMM、クライアント向けに出したりしない? という話をあっちこっちで聞いて回ったのだが、一様に否定的な反応だった。コストが上がるしLatencyも増える。そもそもMR-DIMMの動機が、コア数の増加にメモリ帯域の増加が追い付かないことへの解決策なので、そこまでコア数が増えないクライアント向けには要らないだろう、というのが概ね共通のお返事であった。まぁOC Memoryなら既にDDR5-8000がある状態で、MR-DIMMは要らないよな、と言われればその通りなのだが。

ついでにLPDDRの方に関して言えば、2022年10月にSamsungが8.5GT/secのLPDDR5X、同年11月にはMicronが同じく8.5GT/secのLPDDR5Xの量産開始をアナウンスし、2023年10月にSK Hynixが9.6GT/secのLPDDR5Tを発表するなど高速化に余念が無いが、流石にLPDDR5ベースで引っ張るのはこのあたりが限界であり、次はLPDDR6になる。現時点ではこちらもまだJEDECで標準化作業の最中である。最高転送速度はLPDDR5Xの倍、17GT/secまでを想定しており、DDR6よりも早く標準化が完了するかもしれない、という見方もある。ただ今のところはまだLPDDR6のサンプルを完成させたメーカーも存在していない。今年中に何かしら動きはありそうな気がするのだが。

●2024年のGDDR・HBM、そしてCXL

○GDDR・HBM

GDDR6XはやはりMicronとNVIDIAだけの独自製品に終わってしまい、GDDR6がそのGDDR6Xを上回るスピードを出したりしたのだが、業界的にはGDDR7への移行準備が整い始めた。Samsungは2023年7月にGDDR7の開発完了を発表。Micronは今年中旬からGDDR7の供給を開始するロードマップを公開している。SK Hynixは今のところ公式にはアナウンスを行っていないが、同社が手掛けない理由もないので、当然今年中に量産を開始すると思われる。ターゲットは先にGPUの所で出て来たAMDのRDNA 4とかNVIDIAのGB102やその下位製品向けであるが、以前と異なりGDDR6世代からAI ProcessorにもGDDRが広く使われ始めている事を考えると、マーケットそのものは以前より広がってきていると言える。ただ2024年中にどの程度出て来るか? というのは微妙なところで、なにしろ肝心のGPUの新製品が2024年末とかいう状況だから、2024年中の出荷数はそれほど多くなく、本格的に出荷されるのは2025年に入ってからとみられる。

HBMの方も、既にHBM3やHBM3e(MicronのみHBM3 Gen2とか称している)が量産出荷を開始しており、AMDのInstinct MI300A/XやNVIDIAのGH200などに既に採用されている。ただ面白いのは、まだHBM3/HBM3eの性能をフルに生かした製品が少ない事だ。例えばInstinct MI300A/XはHBM3を搭載しているから最大で6.4bps/pinの転送が可能なのに対し、実際は5.2Gbps/pinに留まっている。あるいはNVIDIAのGH200はHBM3モデルが4000GB/sec、HBM3eモデルが4800GB/secの帯域を持つとされるが、信号速度はそれぞれ5.3Gbps/pinと6.4Gbps/pinで、HBM3の6.4Gbps/pinとかHBM3eの9.6Gbps/pinには遠い。というか、そもそも何でGH200のHBM3eモデルはHBM3eを使ったのか(6.4Gbps/pinならHBM3でもカタログスペック上は間に合う)という事を考えると、公称値はともかく実効性能はまだフルに生かせないという事なのか、それともHBM3を6.4Gbps/pinで使おうとすると消費電力が過大になりすぎるのでHBM3eを選んだのか、そのあたりの理由は定かではない。

このHBM3e世代は既にSamsung/SK Hynix/Micron共に製品出荷を行っており、GPUだけでなくAIのTraining向けチップなどにも多く採用されている。CPUへの搭載は今のところ富士通のA64fxとIntelのXeon Maxくらいのもので、これに続く汎用CPUの話は今のところ全く聞こえてこない。

HBM4に関しても水面下では動いているが、業界的には2026年頃の導入を想定している。先のMicronのロードマップでも、HBM Nextは2026年度に導入される予定だ。ただSamsungのみ、HBM4を2025年には実用化すると表明している。もっとも、まだ物理層の具体的な仕様のレベルで確定していない話であり、本当に2025年度に実用化できるのかはちょっとはっきりしない。逆に言えば、2024年中にはそうした仕様の策定で色々ありそうではあるのだが、製品が出てくるような可能性は0であろう。

○CXL

既にAMDはGenoa世代のEPYC 9004で、CXL 1.1相当ながらMemory関連のみCXL 2.0相当のサポートを既に提供しているという話はこちらの記事で説明した。これに続き、IntelもEmerald Rapidsこと5th Gen Xeon ScalableでCXL Memoryのサポートを実装した。このEmerald RapidsはIntelにとって一つの転換点である。というのは、Optane Persistent Memoryのサポートが打ち切られたからだ。Optane Persistent Memoryは使っているユーザーこそ決して多くは無いが、例えばSAP HANAの様に特定のアプリケーションではこれがサポートされており、そのアプリケーションを必要とするユーザーが利用していた。Enterprise Gradeのサポートが提供されている、というのがOptane Persistent Memoryの利点であり、そうしたユーザーはEmerald Rapidsへのアップグレードを行わず、Sapphire Rapidsのまま当面はOptane Persistent Memoryを使い続ける格好になる。ただいつまでもそれが維持できるわけでもない訳で、現在Optane Persistent Memoryをサポートしていたアプリケーションベンダーは、CXLベースのPersistent Memoryへの対応作業を行っている最中である。

実のところ、CXLベースのPersistent Memoryを利用する場合、今度はIntelプラットフォームでなくても動作する事になる。短期的にはAMDのGenoaとか今後登場するTurinでも利用できるし、将来的な話をすればArmベースのアーキテクチャでも利用可能である。キーポイントはアプリケーションから見て、すべてのプラットフォームで同じようにCXL Persistent Memoryを扱えるかどうかという話で、これはOSから見たAPIの構造などに密接に関係する話である。つまりアプリケーションベンダーだけで決められる話ではなく、OSベンダーと共同で仕様策定を行ってゆく必要がある。残念ながらCXLが規定するのはハードウェアに近い部分であり、アプリケーションからどう見えるようにすべきかという話までは関与しない(というか、出来ない)。なので現状はそうした部分の標準化というか仕組み作りを行っている最中という状況である。ハードウェア的にはある程度準備が出来つつあり、先に示したEPYC 9004におけるCXLの対応の所で述べたように、既にMemory ModuleとかCXL Switch、Memory Applianceなどの評価用機材などは各社から出揃いつつある。なので早ければ2024年中には、アプリケーションベンダーの評価用ではなくエンドユーザーの利用を前提にしたCXL Persistent Memory Moduleとかが出て来ても不思議ではないだろう。

逆に、もっと構造が簡単なのにも拘わらずやや投入が遅れそうなのはCXL DRAM Moduleである。CXL 1.1はPCIe 5.0ベースなのでLaneあたり32GT/sec、x16構成で片方向あたり64GB/secの帯域となる。これはDDR5-6400の1ch分の帯域(51.2GB/sec)を超えるもので、なのでx16を5本出せ、うち4本がCXLとしても使えるEmerald Rapidsでは、「CXLを併用するとメモリを12ch利用できる」とか説明に書いてあった。実際にはEmerald RapidsはDDR5-5600までの動作だから、DRAMモジュールをフルに装着すれば、12chどころからDDR5-5600の13.7ch分くらいの帯域が手に入る事になる。構造的にもDRAMコントローラをCXL Deviceに接続するだけだから簡単である。にも拘わらずこれが遅れそうというのは

ニーズが低い:そもそもCXL DRAM Moduleを使わなくてもEPYC 9004シリーズなら6TB、5th Gen Xeon Scalableでも4TBの最大メモリ容量があるので、これで足りないという事態がそもそも発生していない。勿論今後はこれでも足りない、というニーズが出てくる事は考えられるが、短期的にはそうした状況が一切見えてきていない。これは性能面でも同じで、CXL DRAMを使わなくてもそれなりのメモリ帯域がある(EPYC 9004シリーズで537.6GB/sec、5th Gen Xeon Scalableでも358.4GB/sec)から、これを使い切って足りなくなるまで特にCXL DRAM Moduleを必要としない。

ソフトウェア側の対応が必要:CXLはHot Plug/Unplugの機能が利用可能である。これは物理的に抜き差しする以外に、CXL Switch経由でMemory Applianceを接続する場合などでも利用される。要するにブートした後で動的にメモリが湧いたり消えたりするので、OSとミドルウェア、場合によってはアプリケーションもそうした環境に対応できる様にしなければならない。まぁアプリケーションに関して言えば、そのアプリケーションをコンテナの形で動かし、そのコンテナに割り当てる物理メモリ量を動的に変化させる、なんて形で使う事は出来るだろうが、CXLのメリットを生かした使い方とは言い難い。

実のところメモリのHot Plug/Unplugそのものは別に以前からもあった(高信頼性サーバーとかは、稼働中のモジュールの着脱とかできるようにする必要がある)話で、Linux KernelもMemory Hot plugをちゃんと標準でサポートしている。ただKernelがサポートしていても、ミドルウェアとかがこれを前提に作られているとは言えない訳で、こうした部分の対応を行わないと、「仕様上はMemoryのHot plugが可能だけど、運用上は不可能」とかいう不便な使い方になってしまう。

このHot plug/Unplugは、実はPersistent Memoryを使う場合も同じであり、なので現在はPersistent Memoryの対応に絡んでOSやミドルウェアが対応するのを待ち、完成後にDRAM Moduleの対応を追加するといった方向になっているようだ。2024年はまさにこうした作業が行われる年になる訳で、なので表面上はあまり大きな動きはないだろう。ただこうした作業が一段落して、必要となるソフトウェアの対応がほぼ完了したタイミングで製品が続々投入される、といった格好になりそうだ。早ければ第3四半期あたりから、こうした動きが出てくるかもしれない。