●2023年のDDR - DRAM余りで価格は下落基調へ、DDR5もDDR4より割安に?

2023年の幕開けに、パーソナルコンピュータのハードウェア技術の動向を占う「PCテクノロジートレンド」をお届けする。本稿はMemory編だ。

Photo01: 家猫化して3か月ほど。すっかり筆者の仕事机に上がり込むのが習慣に。

***

さて、Memory編なのだが、といっても既にメインストリームはDDR5になって来始めているので、あまり大きな情報はないという状況ではある。

○DDR(Photo02)

Photo02: 家猫化5か月ほど。すごく偉そう。ちなみにちゃとらん兄ちゃんを猫ベッドから追い出して独り占めである。

今年はDDR4とDDR5のbit cross(bitあたり単価の逆転)が発生すると見られ、現時点ではまだちょっとだけDDR4比で割高なDDR5も、年末までにはDDR4より割安になるだろう。ただちょっと正確なbit crossの時期が読めないのは、今年はメモリ価格が下落すると見られるためだ。2022年8月にTrendForceが出したレポートによれば、2023年の供給側のbit成長率は14.1%な一方、需要側は8.3%に留まると予測しており、要するにDRAMが余る訳である。この結果としてのDRAMの価格下落率そのものはDDR5の方がやや大きいとされるが、そもそもDDR5の方がまだbit単価が高い関係で、価格そのものはDDR4の方が低くなっている。こうした予想を受けてか、メモリベンダー各社は減産をスタートしている。例えばMicronは昨年11月に2割の減産を発表したが、そのMicron、昨年10月にはNY州にDRAMのMega Fabの建設を発表するなど、一時的には減産するにしても長期的には増産の方向に向いている訳で、なので需要の方が増えない限りこのミスマッチは根本的には解決しない。

マーケット全体でみると、初期のDDR5の牽引役であったPCは市場低迷もあって、そこまでDDR5の牽引役になっていない。Ryzen 7000シリーズはともかくAlder Lake/Raptor LakeがDDR4/5の両対応で、実際市場にはDDR4対応のLGA 1700マザーボードも少なからず流通している事も一因と言える。そして最大の誤算は、Server Marketの牽引役になる筈だったSapphire Rapidsのベタ遅れで、これによりServer向けのDDR5のマーケットの立ち上がりが丸々1年遅れてしまったのが主要因である。2023年は間違いなくDDR5のマーケットが盛り上がるが、そんな訳で単価の高いServer向けDDR5に関して言えば、本来2022年中に本格的に量産出荷が始まり、2023年には価格が下落するというシナリオだったのが、全体的に後ろにズレてしまった事になる。これによる影響は当然bit単価に影響を及ぼす。2021年頃の予測では2023年の中旬にはbit crossが起きる予定だったが、現在はもう少し後になるかと思われる。

もう一つ見えにくいのがSpeed Yieldの方。現時点ではDDR5-4800のみが定格動作で、これを超えるものは殆どがOC Memoryとなっている。実はDRAMベンダートップ3は相次いで新世代メモリ素子を既に発表済である。Samsungは2022年12月に12nmクラスの16Mbit DDR5 DRAMを発表。この12nmクラスDDR5はDDR5-7200に対応できる性能を持っているとされ、今年から量産を開始する。これに先立つ10月にはLPDDR5X-8533を発表しており、7.2Gbpsはそう無理のない数字であると考えられる。

SK Hynixも2022年10月にDDR5-6400 32GB Moduleのサンプル出荷を開始している。Micronは2022年11月に1βプロセスベースのLPDDR5Xの量産出荷をアナウンスしており、次はDDR5に適用されると考えるべきだろう。2022年9月にはその1βプロセスを同社の広島工場に導入する事を発表しており、なので2023年にはトップ3社はいずれもDDR5-6400が射程に入っていると考えられる。恐らく2023年後半にはDDR5-6400の市場投入が開始され、どうかすると年末までにはDDR5-4800と同程度の入手性が実現するかもしれない。この頃にはRaptor Lake RefreshベースのGen 14 CoreとかGranite RidgeベースのRyzen 8000シリーズが出てくるわけで、丁度それにマッチする格好になると考えられる。

ちなみにその先、つまりDDR6であるが、現時点ではまだ作業中というレベルであって具体的なターゲット時期も明示されていない。少なくとも2024年度に関して言えば引き続きDDR5のままで、後はどこまで周波数を引っ張るかという感じになっている。DDR4がDDR3とbit crossしたのは2017年(登場そのものは2016年)だったから、6年ほどメインメモリの座についていた訳で、DDR5も同じくらい使われる事になるのかもしれない。

●2023年のGDDR - GDDR6Xのその後、GDDR6+とは? GDDR7は?

○GDDR(Photo03)

Photo03: 家猫化して1年経過後。この頃はまだ兄ちゃんとそう仲は悪くなかった。

2021年末というか2022年頭の見通しでは、GDDR6に関しては16Gbpsあたりで頭打ちになるだろうとされており、それもあってMicronとNVIDIAは共同でGDDR6Xを開発した訳であるが、1年後の2023年頭はどうなっているか? というと、SamsungはGDDR6 24Gbps品を2022年7月に発表しており、2023年1月現在で言えばまだ24Gbps品はSampleなものの18Gbps品はMass Productionとなっている。SK Hynixは20Gbps品をラインナップ。一応扱いとしてはCS(Customer Sample)になっているが、Radeon RX 7900 XTXには20Gbps品が搭載されているあたり、事実上量産出荷が始まったと考えて間違いない。MicronはGDDR6Xを提供している手前もあって、GDDR6に関しては16Gbps止まりであるが、GDDR6Xは24Gbpsまでラインナップをしている。もっともGeForce RTX 4090でも21Gbps止まりであるが、もし今後GeForce RTX 4090 TiとかSuperとかが出るとすれば、24Gbpsまで速度を上げそうである。

さて現状でどこまで行くか? であるが、Samsungは現在の12(1a)nmに続き11nm(1b)nmを2023年に予定しており、GDDR6+でこれを採用するとしている(Photo04)。このGDDR6+では27Gbpsまで行ける、というのが同社の主張だ(Photo05)。で、その先の候補としてIEDMではPAM3を提案している(Photo06)。PAM3なら信号速度が24GT/secのままでも36Gbpsまで行けるから効率が良いし、GDDR6XのPAM4よりもData Eyeを取りやすいのは間違いない。もっとも2022年6月に開催されたIEEE Symposium on VLSI Technology and Circuitsで同社は"A 40-Gb/s/pin Low-Voltage POD Single-Ended PAM-4 Transceiver with Timing Calibrated Reset-less Slicer and Bidirectional T-Coil for GDDR7 Application"という論文を出しており、こちらはタイトルの通りPAM-4である。PAM-4なら転送速度は信号速度の2倍のレートになるから、36Gbpsを実現するのに18GT/secの信号で間に合う。またPAM-4だと比較的簡単(MicronのGDDR6Xがそうだが、DRAMセル側は2つのセルから1つのシンボルを生成できる)なのに対し、PAM-3だと2回分の転送されたシンボルから3bitを生成するエンコーダ/デコーダ回路をDRAM側に設ける必要があるので、これがコストアップに繋がりかねない。現状のJEDECのWorking Groupでは、PAMを利用した多値化を採用するのはほぼ決まりらしいが、PAM-3なのかPAM-4なのかそれともそれ以外なのか、に関してはまだ討議中だそうで、最終決定には至っていない。ただSamsungの見通しでは、2023年中にこのあたりの方針は決まりそうである(Photo07)。

Photo04: これはIEDM 2022のShort Course 2の"Next-Generation DRAM Solution for HPC and AI"というセッションのスライド。講演者はSamsungのDRAM TeamのVP of TechnologyであるKyomin Sohn博士。

Photo05: そもそもこのGDDR6+というのが何か? というのが今一つ判らないままなのは昨年と同じ。

Photo06: PAM-4の欠点は、このData EyeのHeightを確保するのが結構大変という点である。同じ電位差だったら、Eyeが2つと3つ、どちらが楽かと言えば2つである。

Photo07: これはVLSI SymposiumにおけるSamsungの論文で示された予定図。GDDR7とLPDDR6は大体同時期に標準化が行われると見ているようだ。

●2023年のHBM & 2023年のCXL Memory

○HBM(Photo08)

Photo08: 2年経過後。筆者の仕事机の右わき(作業用スペース)を無駄に占有してのたくってる。この頃から兄ちゃん離れが目立つように。

HBMに関して言えば、もうコンシューマ向け機器では殆ど使われる事が無くなった。理由は主にコストである。そもそもHBM Memoryそのものが高価であり、加えて接続にはInterposerが必要である。最近はPackageの技術も進化しており、Radeon RX 7000シリーズのInfinity Cache/GDDR6 I/Fの様に、Silicon Interposerなしで同等以上の配線密度を実現している例もあるのだが、HBMはそもそもSilicon Interposerでの接続を前提に規格が策定されているので、どうしても余分にコストが掛かる。Intelの第2世代EMIBとかAMDのInstinct MI200シリーズの様に、部分的にInterposerを入れる形でコストを抑えた例も無くはないが、パッケージ基板に直結とは比較にならない。そういえばHBMの派生型で、Interposer無しでパッケージに直結できる低価格版の提案もあったが、結局賛同を集められなかったようで消えてしまった。

ただHBMの需要自体は別になくなっていない。主にデータセンター向けであるが、昨今ではSapphire RapidsベースのXeon MAXとかPonte VecchioがやはりCPUにHBMを集積しているし、NVIDIAのHopperとかAMDのInstinct MI200/MI300とか、新製品にも多く採用されている。AIプロセッサでも、特にTraining向けではHBMを使う例は少なくない。

さてそんなHBMであるが、既にHBM2eが量産製品に採用されており、これはもう普及に入ったフェーズ。これに続くものとしてHBM3があるが、こちらの標準化はJEDECで既に完了している。最大転送速度は6.4Gbps/pin、1024pinで1 Stackあたり819GB/secに達する。またHBM2では最大8 stackだったDRAMダイは、HBM3では16Stackになり(他に4/8/12 stackもサポート)、1ダイあたり最大32Gbitまでの容量をサポートしたことで、最大メモリ容量は16 stackで64GBに達している。SamsungはIceboltというブランド名で既に量産開始しており、SK HynixもHBM3の開発完了を2022年10月にアナウンスした。MicronはOfficialにはアナウンスが無いが、同社の1βnm DRAMをそのままHBM3に利用するものと思われる。

そんなわけで2023年には、このHBM3を採用した製品が市場に投入される(ただしサーバー向けもしくはAI Training向け)事になるかと思われる。既にRambusやSynopsysなど複数のベンダーがHBM PHY IPの提供を開始しており、しかも例えばRambusは8.4Gbps/pin、Synopsysは7.2Gbps/pinとHBM3の規定以上の速度に対応しているあたりは、あるいはHBM3eあるいはHBM3+といったものが出てくる可能性がある(Photo05でSamsungはHBM3Pが1TB/secとしており、7.8Gbps/pin程度の速度を想定している様に思える)。

ちなみにその先についてだが、HBM4に向けてSamsungはやはり2022年のVLSI Symposiumで"A 68.7-fJ/b/mm 375-GB/s/mm Single-Ended PAM-4 Interface with Per-Pin Training Sequence for the Next-Generation HBM Controller"という論文を出しており、これはHBM4に向けた提案の一環と思われる。ただ先ほどのGDDR7の議論同様、これはあくまでも提案レベルの話であって、まだPAM-4で行くとJEDECのWorking Groupが決めた訳ではなく、現在も検討中である。多分2023年はHBM3+(or HBM3e/HBM3P)の標準化が行われるかどうか? というあたりで、HBM4は2024年以降(多分2025年かその辺)まで作業が掛かると思われる。

○CXL Memory(Photo09)

Photo09: 家猫化後3年4か月経過。やってることはあんまり変わらないが、顔つきが大人になって、ふてぶてしくなった感じに。ちなみにこの1か月後、また死にかける。

コンシューマ向けには一切関係ない(何しろプラットフォームがない)CXL Memoryだが、サーバー向けには着々と進んでいる。最初にこれをフルサポートする商用プラットフォームはGenoaことEPYC 9004シリーズであり、現在はプラットフォーム上でアプリケーションの開発とかOS/ミドルウェアの対応を行っている最中であるが、ぶっちゃけIntelのOptane Persistent Memoryに代わる新しいIn-Memory Computing Platformになり、しかもオープンスタンダードという事もあって、Micronの様に「3D XPointを捨ててCXLに注力する」とプレスリリースの中で明確に述べた企業もあるほどである。

比較的準備が早かったのはまたしてもSamsungで、2021年5月には早くも評価用のCXL Memory Moduleをリリース、同年10月にはSMDK(Scalable Memory Development Kit)の提供を開始し、2022年5月には512GB Memory Module製品まで発表している。このSamsungの512GB ModuleはPCIe Gen5 x8なので帯域そのものはModuleあたり16GB/secでしかない。速度としてはDDR5-4000相当という計算になる。ただ、例えばGenoaの2 Socket構成であれば、128本ないし160本のPCIe Laneが利用できる。このうち半分をStorage、半分をその他(Networkなど)に廻したと考えても、1台のサーバーにこの512GB Moduleを16本ないし20本搭載できる。トータルの帯域は512GB/secないし640GB/sec、CXLメモリ総容量は8TBないし10TBになる。これとは別にGenoaはプロセッサあたり6TB(2 DIMM/chの場合:1 DIMM/chだと3TB)のメモリを利用でき、こちらの合計帯域は460GB/secほど。つまりメインメモリよりも広い帯域と容量をCXL経由で実現できることになる。Optane Persistent Memoryだと最大で4.5TB/Socketのメモリ容量が利用できるという話だったが、これを遥かに上回る容量と帯域の構成が既に可能になる訳で、それはMicronならずともこのビジネスに参入したいと思うのは当然だろう。SK Hynixも2022年8月にCXL Memoryを発表しており、2023年に量産開始予定と述べている。Microchipも同じく2022年8月に、CXL Memory ControllerとしてSMC 2000シリーズを発表しており、これを利用してDRAMと組み合わせることで、DRAMベンダーでなくてもCXL Memoryを作ることも可能になっている。

現状はまだソフトウェア側の対応が十分とは言えないので、今年はまだ爆発的に売れるというところまでは行かないだろう。ただ2024年に向けて今年後半からは、各社からCXL Memoryが次第に出揃い始めると思われる。

ちなみにIntel、AMD共にCXL MemoryをConsumer向けCPUでサポートする計画は「無い」としており、残念ながら普通のユーザーには無縁である。どうしても使いたければ、Threadripper 7000シリーズとかXeon W-3400シリーズなどを導入する必要があるだろう。