Micronが容量36GBの12段積層HBM3Eを出荷開始したことを発表しました。Micronが開発した36GB・12段積層HBM3Eは1.2TB/sを超えるメモリ帯域幅を備えており、AI開発に役立つことがアピールされています。

Micron continues memory industry leadership with HBM3E 12-high 36GB | Micron Technology Inc.

https://www.micron.com/about/blog/applications/ai/micron-continues-memory-industry-leadership-with-hbm3e-12-high-36gb



HBM3E | Micron Technology Inc.

https://www.micron.com/products/memory/hbm/hbm3e

AI開発では膨大なデータを扱う必要があるため、計算処理を行うプロセッサだけでなくデータの移動にかかわるメモリの容量や帯域幅も非常に重要な要素となっています。Micronは既に24GB・8段積層HBM3Eを量産しており、NVIDIAの高性能AI処理チップ「H200」にも採用されています。

新たに開発された36GB・12段積層HBM3Eは1.2TB/sを超えるメモリ帯域幅を備えており、大規模なAIモデルでも単一のプロセッサで実行できるとのこと。さらに、消費電力は競合他社の24GB・8段積層HBM3Eと比べて大幅に低く抑えられています。



Micronの36GB・12段積層HBM3Eはすでに業界パートナー向けに出荷されており、AIエコシステムでの採用に向けてテストが進んでいます。

なお、36GB・12段積層HBM3EはSamsungも出荷開始しています。

転送速度1280GB/sで容量36GBの超高速メモリ「HBM3E 12H」をSamsungが発表、AIの学習の高速化と推論の並列実行数増加が可能 - GIGAZINE