COMPUTEX TAIPEI 2024で見る「液冷サーバー」色々、SuperMicroやGIGABYTEら各社本腰
SuperMicroの基調講演でも説明したように、今年は液冷サーバーをかなり各社が本腰を入れて展示していた。昨年も一応展示はあったのだが、殆どのベンダーが撮影不可で、ingrasysだけが撮影OKだったのだが、今年は(相変わらず撮影不可のベンダーもあったが)少なからぬメーカーが液冷サーバーを撮影OKの状態で展示していた。
ちなみに液冷と一言で言っても実際には何種類か方法がある。SuperMicroはDLCを前面に押し出していたが、現在使われている方法は
DLC(Direct Liquid Cooling):1相式、つまりチップを冷却して温度が上がった冷却液を、そのままクーリングタワーに送り出して冷却し、再びチップに送り込む方式。冷却液は、なのでサーバー外部から供給する形となる。冷却液として水を使う事が可能で、コスト削減の観点から水を利用するケースが増えている。
DTC(Direct to Chip Liquid Cooling):2相式、つまりチップを冷却する一次冷却液と、その一次冷却液を冷やす二次冷却液から構成される(クーリングタワーにはこの二次冷却液が送られる格好になる)。この方式のメリットは、より沸点の低い冷却液を一次側に利用して、沸騰冷却を行える事である。沸騰冷却は、通常の液冷よりもより効率的に熱をチップから奪う事が可能であり、効率が高い。ちなみに原子炉なども同じように2相式であるが、こちらはそもそも原子炉の温度が高すぎる&一次冷却水が放射能汚染される危険性があり、直接外部で冷却するのは危険という理由なのであって、方式が同じであっても目的は異なる。
CLLC(Closed-Loop Liquid Cooling):1相式に構造は近いが、最大の違いは冷却システムもサーバーの中に収めている事。コンシューマ向けの簡易水冷CPUクーラーを考えてもらうのが判りやすい。冷却能力に制限はあるが、外部にクーリングタワーを設ける必要がない点が評価される。
液浸:サーバー全体を冷却液にドブ漬けし、その冷却液を外部のクーリングタワーで冷却するという方式。かつて理化学研究所に置かれていたPEZY Computingの菖蒲とか東京工業大学のTSUBAME-KFC、古いところではCray-2などがこの方式を採用しており、昨年も数社がこの液浸のソリューションを展示していた(なぜか今年はサーバーでは見かけなかった)。ちなみにこの液浸の場合、不活性の液体(3Mのフロリナートが有名だが、TSUBAME-KFCは油を利用している)を使う関係で、この調達コストが結構馬鹿にならない。
あたりが主な方式になる。昨年はDLCとCLLC、それと液浸のソリューションがあったのだが、今年は各社DLCに方式が統一された様だ。
SuperMicroは基調講演で示したラックを会場に展示していた(Photo01,02)が、肝心の内部構造などは公開されていない。4Uサーバー1台あたり、供給と排出のホースがそれぞれ6本づつ用意されているのはもう少し検討の余地はありそうな気もするのだが、むしろサーバーシャーシ内部でこれを分岐させたり合流させたりするより、それぞれ別に用意した方が低価格で同じ効果が得られるという判断なのかもしれない。
![](https://image.news.livedoor.com/newsimage/stf/d/5/d5928_1223_5ab7bbda3c27fd7bacfd8738338e4c1b.jpg)
Photo01: 右にはJensen Huang氏のサインが。8台のサーバーの間に1Uのユニットが設けられ、ここから冷却液の供給/排出が行われているという構造が良く判る。
![](https://image.news.livedoor.com/newsimage/stf/5/9/599f6_1223_22efeb922b25cceba56448c598705991.jpg)
Photo02: Photo01とは別の4Uサーバーのフロントパネル部。ワンタッチのコネクタですぐ接続できるようになっているあたりに、他社製品に比べて一日の長を感じる。
GIGABYTEも液冷サーバーを展示していた(Photo03)が、こちらはラックの左右に供給/排出経路を設けている格好。サーバーシャーシの要求に合わせてホースの数を自由に増減できる格好で柔軟性には富んでいる様に思う。
![](https://image.news.livedoor.com/newsimage/stf/3/d/3d518_1223_ea75760a70753d6c0ff3f87911d53489.jpg)
Photo03: 色からすると、右が冷却液の供給、左が排出に見える。給排のホースを左右に伸ばすのは結構邪魔になりそうな感じで、これをやるならラックの裏側にすべきなのでは? という気も。
ASRockは6U8X-GNRWDLC B200という、Dual Xeon 6+B200×8構成のサーバーユニット(Photo04)を展示したが、供給/排出のホースがそのまま出ているだけという状況(Photo05)で、ちょっとまだSolutionというレベルに達していない印象を受ける。
![](https://image.news.livedoor.com/newsimage/stf/4/2/42cdc_1223_88b2420e078a4f6b879ba67db5896553.jpg)
Photo04: これはDual Xeonのソケット部。これだけ見てると簡易液冷クーラーの延長である。
![](https://image.news.livedoor.com/newsimage/stf/0/4/0493f_1223_8338ff2cafa17567388c1a345aa84941.jpg)
Photo05: とりあえず供給と排出で色を付けて分けるべきだと思う。シャーシの中央から出ているあたり、GIGABYTE方式で左右に振り分ける前提だろうか?
MiTACはIntelのD50DNPをそのまま利用したソリューションを展示していた(Photo06,07)。
![](https://image.news.livedoor.com/newsimage/stf/b/c/bcc1f_1223_bfd66b8cf59997eb02ca641419c6e364.jpg)
Photo06: D50DNPの場合、背面からの供給/排出となる関係で、フロント部はすっきり。
![](https://image.news.livedoor.com/newsimage/stf/b/5/b5c0c_1223_01883a40c845825289116aa460c07e7c.jpg)
Photo07: ただし肝心の供給/排出部は見えず。Data Center GPUが左側に、右側の奥にXeonのソケットが縦に2つ並んでいるのが見える。その両脇はDIMM用のサーマルジャケットだろうか?
AICはSlimなDual Xeon向けソリューションを展示していた(Photo08)。ASUSはラックの展示は無く、GB200×2+XC7用のシャーシのみを展示しているが、こちらはだいぶ考えられた構造になっている(Photo10)。GB200用のクーラーは、Cooler Masterによるものの様だ(Photo11)。また昨年も展示したInventecは、今年はArtemis 2U System(Photo11)の内部を公開してくれた(Photo12)。
![](https://image.news.livedoor.com/newsimage/stf/c/6/c61cb_1223_550a1b1c61125df0ac36ff42b315f57d.jpg)
Photo08: 4th/5th Gen Xeon Scalable向けで、それぞれ最大350WまでのTDPに対応とされている。供給/排出のホースが汎用のバンジーで繋がってるあたりはちょっと大丈夫か?という気もしなくはない。
![](https://image.news.livedoor.com/newsimage/stf/1/4/14020_1223_7931c1d64001e8a8ae873c553755b252.jpg)
Photo09: それでもちゃんとホースにバンジーが付いてるあたりはまぁASRockよりマシだろうか? ただラックにどう組み込むかはユーザー任せということだろうか?
![](https://image.news.livedoor.com/newsimage/stf/f/7/f78fb_1223_8942c411ccab915d234791b1a8c1e2a1.jpg)
Photo10: 供給/排出部を左右に振り分けているのは評価するが、GIGABYTEの様にすぐ真横に供給/排出ラインがあると接続に苦労しそう。ラックでどういう風にまとめるつもりなのかも見たかった。
![](https://image.news.livedoor.com/newsimage/stf/1/f/1fb4b_1223_b970bf5d69ead5f7a9ad6cd09f82ef4b.jpg)
Photo11: 右はGB200用。左は説明がなかったのだが、Hopper CPU単体用だろうか?(2分割構造になってるあたりは、Blackwell用なのかもしれない)。
![](https://image.news.livedoor.com/newsimage/stf/4/4/44ccd_1223_d3033ea396c135f1250ca20c1c891327.jpg)
Photo12: 2UシャーシにGB200×2とBlueField-3、ConnectX-7を搭載する構成。液冷でも冷却ファンは外せないらしい。
ちなみにServerでは無いが、ASUSのブースで展示されていたAI用ワークステーションがこちら(Photo13)。スペックは
CPU: Threadripper Pro 7995WX(常時全コア4.5GHzにOC駆動)
CPU Cooler: Nexalus SP5 Waterblock
M/B: ASUS Pro WS WRX90E-SAGA SE
Memory: Kingston DDR5-5600 32GB RDIMM×8
GPU: NVIDIA RTX 4090 with Nexalus Single Slot cooler×7
Storage: WD 4TB NVMe SSD×2+Samsung 870 QVO 8TB×2
Power: ROG Thor 1600W Titanium ATX×2+Phanteks Revolt SFX 1200W
というお化けマシンであるが、ここまでやるならもうラックに収めてDisplayとUSBだけ手元に引っ張った方が早いのでは? と思わなくもない。まぁ中々の化け物であった。
![](https://image.news.livedoor.com/newsimage/stf/4/5/45dd6_1223_5e6afebc6a28e7af1bf5581f823176fb.jpg)
Photo13: 本体下部は、7枚分のGPUをまとめて冷却する巨大なラジエターが鎮座しているらしい。
ちなみに液冷と一言で言っても実際には何種類か方法がある。SuperMicroはDLCを前面に押し出していたが、現在使われている方法は
DTC(Direct to Chip Liquid Cooling):2相式、つまりチップを冷却する一次冷却液と、その一次冷却液を冷やす二次冷却液から構成される(クーリングタワーにはこの二次冷却液が送られる格好になる)。この方式のメリットは、より沸点の低い冷却液を一次側に利用して、沸騰冷却を行える事である。沸騰冷却は、通常の液冷よりもより効率的に熱をチップから奪う事が可能であり、効率が高い。ちなみに原子炉なども同じように2相式であるが、こちらはそもそも原子炉の温度が高すぎる&一次冷却水が放射能汚染される危険性があり、直接外部で冷却するのは危険という理由なのであって、方式が同じであっても目的は異なる。
CLLC(Closed-Loop Liquid Cooling):1相式に構造は近いが、最大の違いは冷却システムもサーバーの中に収めている事。コンシューマ向けの簡易水冷CPUクーラーを考えてもらうのが判りやすい。冷却能力に制限はあるが、外部にクーリングタワーを設ける必要がない点が評価される。
液浸:サーバー全体を冷却液にドブ漬けし、その冷却液を外部のクーリングタワーで冷却するという方式。かつて理化学研究所に置かれていたPEZY Computingの菖蒲とか東京工業大学のTSUBAME-KFC、古いところではCray-2などがこの方式を採用しており、昨年も数社がこの液浸のソリューションを展示していた(なぜか今年はサーバーでは見かけなかった)。ちなみにこの液浸の場合、不活性の液体(3Mのフロリナートが有名だが、TSUBAME-KFCは油を利用している)を使う関係で、この調達コストが結構馬鹿にならない。
あたりが主な方式になる。昨年はDLCとCLLC、それと液浸のソリューションがあったのだが、今年は各社DLCに方式が統一された様だ。
SuperMicroは基調講演で示したラックを会場に展示していた(Photo01,02)が、肝心の内部構造などは公開されていない。4Uサーバー1台あたり、供給と排出のホースがそれぞれ6本づつ用意されているのはもう少し検討の余地はありそうな気もするのだが、むしろサーバーシャーシ内部でこれを分岐させたり合流させたりするより、それぞれ別に用意した方が低価格で同じ効果が得られるという判断なのかもしれない。
![](https://image.news.livedoor.com/newsimage/stf/d/5/d5928_1223_5ab7bbda3c27fd7bacfd8738338e4c1b.jpg)
![](https://image.news.livedoor.com/newsimage/stf/5/9/599f6_1223_22efeb922b25cceba56448c598705991.jpg)
GIGABYTEも液冷サーバーを展示していた(Photo03)が、こちらはラックの左右に供給/排出経路を設けている格好。サーバーシャーシの要求に合わせてホースの数を自由に増減できる格好で柔軟性には富んでいる様に思う。
![](https://image.news.livedoor.com/newsimage/stf/3/d/3d518_1223_ea75760a70753d6c0ff3f87911d53489.jpg)
ASRockは6U8X-GNRWDLC B200という、Dual Xeon 6+B200×8構成のサーバーユニット(Photo04)を展示したが、供給/排出のホースがそのまま出ているだけという状況(Photo05)で、ちょっとまだSolutionというレベルに達していない印象を受ける。
![](https://image.news.livedoor.com/newsimage/stf/4/2/42cdc_1223_88b2420e078a4f6b879ba67db5896553.jpg)
![](https://image.news.livedoor.com/newsimage/stf/0/4/0493f_1223_8338ff2cafa17567388c1a345aa84941.jpg)
MiTACはIntelのD50DNPをそのまま利用したソリューションを展示していた(Photo06,07)。
![](https://image.news.livedoor.com/newsimage/stf/b/c/bcc1f_1223_bfd66b8cf59997eb02ca641419c6e364.jpg)
![](https://image.news.livedoor.com/newsimage/stf/b/5/b5c0c_1223_01883a40c845825289116aa460c07e7c.jpg)
AICはSlimなDual Xeon向けソリューションを展示していた(Photo08)。ASUSはラックの展示は無く、GB200×2+XC7用のシャーシのみを展示しているが、こちらはだいぶ考えられた構造になっている(Photo10)。GB200用のクーラーは、Cooler Masterによるものの様だ(Photo11)。また昨年も展示したInventecは、今年はArtemis 2U System(Photo11)の内部を公開してくれた(Photo12)。
![](https://image.news.livedoor.com/newsimage/stf/c/6/c61cb_1223_550a1b1c61125df0ac36ff42b315f57d.jpg)
![](https://image.news.livedoor.com/newsimage/stf/1/4/14020_1223_7931c1d64001e8a8ae873c553755b252.jpg)
![](https://image.news.livedoor.com/newsimage/stf/f/7/f78fb_1223_8942c411ccab915d234791b1a8c1e2a1.jpg)
![](https://image.news.livedoor.com/newsimage/stf/1/f/1fb4b_1223_b970bf5d69ead5f7a9ad6cd09f82ef4b.jpg)
![](https://image.news.livedoor.com/newsimage/stf/4/4/44ccd_1223_d3033ea396c135f1250ca20c1c891327.jpg)
ちなみにServerでは無いが、ASUSのブースで展示されていたAI用ワークステーションがこちら(Photo13)。スペックは
CPU: Threadripper Pro 7995WX(常時全コア4.5GHzにOC駆動)
CPU Cooler: Nexalus SP5 Waterblock
M/B: ASUS Pro WS WRX90E-SAGA SE
Memory: Kingston DDR5-5600 32GB RDIMM×8
GPU: NVIDIA RTX 4090 with Nexalus Single Slot cooler×7
Storage: WD 4TB NVMe SSD×2+Samsung 870 QVO 8TB×2
Power: ROG Thor 1600W Titanium ATX×2+Phanteks Revolt SFX 1200W
というお化けマシンであるが、ここまでやるならもうラックに収めてDisplayとUSBだけ手元に引っ張った方が早いのでは? と思わなくもない。まぁ中々の化け物であった。
![](https://image.news.livedoor.com/newsimage/stf/4/5/45dd6_1223_5e6afebc6a28e7af1bf5581f823176fb.jpg)