人工知能(AI)はすでに定着しており、今後も不可欠な存在であり続けます。「すべての業界がテクノロジー産業になる」──NVIDIA創業者兼CEO、Jensen Huangの言葉です。AIの活用領域は、医療分野における革新から高精度な不正検知に至るまで、ほぼ無限に広がっています。AIはすでに私たちの生活を変えつつあり、あらゆる業界に変革をもたらしています。そして今、データセンターインフラそのものも根本から変え始めています。
AIワークロードの拡大により、HPC(高性能コンピューティング)で処理されるデータを支える電力供給や冷却のあり方は大きく変わりつつあります。従来、一般的なITラックの消費電力は5〜10kW程度で、20kWを超えるラックは高密度と見なされる特殊なケースに限られていました。しかし、AIモデルの計算需要に対応するため、GPUによる処理の高速化が進んでいます。こうしたAI向けチップは、従来のサーバーと同じ設置スペースで、およそ5倍の電力と5倍の冷却能力を必要とします。実際、MetaのMark Zuckerbergは、2024年末までにNVIDIA製H100 GPUを35万台導入するために数十億ドルを投資する計画を発表しています。現在では、AI導入を支えるラック密度として40kW/ラックは最低水準となりつつあり、100kW/ラックを超える構成が今後一般化し、大規模に展開されていくと見込まれています。
こうした変化により、グリッドからチップまでの電力供給全体で容量拡張が必要となります。GPUによるAI計算の発熱により、従来の冷却方式では対応が難しくなり、液冷の導入が不可欠となります。また、電力と冷却インフラへの投資は大規模となり、新たな設計課題への対応が求められます。
高密度化への移行
アクセラレーテッドコンピューティングへの移行は、一朝一夕には実現しません。将来の需要拡大に備え、電力・冷却インフラの見直しが不可欠です。ラックへの電力供給を確保するには、グリッドからラックまでのインフラ強化が必要となります。特にホワイトスペースでは、高電流バスウェイや高密度PDUの導入が重要です。また、AIによる発熱に対応するため、液冷が主要な選択肢として注目されています。
- Direct-to-Chip(DtC)冷却: コールドプレートは、発熱するコンポーネント(主にCPUやGPUなどのチップ)の上に設置され、熱を効率的に取り除きます。単相または二相の冷却液をポンプで循環させることで、コールドプレートから熱を回収し、チップと直接液体を接触させることなく、データセンター外へと排出します。この方式により、ラック内の機器が発生する熱の約70〜75%を除去でき、残りの25〜30%は空冷システムで処理されます。
- リアドア熱交換器: パッシブまたはアクティブ型の熱交換器は、ITラックのリアドアを置き換える形で設置され、内部に配置された熱交換コイルを通じて、冷却液がラック内で発生した熱を吸収します。これらのシステムは、室内環境の中立性を維持するため、または液冷導入への移行段階として、他の冷却方式と組み合わせて使用されることが一般的です。
DtC冷却は空冷に比べてはるかに高い冷却能力を提供しますが、コールドプレートですべての熱を回収できるわけではありません。回収されなかった熱は、適切に制御・排出されない限り、データルーム内に放出されてしまいます。そのため、リアドア熱交換器や室内空冷などの仕組みを併用し、残留熱を処理することが重要です。データセンターにおける液冷ソリューションの詳細については、ホワイトペーパーをご参照ください。
レトロフィットや新設に対応する高密度設計
Vertiv™は、高密度インフラの設計と導入を簡素化するため、電力・冷却・サービスを統合した「Vertiv 360AI」を提供しています。最大132kW/ラックに対応し、エッジ推論からAIファクトリーまで幅広い用途を支援します。
新設向け設計
| ラック密度 | ラック数 | GPU 数 | 設計ID | 冷却方式 | ||
|---|---|---|---|---|---|---|
| 北米 | 欧州・中東・アフリカ | アジア | ||||
| 20kW | 18 | 248 | RD002 |
RD002E |
RD002A |
空冷 |
| 40kW | 10 | 248 | RD003 |
RD003E |
RD003A |
空冷 |
| 40kW | 10 | 248 | RD004 |
RD004E |
RD004A |
空冷 |
| 73kW | 88 | 2304 | RD006 |
RD006E | RD006A |
液冷+空冷 |
| 73kW | 110 | 2880 | RD007 |
RD007E | RD007A |
液冷+空冷 |
| 132kW | 36 | 1152 | RD014 |
RD014E | RD014A |
液冷+空冷 |
| 132kW | 54 | 1728 | RD015 |
RD015E | RD015A |
液冷+空冷 |
| 132kW | 72 | 2304 | RD016 |
RD016E | RD016A |
液冷+空冷 |
| 300kW | - | - | RD300 | RD300E | RD300A | 液冷 |
| 500kW | - | - | RD500 | RD500E | RD500A | 液冷 |
レトロフィット向けに最適化された設計
| ラック密度 | ラック数 | GPU 数 | 設計ID | 冷却方式 | ||
|---|---|---|---|---|---|---|
| 北米 | 欧州・中東・アフリカ | アジア | ||||
| 40kW | 4 | 128 | 4X160R |
4X160RE | 4X160RA | 空冷 |
| 70kW | 1 | 64 | 1L70R |
1L70RE |
1L70RA |
液冷 + 空冷 |
| 100kW | 1 | 88 | 1L100R |
1L100R |
1L100RA |
液冷 + 空冷 |
| 100kW | 4 | 368 | 4L400R |
4L400RE | 4L400RA | 液冷 + 空冷 |
| 100kW | 4カ | 368 | 4XL400 |
4XL400 |
4XL400A |
液冷 + 空冷 |
| 100kW | 5 | 460 | 5L500 |
5L500 |
5L500A |
液冷 + 空冷 |
| 100kW | 12 | 1104 | 12XL1200 |
12XL1200 |
12XL1200A |
液冷 + 空冷 |
| 100kW | 14 | 1288 | 14L1400 |
14L1400 |
14L1400A |
液冷 + 空冷 |
これらの設計は、システムインテグレーター、コロケーション事業者、クラウドサービスプロバイダー、企業ユーザーに対し、“未来のデータセンター”を、いま実装するための複数の選択肢を提供します。各施設におけるラック数やラック密度は、採用するIT機器によって異なるため、それぞれに応じた調整が必要となります。本設計群により、ベース設計の選定とカスタマイズを容易に行うことができます。
既存環境をAI対応へ改修・転用する際には、既存ワークロードへの影響を最小限に抑えることが重要です。Vertivの最適化された設計は、既存の冷却インフラや排熱能力を可能な限り活用することで、こうした課題に対応します。例えば、DtC冷却とリアドア熱交換器を組み合わせることで、室内環境への影響を抑えた冷却が可能になります。この構成では、リアドア熱交換器が余剰熱の室内への拡散を防ぎます。また、既存設備に大きな変更を加えることなく液冷を導入したい空冷施設向けに、液体‐空気間で熱交換を行う設計オプションも用意されています。これらのアプローチは、単一ラックからラック列、さらには大規模なHPC環境まで柔軟に展開可能です。複数ラックで構成される環境では、高電流対応のバスウェイや高密度ラックPDUを採用し、各ラックへの電力供給を最適化します。
これらの設計オプションは、液冷と組み合わせて使用できるさまざまな排熱方式に対応しています。その結果、データルーム内の既存ワークロードに影響を与えることなく、高密度液冷への移行を効率的かつコストを抑えて進めることが可能になります。詳細については、AI Data Room Solutionsをご覧ください。
多くの施設は高密度システムを前提に設計されていませんが、VertivはAIおよびHPC環境への移行を円滑に進めるための導入計画の策定において、豊富な実績を有しています。
1 管理部門による推定:メーカー仕様書に基づき、標準42UラックにおけるNVIDIA DGX H100サーバー5台とDell PowerStore 500T/9200Tサーバー21台のラックレベルでの消費電力および発熱量を比較。