The page you're viewing is for Japanese (Japan) region.

Vertivの製造担当者と連携すると、複雑な設計をお客様独自のニーズに合わせて構成することが可能になります。大規模なプロジェクトに関する技術的ガイドが必要な組織に対して、Vertivは十分なサポートを提供いたします。

詳細を見る

Vertiv再販業者パートナーと連携して、多くのお客様がITアプリケーション用のVertiv製品を購入しています。パートナーは、広範なトレーニングと経験を積み、ITおよびインフラに関するソリューション全体をVertiv製品で明確にし、販売、サポートを行うという独自の立場を構築しています。

再販業者を見つける

ご自身に必要なものについて特定済みですか? 便利なオンラインショッピングおよび配送をご希望ですか? 特定のカテゴリーのVertiv製品は、オンライン再販業者を通じて購入可能です。


販売代理店のECサイトを検索

製品選択にサポートが必要ですか? Vertivの有能なスペシャリストにご相談ください。お客様に最適なソリューションをご提案いたします。



Vertivのスペシャリストに問い合わせる

The page you're viewing is for Japanese (Japan) region.

人工知能(AI)はすでに定着しており、今後も不可欠な存在であり続けます。「すべての業界がテクノロジー産業になる」──NVIDIA創業者兼CEO、Jensen Huangの言葉です。AIの活用領域は、医療分野における革新から高精度な不正検知に至るまで、ほぼ無限に広がっています。AIはすでに私たちの生活を変えつつあり、あらゆる業界に変革をもたらしています。そして今、データセンターインフラそのものも根本から変え始めています。

AIワークロードの拡大により、HPC(高性能コンピューティング)で処理されるデータを支える電力供給や冷却のあり方は大きく変わりつつあります。従来、一般的なITラックの消費電力は5〜10kW程度で、20kWを超えるラックは高密度と見なされる特殊なケースに限られていました。しかし、AIモデルの計算需要に対応するため、GPUによる処理の高速化が進んでいます。こうしたAI向けチップは、従来のサーバーと同じ設置スペースで、およそ5倍の電力と5倍の冷却能力を必要とします。実際、MetaのMark Zuckerbergは、2024年末までにNVIDIA製H100 GPUを35万台導入するために数十億ドルを投資する計画を発表しています。現在では、AI導入を支えるラック密度として40kW/ラックは最低水準となりつつあり、100kW/ラックを超える構成が今後一般化し、大規模に展開されていくと見込まれています。

こうした変化により、グリッドからチップまでの電力供給全体で容量拡張が必要となります。GPUによるAI計算の発熱により、従来の冷却方式では対応が難しくなり、液冷の導入が不可欠となります。また、電力と冷却インフラへの投資は大規模となり、新たな設計課題への対応が求められます。

高密度化への移行

アクセラレーテッドコンピューティングへの移行は、一朝一夕には実現しません。将来の需要拡大に備え、電力・冷却インフラの見直しが不可欠です。ラックへの電力供給を確保するには、グリッドからラックまでのインフラ強化が必要となります。特にホワイトスペースでは、高電流バスウェイや高密度PDUの導入が重要です。また、AIによる発熱に対応するため、液冷が主要な選択肢として注目されています。

  1. Direct-to-Chip(DtC)冷却: コールドプレートは、発熱するコンポーネント(主にCPUやGPUなどのチップ)の上に設置され、熱を効率的に取り除きます。単相または二相の冷却液をポンプで循環させることで、コールドプレートから熱を回収し、チップと直接液体を接触させることなく、データセンター外へと排出します。この方式により、ラック内の機器が発生する熱の約70〜75%を除去でき、残りの25〜30%は空冷システムで処理されます。
  2. リアドア熱交換器: パッシブまたはアクティブ型の熱交換器は、ITラックのリアドアを置き換える形で設置され、内部に配置された熱交換コイルを通じて、冷却液がラック内で発生した熱を吸収します。これらのシステムは、室内環境の中立性を維持するため、または液冷導入への移行段階として、他の冷却方式と組み合わせて使用されることが一般的です。

DtC冷却は空冷に比べてはるかに高い冷却能力を提供しますが、コールドプレートですべての熱を回収できるわけではありません。回収されなかった熱は、適切に制御・排出されない限り、データルーム内に放出されてしまいます。そのため、リアドア熱交換器や室内空冷などの仕組みを併用し、残留熱を処理することが重要です。データセンターにおける液冷ソリューションの詳細については、ホワイトペーパーをご参照ください。

レトロフィットや新設に対応する高密度設計

Vertiv™は、高密度インフラの設計と導入を簡素化するため、電力・冷却・サービスを統合した「Vertiv 360AI」を提供しています。最大132kW/ラックに対応し、エッジ推論からAIファクトリーまで幅広い用途を支援します。

新設向け設計

ラック密度 ラック数 GPU 数 設計ID 冷却方式
北米 欧州・中東・アフリカ アジア
20kW 18 248 RD002 RD002E RD002A 空冷
40kW 10 248 RD003 RD003E RD003A 空冷
40kW 10 248 RD004 RD004E RD004A 空冷
73kW 88 2304 RD006 RD006E RD006A 液冷+空冷
73kW 110 2880 RD007 RD007E RD007A 液冷+空冷
132kW 36 1152 RD014 RD014E RD014A 液冷+空冷
132kW 54 1728 RD015 RD015E RD015A 液冷+空冷
132kW 72 2304 RD016 RD016E RD016A 液冷+空冷
300kW - - RD300 RD300E RD300A 液冷
500kW - - RD500 RD500E RD500A 液冷

レトロフィット向けに最適化された設計

ラック密度 ラック数 GPU 数 設計ID 冷却方式
北米 欧州・中東・アフリカ アジア
40kW 4 128 4X160R 4X160RE 4X160RA 空冷
70kW 1 64 1L70R 1L70RE 1L70RA 液冷 + 空冷
100kW 1 88 1L100R 1L100R 1L100RA 液冷 + 空冷
100kW 4 368 4L400R 4L400RE 4L400RA 液冷 + 空冷
100kW 4カ 368 4XL400 4XL400 4XL400A 液冷 + 空冷
100kW 5 460 5L500 5L500 5L500A 液冷 + 空冷
100kW 12 1104 12XL1200 12XL1200 12XL1200A 液冷 + 空冷
100kW 14 1288 14L1400 14L1400 14L1400A 液冷 + 空冷

これらの設計は、システムインテグレーター、コロケーション事業者、クラウドサービスプロバイダー、企業ユーザーに対し、“未来のデータセンター”を、いま実装するための複数の選択肢を提供します。各施設におけるラック数やラック密度は、採用するIT機器によって異なるため、それぞれに応じた調整が必要となります。本設計群により、ベース設計の選定とカスタマイズを容易に行うことができます。

既存環境をAI対応へ改修・転用する際には、既存ワークロードへの影響を最小限に抑えることが重要です。Vertivの最適化された設計は、既存の冷却インフラや排熱能力を可能な限り活用することで、こうした課題に対応します。例えば、DtC冷却とリアドア熱交換器を組み合わせることで、室内環境への影響を抑えた冷却が可能になります。この構成では、リアドア熱交換器が余剰熱の室内への拡散を防ぎます。また、既存設備に大きな変更を加えることなく液冷を導入したい空冷施設向けに、液体‐空気間で熱交換を行う設計オプションも用意されています。これらのアプローチは、単一ラックからラック列、さらには大規模なHPC環境まで柔軟に展開可能です。複数ラックで構成される環境では、高電流対応のバスウェイや高密度ラックPDUを採用し、各ラックへの電力供給を最適化します。

これらの設計オプションは、液冷と組み合わせて使用できるさまざまな排熱方式に対応しています。その結果、データルーム内の既存ワークロードに影響を与えることなく、高密度液冷への移行を効率的かつコストを抑えて進めることが可能になります。詳細については、AI Data Room Solutionsをご覧ください。

多くの施設は高密度システムを前提に設計されていませんが、VertivはAIおよびHPC環境への移行を円滑に進めるための導入計画の策定において、豊富な実績を有しています。

1 管理部門による推定:メーカー仕様書に基づき、標準42UラックにおけるNVIDIA DGX H100サーバー5台とDell PowerStore 500T/9200Tサーバー21台のラックレベルでの消費電力および発熱量を比較。

Partner Login

言語と地域