The page you're viewing is for Japanese (Japan) region.

Vertivの製造担当者と連携すると、複雑な設計をお客様独自のニーズに合わせて構成することが可能になります。大規模なプロジェクトに関する技術的ガイドが必要な組織に対して、Vertivは十分なサポートを提供いたします。

詳細を見る

Vertiv再販業者パートナーと連携して、多くのお客様がITアプリケーション用のVertiv製品を購入しています。パートナーは、広範なトレーニングと経験を積み、ITおよびインフラに関するソリューション全体をVertiv製品で明確にし、販売、サポートを行うという独自の立場を構築しています。

再販業者を見つける

ご自身に必要なものについて特定済みですか? 便利なオンラインショッピングおよび配送をご希望ですか? 特定のカテゴリーのVertiv製品は、オンライン再販業者を通じて購入可能です。


販売代理店のECサイトを検索

製品選択にサポートが必要ですか? Vertivの有能なスペシャリストにご相談ください。お客様に最適なソリューションをご提案いたします。



Vertivのスペシャリストに問い合わせる

The page you're viewing is for Japanese (Japan) region.

データ ルームでの AI とアクセラレーテッド コンピューティングのパワーと冷却

人工知能(AI) はここにあり、そこにとどまるのです。NVIDIA の創業者兼 CEO である Jensen Huang 氏によると、すべての業界がテクノロジ業界になるということです。AIのユースケースは、医療の飛躍的な進歩から高精度の不正防止まで、事実上無限です。AIは、すべての業界を変革しているのと同様に、すでに私たちの生活を変革しています。また、データセンターのインフラを根本的に変革し始めています。

AIワークロードは、ハイパフォーマンスコンピューティング(HPC)の一環として処理されるデータのパワーと冷却方法に大きな変化をもたらしています。5~10キロワット(kW)のワークロードを実行するために使用される一般的なITラック、および20kW を超える負荷を実行するラックは高密度とみなされました。これは、狭い範囲の非常に特殊なアプリケーション以外では稀な光景です。AI モデルのコンピューティング ニーズをサポートするために、IT は GPU で高速化されています。これらの AI チップは、 従来のサーバーと同じスペースで約 5 倍の電力と 5 倍の冷却容量を必要とする可能性があります1。Mark Zuckerberg は、2024 年末までに Meta が NVIDIA から 350,000 台の H100 GPU を導入するために数十億を費やすと発表しました。現在、ラック1台あたり40 kW のラック密度は、AI導入の促進に必要な低水準にあり、ラック密度はラック1台あたり100 kWを超えており、近い将来、一般的になり、大規模になります

そのためには、グリッドから各ラックのチップまで、パワートレイン全体で容量を大きく増やす必要があります。データセンターのホワイトスペースや最終的にはエンタープライズサーバールームに液冷技術を導入することは、従来の冷却方法では AI 計算を実行する GPU で発生する熱を処理できないため、ほとんどの導入で必須となります。AIハードウェアのパワーと冷却に必要なインフラストラクチャをアップグレードするための投資は相当なものであり、これらの新しい設計上の課題を乗り越えることが非常に重要です。

高密度への移行

アクセラレーテッド コンピューティングへの移行は、一夜にしては行われません。データセンターおよびサーバールームの設計者は、ワークロードの将来の成長を考慮して、電力および冷却インフラストラクチャを将来に備える方法を模索する必要があります。各ラックに十分な電力を供給するには、グリッドからラックにアップグレードする必要があります。特にホワイトスペースでは、これは高アンペアのバスウェイと高密度ラックPDUを意味します。AI ワークロードを実行するハードウェアによって発生する大量の熱を排除するために、2 つの液冷技術が主なオプションとして登場しています。

  1. チップ直結液冷: 冷却プレートは、熱を発するコンポーネント(通常はCPUやGPUなどのチップ)の上にあるため、熱を逃がします。ポンプ注入された単相または二相の流体は、冷却プレートから熱を引き出してデータセンターから送り出し、熱をチップと交換しますが、流体は交換しません。これにより、ラック内の機器によって発生する熱の約70~75%が除去され、空冷システムが除去しなければならない熱の25~30%が残ります。
  2. リアドア熱交換器: パッシブまたはアクティブ熱交換器は、IT ラックの背面ドアを熱交換コイルに置き換えます。このコイルを通して、液体がラック内で発生する熱を吸収します。これらのシステムは、多くの場合、部屋の中立性を維持するための戦略または液体冷却への道のりを開始する移行設計のいずれかとして、他の冷却システムと組み合わされます。

直接チップ間液冷は、空気よりも大幅に高い密度の冷却能力を提供しますが、コールドプレートでは捕捉できない過剰な熱が残っていることに注意することが重要です。この熱は、リアドア熱交換器や室内空気冷却などの他の手段によって封じ込められ、除去されない限り、データルームに排出されます。データセンター向け液冷ソリューションの詳細については、ホワイトペーパーをご覧ください。

レトロフィットおよび新規ビルド用 AI スターター キット

電力と冷却は、データルームにおけるITソリューション設計の不可欠な部分になりつつあり、ITチームと施設チームの境界が曖昧になっています。これにより、設計、導入、運用の複雑さが増します。パートナーシップとフルソリューションの専門知識は、高密度への移行をスムーズに行うための最重要要件としてランク付けされています。

高密度への移行を簡素化するため、Vertivは、多様な展開構成でラックあたり最大100kW のワークロードをサポートできる電力および冷却技術を含む、最適化された設計の幅広い製品を導入しました。

設計概要 ラック 密度/ラック 緑/茶色フィールド 熱除去
サーバーから 部屋から

トレーニングモデルのパイロット、大規模なエッジ推論

小型 HPC 最小レトロフィット 1 70kW ブラウンフィールド 水/グリコール 空気
冷却水システム向けの小型HPCの改良 1 100kW ブラウンフィールド 水/グリコール 水/グリコール

エンタープライズ向け集中型トレーニング、データセンターのAIコーナー

中規模 HPC のコスト最適化レトロフィット 3 100kW ブラウンフィールド 水/グリコール 冷媒
熱回収率を高めた中型 HPC 4 100kW ブラウンフィールド
緑のフィールド
水/グリコール+空気 水/グリコール
空冷式コンピュータルーム向けの中型 HPC 実用的改良 5 40kW ブラウンフィールド
緑のフィールド
空気 冷媒
中規模 HPC 5 100kW ブラウンフィールド
緑のフィールド
水/グリコール 水/グリコール

大規模AI工場

部屋の中立性を保つ大型HPC 12 100kW ブラウンフィールド
緑のフィールド
水/グリコール+空気 水/グリコール
大規模 HPC ビルの規模拡大 14 100kW ブラウンフィールド
緑のフィールド
水/グリコール 水/グリコール

これらの設計は、システムインテグレーター、コロケーションプロバイダー、クラウドサービスプロバイダー、またはエンタープライズユーザーに、未来のデータセンターを実現するための複数のパスを提供します。各施設には、IT機器の選択によって決定されるラック数とラック密度の微妙な違いがある場合があります。このように、このデザインコレクションは、ベースデザインに完全に絞り込み、展開のニーズに正確に合わせる直感的な方法を提供します。

既存の環境をAIに改造または再利用する場合、当社の最適化された設計は、利用可能な冷却インフラストラクチャと可能な限りの熱遮断を活用することで、既存のワークロードの中断を最小限に抑えるのに役立ちます。例えば、直接チップ間液冷をリアドア熱交換器と統合して、室内中立的な冷却ソリューションを維持できます。この場合、リアドア熱交換器は、過剰な熱が部屋に漏れるのを防止する。サイト自体に変更を加えることなく液冷装置を追加しようとしている空冷施設には、液冷設計オプションがあります。この同じ戦略を、単一のラックに、連続して、または大規模なHPCデプロイで大規模にデプロイできます。マルチラック設計では、高アンペアのバスウェイと高密度ラックPDUも搭載し、各ラックに電力を分配しています。

これらのオプションは、液体冷却と組み合わせることができるさまざまな熱除去オプションと互換性があります。これにより、データルームの他のワークロードを中断することなく、クリーンでコスト効率の高い高密度液体冷却への移行パスを確立できます。詳細については、AIデータルームソリューションをご覧ください。

多くの施設は高密度システム向けに設計されていませんが、Vertivは、AIとHPCの高密度への移行を円滑に進めるための導入計画をお客様が開発するのを支援してきた豊富な経験を持っています。

1 経営陣の見積もり:製造元のスペックシートに基づく標準 42U ラックの 5 台の Nvidia DGX H100 Server と 21 台の Dell PowerStore 500T および 9200T Server のラック レベルでの消費電力と熱出力の比較

PARTNERS
概要
Partner Login

言語と地域