The page you're viewing is for Polish (EMEA) region.

Współpraca z przedstawicielem Vertiv umożliwia dostosowanie złożonych projektów do indywidualnych potrzeb. Jeśli reprezentujesz organizację, która poszukuje wskazówek technicznych dotyczących dużego projektu, Vertiv zapewni Ci potrzebne wsparcie.

Dowiedz się więcej

Wielu klientów współpracuje z resellerem i/lub partnerem Vertiv, a następnie kupuje produkty Vertiv dla własnych zastosowań IT. Partnerzy są gruntownie przeszkoleni, posiadają odpowiednie doświadczenie oraz są dobrze przygotowani do konfigurowania, oferowania i wspierania rozwiązań oraz infrastruktury IT, przy użyciu produktów Vertiv.

Znajdź resellera

Już wiesz, czego potrzebujesz? Potrzebujesz wygodnych zakupów online i dogodnych warunków transportowych? Niektóre kategorie produktów Vertiv można zakupić za pośrednictwem resellera internetowego.


Znajdź sprzedawcę internetowego

Potrzebujesz pomocy w wyborze produktu? Porozmawiaj z wykwalifikowanym specjalistą Vertiv, który pomoże Ci znaleźć odpowiednie rozwiązanie.



Skontaktuj się z ekspertem Vertiv

The page you're viewing is for Polish (EMEA) region.

Zasilanie i chłodzenie SI oraz akcelerowane przetwarzanie danych w centrum danych

Sztuczna inteligencja (AI) już tu jest i zostaje. „Każda branża stanie się branżą technologiczną” – twierdzi założyciel i dyrektor generalny NVIDIA, Jensen Huang. Przypadki użycia sztucznej inteligencji są praktycznie nieograniczone, od przełomowych osiągnięć w medycynie po wysoce precyzyjne zapobieganie oszustwom. AI już teraz zmienia nasze życie, tak jak zmienia każdą branżę. Zaczyna również fundamentalnie przekształcać infrastrukturę centrum przetwarzania danych.

Obciążenia SI powodują znaczące zmiany w sposobie zasilania i chłodzenia danych przetwarzanych w ramach obliczeń o wysokiej wydajności (HPC). Typowy stojak IT używany do obsługi obciążeń od 5 do 10 kilowatów (kW) oraz stojaki o mocy powyżej 20 kW zostały uznane za urządzenia o wysokiej gęstości – rzadki widok poza bardzo specyficznymi zastosowaniami o wąskim zasięgu. Akceleruje się IT układami GPU w celu zaspokojenia potrzeb obliczeniowych modeli SI, a te układy SI mogą wymagać około pięciokrotnie większej mocy i pięciokrotnie większej wydajności chłodzenia1 w tej samej przestrzeni co tradycyjny serwer. Mark Zuckerberg ogłosił, że do końca 2024 roku firma Meta wyda miliardy na wdrożenie 350 000 jednostek GPU H100 firmy NVIDIA. Gęstości szaf wynoszące 40 kW na szafę znajdują się teraz na dolnym końcu tego, co jest wymagane do ułatwienia wdrażania SI, a gęstość szaf przekracza 100 kW na szafę, stają się powszechnie dostępne i na dużą skalę w najbliższej przyszłości.

Będzie to wymagało znacznego wzrostu przepustowości całej sieci energetycznej, od sieci po wióry w każdym koszu. Wprowadzenie technologii chłodzenia cieczą do przestrzeni biurowej centrum przetwarzania danych, a w końcu serwerowni klasy korporacyjnej, będzie wymagało większości wdrożeń, ponieważ tradycyjne metody chłodzenia nie będą w stanie poradzić sobie z ciepłem generowanym przez układy GPU wykonujące obliczenia SI. Inwestycje w modernizację infrastruktury potrzebnej do zasilania i chłodzenia sprzętu SI są znaczne, a radzenie sobie z nowymi wyzwaniami projektowymi ma kluczowe znaczenie.

Przejście na wysoką gęstość

Przejście na akcelerowane obliczenia nie nastąpi z dnia na dzień. Projektanci centrów przetwarzania danych i serwerowni muszą szukać sposobów na przygotowanie infrastruktury zasilania i chłodzenia na przyszłość, z uwzględnieniem przyszłego wzrostu obciążenia pracą. Uzyskanie wystarczającej mocy do każdego stojaka wymaga modernizacji z sieci do stojaka. W białej przestrzeni oznacza to prawdopodobnie szyny o dużym natężeniu prądu i moduły PDU do szaf o dużej gęstości. Aby odrzucić ogromną ilość ciepła generowanego przez sprzęt pracujący z obciążeniami SI, jako główne opcje pojawiają się dwie technologie chłodzenia cieczą:

  1. Chłodzenie cieczą bezpośrednio do układu: Zimne płyty znajdują się na komponentach generujących ciepło (zwykle chipy, takie jak procesory i układy GPU), aby odciągnąć ciepło. Pompowany jednofazowy lub dwufazowy płyn pobiera ciepło z płyty chłodniczej w celu wysłania go z centrum danych, wymieniając ciepło, ale nie płyny z chipem. Może to spowodować usunięcie około 70–75% ciepła wytwarzanego przez sprzęt w szafie, pozostawiając 25–30% ciepła, które muszą zostać usunięte przez układy chłodzenia powietrzem.
  2. Wymienniki ciepła z drzwiami tylnymi: Pasywne lub aktywne wymienniki ciepła zastępują tylne drzwi stojaka IT cewkami do wymiany ciepła, przez które płyn pochłania ciepło wytwarzane w stojaku. Systemy te są często łączone z innymi systemami chłodzenia jako strategia zachowania neutralności pomieszczenia lub projekt przejściowy rozpoczynający drogę do chłodzenia cieczą.

Podczas gdy chłodzenie cieczą bezpośrednio do układu zapewnia znacznie większą gęstość chłodzenia niż powietrze, należy pamiętać, że nadal występuje nadmiar ciepła, którego płyty chłodnicze nie są w stanie wychwycić. Ciepło to zostanie odrzucone do pomieszczenia danych, chyba że zostanie ono zamknięte i usunięte za pomocą innych środków, takich jak wymienniki ciepła z tylnymi drzwiami lub chłodzenie powietrzem w pomieszczeniu. Więcej informacji na temat rozwiązań chłodzenia cieczą dla centrów przetwarzania danych można znaleźć w naszej białej księdze .

Zestawy startowe SI do modernizacji i nowych kompilacji

Zasilanie i chłodzenie stają się integralną częścią projektowania rozwiązań IT w pomieszczeniu przetwarzania danych, zacierając granice między zespołami IT i obiektami. Zwiększa to wysoki stopień złożoności w zakresie projektowania, wdrażania i obsługi. Partnerstwo i wiedza specjalistyczna w zakresie pełnego rozwiązania plasują się jako najwyższe wymagania w zakresie płynnego przejścia na wyższe gęstości.

Aby uprościć przejście na wysoką gęstość, firma Vertiv wprowadziła szereg zoptymalizowanych projektów, w tym technologię zasilania i chłodzenia, która jest w stanie obsłużyć obciążenie do 100 kW na szafę w różnych konfiguracjach wdrożeniowych.

Podsumowanie projektu Stojaki Gęstość/stojak Zielone/brązowe pole Odprowadzanie ciepła
z serwera z pokoju

Pilotaż modeli szkoleniowych, wnioskowanie na obrzeżach na dużą skalę

Minimalna modernizacja HPC 1 70 kW Brązowe pole woda/glikol powietrze
Mała modernizacja HPC do instalacji wody lodowej 1 100 kW Brązowe pole woda/glikol woda/glikol

Scentralizowane szkolenia dla przedsiębiorstw, AI w centrum przetwarzania danych

Średniej wielkości modernizacja HPC zoptymalizowana pod kątem kosztów 3 100 kW Brązowe pole woda/glikol czynnik chłodniczy
Średnie HPC ze zwiększonym wychwytem ciepła 4 100 kW Brązowe pole
Zielone pole
woda/glikol+powietrze woda/glikol
Średniej wielkości pragmatyczna modernizacja HPC do pomieszczeń komputerowych z chłodzeniem powietrzem 5 40 kW Brązowe pole
Zielone pole
powietrze czynnik chłodniczy
Średnie HPC 5 100 kW Brązowe pole
Zielone pole
woda/glikol woda/glikol

Fabryka SI na dużą skalę

Duży HPC zachowujący neutralność w pomieszczeniu 12 100 kW Brązowe pole
Zielone pole
woda/glikol+powietrze woda/glikol
Duży budynek HPC w kierunku skali 14 100 kW Brązowe pole
Zielone pole
woda/glikol woda/glikol

Projekty te oferują wiele ścieżek dla integratorów systemów, dostawców usług kolokacji, dostawców usług w chmurze lub użytkowników korporacyjnych, aby teraz osiągnąć centrum danych przyszłości. Każdy konkretny obiekt może mieć niuanse z liczbą szaf i gęstością szaf podyktowane wyborem sprzętu IT. W związku z tym ta kolekcja projektów zapewnia intuicyjny sposób na ostateczne zawężenie do konstrukcji podstawowej i dokładne dostosowanie jej do potrzeb wdrożeniowych.

Podczas modernizacji lub ponownego wykorzystania istniejących środowisk dla sztucznej inteligencji nasze zoptymalizowane projekty pomagają zminimalizować zakłócenia w istniejących obciążeniach pracą, wykorzystując dostępną infrastrukturę chłodzącą i w miarę możliwości odprowadzając ciepło. Możemy na przykład zintegrować chłodzenie cieczą bezpośrednio do układu z wymiennikiem ciepła z tylnymi drzwiami, aby utrzymać neutralne rozwiązanie chłodzące dla pomieszczenia. W takim przypadku tylny wymiennik ciepła zapobiega wydostawaniu się nadmiaru ciepła do pomieszczenia. W przypadku zakładów chłodzonych powietrzem, które chcą dodawać urządzenia chłodzące ciecze bez żadnych modyfikacji, dostępne są opcje projektowania ciecz-powietrze. Tę samą strategię można wdrożyć w jednym stojaku, w jednym rzędzie lub na dużą skalę w przypadku dużego wdrożenia HPC. W przypadku konstrukcji z wieloma półkami dodaliśmy również listwy zasilające o wysokim natężeniu prądu i listwy zasilające do szaf o wysokiej gęstości, aby rozprowadzać moc do każdej szafy.

Opcje te są kompatybilne z różnymi opcjami odprowadzania ciepła, które można połączyć z chłodzeniem cieczą. Zapewnia to czystą i ekonomiczną ścieżkę przejścia do chłodzenia cieczą o wysokiej gęstości bez zakłócania innych obciążeń w pomieszczeniu przetwarzania danych. Zapoznaj się z naszymi rozwiązaniami AI do przechowywania danych, aby dowiedzieć się więcej.

Chociaż wiele obiektów nie jest zaprojektowanych z myślą o systemach o dużej gęstości, Vertiv ma bogate doświadczenie w pomaganiu klientom w opracowywaniu planów wdrożenia, aby mogli płynnie przejść do systemów AI i HPC o wysokiej gęstości.

1 Szacunki kierownictwa: Porównanie zużycia energii i mocy wyjściowej na poziomie szafy dla 5 serwerów Nvidia DGX H100 i 21 serwerów Dell PowerStore 500T i 9200T w standardowej szafie 42U na podstawie specyfikacji producenta

PARTNERZY
Charakterystyka ogólna
Logowanie dla Partnerów

Język i lokalizacja