The page you're viewing is for Polish (EMEA) region.

Współpraca z przedstawicielem Vertiv umożliwia dostosowanie złożonych projektów do indywidualnych potrzeb. Jeśli reprezentujesz organizację, która poszukuje wskazówek technicznych dotyczących dużego projektu, Vertiv zapewni Ci potrzebne wsparcie.

Dowiedz się więcej

Wielu klientów współpracuje z resellerem i/lub partnerem Vertiv, a następnie kupuje produkty Vertiv dla własnych zastosowań IT. Partnerzy są gruntownie przeszkoleni, posiadają odpowiednie doświadczenie oraz są dobrze przygotowani do konfigurowania, oferowania i wspierania rozwiązań oraz infrastruktury IT, przy użyciu produktów Vertiv.

Znajdź resellera

Już wiesz, czego potrzebujesz? Potrzebujesz wygodnych zakupów online i dogodnych warunków transportowych? Niektóre kategorie produktów Vertiv można zakupić za pośrednictwem resellera internetowego.


Znajdź sprzedawcę internetowego

Potrzebujesz pomocy w wyborze produktu? Porozmawiaj z wykwalifikowanym specjalistą Vertiv, który pomoże Ci znaleźć odpowiednie rozwiązanie.



Skontaktuj się z ekspertem Vertiv

The page you're viewing is for Polish (EMEA) region.

Kwantyfikacja wpływu na PUE i zużycie energii podczas wprowadzania chłodzenia cieczą do chłodzonego powietrzem centrum przetwarzania danych

Zastosowanie chłodzenia cieczą w centrach danych nabiera tempa ze względu na jego zdolność do bardziej wydajnego i skutecznego chłodzenia szaf IT o dużej gęstości. Dotychczas projektanci i operatorzy centrów danych nie dysponowali danymi, które można było wykorzystać do prognozowania wpływu chłodzenia cieczą na efektywność centrum danych i pomóc im optymalizować wdrażanie chłodzenia cieczą w celu zwiększenia efektywności energetycznej obiektów.

Aby wypełnić tę lukę, zespół specjalistów z NVIDIA i Vertiv przeprowadził pierwszą obszerną analizę wpływu chłodzenia cieczą na PUE i zużycie energii w centrach danych. Pełna treść analizy została opublikowana przez American Society of Mechanical Engineers (ASME) w artykule Analiza efektywności wykorzystania energii w hybrydowym centrum danych o wysokiej gęstości chłodzonym cieczą. W niniejszym wpisie przedstawiamy podsumowanie metodologii, wyników i najważniejsze wnioski płynące z tej analizy.

Metodologia analizy efektywności energetycznej chłodzenia cieczą w centrum przetwarzania danych

Do naszej analizy wybraliśmy centrum danych średniej wielkości (1–2 megawaty), Tier 2 w Baltimore w stanie Maryland. W obiekcie zainstalowano 50 szaf o wysokiej gęstości rozmieszczonych w dwóch rzędach. Podstawą analizy było 100% chłodzenie powietrzem zapewniane przez dwa agregaty chłodnicze z wodą lodową, obwodowe urządzenia wentylacyjne do pomieszczeń komputerowych (CRAH) z izolacją gorących korytarzy. Jednostki chłodzące są obsługiwane przez agregat chłodniczy Vertiv™ Liebert® AFC z funkcjami freecoolingu, adiabatycznego freecoolingu, chłodzenia hybrydowego i adiabatycznego chłodzenia mechanicznego.

Chłodzenie cieczą jest możliwe dzięki bezpośredniemu chłodzeniu chipów za pomocą płyt chłodzących z mikrokanałami zamontowanych na głównych komponentach IT generujących ciepło i wspieranych przez dwie jednostki dystrybucji chłodziwa (CDU) Vertiv™ Liebert® XDU z wymiennikami ciepła typu ciecz-ciecz.

Schemat centrum danych wykorzystany do analizy energetycznej z wykorzystaniem Vertiv™ Liebert® XDU i Vertiv™ Liebert® PCW.

W analizie zastosowano podejście „oddolne”, rozdzielając obciążenie IT na podsystemy, co umożliwiło dokładne obliczenie wpływu stopniowego wzrostu procentowego obciążenia chłodzonego cieczą dla każdego podsystemu. Następnie przeprowadziliśmy cztery badania, zwiększając w każdym z nich procent chłodzenia cieczą, a jednocześnie optymalizując temperaturę schłodzonej wody, temperaturę powietrza nawiewanego oraz temperaturę wtórnego wlotu dzięki zastosowaniu chłodzenia cieczą.

  • Badanie 1: 100% chłodzenie powietrzem przy temperaturze wody lodowej 7,2 stopni Celsjusza (45 stopni Fahrenheita), temperaturze powietrza nawiewanego 25°C (77°F) i wtórnej temperaturze wlotowej 32°C (89,6°F).
  • Badanie 2: 61,4% obciążenia jest chłodzone cieczą, a 38,6% chłodzone powietrzem. Temperatura wody lodowej wzrasta do 18°C (64,4°F), temperatura powietrza zasilającego jest utrzymywana na poziomie 25°C (77°F), a wtórna temperatura wlotowa jest utrzymywana na poziomie 32°C (89,6°F).
  • Badanie 3: 68,6% obciążenia jest chłodzone cieczą, a 31,4% chłodzone powietrzem. Temperatura wody lodowej wzrasta do 25°C (77°F), temperatura powietrza zasilającego jest podnoszona do 35°C (95°F), a wtórna temperatura wlotowa jest utrzymywana na poziomie 32°C (89,6°F).
  • Badanie 4: 74,9% obciążenia jest chłodzone cieczą, a 25,1% chłodzone powietrzem. Temperatura wody lodowej jest utrzymywana na poziomie 25°C (77°F), temperatura powietrza nawiewanego jest utrzymywana na poziomie 35°C (95°F), a wtórna temperatura wlotowa jest podnoszona do 45°C (113°F).

Wpływ wprowadzenia chłodzenia cieczą na zużycie energii w centrum danych i PUE

Pełne wdrożenie chłodzenia cieczą w Badaniu 4 (74,9%) przyniosło zmniejszenie zużycia energii w obiekcie o 18,1% i zmniejszenie całkowitego zużycia energii w centrum danych o 10,2% w porównaniu do 100% chłodzeniem powietrzem. Efektem tego jest nie tylko obniżenie kosztów energii centrum danych o 10% rocznie, ale także zmniejszenie o tę samą wartość emisji Zakresu 2 w centrach danych wykorzystujących źródła energii oparte na węglu.

Całkowite zużycie energii w centrum danych zmniejszało się wraz z każdym wzrostem procentowym obciążeń chłodzonych metodą direct-to-chip. Od badania 1 do badania 2 zużycie energii zmniejszyło się o 6,4%; dodatkowe 1,8% redukcji osiągnięto między badaniem 2 a badaniem 3; a kolejne 2,5% poprawy odnotowano między badaniem 3 a badaniem 4.

Na podstawie tych wyników wartość PUE dla centrum danych obliczona dla każdego badania może okazać się zaskakująca. Wartość wskaźnika PUE spadła tylko o 3,3% z poziomu 1,38 w Badaniu 1 do 1,34 w Badaniu 4 i w rzeczywistości pozostała bez zmian na poziomie 1,35 dla Badań 2 i 3.

Jeśli znasz sposób obliczania PUE, być może już domyśliłeś się powodu tej rozbieżności. PUE jest zasadniczo miarą wydajności infrastruktury, która jest obliczana poprzez podzielenie całkowitej mocy zasilania centrum danych przez moc IT. Jednak chłodzenie cieczą nie tylko ograniczyło zużycie energii po stronie obiektu, ale także zmniejszyło pobór mocy przez IT (zgodnie z definicją PUE), zmniejszając zapotrzebowanie na pracę wentylatorów serwerów.

PUE.jpg

Pobór mocy przez wentylator serwera zmniejszył się o 41% pomiędzy Badaniem 1 a Badaniem 2 oraz o 80% pomiędzy Badaniem 1 a Badaniem 4. Spowodowało to zmniejszenie poboru energii przez IT o 7% pomiędzy Badaniem 1 a 4.

Chłodzenie cieczą, w przeciwieństwie do chłodzenia powietrzem, wpływa zarówno na licznik (całkowite zasilanie centrum danych), jak i na mianownik (zasilanie sprzętu IT) w obliczeniach PUE, co czyni go nieskuteczną miarą porównywania wydajności systemów chłodzenia cieczą i powietrzem.

W naszym opracowaniu proponujemy stosowanie wskaźnika Całkowitej efektywności wykorzystania (TUE) jako lepszą miarę dla tego celu, a w kolejnym poście wyjaśnimy, dlaczego podjęto taką decyzję. Wskaźnik TUE dla centrum danych, które było przedmiotem naszej analizy, poprawił się o 15,5% pomiędzy Badaniem 1 a 4, co naszym zdaniem odpowiada dokładnej wartości wzrostu wydajności centrum danych osiągniętego dzięki wdrażaniu zoptymalizowanego chłodzenia cieczą.

Kluczowe wnioski z analizy efektywności energetycznej chłodzenia cieczą w centrum przetwarzania danych

Analiza dostarczyła wielu spostrzeżeń dotyczących efektywności chłodzenia cieczą w centrum danych i sposobów jego optymalizacji. Zachęcam w szczególności projektantów centrów danych do przeczytania całego artykułu, który zawiera dane uzupełniające wykorzystane do uzyskania wyników przedstawionych w poprzedniej sekcji. Poniżej przedstawiam kilka kluczowych wniosków, które mogą zainteresować szerszą publiczność.

  • W centrach danych o dużej gęstości chłodzenie cieczą zapewnia poprawę efektywności energetycznej systemów IT i obiektu w porównaniu z chłodzeniem powietrzem. W naszym w pełni zoptymalizowanym badaniu wdrożenie chłodzenia cieczą spowodowało zmniejszenie całkowitego zasilania centrum danych o 10,2% i ponad 15% poprawę TUE.
  • Maksymalizacja wdrożenia chłodzenia cieczą w centrum danych — pod względem procentowego udziału obciążenia IT chłodzonego cieczą — zapewnia największą efektywność. W przypadku chłodzenia bezpośredniego chipów nie jest możliwe schłodzenie całego obciążenia za pomocą cieczy, ale około 75% obciążenia można skutecznie schłodzić za pomocą bezpośredniego chłodzenia chipów cieczą.
  • Chłodzenie cieczą umożliwia stosowanie wyższych temperatur wody lodowej, powietrza zasilającego i wtórnego temperatury wlotowej, które przyczyniają się do maksymalizacji efektywności infrastruktury obiektu. Należałoby rozważyć w szczególności chłodzenie gorącą wodą. Wtórne temperatury wlotowe w naszym ostatnim badaniu zostały podniesione do 45°C (113°F), co przyczyniło się do uzyskania pożądanych wyników, jednocześnie zwiększając możliwości ponownego wykorzystania odpadowego ciepła.
  • Wskaźnik PUE nie jest dobrym miernikiem wydajności chłodzenia cieczą w centrach danych, a alternatywne wskaźniki, takie jak TUE, będą bardziej pomocne w podejmowaniu decyzji projektowych związanych z wprowadzeniem chłodzenia cieczą w centrach danych chłodzonych powietrzem.

Na koniec chciałbym podziękować moim współpracownikom z Vertiv i NVIDIA za ich pracę nad tą przełomową analizą. Jej wyniki nie tylko pozwalają zmierzyć ilościowo oszczędności energii, które można osiągnąć dzięki chłodzeniu cieczą, ale dostarczają projektantom cennych danych, które można wykorzystać do optymalizacji instalacji chłodzenia cieczą w centrach danych.

Więcej informacji na temat trendów wpływających na stosowanie chłodzenia cieczą można znaleźć we wpisie na blogu Chłodzenie cieczą: Rozwiązania dla centrów danych do obliczeń o wysokiej gęstości, które podsumowują spostrzeżenia panelu ekspertów ds. chłodzenia cieczą podczas globalnego szczytu OCP Global Summit 2022.

Logowanie dla Partnerów

Język i lokalizacja