Chłodzenie systemów IT w gorącym klimacie – jakie technologie chłodzenia sprawdzą się w trudnych warunkach?

Serwery pracujące w centrach danych zużywają ogromne ilości energii elektrycznej, wydzielając przy tym wielkie ilości ciepła. Te urządzania muszą być odpowiednio chłodzone, aby pracowały z wymaganą wydajnością oraz nieprzerwanie, gdyż sprawna infrastruktura IT jest podstawą funkcjonowania zarówno elektrowni czy zakładów wodociągowych, jak i banków oraz różnego rodzaju przedsiębiorstw.

Ewentualne awarie serwerów mogą mieć fatalne skutki dla wszystkich z nas. Szczególnie trudne zadanie stoi przed systemami chłodzenia w centrach danych, znajdujących sie w obszarach o gorącym klimacie. Zaczyna to powoli dotyczyć także i naszego kraju, gdyż średnie temperatury roczne rosną, o czym świadczy np. tegoroczne upalne lato. Ponadto ważne jest ograniczenie zużycia energii, której ceny ciągle rosną i działanie na rzecz ochrony środowiska naturalnego.

Współczesne centra danych – ogromne zużycie energii oraz wymagania dla systemów chłodzenia

O tym, że centra danych zużywają ogromne ilości energii, świadczą dane Międzynarodowej Agencji Energii. Szacuje się, że w 2022 r. było to 240...340 TWh (nie licząc tzw. kopalni kryptowalut), co stanowiło około 1...1,3% globalnego zapotrzebowania na energię. Natomiast w roku 2026 ta ilość ma się podwoić.  Wg danych Departamentu Energii USA (energy.gov) centra danych zużywają 10...50 razy więcej energii w przeliczeniu na powierzchnię, niż typowy budynek biurowy.  Niektórych raporty podają, że nawet około 40% energii zużywanej przez te obiekty przypada na zasilanie systemów HVAC.Cechą współczesnych centrów danych są punkty wysokiej gęstości mocy, czyli przestrzenie, w których występują duże zyski ciepła. Szafy typu rack z serwerami generują od 15 do 40 kW mocy cieplnej, dlatego systemy chłodzenia muszą być rozbudowane i niezawodne, szczególnie te pracujące w gorącym klimacie. Przegrzewanie się sprzętu informatycznego może prowadzić do jego awarii, sprzętu, przestojów a nawet utraty danych, co może generować duże straty dla przedsiębiorstw i firm korzystających z usług centrów danych. Ponadto stabilna temperatura pracy oznacza utrzymanie wymaganej wydajności serwerów oraz ich żywotności. Nowoczesne centra danych projektuje się tak, aby działały w temperaturach nawet 44°C. Jednak starsze obiekty, zaprojektowane dla temperatur 35°C ...38°C, stoją w sytuacji zmian klimatycznych przed wyzwaniem konieczności modernizacji.

Tradycyjne systemy chłodzenia serwerów i centrów danych

Obecnie dwa najbardziej rozpowszechnione systemy chłodzenia sprzętu informatycznego w serwerowniach i centrach danych to chłodzenie powietrzem oraz chłodzenie cieczą. Wśród systemów powietrznych najprostsze i najtańsze jest chłodzenie swobodne (ang. free-cooling) bezpośrednie. Wykorzystuje ono powietrze nawiewane z zewnątrz do chłodzenia pomieszczenia ze sprzętem IT. Jednak-free cooling bezpośredni nadaje się tylko dla serwerowni i centrów danych pracujących w chłodniejszym klimacie. Gdy temperatura powietrza zewnętrznego jest wyższa od wymaganej temperatury w pomieszczeniu, w klimacie gorącym lub umiarkowanym w okresie letnim, stosuje się chłodzenie swobodne pośrednie - powietrze nawiewane zostaje schładzane, np. za pomocą agregatu wody lodowej.   Obecnie w centrach danych oraz serwerowych rozpowszechnione są klimatyzatory precyzyjne, zaprojektowane specjalnie do chłodzenia tych obiektów oraz zapewniające dokładną regulację temperatury i wilgotności. Stosuje się tu 2 rozwiązania:

  • CRAC czyli klimatyzatory dla serwerowni (ang. Computer Room Air Conditioner), działające na podobnej zasadzie co klimatyzacja domowa czy samochodowa. Zwykle instalowane na obrzeżach centrów danych, czyli z dala od sprzętu IT. Rozprowadzają zimne powietrze przez otwory w podłodze technicznej (podniesionej) lub kanały powietrzne. Wadą tego rozwiązania jest nierównomierny rozkład temperatur, mogący doprowadzić do przegrzania niektórych obszarów.
  • CRAH, czyli centrale chłodnicze dla serwerowni (ang. Computer Room Air Handler). Współpracują z chillerami wytwarzającymi wodę lodową, która zasila wymienniki ciepła schładzające powietrze. Ponieważ centrale CRAH nie zawierają sprężarek, zużywają mniej energii od systemów CRAC

Chłodzenie cieczą. Takie chłodzenie serwerów jest wydajniejsze, ze względu na lepsze przewodzenie ciepła przez ciecz, niż powietrze. Może być zainstalowane na tych urządzeniach IT, które wydzielają najwięcej ciepła. Systemy chłodzenia cieczą dzielą się na:

  • Zanurzeniowe (immersyjne). Całe urządzenie IT zostaje umieszczone w płynie dielektrycznym, np. w otwartej wannie. Chłodzenie zanurzeniowe może być jednofazowe – płyn dielektryczny pozostaje cały czas w stanie ciekłym przez cały proces, pochłaniając ciepło i przekazując je do wymiennika ciepła, bądź dwufazowe - płyn wrze na powierzchni gorących komponentów, a następnie skrapla się w wymienniku ciepła. Płyny dielektryczne, czyli nieprzewodzące, charakteryzują się wysoką pojemnością cieplną i doskonałymi właściwościami termodynamicznymi. Są to np. oleje syntetyczne oleje na bazie technologii GTL oraz ciecze na bazie fluorowęglowodorów.
  • Direct-to-chip, czyli bezpośrednio na chipie. Polega ono na bezpośrednim odbieraniu ciepła z chipa (np. procesora) - wymienniki ciepła lub elementy chłodzące są zintegrowane z konstrukcją danego układu scalonego albo umieszczone w bezpośrednim kontakcie z nim.

Nowoczesne systemy chłodzenia serwerów pracujących w trudnych warunkach

W sytuacji, gdy z jednej strony wielkie moce oraz gęstości upakowania sprzętu IT rosną, zaś z drugiej klimat ociepla się, tradycyjne systemy chłodzenia mogą okazać się niewystarczające lub nawet niewykonalne, ze względu na bardzo wysokie koszty. Na szczęście opracowano już rozwiązania systemów klimatyzacji, które okazały się wydajne i ekonomiczne. W odróżnieniu od tradycyjnej metody chłodzenia, polegającej na mieszaniu gorącego i zimnego powietrza w celu uzyskania przez sprzęt IT odpowiedniej temperatury, nowoczesne systemy wykorzystują oddzielenie strefy zimnej od gorącej, w celu jak najbardziej efektywnego kierowania przepływu powietrza. Stosowane jest też bezpośrednie chłodzenie szaf serwerowych za pomocą dedykowanych klimatyzatorów. Oto krótka charakterystyka tych systemów:

  • Chłodzenie InRow, czyli rzędowe. Klimatyzatory znajdują się bezpośrednio pomiędzy szafami serwerowymi, czyli blisko sprzętu IT. Taki układ zwiększa wydajność i dokładność chłodzenia. Szafy serwerowe są rozmieszczone w rzędach, przy czym każdy z nich jest skierowany w przeciwnym kierunku do poprzedniego. W ten sposób tworzą się tzw. gorące i zimne korytarze (ang. hot and cold aisles), zaletą których są znaczne oszczędności energii. Jednak system ten nie wystarcza w dużych centrach danych, w których występują duże gęstości mocy. Dlatego opracowano 2 nowe: HAC i CAC.
  • Systemy HAC, czyli zamknięcia (separacji) strefy gorącej (ang. hot aisle containment). W takim układzie gorące powietrze z szafy zostaje zassane i przeniesione do komory wyrównawczej w suficie. Tam rurami płynie do klimatyzatora i ulega schłodzeniu, a następnie wraca do pomieszczenia. Tego typu systemy mogą być instalowane również w pomieszczeniach bez podłogi podniesionej. Jeśli jednak taka podłoga istnieje, to system HAC będzie łatwiejszy w zainstalowaniu od opisanego dalej systemu CAC.
  • Systemy CAC, czyli zamknięcia (separacji) strefy zimnej (ang. cold aisle containment). Zimne powietrze jest nawiewane na sprzęt IT, odbiera generowane ciepło i odprowadza je do strefy gorącej. Tam powietrze to kierowane jest ku górze lub do komory wyrównawczej, a następnie powraca do klimatyzatora CRAC oraz podłogi technicznej.
  • Bezpośrednie chłodzenie szaf serwerowych typu rack. Klimatyzatory typu CRAH, dedykowane dla konkretnych szaf IT, mogą być zamontowane bezpośrednio na nich lub wewnątrz. Zaletą tego rozwiązania jest to, że drogi przepływu powietrza są jeszcze krótsze niż w przypadku chłodzenia rzędowego, a sam przepływ nie jest zakłócany przez przedmioty znajdujące się w pomieszczeniu oraz przeszkody architektoniczne. Wykorzystywana jest cała moc klimatyzatora, co powoduje zarówno możliwość efektywnego chłodzenia przy wielkim zagęszczeniu mocy, jak i zmniejszenie zużycia energii, bo nie jest chłodzone otoczenie.