REKLAMA

To tutaj trzymają wszystkie twoje lajki. Byliśmy w polarnym centrum danych Facebooka - relacja Spider's Web

Arktyczny klimat północnej Szwecji stwarza idealna warunki dla serwerów. To właśnie przez nie przepływają facebookowe statusy, zdjęcia i filmy.

Tak wygląda szwedzkie, polarne centrum danych Facebooka
REKLAMA

Z czym kojarzy się Szwecja? Z przepięknymi blondynkami, marką IKEA, Zlatanem Ibrahimoviciem i dużą ilością śniegu?

 

REKLAMA

Z wodospadami niosącymi hektolitry wody? W Szwecji połowę energii elektrycznej wytwarzają elektrownie wodne. Jeśli chodzi moc elektrowni zbudowanych nad rzekami do Szwedzi są na 10. miejscu, ustępując niewiele Norwegom i Francuzom.

 

Z kilku z powyższych zalet postanowił skorzystać Facebook tworząc swoje pierwsze centrum danych poza Stanami Zjednoczonymi właśnie w Szwecji. Znajduje się ono niedaleko ujścia rzeki Lule do Bałtyku, na obrzeżach miast Lulea.

 

Kiedy planowałem przyjazd do centrum Facebook myślałem że wokoło Lulei będą się kilometrami ciągnęły lasy i jeziora, drogę co chwila będą przebiegały renifery, a ludzi będzie tyle co kot napłakał.

W rzeczywistości trafiłem do 76-tysięcznego miasta – stolicy regionu, która na całą Szwecję świeci przykładem transformacji od przemysłu do IT. Kiedyś składano tu SAAB-y, a dziś powstają startupy, które przejmują światowi giganci.

 

Budowę centrum zainicjowano w 2011 roku. Dziś zajmuje ono powierzchnię 26,27 hektara, czyli tyle co 11 boisk futbolowych.

W zimie na dziedzińcu przed centrum wznosi się duży facebookowy kciuk z lodu, ale latem temperatury sięgają nawet 25 stopni, więc rzeźba nie doczekała mojego przybycia.

 

Serwery rozmieszczone są w dwóch budynkach. Pracownicy mogą się pomiędzy nimi szybko przemieszczać na skuterach elektrycznych albo rowerach.

 

Na wejściu znajduje się duża, niebieska wycieraczka z logiem Facebooka. Za oknem widać zegarki pokazujące godzinę w amerykańskich centrach danych. Obecnie Facebook buduje dwa kolejne w Europie: w Irlandii i Danii.

 

Każdy gość dostaje plakietkę i musi obejrzeć wideo traktujące o bezpieczeństwie w razie wypadku. W centrum pracuje obecnie 225 osób i ich ewentualna ewakuacja musi być dokładnie skoordynowana.

 

Ostatnim etapem przygotowań jest zaopatrzenie się w douszne koreczki – wśród wentylatorów może być naprawdę głośno.

 

Dla powodzenia centrum danych kluczowe jest odpowiednie chłodzenie, a tego blisko koła podbiegunowego nie brakuje. Z Lulei można do niego dotrzeć samochodem w godzinę.

W zimie powietrze może mieć temperaturę nawet minus 40 stopni Celsjusza, więc trzeba je wymieszać z tym cieplejszym – odprowadzonym od serwerów. Służy temu właśnie to pomieszczenie.

 

Powietrze zasysane z zewnątrz może zawierać pyłki czy inne zanieczyszczenia. Osadza się je na takich, czarnych barierach, które widźcie w tle. Na pierwszym planie znajduje się zaś wabik na komary, których zwłaszcza latem nie brakuje.

 

Powietrze jest zasysane dalej przez ogromne wentylatory, które widzicie po lewej stronie. A do czego służy ta ściana po prawej?

 

Jej struktura jest podobna nieco do plastra miodu. Na sam jej szczyt doprowadzana jest woda, która później powolutku ścieka przez kanaliki. Dzięki temu powietrze cechuje się odpowiednią wilgotnością.

 

Jeśli wilgotność jest zbyt wysoka na komputery pada deszcz, jeśli jest zbyt niska ryzykujemy przepięciem. I tak źle i tak nie dobrze.

 

W następnej sali badany jest stan powietrza – właśnie za pomocą tych czerwonych rurek. Mogą one wykryć np. czy dym, który znajduje się w powietrzu pochodzi z serwerowni czy z pożaru lasu w okolicy.

 

Po przejściu przez inspekcję powietrze swobodnie opada na serwery. Działają tu najprostsze prawa fizyki: ciepłe powietrze wędruje do góry, a zimne opada.

Wśród komputerów panuję komfortowa, pokojowa temperatura. Zwykle pracują one w temp. od 21 do 28 st.C.

 

W miesiącach letnich, kiedy ciepłego powietrza jest zbyt dużo jest ono wywiewane z centrum za pomocą ogromnych wentylatorów, które widzicie po prawej stronie zdjęcia.

 

Ciepłe powietrze wędruje następnie swobodnie po dachu.

Metalowe linki ułożone co kilka metrów chronią zaś przed uderzeniem piorunów.

 

Na północy Szwecji lubi padać dużo śniegu. Dlatego próg w drzwiach, przez które wchodzi się na dach jest bardzo wysoki, aby nie zawiewało białego puchu do środka.

 

Wróćmy do tego, co w Lulei najważniejsze, do komputerów. Wszystkie serwery, urządzenia do przechowywania danych oraz obsługujące je oprogramowanie są zaprojektowane według standardów Open Compute Project.

„Open” oznacza, że Facebook dzieli się swoimi osiągnięciami w budowie energooszczędnych centrów danych z każdym konkurentem.

 

 

 

A ma czym! Wykorzystanie odnawialnej energii, chłodzenia przy użyciu zewnętrznego powietrza oraz najbardziej zaawansowanych rozwiązań technologicznych sprawia, że wskaźnik efektywności wykorzystania energii (PUE) dla centrum danych Lulea plasuje się w zakresie 1,05 – 1,09. Oznacza to, że niemal każdy watt mocy wykorzystywany w centrum służy do zasilania serwerów i komputerów.

 

W większości centrów tego typu wskaźnik PUE wynosi co najmniej 1,5 lub więcej, ponieważ energia jest wykorzystywana także do zasilania np. klimatyzacji czy innych systemów pomocniczych.

 

Energooszczędność serwerów została osiągnięta m.in. dzięki pozbyciu się wszelkich elementów, które nie służą podniesieniu wydajności obliczeń.

Serwery można wypiąć z sieci bez najmniejszego uszczerbku dla działania serwisu.

 

Część danych wciąż przechowywana jest na wirujących dyskach, są to np. starsze filmy, do których dostęp nie musi następować natychmiastowo. Szufladę z nimi można wyciągnąć bez wyłączania dysków, choć po prawdzie nie wszystkie one pracują. System włącza tylko te, z których trzeba coś odczytać.

Taka „tacka” zawiera 2 PB danych.

 

Kolejny elementem ważnym dla lokacji centr danych jest łatwy dostęp do zasilania. W tym wypadku centrum znajduje się na styku dwóch sieci energetycznych, co pozwala zredukować wykorzystanie zapasowych generatorów o ponad 70 proc.

 

Centrum jest w 100 proc. zasilane „zieloną energią” z elektrowni wodnej na pobliskiej rzece Lule. Co ciekawe, Facebook bardzo mocno dba o to, aby jego serwerownie jak najmniej wpływały na środowisko.

W 2015 roku firma postawiła sobie za cel cel, aby w ciągu 3 lat zaspokajać energią odnawialną ponad 50 proc. swojego zapotrzebowania, a docelowo korzystać w 100 proc. z czystej energii w możliwie jak najkrótszym czasie.

 

REKLAMA

„Ślad węglowy” Facebooka w przeliczeniu na jednego użytkownika za cały 2016 r. jest porównywalny ze „śladem węglowym” powstającym przy produkcji jednej średniej kawy latte. Dlatego ślad węglowy Starbucksa jest pewnie o wiele, wiele większy niż Facebooka.

 

Zwiedzanie centrum danych kończymy w stołówce dla pracowników, którym każdego dnia serwowane są 3 posiłki, aby mogli się całkowicie skoncentrować na pracy. Przy jednym ze stolików spotykam Polaka, który zajmuje się utrzymaniem serwerów. Kiedy pytam go jak najkrócej określiłby rolę centrum w sieci Facebooka odpowiada mi:

Tu internet staje się prawdziwy.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA