A więc to tak wygląda Matrix od środka! Wizyta w serwerowni T-Mobile - relacja Spider's Web
W czwartkowy poranek wybraliśmy się do Piaseczna pod Warszawą, gdzie mogliśmy sprawdzić jak wygląda od środka Data Centre jednego z operatorów telefonii komórkowej. Przedstawiciele polskiego oddziału T-Mobile pokazali nam jak zorganizowana jest praca w serwerowni, na ilu płaszczyznach chronione są dane klientów i gdzie tak naprawdę jest chmura.
Data Centre w Piasecznie jest centralnym punktem sieci szkieletowej T-Mobile nadzorowanym 24 godziny na dobę. Z zewnątrz obiekt wygląda jak hala zwykła hala z towarem dostarczanym do supermarketów, ale to tutaj przechowywane są dane klientów Data Centre z zachowaniem wszystkich niezbędnych standardów bezpieczeństwa.
Wnętrze takich obiektów często widzimy w filmach akcji, gdy bohaterowie próbują uzyskać różnymi sposobami dostęp do konkretnego serwera.
Nie ma tutaj leżących na podłodze kabli, a białe korytarze i pomieszczenia pełne elektroniki wyglądają sterylnie. Świat kina rządzi się zresztą swoimi prawami, dlatego z chęcią posłuchałem jak w rzeczywistości dba się w takim miejscu o ochronę danych - zarówno przed nieuprawnionym dostępem, jak i przed uszkodzeniem nośników i całej reszty sprzętu.
Data Centre w Piasecznie funkcjonuje bez przerwy od 2001 roku - mimo licznych modernizacji dodających kolejne pomieszczenia w celu sprostaniu zapotrzebowaniu na usługi. To jedno z czterech takich miejsc w Warszawie. W Polsce jest jeszcze jedno centrum danych we Wrocławiu, a podobne obiekty rozsiane są po całej Europie.
Wejście do budynku jest bardzo niepozorne, ale w środku robi spore wrażenie.
Data Centre zlokalizowane jest w ogromnej hali, a wejście zdobi jedynie malutka plansza z logo operatora. Po przekroczeniu progu od razu jednak widać, że przywiązuje się tutaj uwagę do bezpieczeństwa, a serwery przed nieuprawnionym dostępem broni kilka różnych punktów kontroli.
W pierwszej kolejności musieliśmy zatrzymać się przy recepcji i pokazać ochronie dokument tożsamości, a przy wejściu są na ladzie skanery linii papilarnych. Do tego zanim ktoś po wejściu do budynku zdobędzie dostęp do sprzętu musi przejść identyfikację jeszcze w kilku miejscach, a wszędzie można natknąć się na kamery.
W środku nie można robić żadnych zdjęć i niezbędne jest nawet założenie… ochraniaczy na obuwie jakie spotyka się w szpitalach.
Miałem okazję zapoznać się z planem budynku, później obejrzeć z bliska poszczególne pomieszczenia. Oprócz wydzielonych sektorów dla klientów obejrzeliśmy też pomieszczenia przechowujące gaz służący do walki z pożarem o nazwie Inergen. To bezpieczna dla środowiska, ludzi i sprzętu mieszanka gazów obecnych w atmosferze: dwutlenku węgla, azotu i argonu.
W Data Centre wykorzystuje się system automatycznego gaszenia, który m.in. redukuje zawartość tlenu w powietrzu do poziomu 14 proc. - to tyle ile jest tego gazu na wysokości 3 km npm. Dzięki dodaniu do Inergenu dwutlenku węgla osoby przebywające w pomieszczeniu po wypuszczeniu tego gazu oddychają szybciej i pobierają taką samą ilość tlenu jak w normalnych warunkach.
Jak dotąd nie było jednak pożaru, a nawet jeśli ogień w serwerowni by się pojawił, to Straż Pożarna nie zostałaby wezwana od razu.
Straż Pożarna zalałaby budynek wodą po uprzednim wyłączeniu prądu, a na to Data Centre nie może sobie pozwolić, dlatego decyzję o wezwaniu służb musiałby podjąć menedżer.
Na szczęście od początku istnienia obiektu, czyli przez ostatnie 14 lat, w budynku nie było żadnego pożaru. Pojawiły się jedynie drobne zwarcia związane z np. przepaleniem się bezpieczników.
Oczywiście system jest regularnie sprawdzany, a dla pewności w pomieszczeniach są podwójne wloty powietrza.
System zabezpieczeń w takim miejscu po prostu musi być niezawodny i minimalizować ryzyko utraty sprzętu oraz - co gorsza - danych w razie np. pożaru, przerw w dostawie prądu, uszkodzenia światłowodu lub innej katastrofy. Projektując takie zabezpieczenia trzeba dmuchać na zimne, dlatego widzieliśmy dwa pomieszczenia z butlami gazu rozmieszczone w dwóch bardzo odległych od siebie lokalizacjach.
Do centrum danych przyłączone są cztery niezależne łącza światłowodowe, a w razie awarii zasilania odpalany jest UPS. Po trzech minutach uruchamiane są niezależne generatory, a w tym czasie by nie obciążać nadmiernie sieci energetycznej wyłączane są klimatyzatory. Data Centre potrzebuje w końcu tyle energii, ile… 13-tysięczne miasteczko i to pomimo dbania na każdym kroku o minimalizację poboru prądu.
W całym budynku poprowadzono też rury z glikolem.
Do chłodzenia maszyn wykorzystywane jest 70 tys. l tego płynu, który rozprowadzany jest pod sufitem. Inżynierowie zadbali na szczęście o to, by w razie wycieku sprzęt nie został uszkodzony. Podłoga jest podniesiona i nawet jakby cały glikol wyciekł, to ma zmieścić się pod nią. Same rury mają podczepione od spodu dwa druciki, a ewentualny wyciek spowoduje na nich zwarcie i zostanie szybko wykryty.
Zabezpieczenia naprawdę robią wrażenie, a projektanci budynku musieli brać naprawdę wiele rzeczy pod uwagę. Nawet rampa służąca do rozładowania sprzętu musiała być specjalnie zaprojektowana. Niektóre urządzenia mają czujnik wychylenia i jeśli tylko rampa byłaby ustawiona pod zbyt dużym kątem, to producent urządzenia anulowałby potem gwarancję.
Data Centre w Piasecznie pozwala klientom na stosowanie dodatkowych, niestandardowych zabezpieczeń.
3Wiele pomieszczeń to klasyczne sale kolokacyjne, ale niektórzy klienci wymagają dodatkowej ochrony. Zwiedzając obiekt można natknąć się na serwery w klatkach ustawione w taki sposób, by nikt postronny nie mógł podejrzeć co administrator wpisuje na klawiaturze.
Ciekawym pomysłem jest udzielanie dostępu do niektórych pomieszczeń. klient Data Centre może obserwować na kamerze osobę wyznaczoną do przeprowadzenia prac, a drzwi do klatki z serwerem otwierane są zdalnie i bez jego zgody nie sposób się do nich dostać.
Nie da się też jak w filmach użyć podrobionego identyfikatora i samemu otworzyć sobie jednej z pełnych elektroniki szaf, bo pracownicy obiektu towarzyszą podczas wizyt odwiedzającym.
Oprócz sal kolokacyjnych na terenie obiektu znajduje się też szereg innych pomieszczeń. Na piętrze jest open space dla pracowników, a koło niego i recepcji na parterze można znaleźć salki konferencyjne. Obok pomieszczeń z serwerami są pomieszczenie dla administratorów, gdzie mogą wygodnie przygotować sprzęt do instalacji.
Mogliśmy też zobaczyć pokój, gdzie znajduje się cała infrastruktura chmurowa. Podkreślono jednak, że dane przechowywane w tej jednej lokalizacji mają swoje kopie zapasowe też w innych centrach danych. Jeszcze ciekawiej wygląda “zapasowe biuro”, gdzie można przenieść w razie potrzeby swoich wszystkich pracowników.
Jeden z klientów przetestował czy to rzeczywiście działa w praktyce.
Pewnego dnia pewna firma z sektora finansowego bez ostrzeżenia zadzwoniła z prośbą o przygotowanie sali i podstawiła chwilę później trzy autokary pełne pracowników. Centrum danych musiało w trybie natychmiastowym rozlokować w przygotowanych z myślą o takich zdarzeniach 70 osób.
W takich sytuacjach przygotowuje się stanowiska robocze i podpina pod nie wszystkie usługi sieciowe, jakich pracownicy mogą potrzebować by kontynuować wykonywania swoich zadań. Data Centre w Piasecznie test zdało pomyślne, a klient podobno na realizację usługi nie narzekał.
Wizyta w budynku robi wrażenie, bo na co dzień nie myśli się o tym jak przechowywane są nasze dane i gdzie tak naprawdę wędrują wykorzystywane przez nas bity.
Serwerownia w Piasecznie powstała w 2001 roku i była jednym z pierwszych tego typu obiektów w naszym kraju. Hala ma 3,5 tys. mkw. powierzchni i pobiera 4 MW energii. Oferowane klientom sale kolokacyjne wyposażone są w szafy serwerowe, klimatyzatory i czujniki przeciwpożarowe. Prąd dostarcza “trzystopniowy redundantny system zasilania”. Pracownicy oprowadzający nas po obiekcie chwalili się też, że od 2013 roku spełniają normę ISO 27001:2005.
Budynku pilnuje całą dobę personel, a niektórzy pracownicy ochrony pracują tam od samego początku i nie tylko patrzą w monitory, ale sprawdzają też stale m.in. wilgotność i temperaturę. T-Mobile wykorzystuje placówkę też do zarządzania własną siecią i to tutaj zamontowano jeden z głównych routerów naziemnej sieci szkieletowej transferujący dane z prędkością setek gigabitów na sekundę.