Naukowcy stracili 34 mln ważnych plików. Dane poszły w niebyt podczas robienia kopii zapasowej
Podobno ludzie dzielą się na tych, co robią backupy i na tych, co jeszcze ich nie robią. Naukowcy wynajmujący superkomputer uniwersytetu w Kioto prawdopodobnie stworzą nową grupę: tych, co kopii zapasowych więcej robić nie będą.
Uniwersytet Kioto to najbardziej prestiżowa tego rodzaju placówka w Japonii. Dziś jednak jest na ustach wszystkich z nieco mniej chlubnych powodów. Jak informuje Bleeping Computer, znajdujący się na uczelni superkomputer wymazał 77 terabajtów danych podczas rutynowej procedury wykonywania kopii zapasowej.
Czytaj też:
Uczeni stracili 34 mln plików z 14 różnych projektów badawczych przetwarzanych przez Hewlett Packard Cray z pamięcią DataDirect ExaScaler. Na dziś nie podano do publicznej wiadomości jakiego rodzaju pliki zostały usunięte i co konkretnie wywołało awarię. Uniwersytet jednak potwierdził, że dane co najmniej z czterech projektów są już z całą pewnością nie do odzyskania. Pesymizm powinny też zachować pozostałe grupy uczonych.
Błąd mechanizmu kopii zapasowej superkomputera w Kioto doprowadził do utraty 77 TB danych naukowych.
Nie jest jasne czy uczeni będą mogli liczyć na rekompensaty ze strony uniwersytetu. Koszt wynajmu należącego do niego Craya jest bardzo wysoki. Każda godzina pracy superkomputera to koszt kilku tysięcy złotych dla podmiotu go wynajmującego.
77 terabajtów brzmi jak niezwykła ilość danych, ale też warto nadać tej liczbie szerszy kontekst. Wykorzystywany w Kioto superkomputer oferuje macierz danych o rozmiarze 24 petabajtów, co oznacza, że uszkodzonych zostało 0,32 proc. danych, przy założeniu, że komputer był wykorzystany w pełni swoich możliwości. To daje pewne szersze spojrzenie na temat ogromu projektów przetwarzanych na uczelni, do których należą, między innymi, symulacje klimatyczne i pogodowe, analiza molekularna czy badania nad nowymi medykamentami, w tym szczepionkami.