REKLAMA

Amazon zapowiedział nowości dla swojej chmury. To kilkaset argumentów na jej korzyść

Uprościć. Zoptymalizować. Na życzenie, zautomatyzować. Zlikwidować przeszkody. Amazon zapowiedział nowości dla swojej chmury i widać wyraźnie jeden wiodący w nich trend: sprawić, by korzystanie z Amazon Web Services było decyzją łatwą, jeśli nie oczywistą.

06.12.2022 06.19
AWS re:invent chmura korzyści
REKLAMA

Amazon Web Services to największa na świecie chmura obliczeniowa, jeżeli jako główną miarę przyjąć liczbę klientów i udziały rynkowe. Znajdujący się również na podium Microsoft Azure ma względem AWS-u w powyższym kontekście ogromne zaległości. Potężny Google Cloud w porównaniu do Amazon Web Services to wręcz margines rynkowy. To jednak nie oznacza, że Amazonowi kończą się klienci do pozyskania.

REKLAMA

Czytaj też:

Wręcz przeciwnie. Znaczna część organizacji, przedsiębiorstw, zespołów roboczych czy nawet zwykłych użytkowników prowadzących jakieś oparte o dane projekty nadal nie korzysta z usług publicznych chmur. Co najwyżej pośrednio, korzystając z aplikacji na tych chmurach hostowanych, takich jak Netflix, Adobe Creative Cloud, Spotify czy Microsoft 365. Na dodatek konkurencja AWS-u, choć nadal daleko w tyle, zdecydowanie należy do kompetentnych rywali. Amazon Web Services musi się rozwijać, by utrzymać status lidera.

Podczas konferencji Re:invent przedstawiono kilkaset (jeśli nie kilka tysięcy) nowych argumentów. Niektóre przeznaczone są dla bardzo specyficznych klientów, inne stanowią niuanse zrozumiałe tylko dla wykształconych inżynierów danych. Znaczna część jednak budowana jest wokół... ułatwiania. Czy to wdrożenia, czy zarządzania, czy kosztów obsługi - widać wyraźnie, że Amazonowi zależy na tym, by AWS miał coś użytecznego i atrakcyjnego dla niemal każdego przedsiębiorcy, pracownika czy uczonego. Bo jak słusznie zauważył Adam Selipsky, prezes Amazon Web Services podczas mowy otwierającej Re:invent, na dziś już każda firma czy organizacja - niezależnie od branży czy charakteru działalności - jest firmą informatyczną przetwarzającą dane. Różnią się od siebie tylko narzędziami do ich przetwarzania oraz wydajnością ich analizy.

AWS Supply Chain, czyli chmura, która przypilnuje dostawców.

W ostatnich kilkudziesięciu miesiącach niemal każdy zetknął się z pojęciem łańcucha dostaw, co najwyżej wyrażonym innymi słowami. Czy to przy okazji polowania na konsolę do gier, czy też na nowy samochód, czy nawet na papier toaletowy - pandemia, wojna, zmienna sytuacja geopolityczna, niedobór surowców i inne zdarzenia istotnie ów łańcuch dostaw zakłóciły. Co w efekcie sprawiło, że znaczna liczba towarów podrożała lub wręcz zniknęła z rynku.

 class="wp-image-3040353"
AWS Supply Chain

AWS Supply Chain ma być istotną pomocą na wszelkie problemy związane z zakłóceniami łańcucha dostaw. Amazon Web Services otwarcie przyznaje, że rozwiązanie było zbudowane na tych samych fundamentach, na jakich bazuje stosowane wewnętrznie narzędzie przez Amazon.com - a więc przez największy sklep internetowy świata.

Supply Chain automatycznie łączy i przetwarza dane z systemów łańcucha dostaw, co pozwala klientowi na podgląd sytuacji w czasie rzeczywistym, szybsze dostrzeganie trendów i również na bardziej precyzyjne prognozy. AWS konsoliduje dane (w ramach pojedynczego data lake) i stosuje do ich analizy algorytmy sztucznej inteligencji i uczenia maszynowego, co nie tylko zapewnia jeszcze użyteczniejszy zestaw danych, ale za sprawą ich automatycznej unifikacji działający w mgnieniu oka.

Amazon DataZone, czyli rozwiązanie problemu zarządzania danymi. By skupić się na ich analizie.

Firmy i organizacje zbierają i analizują dane z wielu różnych źródeł. Niejednokrotnie przez zupełnie niezależne od siebie zespoły, które w żaden sposób bezpośrednio ze sobą nie współpracują. Przedsiębiorstwa prowadzące działalność poza krajem muszą pilnować przepisów prawnych związanych z przechowywaniem i przetwarzaniem danych w każdym z tych krajów. Mimowolnie powstają izolowane silosy danych, którymi trudno zarządzać i które trudno łączyć. DataZone to odpowiedź na ten problem.

Amazon DataZone to usługa zarządzania danymi, która ułatwia ich katalogowanie, odnajdywanie, udostępnianie i dostosowywanie do regulacji - i to zarówno w ramach chmury AWS, jak i tych przetwarzanych lokalnie przez klienta, a także z zewnętrznych źródeł. Za jej sprawą administratorzy mogą być pewni, że tylko właściwe osoby mają dostęp do poufnych danych. Organizacja nie musi się przejmować skąd pochodzą dane informacje, czy jak je zaimportować do dalszej pracy. Te, które są w danej chwili potrzebne i do których dany zespół ma dostęp mogą zostać od razu zaprezentowane.

 class="wp-image-3040356"
Amazon DataZone

DataZone wykracza jednak poza indeksowanie, katalogowanie i zabezpieczanie danych. Za sprawą algorytmów sztucznej inteligencji może sam sugerować odpowiednie dane do danego kontekstu, może też sam proponować metadane do swojego katalogu. Jak nietrudno się domyślić, DataZone oferuje automatyczną integrację z narzędziami analitycznymi Amazonu, w tym z Redshiftem, Atheną i QuickSight. Zapewnia też szereg użytecznych API do budowania niestandardowych integracji, choć oferuje wiele - w tym z usługami Salesforce i ServiceNow.

- Jeżeli jesteśmy firmą mającą jedną relacyjną bazę danych czy jakąś małą hurtownię danych, to właściwie tyle. Ale wraz z wzrostem zaawansowania technologicznego większość organizacji dostrzeże, że dane powinny być w różnych miejscach, bo różne miejsca mają różne przeznaczenie. Rozdzielone silosy danych wymagają jednak narzędzia, które sprawia, że są spójne, ale też bezpiecznie przechowywane i z odpowiednią kontrolą dostępu dla poszczególnych użytkowników. Im większa firma, tym większy chaos danych, a DataZone spina to wszystko w inteligentny katalog - jak komentuje w rozmowie ze Spider’s Web Tomasz Stachlewski, szef działu technologii na region EMEA CEE w Amazon Web Services.

Zero-ETL. Rodzaj i źródło danych ma klienta nie obchodzić.

ETL (Extract, Transform, Load) to skrót, jakim się określa proces integracji danych, łączący dane z różnych źródeł do nowego, poddawanego analizie. To fundament analityki danych, w tym uczenia maszynowego. I czasochłonny, niejednokrotnie też i kosztowny proces. Niestety często nieuchronny. Informatyka rozwija się w niesamowitym tempie, a niegdyś nowoczesne rozwiązania są błyskawicznie zastępowane przez jeszcze nowsze, jeszcze sprawniejsze i wydajniejsze. Im dłużej funkcjonuje dana organizacja, tym więcej przestarzałych systemów je spowalnia. Bo proces ETL coraz bardziej się wydłuża.

To ma w coraz mniejszym i mniejszym stopniu dotyczyć klientów Amazon Web Services. Począwszy od integracji Amazon Aurora z Amazon Redshift oraz Amazon Redshift i Apache Spark. Za sprawą pierwszej z nich dane transakcyjne są automatycznie i stale replikowane w kilka sekund po zapisaniu ich do Aurory i od razu dostępne w Redshifcie, gdzie mogą zostać poddane błyskawicznej analizie. Podobnież z open-source’owym Sparkiem: klienci mogą teraz budować sparkowe aplikacje z bezpośrednim połączeniem do danych w ramach Redshift.

 class="wp-image-3040359"
Integracje zero-ETL w AWS

- Tendencja, którą widzimy w świecie IT i biznesu jest taka, że firmy chcą coraz bardziej skupiać się na biznesie i aplikacjach do analizy danych, a nie na zarządzaniu infrastrukturą – mówi Tomasz Stachlewski w rozmowie ze Spider’s Web, szef działu technologii na region EMEA CEE w Amazon Web Services. - Dane w firmach tymczasem są w różnych miejscach, bo różne miejsca są dedykowane różnym celom. Jest hurtownia danych, bazy relacyjne z bazami transakcyjnymi i tak dalej. – dodaje.

- Koniec końców jednak chcemy te dane przenosić. Do tej pory firmy musiały inwestować czas i zasoby IT, by budować ręcznie procesy ETL pod każdą nową potrzebę, a potem jeszcze je utrzymywać, czyli kolejne koszty. Myśląc zero-ETL w Amazonie, z punktu widzenia hurtowni danych, owa hurtownia widzi bezpośrednio dane w bazach relacyjnych i nie trzeba budować tych przepływów, za to płacić i tracić czas, a przy okazji jest to szybsze - jak przekonuje Stachlewski.

Halo, policja? Proszę przyjechać do mojej chmury, Security Lake podniósł alarm.

Amazon Security Lake to nowa usługa, służąca do automatycznej unifikacji zarządzania bezpieczeństwem danych, zarówno tych przechowywanych w chmurze, jak i znajdujących się na terenie przedsiębiorstwa czy organizacji. Unifikacja danych i interfejsów ma umożliwić przede wszystkim szybsze reagowanie na ewentualne zagrożenia.

Amazon Security Lake konwertuje wszystkie związane z bezpieczeństwem dane do otwartego formatu Apache Parquet i korzysta z OCSF (Open Cybersecurity Schema Framework), dzięki czemu może współpracować z innymi, w tym konkurencyjnymi rozwiązaniami do cyberbezpieczeństwa. Unifikacja i centralizacja danych, w połączeniu z algorytmami SI Amazonu, to obietnica błyskawicznego wykrywania i analizowania cyberzagrożeń bez pozbywania się unikalnych zalet, jakie oferują inne systemy cybersecurity, z jakich klient korzysta lub może korzystać. Wymiana informacji o cyberzagrożeniach i cyberprzestępcach leży wręcz w fundamencie polityki bezpieczeństwa AWS.

 class="wp-image-3040362"
Amazon Security Lake

- Bardzo blisko współpracujemy z konkurentami na rynku chmur publicznych w kontekście cyberbezpieczeństwa – jak mówi Mark Ryland, specjalista ds. cyberbezpieczeństwa w AWS w rozmowie ze Spider’s Web. - Wszyscy płyniemy na tej samej łodzi, wszyscy stawiamy czoła tym samym zagrożeniom, często też służymy dokładnie tym samym klientom. Więc jak najbardziej chcemy blisko i ze wszystkimi współpracować. Potwierdził też dopytany, że również z rządowymi agencjami wywiadowczymi.

Zapytany, czy w związku z coraz bardziej otwartą cyberagresją ze strony Rosji i Chin klienci chmur publicznych powinni być świadomi zupełnie nowego rodzaju zagrożeń i ataków, udzielił dość uspokajającej odpowiedzi. - To są zaawansowane i bardzo ukierunkowane ataki. Typowy klient AWS nie jest celem tych podmiotów - jak twierdzi. Choć dodaje, że to nie zwalnia firmy z prowadzenia właściwej polityki bezpieczeństwa. Bo, fundamentalnie, metody hakerów rządowych nie różnią się aż tak bardzo od pospolitych cyberprzestępców.

- Security Lake to jedno. Firma jest jednak odpowiedzialna za fundamentalną edukację swoich pracowników. Wiele ataków, obcych wywiadów czy cyberprzestępców, często zaczyna się od prostej inżynierii społecznej w formie fałszywych próśb o hasło czy relatywnie prostych ataków phishingowych - jak zauważa. Błędy jednak się zdarzają, a Security Lake ma zapewnić możliwość szybkiej obrony i minimalizacji ewentualnych strat.

Czy jest miejsce na działalność bez chmury?

A raczej: dlaczego dalej niektóre organizacje i przedsiębiorstwa z tej chmury nie korzystają? Wyniki w Polsce na tle Europy są szczególnie złe. Konkurencja z innych regionów Unii Europejskiej uczy się przetwarzać dane i wyciągać z nich wnioski, podczas gdy polskie firmy nadal wydają się podchodzić do publicznej chmury, takiej jak AWS, Azure czy Google Cloud, w sposób bardzo niespieszny. Brak zaufania? Brak możliwości praktycznego wykorzystania? Za wysokie ceny? Brak wiedzy?

- Gdzie nie odwiedzamy klientów, wszyscy wiedzą, że chmura to przyszłość. Rzeczywiście Polska jest nieco w tyle ogona, z wielu różnych przyczyn. Ale nie widzę tego w czarnym scenariuszu, bo trendy dla Polski wyglądają bardzo korzystnie. No i korzyści związane z obniżeniem zużycia energii również przekonuje coraz większą liczbę firm - przekonuje Tomasz Stachlewski w rozmowie ze Spider’s Web, szef działu technologii na region EMEA CEE w Amazon Web Services. Okazuje się, że coraz częściej nawet same rachunki za prąd stają się wystarczająco przekonujące.

REKLAMA

- Po pierwsze, coraz więcej firm chce pokazywać swój wpływ na środowisko. Już na dzień dobry nasze raporty o tym, ile ty jako klient generujesz u nas CO2 i masz taki a taki wpływ na środowisko. Firmy poszukują takich informacji, bo chcą pokazywać swój malejący wpływ na środowisko. To, że my się unowocześniamy sprawia, że i firmy końcowe malejący wpływ u siebie. Ale też i po drugie, jest to po prostu tańsze. Mniejsze zużycie prądu przez chmurę sprawia, że ta jest jeszcze bardziej optymalna dla klienta końcowego. A oszczędności finansowe interesują wszystkich. I wszyscy ciągną do chmury – opowiada Stachlewski.

Chmura obliczeniowa to jednak zdecydowanie nie tylko sposób na rosnące ceny energii. To wręcz korzyść drugorzędna w porównaniu do uproszczenia i przyspieszenia przetwarzania danych. Amazon Web Services to nie tylko największa, ale i najstarsza chmura świata. AWS nie tylko pilnuje, by być również najnowocześniejszą - ale też reaguje na kolejne wyzwanie. Konkretniej, jak dotrzeć do tych, którzy zalet chmury nie są świadomi lub nie potrafią ich odnieść do swojej działalności. Przed Amazonem, podobnie jak przed jego konkurencją, jeszcze nadal wiele pracy.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA