Amazon Development Center w Gdańsku zaskoczyło. Nie wiedziałem, że to my tworzymy mózg Alexy
Czy wiesz, że technologia stojąca za twoim serialem na Netfliksie i asystentem głosowym ma swoje korzenie nad Bałtykiem? Zajrzałem za kulisy Amazon Development Center Poland (ADCP) w Gdańsku, by zobaczyć, jak polskie zespoły wpływają na globalny rozwój giganta.

Odwiedziłem miejsce, które zostało mi przedstawione jako wyjątkowe, absolutnie niezwykłe, czyli Centrum Rozwoju Technologii Amazon. Naszym gospodarzem był Remus Mois, lider polskiego oddziału Ring w Amazon Devices.

Powitał nas w budynku oznaczonym wewnętrznym kodem GDN 11. To największy z trzech oddziałów Amazon Development Center Poland (pozostałe mieszczą się w Warszawie i Krakowie), miejsce o bogatej historii.
Obecność firmy nad Wisłą zaczęła się bowiem od akwizycji Ivona Software – tej, którą znacie od memicznych filmów sprzed dekady – blisko 13 lat temu. Choć pionierskie biuro mieściło się w Gdyni, a założyciele wywodzili się z Politechniki Gdańskiej, to właśnie Gdańsk stał się ważnym na skalę światową centrum technologicznym. Dziś gdańskie centrum to nie tylko prace nad syntezą mowy (od której wszystko się zaczęło). Wewnątrz biurowca pracują zespoły rozwijające technologie dla Fire TV, AWS (w tym Database Migration) oraz systemy bezpieczeństwa domowego w ramach grupy RBKS (Ring, Blink, Key for Business, Sidewalk). Wizytówką placówki są laboratoria, w których odbywa się cykl produkcyjny i testowy urządzeń – to tam inżynierowie sprawdzają, jak hardware radzi sobie w rzeczywistych warunkach.
Wpływ AI na codzienną pracę w Amazon
Skoro AI jest już wszędzie, zapytaliśmy liderów o to, jak technologia wygląda z ich perspektywy.


Jak AI zmieniło wasze codzienne życie?
Remus Mois: Nie wyobrażam sobie dziś pracy bez wsparcia sztucznej inteligencji. Korzystam z niej na co dzień przy wielu zadaniach — od streszczania dokumentów po tworzenie planów czy prezentacji. AI zdecydowanie przyspiesza i ułatwia wykonywanie obowiązków.
Agnieszka Nalepa (liderka odpowiedzialna za rozwój polskiego ośrodka Amazon Artificial General Intelligence Data-Services): Jesteśmy w stanie robić znacznie więcej, ale również podnosić jakość naszej pracy. Nasi programiści wykorzystują wewnętrzne, bezpieczne narzędzia AI, takie jak Amazon Bedrock, do tworzenia aplikacji AI dla pracowników Amazon. Te aplikacje, obejmujące asystentów pisania AI i chatboty, narzędzia do tworzenia aplikacji oraz generatory obrazów, usprawniają przepływ pracy, poprawiają jakość pisania, automatyzują zadania i inspirują do nowych pomysłów. Dzięki nim mogę się skupić na bardziej kreatywnych zadaniach.
Laboratoria i narodziny Alexa+

Polskie zespoły kontynuują prace badawczo-rozwojowe nad syntezą mowy dla Alexy. W międzyczasie rozpoczęto działania w innych obszarach, takich jak Fire TV, AWS oraz systemy bezpieczeństwa dla domu: Ring, Blink i Sidewalk.
Podczas wizyty, Maciej Chmielarz, menadżer inżynierii oprogramowania w zespole Alexa w Gdańsku, przybliżył historię tej opartej na chmurze usługi głosowej Amazon. Jej wizja narodziła się w 2011 r., kiedy zainspirowany komputerem z serialu Star Trek zespół naukowców postanowił zbudować komputer w chmurze kontrolowany głosem.
Wizja ta stała się możliwa dzięki postępowi w mocy obliczeniowej, dostępności dużej ilości danych oraz rozwojowi algorytmów sztucznej inteligencji. Obecnie z Alexy korzystają setki milionów klientów na ponad 600 milionach urządzeń.
Czym jest Alexa+ według Amazon?

Niedawne, przełomowe odkrycia w dziedzinie dużych modeli językowych umożliwiły zrozumienie kontekstu i radzenie sobie ze złożonym rozumowaniem. Nowa generacja asystenta AI, nazwana Alexa+, wykorzystuje generatywną sztuczną inteligencję. Jest ona mądrzejsza, bardziej konwersacyjna, spersonalizowana i potrafi realizować zadania dla jej użytkowników. Może także zrozumieć kontekst wypowiedzi i prowadzić naturalne, płynne rozmowy.
Alexa+ potrafi obsługiwać złożone wieloetapowe prośby, które wymagają koordynacji między wieloma usługami. Może pomóc w zaplanowaniu podróży czy skoordynowaniu kalendarza rodzinnego. Jako osobisty asystent potrafi zarezerwować stolik w restauracji (np. za pomocą usługi Open Table) czy ostrzec o potencjalnym konflikcie w zaplanowanych wydarzeniach - na przykład, gdy trening dziecka koliduje z odebraniem dziadków z lotniska - oferując jednocześnie rozwiązanie, takie jak zamówienie przejazdu Uberem. Ponadto potrafi przeanalizować, zapamiętać i podsumować długi e-mail lub dokument.

Maciej Chmielarz podkreślił, że gdańskie ADCP było kluczowe w rozwoju asystentki od samego początku, ponieważ to z Polski pochodzi technologia syntezy mowy. Jest ona aktywnie rozwijana po dziś dzień, a zespół Chmielarza pracuje też nad rozwiązaniami związanymi z analizą danych na potrzeby decyzji biznesowych podejmowanych na najwyższym szczeblu.
Czym różni się podejście Amazon do AI od firm takich jak Google czy OpenAI?
Agnieszka Nalepa: Praktyki rynkowe bywają różne a nasze podejście do sztucznej inteligencji, można określić jako "AI for builders". Skupiamy się na tworzeniu praktycznych rozwiązań, które można realnie wykorzystać w dużej skali biznesowej. Co istotne, wierzymy, że jeden model AI nie będzie w stanie obsłużyć wszystkich możliwych zastosowań - przyszłość należy do różnorodnych, specjalistycznych rozwiązań dostosowanych do konkretnych potrzeb. Nasze podejście oznacza, że udostępniamy pełen stos technologiczny – modele, agenty, bezpieczeństwo, narzędzia wdrożeniowe – wszystko zintegrowane w usługach takich jak Bedrock czy AgentCore. To podejście jest bardzo pragmatyczne. Nasze rozwiązania projektujemy po to, by działały w rzeczywistych łańcuchach wartości i stąd tak mocne umocowanie ich w operacjach, obsłudze klienta czy retailu. Jednocześnie, bardzo dużą wagę przykładamy do bezpieczeństwa, prywatności i odpowiedzialnego wpływu technologii na miejsca pracy. I co ważne, wyznajemy zasadę „working backwards”, czyli zaczynamy od realnej potrzeby klienta, zamiast budować technologię dla samej technologii. W efekcie sztuczna inteligencja ma stać się czymś, co działa niemal niewidocznie – jako element, który ma być obecny w tle, naturalnie wspierać decyzje, przyspieszać pracę i zwiększać bezpieczeństwo.
Chmura AWS jako worek klocków LEGO

Tomasz Stachlewski, Head of Solutions Architecture Amazon Web Services (AWS), określił chmurę obrazowo jako „worek klocków LEGO”. AWS, jako największa chmura obliczeniowa na świecie, zapewnia wirtualne serwery, analitykę, sztuczną inteligencję, robotykę i satelity. Ekosystem działa w oparciu o ponad 120 lokalizacji i ponad 700 punktów brzegowych na świecie.
Amazon zbudował własną globalną sieć przesyłową o długości 9 milionów km - to dystans równy jedenastokrotnym podróżom z Ziemi na Księżyc i z powrotem. Jest „jak prywatny internet”, gwarantujący bezpieczeństwo firmom. AWS oferuje również rozwiązania dla krawędzi sieci, takie jak Snowmobile (ciężarówka do szybkiego przesyłu danych, często określana jako największy pendrive na świecie) oraz Snowball (solidne walizki). To właśnie te rozwiązania umożliwiły bezpieczne zgranie krytycznych danych rządowych podczas wybuchu wojny na Ukrainie.
AWS jest wszędzie
Miliony firm na całym świecie korzystają z AWS, choć często nie zdajemy sobie z tego sprawy. Cały Netflix, a także Disney Plus i HBO Max, opiera się na chmurze Amazon. W Polsce Onet oraz serwisy VOD jak Player działają na podstawie AWS.

AWS oferuje dostęp do setek modeli sztucznej inteligencji z całego świata, w tym od OpenAI i Anthropic. Jest to kluczowe, bo warto mieć wybór modelu, który jest najlepszy na dany dzień. Mariusz Momotko i Jakub Dębski zademonstrowali, jak można wykorzystać klocki AWS (jak Amazon Transcribe) do stworzenia interaktywnej bazy wiedzy z transkrypcji wideo w ciągu kilku godzin. Wykorzystali do tego model językowy Amazon Nova, który jest współtworzony przez zespoły pracujące w Gdańsku, skupiające się na optymalizacji wykonania tych modeli – czasie odpowiedzi i kosztach.
Tymczasem Agnieszka Nalepa, liderka polskiego ośrodka Amazon AGI DS (Amazon MLS), podkreśliła, że jej organizacja dostarcza dane do szeroko pojętego uczenia maszynowego, odpowiadając za ich walidację i podążanie za jakością. Zespół AGI DS przeszedł z dostarczania masowych ilości danych do wykonywania skomplikowanych ewaluacji, stawiając jakość jako priorytet numer jeden.
Czy powinniśmy się bać, że AI zabierze nam pracę?
Agnieszka Nalepa: W miarę jak integrujemy zaawansowaną technologię, charakter pracy się zmienia. Niektóre role obejmujące powtarzalne zadania fizyczne - szczególnie w naszej sieci logistycznej - będą ewoluować, podczas gdy pojawią się nowe możliwości wymagające innych umiejętności. Automatyzacja już teraz usprawnia naszą pracę, dostarczając pracownikom lepszych narzędzi, tworząc bezpieczniejsze środowisko i uwalniając czas na zadania o wyższej wartości.
Remus Mois: Widzimy wyraźną potrzebę adaptacji — a konkretnie podnoszenia kompetencji, tzw. upskillingu. Niektóre zadania będą wykonywane inaczej, co więcej, część już teraz wygląda zupełnie inaczej niż kiedyś. Ludzie muszą rozwijać umiejętność dostosowywania się, aby skutecznie wykorzystywać AI w swojej pracy. Same zadania zasadniczo się nie zmieniają, lecz zmienia się ich skala — dzięki AI jesteśmy w stanie zrobić znacznie więcej w krótszym czasie. To oznacza, że trzeba modyfikować procesy, aby nadążyć za tempem pracy lub je dodatkowo zwiększyć.
Polska w wyścigu AI: kluczowa rola gdańskiego R&D
Zespół Agnieszki Nalepy jest niezwykle zróżnicowany, reprezentując pracowników z 13 różnych krajów, mówiących 14 językami i pochodzących z ponad 50 różnych profesji – są wśród nich nauczyciele, lingwiści, prawnicy czy artyści. Liderka podkreśliła, że najbardziej krytyczną kompetencją łączącą tych ludzi jest doskonałość językowa.
Inne liderki, Svitlana Malik i Valeriia Voitenko z AWS, mówiły o budowaniu zaufania w zespole poprzez transparentność, aby inżynierowie czuli się bezpiecznie, by eksperymentować i doprowadzać do powstawania innowacji. W tym duchu działają inicjatywy takie jak Amazon Women in Engineering czy program She Codes with Amazon.
Czy Polska liczy się w wyścigu AI? Nad czym pracują polscy specjaliści w Amazon?
Remus Mois: Zdecydowanie tak. W Amazon Development Center Poland w Gdańsku, Warszawie i Krakowie rozwijamy i tworzymy technologie, które są używane na całym świecie, w kluczowych produktach Amazon. Należą do nich: pakiet modeli generatywnej sztucznej inteligencji Amazon Nova, systemy przetwarzania mowy, rozumienia języka, pracujemy także nad rozwiązaniami dla Ring, w obszarze wizji komputerowej i analizy dźwięku, rozwijamy oprogramowanie dla Fire TV i usługi chmurowe AWS, takie jak Amazon Polly, Amazon Lex, czy AWS Database Migration Accelerator. To projekty mające realne zastosowanie w produktach używanych przez miliony klientów na świecie, na które polski zespół ma ogromny wpływ.
Agnieszka Nalepa: Powiedziałabym nawet, że niewiele dzieje się dziś w tej branży bez udziału polskich specjalistów, naukowców i centrów, w których pracujemy. Intensywnie inwestujemy we współpracę z uczelniami — lokalnie z Politechniką Gdańską w ramach projektów grantowych Funduszu Amazon, a niedługo również z Uniwersytetem Gdańskim. Bardzo cenię współpracę z organizacjami pozarządowymi, na przykład ze Stowarzyszeniem Cyfrowy Dialog, które zajmuje się edukacją i rozwojem kompetencji przyszłości w ramach programu STEM Kindloteka skierowanego do dzieci i młodzieży. Naszym flagowym programem jest „Girls do Engineering”, od pięciu lat wspierający uczennice szkół średnich w odkrywaniu świata inżynierii i nowych technologii. Świetnym przykładem są też automatyzacje i zastosowanie AI w naszych centrach logistycznych, które coraz mocniej integrują procesy logistyczne z technologiami opartymi na sztucznej inteligencji. Siłą Polski są ludzie, ich talenty i rosnący rynek, który wspiera innowacje.

Jak może wyglądać rozwój AI za 5 lat?
Remus Mois: To wielka niewiadoma. Nie wiemy, czy to przyspieszenie będzie się zwiększać, czy w pewnym momencie osiągniemy sufit. Dziś wykorzystujemy generatywną sztuczną inteligencję praktycznie w każdym zakątku firmy, aby uczynić życie klientów lepszym i łatwiejszym, i wierzymy, że wciąż jesteśmy na stosunkowo wczesnym etapie. Trudno dokładnie przewidzieć, jak to się rozwinie w czasie. Patrząc w przyszłość, jesteśmy podekscytowani tym, jak ta technologia zmieni sposób, w jaki wszyscy pracujemy i żyjemy, oraz jak Amazon wprowadza innowacje dla klientów.
Agnieszka Nalepa: Właśnie - dla naszych klientów. To oni dyktują warunki gry. W zależności od tego, jak będą zmieniać się ich potrzeby, tak będą ewoluować narzędzia. To jest proces - obserwujemy go, słuchamy klientów i dostosowujemy się do ich potrzeb.
Więcej od liderów z Amazona usłyszycie w naszym shorcie:
xyz embed
Laboratoria Amazon od kulis: jak powstają Alexa i Ring

Podczas wizyty dowiedzieliśmy się więcej na temat należącej do Amazon marki Ring, która specjalizuje się w rozwiązaniach home security, czyli systemach zabezpieczeń i monitoringu domowego. W skrócie można powiedzieć, że przekształca zwykłą kamerę w inteligentne centrum domowego nadzoru.
Dzięki zaawansowanej technologii, m.in. kamerom 4K z funkcją „Retinal Vision”, użytkownicy mają nie tylko wyraźny obraz w trudnych warunkach oświetleniowych, lecz także dostęp w czasie rzeczywistym za pośrednictwem aplikacji mobilnej. Integracja z opartą na chmurze usługą głosową Amazon Alexa umożliwia zdalną komunikację z gościem bądź dostawcą bez konieczności otwierania drzwi. Ring łączy najnowsze osiągnięcia z obszaru assistive technology i zabezpieczeń z realnymi zastosowaniami w codziennym życiu. To jeden z przykładów na to, jak technologie Amazon przenikają sferę domową i społeczną.
Na koniec zostawiłem coś miłego: dostaliśmy ekskluzywny wstęp do laboratoriów Amazon, które odsłoniły kulisy pracy nad rozwojem asystenta głosowego i urządzeń smart home. Zobaczyliśmy, jak w testowym mieszkaniu Alexa steruje sprzętem i gdzie inżynierowie badają nowe funkcje.

Wizyta rozpoczęła się w zaaranżowanym „mini mieszkaniu”, które służy do testowania scenariuszy z życia codziennego. Zintegrowane urządzenia pozwalają sterować głosem, na przykład włączając mikrofalówkę na określony czas, choć system dba o bezpieczeństwo i odmówi działania, jeśli drzwiczki urządzenia nie były wcześniej otwierane. Ciekawym rozwiązaniem są automatyczne rutyny, w których nowsze wersje asystenta potrafią samodzielnie skonfigurować dom na czas wyjazdu – od oświetlenia po wstrzymanie dostaw – na podstawie zwykłej rozmowy z użytkownikiem.
Najbardziej restrykcyjna część laboratorium to była strefa klatek Faradaya, czyli szczelnych pomieszczeń odcinających fale radiowe, gdzie obowiązuje całkowity zakaz robienia zdjęć. Ale fakt, widziałem, jak inżynierowie testują tam aktualizacje oprogramowania oraz stabilność streamingu wideo z kamer Ring i Blink, symulując sztuczny szum i obciążenie sieci. Równocześnie Amazon zmienia podejście do przetwarzania danych, przenosząc coraz więcej procesów z chmury bezpośrednio na urządzenia, co ma na celu zwiększenie prywatności oraz skrócenie czasu reakcji na polecenia.
AWS uwalnia Kiro
Kiro, zaawansowany asystent AI od Amazon Web Services (AWS), stał się powszechnie dostępny, rewolucjonizując podejście do pisania i testowania kodu. To inteligentne narzędzie wspiera programistów na każdym etapie pracy – od tworzenia kodu i dokumentacji po debugowanie – działając zarówno jako rozszerzenie do popularnych środowisk programistycznych (IDE), jak i za pomocą nowego Kiro CLI w terminalu.
Wyróżnia się unikalnym podejściem opartym na spec-driven development, które wymaga zdefiniowania dokładnych wymagań przed wygenerowaniem kodu. To pozwala na bardziej przewidywalne i precyzyjne rezultaty niż u konkurencyjnych narzędzi. Sam AWS wykorzystał Kiro, aby zaimplementować funkcję w dwa dni zamiast planowanych dwóch tygodni.
Wersja General Availability (GA) wprowadza kluczowe innowacje, w tym property-based testing, które wykracza poza tradycyjne testy, automatycznie generując setki różnych scenariuszy na podstawie zdefiniowanych właściwości. To znacząco zwiększa jakość i niezawodność tworzonego oprogramowania, jak w przypadku weryfikacji cen i dostępności w systemie sprzedaży samochodów. Nowe funkcje ułatwiają także pracę zespołową – Kiro można zintegrować z AWS IAM Identity Center do centralnego zarządzania dostępem i kosztami.
Aby zachęcić młode firmy, AWS uruchomiło specjalny program: startupy mogą otrzymać do 100 licencji Kiro Pro+ za darmo na rok do końca 2025 roku. Kiro jest dostępne dla programistów indywidualnych i zespołów, oferując elastyczne plany subskrypcji i wykorzystując modele takie jak Claude Sonnet 4.5, Claude Haiku 4.5 oraz autorski model Auto.
Nie wiedziałem, że Polska jest tak ważna
Wychodząc z biurowca w gdańskiej Oliwie, trudno mi było uciec od refleksji, że to miejsce skutecznie leczy z naszych narodowych technologicznych kompleksów. Często zakładamy, że przełomowe rzeczy dzieją się „gdzieś tam” – w Dolinie Krzemowej czy Seattle – a my jesteśmy tylko ich konsumentami. Tymczasem przekonałem się, że gdański hub to nie żaden support techniczny, ale jeden z głównych mózgów operacji Amazon.
To tutaj polscy inżynierowie mają realny wpływ na to, jak mądra będzie nowa generacja asystentów i czy chmura, na której stoi połowa Internetu, wytrzyma kolejne obciążenie. Historia, która zaczęła się od Ivony, zatoczyła koło – od prostej syntezy mowy przeszliśmy do generatywnej sztucznej inteligencji, która rozumie kontekst i intencje.
Jeśli więc wieczorem odpalicie swój ulubiony serial na streamingu albo usłyszycie syntezator mowy w nawigacji, pamiętajcie, że spora część tej cyfrowej magii została zaprojektowana przez ludzi, których mijacie w trójmiejskich kawiarniach. I choć na polską Alexę pewnie jeszcze poczekamy, to polski kod wewnątrz Alexy jest już globalnym standardem.






































