Google szykuje własne satelity. Będą produkować prąd
Project Suncatcher ma być odpowiedzią na rosnący głód energetyczny sztucznej inteligencji. A rozwiązanie? Wyniesienie mocy obliczeniowej… na orbitę.

Zanim przejdziemy do kosmicznych satelitów to warto zrozumieć, co skłoniło Google’a do tak śmiałego kroku. Powód jest prosty i zarazem niepokojący: sztuczna inteligencja pochłania energię w tempie, które grozi przeciążeniem globalnej infrastruktury energetycznej.
Prognozy są niepokojące. Do 2030 r. zużycie energii przez centra danych ma się podwoić i osiągnąć 945 terawatogodzin rocznie - więcej niż obecne zapotrzebowanie całej Japonii. W Stanach Zjednoczonych serwerownie odpowiadają już za około 3 proc. zużycia energii elektrycznej, a do 2028 r. może to być nawet 12 proc.
Czytaj też:
Trening modeli AI wymaga potwornych ilości energii. Sam ChatGPT zużywa ponad pół miliona kilowatogodzin dziennie, a jedno zapytanie do dużego modelu językowego wymaga nawet dziesięciokrotnie więcej energii niż zwykłe wyszukiwanie w Google. Co gorsza wiele centrów danych wciąż działa na paliwach kopalnych, generując ogromne emisje CO₂. Microsoft przyznał niedawno, że jego emisje wzrosły od 2020 r. aż o 29 proc.
Rysuje się więc obraz niepokojącej przyszłości: planeta, której system energetyczny zaczyna się dławić i na której znaczną część obciążenia generują algorytmy AI. Nic dziwnego, że inżynierowie Google’a zadali sobie pytanie: a gdyby przenieść obliczenia w kosmos?
Z takich ambicji narodził się Project Suncatcher
Idea jest zaskakująco prosta: umieścić procesory Tensor Processing Units (TPU), zaprojektowane specjalnie do obsługi sztucznej inteligencji na niskiej orbicie Ziemi i zasilać je energią słoneczną.
Na orbicie heliosynchronicznej panele słoneczne mogą być nawet osiem razy bardziej wydajne niż na powierzchni Ziemi. Brak nocy, brak chmur - tylko nieustanny strumień energii prosto ze Słońca.
Ale to dopiero początek. Satelity miałyby działać w skoordynowanej konstelacji, lecąc w odległości zaledwie setek metrów od siebie, a w przyszłości - w formacjach rozciągających się na kilometry. Połączone optycznymi łączami bezprzewodowymi, tworzyłyby rozproszone centrum danych, w którym każdy satelita pełni rolę węzła. Przepustowość 1,6 terabita na sekundę pozwoliłaby na współpracę niemal tak płynną, jak w tradycyjnych serwerowniach.
Elektronika kontra kosmos
Umieszczenie zaawansowanych chipów w przestrzeni kosmicznej to jednak nie lada wyzwanie. Promieniowanie mogłoby zniszczyć zwykłe układy w kilka lat. Google przygotował się na ten problem - TPU przetestowano w akceleratorze cząstek na Uniwersytecie Kalifornijskim w Davis, symulując wieloletnią ekspozycję na radiację.
Wyniki okazały się zaskakująco dobre. Najnowsze chipy Trillium wykazały wysoką odporność na promieniowanie i działały bez trwałych uszkodzeń nawet przy dawkach przekraczających przewidywane warunki misji. Oczywiście nie da się całkowicie wyeliminować ryzyka - w kosmosie mogą wystąpić drobne błędy, takie jak tzw. bit flipy, gdy cząstki zakłócają zapis danych.
Inżynierska alchemia
Samo wyniesienie chipów na orbitę to dopiero początek. Google musi rozwiązać szereg problemów technicznych:
- Formacja satelitów - zamiast dziesiątek kilometrów odstępu, jak w przypadku Starlinka, satelity Google miałyby lecieć setki metrów od siebie. To wymaga precyzyjnych systemów napędowych i zaawansowanych modeli matematycznych.
- Koszty wynoszenia - dziś kilogram ładunku na niską orbitę kosztuje ok. 1500 dol. Google zakłada, że do połowy lat 30. cena spadnie do 200 dol., a Starship SpaceX może obniżyć ją jeszcze bardziej.
- Zarządzanie systemem - tysiące TPU na orbicie to gigantyczne wyzwanie logistyczne. Potrzebna będzie nowa infrastruktura do synchronizacji, transmisji danych i kontroli pracy satelitów.
Choć niełatwo w to uwierzyć, to to się opłaca finansowo
Google przeprowadził analizy, z których wynika, że przy kosztach wynoszenia rzędu 200 dolarów za kilogram utrzymanie kosmicznego centrum danych mogłoby być porównywalne z naziemnym. A ponieważ satelity mogą działać praktycznie bez przerw w zasilaniu to kosmos zaczyna wyglądać jak realna alternatywa.
Jak ujął to Travis Beals, szef zespołu Paradigms of Intelligence w Google: Jeśli zapotrzebowanie na AI będzie rosło, a my będziemy potrzebować coraz więcej energii, ten projekt ma ogromny potencjał. Ale jak każdy moonshot - nie ma gwarancji sukcesu.
Od planów do startu
Google nie poprzestaje na deklaracjach. Już w 2027 r. mają wystartować dwa satelity testowe przygotowane we współpracy z Planet Labs. Każdy z nich zostanie wyposażony w cztery TPU - niewiele, ale wystarczająco, by sprawdzić działanie systemu w praktyce.
Docelowo firma planuje konstelację 81 satelitów poruszających się w zwartej formacji na wysokości 650 km. Każdy z nich stanie się częścią gigantycznego, rozproszonego superkomputera na orbicie.
Project Suncatcher nie rozwiąże całkowicie problemu energetycznego AI - ma raczej odciążyć infrastrukturę naziemną i zmniejszyć zależność od paliw kopalnych. Krytycy zwracają jednak uwagę na emisje CO₂ związane ze startami rakiet. Jeśli jednak uda się w pełni wdrożyć rakiety wielokrotnego użytku, takie jak Starship, bilans ekologiczny może przechylić się na korzyść kosmicznych inwestycji.
Startują jako pierwsi, ale nie jedyni
Google nie jest samotnym pionierem w tej kosmicznej grze. Jeff Bezos i jego Blue Origin, a także Elon Musk, od dawna snują wizje centrów danych poza Ziemią. Lonestar Data Holdings planował nawet umieścić serwerownię na Księżycu - projekt zakończył się jednak fiaskiem, gdy lądownik przewrócił się podczas misji. Z kolei Starcloud, młody startup współpracujący z Nvidią, stawia na bardziej klasyczne rozwiązanie: modularne kontenery z serwerami umieszczane na orbicie.
Świat technologii wyraźnie przesuwa się w stronę kosmicznej przyszłości. Sztuczna inteligencja stała się tak energochłonna, że tradycyjna infrastruktura nie nadąża za jej rozwojem. Globalna produkcja energii rośnie zbyt wolno, by sprostać wymaganiom nowych modeli.
Czy projekt zakończy się sukcesem? Czy satelitarne centra danych staną się filarem globalnej infrastruktury obliczeniowej? Tego jeszcze nie wiemy. Pewne jest natomiast jedno: jeśli inżynierowie Google’a udowodnią, że TPU mogą działać niezawodnie w kosmosie, że optyczne łącza między satelitami zapewnią odpowiednią przepustowość, a ekonomia przedsięwzięcia się zepnie - będziemy świadkami jednego z najciekawszych momentów w historii informatyki. I to w perspektywie zaledwie dekady.







































