Zaczęło się lato, zaczną więc znów dyskusje o kosztach energii, black out'ach, wysychaniu rzek i suszy. Może jeszcze nie ten moment, gdy będziemy walczyć o wodę, ale na pewno ta chwila, gdy musimy zapytać o koszty rozwoju i nie dać zrobić z siebie durniów.
Pisanie "proszę" lub 'dziękuję" do Chata GPT kosztuje OpenAI miliony dolarów – poinformował pod koniec kwietnia Sam Altman, prezes firmy. W polskich mediach potraktowano to głównie jako zabawną ciekawostkę. A szkoda, bo sprawa jest poważna: przypomina o materialnych podstawach obecnego boomu na "sztuczną inteligencję".
Skąd biorą się te koszty?
Każde pytanie zadane chatbotowi – nawet najkrótsze – wymaga przetworzenia danych i wygenerowania odpowiedzi. Im dłuższa wiadomość, tym więcej mocy obliczeniowej trzeba użyć. Potrzebna jest też woda do chłodzenia serwerów. Według badań Uniwersytetu Kalifornijskiego w Riverside, wygenerowanie przez GPT-4 wiadomości składającej się ze 100 słów może zużywać nawet do półtora litra wody.
Zbyt rzadko dyskutujemy o tych materialnych fundamentach "wirtualnej" sztucznej inteligencji. A koszty energetyczne będą rosnąć.
"Globalne zapotrzebowanie na energię elektryczną ze strony centrów danych ma się ponad dwukrotnie zwiększyć w ciągu najbliższych pięciu lat – do 2030 roku będą one zużywać tyle prądu, ile dziś zużywa cała Japonia" – twierdzi Fatih Birol, dyrektor wykonawczy Międzynarodowej Agencji Energii.
Dodajmy, że energia ta – wbrew marketingowym zapewnieniom Doliny Krzemowej – wciąż pochodzi w dużej mierze ze źródeł pogłębiających kryzys klimatyczny, głównie gazu.
Pytanie brzmi więc nie "Ile kosztuje OpenAI wygenerowanie grzecznościowej formułki", lecz "Ile kosztuje nas wszystkich cały ten biznes w kontekście kryzysu klimatycznego"?
Przewidywania Międzynarodowej Agencji Energii są wciąż obarczone dużym stopniem niepewności. Wszyscy eksperci zgadzają się, że popyt na energię dla firm AI wzrośnie – i to znacznie – ale szczegóły są przedmiotem sporu. Nie tylko z banalnego powodu, że trudno przewidywać rozwój nowych technologii kilka lat do przodu. Rzecz w tym, że giganci z Doliny Krzemowej niechętnie dzielą się informacjami na temat tego, ile energii zużywają w wyścigu po zdominowanie rynku AI.
Dziennikarze "MIT Technology Review", prestiżowego czasopisma na temat technologii, próbowali uzyskać informacje od Google, Microsoftu i OpenAI. Bezskutecznie. Zamiast konkretów były korporacyjne ogólniki: że "optymalizują zużycie", że "wspierają zrównoważony rozwój" i że "AI pomoże w walce ze zmianą klimatu".
Mimo tego, dziennikarzom z MIT udało się oszacować kilka rzeczy na podstawie rozmów z ponad 20 ekspertami.
Od 2017 roku centra danych zaczęto coraz częściej projektować i wyposażać z myślą o obsłudze obciążeń związanych ze sztuczną inteligencją, co wiąże się z intensywnym zużyciem energii. W rezultacie do 2023 roku ich zapotrzebowanie na prąd podwoiło się. Według najnowszych danych centra danych odpowiadają dziś za 4,4 proc. całkowitego zużycia energii elektrycznej w Stanach Zjednoczonych.
Samo trenowanie modeli sztucznej inteligencji to kosztowny i długotrwały proces. Szkolenie GPT-4 pochłonęło ponad 100 milionów dolarów i 50 GWh energii – tyle, ile potrzeba do zasilenia San Francisco przez trzy dni.
Najwięcej energii pochłania już nie trening, lecz tzw. inferencja, czyli moment, gdy użytkownik korzysta z modelu, generując odpowiedzi. Szacuje się, że to dziś 80–90 proc. całkowitego zużycia mocy obliczeniowej przez modele sztucznej inteligencji.
Infrastruktura to około 3 tysiące centrów danych w USA, z czego rosnąca liczba obsługuje właśnie te modele. Dokładna liczba nie jest znana – to dane ściśle strzeżone przez branżę.
Swoją drogą, Big Tech buduje też centra danych w Polsce – i nie grzeszy pod tym względem przejrzystością. Pisze o tym w książce Bóg Techy Sylwia Czubkowska, pokazując, jak trudne jest uzyskanie informacji na temat lokalizacji centrów danych Microsoftu w Polsce. Firma chwali się trzema ośrodkami w rejonie Warszawy, spełniającymi najwyższe standardy bezpieczeństwa, ale nie ujawnia, gdzie dokładnie się znajdują. Autorka wytropiłą jedną z możliwych lokalizacji w Sękocinie Starym. Inwestycja sąsiaduje z cennym przyrodniczo rezerwatem Stawy Raszyńskie, ale ani lokalne władze, ani mieszkańcy nie byli świadomi jej skali i potencjalnego wpływu na środowisko – tym bardziej, że nie przeprowadzono żadnej analizy oddziaływania ekologicznego.
Emisyjność? Przeciętna kilowatogodzina zużywana przez centra danych odpowiada za o 48 proc. więcej emisji CO₂ niż średnia krajowa w USA. Dzieje się tak, bo wiele z tych centrów działa w rejonach z "brudną" energią – np. w Wirginii czy Pensylwanii, gdzie dominują elektrownie węglowe. Do tego serwery pracują non stop, także wtedy, gdy energia z czystych źródeł nie jest dostępna.
Do danych zebranych przez "MIT Technology Review" można dorzucić jeszcze jedną informację pochodzącą ze raportu środowiskowego Google’a. Na jego marginesie firma przyznaje: "Nasza całkowita emisja gazów cieplarnianych wyniosła 14,3 miliona ton, co oznacza wzrost o 13 proc. w porównaniu z rokiem poprzednim i aż o 48 proc. w porównaniu z rokiem bazowym 2019. Głównymi przyczynami tego wzrostu były rosnące zużycie energii w centrach danych oraz emisje związane z łańcuchem dostaw".
Największym truciciel w mieście
Skala sektora sztucznej inteligencji jest tak duża i tak rozproszona, że jego wpływ na konkretne miejsca łatwo umyka. Dlatego warto czasem przyjrzeć się temu, co się dzieje, gdy jakaś firma technologiczna buduje swoją bazę w danym mieście.
Doskonałym przykładem jest firma Elona Muska – xAI.
Pewnie wielu z was kojarzy Groka. To bot zintegrowany z platformą X – chętnie wykorzystywany przez użytkowników tej platformy. Został stworzony właśnie przez xAI. Okazuje się, że potrzeby energetyczne tej firmy są ogromne, szczególnie dla zasilenia superkomputera Colossus znajdującego się w Memphis.
Jakie rozwiązanie znalazło xAI? Dziesiątki turbin gazowych na metan. Żadna z nich nie ma systemów oczyszczania spalin wymaganych przez prawo federalne. Firma nie ma też odpowiednich pozwoleń.
W ciągu niespełna roku xAI stało się jednym z największych źródeł emisji tlenków azotu w hrabstwie Shelby. Turbiny emitują od 1200 do 2000 ton tych gazów rocznie — więcej niż pobliska elektrownia gazowa czy rafineria.
A warto dodać, że zakład działa w rejonie, który już wcześniej miał problemy ze smogiem. "Nie mogę oddychać we własnym domu" – skarżyła się jedna z mieszkanek podczas spotkania publicznego na temat turbin.
Jak firmie Muska udało się uruchomić turbiny niespełniające norm krajowych? Skorzystano z luki w amerykańskich przepisach środowiskowych, która pozwala na tymczasowe instalacje bez konieczności uzyskania federalnych zezwoleń na emisję szkodliwych substancji, takich jak tlenki azotu czy formaldehyd. Przedstawicielka xAI tłumaczyła, że turbiny są rozwiązaniem przejściowym — mają działać tylko do czasu podłączenia zakładu do sieci energetycznej.
Fot. Shutterstock / Lightspring
Zdaniem Karen Hao, autorki książki Empire of AI, takie działania firm zajmujących się sztuczną inteligencją to reguła, a nie wyjątek. Dziennikarka porównuje je do starych potęg imperialnych. Przyznaje, że to metafora – te firmy nie są tak brutalne jak dawne państwa kolonialne. Niemniej w jej mniemaniu jest to uzasadniona przenośnia, bo giganci technologiczni nie tylko narzucają swoją wizję rozwoju całemu światu, ale też – jak mówi – "zajmują ziemię pod nowe centra danych, zawłaszczają dane, które ludzie publikowali w sieci nieświadomi, że zostaną one skomercjalizowane i zamienione w produkt na sprzedaż".
Niezależnie od tego, czy zgadzacie się z mocną metaforą Hao, pozostaje faktem, że branża technologiczna ma coraz większe wpływy. Mimo początkowych prób państwa nie zdołały wypracować reguł prawnych, które w poważny sposób narzucałyby na nią ograniczenia.
Ustawa budżetowa, którą Partia Republikańska przepchnęła pod koniec maja przez Izbę Reprezentantów, zawiera ciekawy zapis na temat sztucznej inteligencji. Przemknął on niemal niezauważony przez media, a pokazuje doskonale podejście Trumpa i republikanów do branży technologicznej.
Ustawa przewiduje 500 milionów na modernizację systemów rządowych z wykorzystaniem sztucznej inteligencji, ale przy okazji blokuje możliwość tworzenia nowych regulacji dotyczących tej sztucznej inteligencji na poziomie stanowym — oraz unieważnia wiele już istniejących. W praktyce eliminuje to lokalne mechanizmy nadzoru i ogranicza demokratyczny wpływ społeczności na to, jak te technologie będą używane.
Firmy zajmujące się rozwojem sztucznej inteligencji lubią podkreślać, że na dłuższą metę ich wynalazki pomogą w walce z kryzysami środowiskowymi.
Przyznajmy, są przykłady, gdy sztuczna inteligencja okazuje się pożytecznym narzędziem.
Weźmy Aurorę, algorytm stworzony przez Microsoft, który potrafi tworzyć dokładne prognozy pogody nawet do 10 dni naprzód, także w małych skalach przestrzennych. Został on zaprojektowany tak, by można go było łatwo dostosować do prognozowania innych zjawisk – na przykład zanieczyszczenia powietrza, wysokości fal czy nawet rynków energii odnawialnej.
Krokiem dalej byłoby modelowanie nie tylko pogody w poszczególnych regionach, ale klimatu w dłuższej perspektywie. Takie modele też powstają.
Jednym z nich jest ClimaX – model bazowy do prognozowania klimatu, opracowany w 2023 roku przez badaczy z Microsoftu. Zamiast odwzorowywać konkretny model klimatyczny, ClimaX został zaprojektowany tak, by samodzielnie uczyć się wzorców zawartych w danych i wyciągać z nich informacje, który mogły wcześniej umknąć badaczom.
Z drugiej strony modele sztucznej inteligencji mogą być też wykorzystywane w mniej szlachetnych celach z punktu widzenia ochrony środowiska. Pozostając przy przykładzie Microsoftu, kilka lat temu firma ogłosiła współpracę z ExxonMobil, w ramach której koncern naftowy zaczął korzystać z platformy chmurowej Azure. Technologia Microsoftu, wykorzystująca sztuczną inteligencję między innymi do analizy wydajności, ma pomóc w zwiększeniu wydobycia ropy naftowej.
"W tym przypadku sztuczna inteligencja Microsoftu jest bezpośrednio wykorzystywana do wprowadzania na rynek większej ilości paliw kopalnych, które uwalniają gazy cieplarniane" – podsumowała krótko dziennikarska Jude Coleman w tekście dla "Scientific American", najstarszego czasopisma popularnonaukowego w USA.
Tak wygląda na dziś ta dyskusja – przeciwnicy i zwolennicy sztucznej inteligencji mają swoje przykłady. Wyzwaniem dla tych drugich jest to, że największe korzyści z wykorzystania tej technologii na rzecz klimatu są wciąż potencjalne, natomiast zużycie energii i emisje gazów cieplarnianych jak najbardziej realne.
Fot. Shutterstock / Man As Thep
Problem polega również na tym, że – nie łudźmy się – energia potrzebna do zasilania algorytmów sztucznej inteligencji rzadko wykorzystywana jest do tworzenia nowych modeli klimatycznych czy innych rozwiązań wspierających ochronę środowiska. W przeważającej mierze służy napędzaniu systemów takich jak ChatGPT, przeznaczonych dla masowego odbiorcy. Na razie ich główne zastosowania to raczej codzienne, dość przyziemne funkcje: zastępowanie wyszukiwarek internetowych, pomoc w pisaniu prac domowych, redagowanie maili i wiadomości służbowych, czy produkowanie setek tysięcy obrazków i filmików – których przecież i bez tej technologii mieliśmy już aż nadto.
Nie wylogujemy się z tego problemu
Jakiś czas temu "New York Times" opublikował krótki film zatytułowany "Jak firmy zajmujące się sztuczną inteligencją zamieniają się w firmy energetyczne". To trafne podsumowanie rosnącej potęgi gigantów technologicznych. Już wcześniej należeli do grona największych i najbardziej dochodowych korporacji na świecie. Wraz z rozwojem modeli sztucznej inteligencji, które będą zintegrowane z niemal każdym aspektem internetu, ich wpływy tylko się zwiększają. A teraz jeszcze działają w sektorze energetycznym.
Jeśli kiedyś podnoszono alarm, że ta branża wymaga regulacji, dziś powinniśmy już nie bić na alarm, lecz uruchomić syreny przeciwlotnicze. Bo jeśli największe państwa i organizacje pokroju Unii Europejskiej nie zaczną stanowczo działać, to nie one będą regulować działalność tych firm – to korporacje zaczną regulować nasze społeczeństwa, zgodnie z własnym interesem.
Problem w tym, że wciąż zbyt często traktujemy firmy technologiczne jako twory działające w świecie "wirtualnym". A to rodzi złudne wrażenie, że wystarczy się wylogować, by uciec spod ich wpływu. Może nie dziś, może nie jutro, ale pewnego dnia ja, ty i inni po prostu się odłączymy, a one znikną.
To iluzja. Nie bierze pod uwagę, jak głęboko te firmy są już wrośnięte w struktury naszych społeczeństw – i jak bardzo zakorzenione są w rzeczywistości materialnej. Mieszkańcy Memphis nie mogą się po prostu wylogować, by uciec przed wyziewami z turbin Muska. Jeśli nic z tym nie zrobimy, ich los stanie się metaforą nas wszystkich.
TEKST PRZYGOTOWALI
Najnowsze
Aktualizacja: 2025-06-23T18:43:14+02:00
Aktualizacja: 2025-06-23T18:11:35+02:00
Aktualizacja: 2025-06-23T17:32:17+02:00
Aktualizacja: 2025-06-23T17:01:14+02:00
Aktualizacja: 2025-06-23T16:36:20+02:00
Aktualizacja: 2025-06-23T15:50:51+02:00
Aktualizacja: 2025-06-23T15:14:51+02:00
Aktualizacja: 2025-06-23T13:43:13+02:00
Aktualizacja: 2025-06-23T13:04:36+02:00
Aktualizacja: 2025-06-23T12:37:12+02:00
Aktualizacja: 2025-06-23T12:04:17+02:00
Aktualizacja: 2025-06-23T11:28:45+02:00
Aktualizacja: 2025-06-23T10:48:12+02:00
Aktualizacja: 2025-06-23T10:37:24+02:00
Aktualizacja: 2025-06-23T10:07:41+02:00
Aktualizacja: 2025-06-23T09:40:44+02:00
Aktualizacja: 2025-06-23T09:17:47+02:00
Aktualizacja: 2025-06-23T08:53:54+02:00
Aktualizacja: 2025-06-23T08:15:04+02:00
Aktualizacja: 2025-06-23T07:10:02+02:00
Aktualizacja: 2025-06-23T06:30:00+02:00
Aktualizacja: 2025-06-23T06:20:00+02:00
Aktualizacja: 2025-06-23T06:10:00+02:00
Aktualizacja: 2025-06-23T06:00:00+02:00
Aktualizacja: 2025-06-22T19:43:12+02:00
Aktualizacja: 2025-06-22T18:14:43+02:00
Aktualizacja: 2025-06-22T17:15:28+02:00
Aktualizacja: 2025-06-22T16:10:00+02:00
Aktualizacja: 2025-06-22T16:00:00+02:00
Aktualizacja: 2025-06-22T11:28:32+02:00
Aktualizacja: 2025-06-22T10:52:51+02:00
Aktualizacja: 2025-06-22T06:55:00+02:00
Aktualizacja: 2025-06-22T06:44:00+02:00
Aktualizacja: 2025-06-22T06:33:00+02:00
Aktualizacja: 2025-06-22T06:23:00+02:00
Aktualizacja: 2025-06-22T06:12:00+02:00
Aktualizacja: 2025-06-22T06:00:00+02:00
Aktualizacja: 2025-06-21T16:50:00+02:00
Aktualizacja: 2025-06-21T16:40:00+02:00
Aktualizacja: 2025-06-21T16:30:00+02:00