Sprawdzili, co się dzieje, gdy zadajesz pytanie botowi. Szokujące informacje na temat ChataGPT
Czy kiedykolwiek zastanawialiście się, ile zasobów pochłania jedno zapytanie do ChatGPT? Może się wydawać, że to tylko kilka linijek tekstu, ale rzeczywistość jest znacznie bardziej skomplikowana.
Liczby są szokujące. Napisanie przez ChatGPT wiadomości składającej się ze 100 słów np. maila, zużywa litr wody pitnej, która jest przeznaczana do chłodzenia serwerów i zamienia się w tym procesie w parę wodną. Ilość energii, jaka jest potrzebna do tego procesu wystarczyłaby na zasilenie 14 żarówek LED przez godzinę. Takie są najnowsze wyniki badań naukowców z Uniwersytetu Kalifornijskiego w Riverside.
Więcej o sztucznej inteligencji przeczytasz na Spider`s Web:
Woda niezbędna do życia sztucznej inteligencji
Shoalei Ren, współautor badania, wyjaśnia, że centra przetwarzania danych zużywają ogromne ilości wody na dwa sposoby.Po pierwsze, ośrodki te czerpią energię elektryczną z elektrowni, które wykorzystują duże chłodnie kominowe, przetwarzające wodę w parę wodną emitowaną do atmosfery.
Po drugie, setki tysięcy serwerów w centrach danych muszą być chłodzone, ponieważ elektryczność przepływająca przez półprzewodniki stale generuje ciepło. Wymaga to systemów chłodzenia, które, podobnie jak elektrownie, są zazwyczaj podłączone do chłodni kominowych, które zużywają wodę, zamieniając ją w parę.
To naprawdę krytyczny moment, aby odkryć i zająć się ukrytym śladem wodnym sztucznej inteligencji (AI) pośród coraz poważniejszego kryzysu niedoboru słodkiej wody, pogłębiających się długotrwałych susz i szybko starzejącej się publicznej infrastruktury wodnej
- piszą autorzy badania.
Magia wielkich liczb
Badacze obliczyli, że w skali roku, jeśli co dziesiąty pracujący Amerykanin używałby ChatGPT raz w tygodniu do napisania e-maila, zużycie wody wyniosłoby 435 mln l, a zużycie energii 121 517 megawatogodzin.
A przecież ChatGPT to tylko wierzchołek góry lodowej. Za każdym razem, gdy korzystamy z wyszukiwarki, oglądamy film na platformie streamingowej czy gramy w grę online, pochłaniamy ogromne ilości energii.
Oczywiście cyfry te muszą robić i robią wrażenie, ale magia wielkich liczb nie powinna przesłaniać nam perspektyw rozwoju. Oczywiście nie jestem za marnotrawieniem wody - wręcz przeciwnie - sam ją oszczędzam i zachęcam do tego innych.
Przyjrzyjmy się jednak faktom. Na przykład, około dwutygodniowe szkolenie w ramach programu GPT-3 AI w najnowocześniejszych centrach danych Microsoftu w USA pochłonęło około 700 000 l słodkiej wody, czyli mniej więcej tyle samo, ile zużywa się do produkcji około 370 samochodów BMW lub 320 elektrycznych pojazdów Tesla.
Jeśli więc szukałbym gdzieś oszczędności wody, to raczej w produkcji samochodów dla zamożnych klientów, niż tylko w sztucznej inteligencji, która odmienić może życia każdego z nas.
Zdjęcie główne: PixieMe / Shutterstock