REKLAMA

Czy to już? Boom na Chatboty mija, bo stoją w miejscu

Przez półtora roku królowania sztucznej inteligencji dostępne technologie zrobiły marginalny postęp. To czym się zachwycamy z lekka powiewa odgrzewanym kotletem, któremu dołożyliśmy ziemniaków z koperkiem poprzez namiętną eksploatację.

23.03.2024 19.30
Czy to już? Boom na Chatboty mija, bo stoją w miejscu
REKLAMA

Dzień, w którym OpenAI upubliczniło prawdopodobnie najpopularniejszego czatbota świata był kamieniem milowym na wielu frontach. Nagle niczym w mitologii greckiej Prometeusz Sam Altman dał ludziom narzędzie, z którym mogli bez ograniczeń konwersować. Narzędzie to - o wdzięcznym imieniu ChatGPT - potrafiło odpowiedzieć na każde pytanie, wygenerować sugestie treści, tytułu czy szkieletu dłuższej publikacji. Można z nim normalnie porozmawiać, ale i figlarnie ciągnąć bota za język, aż się podłoży i powie, że jest świadomy lub powie coś niemiłego na temat swoich twórców.

Dla wielu był to przełom, który można porównać do pierwszego zachwytu telefonem komórkowym, który nie potrzebował kabla do działania, a jednocześnie można było na nim zmienić tapetę, ustawić alarm, a w komunikacji ograniczyć się do wiadomości tekstowych. Jednak zachwyt to jedyne co obecna generatywna sztuczna inteligencja ma wspólnego z nowatorskością.

REKLAMA

ChatGPT początkiem ekscytacji. I w sumie tylko tego

Cofnijmy się do listopada 2022 r. OpenAI oddaje w wolnym dostępie ChatGPT. Dostęp do ChatGPT nie miał restrykcji innych niż konieczność założenia konta (i być może dla nas, minimalnej znajomości języka angielskiego, by nie zgubić się w interfejsie), co w mig sprawiło, że czatbot wspiął się na szczyt rankingów popularności i trendów.

Technologia stojąca za ChatGPT nie była jakkolwiek nowa. Jak wciąż możemy przeczytać na stronie OpenAI, ChatGPT (znany również jako ChatGPT-3.5) to bliźniaczy model do modeli InstructGPT, "który jest przeszkolony do wykonywania instrukcji w podpowiedzi promptcie i udzielania szczegółowej odpowiedzi". InstructGPT z kolei to po prostu rodzina modeli, które są niczym innym jak dostrojonym modelem GPT-3, lepszym od niego w odpowiadaniu na ludzkie instrukcje. Rozmawiając z ChatGPT, rozmawiamy de factoz doszlifowanym modelem GPT-3, który OpenAI udostępniło trzy lata temu.

Cała rodzina modeli GPT-x to nie tylko sztandarowa marka OpenAI. Skrót GPT odnosi się do "generative pre-trained transformers" ("wstępnie wytrenowane transformatory generatywne"), typu sieci neuronowych sztucznej inteligencji wykorzystanych do przetwarzania języka naturalnego. Wszystkie GPT - niezależnie czy są tworami OpenAI, Microsoftu, Google, Mety, Anthropic - mają początek w publikacji Google "Attention is All you Need" z roku 2017, która opisuje architekturę głębokiego uczenia "transformer", będącą kluczem działania wszystkich GPTów. Dlatego wiek technologii będącej sercem ChatGPT można spokojnie szacować na więcej niż trzy lata.

Można by odnieść wrażenie, że nie stoimy jednak w miejscu. Przecież usługi Microsoftu są teraz wypchane po brzegi Copilotem, który robi prawdziwe cuda na kiju, a ChatGPT nie jest aż tak głupi jak był na początku

Nie mówimy tu jednak o rozwoju technologicznym, a rozwoju społecznym.

My zmieniliśmy się bardziej niż technologia...

ChatGPT został oddany do użytku w ramach eksperymentu, "y zebrać opinie użytkowników i przekonać się o mocnych i słabych stronach czatbota. Z podstawowej wersji ChatGPT może skorzystać każdy - zarówno inżynier uczenia maszynowego, entuzjasta AI spędzające całe dni w serwisie Reddit, jak i hipotetyczny Arek z Lęborka, któremu bratanek powiedział, że jest taka strona, którą można zapytać o wszystko. To właśnie sprawiło, że giganci tech zyskali coś, czego żadna ilość mocy obliczeniowej i zatrudniania najbardziej prominentnych ekspertów by im nie dała - akceptację społeczną sztucznej inteligencji.

Mówimy tu o generatywnej AI, a nie silnej sztucznej inteligencji. Infantylny czatbot OpenAI pozwolił oswoić się społeczeństwu w skali globalnej z myślą, co potrafi i może potrafić AI. Że sztuczna inteligencja to nie eksperymenty z czipami w mózgach i tworzenie potencjalnie niebezpiecznych robotów, lecz coś, co może pozwolić zabić czas, wspomóc w rozwiązaniu problemu, albo zacząć halucynować i napisać coś głupiego, co sprawi, że zwątpisz w realne zagrożenie, jakie może przynieść za sobą ta technologia.

... ale i zmieniliśmy technologię

Inna kwestia to same dane, jakie zaczęto zbierać za sprawą popularności czatbota. Każde zapytanie, każdy prompt proszący o wyręczenie w kreatywnym pisaniu, czy każda rozmowa z ChatGPT dawała OpenAI niezbędne dane. To nie tylko dane do treningu AI, ale także podpowiedź co inżynierowie powinni usprawnić. Generatywna AI od pamiętnego listopada 2022 staje się coraz lepsza w rozumieniu intencji rozmówców, a jej język rozkwita. Możliwe jest tylko za sprawą powiększenia się zasobów danych, jakimi dysponują twórcy danych modeli.

Owczy pęd dowodem na dystrybucję ochłapów

Z całym szacunkiem do Microsoftu i Google'a, ale awykonalnym jest stworzeniem dużego modelu językowego od zera. To kwestia wielu miesięcy ciężkiej pracy, być może i lat, by zebrać dane dla modelu, dać sieci neuronowej się rozrosnąć, a na końcu dostroić model i upewnić się, że odpowiedzi generowane przez niego nie sprawią, że Unia Europejska lub Kongres będą domagać się wyłączenia danej AI. Pokazanie czatbota Bing i Barda zajęło obu koncernom jedynie dwa miesiące. Zaimplementowanie generatywnej AI w usługi i produkty Microsoftu i Google to kwestia kolejnych trzech. odczas gdy sam okres oczekiwania pomiędzy nowymi modelami z serii GPT-x od OpenAI wynosił około roku. Dlatego kalkulacja jest prosta - technologia i możliwości już były, nie było tylko iskierki, która dałaby sygnał, że oddanie w ręce statystycznego Kowalskiego generatywnej sztucznej inteligencji to dobry pomysł.

Nie twierdzę, że sztuczna inteligencja się nie rozwija. Myślę wręcz przeciwnie, że krok po kroku, cegiełka po cegiełce, każdy miesiąc przynosi coś nowego i ekscytującego dla uczenia maszynowego i sztucznej inteligencji jako dziedziny naukowej. Jednak z tej konsumenckiej perspektywy, gdzie AI to ficzer, nowa funkcja, nowe narzędzie, my przez ponad rok nie otrzymaliśmy żadnej nowej technologii. Jak określił mój redakcyjny kolega, z którym dyskutowałam na ten sam temat - otrzymujemy ochłapy, przemielone przez kilka lat rozwoju technologii transformer i na siłę wklejone do różnych usług, bo należy dotrzymać kroku konkurencji.

Cieszy mnie, że istnieją takie technologie jak Galaxy AI czy Copilot, a stworzenie Gemini Nano stanowi kamień milowy dla każdej AI w przyszłości działającej na smartfonach, jednak czasami chciałabym rano wstać, otworzyć mój przegląd prasowy i zobaczyć innowację inną niż "ta aplikacja wprowadza czatbota".

REKLAMA

Może zainteresować cię także:

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA