Sięganie po GPT-4 jest jak chwytanie na oślep za nóż. Oni ukrywają przed nami kluczowe informacje
Imponujący model, o którym nikt nic nie wie. Tak w skrócie można opisać GPT-4. Zachwycamy się modelem, ale czy zauważyłeś, że każdej publikacji o modelu brakuje jednej informacji: przebieg treningu. Obecnie płacimy 110 zł za zabawę tykającą bombą.
Nie będę ukrywać, GPT-4 to dla mnie najbardziej wyczekiwana premiera tego roku. Oczywiście, patrząc na wydarzenia ostatniego roku i biorąc pod uwagę dynamikę rozwoju szeroko pojętej technologii, w świecie SI w tym roku zaskoczy nas jeszcze nie jedna rzecz.
Mamy dopiero marzec, a OpenAI zdążyło mnie zaskoczyć kilka razy. W tym jeden całkiem negatywnie.
Tekst u bram zrozumienia sztucznej inteligencji
Dokumentacja techniczna pełni niezwykle ważną rolę we właściwie wszystkich dziedzinach techniki i technologii. To w nich opisywane są procesy, rezultaty lub postępy oraz badania nad danym zagadnieniem lub przedmiotem. Sztuczna inteligencja nie jest tu wyjątkiem, gdyż bardzo wiele modeli - zwłaszcza LLM, posiada odpowiednią dokumentację. W dokumentacji tej możemy znaleźć m.in. informacje dotyczące treningu SI, jego przebiegu, pochodzenia danych treningowych, sprzętu, na którym działa sztuczna inteligencja czy dane o architekturze modelu.
Te informacje nie są istotne jedynie dla, kolokwialnie mówiąc, "nerdów", ale także dla jakiejkolwiek osoby czy instytucji zainteresowanej działaniem modelu. SI ma szeroką gamę zastosowań, a dokumentacja pozwala ocenić ryzyka czy oszacować wydajność działania danej SI. Biorąc pod uwagę problemy z prawem autorskim, treści te pozwalają także na odpowiednie ustosunkowanie się stron konfliktu do danej sprawy.
Biorąc pod uwagę, że na barkach OpenAI spoczywa społecznie dość duża odpowiedzialność, a poprzednie modele posiadają obszernie udokumentowane "pochodzenie".
GPT-4 ma aż 98 stron dokumentacji, ale na próżno w niej szukać informacji o treningu modelu.
Chciałabym ci powiedzieć, jak działa GPT-4, ale mogę. Dziękuję pan OpenAI
Jeżeli czytałeś zarówno plotki, jak i notkę oficjalnego wydania modelu, to w oczy rzuci ci się jedna różnica: brak parametrów. W uczeniu maszynowym parametry to część modelu, która pochodzi z uczenia modelu SI na danych treningowych. To właśnie od liczby parametrów zależy potencjał SI, a mówiąc prościej: jakość generowanego tekstu.
GPT-3 ma 175 miliardów parametrów, spekulacje mówiły o 200 miliardach parametrów w GPT-4. Finalnie, OpenAI nie upubliczniło ani liczby parametrów, ani żadnych innych informacji dotyczących danych treningowych.
To nie jest przeoczenie. OpenAI działa w pełni świadomie i już na drugiej stronie dokumentu firma zastrzegła, że po prostu nie poda tych informacji.
"Biorąc pod uwagę zarówno konkurencję, jak i implikacje bezpieczeństwa modeli o dużej skali, takich jak GPT-4, niniejszy raport nie zawiera dalszych szczegółów dotyczących architektury (w tym wielkości modelu), sprzętu, obliczeń treningowych, budowy zbioru danych, metody szkolenia lub podobnych."
GPT-4 Technical Report
OpenAI było bardzo wylewne na temat potencjału GPT-4, jego wyników w benchmarkach SI, multimodalności i zwiększonych umiejętnościach językowych - nie tylko w języku angielskim. Ale my dosłownie nie wiemy, gdzie, z pomocą czego i w jaki sposób udało się to osiągnąć.
Używanie GPT-4 to jak chwytanie za nóż z zasłoniętymi oczami
GPT-4 jest świetny, naprawdę świetny. OpenAI udało się skorygować większość problemów trapiących treści generowane przez GPT-3 i GPT-3.5, a wspierając kolejne języki i multimodalność, wynieść model na następny poziom. Jednak przy obecnym stanie rzeczy, GPT-4 stanowi zagrożenie.
Mając świadomość tego, jak wyglądał trening, SI jesteśmy w stanie przewidzieć, na jakich polach jest uprzedzona, a więc gdzie może być z powodzeniem używana, gdzie dostrojenie załatwi problem i jakie aspekty wymagają dalszej pracy inżynierów i naukowców. Biorąc pod uwagę rozmiar modelu GPT-4 (który w domyśle jest przynajmniej tak duży jak GPT-3 - a to i tak zaniżone oczekiwanie), nie jesteśmy w stanie przewidzieć, jakie treści wygeneruje, jak wypowie się na dany temat, czy rzeczywiście napisze sama, czy jednak dojdzie do idiotycznej sytuacji, w której SI dopuści się plagiatu własnych danych treningowych.
Zobacz też: Czy nowy GPT-4 jest warty 110 złotych? Sprawdziłam to
I nie jest to zdanie wyłącznie moje, ponieważ krytyka na OpenAI leje się strumieniami ze wszystkich stron.
Proszę @OpenAI zmieńcie swoją nazwę ASAP [najszybciej jak to możliwe]. To obraza dla naszej inteligencji, aby nazywać się "otwartym" i wypuszczać tego rodzaju "raport techniczny", który nie zawiera żadnych informacji technicznych.
- David Picard, francuski badacz SI
Podobnego zdania jest Wiliam Falcon, dyrektor generalny Lightning AI i twórca PyTorch Lightning, który w wywiadzie dla VentureBeat przyznaje, że choć rozumie chęć OpenAI do zachowania tajemnicy przedsiębiorstwa, to nie potrafi usprawiedliwić ukrycia przez firmę kluczowej części procesu badawczego.
O ile otwarcie Puszki Pandory zwanej GPT-4 w oknie przeglądarki i samodzielna zabawa z modelem nie przyniosą większych szkód, to fakt, że OpenAI będzie udostępniać ślepym konsumentom API modelu, może skończyć się źle.