REKLAMA

OpenAI Q* jest "przerażająco inteligentny". GPT to przy nim tępak. Czy naprawdę powinniśmy zacząć się bać?

Zamieszanie związane z zarządem i przewodniczącym OpenAI wydaje się mieć ku końcowi. I bardzo dobrze, bowiem wygląda na to, że zależna od Microsoftu spółka dokonała kolejnego informatycznego przełomu. Takiego co najmniej na miarę Dużego Modelu Językowego GPT. Nazywa się Q* (lub, jak kto woli, Q-Star). I jest czymś znacznie więcej niż algorytmem językowym.

OpenAI Project Q*
REKLAMA

GPT i inne Duże Modele Językowe (LLM), choć piorunująco przekonujące i niezwykle użyteczne, jak najbardziej spełniają definicję sztucznej inteligencji. Nie są jednak inteligentne w tradycyjnym tego słowa pojmowaniu. W ogromnym uproszczeniu generatywna sztuczna inteligencja, taka jak GPT, opiera się o podstawy rachunku prawdopodobieństwa i przewidywania jaka dana powinna sąsiadować z tą już istniejącą. Duży Model Językowy nie rozumuje, a szacuje szanse na właściwą odpowiedź. Między innymi dlatego usługom opartym o LLM zdarza się halucynować, czyli udzielać fałszywych odpowiedzi w przekonującym tonie. Fakty i sens są dla tego rodzaju SI nieistotne - a tylko to, czy przedstawiła właściwie brzmiącą wiadomość, która zadowala użytkownika.

REKLAMA

Tymczasem, jeżeli wierzyć plotkom - a pochodzą z wiarygodnych źródeł, w tym z agencji Reuters czy od dziennikarzy z The Information - w OpenAI udało się dokonać dodatkowego przełomu. Podobno niezgoda co z nim dalej zrobić była jednym z powodów, z jakich Sam Altman tymczasowo musiał się pożegnać ze stanowiskiem prezesa spółki. Co do tego ostatniego poszczególne źródła podają jednak różne informacje. Wszystkie jednak potwierdzają, że Project Q* (Q-Star) to coś niezwykłego. Coś na miarę GPT bądź DALL-E.

Sztuczna inteligencja to dziś najdynamiczniej rozwijająca się gałąź informatyki. Nie przegap tych tekstów:

Project Q* opanował matematykę na poziomie przedszkolaka. Problem w tym, że nikt do końca nie jest pewny jak.

Algorytm Q potrafi sobie już radzić z podstawową matematyką, z którą nie miałby problemu przeciętnie rozgarnięty uczeń szkoły podstawowej. Nie brzmi to co prawda jako coś przesadnie użytecznego, tym niemniej nie sama umiejętność jest tu czymś przełomowym, a sposób, w jaki Q ją pozyskał. Q nie był uczony matematyki, jego model nie był szkolony do rozwiązywania tego typu problemów. Q sam doszedł do tego, jak sobie z nimi poradzić.

Za Project Q ma być odpowiedzialny Ilya Sutskever przy współpracy z Jakubem Pachockim i Szymonem Sidorem. Fakt, że Q sam nauczył się rozwiązywać problemy matematyczne bez szkoleniowej asysty może świadczyć o tym, że ma zdolności do przetwarzania i rozwiązywania problemów na poziomie człowieka. Q, być może, jest podwaliną pierwszego działającego AGI.

AGI (artificial general intelligence) to hipotetyczny rodzaj inteligencji maszynowej, który potrafi naśladować inteligencję lub zachowanie ludzkiego umysłu, z możliwością uczenia się i stosowania tego podejścia/inteligencji do rozwiązywania różnych problemów. AGI jest również nazywany silną AI, pełną AI lub AI na poziomie ludzkim. AGI różni się od słabej AI lub wąskiej AI, która jest w stanie wykonywać tylko określone lub wyspecjalizowane zadania w ramach ustalonych parametrów. AGI byłby w stanie samodzielnie rozwiązywać różnorodne złożone problemy z różnych dziedzin wiedzy.

Tworzenie AGI jest głównym celem niektórych badań nad sztuczną inteligencją i firm takich jak DeepMind i Anthropic. AGI jest częstym tematem w literaturze science fiction i studiach nad przyszłością. Niektórzy twierdzą, że zbudowanie AGI może być możliwe w ciągu lat lub dekad; inni utrzymują, że może to zająć wiek lub dłużej; a mniejszość uważa, że nigdy nie zostanie osiągnięte. Niektórzy dopatrywali się AGI w GPT-3, tym niemniej wydaje się on jeszcze bardzo daleki spełnienia nawet podstawowych kryteriów.

Dlaczego mając komputery po wielokroć szybsze od ludzkiego mózgu, nadal nie potrafimy stworzyć AGI?

Pokrótce? Bo nadal nie jesteśmy do końca pewni jak ten mózg właściwie działa. Aby stworzyć AGI, trzeba zrozumieć, jak ludzki umysł działa, myśli, uczy się i rozwiązuje problemy. Następnie trzeba zaprojektować i zaimplementować systemy komputerowe, które mogą naśladować te procesy lub je przekraczać. To wymaga głębokiej wiedzy z dziedzin takich jak psychologia, neurobiologia, lingwistyka, filozofia i logika. Jest jednak i dłuższa odpowiedź.

REKLAMA

Aby AGI mogło działać sprawnie i efektywnie, potrzebuje dużej mocy obliczeniowej, która pozwoli mu na szybkie i dokładne przetwarzanie danych i algorytmów. To wymaga innowacyjnych rozwiązań sprzętowych i oprogramowania, takich jak superkomputery, chmury obliczeniowe, układy scalone, sieci neuronowe i uczenie maszynowe. Jedna instancja GPT-4 wymaga do działania akceleratora SI o wartości kilkunastu czy nawet kilkudziesięciu tysięcy złotych - plus później zużyta przez niego energia. Nasze komputery są bardzo szybkie, ale nie aż tak szybkie.

Jest też jeszcze jeden problem, który prawdopodobnie był przyczyną kryzysu w OpenAI. Aby AGI mogło być użyteczne i korzystne dla ludzkości, trzeba zapewnić, że będzie działać w sposób bezpieczny, etyczny i zgodny z wartościami i celami ludzi. To wymaga opracowania i wdrożenia odpowiednich regulacji, standardów, zasad i protokołów, które będą nadzorować i kontrolować działania i zachowania AGI. Ponadto, trzeba rozwiązać potencjalne zagrożenia i ryzyka związane z AGI, takie jak nadużycia, wypadki, niezgodności, manipulacje, konflikty i zagłada ludzkości. Tymczasem inwestorzy i Microsoft czekają bardzo niecierpliwie na sprzedawalny produkt - presja czasu bez wątpienia stoi w konflikcie z potrzebą odpowiedzialnego działania. Oby zwyciężyło to drugie.

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA