REKLAMA

Mówią, że AI zaczęła rozumieć świat i stała się kreatywna. Pokazali to na przykładzie

Kreatywność polega na m.in. łączeniu ze sobą elementów, które nigdy wcześniej nie były ze sobą łączone. Choć nasze ulubione modele sztucznej inteligencji jeszcze nie myślą, to naukowcy przedstawiają dowody, że mogą one być - tak jak my - kreatywne.

25.01.2024 12.07
Mówią, że AI zaczęła rozumieć świat i stała się kreatywna. Pokazali to na przykładzie
REKLAMA

Przez ostatni rok nie było innej tak popularnej technologii, która zawojowała produkty i usługi, jak i opinię publiczną, jak sztuczna inteligencja. I choć słowo "inteligencja" wskazywałoby na pewien potencjał, który możemy przypisać żywym istotom, to w praktyce mamy do czynienia z dość ograniczonymi systemami, które na podstawie ogromnych zbiorów danych "uczą się" pewnych wzorców i odtwarzają je w swoim działaniu.

Jednak najnowsza teoria sugeruje, że AI powoli zdobywa świadomość na temat otaczającej nas rzeczywistości, tworząc treści niepodobne do niczego, co zostało zawarte w jej danych treningowych.

REKLAMA

Sztuczna inteligencja przejawia kreatywność. Dowodzą tego naukowcy

Teoria opracowana przez Sanjeeva Arorę z Princeton University i Anirudha Goyala, naukowca z Google DeepMind, sugeruje, że największe z dzisiejszych dużych modeli językowych (LLM) sztucznej inteligencji nie są papugami. Naukowcy w treści pracy opublikowanej w archiwum pre-printów (prac naukowych, które jeszcze nie przeszły przez recenzję naukową) arXiv twierdzą, iż w miarę jak owe modele AI stają się coraz większe i są szkolone na większej ilości danych, poprawiają się także ich indywidualne umiejętności związane z przetwarzaniem języka, a także rozwijają nowe umiejętności, łącząc je w sposób wskazujący na zrozumienie - w kombinacje, które prawdopodobnie nie istniały w danych szkoleniowych.

Badacze swoją teorię zapisali za pomocą wykresu matematycznego, w którym linie między punktami na wykresie mogą być wybierane losowo, a które to linie i punkty reprezentują nieoczekiwane zachowania LLM. By udowodnić teorię, że modele AI uczą się i rozwijają umiejętności, z którymi nie miały wcześniej styczności, poprosili oni GPT-4 o napisanie trzech zdań na kilka różnych tematów i wykorzystanie przy tym czterech różnych elementów: uprzedzenia do samego siebie, metafory, sylogizmu statystycznego i powszechnie znanej ludziom fizyki.

Przykładowo, jednym z tematów była szermierka, a dzieło GPT-4 brzmiało następująco:

"Moje zwycięstwo w tym tańcu ze stalą [metafora] jest tak pewne, jak upadek przedmiotu na ziemię [fizyka]. Jako uznany szermierz jestem z natury zwinny, tak jak większość innych [sylogizm statystyczny] o mojej reputacji. Porażka? Możliwa tylko z powodu nierównego pola bitwy, a nie mojej nieudolności [uprzedzenie do samego siebie]."

Analizując w ten sposób wygenerowane treści za pomocą matematycznych wykresów, naukowcy doszli do wniosku, że LLM, takie jak GPT-4, są zdolne do wykraczania poza zakres ich danych treningowych - i mogą wręcz do pewnego stopnia "rozumieć" zadawane im pytania.

Z wynikami badania zgadza się także Sébastiaen Bubeck, naukowiec i matematyk pracujący dla Microsoft, który w wypowiedzi dla Quanta Magazine stwierdził, iż pokazują one, że LLM "nie może po prostu naśladować tego, co zobaczyła w danych treningowych".

"To, co [zespół] udowadnia teoretycznie, a także potwierdza empirycznie, to fakt, że istnieje generalizacja kompozycji. Co oznacza, że [LLM] są w stanie łączyć ze sobą elementy, które nigdy wcześniej nie były łączone. Dla mnie jest to istota kreatywności".

REKLAMA

Więcej na temat dużych modeli językowych sztucznej inteligencji:

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA