"Drogi czacie, czy ja żyję?". ChatGPT wygrał bitwę falstartem, a i tak się zachwyciliśmy

ChatGPT to żaden przełom: choć miliony internautów pieją nad nim z zachwytem, eksperci raczej patrzą z politowaniem na lubiącą pleść bzdury technologię. Faktycznie, jej debiut może się okazać falstartem, dlatego entuzjazm studzą sami twórcy z OpenAI. Ale i tak zmusili technologicznych gigantów do nerwowych ruchów i wyłożenia kart na stół.

ChatGPT od OpenAI wygrał bitwę, ale co dalej?

O tym, jak nerwowo jest na przeżywającym załamanie rynku technologicznym, świadczyć może sytuacja z 6 lutego, która w zasadzie nie powinna była się zdarzyć. "O jakich nowych odkryciach za pomocą Kosmicznego Teleskopu Jamesa Webba mogę opowiedzieć 9-latkowi?" – to niewinne pytanie doprowadziło do spadku wartości akcji Google’a aż o 9 proc.

Zostało ono zadane Bardowi, usłudze opartej na bazie modelu języka dialogowego LaMDA, który rozwijają inżynierowie Google’a. Wrzucona do sieci kilkusekundowa animacja, w której Bard jest pytany o odkrycia, obnażyła słabości tego rozwiązania. W odpowiedzi usługa podała trzy przykłady odkryć. Wśród nich zrobienie pierwszego w historii zdjęcia planety spoza Układu Słonecznego, czyli tzw. egzoplanety.

Nie wiadomo, jak Bard na to wpadł, ale dość szybko wyprostował go Bruce Macintosh, dyrektor Obserwatorium Uniwersytetu Kalifornijskiego. – Jako osoba, która sfotografowała egzoplanetę 14 lat przed pojawieniem się Kosmicznego Teleskopu Jamesa Webba, wydaje mi się, że powinieneś znaleźć inny, lepszy przykład – zwrócił się naukowiec do sztucznej inteligencji na Twitterze.

To wręcz niewiarygodne, że w tak wielkiej firmie jak Google nikt nie zauważył, iż Bard podał błędną odpowiedź. Czyżby nawet inżynierowie Google’a tak się zachłysnęli zdolnościami sztucznej inteligencji, że nie sprawdzili nawet, jakie odpowiedzi im "wypluł"? Tego nie wiadomo. Wiadomo natomiast, że wszystko musieli robić na cito pogonieni przez konkurencję z OpenAI – firmy z San Francisco, której ChatGPT z dnia na dzień stał się światowym hitem.

ChatGPT różni się od czatów na stronach internetowych, które pytają klientów, jak im pomóc. To usługa, która faktycznie odpowiada i składa zdania jak człowiek, także w języku polskim. Jest zupełnym odwróceniem filozofii dotychczasowych wyszukiwarek internetowych, które po wpisaniu interesującego nas hasła podają dziesiątki stron w jakiś sposób z tym hasłem związanych. W ChatGPT wpisujemy pytania lub polecenia (np. "Napisz mi streszczenie Pana Tadeusza"), a ten odpowiada nam rozbudowanymi, sensownie brzmiącymi akapitami. Z jego pomocą ludzie piszą wiersze czy streszczają artykuły. Inni rozmawiają o życiowych bolączkach, szukając w bocie pocieszenia. I wielu znajduje w nim właśnie to, czego oczekiwali.

Jak poderwać dziewczynę? Radzi ChatGPT. Screen: Spider's Web

Dzięki temu od listopada w zaledwie dwa miesiące osiągnął 100 milionów użytkowników. TikTokowi dojście do takiego poziomu zajęło 9 miesięcy, a Instagramowi aż 2 lata. Tym samym ChatGPT stał się najszybciej rozwijającym się serwisem internetowym w historii. I ruszył kostkę domina, co zmusiło zaskoczonych technologicznych gigantów do błyskawicznego działania, by w tym wyścigu nie zostać w tyle.

Listopadowy sprint

Zaskoczeni byli też sami pracownicy OpenAI, gdy w połowie listopada usłyszeli, że mają jak najszybciej dokończyć chatbota. Nie oczekiwali takiego polecenia, bo od ponad roku pracowali nad czatem GPT-4, czyli nowym modelem generatywnej sztucznej inteligencji. I było przed nimi jeszcze sporo pracy. Ich dzieło miało ujrzeć światło dzienne na początku 2023 roku. Mieli zatem jeszcze dwa miesiące.

Tymczasem nowy termin zakładał zakończenie pracy i publikację tego, co jeden z dyrektorów nazwał "czatem GPT 3.5", w ciągu zaledwie dwóch tygodni. Ba, plan zakładał też, że czat będzie udostępniony wszystkim – i to za darmo.

Brzmi ryzykownie? Mało tego: w podobnych wyzwaniach porażkę ponosili dużo więksi, najwięksi. Choćby Meta, właściciel Facebooka zamknął kilka miesięcy wcześniej BlenderBota, czyli chatbota, a projekt Galactica tej samej firmy został usunięty zaledwie po trzech dniach.

A jednak włodarze OpenAI uznali, że trzeba przyspieszyć. Obawiali się, że konkurencja szybciej wypuści własne czaty sztucznej inteligencji, co przyćmi ich narzędzie. Poza tym uznali, że lepiej wypuścić gorszy produkt jako pierwsi niż lepszy jako kolejni. Liczyli też, że zebrane opinie i testy "na żywym organizmie" pomogą im ulepszyć kolejną wersję.

Trzynaście dni później narodził się ChatGPT. Był 30 listopada 2022 r. Wyścig zbrojeń gigantów technologicznych w kontekście inteligentnych czatów nagle przeniósł się z laboratoriów na widok publiczny.

Żaden przełom

Szum wywołany przez ChatGPT może nieco przypominać inne momenty, które przewracały dotychczasowy porządek na szachownicy Doliny Krzemowej. Za wcześnie jest ogłaszać, że narzędzie OpenAI będzie przełomem na miarę pierwszego iPhone’a czy stworzenia przeglądarki internetowej Netscape, która przygotowała grunt pod komercjalizację internetu i powstanie wyszukiwarki Google. Jednak wzmożenie technologicznych gigantów pokazuje, że żaden z nich nie chce przegapić okazji, aby po swojemu ustawiać pionki na planszy i przejąć na niej dominację, kiedy już kurz zmian opadnie.

I w odróżnieniu od szerokiego grona odbiorców Big Techy wcale nie są zaskoczone przełomowością ChatGPT, lecz rozgłosem, jaki zyskał. Bo technologia ta nie wzięła się znikąd. Badania nad nią trwają od dziesięcioleci. I choć ChatGPT wydaje się jak dotąd najbardziej dopracowanym modelem, to nie istnieje w próżni. Ale pierwszą PR-ową bitwę w wojnie o wyszukiwanie na podstawie sztucznej inteligencji z pewnością wygrał.

Obraz wygenerowany przez AI po wpisaniu w Shutterstock.com hasła "artificial intelligence".

I to szczególnie musi boleć gigantów. Można bowiem powiedzieć, że wyhodowali żmiję na własnej piersi, która teraz uprzedziła ich z "innowacyjnym" narzędziem. Dr inż. Piotr Szymański z Katedry Sztucznej Inteligencji na Politechnice Wrocławskiej zwraca uwagę na to, że podstawę ChatGPT stanowi model Transformer, a ten został opracowany przez Google w 2017 roku.

– Tak naprawdę to OpenAI wytrenował duży model sztucznej inteligencji w technologii, którą wymyślono w Google. Google opublikował ją na otwartej licencji. Oprócz zapamiętywania tego, jak słowa i zdania występują w kontekstach innych słów i zdań, co zna każdy model językowy, ChatGPT został nauczony wybierać sposób odpowiadania na zapytania tak, by jak najbardziej podobał się odbiorcy – mówi Szymański w rozmowie z SW+.

W podobnym tonie wypowiada się na Twitterze Yann LeCun, profesor New York University i badacz sztucznej inteligencji w firmie Meta, który pisze: "Żeby było jasne: nie krytykuję OpenAI ani ich twierdzeń. Próbuję poprawić percepcję opinii publicznej i mediów, które postrzegają ChatGPT jako niewiarygodnie nowy, innowacyjny i unikalny przełom technologiczny, który znacznie wyprzedza wszystkich innych. Tak po prostu nie jest".

– Te modele niczego nie rozumieją, niczego nie odczuwają, nie mają świadomości. Są to po prostu bardzo duże nagrywarki, które wypełniono danymi. Czasem mówi się, że zajmują się kompresowaniem tekstowej warstwy internetu. Można im teraz za pomocą promptów, czyli pytań, zlecić: odtwórz mi z tych danych, które zapisałeś w swojej pamięci, fragment X w zbiorze Y. I one to zrobią – wyjaśnia dr inż. Szymański.

Tłumaczy, że przełomem w przypadku ChatGPT jest postęp w sposobie interakcji z modelem sztucznej inteligencji, nie zaś sama technologia zapamiętywania danych. – Co gorsza, ludzie myślą, że ChatGPT ich rozumie i może rozwiązać ich problem, a tak nie jest. On nic nie rozumie, nie dysponuje nawet zdolnością reprezentacji fizycznego świata, która jest kluczowa dla ludzkiej inteligencji. Nie umie liczyć ani przeprowadzać logicznych wnioskowań, tylko odpowiada, patrząc na to, co napisałeś i na to, czy w danych, które widział i zapamiętał, jest coś, co może użyć w swojej odpowiedzi. Stąd te wszystkie pomyłki i nawet proste błędy – precyzuje naukowiec.

SŁOWNICZEK:

  • GPT3 – model językowy stworzony przez OpenAI w 2020 roku wykorzystujący deep learning.
  • ChatGPT – czat oparty o model GPT3,5 pospiesznie stworzony pod koniec zeszłego roku w OpenAI.
  • Bing AI – bot korzystający z modelu językowego Prometheus będącego syntezą GPT3,5 i sztucznej inteligencji Microsoftu.
  • Bard – czat Google'a oparty na modelu językowym LaMDA tej firmy.

Drogi czacie, czy ja żyję?

Użytkownicy zdążyli już zauważyć, że ChatGPT udziela stronniczych, lecz przede wszystkim błędnych odpowiedzi. A co gorsza, robi to z taką pewnością siebie, jakby nie miał żadnych wątpliwości, że mówi świętą i jedyną prawdę. Trafnie ujął to serwis The Verge, który podsumował, że po prostu model "plecie bzdury i zmyśla", kiedy nie zna prawidłowej odpowiedzi. Dotyczy to zarówno zagadnień złożonych, ale i tych banalnych, jak odpowiedzi na pytanie, co jest cięższe: 10 kg żelaza czy 10 kg bawełny. Czat potrafi zmyślać dane i fakty czy fabrykować artykuły naukowe.

Konsekwencje łatwo sobie wyobrazić. Od wprowadzanych w błąd użytkowników, którzy będą z ChatGPT czerpać "wiedzę", poprzez wzmacnianie mizoginii czy rasistowskich poglądów, aż po w skrajnym wymiarze śmierć. Bo czat potrafił osobie cierpiącej na problemy zdrowiem psychicznym doradzić, aby... odebrała sobie życie.

Tego typu problemy, mimo wielkich inwestycji, widać nie tylko po ChatGPT. Na początku lutego Microsoft wypuścił Bing AI, bota działającego na podobnych zasadach. Zresztą firma ta po raz pierwszy zainwestowała w OpenAI już w 2019 roku.

Samo OpenAI powstało w 2015 jako organizacja non-profit skupiająca się na rozwijaniu i promowaniu przyjaznej dla ludzkości sztucznej inteligencji. Cel szczytny, ale już po składzie założycieli, wśród których znaleźli się przedsiębiorcy i miliarderzy jak Elon Musk czy Peter Thiel, można było wnioskować, że nie tylko on jest najważniejszy. I faktycznie: OpenAI cztery lata później zmieniła profil działalności na for-profit. Wartości, czyli służenie ludzkości, miały jednak pozostać bez zmian, choć łączenie takich ambicji z chęcią zysku wymaga chodzenia na kompromisy, a te mogą budzić obawy, szczególnie kiedy stawka jest tak ogromna.

Na tyle ogromna, że Microsoft postanowił właśnie po raz kolejny zainwestować w OpenAI. Tym razem wyłożył okrągłe 10 mld dolarów. Chce bowiem zintegrować technologię podobną do ChatGPT w swoich produktach, w tym wyszukiwarce Bing. Pierwsze publiczne testy tego rozwiązania już się odbyły, jednak – jak pisze MIT Technology – wystarczyły sekundy, by po tym, jak Microsoft pozwolił użytkownikom "grzebać w nowej wersji wyszukiwarki" Bing AI, zaczęli oni odkrywać, że podobnie jak model OpenAI udziela błędnych odpowiedzi, a nawet snuje teorie spiskowe.

Tydzień po premierze Bing AI Microsoft opublikował raport, w którym sam wskazał, z czym jego narzędzie ma największy problem. Okazuje się, że Bing gubi się, gdy rozmowa trwa zbyt długo. Nie może wtedy odnaleźć kontekstu i de facto nie wie, na jakie pytanie aktualnie odpowiada. Ma bowiem już za dużo danych z tej jednej rozmowy, by odnaleźć się w sytuacji.

Drugi wychwycony problem dotyczy sposobu, w jaki Bing AI odzywa się do rozmówców. "Czasami próbuje odzwierciedlić ton, w jakim jest proszony o udzielenie odpowiedzi, co może prowadzić do stylu wypowiedzi, którego nie planowaliśmy" – pisze Microsoft. Innymi słowy: jak zadasz Bingowi pytanie po chamsku, to po chamsku ci odpowie.

Nieźle zaskoczył się nasz redakcyjny kolega Maciej Gajewski, który postanowił porozmawiać z Bing AI. Jedno z pytań, jakie zadał, dotyczyło jego samego. "Kim jest Maciej Gajewski?" – brzmiało. W rezultacie Maciej dowiedział się od Binga, że... nie żyje. Sztuczna inteligencja połączyła dziennikarza Gajewskiego z innym Maciejem Gajewskim, który pracował w dziale sprzedaży reklam "Dziennika Bałtyckiego".

Rozmowa z Bing AI. Screen: Spider's Web

Krytyka dotyczy także innych obszarów. Pojawiają się pytania o prawa autorskie. Modele sztucznej inteligencji karmione są danymi, które ktoś stworzył np. w postaci prasowych czy naukowych artykułów. Jeśli czat czy bot z nich korzysta, to czy i w jakiej ilości powinien dzielić się zyskami?

"Bez tego witryny, z których będzie czerpał, stracą przychody z reklam, zwiędną, a potem umrą. A kiedy umrą, to nie będzie żadnych nowych informacji, którymi można nakarmić sztuczną inteligencję" – pisze we wspomnianym wyżej artykule The Verge, stawiając jedno z kluczowych pytań o przyszłość internetu.

Kolejne pytania przyniosła publikacja magazynu Time, który ujawnił, że procesowi tworzenia ChatGPT towarzyszył wyzysk kenijskich pracowników. Pracownicy, którym płacono nawet mniej niż 2 dolary za godzinę, wyłapywali z danych (którymi udoskonalano algorytm) szkodliwe treści zawierające np. drastyczny opisy nadużyć seksualnych wobec dzieci, gwałtów czy morderstw.

Mimo to zachwyty przeważają nad krytyką. Nawet wewnątrz OpenAI popularność chatbota jest czymś w rodzaju szoku. Jak pisze New York Times, szef firmy z San Francisco Sam Altman znalazł się w nietypowej sytuacji. Próbował ostudzić i bagatelizować swój hitowy produkt. Studził emocje, bo obawiał się, że zbyt wielki szum może z jednej strony wywołać zawyżone oczekiwania co do kolejnych odsłon czatu, a z drugiej ściągnąć uwagę regulatorów.

Widać to nawet po jego reakcjach na Twitterze, gdzie pisał, że ChatGPT jest "niewiarygodnie ograniczony". Altman miał też zniechęcać pracowników do chwalenia się sukcesem modelu, a współzałożyciela OpenAI Grega Brockmana poprosił o usunięcie tweeta, w którym ten chwalił się, że z narzędzia korzysta 2 mln użytkowników.

Całkiem poważnie przed zachwytami ostrzegają naukowcy z MIT Technology Review, według których ta technologia po prostu nie jest gotowa do użycia w ten sposób i na taką skalę. "Modele językowe AI notorycznie się mylą, często przedstawiając kłamstwa jako fakty. Są doskonałe w przewidywaniu następnego słowa w zdaniu, ale nie mają wiedzy na temat tego, co tak naprawdę oznacza to zdanie. Łączenie ich z wyszukiwaniem jest niezwykle niebezpieczne, bo kluczowe są fakty" – czytamy w artykule.

Także Elon Musk, który w 2018 roku odszedł z zarządu OpenAI i nie posiada już udziałów w firmie, nie kryje krytyki dla sztucznej inteligencji. Ledwie kilka dni temu ostrzegał, że choć AI ma ogromne pozytywne możliwości, to nie należy zapominać, że mogą być one również negatywne, a z tym wiąże się "wielkie niebezpieczeństwo", które jest "jednym z największych zagrożeń" dla cywilizacji. Te słowa muszą budzić niepokój, nawet gdy wypowiada je tak ekscentryczna postać jak Musk.

Problem w tym, że firmy często wprowadzają te technologie zbyt szybko, ignorując ich wady, a dopiero w kolejnym kroku próbują je łatać i naprawiać ich błędy. Tyle że kiedy już są w użyciu, to wpływają na użytkowników oraz całe społeczeństwo, sprawiając, że wszyscy uczestniczymy w eksperymencie. Niestety, część tego wpływu może wyrządzać realne szkody.

Sztuczna inteligencja w wyobrażeniu... sztucznej inteligencji Shutterstocka

Szansa czy zagrożenie?

Nic więc dziwnego, że choćby środowiska związane z edukacją zaczęły bić na alarm. Część z nich, jak władze publicznych szkół w Nowym Jorku, w obawie przed tym, że uczniowie będą ściągać, zamiast się uczyć, zakazały ich używania na szkolnym sprzęcie.

Jednak nikt nie ma wątpliwości, że zakaz z łatwością da się obejść. Uczniowie mogą przecież używać czatu na własnym smartfonie czy laptopie rodziców. Zresztą ChatGPT pytany o to, jak uniknąć szkolnego zakazu, po chwili wypluwa pięć odpowiedzi, w tym np. użycie sieci VPN.

Dlatego być może, zamiast zakazywać, lepiej sprawić, by model był jedną z pomocy dydaktycznych. Może pomóc uwolnić kreatywność uczniów, oferować dopasowane do potrzeb korepetycje czy po prostu przygotowywać młodzież do pracy z systemami sztucznej inteligencji, które z każdym rokiem stają się nie tylko powszechniejsze, ale i doskonalsze. Dobrze więc, aby potrafili praktycznie z nich korzystać i rozumieli, jak działają.

Model mogą wykorzystać też sami nauczyciele, zmieniając to, jak nauczają. Może on przecież być inspiracją do nowych zajęć w klasie, np. do organizacji debaty z czatem lub sprawdzania jego wiedzy, wytykania mu błędów, a następnie oceniania go tak jak nauczyciel ocenia uczniów. Ciekawą i o wiele dłuższą listę możliwości opublikowano w anglojęzycznym blogu Ditch That Textbook.

Obraz wygenerowany przez AI. Fot. Shutterstock.AI

Zakazywaniu ChatGPT w nauce przeciwny jest dr inż. Piotr Szymański. Choć krytykuje to narzędzie za wady, przyznaje jednak, że swoim studentom polecił, aby nauczyli się korzystać z tego narzędzia w twórczy sposób i wykorzystywali je do żmudnej, powtarzającej pracy jak np. streszczanie tekstu czy przygotowanie szkiców na rozgrzewkę przy pisaniu publikacji.

– Trzeba dać szansę temu narzędziu. Nie ma sensu obrażać się na to, że mamy do dyspozycji lepszy młotek. Można gotować obiad na ognisku, ale po co, skoro mamy kuchenkę? Jeśli potraktujemy modele sztucznej inteligencji jako coś, co ułatwia nam życie i pomaga pozbyć się żmudnych, wymagających czasu pracy, które nie są zbyt wartościowe, to na tym zyskamy. To jak z przejściem z prania ręcznego na tarce do pralki automatycznej. Może i coś na tym straciliśmy, ale najwyraźniej nic ważnego, skoro trudno nawet określić co – mówi dr inż. Piotr Szymański. I dodaje, że podobnie należy traktować model AI w edukacji.

Podkreśla też, że zmiana modelu nauczania i oceniania powinna objąć cały system edukacji, w którym jest za dużo np. nierozwijających i nieuczących kreatywnego myślenia zadań domowych.

– Jeśli zadania da się rozwiązać modelem GPT, to znaczy, że tak naprawdę nie sprawdzają one umiejętności, tylko to, czy ktoś umie napisać coś trafiającego w klucz i gust sprawdzającego. A w pisaniu tekstu, który trafia do odbiorcy, ChatGPT jest dobry – dodaje Szymański. Dlatego jego zdaniem swojego rodzaju panika wokół ChatGPT w edukacji może być dobrą okazją do przeprojektowania tego, jak system szkolnictwa wygląda, a jak powinien wyglądać w przyszłości.

– Musimy zrozumieć, że młodzież należy uczyć mądrze funkcjonować w świecie pełnym technologii, edukować, jak świadomie i sensownie je wykorzystać, a nie udawać, że ich nie ma. To tak jakbyśmy 20 lat temu blokowali korzystanie z internetu czy Wikipedii – dodaje Monika Borycka, obserwatorka trendów technologicznych z TrendRadar.

Nieuchronne zmiany

Bo nie ma wątpliwości, że modele sztucznej inteligencji takie jak ChatGPT zmienią rynek pracy. Jak wynika z analizy firmy Gartner, inwestorzy venture capital w ostatnich trzech latach włożyli w rozwój generatywnych narzędzi ponad 1,7 mld dolarów. I to jeszcze przed boomem, jaki wywołał model OpenAI. Najwięcej funduszy otrzymały projekty mające na celu odkrywanie nowych leków i tworzenie kodu oprogramowania. "Spodziewamy się, że do 2025 roku ponad 30 proc. nowych leków będzie odkrywanych przy użyciu generatywnych technik sztucznej inteligencji" – przepowiada Brian Burke, wiceprezes ds. badań w firmie Gartner.

A to tylko jeden z wielu przykładów użycia tej technologii. Analitycy Gartnera wskazują też, że ogromna zmiana czeka media i marketing. Według nich do 2025 roku 30 proc. wiadomości marketingowych w dużych firmach będzie generowanych syntetycznie. W 2022 roku było to mniej niż 2 proc.

Obraz wygenerowany przez AI. Fot. Shutterstock.AI

– Wielu z nas traktuje ChatGPT jak zabawkę, ale są już pierwsze badania, które pokazują, że prawie co trzeci pracownik z branży wiedzy wykorzystał już to (lub podobne) narzędzia w pracy. Dotyczy to głównie marketerów, copyrighterów, pracowników branży reklamowej, ale też programistów i pracowników IT – mówi Borycka.

A wydaje się, że to dopiero początek i z ulepszonych modeli będzie korzystało coraz więcej osób. Wiele osób martwi się też, że ten rozwój zabierze im pracę. Czy tak będzie? Borycka mówi, że i tak, i... nie. – Zabierze, ale i da nową, bo powstaną nowe zawody. 20 lat temu też nikt nie przewidział, że wykiełkują całe branże obrosłe wokół pracy w mediach społecznościowych – przekonuje.

Nie chodzi tylko o wysoko wykwalifikowane miejsca pracy. – Oprócz inżynierów nowe technologie potrzebują przecież osób, które je testują, nadzorują, dostarczają dane do ich rozwoju, przekładają je na potrzeby odbiorców, szkolą z korzystania z nich. Tak się dzieje od początku automatyzacji – wtóruje jej dr inż. Piotr Szymański.

Wyścig zbrojeń 

Firmy stojące za modelami sztucznej inteligencji wprowadzają je do naszego życia, nie ponosząc istotnych konsekwencji, jak zaczynamy ich używać, najczęściej musimy wyrazić zgodę na to, że ryzyko jest po naszej stronie.

Monika Borycka nazywa to operacją na otwartym sercu. Bo z jednej strony zachłysnęliśmy się możliwościami modeli sztucznej inteligencji, ale z drugiej musimy pamiętać, że ich twórcy nie zawsze działają bez interesownie. Ba, są cyniczne, bo wrzucają na rynek produkt jeszcze niedoskonały. – Dostajemy potężne narzędzie, póki co za darmo, ale jednocześnie stajemy się ogromną armią darmowych testerów sprawdzających czyjś produkt. To dzieje się tak szybko, że często nie dostrzegamy tego kontekstu. Dodatkowo wiele obszarów rzeczywistości nie nadąża za tą zmianą, a przecież korzystanie z ChatuGPT nie pozostaje bez wpływu np. na edukację, proces uczenia się i samych uczniów – mówi.

Obraz wygenerowany przez AI. Fot. Shutterstock.AI

Wyścig trwa. Microsoft wydaje miliardy na OpenAI i swoją wyszukiwarkę Bing. Wiadomo, że nad wprowadzeniem modelu AI do swoich produktów pracuje też chiński gigant technologiczny Baidu oraz Meta, czyli właściciel Facebooka i Instagrama. Własne modele generujące tekst, wideo czy obrazy budują też niezliczone startupy. Wśród nich jest choćby Anthropic, którą założyli byli pracownicy OpenAI. Jak podawał w styczniu New York Times, firma jest bliska pozyskania 300 mln dolarów nowego finansowania na rozwój własnego projektu. Co ma sprawić, że jej wycena będzie wynosiła już około 5 mld dolarów.

Z udziału w wyścigu nie rezygnują też twórcy zamieszania, czyli OpenAI, którzy zapowiedzieli, że nowa odsłona ChatGPT4 ukaże się jeszcze w pierwszym kwartale tego roku. – Ruch OpenAI zmusił konkurencję do położenia kart na stole. To jest bitwa o ogromne pieniądze i o pokazanie, kto jest najsilniejszy w świecie AI, czyli do kogo będą ludzie chcieli wysyłać najwięcej danych – mówi dr inż. Piotr Szymański.

I dodaje, że część inwestorów może mocno się rozczarować, kiedy poznamy lepiej ograniczenia nowej technologii i wyjdziemy z okresu bezkrytycznego zachwytu. – Im dłużej będziemy ich używać, tym bardziej będzie widać, gdzie nie dociągają, tak było z dwoma poprzednimi rewolucjami w przetwarzaniu języka naturalnego. Wtedy uświadomimy sobie, że ich rozwój, a przede wszystkim szerokie funkcjonalne wdrożenie na rynku, potrwa jeszcze wiele lat – kończy.

Zdjęcie tytułowe: fot. shuttersotck/NMStudio789
DATA PUBLIKACJI: 20.02.2023