Chatboty już piszą eseje za studentów. Licencjaty i magisterki to kwestia czasu
Świat oszalał na punkcie ChatGPT. Co prawda mamy do czynienia w zasadzie z zabawką bazującą na zaawansowanym modelu GPT-3.5, w dodatku nakarmioną wiedzą, która w części zdążyła się już zdezaktualizować, ale osoby związane z edukacją widzą na horyzoncie zwiastun potężnego problemu. I nie, nie jest nim plagiat.
Ostatnio urządziłem sobie kolejną sesję z ChatGPT. Przyszło mi do głowy, by zapytać go o rzeczy mało oczywiste. Takie, o które nie zapyta prawie nikt. Poprosiłem zatem, by chatbot wypowiedział się na temat ontologii Gottloba Fregego. To niemiecki matematyk, logik i filozof, który w dość szczególny sposób chciał rozwiązać problemy filozoficzne, aplikując w swojej ontologii dwa typy bytów i traktując je - w ogromnym uproszczeniu - jak funkcję matematyczną. Pytanie zadałem po angielsku, bo model zdecydowanie lepiej radzi sobie z odpowiedziami w tym języku, co jest oczywiście zrozumiałe, biorąc pod uwagę dane, jakimi został nakarmiony.
Odpowiedź, jaką otrzymałem, była zaskakująco dobra. ChatGPT wskazał prawidłowo dualizm ontologii niemieckiego filozofa i opisał problem w sposób zsyntetyzowany i na pierwszy rzut oka zgodny z prawdą. Całość brzmiała naturalnie, była poprawna językowo. Oczywiście diabeł tkwi w szczegółach i gdy się wczytamy w to, co stworzyły algorytmy, łatwo dostrzeżemy uproszczenia i przekłamania. Te ograniczenia na obecnym etapie rozwoju technologii sprawiają, że posługiwanie się nią, na przykład w eseju na studiach, byłoby ryzykownym przedsięwzięciem (o etyce nie wspominając). Łatwo sobie wyobrazić bardzo nieodległą przyszłość, w której przynajmniej pierwszy problem zostanie rozwiązany.
Zanim potraktujemy opisywaną SI z buta, warto przypomnieć sobie, że udostępniona publicznie usługa to zaledwie namiastka możliwości modelu GPT-3.5 i mamy do czynienia de facto z rodzajem wersji demonstracyjnej. Dlaczego zatem ChatGPT zdobył taką popularność, że obecnie co druga próba skorzystania z niego kończy się komunikatem o obciążeniu serwerów? Powodzenie można tłumaczyć między innymi faktem, że odpowiedzi serwowane przez AI brzmią naturalnie. Mamy wrażenie, że rozmawiamy z osobą. Może nieco autystyczną, postrzegającą świat w zero-jedynkowy sposób, ale sprawiającą wrażenie niemal żywej. Podczas rozmowy z tym botem rodzi się w głowie pytanie, czy poradziłby sobie z testem Turinga. Okazuje się, że tak:
ChatGPT ma też tę przewagę nad niektórymi politykami, że w przeciwieństwie do nich uznaje pewnego marnego austriackiego malarza winnym zbrodni przeciwko ludzkości, w co wspomniani politycy do dziś nie wierzą, twierdząc, że brakuje dowodów. Śmiało można napisać, że sztuczna inteligencja pokonała "Krula", choć - jak się nad tym zastanowimy - nie jest to aż tak wielki wyczyn.
ChatbotGPT to zwiastun nowej epoki.
Wspomniany chatbot jest narzędziem na wskroś niedoskonałym i ograniczonym, ale już dziś można powiedzieć, że to dopiero początek. Kolejne modele będą coraz lepsze i coraz mądrzejsze. Dystopijne wizje, w których maszyny dzierżą całą wiedzę świata, wypełniły się już pewnym sensie w przypadku samego internetu, ale chatboty „mówiące” językiem niemal naturalnym osiągają zupełnie nowy poziom. Oferują przy tym zasadniczą zmianę sposobu, w jaki będziemy wyszukiwać informacji. Oto zamiast suchych linków do wielu źródeł, sprawiający wrażenie mędrca bot zaserwuje nam ciekawą historię i wyręczy nas od konieczności przeszukiwania kolejnych witryn internetowych. Jeżeli jego odpowiedzi będą adekwatne, w zasadzie zatriumfuje nad dostępnymi na rynku wyszukiwarkamii. Być może dlatego właśnie Microsoft ma zamiar zintegrować ChatGPT ze swoim Bingiem?
Powyższa wizja jest wyjątkowo atrakcyjna, ale jak każda technologia, ta też ma drugą stronę. Stanowi ona potencjalnie duży problem, o którym już dziś głośno mówią nauczyciele i wykładowcy. Jednym z nich jest dr Glenn Geher, wykładowca psychologii na Uniwersytecie Stanowym Nowy Jork. W tekście opublikowanym w Psychology Today naukowiec zwraca uwagę na zagrożenia, jakie płyną z narzędzi podobnych do opisywanego powyżej.
Przede wszystkim widzi on potencjalny problem w postaci pogorszenia zdolności komunikacyjnych studentów, a pisanie przecież jest jedną z form komunikacji. Geher uważa, że niezwykle trudno będzie wychwycić plagiat, a ściąganie się ze sztuczną inteligencją będzie zabawą w kotka i myszkę. Prostą konsekwencją tego faktu stanie się pokusa korzystania z chatbotów, które znają odpowiedzi na niemal każde pytanie. Naukowiec twierdzi również, że studenci czy uczniowie - i tak piszący coraz mniej - osiągną jeszcze niższy poziom w tym zakresie. „Prosta zasada dotycząca pisania jest taka, że im częściej to robisz, tym lepiej to robisz” – pisze Geher. Chatbot w zasięgu ręki skutecznie będzie od samodzielnego pisania odwodził, bo poszukiwania drogi na skróty wpisują się w ewolucyjne mechanizmy zarządzania energią przez organizm. Po co ją wydatkować, skoro można osiągnąć cel w łatwiejszy sposób?
Jak skłonić zatem ludzi do samodzielności? To trudne zadanie, bo nawet bez chatbotów internet oferuje dziś narzędzia, które skutecznie wodzą na pokuszenie uczniów i studentów. Wspomniany wyżej wykładowca psychologii preferuje metody odwołujące się do uczciwości uczących się, ale i podkreśla, jak ważnym elementem edukacji jest sztuka pisania.
O tym, że ChatGPT budzi poważne obawy świadczy również fakt, że odpowiednik polskiego kuratorium dla stanu Nowy Jork zakazał używania tego narzędzia w szkołach publicznych. A przecież mamy do czynienia z technologią, która de facto jest w wersji demonstracyjnej. Co się stanie zatem, gdy podobne modele udostępnią giganci technologiczni? O tym, że nad nimi pracują, wiadomo od dawna.
Etyka sztucznej inteligencji wydawała się dotąd domeną science fiction. Właśnie dotarliśmy do etapu, w którym staje się bardzo poważnym zagadnieniem, nad którym pochylić się muszą mądre głowy.