Polscy naukowcy mówią, jak będzie wyglądało studiowanie i zaliczenia w dobie ChataGPT. Wydali rekomendacje
Naukowcy ze Śląskiego Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych CYBER SCIENCE przygotowali kilka rekomendacji związanych z wykorzystaniem w edukacji generatywnej sztucznej inteligencji. Świat nauki zdaje już sobie bowiem sprawę, że pojawił się problem, który wkrótce będzie trzeba rozwiązać systemowo.
Mamy problem z generatywną sztuczną inteligencją - to fakt, nie opinia. Wkrótce trzeba będzie zrezygnować z pisemnej formy prac zaliczeniowych, a także zmienić sposób dyplomowania na wielu kierunkach studiów. Uczelnie mają tego świadomość.
Niedawno rozmawiałem z profesorem, który nie tylko śledzi postępy na polu SI, ale stara się reagować na rozwój chatbotów w pracy dydaktycznej. Jak stwierdził, rezygnuje z eseju jako formy zaliczenia. Niegdyś tego typu prace stanowiły nie tylko dobrą wprawkę w pisaniu, ale zmuszały studentów do samodzielnego myślenia. Sprawdzają się bowiem lepiej niż bezduszne testy.
Czytaj także:
- Sztuczna inteligencja napisała maturę 2023. Jak GPT-4 poradził sobie z językiem polskim?
- ChatGPT pisał wypracowania za uczniów. Kuratorium się wkurzyło i zbanowało chatbota
Dziś ta forma traci sens, bo pokusa skorzystania chatbotów jest zbyt wielka. Co prawda, trzeba nauczyć się tworzenia odpowiednich promptów, żeby wykorzystać potencjał modeli językowych zaimplementowanych w chatbotach, ale jeżeli wpisze się kilka dobrych fraz, jest szansa na sensowne treści od SI. Jeżeli dodamy do tego redakcję tekstu, istnieje możliwość wykorzystania sztucznej inteligencji do zaliczenia przedmiotu. Mam tu głównie na myśli szeroko pojęte nauki humanistyczne, ale również nauki społeczne. Prawda jest jednak taka, że oprogramowanie jest w stanie wygenerować także kod komputerowy, więc problem nie dotyczy wyłącznie humanistyki.
Jednym ze sposobów doraźnego rozwiązania problemu może być na przykład pisanie prac na uczelni. Studenci mogliby wówczas korzystać ze źródeł pod kontrolą wykładowcy. Problem w tym, że na napisanie dobrego eseju często potrzeba wielu godzin i gruntownego researchu oraz lektury. Znając życie, pojawią się też głosy krytyczne wobec samego eseju jako formy zaliczenia, jestem jednak zdania, że chcąc zachować przy życiu kulturę pisania, nie ma innej drogi niż kształcenie również w tym kierunku.
Co rekomendują śląscy naukowcy?
Opublikowane pod koniec kwietnia rekomendacje Śląskiego Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych CYBER SCIENCE przeszły niemal bez echa, a szkoda, bo są wyjątkowo wyważone. Nie znajdziemy w tekście ubolewania nad upadkiem nauki, nawoływania do banowania chatbotów. Wręcz przeciwnie, dostrzeżemy tam zachętę do korzystania z różnych źródeł.
„Uczelnie gwarantują otwartość naukową, ale także dydaktyczną na nowoczesne narzędzia informatyczne. Swoboda w korzystaniu z różnych narzędzi informatycznych, w tym takich jak generatory treści wpisuje się w otwartość naukową nauki i dydaktyki.”
– czytamy w pierwszym punkcie rekomendacji.
Trzeba przyznać, że uspokajający ton pozwala nieco odetchnąć z ulgą. W dalszych punktach znajdziemy apel o krytyczne podejście do źródeł, również tych stworzonych przez generatywną sztuczną inteligencję. I prawidłowo, bo problem halucynowania przez tego typu narzędzia jest już dobrze znany. Dość powiedzieć, że chatboty potrafią tworzyć fikcyjne cytaty, podawać nieistniejące źródła albo po prostu przeinaczać fakty. O człowieku w takiej sytuacji powiedzielibyśmy, że kłamie lub konfabuluje.
Dalej przeczytamy, że - owszem - można skorzystać z generatorów treści w pracy badawczej i dydaktycznej, ale konieczne jest wskazanie źródła. Takie postawienie sprawy również brzmi rozsądnie. Mowa także o etyce i poszanowaniu praw autorskich, co nie może budzić wątpliwości. Nie licząc faktu, że istnieją prawne kontrowersje związane narzędziami sztucznej inteligencji. Dlatego za chwilę przeczytamy już, że:
„Treść wygenerowana przez generatory treści, niezależnie czy jest to tekst, algorytm, oprogramowanie, czy obraz bądź muzyka, nie uznaje się za autorstwo studenta, doktoranta, pracownika naukowego itd., który użył tego narzędzia. Dla poprawności naukowej czy dydaktycznej należy podawać źródło ich wygenerowania.”
Ciekawie robi się w punktach 8. i 9. Pierwszy z wymienionych rekomenduje wzięcie pod uwagę przez wykładowców faktu, że studenci mogą korzystać z tego typu narzędzi, dlatego testy i inne formy zaliczenia powinny „umożliwiać weryfikację rzeczywistej wiedzy studentów”.
Punkt 9 przywołam w całości, bo jest chyba najbardziej problematyczny:
„Propaguje się wykorzystywanie detektorów treści tworzonych przez generatory treści i innych tego typu narzędzi do weryfikacji prac przedłożonych przez studentów, w tym zaliczeniowych oraz dyplomowych oraz losowe wybieranie prac do weryfikacji.”
W przypadku sztucznej inteligencji problem z detektorami jest taki, że... nie działają. By nie być gołosłownym sprawdziłem niedawno 9 esejów zaliczeniowych różnych autorów, napisanych przed publicznym udostępnieniem ChatGPT, czy Bing AI. W każdym przypadku narzędzia typu zeroGPT czy detektor oferowany przez Open AI miały wątpliwości, co do ludzkiego autorstwa. Otrzymywałem więc komunikaty typu „Klasyfikator uważa, że tekst prawdopodobnie został wygenerowany przez sztuczną inteligencję”, lub „Zdecydowanie AI”. Dotyczyło to również moich tekstów ze studiów, o których stuprocentowo mogę powiedzieć, że powstały samodzielnie.
Problem z detekcją treści generowanych przez sztuczną inteligencję potwierdzają zresztą najnowsze badania naukowe. Niedawno na łamach NewScientist mogliśmy przeczytać, że naukowcy z Uniwersytetu Maryland dowiedli, iż techniki weryfikacji nie są wiarygodne. Ich skuteczność można porównać do rzutu monetą. Wraz z rozwojem modeli problem się będzie pogłębiał.
Naukowcy twierdzą, że nie można wylewać dziecka z kąpielą.
Śląscy naukowcy w kolejnych punktach rekomendacji piszą, że należy propagować wiedzę o narzędziach do generowania treści, ale mówić również o zasadach etycznych i prawnych. To również słuszne podejście, bo przecież problem samodzielności prac zaliczeniowych czy dyplomowych nie jest nowy. Generatywna sztuczna inteligencja daje po prostu znacznie większe możliwości, a przede wszystkim znacząco przyspiesza proces tworzenia treści.
Nie pomylę się zapewne, gdy napiszę, że ściąganie jest stare jak edukacja. Przed ChatGPT oraz innymi tego typu narzędziami istniał przecież problem handlu pracami dyplomowymi i zapewne występuje nadal.
Z całą pewnością nadchodzi trudny czas dla edukacji. Opisywane zagadnienia nie dotyczą wyłącznie studiów wyższych, ale również średnich i podstawowych. Na niższych szczeblach problem może mieć jeszcze bardziej doniosłe konsekwencje, bo przecież nabycie umiejętności pisania - w szerokim tego słowa znaczeniu - to jedno z zadań, jakie stoją przed szkołą. A przecież chatboty potrafią znacznie więcej i ich możliwości nie dotyczą wyłącznie pisania, ale również liczenia, rozwiązywania zadań z chemii czy fizyki.
Można zacząć lamentować i wieszczyć upadek cywilizacji. Bardziej podoba mi się to, co zrobili naukowcy ze Śląska w swoich rekomendacjach. Musimy zastanowić się bowiem, jak wykorzystać nowe narzędzia również, a może przede wszystkim w edukacji, a nie stać się luddystami, którzy niszczyli krosna tkackie licząc, że zatrzymają mechanizację i postęp.