REKLAMA

Przeczytaj ten tekst, jeśli pracujesz w polskiej uczelni. Jak nie krzywdzić studentów — poradnik

Sektor edukacji prowadzi dość nierówną walkę ze sztuczną inteligencją. Albo inaczej: walkę z wiatrakami. Generatywna AI zostanie z nami już na stałe, dlatego, zamiast walczyć z AI, należy ją zrozumieć i jasno nakreślić granice dozwolonego użytku. Mówię to nie jako dziennikarka, ale jako świeżo upieczona absolwentka studiów.

Przeczytaj ten tekst, jeśli pracujesz w polskiej uczelni. Jak nie krzywdzić studentów — poradnik
REKLAMA

Kiedy pod koniec zeszłego roku OpenAI prezentowało ChatGPT, świat był pod wrażeniem chatbota, z którym można było porozmawiać na każdy temat, a wypowiedzi generowane przez bota były całkiem poczytne, odchodząc od stereotypowego, "bezmyślnego" tłumaczenia maszynowego. Choć technologia nie była jakkolwiek nowa, to wprowadziła ona na stałe do naszej rzeczywistości kolejne narzędzie — generatywną sztuczną inteligencję.

Jak każde narzędzie, ma ono swoje dobre i złe zastosowania. Generatywna AI może być źródłem nowych pomysłów, w sposób prosty odpowiedzieć na złożone pytania czy sporządzić notatkę lub streszczenie na podstawie podanych jej treści. Po drugiej stronie jednak stoją uprzedzenia, halucynacje, prawa autorskie oraz największa bolączka instytucji edukacyjnych: możliwość pracy niesamodzielnej przy pomocy chatbota. Ten ostatni aspekt istnienia chatbotów wyszedł właściwie natychmiastowo, a internet jest pełen historii, w których uczniowie i studenci wysługują się generatywną AI, by napisać to, czego im się nie chce lub nie potrafią.

REKLAMA

Technologia rozkłada ręce: nie da się sprawdzić, czy tekst napisała AI

Treści wygenerowane przez sztuczną inteligencję mają jeden zasadniczy problem: niemożliwe jest wykrycie tego, czy tekst został napisany przez AI, czy nie. Owszem, tu i ówdzie można znaleźć klasyfikatory — narzędzia pozwalające z pewnym prawdopodobieństwem ocenić czy autorem treści jest człowiek, czy maszyna, jednak jak już kiedyś pokazałam, klasyfikator potrafi oznaczyć dzieło człowieka jako wytwór AI. Samo OpenAI stworzyło swój własny klasyfikator, który z tego samego powodu został w mniej niż pół roku wycofany z użytku. Tak więc doszło do odwrotnego trendu, w którym uczelnie wydają oficjalne wytyczne, by nie stosować klasyfikatorów (tu można wymienić choćby Northwestern University czy Uniwersytet Vanderbilta), ponieważ mogą one wydać niesłuszny "wyrok" na uczciwych studentów — zwłaszcza tych, którzy podczas toku nauki nie posługują się ojczystym językiem.

Tak więc powstaje problem: to dydaktyk musi ocenić czy dana praca została wygenerowana przez AI, czy nie. Oprócz typowych dla AI błędów rzeczowych, powtarzalności stylu wypowiedzi oraz nielicznych błędów językowych, najłatwiejszym sposobem identyfikacji autora tekstu jest porównanie do już istniejących próbek tekstu napisanego przez danego ucznia. Pamiętając, że generatywna AI trenowana jest na licznych informacjach z książek oraz internetu, wyszukiwanie pojedynczych fragmentów tekstu może doprowadzić do znalezienia dowodów pracy niesamodzielnej.

Czytaj więcej o sztucznej inteligencji:

Prewencja kluczem do efektywnej pracy i uniknięcia nieprzyjemnych sytuacji

Walka z nadużyciami generatywnej AI w szkole to przede wszystkim działania prewencyjne. Ma ona dwa aspekty: pierwszym jest dostosowanie narzędzi sprawdzania wiedzy do nowych warunków. Tu przede wszystkim mam na myśli zmianę sposobów sprawdzania wiedzy na metody faworyzujące pisanie dłuższych wypowiedzi w obecności wykładowcy (lub nauczyciela) i kiedy to możliwe, sprawdzanie wiedzy sposobami, w których generatywna AI nie pomoże (np. wypowiedź ustna).

Drugim aspektem jest samo podejście do generatywnej sztucznej inteligencji. Negatywne wartościowanie ChatGPT, Binga czy Barda paradoksalnie jest ze szkodą dla dydaktyka i ucznia. Bowiem nie chodzi o to, by zamknąć się całkowicie na generatywną AI, gdyż sypie ona błędami i niczym biblijny zakazany owoc, kusi łatwością wykonywania wymagających zadań. Generatywną AI można wykorzystać z powodzeniem dla obu stron, jednak wymaga to dialogu.

Dialogu, w trakcie którego tak wykładowcy, jak i studenci (lub nauczyciele i uczniowie) wyjaśnią sobie zasady korzystania z AI: co jest dozwolone, a co nie. Oczywiście niedozwolone jest wykorzystanie AI do napisania wypracowania czy eseju - to po prostu plagiat. Ale AI może z powodzeniem opracowywać notatki na podstawie odpowiednich promptów (oraz informacji dostarczonych przez użytkownika, jeżeli temat jest bardziej złożony), może sformułować pytania i podpowiedzi, które ułatwią samodzielne pisanie. Do pewnego stopnia (do pewnego, bowiem nie mamy przywileju takiego jak Harvard), może stanowić podręcznego dydaktyka, który odpowie na pytania, na które odpowiedzi nie udało się znaleźć w literaturze przedmiotu czy po prostu wyjaśni pewne problemy.

Rozmawiajmy o tym co jest dobre, co złe, oraz skąd się to bierze

Dialog potrzebny jest nie tylko po to, by zrozumieć gdzie leżą granice dozwolonego użytku, ale i by zrozumieć generatywną sztuczną inteligencję. Bowiem dyskurs o AI często podejmowany jest w przeświadczeniu, że słowo "inteligencja" w nazwie AI oznacza, że wykazuje ona jakikolwiek stopień świadomości i wiedzy porównywalnej z ludzką, a więc cokolwiek od niej otrzymamy, przejdzie przez pewien filtr: dobrych intencji, nauki, znajomości danego zagadnienia, poprawności językowej i logicznej. Otóż nie przejdzie, bowiem sztuczna inteligencja nie myśli, a generuje tekst na podstawie ogromnego zbioru danych. To, co otrzymujemy jako odpowiedź to "wyobrażenie" systemu komputerowego jak powinien wyglądać idealny ciąg znaków w odpowiedzi na dane zapytanie (prompt). Prawie rok po premierze ChatGPT brzmi trywialnie, jednak nadal wiele osób nie zdaje sobie sprawy, z czego tak właściwie korzysta — a więc gdzie leżą silne i słabe strony generatywnej AI.

Mój ostatni rok na studiach przejechałam na sztucznej inteligencji

Cała ta wiedza nie jest jakkolwiek nowa, przewijając się w moich poprzednich tekstach poruszających tematykę sektora edukacji i sztucznej inteligencji. Jednak nie jest to jedynie wiedza zasłyszana i przeczytana, bowiem są to moje własne doświadczenia. Jestem świeżo upieczoną absolwentką studiów licencjackich i ostatni rok mojej nauki przypadł właśnie na okres boomu na generatywną sztuczną inteligencję, tak więc znajdowałam się w dość ciekawej pozycji: wiedziałam o AI wiele, więcej niż osoby naokoło mnie. Wykorzystywałam AI do nauki, ale nie do pracy niesamodzielnej.

Choć moi wykładowcy nie mieli dostępu do klasyfikatorów, moje teksty są dostępne w sieci — wystarczy wejść na Spider's Web, by znaleźć tekst do porównania i zobaczenia, czy wykładowcom piszę w tym samym stylu, co na łamach serwisu. AI nie pisała moich prac i wypracowań, ale za to namiętnie pomagała mi w nauce poprzez wspomniane już wcześniej sporządzanie notatek, streszczanie mi dłuższych tekstów (czy w ogóle publikacji naukowych jeżeli format na to pozwalał) czy odpowiadając na pytania szybciej niż wykładowca, a przystępniej niż wyszukiwanie frazy za pomocą wyszukiwarki. AI (w tym przypadku muszę nazwać rzeczy po imieniu: Bing) była też nieocenioną pomocą przy szukaniu materiałów do pracy dyplomowej, gdyż zamiast żmudnego przeszukiwania Google Scholar słowami kluczowymi, szybko udawało mi się znajdować prace poprzez opisanie obszaru zainteresowania poszczególnych rozdziałów.

Z moimi działaniami się nie kryłam, bo nie miałam nawet czego kryć. Używałam AI niczym wyszukiwarki, skracacza tekstu, asystenta, który na poczekaniu czytał, co stworzyłam lub o czym myślę i dawał mi drogowskaz do dalszej pracy.

REKLAMA

Taki powinien być nadchodzący rok

Poprzedni rok akademicki (ale także szkolny) nazwałabym bardziej pilotażowym jeżeli chodzi o sztuczną inteligencję. Przekonaliśmy się, z czym to się je, jakie są zagrożenia, ale i benefity dla nas (oraz mas). Teraz mamy rok myśli konstruktywnej: mamy narzędzie, wiemy plus-minus jak działa, jak możemy wykorzystać to na naszą korzyść?

AI nie myśli, klasyfikatory są na tyle beznadziejne, że przyznają to ich sami twórcy i awykonalnym jest, by cały ciężar nauki zostawić jedynie w placówkach edukacyjnych — praca samodzielna w domu po prostu musi być. Mimo to da się pogodzić dwie rzeczywistości: AI i uczelnianą oraz szkolną. Zamiast pomijać użycie AI w placówkach edukacyjnych, wrzucając ją w szarą strefę, nadchodzący rok akademicki (oraz trwający szkolny) powinien upłynąć pod znakiem słów: "Zdaję sobie sprawę z istnienia generatywnej sztucznej inteligencji i jej wykorzystania. Na moich zajęciach te sposoby wykorzystania SI są niepożądane, te wymagają oznaczenia autorstwa, a w ten sposób chcę, abyście w domu korzystali z chatbotów. Na te rzeczy uważajcie, a te triki wykorzystujcie."

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA