AI oskarżyła studentkę, że korzystała z AI. Nadchodzą koszmarne czasy dla uczących się
Jest tylko jedna rzecz, która denerwuje mnie bardziej od przeceniania AI i wmawiania, że odkryto koło na nowo - jest nią użycie AI do wykrywania AI. Pół biedy jak pokłócisz się ze szwagrem o deepfejka, ale co mają powiedzieć studenci, gdy system kosztujący uczelnię grube tysiące niesłusznie podważył wiele godzin pracy?
Obecnie w Polsce wielkimi krokami nadchodzi czas składania i obron prac dyplomowych - licencjatów, prac magisterskich i wywodów doktorskich. Z reszta nie tylko w Polsce, bo w sporej części krajów świata w miesiącach letnich kończy się rok akademicki. Jest to także drugie zakończenie roku akademickiego mającego miejsce po "boomie na AI" i oczekiwanie, że gdzieś w toku pracy pojawi się sztuczna inteligencja jako narzędzie, nie jest bezzasadne.
Co jest bezzasadne to oczekiwanie, że AI wykryje użycie AI.
Studentka ze Stanów pokazuje to, czego boję się najbardziej - zniechęcenia dzieciaków do użycia przydatnych im narzędzi
Na TikToku ogromną popularność zebrało nagranie @maggiesavannah1, która opowiedziała o byciu oskarżoną o użycie AI do napisania swojej pracy. Maggie jest studentką na amerykańskim Liberty University w stanie Virginia, która przekazała profesorowi swoją pracę semestralną. Zgodnie z wytycznymi władz uczelni, praca została przetworzona przez system Turnitin wykrywający użycie AI w tekście. Turnitin po analizie zwrócił profesorowi informację, że 35 proc. pracy zostało napisane przez AI.
@maggiesavannah1 #greenscreen i was wrongfully accused of using ai to write a final paper. what would you do in my situation? @Marley Stevens has a GREAT series on her profile about grammarly being flagged as ai and her advocacy against it. i will update yall when i know more 🩷 #ai #college #falselyaccused
♬ original sound - maggiesavannah1
W odpowiedzi na zarzuty dziewczyna zebrała liczne publikacje wskazujące, że technologia oferowana przzez firmę Turnitin wielokrotnie się myliła. Wśród przykładów przytoczonych przez TikTokerkę był także artykuł The Washington Post w któym dziennikarze wskazali, że choć system poprawnie wykrył wszystkie prace napisane przez AI, to wskazywał on też fałszywe pozytywy - czyli oznaczał jako napisane przez AI treści, które w stu procentach napisał człowiek.
Dziewczyna spanikowała i bojąc się dalszej "ingerencji" AI w swoje publikacji, usunęła Grammarly - czyli po prostu wtyczkę sprawdzającą pisownię i interpunkcję.
Użycie klasyfikatorów sprawia, że uczelnie się ośmieszają
Staram się rozumieć uczelnię, dlaczego sięga po rozwiązania sprawdzające, czy przy wykonywaniu zadań wynikających z toku nauczania nie dochodzi nadużyć narzędzi wykorzystujących sztuczną inteligencję. To obawa całkiem zasadna. Jednak to, czego nie rozumiem to fakt, dlaczego mając na tacy podane przykłady błędów i ogólnej nieskuteczności klasyfikatorów tekstu (bo jak mówiła TikTokerka, argumenty na nieskuteczność Turnitin znalazła poprzez wyszukiwanie w internecie), uczelnie stosują ten sam "trik" co studenci: wysługują się sztuczną inteligencją.
O tym, że klasyfikatory nie działają, przekonał się mój redakcyjny kolega, który w ramach eksperymentu przepuścił przez systemy "anty-AI" własne prace semestralne napisane na studiach na długo przed boomem na AI. Owe systemy wykazały wątpliwości odnośnie samodzielności pracy. Idąc za ciosem, zrobił to samo z losowymi artykułami naukowymi pisanymi w latach 90. Efekt był podobny.
Korzystanie przez uczelnie z nieskutecznych systemów jest krzywdzące dla studenta, bo poddaje w wątpliwość wartość jego pracy tylko ze względu na użyte sformułowania, ale także podważa autorytet samej instytucji. Bo czy komukolwiek chciałoby się kształcić na uniwersytecie, na którym można zostać przekreślonym tylko dlatego, że uczelniany system wypluł "35 procent tekstu zostało wygenerowane przez AI"?
Jeżeli student chce oszukać system, znajdzie na to sposób. Handel pracami dyplomowymi i "licencjaty na zlecenie" to formalnie nielegalny, a praktycznie kwitnący i całkiem lukratywny biznes i mało komu chce się bawić w generowanie tekstu kawałek po kawałku (bo żaden z dostępnych modeli naraz nie wygeneruje całej publikacji - istnieją limity znaków), jeżeli człowiek zrobi to samo. Zapewne za opłatą, lecz bez konieczności sprawdzania, czy zdania mają ład i skład, albo czy Powstanie Listopadowe nie było w maju.
Co gorsze w tej prozaicznej historii z TikToka to fakt, że fałszywy pozytyw odrzucił dziewczynę od korzystania z AI w ogóle.
AI jest bardzo modne. Ale pamiętajmy: to po prostu narzędzie. Postrzegamy je tak samo jak internet 20 lat temu
AI jest dziś nadużywane marketingowo i te dwie literki zdobią reklamy dotyczące niemal każdego produktu, który w jakiś sposób można podpiąć do prądu. Tym bardziej trzeba pamiętać, że szeroko pojęte duże modele językowe, sztuczna inteligencja, uczenie maszynowe nie są systemami o nadludzkich umiejętnościach, a narzędziami. Narzędzia same w sobie nie są złe ani dobre i tylko od nas zależy ich wykorzystanie. A AI zdecydowanie można wykorzystać w pisaniu pracy.
Pomijając oczywisty przykład wtyczki sprawdzającej pisownię, AI w formie czatbota może podpowiedzieć tytuł rozdziału, zasugerować inny sposób napisania tego samego zdania czy w prostszy, krótszy sposób opisania jakiegoś zjawiska. AI może pomóc także w pewnej koszmarnej kwestii: formatowaniem pracy.
Nadal mówimy o sytuacji ze Stanów Zjednoczonych, a póki co w Polsce nie znam uczelni, która by używała systemu Turnitin lub innego mu podobnego (poza systemami antyplagiat, które od kilku ładnych lat sprawdzają prace pod kątem ich oryginalności). Jednak studia za granicą nie są rzadkością, a my nie żyjemy w państwie odległym od światowych standardów. W pewnym momencie ktoś pomyśli o zastosowaniu podobnego klasyfikatora w Polsce i pominie fakt, że nawet OpenAI przyznaje, że takiego systemu nie da się obecnie skonstruować.
Może zainteresować cię także: