Sprawdzą, czy praca dyplomowa została napisana przez ChatGPT. Jest narzędzie
Nowe informacje potwierdzają, że promotorzy będą sprawdzali, czy studenci nie wykorzystywali ChatGPT w procesie pisania prac dyplomowych. Zmiana weszła w życie w tym miesiącu.
ChatGPT daje ogromne możliwości uczniom oraz studentom. Kiedyś, aby uzyskać rozwiązanie zadania, trzeba było poświęcić trochę czasu na poszukiwania odpowiedzi w standardowej wyszukiwarce. Teraz wiele zadań może zostać rozwiązanych za sprawą jednego polecania wpisanego do czatbota. Chociaż rozwiązanie może także pomóc w pisaniu pracy dyplomowej, to teraz Jednolity System Antyplagiatowy otrzymał funkcję weryfikacji treści napisanych przez AI.
Jest narzędzie, które sprawdzi, czy praca dyplomowa została napisana z pomocą ChatGPT
Nikt chyba nie zaprzeczy, że odpowiednie wykorzystanie sztucznej inteligencji może zaoszczędzić wiele czasu. Generatywna AI obecna w ChatGPT, Google Gemini czy w Microsoft Copilot potrafi w okamgnieniu rozwiązywać najróżniejsze problemy. Jeśli użytkownik uczciwie wykorzystuje te narzędzia, to nie powinno być większego problemu.
Ten pojawia się, gdy osoba podpisze swoim imieniem i nazwiskiem coś, co zostało w większej części lub całości podane przez czatbota AI. Z tego względu pracownicy Ośrodka Przetwarzania Informacji ulepszyli Jednolity System Antyplagiatowy o funkcję sprawdzania treści wygenerowanych przez AI. Narzędzie ma być darmowe dla wszystkich uczelni, ale jak będzie działać w praktyce?
Więcej o narzędziach pomocnych w nauce (i studiach) przeczytasz na Spider's Web:
Rozwiązanie docelowo pomaga wykryć fragmenty w pracy, które zostały napisane przez ChatGPT (lub innego czatbota AI). Metoda ma polegać na postawieniu hipotezy zakładającej, że jeśli w tekście występuje większa regularność, to istnieje większe prawdopodobieństwo, że badany fragment (lub większa część pracy) został wygenerowany przez sztuczną inteligencję. Narzędzie zostało opracowane ze względu na to, że treści, które podają czatboty, takie jak ChatGPT i Microsoft Copilot, są regularne i przewidywalne.
Model zastosowany w JSA został przeszkolony na dużym zbiorze danych tekstowych. Jego działanie najprościej wytłumaczyć, stosując miarę Perplexity. Zgodnie z naszymi założeniami tekst wytworzony przez losowy dobór słów powinien charakteryzować się wysoką wartością Perplexity, natomiast tekst bardzo szablonowy i przewidywalny niską wartością Perplexity. W przypadku tego ostatniego istnieje zasadne podejrzenie, że powstał on przy użyciu sztucznej inteligencji.
Mówi Małgorzata Wartacz, kierowniczka projektu JSA w OPI.
Narzędzie ma pomóc promotorowi w podjęciu decyzji
Jednolity System Antyplagiatowy nie daje jednak stuprocentowej pewności, że tekst został wygenerowany przez sztuczną inteligencję. Jest to wyłącznie narzędzie, które ma pomóc promotorowi podjąć ostateczną decyzję. Nawet twórcy ChatGPT nie dysponują narzędziem, które może jednoznacznie ocenić, czy praca została napisana przez człowieka, czy "wypluta" przez sztuczną inteligencję.