REKLAMA

Gdyby udostępnili to narzędzie, internet by zapłonął. OpenAI ma prawdziwą puszkę Pandory

OpenAI ma technologię, która może utrzeć nosa leniwym uczniom i studentom. Jednak klasyfikator, który ma niemalże 100 proc. skuteczność wykrywania tekstu wygenerowanego przez AI wciąż jest niedostępny dla użytkowników. Powód tego jest co najmniej nietypowy

05.08.2024 06.41
Gdyby udostępnili to narzędzie, internet by zapłonął. OpenAI ma prawdziwą puszkę Pandory
REKLAMA

Pomimo szerokiego rozpowszechnienia generatywnej sztucznej inteligencji, wciąż nie istnieje technologia, która pozwoliłaby na jednoznaczne stwierdzenie, czy dany tekst został wygenerowany przez AI. Choć stworzenie tego typu narzędzi były podejmowane wielokrotnie, to nawet te od OpenAI szybko okazywały się wskazywać tekst napisany przez człowieka jako napisany przez AI.

Według relacji OpenAI nie porzuciło pomysłu stworzenia klasyfikatora tekstu, który mógłby skutecznie odróżnić twory ludzie od tworów maszyny, bo ten jest już gotowy. Jednak firma ma powody, by nie oddać go szerszemu gronu użytkowników.

REKLAMA

OpenAI ma zabójczo skuteczne narzędzie do wykrywania czy tekst został stworzony przez AI

Jak informuje dziennik The Wall Street Journal, OpenAI posiada narzędzia pozwalające na sprawdzenie czy dany tekst został napisany przez człowieka, czy wygenerowany przez maszynę. Zgodnie z przekazem, technologia została opracowana już dwa lata temu, jednak firma bała się ją wypuścić ze względu na związane z nią "ryzyko".

ChatGPT opiera się na generatywnej sztucznej inteligencji, która jest niczym innym jak systemem komputerowym przewidującym, jakie wyrazy powinny znaleźć się w odpowiedzi na prompt (zapytanie) użytkownika. W przypadku dużych modeli językowych AI jednostką danych, słowami lub ich fragmentami, są tokeny. Generując wypowiedź model skupia się na łączeniu różnych tokenów - stąd też cenniki API AI, które oparte są nie na liczbie wyrazów a na liczbie tokenów.

Technologia, którą opracowało OpenAI zakłada zmianę w sposobie, w jaki model dobiera tokeny, tworząc "tekstowe znaki wodne". Dzięki tym znakom, według relacji jednego z pracowników firmy w rozmowie z "WSJ", klasyfikator osiąga 99 proc. skuteczności w wykrywaniu tekstu wygenerowanego przez AI.

Skuteczny, lecz sypie się jak domek z kart, a OpenAI boi się reakcji użytkowników

Mimo to OpenAI ma dwa powody, by go nie udostępnić. Pierwszym z nich jest łatwość "wymazania" znaków wodnych, przepuszczając wygenerowany tekst poprzez inny generator tekstu, np. Tłumacz Google. Drugim natomiast jest potencjalne niezadowolenie klientów OpenAI.

Według WSJ, na początku 2023 r. jeden ze współzałożycieli OpenAI, John Schulman, przedstawił zalety i wady narzędzia. Kierownictwo OpenAI zdecydowało wówczas, że przed podjęciem dalszych działań zasięgnie opinii szerszego grona osób. Przez następne półtora roku kierownictwo OpenAI wielokrotnie omawiało tę technologię i szukało nowych danych, które pomogłyby podjąć decyzję o jej udostępnieniu. W kwietniu 2023 r. zleciło przeprowadzenie badanie metodą ankietową, którego wyniki pokazały, że zdecydowana większość badanych chciałaby udostępnienia narzędzia pozwalającego na sprawdzenie, czy tekst został wygenerowany przez AI czy nie.

W tym samym miesiącu OpenAI przeprowadziło kolejną ankietę - tym razem wśród użytkowników ChatGPT. Wtedy okazało się, że 69 proc. badanych jest przekonanych, że udostępnienie technologii wykrywania tekstu stworzonego przez AI doprowadziłoby do fałszywych oskarżeń o korzystanie z AI. Natomiast prawie 30 proc. badanych stwierdziło, że używałoby ChatGPT rzadziej, gdyby OpenAI wdrożyło znaki wodne, a rywal tego nie zrobił.

REKLAMA

Więcej na temat sztucznej inteligencji (AI):

REKLAMA
Najnowsze
Aktualizacja: tydzień temu
Aktualizacja: tydzień temu
Aktualizacja: tydzień temu
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA