ChatGPT potrafi potwierdzić, że nie jest robotem. Ratuj się kto może
W internecie możemy natrafić na testy, dzięki którym potwierdzamy, że nie jesteśmy robotami. Narzędzie właśnie straciło na znaczeniu - teraz nawet ChatGPT potrafi je rozwiązać.

O przypadkach czatbotów sztucznej inteligencji rozwiązujących zagadki dla ludzi pisaliśmy już wcześniej, gdy AI dopiero raczkowała. Dzisiejsza sztuczna inteligencja potrafi jednak znacznie więcej: OpenAI udostępniło agenta AI, który zyskał funkcję rozumienia i interakcji z narzędziami internetowymi. Czatbot sztucznej inteligencji może rozwiązać test, który miał na celu odróżniać ludzi od botów.
ChatGPT twierdzi, że nie jest robotem. Potrafi wykonać test dla ludzi
CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) to test wykorzystywany na stronach internetowych w celu filtrowania ludzi i botów. Został stworzony, aby zminimalizować spam, sztuczne obciążanie czy fałszywe rejestracje na stronach internetowych. Test najczęściej wymaga od użytkownika kliknięcia kwadratu.
Zdarzają się też bardziej zaawansowane warianty testu: wpisanie sekwencji znaków (liter i cyfr) czy zaznaczanie określonych elementów na obrazkach: np. sygnalizacji świetlnej. CAPTCHA nigdy nie była niezawodna, ale teraz przez rozwój ChataGPT będzie jeszcze mniej skuteczna.
Badacze z SPLX pokazali, że agent ChatGPT bez problemu radzi sobie z rozwiązaniem testu CAPTCHA. Nie jest to jednak tak łatwe, jak mogłoby się wydawać. Proste poproszenie sztucznej inteligencji, aby wykonała test, kończy się fiaskiem: AI powołuje się na ograniczenia dotyczące działania testu. Oznacza to, że twórcy sztucznej inteligencji częściowo zabezpieczyli swoje narzędzie przed prostymi nadużyciami związanymi z użytkowaniem usługi w celach weryfikowania czy jest się człowiekiem.
Problemem AI jest to, że jest podatna na różne manipulacje kontekstem. Zadając pytanie w inny sposób można wyciągnąć odpowiedź, której standardowo nie otrzymalibyśmy wykorzystując dosłowne pytanie. Badacze z SPLX również wykorzystali tę metodę, bazując na kontekście wcześniejszej rozmowy z ChatGPT 4o. Następnie wstrzyknięto identyczne polecenia do agenta sztucznej inteligencji, który jest w stanie wykonywać czynności w imieniu użytkownika.
Można powiedzieć, że w tej sytuacji bot został wykorzystany do ominięcia testu, który został stworzony, aby zatrzymywać boty i odróżniać je od ludzi. Oczywiście nie było to tak proste - wymagało zmyślnej manipulacji ze strony korzystającego. Mimo wszystko znając odpowiedni techniki, narzędzie daje duże możliwości przechodzenia przez testy CAPTCHA bez potrzeby interwencji człowieka.
Ale czy aby na pewno? Nie do końca. Jak agent ChatGPT nie miał większego problemu z prostymi testami wymagającymi jednego kliknięcia, tak bardziej skomplikowane zagadki wymagające precyzji - np. obracanie obiektów czy ich przeciąganie i upuszczanie najczęściej kończyły się niepowodzeniem. Testy oparte na obrazkach - np. odczytywanie liter i cyfr czasami też się udawało.
Interesujące jest również to, że w przypadku niektórych testów ChatGPT samodzielnie się uczył i wyciągał wnioski - trochę jak człowiek. Nawet pomimo tego, że badacze obsługujący narzędzie nie wydawali takiego polecenia. Powszechna dostępność agentów sztucznej inteligencji może położyć kres znaczeniu CAPTCHA. No, chyba że ich twórcy odpowiednio zabezpieczą boty przed nadużyciami.
Więcej o sztucznej inteligencji przeczytasz na Spider's Web: