REKLAMA

Złamali zabezpieczenia chatbota. Teraz wykorzystują sztuczną inteligencję przeciw ludziom

Tworzenie wypracowań, błędy rzeczowe czy wykazywanie uprzedzeń - to wierzchołek góry lodowej tego z czym mierzy się OpenAI. Bo gdzieś, nomen omen, głęboko są użytkownicy, którzy obeszli zabezpieczenia i namiętnie wykorzystują sztuczną inteligencję do działania w szkodliwy, lecz anonimowy sposób.

09.02.2023 09.37
Złamali zabezpieczenia chatbota. Teraz wykorzystują sztuczną inteligencję przeciw ludziom
REKLAMA

ChatGPT jest równie świetnym, co problematycznym narzędziem. Za jego pomocą można porozmawiać ze sztuczną inteligencją tak, jak z człowiekiem. Chatbota można poprosić o napisanie tekstu, przepisu na lazanię, e-maila, odpowiedzi na trapiące pytanie, kodu aplikacji komputerowej czy jakiegokolwiek innej treści, której nie potrafimy sformułować.

Czytaj także:
- W Google'u mogą zacząć się modlić. Bing Microsoftu właśnie wywrócił internet do góry nogami

REKLAMA

Powoli odnajdujemy się w tej rzeczywistości: niektóre aplikacje wdrażają API ChatGPT by mieć chatbota u siebie, szkoły blokują ChatGPT, by przeciwdziałać pracy niesamodzielnej, OpenAI wydało klasyfikator tekstu sprawdzający, czy treści są pisane przez SI, czy przez człowieka. Jednak ten sielankowy obraz może zostać zburzony przez podziemie hakerskie.

ChatGPT ma śliczną zbroję. Dziurawą jak ser szwajcarski

Kto kiedykolwiek rozmawiał z ChatGPT wie, że jeszcze przed wydaniem OpenAI zdawało sobie sprawę ze wszystkich problemów trapiących SI, takich jak uprzedzenia, ograniczenia, błędy oraz psotni internauci. Z tego powodu popularnego chatbota wyposażono w Moderation API, który blokuje kontrowersyjne rozmowy. Dyskusja o zbrodniarzach wojennych, ksenofobii, rasizmie? A może generowanie e-maili phishingowych lub złośliwego kodu? To w przypadku ChatGPT nie przejdzie.

Bariera językowa działa jednak na niekorzyść OpenAI. W języku polskim (a w domniemaniu, również w innych niż angielski) można tworzyć niepokojące treści. Nadal tą niedoskonałość da się załatać za pomocą treningu i dalszego dostrajania modelu. Nie można tego samego powiedzieć o hakerach.

Badacze z Check Point Research w najnowszym raporcie obnażyli pewien problem, a mianowicie wykorzystanie ChatGPT przez podziemie hakerskie. Hakerzy nie modyfikują modelu jako takiego, nie sprawiają, że ChatGPT w odpowiedzi na grzecznie sformułowane pytanie odpowie w sposób niewłaściwy. Jak donosi organizacja, przestępcy omijają wszystkie zabezpieczenia nałożone na model, by wykorzystywać go do tworzenia szkodliwych treści.

Sposoby są dwa: pierwszym jest wykorzystanie skryptu, który sprawia, że nawet otwierając ChatGPT bezpośrednio na stronie OpenAI omijane są zabezpieczenia modelu. Dzięki czemu można porozmawiać z chatbotem o wszystkim i poprosić go o wszystko. Co gorsza, skrypt dostępny jest w jednym z publicznych repozytoriów GitHuba.

Druga metoda wykorzystuje API OpenAI. API to interfejs programowania aplikacji, który organizacja publicznie udostępnia każdemu. Za odpowiednią opłatą każdy może zaimplementować sztuczną inteligencję OpenAI na swojej stronie lub w aplikacji. API modelu GPT-3 wykorzystuje m.in. aplikacja do nauki języków Duolingo. Jak podaje Check Point Research, rosyjscy hakerzy za pomocą tego samego API tworzą boty na Telegramie, które są reklamowane na forach hakerskich. Dlaczego tam? Bo samo API posiada bardzo mało zabezpieczeń, dzięki czemu boty z Telegrama mogą z powodzeniem zostać wykorzystane do tworzenia wiadomości wykorzystywanych w kampaniach phishingowych czy złośliwego kodu - nawet przez osoby nieposiadające umiejętności programowania. Dorzućmy do tego warstwę prywatności, jaką daje Telegram i przepis na kłopoty gotowy.

 class="wp-image-3306498"
Przykład wykorzystania bota na Telegramie do tworzenia szkodliwego oprogramowania / Check Point Research

Schody do piekła.

To właściwie początek problemu. Zakładając potencjał tworzenia treści, jaki nam sztuczna inteligencja oferuje dzisiaj, dostępność jej API, nikłe zabezpieczenia API oraz prywatność, jakie dają pewne kanały komunikacji to sposoby niewłaściwego wykorzystania SI będą się tylko piętrzyć.

Już teraz możliwości modeli językowych pozwalają na spreparowanie np. treści informacji prasowej o śmierci polityka, a modele text-to-image zapewnią takiej informacji warstwę graficzną. W potencjalnym szerzeniu dezinformacji, fake newsów i deepfake'ów nie pomaga fakt, że Google właśnie ogłosił, że nie będzie mieć nic przeciwko wysokiej jakości treściom w wynikach wyszukiwania.

Z kolei jednym z głównych czynników, który chroni większość Polaków przed kampaniami phishingowymi i różnego rodzaju oszustwami jest fakt, że cyberprzestępcy mają problemy z poprawną polszczyzną i odtworzeniem szat graficznych różnych serwisów. SI sprawia, że w mgnieniu oka to wszystko nie musi być żadnym wyzwaniem.

Jeżeli dojdzie do popularyzacji takich nieautoryzowanych botów, prędzej czy później dotrą do nich dzieci i młodzież, które mogą wykorzystać niekontrolowaną wylewność sztucznej inteligencji. Choć ChatGPT jest wykorzystywany do pracy niesamodzielnej, to jako chatbot, z którym może porozmawiać każdy w obecnej formie dostępnej na stronie OpenAI, jest on bezpiecznym, wirtualnym placem zabaw dla dzieci.

Kontrolowane środowisko.

REKLAMA

Koniec końców wytworzył nam się pewien problem. Chcemy mieć SI wszędzie: w każdej aplikacji, w każdej usłudze. Mostem pomiędzy różnymi aplikacjami oraz usługami i SI jest API, które jednak wiąże się z pewnymi ograniczeniami. Implementacja własnego modelu sztucznej inteligencji to ogromny wysiłek, wydatek i przedsięwzięcie, na które stać jedynie Big Techy, które już teraz postawiły Barda i Prometeusza - dlatego wiele firm czerpie z poidła poprzez API innych firm.

Z jednej strony, OpenAI - ze względu na ogromną popularność ChatGPT i innych swoich modeli - musi zaadresować te problemy. Z drugiej, odpowiednie zmiany mogą zająć tygodnie, o ile nie miesiące. A w międzyczasie samozwańczy hakerzy będą tworzyć złośliwe oprogramowanie poprzez Telegram.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA