REKLAMA

ChatGPT to słaby haker. Coś tam próbował, ale mu nie wyszło

Wbrew opinii wielu osób ChatGPT nie przewróci do góry nogami cyberbezpieczeństwa, dając laikom nieograniczone możliwości tworzenia złośliwego oprogramowania. Zdaniem ekspertów z Bitdefender i Intego dla hakerów generatywna sztuczna inteligencja obecnie stanowi jedynie bardziej inteligentną alternatywę dla Tłumacza Google.

30.05.2023 08.42
ChatGPT to słaby haker. Coś tam próbował, ale mu nie wyszło
REKLAMA

Dyskurs o generatywnej sztucznej inteligencji to niekończąca się wymiana argumentów ukazujących sztuczną inteligencję w pozytywnym, innowacyjnym świetle oraz prezentujących ją jako zagrożenie i niemalże tykającą bombę. Jednakże jest to przerzucanie się argumentami w obszarze różnych dziedzin, bo co gdyby tak skupić się na jednej, konkretnej płaszczyźnie?

Mowa konkretnie o bliskim wszystkim internautom cyberbezpieczeństwie, które według ekspertów nie jest aż tak podatnym gruntem na niegodziwe wykorzystania generatywnej sztucznej inteligencji, z ChatGPT na czele.

REKLAMA

AI zagrożeniem dla cyberbezpieczeństwa? W przypadku phishingu na pewno

Serwis Digitaltrends przeprowadził rozmowę z kilkoma ekspertami z zakresu cyberbezpieczeństwa, m.in. Martinem Zugecem z Bitdefender oraz Joshuą Longiem z Intego, którzy przybliżyli obecną sytuację cyberbezpieczeństwa wobec dużych modeli językowych.

Eksperci byli zgodni, że generatywna sztuczna inteligencja przyda się najbardziej każdemu cyberprzestępcy zaangażowanemu w phishing. Bowiem ChatGPT znacznie ułatwia tworzenie tekstów w językach innych niż wszechobecny angielski, a co za tym idzie, zwiększa wiarygodność maili i wszelkiego rodzaju wiadomości próbujących wyłudzić dane.

Dotychczas jednym z najprostszych sposobów - dla Polaków - na odróżnienie oszustwa od realnej próby kontaktu jest samo spojrzenie na gramatyczną i językową spójność tekstów proszących o wejście na jakąś stronę czy pobranie załącznika. Popularne duże modele językowe wykazują się coraz lepszym potencjałem w języku polskim, a co za tym idzie - nasza pierwsza linia obrony może wkrótce upaść.

Warto jest także nadmienić, że oprócz poprawnych językowo tekstów, ChatGPT jest w stanie wymyślać własne scenariusze i wiarygodną argumentację niezbędną do przekonania ofiary do działania zamierzonego przez cyberprzestępcę.

Duże modele językowe to kiepscy wirusopisarze

Modele OpenAI nie raz i nie dwa udowodniły, że są w stanie pisać kod programistyczny do tworzenia własnych aplikacji w większości najpopularniejszych języków programowania. Czy to oznacza, że tworzenie szeroko pojętych wirusów i złośliwego oprogramowania stało się łatwiejsze niż kiedykolwiek? Tu właśnie eksperci podzielili się ciekawą optyką na sprawę.

Według nich kod tworzony przez sztuczną inteligencję jest niezwykle prosty i wykorzystujący znane już triki, przez co bardzo łatwy do odparcia przez najpopularniejsze systemy ochrony. Hakerzy nowicjusze musieliby się całkiem sporo napracować z promptami, by stworzyć jakkolwiek niebezpieczne oprogramowanie. Z kolei dla tych bardziej doświadczonych generatywna sztuczna inteligencja nie jest atrakcyjna, bo wykorzystując własną wiedzę i dostępne publicznie repozytoria są w stanie szybciej i lepiej skonstruować aplikację o pożądanym działaniu. Zdaniem ekspertów w praktyce nie grozi nam wylew generowanych przez SI wirusów.

Złośliwe oprogramowanie generowane przez chatboty jest ostatnio popularnym tematem dyskusji, ale obecnie nie ma dowodów sugerujących, że stanowi ono znaczące zagrożenie w najbliższej przyszłości.

- powiedział Martin Zugec

Nie ma potrzeby do paniki

REKLAMA

Jednocześnie eksperci wskazują, że duże modele językowe to także miecze obosieczne. Według Joshuy Longa już teraz ChatGPT jest wykorzystywany przez firmy do sprawdzania kodu programistycznego ich oprogramowania pod względem obecności jakichkolwiek luk. To w teorii może również zostać wykorzystane w drugą stronę - do rozebrania przez hakerów aplikacji na części pierwsze i znalezienie potrzebnych do ataku luk.

W dobie sztucznej inteligencji nie musimy stosować dodatkowych środków bezpieczeństwa. Według Longa stosowanie dotychczasowych środków, takich jak nie odwiedzanie niezaufanych witryn, pobieranie aplikacji tylko z oficjalnych kanałów dystrybucji, przyglądanie się dwa razy nadawcy wiadomości i adresom URL czy używanie programu antywirusowego to wystarczająco dobra ochrona przed nieprzyjaznymi tworami ChatGPT.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA