REKLAMA

Luka bezpieczeństwa w ChatGPT ujawniła wrażliwe dane użytkowników

Inżynierowie OpenAI to wyraźnie wybitni specjaliści z zakresu modeli językowych i sztucznej inteligencji. Firmie zdaje się jednak brakować specjalistów od cyberbezpieczeństwa. ChatGPT zaczął ujawniać wrażliwe dane swoich abonentów.

25.03.2023 09.38
Jak działa ChatGPT?
REKLAMA

OpenAI poinformowało, że jego niezwykły czatbot ChatGPT zawierał usterkę, za sprawą której niektórzy użytkownicy usługi mogli podejrzeć historię rozmów innych użytkowników. Usterka była aktywna 20 marca przez 21 godzin, zanim została wykryta i usunięta. Niestety, z czasem okazało się, że było gorzej.

REKLAMA

OpenAI przyznało, że niewielka część użytkowników ChatGPT (konkretniej: 1,2 proc.) mogła być dotkliwiej poszkodowana przez usterkę. Konkretniej, chodzi o abonentów ChatGPT Plus, których dane osobiste i fragmenty informacji o wykorzystywanych środkach płatniczych mogły być podejrzane przez innych użytkowników.

ChatGPT ujawnił dane swoich abonentów. Jakie?

Do danych, jakie mogły zostać upublicznione, mogły należeć imiona, nazwiska, adresy mailowe, adresy korespondencyjne, cztery ostatnie cyfry kart płatniczych oraz ich daty ważności. OpenAI zapewnia przy tym, że z całą pewnością nie zostały upublicznione pełne numery kart. Firma też, jak twierdzi, już się odezwała bezpośrednio do osób potencjalnie poszkodowanych. Publicznie też przeprosiła.

REKLAMA

Źródłem usterki była otwartoźródłowa biblioteka Redis, będąca częścią systemu pamięci podręcznej czatbota. Problem oczywiście został załatany. Warto jednak sobie przypomnieć, że ChatGPT miał być eksperymentem naukowym. Prawdopodobnie nawet najwięksi optymiści w OpenAI nie przewidzieli tak ogromnego zainteresowania i spektakularnego sukcesu. To by tłumaczyło wpadki związane z bezpieczeństwem - powyższa nie jest pierwszą.

Na dziś niegłupią radą wydaje się rozważyć korzystanie z technologii OpenAI GPT za pośrednictwem innych aplikacji, od firm mających większe doświadczenie z cyberbezpieczeństwem i dobrą reputację. Na myśl przychodzi tu Microsoft i jego czatbot Bing AI, w dużej mierze operujący na tej samej technologii. Nie jest to jednak rada idealna: Microsoft podchodzi wręcz paranoicznie do bezpieczeństwa swojego czatbota, czego efektem ubocznym jest jego niższa funkcjonalność. Wspomniane bezpieczeństwo wydaje się jednak ważniejszym atutem.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA