ChatGPT to poważne zagrożenie bezpieczeństwa? Bot jest karmiony poufnymi, tajnymi danymi
Pracownicy firm ignorują ostrzeżenia ChatGPT o przetwarzaniu danych i używają go do pomocy w analizowaniu firmowych dokumentów. W tym o charakterze wysoce poufnym. Wpadka inżynierów Samsunga to zapewne tylko czubek góry lodowej.
Microsoft pracuje nad usługą Microsoft 365 Copilot, która zapewni pracownikom biurowym moc technologii językowej GPT-4 i mechanizmów Microsoft Graph i SharePoint, by mogli w bezpieczny dla firmy sposób korzystać z tych zupełnie nowych narzędzi. Niektórzy jednak nie zamierzają czekać. ChatGPT, który de facto jest poligonem doświadczalnym dla kolejnych wersji modeli językowego GPT, działa już od dawna, będąc niezwykle użytecznym. I potencjalnie niebezpiecznym.
W przeciwieństwie do produktów Microsoftu, goły ChatGPT rejestruje wszystkie interakcje z użytkownikiem. Historie konwersacji służą inżynierom z OpenAI jako kolejne zestawy językowych danych do szkolenia modeli GPT. Dopóki użytkownik wykorzystuje ChatGPT do celów niekoniecznie poufnych, nie wydaje się to większym problemem. Niektórzy jednak karmią czatbota informacjami nieraz ściśle tajnymi. Tak jak ponoć kilkoro pracowników Samsunga.
ChatGPT przetwarza i analizuje ściśle tajne dokumenty.
Samsung Semiconductor, czyli samsungowa firma od układów scalonych, pozwala swoim pracownikom na korzystanie z ChatGPT w miejscu pracy. To być może się zmieni za sprawą afery, jaką udokumentował The Economist Korea. Okazało się bowiem, że jeden z pracowników wysłał ChatGPT kod źródłowy kluczowego dla firmy mechanizmu bazy danych, by bot sprawdził czy nie a w nim błędów. Inny wykorzystał bota do analizy mikrokodu jednego z układów scalonych Samsunga.
OpenAI nie gwarantuje zachowania poufności danych i wprost informuje, że przetwarza wszystkie otrzymane od użytkowników dane. Otwartym i ciekawym więc pozostaje pytanie, ile tajemnic handlowych i biznesowych przechwyciło OpenAI na skutek nierozwagi pracowników innych firm.
Przypadek Samsunga opisany w koreańskich mediach dowodzi, że konieczne są nowe szkolenia dla pracowników z dziedziny cyberbezpieczeństwa i poufności danych. Trudno się bowiem owym pracownikom dziwić: ChatGPT i pokrewne mu narzędzia to duże ułatwienie w pracy. A skoro nie są objętą firmową polityką bezpieczeństwa, pokusa by ich używać jest bardzo wysoka.
* Ilustracja otwierająca: Kaspars Grinvalds / Shutterstock