Samsung zablokował pracownikom dostęp do chatbotów. I trudno mu się dziwić
Samsung docenia generatywną sztuczną inteligencję jako narzędzie poprawiające produktywność pracowników. Jednak akceptacja nowej technologii w szeregach kończy się, gdy pracownicy koncernu doprowadzają do wycieku danych. Koreański gigant zablokował dostęp do generatywnej SI i według informacji pracuje nad własnym rozwiązaniem mającym zastąpić ChatGPT, Barda i Bing.
Generatywna sztuczna inteligencja stanowi nieocenioną pomoc i źródło inspiracji dla pracowników właściwie każdej firmy. Najnowsza technologia dosłownie sypie pomysłami na treść maili czy postów reklamowych, sypie także pomysłami na poprawienie kodu dla programistów. W przypadku koreańskiego giganta generatywna SI przyczyniła się do wysypania informacji.
Jak wynika z informacji przekazanych przez Bloomberg, w poniedziałek 1 maja koreański oddział Samsunga poinformował swych pracowników o nowych wytycznych dotyczących pracy z generatywną SI. Według wewnętrznych dokumentów, do których dotarł Mark Gurman, Samsung "ma obawy", że używanie sztucznej inteligencji doprowadzi do szerszego wycieku danych. W notce wysłanej pracownikom koncern wymienia m.in. Barda i Binga, które informacje przetwarzają i przechowują na zewnętrznych serwerach, niedostępnych dla Samsunga.
W Samsungu doszło do wycieku poufnych danych. Winni: pracownicy i generatywna SI.
Ze względu na te obawy, nowe wytyczne obejmują całkowity zakaz używania generatywnej sztucznej inteligencji na firmowych komputerach, tabletach oraz telefonach, a także w sieciach wewnątrz firmy.
Nowa polityka korzystania z generatywnej SI nie dotknie klientów, gdyż nie obejmuje urządzeń sprzedawanych przez Samsunga. Zakaz nie obejmuje także prywatnych urządzeń pracowników koncernu. Jednocześnie Samsung poprosił pracowników, którzy korzystają z ChatGPT i innych narzędzi na osobistych urządzeniach, aby nie przesyłali żadnych informacji związanych z firmą ani danych osobowych, które mogłyby ujawnić poufne informacje. Za złamanie zakazu pracownicy mogą zostać zwolnieni.
"Prosimy o sumienne przestrzeganie naszych wytycznych dotyczących bezpieczeństwa, a ich nieprzestrzeganie może spowodować naruszenie lub narażenie na niebezpieczeństwo informacji firmowych. Naruszenie poskutkuje postępowaniem dyscyplinarnym do rozwiązania stosunku pracy włącznie"
- czytamy we fragmencie dokumentu opublikowanym przez Bloomberg
Obawy Samsunga nie są bezpodstawne, gdyż na początku kwietnia doszło do aż trzech wycieków danych związanych z użyciem ChatGPT. The Economist Korea informowało, że w pierwszym przypadku wyciek spowodował programista sprawdzający kod pod kątem błędów, drugi również programista proszący chatbot o optymalizację napisanego kodu. Źródłem ostatniego wycieku był pracownik, który użył informacji ze spotkania do wygenerowania treści prezentacji. Już wtedy Samsung poinformował swoich pracowników, że jeżeli dojdzie do "podobnego wypadku, nawet po zastosowaniu awaryjnych środków ochrony informacji" to dostęp do ChatGPT "może zostać zablokowany w sieci firmowej".
Samsung pracuje nad własną generatywną SI.
Jednocześnie koreański koncern nie jest przeciwko wykorzystaniu generatywnej SI w pracy jako takiej. Zgodnie z przekazem Gurmana, Samsung pracuje nad autorskimi, wewnętrznymi narzędziami do tłumaczenia, streszczania dokumentów oraz programowania, które wykorzystują sztuczną inteligencję.
"Centrala [Samsung Electronics Inc.] dokonuje przeglądu środków bezpieczeństwa, aby stworzyć bezpieczne środowisko do bezpiecznego korzystania z generatywnej SI w celu zwiększenia produktywności i wydajności pracowników. […] Jednakże, do czasu przygotowania tych środków, tymczasowo ograniczamy korzystanie z generatywnej SI."
- czytamy w dalszej części dokumentu