ChatGPT sprzeda cię w sądzie jak dobry kolega. Lepiej uważaj, co piszesz
Wygląda na to, że ChatGPT jest konfidentem, który najchętniej sprzedałby cię na komendzie. Poufność podczas rozmów z popularnym botem nie istnieje. To, co piszesz, może zostać wykorzystane w sądzie.

Może się wydawać, że korzystając z usług czatbotów, pozostajemy anonimowi. Informacje przecież są przetwarzane przez serwery wielkiej korporacji, dla której jesteśmy tylko liczbą w statystykach oraz potencjalnym źródłem przychodu. Dlaczego ta firma miałaby zwracać na nas uwagę? Na co dzień może tego nie robić. Ale w sytuacjach, gdy władze skontaktują się z twórcami ChataGPT wszystko, co wpisywaliśmy do bota, może zostać wykorzystane przeciwko nam.
ChatGPT nie obowiązuje tajemnica zawodowa. Sprzeda cię w sądzie lub na policji przy pierwszej okazji
Oczywiście, dotyczy to tylko ekstremalnych sytuacji. Na co dzień większość osób korzysta z ChataGPT do zadawania zwykłych pytań, które normalnie zostałyby wpisane w wyszukiwarce Google’a. Obecne raporty wskazują na to, że są tacy, którzy korzystają ze sztucznej inteligencji jako darmowego doradcy prawnego w kwestiach takich jak mandaty za parkowanie czy nawet rozwody.
Pytając sztuczną inteligencję o pomoc w nielegalnych rzeczach typu zbudowanie bomby, oczywiście zobaczymy błąd lub odmowę odpowiedzi. Jest jednak niemalże pewne, że w gronie ponad 8 mld osób na świecie znalazł się ktoś, kto zwrócił się do ChataGPT lub innego bota w kwestiach morderstwa czy narkotyków.
Sam Altman, dyrektor generalny OpenAI odpowiadającej za rozwój ChataGPT jednak uważa, że pytanie o takie kwestie sztuczną inteligencję jest błędem. Dlaczego tak się dzieje?
Wynika to z faktu, że ChataGPT nie obowiązuje poufność. Tajemnica zawodowa obowiązuje np. prawników, którzy są zobowiązani do zachowania w tajemnicy. Natomiast gdyby OpenAI dostało wezwanie sądowe, podałoby wszystkie informacje dotyczące użytkownika - także jego historie rozmów z ChatemGPT.
Obecnie, jeśli rozmawiasz z terapeutą, prawnikiem czy lekarzem… istnieje na to prawny przywilej. Istnieje poufność między lekarzem a pacjentem, istnieje poufność prawna – powiedział Sam Altman.
Prawniczka Jessee Bundy w serwisie X napisała: Sam Altman właśnie potwierdził to, co prawnicy mówili od ponad roku. Korzystając z ChataGPT nie jesteś chroniony Więc jeśli wklejasz umowy, zadajesz pytania prawne lub prosisz o strategię, nie otrzymujesz porady prawnej. Gromadzisz dowody, które można ujawnić - dodała.
Altman jednak zaznacza, że dopóki sędzia nie wyda takiej decyzji, rozmowy nie będą mogły zostać ujawnione w sądzie.
Może się wydawać, że jest to prywatne, bezpieczne i wygodne. Ale prawnicy są zobowiązani Cię chronić. ChatGPT nie ma takiego obowiązku i może zostać użyty przeciwko tobie - Jessee Bundy z profilu Creative Counsel Law w serwisie X.
Więcej o sztucznej inteligencji przeczytasz na Spider's Web: