REKLAMA

ChatGPT znowu zmyśla. To coraz większy problem dla sądów

Mimo tego, że nagłówki wielu gazet i serwisów internetowych pełne są przykładów halucynacji i zmyślania przez generatywną AI, nie odstrasza to nas od korzystania z niej. Nie odstrasza to także prawników, bowiem kolejny adwokat powierzył ChatGPT analizę prawną sprawy swojego klienta, w efekcie doprowadzając siebie przed sąd.

ChatGPT znowu zmyśla. To coraz większy problem dla sądów
REKLAMA

Dzięki treningowi na licznych treściach pochodzących z internetu, generatywna sztuczna inteligencja ma całkiem dobre pojęcie na temat różnych wydarzeń i faktów z naszego świata. Jednak tam, gdzie kończą się fakty zaczynają się halucynacje - czyli wymyślanie treści odpowiedzi na podstawie wcześniej wyuczonych schematów językowych.

Halucynacje są szczególnie problematyczne wszędzie tam, gdzie potrzebujemy oprzeć się na faktach. Dobrze przekonują się o tym studenci, ale i... prawnicy. W zeszłym roku opisałam historię nowojorskiego prawnika, który nieświadomie przepisał po ChatGPT przykłady spraw podobnych do jego klienta. Jak pokazuje historia z Kanady, przypadek z Nowego Jorku nie dał prawnikom wystarczającej lekcji.

REKLAMA

ChatGPT znowu zmyśla. I znowu przed sądem

Jak poinformowała Kanadyjska stacja CBC, Sąd Najwyższy prowincji Kolumbia Brytyjska upomniał prawniczkę Chong Ke za włączenie dwóch halucynacji AI do wniosku złożonego w grudniu ubiegłego roku.

Ke reprezentowała chińskiego biznesmena Wei Chena o majątku szacowanym na około od 70 do 90 mln dol. kan. (ok. 206-264 mln zł). Byłą żoną Wei Chena jest Nina Zhang, która żyje wraz z trójką ich dzieci w wartym 8,4 mln dol. domu w dzielnicy Wschodnie Vancouver. W grudniu ubiegłego roku sąd zobligował Chena do płacenia comiesięcznych alimentów na trójkę dzieci w wysokości 16 062 dol. kan. po obliczeniu, że jego coroczny dochód wynosi ponad milion dolarów.

Krótko przed wydaniem tego orzeczenia Ke złożyła w imieniu Chena wniosek o wydanie zezwolenia na podróż do Chin dla jego dzieci. W załączniku do wniosku przytoczono dwie sprawy: jedną, w której matka zabrała swoje "dziecko w wieku 7 lat do Indii na sześć tygodni" i drugą, w której uwzględniono "wniosek matki o podróż z dzieckiem w wieku 9 lat do Chin na cztery tygodnie w celu odwiedzenia rodziców i przyjaciół".

Jak powiedział orzekający w sprawie Cheng Ke sędzia sądu najwyższego, David Masuhara, przykłady spraw ujęte w załączniku okazały się nie istnieć. Działania Ke wyszły na jaw, gdy prawnicy Niny Zheng poinformowali biuro Ke, że potrzebują kopii spraw, aby przygotować odpowiedź i nie mogą ich zlokalizować za pomocą identyfikatorów cytatów.

Ke przekazała list z przeprosinami, w którym przyznała, że sprawy były fałszywe. Masuhara przekazał, że prawniczka złożyła później oświadczenie pod przysięgą, w którym podkreśliła swój "brak wiedzy" na temat ryzyka związanego z korzystaniem z ChatGPT i "odkryła, że sprawy były fikcyjne", co opisała jako "upokarzające".

Nie zamierzałam generować ani odnosić się do fikcyjnych orzeczeń w tej sprawie. Jest to oczywiście niewłaściwe i nie jest to coś, co zrobiłabym świadomie. Nigdy nie miałam zamiaru polegać na fikcyjnych dokumentu ani wprowadzać sądu w błąd

- powiedziała Ke podczas zeznań.

Prawnicy Zhang domagali się nałożenia na Ke grzywny, która może zostać zasądzona za naganne zachowanie lub nadużycia podczas procesu. Sędzia David Masuhara odrzucił prośbę, argumentując, że akceptuje szczerość przeprosin skierowanych do sądu i adwokatów Zhang. Jednocześnie sędzia orzekł, że Ke powinna ponieść koszty kroków, które prawnicy Zhang musieli podjąć, aby zaradzić zamieszaniu wywołanemu przez fałszywe sprawy.

Nakazał również prawniczce przejrzenie pozostałych akt spraw prowadzonych przez Chong Ke.

Jeśli jakiekolwiek materiały złożone lub przekazane do sądu zawierają cytaty lub streszczenia spraw, które zostały uzyskane z ChatGPT lub innych generatywnych narzędzi sztucznej inteligencji, ma ona niezwłocznie powiadomić strony przeciwne i sąd.

REKLAMA

Więcej na temat ChatGPT:

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA