REKLAMA

Chatbot dał zniżkę, a firma się go wyparła. Tak teraz będzie wyglądał handel

Gdyby sztuczna inteligencja była świadoma, prawdopodobnie Air Canada uniknęłoby upokorzenia przed sądem. Bowiem przewoźnik bronił się przed wypłatą zwrotu kosztów z oferty zaproponowanej przez bota, argumentując, że nie może zostać pociągnięty do odpowiedzialności za informacje podawane przez "agentów, pracowników lub przedstawicieli - w tym chatbota".

Chatbot dał zniżkę, a firma się go wyparła. Tak teraz będzie wyglądał handel
REKLAMA

Chatboty wspierające (lub wręcz zastępujące) dział obsługi klienta są uwielbiane przez wiele firm, które w automatyzacji pracy widzą same benefity dla przedsiębiorstwa, jak i klienta. Jednak czasami to podejście odbija się im czkawką - tak jak to miało miejsce w przypadku chatbota DPD, który pisał obraźliwe wierszyki w kierunku firmy kurierskiej.

Teraz ze skandalem wizerunkowym mierzy się pewna linia lotnicza, której chatbot zaproponował zniżkę na warunkach nierealizowanych przez przewoźnika. Według firmy "nie jest ona odpowiedzialna" za to, co mówi chatbot.

REKLAMA

Strona internetowa bardziej wiarygodna niż znajdujący się na niej chatbot. Tak broniła się Air Canada przed wypłaceniem zwrotu pieniędzy

Kilka dni temu w sprawie Moffatt vs. Air Canada zapadł wyrok zmuszający kanadyjskiego przewoźnika do zapłaty 812 dol. kanadyjskich (ok. 2423 złote) pokrzywdzonemu Jake'owi Moffattowi. Kwota stanowi wyrównanie pomiędzy kwotą, jaką zapłacił Moffatt (1630,36 dol. kanadyjskich) za lot, a kwotą, jaką pierwotnie - w myśl zapewnień chatbota - miał otrzymać w ramach "Podróży żałobnej".

Jak informuje kanadyjska stacja CBC, mieszkająca w Toronto babcia Jake Moffatta zmarła 29 kwietnia 2022 roku. Tego samego dnia mieszkający w Brytyjskiej Kolumbii Moffatt odiwedził stronę linii lotniczych Air Canada by zarezerwować lot do i z znajdującego się na drugim końcu kraju Toronto.

Podczas korzystania ze strony internetowej Air Canada, Moffatt wszedł w interakcję ze znajdującym się na niej czatbotem. Jedna z wiadomości wysłanych przez bota brzmiała "Jeśli musisz odbyć podróż natychmiast lub już odbyłeś podróż i chciałbyś zgłosić swój bilet do obniżonej stawki żałobnej, uprzejmie prosimy o zrobienie tego w ciągu 90 dni od daty wystawienia biletu, wypełniając nasz formularz wniosku o zwrot biletu".

Na podstawie tej informacji Kanadyjczyk zarezerwował lot w pełnej cenie do i z Toronto. Później, chcąc odebrać obiecany przez chatbota zwrot, został poinformowany, że obniżona stawka żałobna może być zastosowana tylko do podróży, które się jeszcze nie odbyły. Przedstawiciel linii lotniczych poinformował Moffatta, że faktycznie chatbot popełnił błąd podczas generowania odpowiedzi, lecz pasażerowi nie przysługiwał zwrot. A to ze względu na fakt, że poprawna informacja znajdowała się na innej podstronie witryny internetowej linii lotniczych.

Wobec czego Kanadyjczyk pozwał Air Canada. W czasie procesu główną linią obrony linii lotniczych był fakt, że nie mogą one zostać pociągnięta do odpowiedzialności za informacje dostarczone przez jednego z jej "agentów, pracowników lub przedstawicieli - w tym chatbota".

"[Air Canada] nie wyjaśnia jednak, dlaczego tak uważa. W efekcie Air Canada sugeruje, że chatbot jest odrębnym podmiotem prawnym, który jest odpowiedzialny za swoje własne działania"

- czytamy w treści uzasadnienia.

Sędzia Cristopher Rivers rozstrzygnął spór na korzyść pasażera, argumentując to faktem iż "nie ma powodu, dla którego pan Moffatt miałby wiedzieć, że jedna sekcja strony internetowej Air Canada posiada wiarygodne informacje, a inna nie". Wytknął on liniom lotniczym fakt, że choć rzeczywiście istnieje podstrona poświęcona "Podróżom żałobnym", to linie lotnicze nie potrafiły wyjaśnić, dlaczego jest ona bardziej wiarygodna niż chatbot operujący na tej samej stronie.

REKLAMA

Więcej na temat chatbotów:

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA