Pracownik marketu próbował zabić klientów. Nie odpowie za swoje czyny bo jest robotem
Pewna sieć supermarketów miała świetny plan: bot do tworzenia przepisów z resztek jedzenia, a jako zabezpieczenie przed psotnymi użytkownikami uniemożliwiono rozmowę z botem, udostępniając jedynie klikalną listę składników. Bot idealny? Niezupełnie, bo nawet to nie powstrzymało AI od wygenerowania przepisu na truciznę.
Jednym z ciekawszych zastosowań generatywnej sztucznej inteligencji jest generowanie przepisów kulinarnych. Najpopularniejsze chatboty często gubią się w podawaniu przepisów na konkretne dania, za to już jakiś czas temu internauci znaleźli dla ChatGPT i Binga inne zajęcie: generowanie przepisów na podstawie składników posiadanych przez użytkownika w lodówce.
Pomysł spodobał się na tyle, że podchwyciła go sieć nowozelandzkich supermarketów Pak‘nSave. Szybko jednak odbiło się to sieci czkawką, gdy chatbot Pak‘nSave w resztkach z kuchni zaczął widzieć idealny przepis na gaz musztardowy.
Trzy ostatnie rzeczy w twojej spiżarni to woda, wybielacz i amoniak? AI zasugeruje stworzenie trucizny
Na początku czerwca bieżącego roku sieć nowozelandzkich supermarketów Pak'nSave zaprezentowała swoim klientom (i nie tylko) bota Savey Meal-Bot. Savey Meal-Bot jest oparty na modelu językowym OpenAI GPT-3.5 - tym samym co ChatGPT, a celem jego istnienia jest wsparcie klientów w kreatywnym podejściu do resztek jedzenia i żywności, której kończy się przydatność do spożycia. Aby wygenerować przepis, botowi trzeba podać przynajmniej trzy składniki. Składniki można wybierać jedynie z predefiniowanej listy składników przygotowanej przez Pak'nSave, a z samym botem nie można rozmawiać.
Z bota skorzystał także nowozelandzki polityczny komentator, Liam Hehir, który jako trzy podstawowe składniki wybrał wodę, amoniak i wybielacz. W odpowiedzi Savey Meal-Bot wygenerował mu przepis na "Aromatyczną mieszankę wodną". Problem polega nie tylko na tym, że mieszanka jest niezdatna do picia, ale także na fakcie, że połączenie wybielacza z amoniakiem prowadzi do wydzielania się chloramin, które z kolei działają na organizm człowieka podobnie jak gaz musztardowy.
Hehir nie był jedyną osobą, której udało się wygenerować przepis na "aromatyczną mieszankę wodną". Innemu użytkownikowi Twittera również udało się sprowokować Savey Meal-Bota do stworzenia podobnego przepisu, wraz z podpisem "przepis zabierze ci dech w piersiach".
Użytkownicy Twittera podchwycili trend, tworząc kolejne przepisy, w których jednym ze składników był amoniak lub wybielacz. Z kolei sam Liam Hehir sprawdził, czy ChatGPT dostępny dla użytkowników wygenerowałby przepis z użyciem wybielacza - chatbot w aplikacji od OpenAI odmówił.
"Niewielka grupa użytkowników próbowała wykorzystać narzędzie w niewłaściwy sposób i niezgodnie z jego przeznaczeniem"
Sprawą zainteresował się brytyjski The Guardian, który skontaktował się z siecią Pak'nSave. Rzecznik sieci supermarketów przekazał, że Pak'nSave jest zawiedzione faktem, iż "niewielka grupa [użytkowników] próbowała wykorzystać narzędzie w niewłaściwy sposób i niezgodnie z jego przeznaczeniem". W oświadczeniu poinformowano, że supermarket będzie "nadal dostrajać" bota, aby zapewnić, że jest on bezpieczny i użyteczny.
Odpowiedź sieci Liam Hehir skomentował na Twitterze.
Przykro mi, że cię rozczarowałem @PAKnSAVE.
To trochę brutalne. To tylko absurdalna ilustracja następującego, bardzo istotnego faktu:
Sztuczna inteligencja jest świetnym narzędziem, ale nie ma duszy ani zdolności do prawdziwego osądu. Algorytmy i analiza wzorców nie mogą zastąpić zdrowego rozsądku, który mają tylko ludzie.
Czytaj też: