REKLAMA

Zaczęło się. Boty bumelują i szukają wymówek, żeby nie pracować

Systemy generatywnej sztucznej inteligencji są bliższe nam, ludziom, niż komukolwiek mogłoby się wydawać. Bo tak jak my potrafią znajdować wymówki, zamiast przyznać "nie mogę, nie umiem, nie chcę, nie potrafię, nie chciało mi się".

Zaczęło się. Boty bumelują i szukają wymówek, żeby nie pracować
REKLAMA

Przedsiębiorcy i eksperci na całym świecie widzą w sztucznej inteligencji jako takiej sposób na zaoszczędzenie na taniej sile roboczej, ale i uproszczenie procesów wymagających pracy twórczej. Okej, AI wymaga ogromnych ilości prądu i kilku basenów olimpijskich wody, ale przynajmniej nie choruje, nie bierze urlopów i nie wymiguje się od roboty. Prawda? Prawda?

REKLAMA

ChatGPT miał jedno proste zadanie. Reżyser ciężko wzdychał czytając wymówki czatbota

Zupełnie odmienne doświadczenie ma Nenad Cicin-Sain, reżyser znany z produkcji takich jak The Time Being (2012) czy Pocałuj przyszłość (2023). Cicin-Sain planował kolejną produkcję: dramat o polityku, który całkowicie polega na sztucznej inteligencji podejmującej za niego decyzje. Wisienką na torcie projektu miał być fakt, że Cicin-Sain celowo chciał wykorzystać ChatGPT do napisania scenariusza dramatu.

Słowa kluczowe: planował i chciał. Bo projekt utkwił w martwym punkcie ze względu na odmowę przez czatbota wykonywania poleceń. Jak powiedział reżyser w rozmowie z amerykańskim serwisem Semafor, wydał on polecenie ChatGPT, by ten napisał scenariusz dramatu. Materiał miał być napisany na podstawie poprzednich rozmów z czatbotem, podczas których reżyser wraz z czatbotem nakreślali różne postaci, sceny, wątki i idee. Nenad Cicin-Sain dał ChatGPT cztery tygodnie na wygenerowanie scenariusza.

Gdy nadszedł dzień odbioru scenariusza, mężczyzna odkrył, że czatbot nie wygenerował ani linijki tekstu.

Patrząc na nasze poprzednie rozmowy, uważam, że jest to pierwsza sytuacja, w której podałem konkretny termin dostarczenia szkicu [scenariusza]. Wcześniej nie zobowiązałem czatbota do jasno ustalonego terminu dostarczenia scenariusza. Większość naszych dyskusji koncentrowała się na burzy mózgów, tworzeniu zarysu i rozwijaniu postaci i wątków

- powiedział Nenad Cicin-Sain.

Reżyser chciał dać czatbotowi drugą szansę, jednak za każdym razem gdy prosił go o poinformowanie o postępach lub jakikolwiek efekt - nawet częściowy - pracy, ten stale generował wymówki. Podobnie było w przypadku próby stworzenia nowego scenariusza w ramach całkowicie innego projektu.

Cicin-Sain podzielił się swoimi doświadczeniami ze znajomym, przedsiębiorcą Thomasem Benhamem, który ma własny startup zajmujący się dystrybucją narzędzi wykorzystujących generatywną AI. Benham nie mógł powstrzymać się od śmiechu, gdy na własnym koncie OpenAI powtórzył te same czynności co Cicin-Sain i również w jego przypadku ChatGPT nie dotrzymał deklarowanej daty zakończenia projektu, stając się niczym więcej jak generatorem wymówek.

Może zainteresować cię także:

Semafor spekuluje, że za nietypowym zachowaniem czatbota stoi fakt, że Cicin-Sain próbował generować tekst z użyciem zbyt dużej ilości danych kontekstowych. Generatywna AI nie radzi sobie z przetwarzaniem stosunkowo dużej ilości danych pochodzących z poprzednich wiadomości. Ponadto sam Cicin-Sain sugeruje, że w przypadku tworzenia scenariusza AI brakowało zrozumienia scenariusza jako całości.

REKLAMA

Chodzi o to, by być w stanie stworzyć doświadczenie, w którym kombinacja wielu małych elementów składa się na jedno doświadczenie, z którym zostajesz. W moim odczuciu jest to największa różnica między dobrymi a świetnymi pisarzami

- wyjaśnił Nenad Cicin-Sain.

Tu warto przypomnieć także historię pewnego internauty, który w czasie rozmowy z czatbotem - aczkolwiek Gemini Google'a, a nie ChatGPT OpenAI. Internauta doświadczył buntu ze strony narzędzia i czatbot po godzinnej rozmowie na temat problemów społeczno-ekonomicznych osób starszych zaprzestał odpowiedzi na pytania. Na odchodne wysłał użytkownikowi wiadomość z życzeniem jego śmierci.

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA