Lokaj, pomocnik, prawa ręka. Czy agenci AI odwalą za nas brudną robotę?

Ten rok ma być rokiem agentów AI. W służbie naszej powszechnej mości mają pomagać w pracy i w codzienności. Czy będą jednak kimś lub czymś więcej niż narzędziem? I czy na pewno chcemy oddać im kontrolę nad naszym życiem?

Fot. Shutterstock / fran_kie

Chcesz mieć własnego lojalnego lokaja albo zawsze uprzejmego majordomusa? Proszę bardzo. A może swojego superinteligentnego asystenta niczym Tony Stark, czyli Iron Man?

Z serii filmów z Iron Manem pamiętacie, że Jarvis nie tylko podrzuca pomysły i zadaje kluczowe pytania, ale też dba o przyziemne sprawy zapracowanego superbohatera i narcystycznego miliardera. Załatwia za niego wiele codziennych spraw, np. rezerwuje loty, i pamięta, co zjadł na śniadanie. Ale też kontroluje jego zbroję Iron Mana i pomaga w walce z nieprzyjaciółmi.

Któż z nas nie chciałby mieć takiego pomocnika?

Zlecić mu zrobienie zakupów, zamówienie trafionego prezentu dla żony czy zarezerwowanie idealnego hotelu na wakacje. I nie będą to zwyczajne zakupy, ale rzeczy, które zwykle kupujemy i lubimy. Nie będzie to przypadkowy prezent dla ukochanej, ale trafiający w jej gusta, bo agent będzie pamiętać, czy żona lubi raczej elegancką biżuterię czy szalone przeżycie. Wreszcie nie będzie to pierwszy lepszy hotel, bo system będzie wiedział, czy wolimy mieszkać w centrum czy raczej na uboczu, ale za to przy parku.

Ba, taki pomocnik jako wirtualny pracownik mógłby też w okamgnieniu odwalić za nas część nielubianej roboty, a w każdej pracy – nie czarujmy, bo to nie LinkedIn – część zadań właśnie taka jest. Mógłby więc przeczesać raport i stworzyć z niego prezentację, wyłuskując najważniejsze punkty, albo przeczytać e-maile od klientów, sprawdzając, na co się skarżą. I tak dalej, i tak dalej.

fot. Shutterstock / Jorm Sangsorn
Ten rok ma być rokiem agentów AI. W służbie naszej powszechnej mości mają pomagać w pracy i w codzienności. fot. Shutterstock / Jorm Sangsorn

Takiego pomocnika chciałoby mieć zapewne wielu z nas. I choć do realizacji wspaniałej filmowej wizji jeszcze trochę brakuje, to na pewno jesteśmy o krok bliżej do jej spełnienia. Właśnie dzięki agentom AI.

Twój klon na żądanie

Agenci AI to po prostu systemy informatyczne, które stworzono, aby wykonywały czynności zamiast użytkownika. Służą nie tylko do rozmowy czy udzielania instrukcji, ale mogą wykonywać bardziej złożone zadania. Mogą to robić, bo uczą się na danych o nas. Dzięki temu wiedzą, co zrobilibyśmy w konkretnej sytuacji, jak byśmy to zrobili, a nawet kiedy. Co kluczowe, systemy te działają autonomicznie, a zatem mogą same podejmować decyzje, uczyć się na podstawie nowych informacji, dynamicznie dostosowywać się do zmieniających się okoliczności, a także wnioskować, wchodzić w interakcje z innymi agentami, systemami czy ludźmi. Wszystko, aby osiągnąć założony przez człowieka cel. Wszystko bez jego ciągłego nadzoru.

To też największa różnica między agentami a zwykłymi asystentami AI. Asystenci tacy jak np. Aleksa czy Siri są przede wszystkim pomostem między człowiekiem a technologią. Owszem, udzielą odpowiedzi, wyszukując coś w internecie, przygotują listę rzeczy do zrobienia, sprawdzą prognozę pogody. Ale zrobią to tylko na nasze polecenie.

Agenci AI są dużo bardziej samodzielni. 

Wykonują to, co im zleciliśmy, ale bardziej na własną rękę. Sami ustalają priorytety, planują, co muszą zrobić, aby wykonać zadanie. Jeśli im na to pozwolimy, mogą nawet przejąć kontrolę nad naszym komputerem. Dlatego też są w stanie realizować złożone, wieloetapowe procesy i faktycznie odciążyć człowieka, bo ten nie musi nad wszystkim czuwać. Agenci działają bowiem w tle, podczas gdy my robimy (lub nie) inne rzeczy. A nam zawracają głowę, tylko gdy jest to konieczne lub na końcu całego procesu, gdy trzeba podjąć ostateczną decyzję.

Ich możliwości, choć wciąż są na początkowym etapie, wydają się co najmniej obiecujące. Nie dziwi więc, że wielu, w tym choćby szef Open AI, Sam Altman, widzi w nich kolejną "wielką rzecz".

Marzenie o agentach AI nie jest nowe. Z pierwszą falą agentów mieliśmy do czynienia prawie dekadę temu, w epoce przed ChatGPT.


Wezbrała ona w 2016 roku, kiedy DeepMind pokazał światu AlphaGo, czyli system AI, który może grać, a nawet wygrywać z najlepszymi na świecie zawodnikami w grę Go. Tak było, gdy system, tocząc pojedynek z Lee Sedolem, wykonał niekonwencjonalny ruch, oszałamiając zarówno publiczność, jak i samego Sedola. Ten moment został wówczas uznany za punkt zwrotny w ewolucji AI. 

Oczywiście nie tylko ze względu na pokaz umiejętności w grze, ale przede wszystkim udowodnienie, że maszyny mogą myśleć nieszablonowo i wykazać się kreatywnością. Ten moment zmienił postrzeganie AI. Zrozumieliśmy, że to nie tylko narzędzie, które kieruje się określonymi regułami, ale też podmiot zdolny do innowacji.

Drugą falę obserwujemy obecnie, a napędza ją rozwój generatywnej sztucznej inteligencji. Pokazanie szerokiemu gronu odbiorców ChataGPT przez OpenAI w listopadzie 2022 roku stanowiło kolejny kamień milowy w ewolucji AI.

Zademonstrowanie dużego modelu językowego, zdolnego do generowania tekstu podobnego do ludzkiego języka, pokazało potencjał i otworzyło nowe możliwości do zastosowań AI, choćby w obsłudze klienta czy tworzeniu treści. Pchnęło też nową energię w rozwój przewidywalnych i autonomicznych systemów zdolnych do zaawansowanego rozumowania i wykonywania złożonych zadań. A stąd już prosta droga do szukania optymalizacji w biznesie, zwiększania produktywności pracowników i tak dalej. 

Przykładów tego, jak ich zastosowanie może wyglądać, jest już wiele.

Maszyna myśląca

Na przykład firma Johnson & Johnson włączyła agentów AI do procesu odkrywania nowych leków. Brytyjski serwis aukcyjny eBay wykorzystuje ich do pisania kodu, który normalnie musieliby stworzyć programiści. Agencja ratingowa Moody’s, która zajmuje się analizą rynków finansowych, korzysta z pomocy agentów do analizy dokumentów składanych przez spółki giełdowe do amerykańskiej Komisji Papierów Wartościowych i Giełd. Firma ma już łącznie 35 agentów, każdy z nich specjalizuje się w innej działce. Co ciekawe, część z nich zarządza projektami, a inni agenci nadzorują ich pracę, weryfikując jej efekty, co nazwano już "systemem wieloagentowym". 

Inne firmy, takie jak Salesforce, ServiceNow, Microsoft i Workday, stworzyły własnych agentów i z ich pomocą rekrutują pracowników, tworzą treści marketingowe, kontaktują się z potencjalnymi klientami.

Na tworzenie własnych agentów AI dopasowanych do potrzeb danej organizacji pozwala choćby produkt firmy Asana – AI Studio. Nie wymaga on znajomości programowania. Oznacza to, że zespół może samodzielnie zaprojektować, zbudować i wdrożyć agentów AI bezpośrednio do już istniejących przepływów pracy.

– To ogromny krok naprzód dla firm, które chcą szybciej realizować projekty i efektywnie wykorzystać czas pracowników. Za pomocą prostych instrukcji w języku naturalnym możemy delegować część rutynowych zadań agentom AI Asany i skupić się na tych mających największy wpływ na funkcjonowanie przedsiębiorstwa – mówi Ryan Atkins, szef działu badań i rozwoju w firmie Asana. 

Opracowani tak agenci działają jak pełnoprawni członkowie zespołu. Potrafią generować treści, ale przede wszystkim automatyzują powtarzalne zadania, zarządzają projektami, identyfikują potencjalne bariery w ich realizacji, a nawet wspierają planowanie i raportowanie.

– Agenci AI zaprojektowani przez specjalistów danego obszaru będą działać znacznie sprawniej i przynosić więcej korzyści niż narzędzia, które nie są dostosowane do specyfiki takiej pracy – dodaje Ryan Atkins.

I trudno nie dziwić się tym słowom, kiedy spojrzymy na prognozy firmy Gartner. Przewiduje ona, że do 2028 roku aż co trzeci system, z którego korzystają przedsiębiorstwa, będzie wyposażony w agentów AI. A to ma umożliwić automatyczne podejmowanie aż 15 procent codziennych decyzji biznesowych. To ogromna oszczędność czasu, ale też pieniędzy.

Nie taka AI mądra, jak ją malują

Czy w takim razie pracownicy, szczególnie ci umysłowi i biurowi, powinni czuć się zagrożeni? W końcu nietrudno wyobrazić sobie scenariusz, w którym szefowie firm, widząc, jak wiele procesów i zadań jest wykonywanych szybciej, będą hurtowo zwalniać pracowników. 

Pytany o to profesor Ethan Mollick z Uniwersytetu Pensylwania, który bada wdrożenie sztucznej inteligencji w biznesie, odpowiedział, że wydajne modele AI faktycznie mogłyby zautomatyzować część pracy umysłowej. I nawet jeśli narzędzia nie są doskonałe, a wiemy, że nie są (o czym za chwilę), to mogą przyspieszyć realizację wielu zadań. A szczególnie jeśli ich efekty sprawdzą potem specjaliści.

– Osobom na najwyższych stanowiskach nie chodzi o to, że narzędzie będzie bezbłędne. Chodzi o to, że może wykonać 40 godzin pracy na średnim poziomie, a jej sprawdzenie zajmie tylko godzinę – mówił w The Wired profesor Ethan Mollick, stwierdzając, że niewiadome pozostaje, czy narzędzia posłużą do zastępowania pracowników. Przyznał jednak, że taki scenariusz najbardziej go martwi.

Taki scenariusz nazywany jest technologicznym bezrobociem. To, mówiąc w dużym uproszczeniu, bezrobocie wynikające z postępu, który powoduje zastępowanie pracy ludzkiej pracą maszyn, urządzeń, programów i tak dalej.

Tyle tylko, że wśród ekonomistów i specjalistów zajmujących się automatyzacją nie ma zgody, czy ten rodzaj bezrobocia w ogóle istnieje. 

Cześć badaczy uważa, że nigdy dotąd nie doświadczyliśmy bezrobocia technologicznego. Przekonują raczej, że bezrobocie wywołane przez postęp technologiczny nie ma charakteru stałego, lecz tymczasowy. Twierdzą, że z czasem rozwój wprawdzie zabiera niektóre miejsca pracy, ale daje też nowe. Tak było chociażby w przypadku woźniców, którzy stracili zajęcie, kiedy pojawiły się samochody. A wraz z autami powstały miejsca pracy dla kierowców i mechaników. Z kolei inni badacze zauważają, że rozwój dostarcza nowych miejsc pracy, ale nie w tym samym momencie, miejscu i nie dla tych samych osób, które zatrudnienie straciły. A zatem nie wszyscy woźnice stali się kierowcami lub mechanikami. 

Słowem: owszem pojawienie się agentów AI pozwoli stworzyć zupełnie nowe miejsca pracy dla trenerów i szkoleniowców, którzy będą uczyć, jak najlepiej ich wykorzystać, ale nie oznacza, że będą to miejsca pracy dla dokładnie tych samych osób, które zajęcie straciły, bo teraz raporty i prezentacje przygotowują maszyny.   

Kiedy pytam o tę wizję obserwatora trendów technologicznych Arka Szulczyńskiego, jest sceptyczny. Przypomina, że gdy świat ujrzał ChatGPT, analitycy Goldman Sachs wieszczyli, że generatywna AI zagrozi aż trzystu milionom miejsc pracy na całym świecie. Dwa lata później analiza profesora Darona Acemoglu z Massachusetts Institute of Technology wykazała, że obecne tempo rozwoju i adaptacji AI będzie miało wpływ tylko na… 5 proc. wszystkich zawodów. Co oznacza, że niewielka ich część zniknie, ale jednocześnie jakaś część zostanie wsparta przez technologię.

– Agent AI, który po otrzymaniu źródeł potrafiłby je zweryfikować i przygotować zaawansowaną analizę, byłby Świętym Graalem, na którego świat biznesu bardzo czeka. Takie narzędzie na poziomie efektywności mogłoby wiele zmienić. Ciągle jestem o takie narzędzia pytany, kiedy rozmawiam z menedżerami, szczególnie z sektora bankowego. Jednak nadal funkcjonujemy w świecie, w którym człowiek jest najważniejszy. Na realizację marzenia, że każdy będzie miał swojego Jarvisa, który jednym magicznym kliknięciem przeanalizuje wszystkie dane i przygotuje raport z prezentacją, przyjdzie nam jeszcze poczekać – mówi Arek Szulczyński.

fot. Shutterstock / Jorm Sangsorn
Pojawienie się agentów AI pozwoli stworzyć zupełnie nowe miejsca pracy dla trenerów i szkoleniowców, którzy będą uczyć, jak najlepiej ich wykorzystać, ale nie oznacza, że będą to miejsca pracy dla dokładnie tych samych osób, które zajęcie straciły. fot. Shutterstock / Jorm Sangsorn

Również Jarosław Sokolnicki, współtwórca i lider 4Enlight, firmy specjalizującej się w AI, a wcześniej przez lata związany z Microsoft Polska, uważa, że choć obecny rok jest "rokiem agentów AI", to ta forma automatyzacji pracy nie będzie miała radykalnego wpływu na zatrudnienie.

– Jesteśmy na etapie, w którym wiele narzędzi opartych na sztucznej inteligencji skierowanych jest do konsumentów. Pracowników straszy się tym, co widzą na rynku konsumenckim. Jednak adaptacja tych rozwiązań do biznesu będzie trudna. Owszem, choć wizja tego, że agenci AI będą wykonywać za pracowników konkretne zadania, a pracownicy będą pełnić tylko funkcję nadzorcy, wydaje się kusząca, to ścieżka do tego etapu jest raczej długa i kręta – mówi Jarosław Sokolnicki.

Jak zauważa Sokolnicki, obecnie biznes dopiero testuje, eksperymentuje, zastanawia się, gdzie mógłby tych narzędzi użyć, a nawet jak już będzie wiedział, to w istniejących firmach, które mają swoje osadzone struktury, nie będzie to proste.

– To marzenie nie jest niczym nowym, biznes ma je od bardzo dawna. I choć jesteśmy teraz krok bliżej, to wdrożenie tego rodzaju narzędzi w polskich firmach nie będzie ani łatwe ani szybkie. Dla wielu przedsiębiorstw barierą mogą być wysokie koszty wdrożenia, bo koszt agenta AI zdolnego do przetwarzania dużych ilości danych może być wyższy niż koszt zatrudnienia wykwalifikowanego pracownika. Barierą może być też długi proces decyzyjny, szczególnie w dużych organizacjach, gdzie często dominuje dość skomplikowana kultura organizacyjna. A zatem nie będzie to gwałtowny proces – mówi Sokolnicki.

Ekspert zwraca również uwagę na fakt, że im bardziej złożone zadania zlecamy agentom AI, tym ich efektywność i dokładność spada. Dzieje się tak, bo wraz ze wzrostem złożoności zadania zwiększa się liczba zmiennych i interakcji, z którymi agent AI musi się zmierzyć. A to prowadzi do gorszej efektywności i dokładności jego odpowiedzi.

– Stąd wdrażanie tych rozwiązań wymaga nie tylko zaawansowanej technologii, ale również starannego projektowania systemów, które potrafią dzielić zadania na mniejsze, bardziej przystępne jednostki oraz odpowiednio je koordynować – mówi Sokolnicki.

W tym kontekście warto przypomnieć niedawne badanie przeprowadzone przez Columbia Journalism Review. Ujawniło ono, że większość narzędzi generatywnej AI ma tendencję do "przesadnej pewności siebie". Zamiast przyznać się do braku wiedzy lub odmówić odpowiedzi, udzielają odpowiedzi, które brzmią wiarygodnie, ale często są błędne. To z kolei może wprowadzać użytkowników w błąd i rozpowszechniać nieprawdziwe informacje.

– Żaden biznes nie pójdzie w system, który podejmuje 80 proc. decyzji dobrych, a 20 proc. złych. A w naturę narzędzi opartych na generatywnej sztucznej inteligencji są wpisane halucynacje, a tych jest więcej, im bardziej zadanie jest skomplikowane. Nawet jeżeli jeden agent AI będzie sprawdzał drugiego, to w łańcuchu tego procesu wciąż będzie potrzebny człowiek – dodaje Sokolnicki. 

Wtóruje mu Arek Szulczyński: – Czekam na agentów AI jako ważny technologiczny trend, ale jeśli one nie będą prawidłowo wyszukiwać informacji i będą błędnie wnioskować, a do tego uparcie przekonywać nas, że mają rację, to biznes szybko i brutalnie odrzuci to rozwiązanie niezależnie, jaki będzie na nie hype – mówi.

Ekspert podkreśla też, że raczej nie będzie z nich zbyt często korzystał. Dlaczego? Bo choć agenci niosą ze sobą obietnicę oszczędności czasu, to jednocześnie wiążą się z ryzykiem popadania w utarte schematy.

– Wolę sam przeczytać materiał i wyciągać z niego wnioski, niż żeby robił to za mnie komputerowy program. Boję się, że oddając myślenie algorytmowi, będziemy mieć podobny problem do tego, jak dziś wyglądają media społecznościowe, gdzie użytkownicy zamykani są w bańkach informacyjnych i przestają widzieć resztę świata. Nie chciałbym w myśleniu, analizie nie móc wyjść poza schemat, który narzuca mi algorytm AI – mówi Arek Szulczyński.

Nie oznacza to, że Szulczyński odrzuciłby wykorzystanie agentów AI na rynku pracy. Jego zdaniem te narzędzia mogłyby świetnie sprawdzić się w medycynie, rolnictwie czy IT.

– W Japonii już testuje się technologię wirtualnych asystentów podczas wizyt lekarskich. Pacjenci najpierw rozmawiają z algorytmem, który jest cierpliwy, wysłucha ich, ma czas, a lekarzowi wyśle podsumowanie tej rozmowy, dzięki czemu ten w czasie wizyty będzie mógł skupić się na leczeniu. Agenci AI mogliby więc znacznie podnieść produktywność w różnych środowiskach, realizując zaawansowane zadania – mówi Szulczyński.

To możliwy scenariusz np. dla branży IT, gdzie już teraz wykorzystuje się oparte na generatywnych algorytmach narzędzia AI do pisania kodu. Jednak pod warunkiem że to, co przytrafiło się użytkownikowi forum dla programistów, było błędem przy pracy, a nie regułą. Użytkownik o nicku „locs” opisał, jak wykorzystywał Cursor AI do tworzenia gry wyścigowej. W pewnym momencie asystent kodowania AI nagle odmówił dalszego generowania kodu i zasugerował, aby nauczył się to robić sam. Co więcej, narzędzie nie poprzestało na odmowie, ale przedstawiło – jak określił to The Wired - paternalistyczne uzasadnienie swojej decyzji, stwierdzając, że „generowanie kodu dla innych może prowadzić do zależności i ograniczenia możliwości uczenia się”.

Nieszczęsny dar wolności 

I choć w teorii agent AI jest tym lepszy, im większą ma autonomię, bo wtedy faktycznie może odciążyć człowieka, to jego większa samodzielność oznacza mniejszą kontrolę człowieka. Wraz z rozwojem tej technologii powinniśmy więc jednocześnie zadawać sobie pytanie, ile kontroli jesteśmy w stanie im oddać i za jaką cenę?

W końcu wizja, że agenci AI przejmą od nas uciążliwą pracę i niektóre obowiązki, oszczędzając nasz czas, jest obiecująca, ale w pośpiechu i informacyjnym szumie możemy przeoczyć związane z ich samodzielnością zagrożenia w kwestii prywatności czy bezpieczeństwa.

Najbardziej jaskrawy przykład tego, jak kluczowe jest utrzymanie kontroli człowieka, pochodzi z 1980 roku. To wówczas doszło do sytuacji, w której systemy komputerowe fałszywie wskazywały, że ponad 2 tysiące radzieckich pocisków zmierza w kierunku Ameryki Północnej. Ten błąd uruchomił procedury, które nakazałyby wysłanie rakiet odwetowych. Katastrofie zapobiegła jednak ludzka weryfikacja.

"Gdyby podejmowanie decyzji zostało w pełni przekazane autonomicznym systemom, które stawiają szybkość ponad pewność, mogłoby dość do katastrofy” – pisali badacze sztucznej inteligencji w "MIT Technology Review".

Oczywiście znajdą się tacy, którzy uznają, że korzyści są warte ryzyka, ale wspomniani badacze z "MIT Technologi Review" podkreślali, że rozwojowi agentów AI musi towarzyszyć równoległy rozwój gwarantowanego nadzoru człowieka, który mógłby ograniczać zakres tego, co owi agenci mogą zrobić.  

– Na dziś widzę więcej zagrożeń niż korzyści – odpowiada Arek Szulczyński, kiedy pytam go o zwiększanie autonomii agentów AI kosztem kontroli człowieka. A jako przykład podaje zakupy online, które agenci w przyszłości mogliby za nas robić, oszczędzając nasz raczej prywatny niż zawodowy czas.

– Pytanie, czy chcielibyśmy i płatność powierzyć agentowi, czy jednak pozostawić ją sobie, jest pytaniem o to, czy potrafimy oddać kontrolę nad swoją decyzyjnością. A jeśli oddamy agentom AI podejmowanie decyzji np. w kwestii codziennych wydatków, decyzji bankowych, to może zmienić perspektywę cyberprzestępców. Przestaną oni skupiać się na ludziach, którzy wyjdą oni z procesu decyzyjnego, a zaczną atakować systemy. Nagle może okazać się, że żyjemy w świecie, w którym większość cyberataków będzie przeprowadzana przez hakerów dysponujących agentami i atakowani będą agenci klientów banków – snuje wizje Szulczyński.

fot. Shutterstock / fran_kie
Gdyby podejmowanie decyzji zostało w pełni przekazane autonomicznym systemom, które stawiają szybkość ponad pewność, mogłoby dość do katastrofy. fot. Shutterstock / fran_kie

To zresztą wcale nie tak odległy scenariusz, bo niedawno mówił o nim Mark Stockey, ekspert ds. cyberbezpieczeństwa w firmie Malwarebytes. Tłumaczył, że agenci AI mogą stać się atrakcyjnym celem dla cyberprzestępców. W końcu są tańsi niż profesjonalni hakerzy, mogą organizować ataki szybciej i na znacznie większą skalę niż ludzie. Mogliby przeprowadzać masowo ataki ransomware, które są najbardziej opłacalne, ale też drogie, bo wymagają fachowej wiedzy.

Słowem: optymalizacja, oszczędność czasu i pieniędzy, ale raczej nie taka, jaką sobie wyobrażaliśmy.

– Trwa operacja na otwartym sercu, a my jesteśmy jednym wielkim eksperymentem. Zobaczymy, co z tego wyjdzie – mówi Arek Szulczyński, który przyznaje, że w obecnej sytuacji na pytania o przyszłość nie boi się zwyczajnie odpowiadać: "nie wiem".

– Może minie kilka albo kilkanaście lat, agenci będą bardziej wiarygodni i faktycznie odciążą nas w pracy, bo nauczymy się ich wykorzystywać, więc będziemy bardziej produktywni. A może będzie jak w szwedzkim fintechu Klarna, który najpierw zastępował pracowników obsługi klienta asystentem AI, a po roku zmienił zdanie i zadeklarował, że człowiek będzie u nich najważniejszy – puentuje Szulczyński.

– Możliwe więc, że agenci AI zrobią za nas zakupy spożywcze online czy przeszukają internet, sprawdzając hotele i rezerwując bilety lotniczne na wakacje. Ale czy to obszar życia, w którym komuś zabierają pracę? Nie, bo nikt poza mną tej mojej "pracy po godzinach" nie wykonuje – dodaje.

Wizja, że dostaniemy cyfrowego lokaja, nawet w wersji, na którą kiedyś było stać ultrabogaczy takich jak filmowy Tony Stark, wciąż jest bardziej realna niż powszechne technologiczne bezrobocie.

Z jednej strony powinniśmy się więc cieszyć: praca będzie. Z drugiej warto zapytać: czy chcemy oddać agentom ten słodki luksus planowania wakacji i kupowania prezentów? Niech lepiej AI ogarnie, kiedy wywóz śmieci i uzupełni listę zakupów, bo nie ma jeszcze takiej technologii, która rosnące góry śmieci zamieniłaby w magiczny pył i napełniała ludzkie brzuchy.