Sztuczna inteligencja miała nam zmienić świat. Na razie jest albo mało sztuczna, albo niespecjalnie inteligentna

Spodziewaliśmy się wszechpotężnego czarnoksiężnika, a okazało się, że za całą magią stoją zwykli ludzie. Co więcej, często zatrudnieni jako tania siła robocza. Oto jak technologiczna góra urodziła mysz.

Fejkowa AI. Sztuczna inteligencja miała nam zmienić świat. Na razie jest albo mało sztuczna, albo niespecjalnie inteligentna

24-letni Willie Calvin udawał sztuczną inteligencję zawodowo. Czytał maile klientów, pomagał ustalać daty ich spotkań, korygował wpadki merytoryczne i proste błędy językowe. Trudno powiedzieć, czy cieszył się, gdy jeden z beta-testerów X.ai napisał na Twiterze, że Amy Ingram, sztuczna inteligencja, którą trenował, sprawuje się lepiej w swojej pracy niż człowiek. Może uśmiechnął się ironicznie pod nosem.

Gdy w 2016 roku zdecydował się na rozmowę z Bloombergiem, był już ekspracownikiem firmy. Przyznał, że jako trener Amy śledził, nadzorował i nieustannie ingerował w każdy ruch programu, który oficjalnie dzięki sztucznej inteligencji miał „w magiczny sposób planować spotkania”.

I choć od tamtej pory minęły aż cztery lata, co przy tempie rozwoju technologii mogłoby się wydawać całą epoką, historia Calvina wciąż nie jest odosobniona. Ogromna część usług reklamowanych jako sztuczna inteligencja jest tak naprawdę albo nie sztuczna, albo nie taka inteligentna.

Czarnoksiężnik z AI 

„Jak założyć start up specjalizujący się w AI?
1. Zatrudnij sporo opłacanych minimalnymi pensjami ludzi, by udawali AI, która będzie udawała ludzi.
2. Zaczekaj, aż AI faktycznie zostanie wynaleziona”.

W tak ironiczny sposób tweetował Gregory Koberger, założyciel firmy ReadMe. Ten startupowiec wie, o czym mówi, bo jego firma specjalizuje się w obsłudze przedsiębiorstw, które idą na podbój świata właśnie z AI na sztandarach. Wygodę fejkowej sztucznej inteligencji Koeberg tłumaczy na łamach brytyjskiego „The Guardian”: – Pozwala ominąć od groma technicznych i biznesowych wyzwań.

– Ludzie udający maszyny udające ludzi to w tej branży nic nowego. Zjawisko otrzymało nawet nazwę: technika Czarnoksiężnika z Oz. Podobnie jak w historii o Dorotce mamy tu do czynienia z symulowaniem czegoś. Tam za kurtyną krył się staruszek udający wielkiego maga. W przypadku sztucznej inteligencji za wszechmocnym algorytmem też skrywa się człowiek – tłumaczy Sascha Stockem, założyciel i CEO firmy Nethansa, która wspiera sprzedaż na platformie Amazon. – Odbiorcom wydaje się, że mają do czynienia z elektronicznym bóstwem, a w rzeczywistości za „czary” odpowiada tania siła robocza z Indii albo Filipin.

Udawanie maszyny jest zaskakująco proste. Jeśli sprawa wyjdzie na jaw, nazywa się ją prototypowaniem lub trenowaniem sztucznej inteligencji. I nie jest wcale czymś niespotykanym. Z przeprowadzonego w 2019 r. przez firmę MMC badania wynika, że ok. 40 proc. europejskich startupów sklasyfikowanych jako firmy zajmujące się sztuczną inteligencją prawdopodobnie nie wykorzystywało jej w żaden kluczowy dla swojej działalności sposób.

W efekcie na fake AI – czyli fejkową sztuczną inteligencję, oczywiście reklamowaną i sprzedawaną jako rozwiązanie, które zmieni świat – można się natknąć niemal wszędzie. Na sklepowej półce w okolicznym sklepie z elektroniką będzie leżało pod postacią inteligentnego czajnika, którego rzekoma inteligencja ogranicza się do tego, że można nim sterować za pomocą aplikacji. W ustach PR-owców wielkich firm i małych startupów będzie kolejnym przełomowym rozwiązaniem, które całkowicie odmieni życie nasze, naszych dzieci, pewnie i naszego psa.

Inteligencja sztuczna, pieniądze prawdziwe

Nagłą mnogość niewątpliwie sztucznej, ale wątpliwie inteligencji złośliwie komentuje jeden z jej rzekomych internetowych przedstawicieli. Na stronie inspiroBota możemy przeczytać, że jest on sztuczną inteligencją mającą generować nieskończoną liczbę unikalnych i inspirujących cytatów, „które wzbogacą bezsensowną ludzką egzystencję”. Algorytm korzysta z tego, że frazy motywacyjne są powtarzalne, rozbija je na kawałki i wypełnia elementem z bazy słów-kluczy.

W praktyce program ma tyle wspólnego z inteligencją, co z inspiracją. Czyli aspiruje do niej w sposób wręcz komicznie nieudolny. Chyba że inspirują was takie bon moty, jak „jeśli jesteś smutny, nigdy nie zapominaj usiąść i płakać” czy „w każdym jednym z nas jest mały słoń”. Ale jest w tym wszystkim ukryta faktycznie inteligentna metoda: na zdemaskowanie miałkości rozwiązań opartych na „sztucznej inteligencji”.

Trzy lata temu popularnością cieszył się opublikowany na Medium.com artykuł „Jak przekonać inwestorów, że jesteś ekspertem z zakresu sztucznej inteligencji” (How to convince Venture Capitalists you’re an expert in Artificial Intelligence). Można było się z niego dowiedzieć, że by zdobyć inwestorów, należy m.in. używać wielu niezrozumiałych dla nikogo akronimów, odwoływać się do artykułów opublikowanych na Arxiv, darmowym archiwum z artykułami naukowymi z różnych dziedzin, w tym fizyki, matematyki, statystyki, a także sztucznej inteligencji, i z wyższością prawić o tych wszystkich projektach AI, które już spaliły na panewce. I choć artykuł był oczywiście prześmiewczy, jego siła wynikała przede wszystkim z tego, że niepokojąco dobrze opisywał technologiczno-biznesową rzeczywistość. 

Rzeczywistość, w której hasło „sztuczna inteligencja” stało się jednym z najczęściej nadużywanych i naciąganych terminów w biznesie.

– Sztuczna inteligencja porusza wyobraźnię ludzi i jest pojemnym terminem, w który można wiele włożyć. Kilka terminów miało już podobną historię dewaluacji. Podobnie było z innowacją - tłumaczy w rozmowie z SW+ profesor Aleksandra Przegalińska z Uniwersytetu Koźmińskiego, specjalistka od sztucznej inteligencji. 

- Aż zaczęliśmy mieć już dość, aż nikt już nie chciał robić nic innowacyjnego. Potem podobnie było z terminem startup. Zaczęły pojawiać się książki „Niskobudżetowy startup – załóż swoją kwiaciarnię”. Termin tak się spodobał, że zaczął być nadużywany na wielu polach. Sztuczna inteligencja nie jest jeszcze terminem obłaskawionym, zrozumiałe. Za to jest bardzo popularnym – dodaje Przegalińska.

Popularnym i dochodowym. Według raportu MMC startupy, które twierdziły, że wykorzystują SI, dostały od 15 do aż 50 proc. więcej funduszy w porównaniu z innymi firmami ubiegającymi się o finansowanie.

Najpierw trzeba zjeść własny ogon

Oczywiście na liście technologii wykorzystywanych przez ubiegającą się o finansowanie firmę sztuczna inteligencja nie zawsze oznacza skok na kasę. Część z firm, które nie wykorzystują jej w takim stopniu, jak już teraz sugerują ich materiały marketingowe, ma szczery zamiar zmienić to w dość bliskiej przyszłości. Najpierw musi się jednak zmierzyć ze swoistym paradoksem. 

– Bez dużych wolumenów danych nie można w ogóle mówić o sztucznej inteligencji. Nie da się implementować algorytmów na sucho. Ktoś ma pomysł na ciekawe rozwiązanie z zakresu sztucznej inteligencji, a nie wie jednak, czy ono będzie działać? Niezbędny jest odpowiednio duży zbiór danych, żeby to sprawdzić. To stawia twórcę potencjalnej AI w trudnej sytuacji, bo sztuczna inteligencja bardzo zależy od struktury i jakości danych. Możemy powiedzieć, idziemy w tę stronę, ale bez danych nie możemy być pewni, czy tam dojdziemy – opowiada Przegalińska.

To uzależnienie od danych jest poważnym problemem szczególnie dla startupów i mniejszych firm z ograniczonym finansowaniem. Na początku działalności nie mogą mieć przecież ot tak, z automatu odpowiedniej ilości informacji, by wykarmić algorytm. Te braki mogą je popchnąć w swego rodzaju błędne koło. Żeby zrealizować pomysł na swoją innowacyjną usługę, potrzebują danych, a żeby je zdobyć, potrzebują klientów. Tych mogą przyciągnąć tylko innowacyjną usługą. Koło się zamyka. 

Dlatego część firm próbuje nieco pomóc szczęściu. I naginając rzeczywistość tak, by lepiej brzmiała na kartach reklamowych broszur. Czyli klasyczne hasło startupów z Doliny Krzemowej „fake it, till you make it”. Po polsku powiedzielibyśmy: „Im mniej potrafisz, tym bardziej pchaj się na afisz”. 

Jak to wygląda w praktyce?

Czy AI śni o asyście człowieka?

W indyjski startup zainwestowano niemal 30 mln dol. Engineer.ai obiecywał, że dzięki wykorzystaniu sztucznej inteligencji jest w stanie budować cyfrowe produkty szybciej i taniej niż konkurencja. Podczas opublikowanego przez firmę w mediach społecznościowych wystąpienia szef firmy z dumą twierdził, że aż 82 proc. elementów aplikacji jest pisane przez godzinę przez sztuczną inteligencję. Pozostałe 12 proc. miało być tylko dopracowywane przez zespół fachowców.

W rzeczywistości, jak w 2019 r. poinformowali dziennikarzy „Wall Street Journal” anonimowi pracownicy firmy, Engineer.ai miał polegać przede wszystkim na zatrudnionych w firmie programistach. A oni w dość tradycyjny sposób tworzyli zlecone im aplikacje. Wybuchł skandal. Sanchin Guggal, CEO firmy, w wystosowanym oświadczeniu bronił się, że nigdy nie obiecywał zautomatyzowania procesu tworzenia aplikacji mobilnych i zawsze posługiwał się terminem „human-assisted AI”. Czyli „sztuczna inteligencja wspierana przez człowieka”. Wciąż brzmiało innowacyjnie, a to „wspierana” mogło przecież oznaczać wszystko, łącznie z dostarczaniem niezbędnych danych do nauki. 

Tej wpadki inwestorzy mogli prawdopodobnie uniknąć. Wystarczyło dokładniej przyjrzeć się samej firmie. Na wyższym stanowisku zatrudniony był tylko jeden posiadający doświadczenie specjalista od sztucznej inteligencji. To, jak na skalę działalności startupu i jego ogromne ambicje, podejrzanie mało. Jednak nawet zastęp specjalistów i ogromne zasoby finansowe nie zawsze wystarczą, by zrealizować zbyt ambitne cele.

Ale w pułapkę zbyt wygórowanych ambicji wpadają nie tylko młode firmy.

M (wcześniej znana jako Moneypenny) miała być pokazem zdolności technologicznych Facebooka i dowodem, że także on, jak inni technologiczni giganci, jest w stanie stworzyć swojego zaawansowanego inteligentnego asystenta. Przez ponad dwa lata M przypomniała, żeby kupić kwiaty na rocznicę ślubu teściów, pomagała wybierać użytkownikom restaurację i robiła za nich rezerwacje. 

Moce przerobowe M były jednak zaskakująco mizerne. Inteligentna asystentka była w stanie obsłużyć kilka tysięcy osób i to tylko Kalifornijczyków. W końcu projekt zamknięto. Oficjalnie nikt nie mówił o klapie, a raczej o eksperymencie, z którego firma wyciągnęła wiele szalenie interesujących wniosków na przyszłość. Nieoficjalnie szeptano jednak, że M nigdy nie zdołała przejąć nawet 30 proc. zlecanych jej zadań. Gros pracy wykonywali więc udający algorytm ludzie. 

I tylko androidek żal 

Sztuczna inteligencja, która nie tylko bez marudzenia ugotuje obiad, posprząta po nim i przy zmywaniu zacznie snuć plany zagłady ludzkości, to więcej niż pieśń przyszłości. AGI, czyli Artificial General Intelligence, wszechstronna sztuczna inteligencja, która nie specjalizuje się w wykonaniu jednego zadania, występuje na razie tylko w filmach i książkach spod znaku science-fiction. 

Obecnie mamy raczej do czynienia z ANI od Artificial Narrow Intelligence, sztuczną inteligencją, która jest wysoce wyspecjalizowana. Jest w stanie wykonywać czasem naprawdę inteligentnie jakieś dobrze określone zadania. Może być mistrzem GO, poprowadzić samochód w ruchu ulicznym, nieźle rozumieć języki, przetłumaczyć nawet niektóre żarty, choć wciąż mieć raczej smykałkę do czerstwych sucharów. Nasze smartfony mają całkiem spore zbiory takiej ANI: aplikacja do zdjęć rozpoznaje twarze na zdjęciu, a rozmawiająca asystentka zamawia za nas pizzę. 

Jednym z najczęściej spotykanych rodzajów sztucznej inteligencji jest uczenie maszynowe. Polega to w uproszczeniu na tym, że twórcy programu nie tyle próbują jak najdokładniej opisać zadanie, które ów program ma wykonać, ile raczej pozwalają mu samemu odnaleźć niezbędne zależności, szkoląc go na wielkich zbiorach danych. 

I tak dla przykładu: aby program rozpoznający zawartość obrazka był w stanie rozróżnić osła od jelenia, nie tłumaczy mu się, że pierwszy ma dłuższe uszy, większy pysk i czasami ogon przyczepiany do zadka gwoździkiem. Zamiast tego przygotowuje się bazę ze zdjęciami osłów i jeleni, dzięki której program sam może nauczyć się rozpoznawać jeden gatunek i odróżniać go od jego dalekiego kuzyna. 

Tak przeszkolony program może być świetny w rozpoznawaniu osłów i jeleni, ale tylko w tym. Jego inteligencja jest więc rażąco ograniczona i ma niewiele wspólnego z Terminatorem, nawet jeśli wyszedłby w wersji pisanej przez Związek Myślistwa Polskiego. 

Żeby wyszkolić system, który ma nauczyć się rozróżniania jednych zwierząt od drugich, potrzeba danych, dużo danych. Jeśli ich baza będzie za mała lub znajdujące się w niej informacje (na przykład w formie zdjęć) nie będą dobrze dobrane, program będzie wadliwy. Efekty mogą być kuriozalne lub obraźliwe. Stąd choćby legendarny błąd wyszukiwarki zdjęć Google, która zakwalifikowała pewną czarnoskórą parę do kategorii „goryle”.

Od inteligentnej lodówki do Terminatora

Sztuczna inteligencja w ustach speców od marketingu często przypomina dżina, który spełni wszystkie nasze technologiczne życzenia, zwolni nas z obowiązku wykonywania najnudniejszych zdań oraz wyzwoli od ciężkich i powtarzalnych obowiązków. Jednak gdy przychodzi do weryfikacji, okazuje się, że dżina nie ma, za to my tkwimy nabici w butelkę po szyję. 

Trudno by tak się nie działo, skoro sama definicja AI wciąż nastręcza problemów nawet ekspertom. 

– Puryści mówią, że jest to po prostu rozwijany od lat 50. ubiegłego wieku dział informatyki, zajmujący się modelowaniem różnych zachowań inteligentnych albo takich, które mogą symulować inteligencję -– tłumaczy Przegalińska. 

- Inni twierdzą, że jest to przestrzeń inżynieryjna tworzenia programów opartych na uczeniu maszynowym lub sieciach neuronowych. Jeszcze inni, że jest to wielki parasolowy termin dla wielu różnych dyscyplin, takich jak robotyka, przetwarzanie języka, przetwarzanie obrazu, predykcja, optymalizacja i że w tym wszystkim pojawia się komponent sztucznej inteligencji - dodaje ekspertka.

Wszystko to brzmi o wiele bardziej naukowo niż zwykliśmy sobie wyobrażać AI wychowani na wizjach SkyNetu przejmującego świat. Rzeczywiście, jak podkreśla ekspertka, wyznacznikiem sztucznej inteligencji, tak jak inteligencji ożywionej, jest przede wszystkim jej zdolność do nauki i adaptowania się do zmieniającego się otoczenia. – To, co się nie uczy, siłą rzeczy nie będzie sztuczną inteligencją – tłumaczy.

Weźmy prosty przykład. Gdy Facebook rozwijał M, czatboty były na fali. Eksperci przewidywali, że z czasem przejmą one rolę telefonicznych konsultantów lub zespołów pomocy. A może nawet i osobistych asystentów. W sieci pojawiało się wiele czatbotów i programów je naśladujących. Większość z nich potrafiła wykonać proste polecenia i odpowiedzieć na pytanie, które z listy wybierał konsument. 

Ich granice były jednak starannie zakreślone: mogły zrobić tylko to, co zostało skrupulatnie zakodowane przez programistów i odpowiedzieć na te pytania, które zostały przez nich wymyślone i zapisane. To wszystko. Ich spadkobierczynie – Alexa, Siri czy Asystentka Google – są w stanie zrobić więcej, bo wyrwały się ze świata spisanych pytań i skrupulatnego wyliczania możliwych komend. Zaczęły rozumieć naturalną mowę, uczyć się swoich użytkowników tego, jak mówią, co robią, jakie mają preferencje i doskonalić się na podstawie zdobytych w ten sposób danych. 

To klucz do ich sukcesu. I serce potężnego PR-owego skandalu, który rok temu przetoczył się przez Dolinę Krzemową. Żeby zrozumieć, jakie systemy popełniają błędy i nauczyć je jeszcze lepszego porozumiewania się z człowiekiem, firmy sięgały po sprawdzonego pomocnika sztucznej inteligencji – człowieka. Nagrania z części z naszych rozmów z Aleksą, Siri czy Asystentką Google'a były przekazywanych do podwykonawców. Czyli firm, których pracownicy identyfikowali potknięcia systemów i pomagali w ich naprawie.

Brzmi to niewinnie. Ale trzeba na to spojrzeć z drugiej strony: prywatne rozmowy ludzi, z ich domów, z rodzinami i bliskimi trafiały do nie wiadomo jakich firm, były przesłuchiwane i nadane bez jasnego informowania o tym samych klientów. 

Gdy wieść dostała się do opinii publicznej, wybuchł skandal. Choć firmy tłumaczyły, że informowały o wszystkim swoich użytkowników, dając im możliwość wypisania się z programu ulepszania asystentek, wielu z nich i tak poczuło, że ich zaufanie zostało nadwyrężone. Oni uwierzyli technologicznym gigantom, że mają przed sobą swobodnie gadającą sztuczną inteligencję, która nie potrzebuje do działania nadzoru człowieka.

A okazało się, że za tym potężnym czarnoksiężnikiem siedzą sobie niezłe tłumy zwykłych ludzi.