REKLAMA

Bezduszna logika algorytmów uwodzi biznes i flirtuje z nami, klientami

Dla wielu osób kierujących biznesem, pojęcie sztucznej inteligencji ciągle jest niejasne i rodzi poczucie, że wkraczają oni na obcy teren. Myślę, że znajomość podstawowych praw, które leżą u podłoża nowych technologii może dodać pewności każdemu, kto przymierza się do zwiększenia innowacyjności firmy. 

Bezduszna logika algorytmów uwodzi biznes i flirtuje z nami, klientami
REKLAMA
REKLAMA

Dlatego przedstawię (w maksymalnie skondensowanej formie) co jest technologicznym fundamentem, na którym rodzą się dzisiaj takie zjawiska, jak narodziny pojazdów autonomicznych, rekomendacje w trakcie zakupów internetowych, czy głosowe odpowiedzi asystentów urządzeń mobilnych.

Maszyna uczy się bez końca

Dwie podstawowe siły, które decydują o kluczowych procesach inteligentnych technologii, to: Machine Learning i Deep learning.

Machine Learning często definiowane jest jako silne wsparcie analityki predyktywnej i jest techniką z obszaru informatyki i modelowania statystycznego, która pozwala maszynie (aplikacji) na podstawie samodzielnej analizy i bez konieczności jej uprzedniego zaprogramowania na przewidzenie rezultatu działania i często wypracowanie i podjęcie samodzielnej decyzji.

Natomiast Deep Learning to jedna z odmian sztucznej inteligencji polegająca działaniach w oparciu o sieci neuronowe, których głównym zadaniem jest doskonalenie technik rozpoznawania głosu i przetwarzania naturalnego języka, czyli mocno upraszczając można potraktować jako sposób na automatyzację analiz predykcyjnych.

W wielkim skrócie są to techniki, które umożliwiają przetwarzanie olbrzymich zbiorów danych w oparciu o samouczenie się maszyn. Różnią się, jeśli chodzi o możliwości i zadania. Odsyłam do moich poprzednich artykułów na tematach tych technik do moich poprzednich artykułów.

Algorytmy stanowiące podstawę Machine Learning działają w oparciu o schemat, w którym komputer wykorzystuje sygnały wejściowe (dane) i podejmuje decyzje, co z nimi dalej robić – jak je grupować, klasyfikować, itd. W Machine Learning zawarte jest ważne ograniczenie – komputer, wykonując zadania, działa w ramach doświadczenia nadzorowanego.

Oznacza to, że kluczową rolę odgrywa tu ciągle człowiek, który „karmi” urządzenie porcjami informacji. Najpotężniejszy komputer świata IBM Watson nie mógłby osiągać mistrzowskich rezultatów, gdyby wcześniej nie został „nakarmiony” danymi przez ludzi lub gdyby ludzie nie wskazali mu źródeł danych, wiedzy.

Natomiast druga technika - Deep Learning, która odpowiada za rozpoznawanie głosu, przetwarzanie języka naturalnego, rozpoznawanie obrazów, to już jakościowo inny poziom. Przypomina ona operacje zachodzące w ludzkim mózgu. Komputer wykorzystuje do swoich działań sieci neuronowe, na które składają się grupy równolegle działających procesorów, zasilanych dużą ilością danych.

Po każdym nowym doświadczeniu komputera, który podejmuje się działania, połączenia między owymi procesorami i strumieniami informacji, którymi operują, czyli węzłami w wielkim uproszczeniu podlegają samo reorganizacji. Poziom celowości tych organizacji jest coraz doskonalszy, a tym samym, maszyna sprawniej reaguje na wyznaczone jej zadania.

Przyznam, że nie jest mi obce poczucie pewnej niesamowitości tych – wydawałoby się – czysto technicznych procesów. Korzystanie z historii własnych dokonań, doświadczenia zdobywane poprzez kontakt z ludźmi są zachowaniami maszyn, które nie przestają mnie zadziwiać.

Jak rozpoznać psa na zdjęciu?

Fakt, że komputery mogą coraz sprawniej rozwiązywać złożone problemy, dzięki pracy, którą dokonały wcześniej i kontaktom z ludźmi, skutkuje przełomem w rozwoju inteligentnych technologii. No dobrze, ale w jaki sposób przekłada się to wszystko na rynkową popularność takich, a nie innych trendów technologicznych? Kolejny raz można tu zauważyć pewną prostotę.

Machine Learning i Deep Learning dokonują analizy danych na kilka podstawowych sposobów, formułując samodzielnie lub przy pomocy człowieka zestaw reguł decyzyjnych. Najważniejsze z nich, to: analiza baz danych (podstawa BIG DATA), klasyfikacja obiektów (porządkowanie zdjęć na podstawie cech wspólnych), wykrywanie błędów (porównywanie obiektów i stanów, by wykryć prawdopodobieństwo wystąpienia zaburzeń), rekomendacje (na jej podstawie tworzone są sugestie zakupowe), optymalizacje (poszukiwanie najlepszej trasy dla samochodu).

Wszystko to, co dzisiaj dla konsumentów jest takie istotne, i co napędza innowacje biznesu, bazuje na tych kilku operacjach, które przybierają dobrze opakowaną formę.

Prawdziwie boska celowość

Opisane procesy - pod wpływem decyzji biznesowych, marketingowych, społecznych - z informatycznych abstrakcji, zmieniają się w konkretne innowacje. Jeśli więc algorytmy przetwarzające dane potrafią „przewidywać”, to logiczną konsekwencją tej zdolności stają się wdrożenia w e-commerce polegające na tym, że sklep podsuwa klientowi towar podobny do rzeczy kupowanych wcześniej.

Kolejny przykład: jeśli algorytmy potrafią klasyfikować dane ze względu na cechy wspólne, to będzie potrafił bezbłędnie rozpoznawać, czy na zdjęciu widać psa, czy samolot. A to z kolei nie może ujść uwadze właściciela portalu społecznościowego, który gromadzi miliardy fotografii użytkowników. W obrębie sztucznej inteligencji mamy więc do czynienia z pewną logiką i celowością.

Poniżej przyjrzę się trzem trendom, które – dzięki opisanym wyżej mechanizmom – będą utrwalać swoją popularność w świecie cyfrowego biznesu.

Algorytmy mogą eliminować błędy…

Wskazana wcześniej funkcja wykrywania błędów będzie coraz bardziej kluczowa, biorąc pod uwagę zarówno opinię publiczną, jak i popularność określonych trendów biznesowych. Kontrola i eliminacja anomalii mają szczególne znaczenie na takim obszarze, jakim jest Internet Rzeczy. Mam tu na myśli rosnącą popularność urządzeń działających w oparciu o sensory odpowiedzialne za pozyskiwanie danych z otoczenia.

Olbrzymia ilość zbieranych informacji, które pochodzą z naszych ulic, sklepów a nawet mieszkań (smart houses) oznacza bezdyskusyjne korzyści. Niesie jednak niebezpieczeństwo. Dla przeciętnego obywatela nieprawidłowości mogą oznaczać zarówno uciążliwości w życiu codziennym (awarie inteligentnych sprzętów), jak i budzić poczucie zagrożenia (szkodliwy monitoring wykorzystywanych w celach politycznych). Dla biznesu sprawa jest równie ważna.

Wystarczy wskazać na kwestię bezpieczeństwa, kluczową w przemyśle samochodowym i lotniczym. Sensory wykorzystywane są przy budowie silników lotniczych przetwarzają strumienie informacji, które powstają na bieżąco, w trakcie lotów. Eliminowanie potencjalnych błędów w obrębie tych procesów ma kolosalne znaczenie. Systemy czujników odpowiadają także za umiejętności samochodów autonomicznych. Eliminacja nieprawidłowości w danych zbieranych przez kamery i czujniki lidarowe ma kolosalny wpływ na dalszy rozwój trendu.

… i wiedzą, jak zaspokoić konsumenta…

Wykorzystanie opisanych wcześniej funkcji predykcyjnych (rekomendacje) to priorytet w e-commerce i handlu detalicznym. O tym jak ważna jest wartość mechanizmu automatycznych poleceń wiedzą dobrze takie koncerny jak Amazon, czy Netflix. One właśnie uczyniły z systemów predykcji globalną wartość biznesową i de facto wykreowały nowy standard zachowań przeciętnego klienta.

W najbliższych latach doświadczymy na obszarze e-commerce rozwoju technologii koncentrujących się na analizie głosu i mimiki klienta. Analizy, które mam na myśli będą wykorzystywane do trenowania botów – czyli cyfrowych asystentów zdolnych do coraz lepszego komunikowania się z nami przy użyciu języka naturalnego.

Dzisiaj, ciągle jeszcze niedoskonałe boty, będą konsekwentnie udoskonalać swoje umiejętności, by z czasem w pełni konkurować z kompetencjami pracowników call center. To one będą przedstawiać nam sugestie dotyczące interesujących nas produktów, zarezerwują nam wyjazd na wakacje, wskażą najkorzystniejszy kredyt i umówią z lekarzem.

… oraz rozumieją też potrzebę efektywności w biznesie

Umiejętności predykcyjne algorytmów mogę mieć kolosalny wpływ na istotną biznesową kategorię, jaką jest efektywność. Jej zwiększanie, to – jak wiemy – priorytet dla wielu zarządów, bez względu na branżę. Każda technologia, która pokazuje nam, że można lepiej wykorzystywać istniejące zasoby, wzbudza naturalne zainteresowanie biznesu.

Ta właśnie zdolność algorytmów umożliwia redukowanie kosztów i zwiększanie produktywności. Biorąc za przykład branżę transportową, algorytmy mogą tu przynieść mnóstwo korzyści. Szefowie firm transportowych nie przejdą obojętnie wobec faktu, że obserwacje kierowcy i pojazdu w czasie rzeczywistym, mogą prowadzić nawet do kilkunastoprocentowej redukcji kosztów.

Urządzenia śledzące reakcje kierowcy, pracę silnika, system postojów i przeszkody na drodze mogą sugerować, kiedy kierowca powinien przyśpieszać, a kiedy zwalniać, kiedy uzupełniać paliwo, a kiedy jechać dalej. Każda podjęta przez niego decyzja, która uwzględnia tego typu informacje, przełoży się na finansowe oszczędności.

Kto już potrafi to wszystko docenić?

McKinsey Global Institute w raporcie „Notes from the AI frontier: Applications and value of deep learning” analizuje, jakie branże mogą być najbardziej zainteresowane wdrożeniem opisywanych technologii i które potrafią zmieniać predykcję, rozpoznawanie obrazów, wyszukiwanie błędów w wartość biznesową. I tak, na pierwszym miejscu listy znajduje się dzisiaj handel detaliczny.

Czołowa pozycja jaką zajmuje nie dziwi, jeśli wziąć od uwagę fakt, jak olbrzymią ilością danych o klientach on dzisiaj dysponuje. Informacje o wieku, wykształceniu, pracy, dotychczasowych decyzjach zakupowych, pozwalają firmom zajmującym się handlem przenosić doświadczenia klienta na inny poziom. Łączenie informacji o kliencie, które zawarte są w jego historii zakupowej z treściami, które generuje on w mediach społecznościowych, staje się dzisiaj obowiązującym trendem w globalnym e-commerce.

W czołówce branż, które narzędzia sztucznej inteligencji doceniają najbardziej znajdziemy również wspomnianą już logistykę. Z kolei wysoką pozycję branży turystycznej i jej zaangażowanie w wykorzystywanie nowych technik można tłumaczyć kilku czynników. Śledzenie historii podróży klienta, analiza zdjęć, które udostępnia w przestrzeni wirtualnej dla biura turystycznego jest dzisiaj niezbędna, by utrzymać z nim kontakt, proponować mu nową ofertę, a tym samym utrzymywać rentowność biznesu.

Olbrzymia popularność geolokalizacji, aktywność podróżujących w mediach społecznościowych to dwa czynniki, które wpływają na znaczne przyrosty dostępnych danych, które są łakomym kąskiem dla branży.

Powyższe przykłady wskazują, że każda branża korzysta tak naprawdę z mieszanki różnorodnych funkcji algorytmicznych. Systemy rekomendacji, wykrywanie błędów, wyszukiwanie anomalii, planowanie najlepszych decyzji – dopiero w połączeniu ze sobą, mogą tworzyć technologiczną bazę, która decyduje o sukcesie danego biznesu.

Przeszkody, które musimy pokonać

McKinsey Global Institute wskazuje, że spośród wszystkich przebadanych firm, które zadeklarowały świadomość, że sztuczna inteligencja ma duże możliwości, zaledwie 20 procent podjęło kroki o jej adaptacji. Jest kilka hamujących czynników, które ciągle powodują, że w praktyce biznesowej nie wszystkie możliwości inteligentnych technologii mogą być od razu docenione i zaadaptowane.

Zacznę od kwestii dyskomfortu poznawczego, który skrótowo można zawrzeć w pytaniu: „dlaczego technologia sugeruje mi takie, a nie inne zachowanie. Jak do tego doszła”? Szybkość z jaką rosną możliwości procesorów nie przekłada się automatycznie na wzrost zaufanie u ludzi. I nie chodzi tu tylko o irracjonalne lęki przeciętnych obywateli.

Systemy regulacji i certyfikacji obecne dzisiaj w wielu gałęziach przemysłu są tak rozbudowane, że szybka akceptacja nawet najbardziej innowacyjnych rozwiązań, nie jest wszędzie możliwa. O ile marketing nie będzie miał problemów z szybkimi wdrożeniami, to medycyna, przemysł lotniczy, czy bankowość nie zrezygnuje z dnia na dzień ze sformalizowanych procedur kontrolnych i systemów certyfikacji.

Kolejne ograniczenie dotyka kwestii bezpieczeństwa. Przeżywamy kryzys, jeśli chodzi o refleksję na temat przetwarzania danych. Nie da się dzisiaj łatwo przekonać każdego z nas do tego, że systemy rozpoznawania twarzy nie robią krzywdy. Całe „przetwarzanie danych” jest dzisiaj pod uważną obserwacją, sztuczna inteligencja karmiąca się naszymi danymi, może więc odczuć na „własnej skórze” obawy ludzkiego gatunku.

Nie bez znaczenia są też oczywiście pieniądze. Decyzja o tym, że firma ma zainwestować w kosztowne systemy informatyczne, tworzenie działów zajmujących się nowymi danymi, zatrudnianie specjalistów musi mieć racjonalne i ekonomiczne uzasadnienie. A jak wiemy, szybkie wydawanie pieniędzy nie jest ulubionym zajęciem zarządów nawet najbardziej progresywnych przedsiębiorstw.

Dopasować wartości do potrzeb

Myślę, że kluczowym wyzwaniem dla współczesnych zarządów będzie rozpoznanie i nazwanie wszystkich wartości, jakie nowa technologia może przynieść. Nie chodzi przecież o nieustanny zachwyt nad globalnymi możliwościami sztucznej inteligencji. Liczy się dopasowanie jej możliwości do konkretnych potrzeb danej firmy. Samo hasło „sztuczna inteligencja” nie otwiera już automatycznie wszystkich drzwi.

Przedstawiciele start-upów i koncernów technologicznych muszą mieć świadomość specyfiki branży w jakiej działa klient, by zapewnić sobie możliwość prezentacji oferty. Jestem jednak przekonany, że dotychczasowy udział nowych technologii w rynkowych przemianach jest ciągle skromny. Co zresztą wcale nie jest pesymistyczną refleksją. Wręcz przeciwnie – rynek pozostaje szeroko otwarty na nowe możliwości.

 class="wp-image-874771"

Head of Services CEE, Microsoft. Kieruje usługami Microsoft w 36 krajach, ich zakres obejmuje doradztwo biznesowe i konsulting technologiczny, w szczególności w takich obszarach jak big data i sztuczna inteligencja, aplikacje biznesowe, cybersecurity, usługi premium oraz cloud. Poprzednio jaklo Vice President Digital McKinsey odpowiedzialny za region CEE oraz usługi łączące doradztwo strategiczne i wdrażanie zaawansowanych rozwiązań informatycznych. Od kompleksowej transformacji cyfrowej przez szybkie wdrożenia aplikacji biznesowych, rozwiązania i analizy big data, biznesowe zastosowania sztucznej inteligencji po rozwiązania blockchain i IoT. Wcześniej Norbert pełnił funkcję Prezesa Zarządu i CEO Atos Polska, był również szefem ABC Data S.A. oraz Prezesem Zarządu i CEO Sygnity S.A. Poprzednio również pracował w firmie McKinsey jako partner, był dyrektorem działu usług doradczych, oraz rozwoju biznesu firmy Oracle.

Pasją Norberta są najnowsze technologie robotyzacja, zastosowania sztucznej inteligencji, blockchain, VR i AR, Internet Rzeczy, oraz ich wpływ na gospodarkę i społeczeństwo. Więcej na ten temat można przeczytać na blogu Norberta.

REKLAMA

Cytowane prace:

  • The Guardian, Luke Harding And Leonard Barden, From the archive, 12 May 1997: Deep Blue win a giant step for computerkind, link, 2011.
  • MIT, Dimitrios G. Myridakis, Anomaly detection in IoT devices via monitoring of supply current, link, 2018.
  • Ars Technica, TIMOTHY B. LEE, Why experts believe cheaper, better lidar is right around the corner, link, 2018. 
  • McGill University at Montreal, Frank P. Ferrie, Ruisheng Wang, Jeff Bach and Jane Macfarlane, A New Upsampling Method for Mobile LiDAR Data, link, 2018. 
  • HuffPost, Marquis Cabrera, NCCD, Netflix, and Amazon all use predictive analytics—what is different about child welfare is the consequences of mistakes, link, 2018. 
  • The NetFlix Tech Blog/ Medium, Chaitanya Ekanadham, Using Machine Learning to Improve Streaming Quality at Netflix, link, 2018. 
  • McKinsey Global Institute, Michael ChuiJames Manyika, Mehdi Miremadi, Nicolaus Henke, Rita Chung, Pieter Nel, and Sankalp Malhotra, Notes from the AI frontier: Applications and value of deep learning, link, 2018. 
REKLAMA
Najnowsze
Aktualizacja: tydzień temu
REKLAMA
REKLAMA
REKLAMA