Polskie firmy analityczne sprzedają dane i umywają ręce. Nic dziwnego, że w Big Data jesteśmy w tyle Europy
"Kupujemy lek, ale o bez informacji o jego działaniu, sposobie dawkowania czy efektach ubocznych” – tak sytuację na polskim rynku Big Data opisuje Paweł Brach z TogetherData.
W 2017 roku nie powinniśmy mieć wątpliwości, że żyjemy w epoce wielkich zbiorów danych. Wszelkie wątpliwości o rosnącej roli tego segmentu rynku powinna rozwiać poniższa infografika.
!function(e,t,n,s){var i="InfogramEmbeds",o=e.getElementsByTagName(t),d=o[0],a=/^http:/.test(e.location)?"http:":"https:";if(/^\/{2}/.test(s)&&(s=a+s),window[i]&&window[i].initialized)window[i].process&&window[i].process();else if(!e.getElementById(n)){var r=e.createElement(t);r.async=1,r.id=n,r.src=s,d.parentNode.insertBefore(r,d)}}(document,"script","infogram-async","//e.infogr.am/js/dist/embed-loader-min.js");
Na fali popularności Big Data powstają dziesiątki firm specjalizujących się w analityce danych, ale wg przedstawicieli TogetherData zupełnie nie spełniają swojej roli. Dostarczają gotowe produkty, ale nie wyjaśniają jak ich używać. Nie potrafią pomóc zasilonym w dane firmom w monetyzowaniu cyfrowych informacji. Sprzedając dane do firm niejako „umywają ręce” od tego, co ich klienci z takimi danymi później zrobią.
Dlatego Paweł Brach wraz ze wspólnikami założył „Dom badaczy danych”, którego celem jest „datyzacja” polskiego biznesu, to znaczy pokazanie mu czarno na białym realnych, finansowych i organizacyjnych korzyści, płynących z odpowiedniego posługiwania się danymi i zarządzania nimi.
Karol Kopańko, Spider’s Web: TogetherData zaczynało w Campusie Google’a w Warszawie. Jesteście chyba jedną z pierwszych firm, która stamtąd wyrosła. Jakie były wasze początki?
Paweł Brach, współzałożyciel TogetherData: Byliśmy jednym z pierwszych startupów w Polsce, które rozgościły się w campusie Google już w chwilę po jego otwarciu. Zaczynaliśmy rozwijać nasz biznes we dwóch, z jednym biurkiem i dwoma krzesłami. Dzisiaj rozbudowujemy własne biuro, a może raczej: dom badaczy danych. Będzie w nim miejsca na trochę więcej biurek i krzeseł, bo mamy blisko 1000 m2 powierzchni do dyspozycji.
Czego nauczył was pobyt na Campusie i co udało się stamtąd wynieść?
Przede wszystkim: startupową atmosferę i dynamikę pracy. W campusie Google urzekający i uderzający jest jeden fakt: wszyscy są tam zadowoleni, mimo że wiele osób jest na wczesnym etapie rozwoju produktu i nie zarobiło jeszcze złotówki. Często jeździliśmy do campusu tylko po to, aby nabrać energii i świeżego spojrzenia do dalszej walki. Motywowaliśmy się do dalszych działań. W campusie było jak w mrowisku. Wokół nas – pełno młodych i zorientowanych na sukces twarzy startupowców, którym śnił się wielki biznes i którzy w pocie czoła w campusie zarywali dnie i noce nad urzeczywistnieniem swoich pomysłów. W powietrzu odczuwało się atmosferę takiej zdrowej rywalizacji, wzajemnego wspierania, napędzania, ale trochę też jednak podglądania: jak komu idzie.
Oprócz startupowców Campus często odwiedzają też inwestorzy. To taki trening przed prawdziwym pitchowaniem pomysłów?
Często odbywaliśmy z nimi spotkania 1 na 1. To były dla nas najcenniejsze lekcje. W ich trakcie przechodziliśmy tzw. „testy 30-stu sekund”, w czasie których trzeba zgrabnie opowiedzieć, czym firma będzie się zajmować, jaki problem realnie adresuje i na czym polega jej model biznesowy.
Te spotkania pomagają w wykoncypowaniu właściwej ścieżki rozwoju firmy?
Zdecydowanie. Na początku poszliśmy trochę „za tłumem”, skupiając się po prostu na analityce danych jako takiej i rozmywając nasze usługi. Na rynku takich firm jest dziś jednak mnóstwo. Postanowiliśmy zatem skupić się na wybranym segmencie i stworzyć własne, unikalne technologie. Zdecydowaliśmy się na sektor fin-tech, na branżę bankową i windykacyjną. Zauważyliśmy, że zdobycie danych nie jest problemem dla firm, natomiast realną bolączką przedsiębiorstw jest już zrozumienie i wykorzystanie tych danych, znalezienie sposobów na ich wykorzystanie w działaniu firmy, bądź spieniężenie. Dlatego zapadła decyzja: idziemy w kierunku rozwijania technologii data-enrichment, czyli wzbogacania danymi firmowych systemów. Cel stał się jasny: skoro firmy już teraz toną w cyfrowej powodzi, to nie ma sensu dolewać im do szalupy ratunkowej wody w postaci kolejnych danych – trzeba raczej pomóc im uporać się z tymi danymi, które mają zgromadzone już teraz.
Kiedy myślimy o Big Data, to przeważnie mamy przed oczyma dyski komputerów i enigmatyczne cyferki przepływające przez monitor. Ale to przecież także świat offline – sterty dokumentów.
Dlatego wzięliśmy je pod lupę, automatyzując proces ich pozyskiwania, dzięki uczeniu maszynowemu. Nie trzeba już ręcznie i mozolnie wertować wszystkich dokumentów w poszukiwaniu interesujących nas informacji, ponieważ zrobi to za nas inteligentna maszyna za pomocą odpowiednio zaimplementowanych w niej algorytmów. W efekcie stworzyliśmy własne narzędzie pozwalające wzbogacać firmy o dane ze świata offline.
Jak konkretnie przebiega to „wzbogacanie danych”?
Bierzemy również pod lupę papierowe dokumenty: umowy, skany, aneksy, załączniki itd., których proces przetwarzania zautomatyzowaliśmy dzięki uczeniu maszynowemu i inteligentnym algorytmom. W przypadku offline’owych zbiorów danych opracowaliśmy własne rozwiązanie, które rozpoznaje cenne dla naszego klienta informacje (kluczowe pola na dokumentach), digitalizuje je, a następnie osadza w szerszym kontekście, wliczając w to informacje zdobyte podczas analiz danych online. Roboczo określamy to rozwiązanie jako Offline Data Recognition System. Inaczej mówiąc: nie sortujemy papierków w poszukiwaniu pól z kluczowymi informacjami. Robi to nasz algorytm, który – jak z puzzli – układa pełny profil użytkownika.
Czyli zbieracie całość danych jakie powstają w firmie i wokół firmy.
Budujemy 360-stopniowy profil klienta. Na tym etapie nasi badacze danych integrują dane z całej ścieżki klienta, czyli z tzw. customer journey, a następnie uwzględniają dane dotyczące jego aktywności internetowej, sieci społecznościowych oraz dane offline. Pozwala to firmie na uzyskanie realnego obrazu klienta: człowieka z krwi i kości, a nie internetowego widma. Znając potrzeby i zainteresowania takiego człowieka wiemy, jak należy do niego mówić, co mu zaoferować a czasami również – jeśli np. jest dłużnikiem – jak można mu pomóc.
Właśnie, chyba jeszcze nikt nie adresował usług Big Data do dłużników.
Dlatego też zaczęliśmy rozwijać również tę część w naszej działalności, kładąc de facto fundament pod tzw. „marketing windykacyjnego”. Dzięki naszym algorytmom ułatwiamy firmom windykacyjnym dotarcie do takich osób i stosując odpowiednie heurystyki przedstawiamy im modele scoringowe klientów-dłużników.
Rozumiem, a jak konkretnie wygląda wasza praca u klienta?
Czasami sobie żartujemy, że nasi badacze danych przypominają ekipy remontowe ze znanych programów telewizyjnych w stylu „twoja nowa kuchnia w 24 godziny”. Nasza praca nad CRM-ami czy ERP-ami zajmuje oczywiście więcej niż dobę, ale już po miesiącu pracy pokazujemy im realną wartość danych oraz ścieżki ich monetyzacji. Oczywiście nie musimy pojawiać się w firmie fizycznie – prosimy ją tylko o próbkę posiadanych przez nią danych i bazując na tej próbce pokazujemy ile firma może zyskać dzięki monetyzacji Big Data.
Firmy są zaskoczone?
Zdecydowanie, dopiero wówczas widzą czarno na białym, jak cenne informacje posiadali, nie wiedząc o tym. W przypadku branży windykacyjnej staramy się zrozumieć potrzeby i problemy klienta. Bardzo często sam wcielam się w rolę analityka i przyglądam się pracy operacyjnej klienta, aby móc zaproponować działania, które zaowocują mierzalnymi korzyściami.
Nieźle to brzmi, ale jaka jest efektywność takich usług?
Zastosowanie naszych technologii wzbogacania i integracji danych pozwala zoptymalizować procesy biznesowe w firmach nawet o 100 proc. I jesteśmy w stanie dowieść tego w miesiąc.
A jak generalnie polskie firmy radzą sobie z wykorzystaniem Big Data?
Polska w obszarze monetyzacji Big Data jest nadal rynkiem raczkującym. Wiele naszych firm nie zdaje sobie jeszcze sprawy z wagi cyfrowego kapitału, który udało im się zgromadzić. Polskie firmy albo w ogóle nie korzystają z danych, albo nie wiedzą, jak z nich korzystać, przez co wyciągają z nich mylne wnioski. Raptem co piąta firma nad Wisłą deklaruje analizę strumieni wielkich zbiorów danych, które przez nią przepływają. To jeden z najniższych wskaźników w Europie.
Odnoszę też wrażenie, że polskie firmy mają bardzo dużo rodzajów danych, ale trudno im połączyć wszystkie źródła w jeden strumień.
Dostrzegamy to praktycznie w każdej firmie, niezależnie od branży. Nasze firmy rzadko potrafią też oszacować precyzyjnie wartość informacji, które już posiadają. Mam tu na myśli dane typu 1st party, czyli te przechowywane w systemach CRM i ERP. To dwa największe silosy danych w firmach. Zgromadzone w nich dane mogą okazać się prawdziwą żyłą złota dla firm. Pod jednym warunkiem: przedsiębiorcy potrafią je odpowiednio przefiltrować, przesiać, odrzucić zdezaktualizowane i śmieciowe informacje od tych, które odwzorowują stan faktyczny. Polskie firmy często nie są w stanie takiego „dekodowania” przeprowadzić, a tym samym – nie mogą zmonetyzować własnych informacji o klientach.
Brakuje im odpowiednich ludzi, którzy za takie dekodowanie mogliby się wziąć?
Tylko doświadczone zespoły osób o profilu data scientist, łączące miękkie i twarde umiejętności, potrafią dostrzegać wartość w danych. Mimo niezwykle szybkiego w ostatnich latach rozwoju technologii, wciąż jednym z największych wyzwań w kontekście procesu zarządzania danymi jest ich odpowiednie przechowywanie. Konkretne wykorzystanie danych w celu ich monetyzacji wymusza odpowiednią skalowalność, elastyczność, szybkość przetwarzania oraz zarządzania nimi. Niektóre firmy myślą, że dane można zrozumieć za pomocą innych danych, lepiej przeanalizowanych, bardziej aktualnych itd. Dlatego kupują gotowe dane od zewnętrznych dostawców, czyli tzw. 3rd party data, ale taka strategia nie zawsze przynosi zamierzony rezultat. Firmy dokupując więcej danych – mają jeszcze większy mętlik w głowie, co z nimi zrobić, co one de facto oznaczają? To tak, jak próbować gasić pożar benzyną. Tu potrzebna jest fachowa wiedza z zakresu data science. A specjalistów, którzy są w stanie ją zaoferować w Polsce, jest niestety jak na lekarstwo. I koło się zamyka.
Big Data dotarło na Zachód o wiele wcześniej. Czy sytuacja w tamtejszych firmach wygląda lepiej?
Na Zachodzie rewolucja danych trwa już od dobrych kilku lat, a zainteresowanie firm narzędziami analitycznymi do obróbki cyfrowych informacji jest zdecydowanie większe, niż w przypadku polskich przedsiębiorstw. W przypadku niektórych korporacji globalnych z powodzeniem można już mówić, że prowadzą data-driven business, czyli wykorzystują dane jako paliwo w swoich działaniach. Firmy bogate w wiedzę o danych zbierają plony. W tym samym momencie polskie firmy dopiero uczą się sposobów, systemów i metod przechowywania oraz analizy danych. Według raportu "Global data management benchmark", aż 84 proc. przebadanych firm i organizacji ze Stanów Zjednoczonych ufa Big Data do tego stopnia, że traktuje dane jako integralną część swojej biznesowej strategii. Z badań przeprowadzonych przez firmę Forrester wynika, że firmy posiłkujące się wielkimi zbiorami danych w zeszłym roku zarobiły ponad 400 mld dolarów, a do 2020 roku ich zysk ma sięgnąć aż 1,2 bln dolarów. Nie bez powodu gdy mówi się o Big Data, to chwilę później pojawia się „Big Money”. Jak bardzo „Big”? IDC twierdzi, że do końca tego roku produkty i usługi informatyczne wykorzystujące Big Data, przyniosą jednej trzeciej firm z listy Fortune 500 dwukrotnie wyższe przychody niż te produkty i usługi, które z danych nie korzystają. Dla polskich firm monetyzacja danych to wciąż terra incognita. Założyliśmy TogetherData po to, by pomóc polskim firmom odkrywać ten obszar.
Na Zachodzie jest o wiele lepiej, a w Polsce mamy z Big Data problemy, ale jak duże jest to „Big Data”?
W przypadku dużych firm poziom danych liczony jest już w zettabajtach, a więc w miliardach gigabajtów danych generowanych każdego dnia. Tempo przyrostu informacji w sieci jest po prostu zabójcze: średnio co trzy lata Internet de facto zwiększa swoją objętość niemal czterokrotnie! IDC twierdzi, że aktualnie wolumen danych w Sieci wynosi ponad 11 Zettabajtów. W 2020 roku będzie to około 45 Zettabajtów, zaś 2025 – uwaga – aż 180 Zettabajtów!
Żyjemy w czasach cyfrowego boomu – to jasne.
Firmy mogą z niego skorzystać, jeśli zdecydują się podejść do danych tak, jak naukowcy podchodzą do przedmiotu swoich badań, czyli z pewną tezą (do obalenia lub potwierdzenia), z metodami weryfikacji założeń oraz z odpowiednimi narzędziami badawczymi. Tylko w ten sposób udaje się wyłuskać z danych rzeczowe insighty dla firm. Natomiast niezależnie od tego, czy mamy do czynienia z małą, średnią czy dużą firmą, to liczba przepływających przez nią danych jest już na wstępie wystarczająca do tego, by nawet na wczesnym etapie firma podjęła decyzję: z jakich danych chce korzystać i jak długo chce je przechowywać.