Big Data wspiera decyzje biznesowe: dlaczego twoja firma też powinna korzystać z danych – przewodnik Dell EMC po Transformacji Cyfrowej Biznesu, cz. 3

Big Data nie jest zarezerwowana dla wielkich organizacji klasy enterprise. Odkrywanie zależności potencjałów ukrytych w niepozornych zbiorach danych może przynieść realną wartość i podstawę do podejmowania kluczowych decyzji biznesowych. Także w sektorze MŚP. Przyjrzyjmy się zatem, czym jest Big Data, jak działa i co konkretnie trzeba zrobić, by z niej korzystać.

Wojciech Janusz, Big Data & Analytics, Subject Matter Expert, Dell EMC

Big Data to jedno z najpopularniejszych buzzwords – biznesowych zaklęć ostatniej dekady. Pojawia się w kontekście biznesu i technologii oraz zastosowań wymagających analizy dużych zasobów danych: w sprzedaży, zarządzaniu łańcuchami dostaw, energetyce, wytwórstwie, a nawet w badaniach trendów w sieciach społecznościowych oraz statystyce. Termin zaczął się upowszechniać mniej więcej dekadę temu. Wtedy umacniały się fundamenty Google. Ta firma udowodniła, że pozyskiwanie informacji z rozproszonych zbiorów danych może być intratnym biznesem. Co więcej, okazało się, że analizowanie odpowiednio dużych zbiorów danych umożliwia odkrywanie do tej pory ukrytych zależności oraz przewidywanie przyszłości. I tak np. okazało się, że przetwarzane przez wyszukiwarkę internetową zapytania o symptomy choroby mogą skutecznie przewidywać falę zachorowań na grypę. Nałożenie tych zapytań na mapę pozwala z dużym prawdopodobieństwem przewidzieć czas i miejsce wystąpienia ognisk epidemii – a to już bardzo wartościowa informacja.

To właśnie esencja Big Data. Na przestrzeni ostatniej dekady okazało się, że ten termin to nie tylko marketingowy wehikuł stworzony przez analityków biznesowych, którzy lubią tworzyć nowe określenia szufladkujące trendy.

Dziś Big Data to nowy paradygmat patrzenia na biznes i jego otoczenie, niezbędne narzędzie przy planowaniu nowych produktów lub wprowadzaniu krytycznych zmian. To nic innego jak biznesowy insight. Można – i należy! – w tym momencie zapytać: przecież biznes jest analizowany, mierzony i badany niemal od zawsze. Racja. Jeszcze w czasach przed Big Data otaczały nas tabelki, raporty, a wszystko, co dało się w organizacjach zmierzyć, było mierzone. Zliczano sprzedaż, przychody, wyniki uzyskiwane przez jednostki biznesowe itd. To jednak jest business intelligence, analityka biznesowa, która nie ma nic wspólnego z Big Data. Business intelligence nie potrafi odkryć korelacji pomiędzy danymi i wygenerować w ten sposób insightu. Dostarcza nam prostej informacji, np. o tym, że sprzedaż piwa w I kwartale 2018 r. na terenie np. Poznania wyniosła X.

Big Data i Data Science dostarcza nam odpowiedzi na pytania, jak będzie wyglądała sprzedaż w przyszłym kwartale, uwzględniając aktualne trendy społecznościowe, zbliżające się mistrzostwa świata i długoterminową prognozę pogody. Zaawansowana analiza pozwoli odpowiedzieć na pytanie, czy to dobry moment na wprowadzenie nowej marki lub pomoże odpowiednio dobrać przekaz marketingowy, by współgrał z aktualnymi nastrojami w sieciach społecznościowych.

Ta wiedza nie jest ciekawostką pozyskaną z biznesowej szklanej kuli, ale podstawą do podjęcia czysto biznesowych decyzji dotyczących np. zatowarowania, łańcucha dostaw czy logistyki związanej ze sprostaniem wzrostowi popytu na towar. Tradycyjne business intelligence, które patrzy w przeszłość, nie jest w stanie dostarczyć nam takich informacji.

Porównanie baz danych może być kopalnią złota

Kluczową kwestią dla działania systemów Big Data są dane wejściowe. Bez odpowiednich danych zasilających Big Data nie sposób uzyskać jakościowych danych wyjściowych. Zamiast wartościowego business insight uzyskamy informacyjny szum. W tym momencie należy zadać sobie pytanie – skąd wziąć dane wyjściowe, gdzie one się znajdują? Odpowiedź na to pytanie jest złożona.

Po pierwsze, wartościowe dla działalności operacyjnej dane bywają „zaszyte” nawet w organizacjach, które – pozornie – nie dysponują znaczącymi zbiorami danych.

Posłużmy się realnym przykładem z dużego amerykańskiego miasta, w którym znajdowały się trzy szpitale borykające się z problemem wzrastających kosztów. Analiza zgłoszeń od pacjentów, informacji od policji na temat przestępczości i wypadków oraz uwzględnienie lokalizacji pozwoliła odkryć pewną prawidłowość. Po zestawieniu danych z kosztami szpitali odkryto, że 80% kosztów generowane jest przez 13% mieszkańców. Sama informacja wydaje się oczywista: w końcu zasada Pareta działa prawie wszędzie – to, co było wyjątkowe, to dokładne zlokalizowanie obszarów, w których jest największe zagęszczenie takich osób.

Uzyskanie tej informacji pozwoliło lepiej zorganizować służby ratunkowe, wprowadzić dodatkowe proaktywne działania. A to przyczyniło się do znacznej redukcji kosztów opieki medycznej w całym mieście. Innym nieoczywistym przykładem jest wykorzystanie aplikacji dostarczonej przez amerykańskie miasto Camden w stanie New Jersey w celu poprawy jakości dróg. Użytkownicy uruchamiający na swoich telefonach aplikację zezwalali na rejestrowania położenia i przekazywanie go do instytucji dbających o stan dróg miejskich. Co ciekawe i wyjątkowe w tym przykładzie, to moment, w którym wysyłana była lokalizacja. Aplikacja wykorzystywała czujnik przyspieszeń wbudowany praktycznie we wszystkie współczesne telefony i wysyłała położenie tylko wtedy, gdy telefon zarejestrował gwałtowne drgania, czyli samochód wpadł w dziurę lub wjechał na znaczną nierówność. Reszta to czysta statystyka i obróbka danych – miasto dostało stale aktualizującą się mapę miejsc z uszkodzoną nawierzchnią.

Na scenę wkracza data scientist

Po drugie: analiza procesów biznesowych. Powyższy przykład opisuje „analizę”, w toku której dane o zgłoszeniach nałożono na mapę miasta. Ten proces nie jest jednak oczywisty – na jakimś etapie ktoś musi wpaść na pomysł, by porównać jedne dane z drugimi. W tym momencie na scenę wkracza data scientist, czyli ekspert od analizy danych, którego podstawową kompetencją jest przekładanie wymagań lub problemów biznesowych na problemy analityczne, które można rozwiązać na podstawie posiadanych danych.

Data scientist to konsultant, często osoba wynajęta do konkretnego projektu, który podpowiada takie połączenia zbiorów danych w organizacji, które „włożone” do systemu Big Data wygenerują wartość biznesową. Oczywiście, data scientist sam w sobie nie jest źródłem rozwiązań. W przypadku szpitala to on podpowiedział, by dane o zgłoszeniach porównać z mapą miasta i spróbować zlokalizować „najgorętsze” obszary.

Po trzecie, Big Data, jak sama nazwa wskazuje, to duże zbiory danych. Dla odkrywania zależności trendów potrzebne są odpowiednio bogate zbiory danych. Np. lista transakcji wykonanych w sklepie w ciągu ostatniego kwartału może nie być wystarczająca do wnioskowania. Ale już ta sama lista transakcji z ostatnich dwóch lat wzbogacona o szczegóły zakupu, kod pocztowy, wydaną kwotę, datę i godzinę zakupu z uwzględnieniem dnia tygodnia, zapewne przyniesie zadowalające rezultaty analizy. Informacje o tym, co kupują mieszkańcy określonej dzielnicy miasta i ile wydają na zakupy w jakie dni, są ważną daną wspomagającą podejmowanie decyzji o np. lokalizacji nowego sklepu, planowanych dostawach lub pomagają kierować promocje towarów do konkretnych grup odbiorców.

• optymalizacja procesów lub zwiększenie efektywności (przykład szpitala),
• identyfikacja ryzyka (wykrywanie nadużyć, analiza trendów, opinii o produkcie i szybkie reagowanie na incydenty w mediach społecznościowych),
• odkrywanie nowych okazji biznesowych (planowanie promocji, wprowadzanie nowych produktów, wyszukiwanie kluczowych klientów).

Nie oznacza to jednak, że Big Data zarezerwowana jest wyłącznie dla dużych organizacji, korporacji czyli klientów z sektora enterprise. Skorzystanie z usług data scientist jest dostępne dla każdego, a bariera wejścia – zerowa. Nawiązanie relacji może – a nawet powinno – rozpocząć się od kontaktu z podsumowaniem sytuacji wyjściowej i określeniem oczekiwanych rezultatów w stylu „Mam kilka zbiorów danych o firmie, sprzedaż, bazy klientów itd. Chciałbym zoptymalizować działania lub wprowadzić nowe usługi, ale nie wiem, jak je połączyć i przeanalizować, proszę o pomoc”. Po prostu – aby skorzystać z Big Data, nie trzeba się na Big Data znać.

Nie zawsze musimy wiedzieć, czego szukamy i nie zawsze znajdujemy to, czego szukaliśmy

Mechanizmów oraz metod analizy jest wiele, a każdego dnia powstają kolejne. Nowy i bardzo szybko rozwijający się trend w analizie danych to nauczanie maszynowe (machine learning) i sztuczna inteligencja (AI/deep learning). W dużym uproszczeniu polega to na tym, że pozwalamy maszynie uczyć się na naszych danych, wyciągać samodzielnie wnioski i budować „inteligencję”, która po nauczeniu może wspierać określone procesy biznesowe, np. analizować nastroje i intencje użytkowników komentujących na naszych stronach internetowych, przewidywać ceny mieszkań na podstawie danych z wcześniejszych transakcji lub sugerować dodatkowe produkty, które możemy zaoferować w promocji. Możliwości zastosowań tego typu mechanizmów jest praktycznie nieskończenie wiele, wszystkie jednak opierają się na Big Data, czyli naszych danych.

Kompetentny partner to podstawa

Big Data nie jest wirtualnym konceptem i ma namacalny aspekt fizyczny. Wymaga gromadzenia dużych ilości danych i robienia tego na zapas, bo nie wiadomo, które z nich mogą okazać się użyteczne. W przypadku dużych zbiorów danych potrzebna jest odpowiednio wydajna infrastruktura IT, w której dane będą łatwo dostępne, a cały proces efektywny.

Dlatego w procesie przygotowania do „skoku” w Big Data z pomocą przychodzą partnerzy IT, którzy potrafią podejść do procesu holistycznie. Całościowe spojrzenie na potrzeby klienta jest konieczne, by zaproponować rozwiązania adekwatne do zastanej sytuacji. Nie jest bowiem wcale powiedziane, że organizacja, która decyduje się na Big Data, powinna taki system kupić czy utrzymywać u siebie w modelu on premise. Kompetentny i elastyczny partner, taki jak Dell EMC, potrafi zidentyfikować potrzebę klienta, pomóc w analizie danych i zaproponować rozwiązanie, które przyniesie adekwatny zwrot z inwestycji. Istotne jest, by partner IT posiadał odpowiednio szerokie portfolio zróżnicowanych usług i rozwiązań obejmujących rozwiązania elastyczne, skalowalne czy zbudowane w oparciu o chmurę (tzw. Big Data on demand), o architekturę hiperkonwergentną (którą przybliżymy w kolejnych artykułach). Tylko wtedy myślenie partnera i jego rekomendacje nie będą ograniczone przez usługi czy produkty, które chce on sprzedać.

Wartość Big Data zawiera się w czterech kluczowych komponentach: w kompetentnych ludziach, algorytmach będących podstawą analizy, w jakościowych pomysłach na przetwarzanie oraz, last but not least, decyzjach biznesowych podejmowanych na podstawie dostępnych danych.

Przewodnik Dell EMC po transformacji cyfrowej biznesu

W tym cyklu artykułów eksperci Dell EMC wyjaśniają, czym jest transformacja cyfrowa biznesu. Przewodnik Dell EMC w przystępny sposób wyjaśnia, jak przełożyć wyzwania transformacji na konkretne decyzje biznesowe. Artykuły w ramach cyklu o transformacji cyfrowej ukazują się także na łamach „Harvard Business Review Polska”.

About the Author: Dell Technologies