• Nie Znaleziono Wyników

Analizy danych – wartość Big Data

Miary wartości gospodarki cyfrowej

5.2. Analizy danych – wartość Big Data

Podstawowymi cechami świadczącymi o tym, że mamy do czynienia z Big Data, jest wolumen, zróżnicowanie i szybkość przyrostu danych. Natomiast granicę, od której możemy mówić o Big Data, dla poszczególnych cech wyznacza indywidualna zdolność do pozyskania z nich adekwatnej informacji biznesowej.

Wartość to:

• terabajty nieustrukturyzowanych danych pochodzących z Internetu, na przykład serwisów społecznościach, forów internetowych.

• terabajty danych generowanych maszynowo, jak informacje zbierane podczas nawigacji użytkownika w bankowych serwisach internetowych,

• dane geolokalizacyjne generowane przez urządzenia mobilne czy dane paragonowe pochodzące z systemów POS.

• dane socjo-demograficzne.

W ostatnim przypadku wyznacznikiem Big Data nie będzie wolumen danych ani ich struktura i dynamika przyrostu, a możliwości przetwarzania i szybkość podejmowanych decyzji biznesowych w oparciu o ich analizę.

Kompleksowy proces analityczny prowadzący do pozyskania z Big Data konkretnej informacji biznesowej. Dane są surowcem, który może usprawnić proces biznesowy.

Dzieje się tak dzięki stosowaniu różnych technik analizy danych w różnych momentach procesu ich przygotowania.

Prace analityczne nad danymi zaczynają się od standardowych raportów odpowiadających na pytanie: „co się stało?”.

120 Etapy analizy – eksploracji danych – data mining:

1. Tworzenie statystyk, podsumowania i agregaty dotyczące poszczególnych wymiarów i miar. Wykorzystywane są wykresy pozwalające na graficzną prezentację danych i odkrywanie w nich pewnych wzorców;

2. Analiza danych z wykorzystaniem statystyk opisowych oraz mniej zaawanasowanych analiz statystycznych (np. analiza wariancji, regresja liniowa, drzewa decyzyjne). Umożliwia to odkrycie pewnych zależności i udzielenie odpowiedzi na pytanie: „dlaczego tak się stało?”

3. Pozyskania informacji i wiedzy biznesowej z danych - modelowanie prognostyczne i predykcyjne. Zastosowanie technik modelowania szeregów czasowych, regresji, sieci neuronowych, klasteryzacji, analizy przeżycia pomaga określić zarówno w ujęciu czasowym (ciągłym) jak i pojedynczego zjawiska (dyskretnym) czego możemy się spodziewać w przyszłości. Pozwala to również przewidzieć z dużym prawdopodobieństwem dokładny końcowy efekt, czyli fakt zaistnienia badanego zjawiska;

4. Integracja ze środowiskiem decyzyjnym firmy - sposób działania w celu uniknięcia potencjalnych negatywnych skutków jakiegoś zjawiska np.:

uniknięcie utraty udziału rynkowego w obszarze pewnego segmentu/podsegmentu klientów lub wykorzystanie nadarzającej się okazji, która wiąże się z dużą skutecznością pewnych działań promocyjnych, wzrostem sprzedaży w na mikro rynku.

Możliwości wykorzystania następujących narzędzi:

• Geo Data Mart (przetwarzanie w czasie rzeczywistym, Data mining, analiza geoprzestrzenna, programowanie oparte o dane strumieniowe),

• Data Collector (pobieranie danych z ogólnodostępnych zasobów Internetu to znaczy ze stron instytucji oraz organizacji, Google Maps itp., codzienna aktualizacja bieżącymi informacjami o obiektach takich jak: markety, dyskonty, stacje benzynowe, sklepy przemysłowe i odzieżowe, galerie).

W modelowaniu danych wykorzystuje się (np. przypadku zarządzania cyklem życia klienta: x-sell, up-sell, churn, zwiększenie lojalności, kalkulacja wartości klienta w cyklu życia (CLV)) następujące metody:

121

• Maszynowe uczenie,

• Analiza geoprzestrzenna,

• A/B testing,

• Klastrowanie,

• Real Time processing,

• Wyodrębnianie tekstu, text mining,

• Modele grafowe.

Obecnie firmy software’owa przygotowuje narzędzia, które pozwalają podłączyć się do źródła danych, zaprezentować je, poprzez ich wizualizację, przeanalizować w interaktywny sposób i udostępnić innym pracownikom. Tak jest w przypadku produktów tworzonych m.in. przez Tableau (Tableau Desktop), QlikView (QlikSense Desktop) i Microsoft (Power BI Designer).

W celu wizualizacji analizy wykorzystywane są:

• infografiki,

• dashboardy,

• mapy.

Infografiki, które w ostatnim czasie stały się szczególnie popularne jednak są one stałe w czasie, a zatem ograniczone są możliwości wykorzystania ich w interaktywnej analizie danych. Autorzy skupiają się na aspektach estetycznych, a nie na danych i wnioskach, które z nich płyną.

Dashboardy łączą wiele aspektów danych na jednym ekranie i najczęściej pozwalają odbiorcy na interakcję. Są przeznaczone dla grona przeszkolonych odbiorców.

Mapy są idealne do przedstawiania danych zróżnicowanych geograficznie, a ich popularność stale rośnie dzięki coraz większej ilości map i danych dostępnych publicznie.

Dostawcy narzędzi business intelligence, jak IBM, Cognos czy SAS, w dalszym ciągu są dużymi graczami na dynamicznie rozwijającym się rynku odkrywania danych, wizualizacji i umiejętności wyciągania właściwych wniosków, lecz ich udział w tym rynku maleje. Obecnie firmy nie muszą wydawać ogromnych kwot, by poradzić sobie z wizualizacją danych, bowiem narzędzia temu dedykowane stają się nie tylko coraz powszechniej dostępne, lecz także proste w użytkowaniu, co jest szczególnie ważne dla użytkowników spoza branży IT. Jako przykład mogą posłużyć Vizify, D3.js, Visual.ly, GNU R i wiele innych.

122

Problem Big Data jest nierozerwalnie związany z wizualizacją danych, która obok coraz to lepszych narzędzi hardware’owych i software’owych stanowi jeden z filarów jej analityki.

Podążając za wymaganiami klientów, dostawcy programów zmienili paradygmat, uznając, że centralną postacią w kwestii przetwarzania danych i ich obróbki powinien być każdy zwykły użytkownik, a nie tylko wyspecjalizowane zespoły działów IT.

Każda szanująca się firma software’owa zaczęła więc przygotowywać narzędzia, które pozwolą podłączyć się do źródła danych, zaprezentować je poprzez ich wizualizację, przeanalizować w interaktywny sposób i udostępnić innym pracownikom. Te 4 filary łączą produkty tworzone m.in. przez Tableau (Tableau Desktop), QlikView (QlikSense Desktop) i Microsoft (Power BI Designer).

Przyszłość analityki biznesowej nierozłącznie wiąże się z wizualizacją danych i dashboardami, a umiejętność analizy danych, z pomocą jednego z tych programów, będzie kluczem do rozwoju własnego i organizacji.

(https://skuteczneraporty.pl/blog/big-data)

Dwie firmy - eBay i Allegromm - o międzynarodowym zasięgu, przetwarzające olbrzymią ilość danych transakcyjnych i webowych sięgnęły po Tableau, aby oddać inicjatywę swoim analitykom i pozwolić im zobaczyć dane.