Z analityki Big Data korzysta się nie tylko w marketingu i analizie zachować konsumentów w sieci. Używana ona jest również w przemyśle, gdzie pomaga optymalizować łańcuchy logistyczne, wykrywać anomalie w pracy maszyn czy zwiększać efektywność produkcji. Banki i firmy ubezpieczeniowe wykorzystują Big Data m.in. do wykrywania nadużyć oraz analizy profilu klientów. Rozwiązań opartych o analitykę wielkich zbiorów danych jest coraz więcej, a globalny rynek analityki biznesowej i Big Data może wzrosnąć do 2020 roku do poziomu 210 miliardów dolarów – oceniają w swoim raporcie analitycy firmy IDC.

Przedstawiciele IDC od lat wieszczą nadejście cyfrowej gospodarki. Jej znakiem charakterystycznym ma być przetwarzanie ogromnych wolumenów nieustrukturyzowanych danych przez firmy, instytucje państwowe czy organizacje pozarządowe. Globalny rynek Big Data i analityki biznesowej rośnie dziś w tempie 11,9% rdr i już w tym roku osiągnie wartość 150,8 miliardów dolarów – prognozują analitycy z międzynarodowej firmy doradczej. To o 12,4% proc. więcej niż w roku ubiegłym.

Do takiego wyniku przyczyniły się przede wszystkim inwestycje z sektorów bankowego i produkcji przemysłowej. Jeśli prognozy się sprawdzą, to już w 2020 roku omawiany rynek będzie warty 210 miliardów dolarów. „Rozwiązania z kategorii analityka biznesowa i Big Data w końcu znalazły się w głównym nurcie – powiedział Dan Vesset z IDC, firmy której przedstawiciele wielokrotnie informowali, że to właśnie zdolność czerpania korzyści biznesowych z danych ma świadczyć o cyfrowej dojrzałości przedsiębiorstw.

Ile danych jest generowanych i ile przetwarza?

Duże, nieustrukturyzowane zbiory różnorodnych danych, których przetwarzanie nie byłoby możliwe bez zaawansowanych rozwiązań informatycznych, to wciąż ziemia niezdobyta. Eksperci szacują, że z obecną technologią badacze danych są w stanie wykorzystać zaledwie 20% wolumenu Big Data.

Tymczasem liczba informacji w sieci rośnie dynamicznie. Zdaniem IDC w 2025 roku Internet będzie zawierał ponad 160 zettabajtów danych. Ta mało znana jednostka odpowiada tryliardowi (10^21) bajtów i korzysta się z niej do globalnego pomiaru liczby cyfrowych informacji. Dla porównania – Google w swoich nowoczesnych centrach danych gromadzi pliki o łącznym rozmiarze około 15 eksabajtów (0,015 ZB). Warto dodać, że w 2015 roku przekroczony został próg 1 ZB, jeżeli chodzi o ruch w sieci.

Szybko rosnącą wielkość Internet w dużej mierze zawdzięcza typowym użytkownikom, których aktywność podsumowuje opublikowany przez firmę Domo raport „Data Never Sleeps 5.0”. Wynika z niego, że w ciągu minuty internauci publikują ponad 46 tys. zdjęć na Instagramie, korzystają z wyszukiwarki Google ponad 3,5 mln razy i umieszczają ponad 74 tys. postów w mikroblogowym serwisie Tumber. Według Domo światowa populacja internautów wzrosła w 2017 roku o 17% i liczy już ponad 3,7 miliarda ludzi.

Przedstawiciele dużych firm są zadowoleni

Stabilny wzrost rynku Big Data jest pochodną udanych implementacji zaawansowanych rozwiązań analitycznych. O ich skuteczności świadczy chociażby przeprowadzone przez NewVantage Partners badanie „Big Data Executive Survey for 2017”, w którym wzięło udział kilkadziesiąt największych firm w USA.

Ponad 80% respondentów wyraziło zadowolenie ze zrealizowanych inicjatyw Big Data twierdząc, że okazały się sukcesem. Uczestnicząca w badaniu kadra kierownicza zwróciła uwagę na trudności we wprowadzaniu zmian w organizacji i kulturze przedsiębiorstwa, koniecznych do pełnego korzystania z możliwości, jakie daje firmom zaawansowana analityka wielkich zbiorów danych. Ich zdaniem problem nie tkwi w samej technologii, lecz w nierozumiejącym jej zarządzie, spójności organizacyjnej i ogólnym, wewnętrznym oporze.

„W zasadzie cała cyfrowa transformacja opiera się o dane. Jeśli firma nie potrafi przetwarzać ich na korzyści to wciąż funkcjonuje jak w poprzedniej epoce. Brak strategii digitalizacji procesów wewnętrznych i implementacji rozwiązań analitycznych to spore zaniedbanie. Na szczęście coraz więcej producentów jest tego świadoma i sięga po stosowne oprogramowanie” – uważa Piotr Rojek z firmy DSR.

W podobnym duchu wypowiada się prezes zarządu Cloud Technologies. Jego zdaniem prawdziwy potencjał analityki objawia się dopiero, gdy w grę wchodzą wielkie, nieustrukturyzowane zbiory danych, z których człowiek nie jest w stanie wyciągnąć znaczących wniosków bez pomocy nowych technologii. Mowa tu o platformach DMP (Data Management Platform), które wykorzystuje się m.in. do wyszukiwania powiązań w wolumenach Big Data. Największym obszarem zastosowania takich systemów jest reklama internetowa.

Gdy wystartowaliśmy w 2011 r. świadomość Big Data była znikoma. Dziś sytuacja wygląda dużo lepiej, firmy wdrażają zaawansowane narzędzia analityczne i coraz częściej sięgają po dane o internautach, jednak wciąż istnieje gros przedsiębiorstw, których podejście do tematu równoznaczne jest z ignorancją. Większość polskich firm wciąż nie zdaje sobie sprawy, że ich przetrwanie w dużej mierze zależy od tego, czy wypracują zdolność monetyzowania cyfrowych informacji. Wymaga się od nich nie tylko właściwego gromadzenia i przetwarzania wewnętrznych danych, lecz również sprawnego korzystania z tych zewnętrznych – Piotr Prajsnar, prezes zarządu Cloud Technologies