Big data to potężne źródło wiedzy
Według badań Forrester Research organizacje analizują jedynie 12% wszystkich gromadzonych danych. Tymczasem firmowe serwery pęcznieją z roku na rok coraz szybciej, wydatnie zwiększając koszty utrzymania.W stwierdzeniu, że „nie można zarządzać czymś, czego nie da się...
W stwierdzeniu, że „nie można zarządzać czymś, czego nie da się zmierzyć”, które przypisywane jest zarówno W. Edwardowi Lemingowi, jak i Peterowi Druckerowi, jest wiele mądrości. To stwierdzenie pozwala zrozumieć, dlaczego gwałtownie rosnąca dzisiaj ilość danych jest tak ważna. To właśnie dzięki wielkim zbiorom danych (big data) menedżerowie mogą zmierzyć i wziąć pod uwagę zdecydowanie więcej elementów działalności firm czy też instytucji, a następnie przełożyć tę wiedzę na lepsze decyzje i wyniki.
Wielkie zbiory danych
Idea wielkich zbiorów danych (big data) ma o wiele większy ciężar gatunkowy niż rozumiana i stosowana wcześniej analityka. Menedżerowie mierzą różne zjawiska po to, aby nimi precyzyjniej zarządzać, przygotowywać lepsze prognozy, a tym samym podejmować obarczone mniejszym ryzykiem decyzje, ponieważ są one dokonywane na podstawie dowodów, a nie na podstawie intuicji. Z tego powodu zbiory te mają ogromny potencjał, by zrewolucjonizować sferę zarządzania. Moc, jaką można przypisać wielkim zbiorom danych, nie eliminuje oczywiście potrzeby posiadania wizji lub kierowania się intuicją. W obecnej dobie menedżerowie poszukują metod pracy z wielkimi zbiorami danych i w związku z tym potrzebują nowych umiejętności i zasobów. Potrzebują oni zarówno umiejętności dotyczących pozyskiwania informacji, jak i budowy modeli analitycznych i nowej kultury organizacyjnej w celu podejmowania decyzji, głównie w celu wykorzystania nowych szans biznesowych w zmieniającym się szybko otoczeniu, co wymaga od firm dostosowań strukturalnych. Wielkie zbiory danych i zaawansowane narzędzia analityczne stają się właśnie teraz jednym w większych priorytetów wielu organizacji. Menedżerowie z podziwem patrzą, jak Google, Amazon i inne globalne przedsiębiorstwa przyćmiewają konkurentów dzięki stosowaniu nowych, potężnych modeli biznesowych opartych na zdolności wykorzystywania danych. Dostrzegają również, że wielkie zbiory danych przyciągają decydujące o rozwoju inwestycje oraz innowacje liderów technologii, takich jak IBM czy Hewlett Packard.
Korzyści z wielkich zbiorów danych
Po pierwsze, firmy czy też instytucje powinny w odpowiedni sposób umieć typować liczne źródła danych, łączyć je i zarządzać nimi. Po drugie, równie ważna jest zdolność budowania zaawansowanych modeli analitycznych do przewidywania wyników i ich optymalizowania, jak również – co wydaje się być najważniejsze – kadra zarządzająca musi mieć siłę potrzebną do przeprowadzenia transformacji struktur organizacyjnych, aby dane i modele rzeczywiście były praktycznie użyteczne w procesie podejmowania decyzji. W związku z tym podstawową rolę powinna odgrywać umiejętność określania celów, konkretna strategia wykorzystywania danych i analityki do prowadzenia walki konkurencyjnej oraz sposób wykorzystywania odpowiedniej architektury i zdolności technologicznych, które przy zintegrowanym podejściu muszą być sprzężone z pożądanym efektem biznesowym. Możliwości wykorzystania wielkich zbiorów danych jest wiele – od usprawnienia kampanii marketingowych, poprzez optymalizację procesów, zarządzanie należnościami, aż po ulepszanie modeli analitycznych czy analizę obszarów ryzyka w procesie podejmowania decyzji.
Na świecie powstaje codziennie 2,5 eksabajtów danych, a liczba ta podwaja się mniej więcej co 40 miesięcy. W każdej sekundzie w Internecie przepływa więcej danych, niż 20 lat temu zgromadzono w zasobach sieci. Zmieniły się także sposoby tworzenia modeli, ponieważ gwałtownie rośnie ilość informacji, i to głównie z nowych, całkiem różnych źródeł, jak media społecznościowe i czujniki maszynowe. Proces wyciągania wniosków dzięki kojarzeniu danych może odbywać się coraz szybciej, ponieważ przybywa coraz potężniejszych i coraz tańszych programów komputerowych, które udostępniają informacje niemal wszędzie i o każdej porze. Wgląd w to, co wcześniej było niewidoczne, poprawia działalność operacyjną, wzbogaca i uatrakcyjnia doświadczenia klientów oraz doskonali strategię.
W każdej sekundzie w Internecie przepływa więcej danych, niż 20 lat temu zgromadzono w zasobach sieci
Dzięki technologiom, które pozwalają zadawać pytania i uzyskiwać odpowiedzi z różnych źródeł, sprzedawcy, marketerzy czy decydenci uzyskują zupełnie nowe, szerokie możliwości zwiększania przewagi konkurencyjnej swojej firmy, zarówno poprzez analizowanie zdarzeń przeszłych, jak i przewidywanie tych przyszłych. Na przykład ocenia się, że sieć Walmart gromadzi każdej godziny ponad 2,5 petabajta danych dotyczących transakcji konsumenckich. Petabajt to trylion bajtów, to inaczej około 20 milionów szafek wypełnionych dokumentami. Eksabajt to jednostka tysiąc razy większa, oznaczająca miliard gigabajtów.
Robienie użytku z objętości i różnorodności wielkich zbiorów danych, a także szybkości ich pozyskiwania i aktualizowania nie sprawia dzisiaj trudności, ponieważ ceny dostępnych narzędzi i technologii nie przekraczają możliwości finansowych firm, a wykorzystywany w nich software to przeważnie oprogramowanie o otwartym kodzie źródłowym. Najpopularniejsze rozwiązanie Hadoop składa się z standardowego sprzętu komputerowego z oprogramowaniem typu open-source, które umożliwia rozdział napływających strumieni danych na tanie dyski; zapewnia również narzędzia do analizy danych. Same narzędzia to nie wszystko – są one podstawową częścią strategii wykorzystania wielkich zbiorów danych, które połączone z ciężką pracą działów IT mogą przynieść dopiero oczekiwane efekty biznesowe.
Według badań prowadzonych przez Andrew McAfee`ego i Erika Brynjolfssona z MIT, wskaźniki wydajności firm, które wprowadzają do swojej działalności operacyjnej wielkie zbiory danych i odpowiednią analitykę, są o 5% do 6% wyższe niż u porównywalnych firm.