Czy zysk w łańcuchach dostaw może zależeć od koloru chmur?

Czy zysk w łańcuchach dostaw może zależeć od koloru chmur?

Przebiegli konsumenci, zaradni sprzedawcy, nieugięci logistycy i bezmyślne technologie.
 
W tytule tego artykułu umieściłem chmury. Nie będzie to jednak opowiadanie o Cloud Computing. Chmury posłużą mi jedynie jako metafora. Metafora trudnych do przewidzenia zjawisk oraz...

Przebiegli konsumenci, zaradni sprzedawcy, nieugięci logistycy i bezmyślne technologie.

 

W tytule tego artykułu umieściłem chmury. Nie będzie to jednak opowiadanie o Cloud Computing. Chmury posłużą mi jedynie jako metafora. Metafora trudnych do przewidzenia zjawisk oraz zmian o olbrzymiej dynamice. To kilka przemyśleń o tym, czym dla nas dzisiaj w ujęciu społecznym i biznesowym są informacje, które pojawiają się niczym chmury i niczym chmury zmieniają swoje znaczenie oraz formę. W artykule chciałbym zwrócić uwagę czytelnika na to, jak niezwykle istotne stały się dzisiaj analizy o charakterze big data. Fascynujące mnie metafory chmur niech pozostaną przez cały czas czytania w wyobraźni czytelnika.

Pewne rzeczy dzieją się coraz szybciej

Amerykańskie Bureau of Labor Statistics, zajmujące się badaniami wskaźników wzrostu cen towarów i usług konsumpcyjnych, działa w 90 miastach USA i zatrudnia setki pracowników. Gromadząc informacje o cenach dla około 80.000 produktów i usług, wykonuje olbrzymią pracę, odwiedzając liczne firmy i wykonując niezliczoną ilość telefonów. Roczny koszt funkcjonowania tej jednostki to około dwieście pięćdziesiąt milionów dolarów. Nie budziłoby to zapewne większego zdziwienia, gdyby nie fakt, że w związku z tempem naszego życia, opracowane przez biuro dane są przestarzałe o kilka tygodni w dniu ich publikacji. Między innymi z tego powodu, Alberto Cavallo & Roberto Rigobon postanowili podejść do analizy wskaźników cen w znacznie odmienny sposób. Pod skrzydłami MIT rozpoczęli projekt o nazwie The Billion Prices Project, wykorzystując do swoich analiz mniej uporządkowane dane. Korzystając z oprogramowania przeczesującego internet, analizowali ceny około pół miliona towarów w USA. Początki opracowywania tak chaotycznie pozyskiwanych i trudnych do porównania danych były mało obiecujące. Jednak z czasem podejście w duchu big data przyniosło zaskakujące efekty. We wrześniu 2008 roku, udało im się odnotować odchylenie deflacyjne zaraz po upadku Lehman Brothers. Osoby korzystające jedynie z oficjalnych wskaźników musiały czekać na tę informację do listopada. Z czasem projekt przybrał komercyjną formę firmy Pricestats, z której usług korzysta obecnie wiele organizacji, instytucji i jednostek rządowych na świecie.

Pewnych rzeczy niekiedy nie warto rozumieć

Zajmująca się eksploracją danych firma Kaggle, organizuje regularnie otwarte zawody w ekploracji danych. W 2012 roku przygotowano uczestnikom ogromną porcję zebranych od dealerów samochodowych danych, dotyczących wieloletniej sprzedaży używanych samochodów na aukcjach. Przekazując do analiz te niezbyt uporządkowane ale za to bardzo liczne dane, postawiono uczestnikom bardzo proste pytanie: które samochody były najmniej awaryjne? Ci, którzy w tej chwili przeszukują swoją własną wiedzę motoryzacyjną i oddali by zapewne życie aby w ramach odpowiedzi wymienić konkretną markę lub typ pojazdu, będą poprawną odpowiedzią konkursową bardzo zawiedzeni. Zbudowane przez uczestników konkursu algorytmy, znalazły istotną korelację, która wskazała, że najmniej awaryjne były samochody pomarańczowe. Proste korelacje w obrębie wielkich zbiorów danych zadziwiają nie tylko uzyskanymi odpowiedziami na zadane pytania, ale również czasem w jakim nowe rodzaje algorytmów do określonych wniosków dochodzą. Już w 2014 roku dzięki big data sieć Walmart odkryła, że przed zbliżającym się huraganem wzrasta liczba sprzedawanych słodkich ciastek śniadaniowych. MasterCardAdvisor znalazł korelację, która mówiła że jeżeli ludzie tankują benzynę około godziny 16-tej, to prawdopodobnie w ciągu kolejnej godziny wydadzą około 35 – 50 dolarów w sklepie spożywczym lub w restauracji. Firma Inrix na podstawie danych o natężeniu ruchu komunikacyjnego, obaliła zapewnienia polityków o powrocie do zdrowia gospodarki amerykańskiej. Czy na naszych oczach królową nauk staje się zwykła korelacja?

Koniec teorii

W 2008 roku Chris Anderson, w artykule „The End of Theory”, który ukazał się w Wired, doszedł do wniosku, że zalew danych sprawił, iż metody naukowe stały się przestarzałe. Już wówczas uznał że poza korelacją niczego więcej nam nie trzeba. W realnym świecie, tradycyjny proces odkryć naukowych polegający na stawianiu hipotez i testowaniu przyczynowo-skutkowym, zastępowany jest stopniowo analizą statystyczną korelacji. Analizy wielkich zbiorów danych, nie oznaczają póki co końca teorii. Zmieniają jednak znacząco sposób w jaki pojmujemy świat. Świat, który pędzi coraz szybciej i staje się coraz ciaśniejszy, wytwarza niewyobrażalne ilości danych, w których zapewne drzemią proste odpowiedzi, na wiele trudnych pytań. Analizy big data mogą się okazać w najbliższym czasie jednym z najlepszych narzędzi jakim dysponujemy. A danych raczej na pewno będzie przybywać, ponieważ wokół nas robi się coraz ciaśniej.

Poszukiwania oparte na korelacjach

Huffington Post opublikował dane, z których wynika, że w 2015 roku w dziesięciu największych aglomeracjach świata mieszka około 250 milionów ludzi. To więcej niż sześciokrotna liczba mieszkańców Polski. Co chyba nikogo już dzisiaj nie dziwi, na liście tych największych aglomeracji znajdują się głównie miasta azjatyckie. Ale to nie jedynie liczba ludności wpływa na lawinowo rosnącą ilość danych jakie gromadzimy. To również niezwykle dynamiczny wzrost tzw. klasy średniej, wzrost konsumpcjonizmu i liczby firm, wzrost liczby interakcji między ludźmi oraz wzrost interakcji między ludźmi a przedmiotami. OECD prognozuje że od 2010 do 2030 roku około czterokrotnie wrośnie liczba ludzi zaliczanych do klasy średniej w samej Azji. W 2010 roku do klasy średniej zaliczyć mogliśmy 172 miliony mieszkańców Chin, podczas gdy w 2015 roku jest to już 314 milionów. Jak wyliczył Economist Intelligence Unit, około 170 osób w każdej minucie dołącza obecnie do klasy średniej. Tak olbrzymie rzesze konsumentów generują kolejne nowe zapotrzebowanie konsumpcyjne oraz nowe niezliczone zbiory danych. Miasta, aglomeracje, kraje, kontynenty, nasze przyzwyczajenia, technologie, a także interakcje między ludźmi i firmami, zmieniają się niezwykle dynamicznie i przyjmują trudne do przewidzenia formy. Firmy zaczynają znajdywać korelacje pomiędzy obiektami (zjawiskami), których do tej pory w tradycyjnej analityce nie braliśmy pod uwagę. Poszukiwania oparte na korelacjach stają się podstawą big data.

Gospodarka stanów emergentnych

Jako cywilizacja stajemy się coraz bardziej skomplikowanym układem ogromnych ilości, trudnych do przewidzenia powiązań. Czy wyniki tych zależności, zaczną przybierać charakter zjawisk wyłaniających się (emergentnych)? Zjawisk, w których zachowanie całego układu nie wynika bezpośrednio z zachowań jednostek i jest od zachowań jednostek nieporównywalnie bardziej złożone i bardziej nieprzewidywalne? To liczba oddziaływań między elementami całego zbioru jest jednym z głównych powodów nieprzewidywalności zjawisk emergentnych. Znając dokładnie budowę i zasadę działania neuronów, nie potrafimy przecież przewidzieć wyniku ich współpracy w mózgu. Zjawiska emergentne możemy zaobserwować w wielu miejscach na naszej planecie. To na przykład ławice ryb, społeczności mrówek, roje owadów i ptaków czy tytułowe chmury, którymi posłużyłem się jako analogią zjawisk nieprzewidywalnych. Ci, którzy mieli szczęście zobaczyć kiedykolwiek liczące nawet milion osobników stada szpaków, wiedzą jak niewyobrażalne są to zjawiska. Osoby, którym się to nie udało, polecam poszperać na Youtube pod hasłem “starling murmuration”. Z bezładnie na pozór poruszających się setek tysięcy ptaków, wyłaniają się tylko na chwilę kompletnie nowe formy, tworząc na niebie niespotykane struktury przestrzenne. Czy to możliwe że z racji przeludnienia, wzrostu standardu życia, hiperkonkurencji, konieczności szybkiego działania, również nasze interakcje społeczno-ekonomiczne, zaczną z czasem przybierać stany emergentne? Czy gospodarka i ekonomia będą zmieniać swoje formy równie szybko, jak olbrzymie stada ptaków? Czy będą robić to również tylko „na chwilę”? Czy przewidywanie kierunków zmian gospodarczych i społecznych będzie praktycznie niemożliwe? Lub będzie możliwe ale tylko na przysłowiową sekundę przed zaistnieniem kolejnej szybkiej zmiany? Czy analizy on-line wielkich zbiorów danych, pozwolą lepiej (lub pozwolą w ogóle) tak krótkotrwałe i nagłe zmiany przewidywać?

Przebiegli konsumenci i zaradni sprzedawcy

W 2009 roku FlightCaster, który dwa lata później został sprzedany firmie Next Jump, rozpoczął przygodę w bardzo egzotycznej dyscyplinie. Otóż na bazie znalezionych w internecie informacji o terminach i godzinach odlotów, prognozach pogody i kilku innych parametrach, szacował potencjalne opóźnienie lotu, zanim właściciel biletu wsiadł do samolotu. Prognozy te okazywały się zaskakująco dużo lepsze niż informacje samego przewoźnika. Dzisiaj jedną ze znanych stron internetowych, która zajmuje się podobnymi prognozami jest Flyontime. Wynika więc z tego, że analizy ogromnych i nieuporządkowanych zbiorów danych, mogą stać się niezwykle przydatne dla zwykłych konsumentów. Ale czy aby na pewno era big data to wyłącznie era przebiegłych konsumentów, którzy cieszą się życiem w czasach, kiedy proste korelacje i „bezmyślna technologia” zaczynają ich chronić przed sprzedawcą? A może era big data to również era zaradnych sprzedawców (producentów, dostawców), którzy znaleźli nowe źródło przewagi nad konsumentem, dostrzegając potęgę wielkich zbiorów danych?

Kolejny poziom prędkości decyzyjnej

W 2011 roku Decide.com rozpoczął przewidywanie cen milionów produktów konsumenckich, bazując głównie na przeszukiwaniu internetu. W roku 2012 Decide analizował już około 4 milionów produktów, bazując na 25 miliardach pojedynczych informacji o cenach. Przy okazji udało się wykryć niezwykle cenną z punktu widzenia konsumentów korelację. Ustalili, że ceny starszych modeli danego produktu zaczynają rosnąć przez pewien czas, od momentu kiedy wprowadzany jest na rynek produkt nowy. Ich prognozy cen były na tyle trafne, że zapewniały kupującym średnie oszczędności na poziomie 100 dolarów na produkcie. Swoich prognoz byli na tyle pewni, że niezadowolonym klientom postanowili pokrywać różnice w cenie. Chwilę później Decide.com został przejęty przez Ebay, co jedynie dodatkowo potwierdza siłę ich oddziaływania na interakcje konsument – sprzedawca. A zatem Decide.com powodowało, że konsumenci mogli czuć się bardziej przebiegli ale i sprzedawcy musieli stawać się bardziej zaradni. Jednak co ważniejsze, podobnie jak wiele innych firm działających w obszarze big data, Decide przyspieszało decyzje i zachowanie konsumenckie. W praktyce wszyscy czerpiący korzyści z analiz typu big data, zaczęli przenosić zachowania rynku na kolejny, niewyobrażalny wcześniej poziom prędkości decyzyjnej. A może to już moment, kiedy powoli wkraczamy w świat, w którym maksymalna prędkość oraz adaptacja do tego co obowiązuje w danej chwili, bez głębszego zrozumienia będzie dla wszystkich uczestników rynku najlepszą strategią? Przyglądając się wielu świeżym trendom oraz kierunkom w innowacjach, znalazłem bardzo wiele dowodów na to, że wszyscy mamy dzisiaj naprawdę coraz mniej czasu i potrzebujemy silnego wsparcia „bezmyślną technologią”, aby o czas ten zacząć walczyć.

Dobry interfejs to brak interfejsu

Badania Google Mobile z października 2014 roku pokazują, że 55% młodzieży i 41% dorosłych używa wyszukiwania głosowego w telefonie częściej niż raz dziennie. Głosu używamy w różnym celu. Aby do kogoś zadzwonić, zapytać o kierunek, znaleźć piosenkę czy sprawdzić czas. Komunikacji głosowej z telefonem używamy w różnych okolicznościach, ale zarówno młodzież jak i dorośli najczęściej używają jej podczas oglądania telewizji. Twierdzą że używają wyszukiwania głosowego ponieważ jest bardziej wydajne, jest „cool” czy wreszcie dlatego że to przyszłość. Z radością powitaliby w swoim smartfonie możliwość zamówienia poleceniem głosowym pizzy albo znalezienia kluczy. W najogólniejszej z form, interakcja z urządzeniami zaczyna przybierać formę „braku interfejsu”. Oczywiście nie dosłownie, bo to prawie niemożliwe, ale obserwujemy trend zamiany dotychczasowych interfejsów na takie, które są bardziej naturalne, bardziej interakcyjne i intuicyjne. Wszystko po to, aby tracić jak najmniej czasu na rzeczy oczywiste. Interfejs, który trafia w oczekiwania dzisiejszych konsumentów, powinien pozwolić na obsługę urządzeń głosem, gestem, dotykiem lub nawet na interakcje z nimi w ramach tzw. rozszerzonej rzeczywistości.

Klient ma głos

Coraz częściej producenci aplikacji i urządzeń sięgają po interfejs wykorzystujący głos. Moto Hint firmy Motorola, pozwala na wybieranie głosem połączeń na smarfonie, pozwala zapytać telefon „jak dostać się do domu” i posiada dodatkowo zestaw słuchawek, które można dopasować stylem do ubioru lub gustu. Aplikacja Opal od OneTravel pozwala z kolei na głosową rezerwację podróży. Potrafi przy tym przeszukiwać informacje o ponad 450 liniach lotniczych, a w przypadku niejasności potrafi zadawać użytkownikowi dodatkowe pytania. Jednym z ciekawszych produktów, w których interfejs głosowy znalazł olbrzymie zastosowanie, jest moim zdaniem Amazon Echo. Ten niewielki cylinder, pozostający w ciągłym kontakcie z internetem, potrafi odpowiadać na zadawane pytania głosowe. Spektrum aplikacji z którymi współpracuje jest już naprawdę imponujące. Echo potrafi odtworzyć muzykę jakiej sobie życzymy, odpowiedzieć na zadane pytanie, czy wspomóc nas przepisem podczas gotowania.

Warto mieć gest

Równie zaawansowane staje się wykorzystywanie gestów do obsługi urządzeń i aplikacji. Od prostej kontroli przy pomocy pierścienia Ring Zero (Logbar) po bardziej zaawansowaną w Singlecue, które współpracuje już z urządzeniami jak TV, Xbox, DVD czy oświetleniem Phillips Hue. Na mnie szczególnie duże wrażenie wywarła dedykowana dla tabletów aplikacja Motionsavvy. Potrafi ona rozpoznawać gesty języka migowego i zamieniać je na głos. Motionsavvy pozwala również na personalizację ruchów użytkownika. To wspaniały interfejs pomiędzy osobami używającymi języka migowego a resztą społeczeństwa.

Poczuj emocje na odległość

Interfejs dotykowy to dzisiaj znacznie więcej niż dotykowy ekran. Mercedes-Benz w modelu hybrydowym C350e, stosuje tzw. Haptic Accelerator Pedal. Pedał przekazując drgania do stopy kierowcy, informuje go o tym, że wkrótce skończy się zasilanie z akumulatora i silnik przejdzie w tryb pracy na paliwie gazowym. W nowo rozumianym interfejsie dotykowym to urządzenia zaczynają „dotykać” użytkownika. Darmowa aplikacja mobilna Hug pozwala wysyłać różne rodzaje wibracji do innych użytkowników, którzy mogą w tym momencie „przytulić” swojego smartfona. Znacznie bardziej pomysłową technologią są płytki wibracyjne TACTspace. Te niewielkie, wielkości monety płytki, potrafią przekazywać zarówno określone wibracje ale również rytm serca czy temperaturę ciała i można je umieszczać na przykład w biżuterii.

Rzeczywistość rozszerzona

Coraz częściej zaczynamy również płynnie mieszać informacje cyfrowe ze światem fizycznym. Microsoft już coraz częściej informuje o swoim zestawie rozszerzonej rzeczywistości Holo Lens. Jeżeli producent ma rację, to dzięki Holo Lens będziemy mogli nanosić na nasze otoczenie projekcje 3D innych obiektów. RideOn rozszerza z kolei rzeczywistość dla fanów białego szaleństwa. Potrafi ich komunikować z innymi użytkownikami czy na przykład śledzić informacje o panujących na stoku warunkach. Dosyć szybką popularność zdobywa również niewielkie urządzenie Navdy, które wspomaga kierowcę podczas jazdy. Pozwalając mu na komunikację głosową i komunikację gestami, wyświetla na fragmencie przedniej szyby potrzebne informacje. Część z informacji kieruje oczywiście również na głośnik.

Bezmyślna technologia

Jak widać „bezmyślna technologia”, łącząc niezliczone obszary naszego życia, zaczyna z nich wyciągać „bezmyślne wnioski”, które często przeczą naszej intuicji, i które w pierwszej chwili wywołują uśmiech na naszej twarzy. W tym samym czasie, biegnąc coraz szybciej zgadzamy się na to, aby w zastraszającym tempie sięgać po kolejne bezmyślne technologie i zasilać kolejne wielkie zbiory danych. Podświadomie uciekając przed światem big data, równocześnie wzmacniamy jego istnienie. Według badań Gartner’a w 2015 roku na świecie będzie istnieć około 4,9 miliarda połączonych ze sobą „rzeczy”. Internet rzeczy zadomowił się już niemal w każdej dziedzinie. Po raz pierwszy o internecie rzeczy usłyszeliśmy około 15 lat temu. Chwilę później pojawił się internet rzeczy troskliwych (internet of carying thing). Dzisiaj w obrębie internetu rzeczy troskliwych mamy już internet of healthy things, of mindful things, of safety things, of security things oraz internet of family things. Praktycznie możemy już mówić o internecie wszystkiego. Ten połączony świat wszystkiego ze wszystkim, generuje coraz to nowe połączenia, zasilające kolejne wielkie zbiory danych, z których wyłonią się zapewne następne nowe korelacje, prowadzące do następnych nieprzewidywalnych powiązań. Firma Inrix już dzisiaj przetwarza w czasie rzeczywistym informacje o ponad 100 milionach pojazdów w Ameryce Północnej i Europie. Współpracuje z wiodącymi producentami samochodów oraz operatorami telefonów komórkowych. Uwzględniając historię danych o warunkach atmosferycznych oraz informacje o ruchu pojazdów, jest w stanie błyskawicznie przekazywać rezultaty swoich analiz do systemów nawigacyjnych. Choć nie zdajesz sobie z tego sprawy, być może twój samochód również współpracuje z Inrix.

Zaskakujące formy chwilowych okazji

Po połączeniu ze sobą rzeczy na pozór prostych i zrozumiałych w trudne do ogarnięcia sieci powiązań, dzięki zwykłej korelacji mogą zacząć wyłaniać się przed nami zupełnie nowe obrazy zachowań biznesowych. Obrazy często zaskakujące, które będziemy zmuszeni analizować błyskawicznie z racji ich olbrzymiej dynamiki. Niczym w niepoliczalnych stadach szpaków, ogromne ilości elementów biznesowej i społecznej układanki zaczną wyłaniać przed nami zaskakujące formy, które będziemy zmuszeni traktować jako chwilowe okazje. Okazje równie krótkotrwałe jak emergentne formy w stadach szpaków. Okazje równie nieprzewidywalne jak kształty powołanych do tytułowej roli w tym artykule chmur. Czy jako najbardziej “uprzywilejowany” na ziemi gatunek, mamy szansę zapanować nad nieprzewidywalnością wzajemnych interakcji w obliczu tak dynamicznego wzrostu liczebności? A może powinniśmy przestać wierzyć w swoją bezgraniczną nieomylność i tam gdzie to lepiej chroni nasz gatunek, zacząć polegać na wynikach prostych korelacji, z których skuteczności nie zawsze zdajemy sobie sprawę?

Stabilizacja zwiastunem zmian

Jakiś czas temu University of Ontario wspólnie z IBM stworzyli system gromadzenia i analizowania w duchu big data danych o noworodkach. Celem była próba jak najwcześniejszego wychwycenia pierwszych objawów infekcji. W projekcie gromadzono ponad 1.200 pojedynczych informacji na sekundę, pochodzących z kilkunastu różnych strumieni. Co niezwykle istotne, dane analizowane są głównie na bazie korelacji a nie przyczynowości. Po zgromadzeniu określonej ilości informacji, system jest w stanie wykryć subtelne zmiany u wcześniaków, mogące wskazywać początek infekcji, na 24 godziny przed pojawieniem się pierwszych objawów. Jednak najbardziej szokującym z mojego punktu widzenia jest fakt, że głównym sygnałem ostrzegawczym sugerującym pojawienie się infekcji, jest stabilność wszystkich mierzonych parametrów przez dłuższy czas. Czy z czasem proste analizy zaawansowanych zjawisk przy pomocy zwykłych korelacji będą w stanie ratować ludzkie życie lepiej niż doświadczeni lekarze? Czy w innych dziedzinach również człowiek zacznie okazywać się mniej przydatny niż olbrzymi zbiór chaotycznych danych poddany prostym korelacjom? Podobno wśród statystyków firmy Microsoft krąży związany z analizami big data smutny dowcip. Mówi on, że jakość przekładu tłumaczenia maszynowego rośnie z każdym, zwolnionym z firmy lingwistą. Dzisiaj nie potrafię jeszcze ocenić czy to dla człowieka trochę dobrze, czy trochę źle…

Big data w logistyce

Coraz trudniej przychodzi nam dzisiaj znaleźć dziedzinę życia, w której nie próbowano by przynajmniej wykorzystywać analiz big data. Treści jakie pojawiają się na stronach m.in. Huffington Post, Gawker, Forbes to wynik analizy wielkich zbiorów danych, a nie opinia żywych redaktorów. VISA przetwarzając dzisiaj dane klientów z dwóch lat (73 miliardy transakcji z kart kredytowych), robi to wystarczająco dobrze dzięki analizom big data w 13 minut, a nie jak wcześniej w ciągu miesiąca. Asthmapolis dostarczający inhalatory dla astmatyków łączy je z urządzeniami GPS oraz informacjami o bliskość upraw, sugerując astmatykom omijanie określonych miejsc. Miasto Seattle od dawna analizuje już na podstawie wielkich zbiorów zużycie energii elektrycznej, a miasto Lyon wpływa w ten sposób na redukcję korków drogowych. Logistyka to również jedno z naturalnych miejsc do wykorzystania analiz big data. Strategiczne planowanie sieci, planowanie zdolności operacyjnych, zarządzanie lojalnością klientów, ocena ryzyka czy zagadnienia inteligencji środowiskowej to przykładowe obszary zastosowań. Bardzo naturalnym wydaje się również optymalizacja w czasie rzeczywistym zagadnień „ostatniej mili” w dystrybucji. Firma DHL, która niecałe dwa lata temu przygotowała specjalny raport poświęcony big data w logistyce, zawarła w nim szereg bardzo cennych uwag. Raport ten polecam wszystkim logistykom. Jednak warto pamiętać, że w przypadku analiz big data, żaden logistyk nie może myśleć wyłącznie w kategoriach samej logistyki.

Uprzywilejowana strona

Czy big data czyni zatem którąkolwiek ze stron interakcji rynkowych bardziej uprzywilejowaną? Czy konsumenci stają się bardziej przebiegli, sprzedawcy bardziej zaradni a logistycy bardziej nieugięci? Moim zdaniem żadna ze stron nie powinna czuć się bardziej komfortowo. Myślenie w kategoriach big data przynosi korzyści wszystkim stronom. Sięgającym po innowacje konsumentom, badającym wielkie zbiory sprzedawcom oraz tym, łączącym konsumentów i sprzedawców logistykom, którzy potrafią docenić potęgę korelacji. Im bardziej złożoną strukturą stajemy się jako cywilizacja, im bardziej przejawy naszych zachowań społecznych i biznesowych zaczynają przypominać formy i dynamikę chmur, tym częściej big data może nam pomagać w trudnych pytaniach, robiąc to na dodatek w zadawalającym nas czasie.

Dokładność przestaje być głównym celem

Jeżeli w tym momencie myślisz, że big data to temat dla wielkich firm i tych, którzy dysponują olbrzymią ilością danych, to pora aby zacząć myśleć inaczej. W praktyce istnieją trzy rodzaje firm w kontekście analiz big data. Te które rzeczywiście posiadają dane, te które dysponują umiejętnościami ich obróbki oraz te, które nastawione są na analizy big data. Dzisiaj dane do analiz możemy nie tylko kupić, ale również otrzymać za darmo od firm, organizacji lub instytucji ale również możemy je znaleźć w ogromnym oceanie danych jakim jest internet. Musimy tylko uwierzyć że naszym konkretnym przypadku warto. Viktor Mayer-Schönberger i Kenneth Cukier, autorzy książki „Big Data” napisali: „Kiedy liczba danych nowego typu staje się dużo większa, tak długo, jak jesteśmy w stanie przewidzieć generalny trend, w niektórych przypadkach dokładność przestaje być głównym celem.“ Jeżeli zatem będziemy gromadzić tak niewyobrażalne ilości danych oraz błyskawicznie znajdywać korelacje między nimi, to dlaczego na naszym logistycznym podwórku nie mielibyśmy uwzględniać najbardziej wymyślnych zależności, do optymalizacji procesów dystrybucyjnych? Przecież na przykład dane o zdrowiu kierowców, zbierane z czujników umieszczonych w ich kurtkach, mogły by nam pozwolić zmienić odpowiednio szybko trasy przejazdu, w przypadku sygnałów o złym stanie zdrowia prowadzących pojazdy. Analiza informacji o bieżących rozgrywkach na stronie jakiegoś klubu kibica, mogłaby nam pomóc w szybszym ustaleniu optymalnych objazdów, zanim utkniemy w korku przy jakimś stadionie. A może analiza nacechowania emocjonalnego tweetów pozwoli nam przewidzieć, że już od jutra warto zamówić większą ilość piwa marki x, ponieważ o marce y internauci od rana zaczynają się wypowiadać bardzo niepochlebnie. Skoro na czas trasy przejazdu bardzo duży wpływ mogą mieć lokalne burze i załamania pogodowe, to być może znacznie lepszym i szybszym rozwiązaniem niż oczekiwanie na oficjalną prognozę pogody, staną się już jutro analizy koloru chmur? Być może na podstawie zdjęć z ostatnich 15 minut, zamieszczanych na portalu społecznościowym fascynatów fotografii chmur, dane te będą najszybszą drogą do ustalenia, gdzie i o której nie warto się znaleźć z naszym transportem.

Co i jak bez wnikania dlaczego

Im bardziej zaawansowanymi technologiami oraz narzędziami dysponujemy, tym więcej gromadzimy danych o interakcjach wszystkiego ze wszystkim. Redukcjonistyczne podejście w odpowiadaniu na aktualnie ważne dla nas pytania, staje się coraz trudniejsze i czasochłonne. Wiedza CO i/lub JAK, bez wnikania w to DLACZEGO, będzie dla nas coraz częściej wystarczająco dobra. Analiza nieprzyczynowa pomoże w części przypadków zrozumieć świat znacznie szybciej, pytając CO zamiast DLACZEGO. Z biznesowego punktu widzenia, analizy o charakterze big data, nie są magią, kaprysem analityków, ani nieprzewidzianym wypadkiem przy pracy. To jedynie kolejne narzędzie dla przedsiębiorcy jakie wykreowała ewolucja gospodarcza, które odpowiednio zrozumiane może zadecydować o przewadze konkurencyjnej firmy. Nic nie wskazuje bowiem na to, aby w najbliższym czasie zmniejszyła się liczba danych jakie będziemy gromadzić. Z dnia na dzień będziemy zatem dysponować coraz to mniejszą ilością czasu, na rozpoznanie określonego trendu, zanim trend ten zdąży się zmienić. Dla logistyki, jako służby dostarczającej komfort zarówno konsumentom jak i sprzedawcom, może to oznaczać nie tyle potrzebę szybszej i efektywniejszej niż do tej pory adaptacji do zmian. Może oznaczać konieczność szybkiego przewidywania zmieniających się trendów konsumenckich, aby nie znaleźć się nawet przez chwilę, poza dynamicznie dopasowującym się do potrzeb cywilizacji zbiorem (stadem… chmurą…) pożądanychzachowań.

Poleć ten artykuł:

Polecamy