W oceanie danych - czyli jak wyłowić najcenniejsze informacje
| TechnikaNiezależnie od tego, czy spełnią się przewidywania, zgodnie z którymi globalny przemysł po najnowszej pandemii wykona wymuszony sytuacją gwałtowny skok ku czwartej rewolucji, czy też zdemolowany kryzysem ugrzęźnie na lata w mozolnym wydobywaniu się na powierzchnię, w centrum procesów z pewnością pozostanie analityka danych. Od tego nie ma już odwrotu.
Pewien manager sportowy parający się uważną analizą rosnącego od kilku dekad zalewu informacji, pytany o źródło swoich sukcesów, zwykł podobno mawiać, że bierze dane i tak długo je przesłuchuje, aż zaczną mówić. Przytaczający ową historyjkę Simon Kuper oraz Stefan Szymański napisali na ten temat całą książkę. Ich "Futbonomia" opisuje coraz bardziej popularne w środowisku podejście, w którym na rewersie całego tego piłkarskiego zgiełku znajdują się gołe liczby. Te związane z finansami klubów, te rejestrujące przebiegnięte na treningach kilometry, ale także i te mierzące np. ilość mieszkańców miast, w których próbuje rozwinąć się lub utrzymać futbolowy biznes. Bo wszystkie informacje mają kluczowe znaczenie, trzeba tylko wiedzieć, od której strony je "ugryźć". Oczywiście do tego dochodzą niemierzalne emocje, a każde działanie obarczone jest ryzykiem, podbitym przez przypadek czy wpływ jakiegoś iks-faktora, ale określając poprzez cyfry i wykresy panujące lub nadchodzące trendy, można precyzyjnie określić cele i zajść "szybciej, wyżej, dalej" od idącej na piechotę konkurencji.
Jeśli z grubsza działa to w sporcie, tym bardziej powinno znajdować przełożenie na znacznie bardziej wymierną i racjonalną dziedzinę współczesnego świata, jaką jest przemysł. Od wielu dekad robotyzowany i automatyzowany skutecznie zmierza on w stronę produkcji, w której rola przypadku czy "dyspozycji dnia" poszczególnego pracownika ma coraz mniejsze znaczenie. Co więcej, wykonujące swoje zadania z bezlitosną precyzją i powtarzalnością maszyny gromadzą coraz więcej danych, a współczesne systemy komunikacji, spotęgowane Internetem Rzeczy, zapewniają coraz lepsze możliwości wymiany tych danych – i to już niemal we wszystkich kierunkach. Po pierwsze, w stronę inżynierów, pilnujących produkcji w zakładach. Po drugie, w stronę rozmaitego rodzaju sieci, od tych wewnątrzfabrycznych, po Internet. Po trzecie, w stronę chmury, służącej już nie tylko jako gigantyczny magazyn, ale przestrzeń dokonywania przeróżnych operacji. Po czwarte, w stronę innych maszyn, stojących na tej samej linii produkcyjnej, lub w sąsiednich działach, ale wzajemnie kooperujących. Po piąte, w stronę rodzącej się na naszych oczach sztucznej inteligencji. Maszyn jest coraz więcej, danych przybywa, a wraz z nimi opcje potencjalnych przewag, które da się na tej podstawie osiągnąć, rosną lawinowo. Trzeba tylko spróbować to wszystko ogarnąć.
NIE DAĆ SIĘ ZALAĆ DANYMI
Oczywiście łatwo powiedzieć, ale jak sensownie zmierzyć się z oceanem danych, których końca nie widać, bo generowane są na bieżąco, w każdej sekundzie? Jak wyłowić z nich to, co rzeczywiście istotne? Jesse Cugliotta z firmy Qlik, zajmującej się narzędziami do analizy danych, zauważa, że to zadanie wielopoziomowe. Ten najniższy obejmuje ciągłą opiekę nad maszynami, ich pracą, pilnowanie serwisu i przeciwdziałanie awariom. Nieco wyżej znajduje się testowanie i doskonalenie produkcji, w tym zarządzanie i monitorowanie przemieszczania materiałów oraz gotowych towarów. Na szczycie całej piramidy są decyzje strategiczne: ocena stanu rynku i możliwości działań w jego ramach, w tym budowanie przewag konkurencyjnych – wykorzystanie w tym wymiarze nawet pozornie niewielkich obszarów i szans może ustawić firmę na zwycięskiej pozycji.
Patrząc nieco inaczej, uporządkowaniu sytuacji na samym dole tej drabiny służyć mogą systemy oceny wydajności maszyn (OEE, Overall Equipment Effectiveness). Ich stosowanie pozwala zrozumieć, jak skuteczne są fabryczne urządzenia czy instalacje w porównaniu z konkretnym punktem odniesienia w branży, zapewnia też wgląd w generowane przez nie dane, a także pomaga ustalać harmonogram serwisowania i optymalizować produkcję. Brzmi nieźle, ale wystarczy wyobrazić sobie efekt skali, zwłaszcza w przypadku większych przedsiębiorstw – próbujących okiełznać analitycznie już nie jeden zakład, ale kilkanaście albo i ponad setkę, wytwarzających niekończącą się ilość danych, by zdać sobie sprawę, że posiadanie nowoczesnej, w pełni inteligentnej fabryki, a zwłaszcza całej ich sieci, łatwo może przytłoczyć kadrę zarządzającą.
Wyzwanie da się pokonać dzięki nabyciu i promowaniu wiedzy na temat skutecznej pracy z danymi. Zwiększa to komfort i efektywność bieżących działań, ale przede wszystkim przekłada się na określoną wartość końcową. Jak bowiem wynika z raportu "Data Literacy Index", przygotowanego na zlecenie Qlik przez Wharton School oraz IHS Markit (a prześwietlającego liczące się globalnie przedsiębiorstwa zatrudniające ponad pięćset osób, działające w branży bankowej i finansowej, produkcyjnej, handlu detalicznego, transportu, opieki zdrowotnej, energii, budownictwa, usług komunalnych i komunikacji), firmy które znacznie podniosły swój poziom wiedzy na temat sensownego używania danych korporacyjnych, zanotowały wzrost rynkowej wartości obrotów w przedziale 324‒534 milionów dolarów, co dało im przewagę w stosunku do osiągnięć branżowych konkurentów o 3‒5%.
CIĘŻKO W WADZE CIĘŻKIEJ
Mimo tego firmy z branży przemysłu ciężkiego, który wciąż stanowi podstawę światowej produkcji, cały czas mają problem z dostrzeżeniem podstawowych korzyści, jakie się z tym wszystkim wiążą. Z ankiety, która towarzyszyła "Data Literacy Index", wynika że co prawda aż 97% respondentów z tych obszarów zauważyło, że przy podejmowaniu firmowych decyzji warto brać pod uwagę rozmaite dane, ale już tylko 59% słyszało o profesjonalnej ich analityce – to mniej o 8%, niż wynosi średnia międzybranżowa. Pomimo coraz większej obecności w dyskursie biznesowym takich tematów, jak Internet Rzeczy czy Przemysł 4.0, wciąż mniej niż 50% ankietowanych liderów branży ciężkiej uważa, że znajomość danych jest rzeczywiście bardzo istotna. Zaledwie 14% badanych przyznało, że zachęca pracowników do korzystania z danych, a tylko 32% firm zapewnia w tym zakresie jakiekolwiek szkolenia. Co więcej, mniej niż jedna trzecia (30%) osób pytanych o procesy rekrutacyjne zgadza się, że znajomość procesów obróbki danych powinna być istotnym elementem rozmów z kandydatami o pracę. Nic więc pewnie dziwnego, że tylko jedna czwarta stwierdziła, iż byłaby skłonna płacić wyższe pensje pracownikom mającym w tym zakresie odpowiednie kompetencje.
To niezwykle znaczące liczby, świadczące o tym, że w kluczowych przestrzeniach liderzy branżowi wciąż mają do odrobienia swoje lekcje. Jesse Cugliotta zwraca uwagę, że obecny stan stwarza całkowicie sprzeczną wewnętrznie sytuację. Z jednej strony rośnie liczba inteligentnych fabryk pełnych skomunikowanych ze sobą urządzeń i linii produkcyjnych. Z drugiej, widoczna rezerwa czy wręcz niechęć kadry zarządzającej i inżynierskiej do badania danych nie pozwala w pełni zrozumieć tego, czym się dysponuje, co z kolei przekłada się na niezdolność do wyciągania z tego biznesowych i finansowych korzyści. Zamiast widzenia szerokiej perspektywy, patrzy się na każdą część systemu osobno. Dobrym przykładem może być choćby firma, która inwestuje w ułatwiające konserwację czujniki do monitorowania pojazdów oraz w technologię do śledzenia ich lokalizacji. W każdą z nich osobno. Gdy nie można zintegrować tych informacji i nie widzi się ich wspólnie, powstają silosy danych, utrudniające skuteczne działanie.
KTO CHCE PRZEŻYĆ?
Mimo wszystko istnieją jaśniejsze punkty całej sytuacji. Okazuje się, że 37% ankietowanych z "ciężkich" sektorów przyznało, że analiza danych wpływa w ich firmach na sposób pomiaru wyników przedsiębiorstw i prognozowania popytu. To aż o 11% powyżej średniej dla innych branż. Gdy autorzy ankiety "Data Literacy Index" poszli tym mocno szczegółowym tropem, doszli do wniosku, że w sumie z analiz danych korzysta 73% inżynierów. Może robią to na swój sposób, może nie do końca tak, jak by wypadało, ale jednak. To zdecydowanie lepszy wynik niż w przypadku specjalistów działających w bankowości (54%), pracowników sektora komercyjnego (56%) czy usług (58%).
Gdzie więc leży prawda? Zapewne jak zazwyczaj, gdzieś pomiędzy. Z całą pewnością w przemyśle znaczenie profesjonalnych umiejętności pracy z oceanem danych będzie rosło – zarówno w skali mikro, czyli tego, co dzieje się w hali produkcyjnej, jak w ujęciu ogólnym, dotyczącym tego, co produkować, dla kogo i jak wyprzedzać konkurencję, czyli strategii. Rośnie w tym kontekście znaczenie chmur obliczeniowych, oferujących rozmaite profesjonalne usługi analityczne, z których można korzystać bez sięgania po instalację oprogramowań czy nieraz kosztowne zakupy licencji. Oczywiście nie da się w tych procesach pominąć sztucznej inteligencji, mądrze ujarzmionej – a zapewne wiele jeszcze w tej dziedzinie przed nami. Być może przez jakiś czas niektórym producentom uda się ignorować czy przymykać oko na tego rodzaju kwestie. Wszystko wskazuje jednak na to, że na dłuższą metę kto tego nie zrozumie i nie wdroży, nie przetrwa.
W artykule wykorzystano publikację Jesse’a Cugliotty, specjalisty w firmie Qlik – "Plenty of data, yet not enough data confidence".