wersja mobilna
Online: 698 Piątek, 2017.11.17

Gospodarka

Czy Big Data zmieni przemysł?

piątek, 19 września 2014 11:25

Choć nie zdajemy sobie z tego sprawy, jesteśmy codziennie pod wpływem "wielkich danych". Z "Big Data", czyli dużych, różnorodnych i zmiennych zbiorów danych korzystają dostawcy usług telekomunikacyjnych oraz firmy z branży IT i finansowej. Analiza takich informacji wykorzystywana jest w marketingu i e-handlu, a ostatnio pojawia się również w kontekście przemysłu oraz energetyki. Możliwości gromadzenia i analizy wielkich ilości danych zmieniają na naszych oczach sposoby prowadzenia biznesu. Czy "wielkie dane" to zapowiedź przełomu, którą warto zainteresować się już dzisiaj?

Sektor produkcyjny, szczególnie przemysł procesowy, to doskonały "generator" informacji. Szacuje się, że w typowym zakładzie z branży FMCG produkującym artykuły higieniczne liczba zdarzeń i zmieniających się wartości, które można by rejestrować, daje około tysiąc próbek danych co... 5 ms. Po przeliczeniu jest to 500 mln na godzinę i 4 biliony rocznie. To ogromne ilości informacji, które kryją w sobie wiele wskazówek co do możliwości optymalizacji procesów produkcyjnych, zużycia energii czy efektywnego wykorzystania maszyn. W przypadku przemysłu chemicznego i branż pokrewnych liczby są o rzędy wielkości większe i nawet minimalne usprawnienia procesu przekładają się na duże pieniądze. Problemem jest jedynie to, jak do owych najważniejszych danych się dobrać.

Z tym ostatnim przemysł próbuje radzić sobie nie od dzisiaj. Przedsiębiorstwa korzystają z oprogramowania bazodanowego, wdrażają też narzędzia do analizy danych historycznych w celu wyszukiwania trendów i anomalii. Istnieją również możliwości stosowania złożonych algorytmów, które na podstawie obliczania korelacji danych w czasie rzeczywistym określają przykładowo przyczynę zatrzymania się linii produkcyjnej i mogą pokierować działaniami personelu. Nowością, na którą zwracają tu uwagę przedstawiciele GE oraz IBM - firm prawdopodobnie najbardziej "zaawansowanych" w temacie przemysłowego Big Data - jest bardzo szybko rosnąca ilość i zmienność tych danych. Rodzi to konieczność stosowania zupełnie nowych technologii, które umożliwią maksymalnie efektywną archiwizację wszelkich informacji procesowych - i to bez względu na ich ilość, a następnie wydajną analizę. Bazują one, czego przykładem jest Proficy Historian HD, na hurtowniach danych, zastosowaniu globalnej, rozproszonej infrastruktury obliczeniowej oraz pracy w chmurze. Celem tych zabiegów jest umożliwienie "wyciągnięcia" z pełnego pasma danych, czyli z owych terabajtów rocznie, tylko tych informacji, które są w danym momencie rzeczywiście niezbędne do optymalizacji procesu czy przykładowo do predykcyjnego utrzymania ruchu.

Oczywiście, podobnie jak jest to w przypadku systemów MES, nie są to narzędzia dla każdego. Na pewno zainteresowane będą nimi przedsiębiorstwa mające rozbudowane parki maszynowe i firmy działające w rozległych geograficznie obszarach, a więc przykładowo dostawcy mediów. Z czasem jednak omawiane technologie będą przenikały do mniejszych systemów analitycznych i standardowego oprogramowania bazodanowego. Dzisiaj ważne jest natomiast zauważenie tego, że rozwija się nowa, obiecująca koncepcja w obszarze przetwarzania danych procesowych oraz data miningu.

W nakreślonym planie rozwoju technologicznego jest jednak haczyk. Główną barierą wdrożeń omawianych systemów nie są możliwości analizy danych, ale przede wszystkim ich pozyskiwania. Stąd też istotnym kosztem i często warunkiem zaimplementowania jakichkolwiek rozwiązań informatycznych jest opomiarowanie instalacji i pełna akwizycja danych. Zakładając jednak, że z pomocą przyjdzie tu Internet of Things, a w przyszłości będziemy dysponowali wręcz nieprzebranymi zasobami informacji, jedno się i tak nie zmieni - po drugiej stronie ciągle potrzeba będzie człowieka. To on musi mieć wiedzę o procesie, umieć zadecydować co analizować i jak wykorzystać posiadane narzędzia. Big Data z pewnością zapewni nowe możliwości, ale nie zwolni od główkowania, gdyż tego zaprogramować się nie da. Jeżeli więc kiedyś staniemy przed decyzją o inwestycji w ultranowoczesne narzędzia IT, warto pamiętać, że każdy system jest jedynie tak dobry, jak operator go obsługujący.

Zbigniew Piątek

 

zobacz wszystkie Nowe produkty

12-calowy komputer panelowy Linux-Ready z mikroprocesorem ARM Cortex-A8

2017-11-17   |
12-calowy komputer panelowy Linux-Ready z mikroprocesorem ARM Cortex-A8

HC-3120 to komputer panelowy Linux-Ready z mikroprocesorem ARM Cortex-A8, 12-calowym wyświetlaczem TFT LCD i ekranem dotykowym multi-touch, charakteryzujący się płaską konstrukcją. Dzięki bardzo dużej elastyczności i modułowości może on być szybko i łatwo integrowany w aplikacjach przemysłowych, a równocześnie skraca czas przestojów i zmniejsza koszty serwisowania.
czytaj więcej

Zasilacze modułowe dużych mocy

2017-11-17   | Elhurt Sp. z o.o.
Zasilacze modułowe dużych mocy

Zasilacze z serii QM TDK Lambda o mocach od 1200 do 1500 W to modułowe jednostki zaprojektowane na potrzeby aplikacji medycznych oraz zastosowań przemysłowych.  Przy projektowaniu położono duży nacisk na spełnienie wymagań bezpieczeństwa, dlatego w celach ochrony pacjenta przed porażeniem wyposażono je m. in. w pełną separację napięcia sieciowego.
czytaj więcej