Fabryka Przyszłości – osiągaj cele dzięki danym!
| RealizacjeTechnologie IT od lat są obecne w większości firm. Najczęściej tworzą dwa równoległe światy: biurowy i produkcyjny. Jak połączyć te dwa światy aby tworzyły uzupełniającą się całość?
Technologie IT od lat są obecne w większości firm. Najczęściej tworzą dwa równoległe światy: biurowy i produkcyjny. Pierwszy jest domeną „ludzi od IT” i pomaga zarządzać firmą jako organizacją. Ten świat zarządza dostawami, sprzedażą, relacjami z klientem, zatrudnia pracowników, bada rynek. Używa oprogramowania klasy ERP, CRM, pracującego na lokalnych serwerach albo w chmurze.
Drugi świat to świat fabryki. Linie produkcyjne od dziesięcioleci są nadzorowane przez sterowniki PLC. Wiele lat temu przy obrabiarkach pojawiały się pierwsze odczyty cyfrowe, potem sterowane ręcznie maszyny zostały zastąpione przez urządzenia CNC, centra obróbcze, roboty, wózki transportowe AGV. Nawiasem mówiąc, automatyka przemysłowa ma długą historię. Jeśli uznamy, że pierwszym urządzeniem automatycznym był układ kalibracji kamieni młyńskich zaprojektowany przez Christiaana Huygensa w 1788 roku, to za 68 lat niektórzy z nas być może będą świętować trzysta lat branży uznawanej powszechnie za wyjątkowo nowoczesną.
Technika cyfrowa w tych dwóch światach rozwijała się w odmiennych warunkach i miała różne priorytety. „Biurowe IT” to duże moce obliczeniowe, imponujące prędkości transmisji danych, klimatyzowane serwerownie, sieć LAN, Internet. W fabryce jest inaczej. Tutaj liczy się praca w czasie rzeczywistym, bezpieczeństwo, niezawodność, odporność na zakłócenia pochodzące od maszyn, stabilność. Prostsze rozwiązania z reguły są lepsze, a elegancja ustępuje miejsca wytrzymałości. Widać to na każdym kroku, wystarczy spojrzeć na obudowę komputera klasy Industrial PC.
Przez lata kontakt tych dwóch światów był, oględnie mówiąc, niebezpośredni. To, co się działo w fabryce, znajdowało odzwierciedlenie w danych przetwarzanych w biurze w postaci statystyki produkcji, notatek o awariach, przeglądach i przestojach. Raporty pisali ludzie pracujący przy taśmie produkcyjnej, i robili to wtedy, kiedy zobowiązywały ich do tego procedury: na koniec zmiany, tygodnia, miesiąca, po większej awarii lub wypadku.
Procedury wynikały z przyjmowanych przez zarządy firm polityk zarządzania produkcją. Wiele z nich pochodzi z Dalekiego Wschodu, żeby wymienić tylko Kaizen. Zasady teoretycznie są proste: reaguj na błędy. Poprawiaj, kiedy zauważysz, że coś się zepsuło, i rób to tak, żeby poprawka wykluczyła podobny błąd w przyszłości. W ten sposób zbliżysz się do doskonałości. Problem w tym, że tradycyjny system raportowania jest sitem o nieprzyjemnie dużych oczkach, przez które uciekają informacje o zdarzeniach zwiastujących z wyprzedzeniem poważne problemy. Najwyższy czas, żeby oba światy zaczęły się bezpośrednio komunikować.
Edge Computing
Zbieranie danych z linii produkcyjnych i dostarczanie ich do świata IT wymaga dostosowania maszyn, a przede wszystkim ich sterowników. Dane, które dotychczas były wykorzystywane jedynie na poziomie maszyny (a czasami ignorowane), muszą trafić „wyżej”. Trzeba je zagregować, zbuforować i przesłać dalej.
W najprostszym wariancie sterownik PLC wyposażony w moduł transmisji danych komunikuje się z serwerem, na którym pracuje na przykład program klasy SCADA. Problemy pojawiają się wtedy, gdy z jakiegoś powodu ustaje transmisja danych. Urządzenie działa, ale w obrazie jego pracy powstaje luka. Cokolwiek wydarzy się w tym czasie, zostanie przeoczone i nie będzie miało wpływu na proces optymalizacji produkcji.
Żeby uniknąć takich sytuacji, wprowadza się moduły PLC wyposażone w możliwość ciągłej rejestracji danych. Jeśli urządzenie przejdzie w tryb off-line, dane zostaną zapisane lokalnie, a po przywróceniu łączności z serwerem urządzenie prześle mu brakującą paczkę danych, dbając o ich integralność.
Technicznie rzecz biorąc, dane dla Edge Computing mogą dostarczać wszystkie urządzenia kontrolujące pracę maszyn: sterowniki PLC, komputery przemysłowe. Jeśli nie mają zaimplementowanych funkcji gromadzenia i transmisji danych, można wykorzystać moduły do sterowników PLC.
KPI
Pracę dowolnej maszyny można opisać przy pomocy zestawu wskaźników w języku angielskim nazywanych Key Performance Indicators (KPI). Należą do nich: czas przestoju, liczba defektów, efektywność, zużycie energii (specific energy consumption). Śledzenie zmian KPI w czasie rzeczywistym połączone z analizą danych historycznych ułatwia podejmowanie decyzji o sposobie wykorzystania maszyny, rozbudowie lub przebudowie linii produkcyjnej, zmianach organizacji pracy operatorów.
KPI mogą być prezentowane na wiele sposobów, najskuteczniejszym wydaje się jednak połączenie liczb z ich prezentacją graficzną: wykresami, schematami itp. Jeśli w jednym miejscu prezentowane są wartości zmierzone i oczekiwane, operator szybciej zauważy odchylenia od normy i będzie mógł przeciwdziałać zmniejszeniu wydajności.
Źródła danych
Dane odzwierciedlające stan maszyny pochodzą z różnych źródeł. Wielu dostarczają sterowniki PLC lub komputery przemysłowe. Dysponują nimi od zawsze, ale dotychczas wykorzystywano je w ograniczonym zakresie. Informacje można uzyskać także bezpośrednio z napędów. Wiele z nich udostępnia dane o natężeniu prądu, wibracjach, położeniu. Można je wydobyć bez potrzeby instalowania dodatkowych czujników.
Warto zwrócić uwagę na dwa słowa, w języku potocznym używane zamiennie: dane i informacje. Dla automatyka i informatyka to dwa różne pojęcia. Pierwsze jest bardzo ogólne: możemy wyprodukować nieograniczone ilości danych – wystarczy zainstalować nieograniczoną liczbę czujników, zbierać odczyty ze sterowników, napędów, zasilaczy.
Kiedyś przeszkodą były ograniczenia techniczne: stosunkowo niska prędkość transmisji danych w sieciach komputerowych i przemysłowych oraz wysokie ceny dysków twardych i innych nośników, na których te dane można było zapisywać. Dzisiaj obie przeszkody mają coraz mniejsze znaczenie. Sieci światłowodowe umożliwiają transmisję danych w ilości znacznie większej, niż są w stanie wytworzyć urządzenia zainstalowane w fabryce. Dyski twarde znacznie potaniały, pojawiła się też możliwość niedrogiego przechowywania surowych danych w chmurach.
A gdyby tak rejestrować wszystko, co potrafimy zmierzyć? Nawet jeśli nie wiemy, do czego może nam się to przydać? Wbrew pozorom takie podejście ma sens i jest jednym z założeń wykorzystania sztucznej inteligencji w Przemyśle 4.0.
Condition Monitoring Systems
Systemy monitorowania stanu maszyny cieszą się rosnącą popularnością. Idea teoretycznie jest prosta: poddawajmy maszyny permanentnej kontroli. Monitorujmy wszystkie mierzalne parametry jej pracy zawsze, kiedy jest włączona, rejestrujmy je i szukajmy konsekwencji zaobserwowanych anomalii. Część pewnie nie zostawi żadnego śladu, ale niektóre mogą zwiastować awarię.
Prawdopodobnie zanim rozsypie się łożysko albo zatrze przekładnia będziemy przez dość długi czas obserwowali nasilające się objawy: wzrost amplitudy drgań, wzrost mocy pobieranej przez napęd, hałas, wzrost temperatury towarzyszący nadmiernemu tarciu. W standardowym środowisku produkcyjnym nie dostrzegamy większości takich sygnałów i maszyna pracuje aż do wystąpienia poważnej awarii. W rezultacie mamy nieplanowany przestój, zniszczony materiał, być może wtórne uszkodzenia innych podzespołów. Gdyby udało się zauważyć i zrozumieć pierwsze objawy, można by przyspieszyć konserwację przekładni albo wymienić jej elementy przy okazji planowanego postoju maszyny, bez stresu i strat.
Być może warto wspomnieć, że podobne systemy pojawiły się wcześniej w lotnictwie. Przez dziesięciolecia niezawodność podzespołów samolotów zapewniano w ten sposób, że producent określał, ile godzin część przepracuje bez awarii z prawdopodobieństwem równym niemal jedności, a właściciel samolotu zliczał czas pracy albo liczbę wykonanych cykli (np. startów i lądowań). Części, które przepracowały określony przez producenta czas, były wymieniane bez względu na faktyczny stan.
W rzeczywistości większość z nich mogłaby bez awarii przepracować jeszcze wiele setek godzin, ale w imię bezpieczeństwa wymieniano je na wszelki wypadek. Potem przyjęto (choć nie dla wszystkich podzespołów) ustalanie okresu eksploatacji według faktycznego stanu, co wiązało się z koniecznością udoskonalenia nieniszczących metod diagnostycznych i wzbogacenia awioniki o dodatkowe czujniki i rejestratory parametrów pracy. Nagrodą jest wyraźne zmniejszenie kosztów eksploatacji bez pogorszenia niezawodności, a więc i bezpieczeństwa lotu.
Chmury obliczeniowe
Gromadzenie i przetwarzanie wielkich ilości danych jest możliwe tylko pod warunkiem dysponowania odpowiednimi zasobami IT: wydajnymi serwerami, pamięciami masowymi o wielkiej pojemności, szybką siecią, niezawodnym oprogramowaniem. Dodatkowe koszty generuje utrzymanie klimatyzowanych i zabezpieczonych pomieszczeń, zasilania awaryjnego, zatrudnienie wysokiej klasy specjalistów. Zrealizowanie tego w przedsiębiorstwie produkcyjnym wiązałoby się z ogromnymi inwestycjami w infrastrukturę, która nie zwiększa bezpośrednio wpływów przedsiębiorstwa. Przekonanie zarządu do podjęcia decyzji o takiej inwestycji w większości przypadków byłoby co najmniej trudne.
Alternatywą jest skorzystanie z usługi przetwarzania danych w chmurze. Istnieją firmy, które specjalizują się w udostępnianiu klientom wysokiej jakości usług IT na własnej infrastrukturze. Kupują sprzęt, płacą za prąd, za ochronę serwerowni, zatrudniają administratorów systemów i sieci. Wszystkie te zasoby dzielą między swoich klientów, umożliwiając im korzystanie z takiej mocy obliczeniowej, jakiej akurat potrzebują.
Niemal w każdej chwili klient może zwiększyć albo zmniejszyć wydajność swojej części chmury, dostosowując ją do chwilowego zapotrzebowania na zasoby. Cena usługi zależy od obciążenia systemów dostawcy, więc klient dostaje do ręki doskonałe narzędzie optymalizacji kosztów.
Ciąg dalszy w kolejnym artykule.