Środa, 13 lipca 2016

Cyberbezpieczeństwo i kontrola dostępu

Zarówno zainfekowanie systemu sterowania i automatyki złośliwym oprogramowaniem, które zapewni hakerom zdalny dostęp do systemu albo uczyni szkody, jak i bezpośrednia ingerencja osób trzecich, to w przemyśle sytuacje wysoce niebezpieczne. Ich skutkiem mogą być: przerwanie produkcji, awarie instalacji czy wyciek poufnych danych. Cyberataki na elektrownie, rafinerie, fabryki i inne obiekty stanowią również zagrożenie dla bezpieczeństwa publicznego. Stąd też ochrona systemów przemysłowych powinna być kompleksowa i obejmować zarówno rozwiązania softwarowe, jak i te utrudniające fizyczny dostęp.

Cyberbezpieczeństwo i kontrola dostępu

Ostrzeżenia przed cyberatakami na systemy sterowania i automatyki były ogłaszane już dawno. Podejmowano również ich pojedyncze próby (patrz: ramka). Dopiero jednak w 2010 roku nastąpił w tym zakresie prawdziwy przełom.

Wykryty wtedy Stuxnet był pierwszym publicznie znanym robakiem, który stworzono specjalnie w celu zainfekowania i zdestabilizowania systemów sterowania w przemyśle. Zaatakował on tysiące komputerów na całym świecie, czym wzbudził sporą sensację, stając się też źródłem teorii spiskowych na temat jego twórców i przeznaczenia.

Robak wywołał także ogromne poruszenie wśród osób, które odpowiadały za bezpieczeństwo systemów informatycznych w przemyśle. Okazało się bowiem, że dotychczasowe zabezpieczenia są niewystarczające, przez co komputery mogą stać się najsłabszym ogniwem oraz furtką do ataków z zewnątrz, nawet w przypadku wyspecjalizowanych i drogich systemów automatyki. Przerażało też to, że nim Stuxneta udało się zidentyfikować, działał on w ukryciu być może nawet przez ponad rok.

JAK ATAKOWAŁ STUXNET?

Stuxnet atakował prawdopodobnie za pośrednictwem pamięci USB. Dzięki temu mógł infekować także komputery obsługujące główny system sterowania zakładem, które właśnie ze względów bezpieczeństwa zwykle nie są podłączane do Internetu. Wykorzystując wcześniej nieznane luki bezpieczeństwa w systemie Windows (zero day exploits) rozprzestrzeniał się po sieci lokalnej, instalując m.in. sterowniki o nazwach mrxnet.sys i mrxcls.sys.

Pliki te nie były identyfikowane przez system jako potencjalnie złośliwe oprogramowanie, ponieważ miały certyfikat bezpieczeństwa podpisany prawdziwymi cyfrowymi kluczami prywatnymi wykradzionymi z firm Realtek oraz JMicron. Jeżeli robak na zainfekowanym komputerze nie wykrył instalacji systemu SCADA WinCC lub oprogramowania Step 7, nie robił zupełnie nic.

W przeciwnym wypadku Stuxnet m.in. zmieniał nazwę pliku s7otbxdx. dll, znajdującego się w katalogu zawierającym pliki używane w realizacji komunikacji pomiędzy Simatic Managerem a sterownikami S7, na s7otbxdsx.dll. Potem w folderze tym umieszczany był fałszywy plik s7otbxdx. dll, dzięki któremu robak mógł wprowadzać złośliwy kod do sterowników programowalnych.

JAKIE SZKODY MÓGŁ SPOWODOWAĆ STUXNET?

Celem działania robaka były głównie sterowniki z serii S7-417 i projekty określonego typu. Selektywność uznano za cechę wyróżniającą Stuxnet. Przeprogramowanie sterowników uniemożliwiało właściwe sterowanie przebiegiem procesów przemysłowych, prowadząc do ich rozregulowania. Jednocześnie zmiany w kodzie były ukrywane przed operatorami systemu. Nie można było ich też cofnąć ani nadpisać.

W efekcie mimo całkowitej utraty kontroli obsługa nie była w stanie nic zauważyć ani też na czas interweniować. Z zainfekowanego komputera wirus próbował również przesyłać dane na zewnętrzny serwer, a także pobierać stamtąd aktualizacje i rozkazy. Oprócz możliwości sabotażu pracy zakładu Stuxnet mógł być zatem wykorzystywany w działalności szpiegowskiej.

Przypuszcza się, że twórcami Stuxnetu byli specjaliści wspierani przez rządy Stanów Zjednoczonych i Izraela, a ich celem była elektrownia jądrowa w Iranie. Prawdopodobnie jednak ofiarą tego robaka padły również inne zakłady, m.in. elektrownia nuklearna w Rosji.

Gdy Stuxnet nie stanowił już zagrożenia, spodziewano się, że rozwiązania w nim wykorzystane mogą stanowić inspirację i bazę dla innych wirusów tego rodzaju. Było to tym bardziej prawdopodobne, że oprogramowanie firmy Microsoft jest powszechnie używane w przemyśle.

Przed Stuxnetem...

Ostrzeżenia przed cyberatakami na przemysłowe systemy sterowania, a nawet ich pojedyncze próby, ogłaszano i podejmowano już od dawna, jeszcze przed odkryciem Stuxnetu. Takimi były m.in.:

Elektrownia jądrowa Ignalina, Litwa, 1992
Jeden z pracowników litewskiej elektrowni jądrowej celowo wprowadził wirusa do systemu sterowania jednego z dwóch reaktorów działających w tym zakładzie. Chociaż twierdził, że dokonał tego tylko po to, żeby dowieść słabości stosowanych zabezpieczeń, został aresztowany. Na szczęście złośliwe oprogramowanie nie spowodowało żadnych szkód.

Maroochy Shire, Australia, 2000
Ataku dokonał sfrustrowany były pracownik firmy, która instalowała system SCADA do nadzorowania pracy miejskiego systemu wodno-kanalizacyjnego w pewnym mieście niedaleko Brisbane. Zdecydował się on na ten krok, kiedy nie został zatrudniony w miejskiej spółce po tym, jak już złożył rezygnację z pracy w tym prywatnym przedsiębiorstwie. Aby się zemścić, przy użyciu skradzionego sprzętu radiowego oraz komputera, sparaliżował pracę systemu kanalizacji.

Dokonał tego, jeżdżąc po okolicy i przesyłając błędne komendy sterujące. Dzięki temu m.in. spowodował, że pompy nie pracowały właściwie, a do centralnego komputera nie docierały sygnały alarmowe. W wyniku jego działań kilkaset tysięcy litrów surowych (nieoczyszczonych) ścieków rozlało się w różnych miejscach, w tym w parkach, na placach i do rzek. Za swój czyn pracownik ten został skazany na więzienie i musiał pokryć koszty usuwania ścieków.

Elektrownia jądrowa Davis-Besse, USA, 2003
Jedną z amerykańskich elektrowni jądrowych zainfekowano wirusem SQL Slammer. Rozprzestrzeniał się on bardzo szybko za pośrednictwem Internetu, zarażając kolejne komputery, na których zainstalowany był program Microsoft SQL 2000. Robak najpierw zaatakował sieć firmy współpracującej z przedsiębiorstwem, które zarządzało tą elektrownią.

Następnie zainfekował sieć zakładową tego ostatniego. Ta z kolei była połączona, bez firewalla, z systemem SCADA elektrowni. Po wniknięciu tam SQL Slammer wygenerował ruch sieciowy o tak dużym natężeniu, że zablokował system, który zbierał dane m.in. z instalacji chłodzenia reaktora, czujników temperatury oraz mierników promieniowania. Był on niedostępny przez kilka godzin. Szczęśliwie podczas tych problemów reaktor był wyłączony.

CO BYŁO KOLEJNE?

Zdaniem ekspertów nie należało się też sugerować tym, że atak za pomocą Stuxnetu został wymierzony w produkty konkretnego producenta, w tym wypadku sterowniki i oprogramowanie Siemensa. Naśladowcy twórców tego wirusa za cel mogli równie dobrze przyjąć rozwiązania oferowane przez innych producentów podzespołów systemów sterowania. Jeżeli dodatkowo mutacje Stuxnetu byłyby jeszcze bardziej wyrafinowane, mogłyby wyrządzić dużo więcej szkody niż ich pierwowzór.

Jak się okazało, nie pomylono się. Wkrótce poważnym zagrożeniem dla cyberbezpieczeństwa systemów przemysłowych stał się robak Duqu. To złośliwe oprogramowanie wykryto w 2011 roku (patrz: ramka).

Pod względem struktury i koncepcji Duqu był podobny do Stuxneta - fragmenty kodu źródłowego obydwu były nawet identyczne. Nie można było jednak stwierdzić, czy twórcy Duqu byli autorami Stuxnetu, czy tylko mieli dostęp do jego kodu. Pewne było natomiast to, że nowy robak miał zupełnie inny cel niż jego poprzednik.

Zdaniem ekspertów Duqu był nakierowany głównie na pozyskiwanie danych, przede wszystkim dokumentacji projektowej, od dostawców komponentów systemów automatyki przemysłowej. Informacje w ten sposób zebrane mogły w przyszłości umożliwić cyberataki podobne do tego przeprowadzonego przy użyciu Stuxnetu. Przypuszcza się, że Duqu został m.in. użyty w 2011 roku w ataku na irańskie elektrownie jądrowe.

...po Stuxnecie

Upowszechnienie się informacji o cyberzagrożeniach czyhających na systemy przemysłowe, o których więcej zaczęto mówić po "sukcesie" Stuxnetu, bynajmniej nie onieśmieliło przestępców. Podejmowali i w dalszym ciągu podejmują oni próby przejęcia kontroli nad zakładami przemysłowymi. Dalej przedstawiamy przykłady cyberincydentów, do których doszło po 2010 roku:

Bowman Avenue Dam, USA, 2013
Irańscy hakerzy włamali się do komputera zarządzającego pracą małej zapory, która chroni przed zalaniem niewielką miejscowość pod Nowym Jorkiem. Przestępcom udało się uzyskać zdalny dostęp do tej instalacji. Na szczęście stało się to wówczas, kiedy na czas konserwacji została ona wyłączona. Dzięki temu atak nie wyrządził żadnych szkód. Uwidocznił on jednak zagrożenie, które w przypadku dużych zapór jest proporcjonalnie większe.

Korea Hydro and Nuclear Power, Korea Południowa, 2014
Włamano się do sieci zakładowej firmy, która zarządzała elektrowniami nuklearnymi w Korei Południowej. Ataku tego dokonano, wysyłając jej pracownikom e-maile z linkami. Po kliknięciu na te łącza automatycznie pobierane było złośliwe oprogramowanie. Za jego pośrednictwem przestępcy pozyskali poufne dane, m.in. plany i dokumentację techniczną dwóch reaktorów, dane pracowników i informacje o wpływie promieniowania z reaktorów na okolicznych mieszkańców.

Część tych danych hakerzy udostępnili w Internecie. Oprócz tego przestępcy próbowali szantażować zaatakowaną firmę. Najpierw żądali wyłączenia reaktorów pod groźbą ich zniszczenia, a potem domagali się pieniędzy za niepublikowanie lub nieodsprzedanie reszty nielegalnie pozyskanych informacji. Zarządzający elektrowniami nie ulegli tym żądaniom. W zamian publicznie oskarżyli o dokonanie ataku Koreę Północną, która jednak temu zaprzeczyła.

Dostawcy energii, Ukraina, 2015
Hakerzy spowodowali awarię sieci energetycznej, która dotknęła ponad 200 tys. mieszkańców Ukrainy. Przebieg ataku nie jest jeszcze dokładnie znany. Przypuszcza się jednak, że za pośrednictwem specjalnie przygotowanych e-maili z załącznikami przestępcom udało się zainfekować sieć zakładów energetycznych złośliwym oprogramowaniem, prawdopodobnie trojanem Black Energy. Następnie wykradli poufne dane i przejęli zdalną kontrolę nad wyposażeniem elektrowni, powodując przerwy w dostawach prądu. Dodatkowo zablokowali infolinie, by uniemożliwić klientom zgłaszanie awarii.

JAK SIĘ BRONIĆ?

Przykłady dotychczasowych cyberincydentów w przemyśle dowodzą pomysłowości przestępców, którzy wykorzystując m.in. ludzką nieuwagę lub ciekawość, wprowadzali do atakowanych systemów złośliwe programy za pośrednictwem nośników pamięci albo specjalnie przygotowanych linków. Ponieważ wszystkich możliwości nie da się przewidzieć, najlepszym rozwiązaniem jest wdrożenie tzw. strategii ochrony warstwowej (defense in depth).

Polega ona na stosowaniu wielu różnych poziomów zabezpieczeń. Jeśli jedna z blokad zostanie ominięta, pojawia się następna, co spowalnia lub powstrzymuje atak. Zazwyczaj stosuje się ochronę mieszaną, która łączy metody utrudniające fizyczny dostęp do chronionych zasobów i techniki programowe. Te pierwsze opiszemy w następnych rozdziałach. Przykłady zabezpieczeń informatycznych to z kolei firewalle, szyfrowanie danych i programy antywirusowe. Skutecznym rozwiązaniem jest też koncepcja tzw. białych list (whitelisting).

Jest to metoda odwrotna do tej stosowanej w programach antywirusowych, które bazują na tzw. czarnych listach znanych zagrożeń. W tym wypadku tworzony jest natomiast wykaz bezpiecznych aplikacji, a każda próba uruchomienia programu spoza tej listy traktowana jest jak atak.

Dzięki temu oprogramowanie nieautoryzowane jest automatycznie blokowane. Uważa się, że gdyby metoda białych list była stosowana powszechnie, można by zapobiec infekcji Stuxnetem, a w przyszłości skutecznie uniemożliwić także kolejne ataki typu zero day.

Jaki cel mieli twórcy Duqu?

Pod koniec 2011 roku firma Symantec otrzymała od laboratorium, które zajmuje się bezpieczeństwem systemów informatycznych na jednym z węgierskich uniwersytetów, informację o odkryciu nowego zagrożenia w europejskiej cyberprzestrzeni. Robaka nazwano Duqu, od przedrostka DQ tworzonych przez niego plików. W związku z podobieństwem do Stuxnetu uznano, że oba wirusy z dużym prawdopodobieństwem stworzyły te same osoby albo ktoś, kto miał dostęp do kodu źródłowego tego pierwszego. Po zbadaniu Duqu stwierdzono jednak, że miał on inny cel niż poprzednik.

Okazało się, że było to oprogramowanie złośliwe typu RAT (Remote Access Trojan), które za zadanie miało wykradanie informacji oraz dokumentacji technicznej dotyczącej infrastruktury oraz systemów przemysłowych i nie tylko. Ułatwiłyby one w przyszłości ataki o mechanizmie podobnym do sposobu, w jaki działał Stuxnet.

Elementy składowe
Duqu składał się z pliku sterownika, biblioteki DLL oraz pliku konfiguracyjnego. Wymagały one instalacji, podczas której plik sterownika był rejestrowany w systemie jako usługa, dzięki czemu uruchamiał się po każdym restarcie systemu. Następnie umożliwiał on rozpakowanie komponentów z biblioteki DLL, te z kolei dołączały do innych procesów uruchomionych w systemie.

Dzięki temu obecność i aktywność Duqu mogły pozostawać przez dłuższy czas niezauważone przez programy antywirusowe. Ponadto w jednej z wersji pliki wirusa miały certyfikat bezpieczeństwa podpisany prawdziwymi cyfrowymi kluczami prywatnymi, które wykradziono pewnej firmie z Tajwanu. Umożliwiało to ominięcie zabezpieczeń, które blokują pliki pochodzące z niezaufanych źródeł.

Jak atakował Duqu?
W jednym z ataków hakerzy użyli specjalnie przygotowanego e-maila z dokumentem Microsoft Word w załączniku. Zawierał on program, który wykorzystywał wcześniej nieznaną lukę bezpieczeństwa (0-day exploit), aby zainstalować Duqu. Następnie przez Internet komunikował się on z serwerami zagranicznymi. W każdym ataku korzystano z jednego albo kilku serwerów - m.in. w Indiach, Belgii oraz Wietnamie.

Skonfigurowano je tak, aby przekierowywały połączenia na inne serwery, które kierowały je na kolejne, przez co trudno było zlokalizować pierwotny, z którego kierowano atakiem. Z tego ostatniego przesyłano też dodatkowe programy szpiegujące, m.in. rejestrujące naciśnięcia klawiszy, pobierano skradzione dane oraz wysyłano i odbierano nieszkodliwe pliki wyłącznie po to, aby generować sztuczny ruch sieciowy.

Choć Duqu nie miał zdolności samopowielania się, jego rozprzestrzenianiem się na inne komputery w tej samej sieci kierowano za pośrednictwem zdalnego serwera. Robaka zaprogramowano tak, by po 30 dniach automatycznie sam usunął się z systemu. Dzięki temu, jeżeli atakujący utracili kontrolę nad zainfekowanym komputerem, na przykład w wyniku wyłączenia jednego z serwerów pośredniczących, po miesiącu wszelkie ślady zewnętrznej ingerencji były zacierane.

BIAŁE CZY CZARNE?

Ważną zaletą metody białych list jest to, że nie wymaga wcześniejszej wiedzy o zagrożeniu. Niestety występują też komplikacje hamujące jej rozpowszechnianie się, z których główna związana jest z koniecznością ciągłego aktualizowania wykazu. W związku z tym, że potrzeby oraz wymagania użytkowników w zakresie oprogramowania ciągle się zmieniają, a wiele aplikacji należy systematycznie uaktualniać, zarządzanie takim wykazem z czasem staje się wyzwaniem.

 

Prezydent Iranu Mahmoud Ahmadinejad odwiedzający zakład wzbogacania uranu w Natanz; obiekt ten był jednym z celów ataku z wykorzystaniem robaka Stuxnet

Na szczęście problem ten dotyczy w większym stopniu komputerów osobistych niż systemów sterowania i automatyki w przemyśle. W ich przypadku bowiem stosuje się zupełnie inne podejście w zakresie zmian i aktualizacji oprogramowania, rzadziej modyfikując raz skonfigurowany system. Skuteczność koncepcji białych list można dzięki temu jeszcze zwiększyć, dzieląc dany system na segmenty, dla których tworzone są niedługie i bardzo szczegółowe wykazy.

Zaleca się, aby zgodnie z zasadą ochrony warstwowej, nie rezygnować całkowicie z oprogramowania antywirusowego na rzecz metody białych list. Taka decyzja może bowiem mieć poważne konsekwencje, jeśli zanim powstanie wykaz w komputerze, zostanie zainstalowana złośliwa aplikacja, która następnie zostanie uznana za dozwoloną. Jeżeli wówczas regularnie uruchamiany będzie skaner antywirusowy, z czasem na pewno wykryje zagrożenie.

KOMUNIKACJA JEDNOKIERUNKOWA

Drugą metodą jest komunikacja jednokierunkowa, którą realizuje się na poziomie sprzętowym. Polega ona na wykorzystaniu specjalnych urządzeń (tzw. data diodes), które pozwalają na przepływ informacji w sieci tylko w jednym kierunku, tzn. bez kanału zwrotnego.

W takim układzie jedną stroną łącza jest nadajnik, ale bez odbiornika, a drugą urządzenie skonfigurowane odwrotnie. Metoda ta do tej pory była wykorzystywana głównie w systemach bezpieczeństwa w wojsku oraz w sieciach rządowych, jednak w obliczu cyberzagrożeń zainteresowanie nią coraz częściej wykazuje przemysł, a przede wszystkim energetyka, w tym nuklearna.

Łączność jednokierunkową najczęściej wdraża się w takim przypadku na styku system sterowania - sieć informatyczna przedsiębiorstwa. Ponieważ większość przemysłowych protokołów komunikacyjnych wykorzystuje łączność dwukierunkową, należy zastosować dodatkowe rozwiązania, które symulują transmisję danych w obu kierunkach.

W tym celu wykorzystuje się najczęściej specjalistyczne oprogramowanie, które symuluje przesył lub odbiór informacji w zależności od wymagań danej konfiguracji. Dzięki takiemu zabezpieczeniu personel wciąż ma dostęp do niezbędnych informacji, ale atak z zewnątrz jest znacznie utrudniony.

Na przykład Stuxnet, chociaż byłby w stanie rozpowszechnić się w tak chronionej sieci, jednak nie mógłby aktualizować się ani wysyłać danych na zewnętrzne serwery. Największą wadą tej metody jest dość duży koszt realizacji. W ramce przedstawiamy też inne zalecenia, których wdrożenie poprawia cyberbezpieczeństwo zakładów przemysłowych.

SKALA I TYPY ZAGROŻEŃ

W roku 2014 amerykańska organizacja Industrial Control Systems Cyber Emergency Response Team (ICS-CERT) została poinformowana o 245 cyberincydentach, do których doszło w USA. Większość ataków dotknęła przemysł energetyczny i produkcyjny, w tym producentów komponentów systemów sterowania. W przypadku tych ostatnich celem hakerów było szpiegostwo.

Do ICS-CERT zgłaszano różne zdarzenia. Były to m.in. te, których celem było uzyskanie nieautoryzowanego dostępu do komponentów systemów automatyki i SCADA przez Internet, ataki, które wykorzystywały luki bezpieczeństwa typu 0-day w sprzęcie i w oprogramowaniu systemów sterowania oraz incydenty, które polegały na zainfekowaniu złośliwym oprogramowaniem systemów niepodłączonych do Internetu (air-gapped). Doniesiono oprócz tego o atakach typu SQL injection wykorzystujących luki w zabezpieczeniach aplikacji internetowych i ukierunkowanych, spersonalizowanych, poprzedzonych wywiadem, atakach typu spear phishing.

Na pewno w rzeczywistości wydarzyło się więcej cyberincydentów. Nie wszystkie są jednak zgłaszane. Przyczyny tego mogą być różne. Jedną z głównych jest obawa o negatywny publiczny odbiór takiego zdarzenia i posądzenie o niekompetencję ze strony klientów i firm współpracujących z zaatakowanym przedsiębiorstwem. Organizacje takie jak m.in. ICS-CERT zachęcają jednak do tego, żeby zgłaszać wszystkie cyberincydenty. Dzięki temu sposób działania hakerów można poddać analizie, co ułatwia ochronę przed ich przyszłymi atakami.

Badania poszczególnych przypadków są przydatne przy tworzeniu norm. Przykład takiego dokumentu to globalny standard cyberbezpieczeństwa zakładów przemysłowych ISA/IEC-62443, wcześniej znany pod nazwą ISA99.

Jak zapewnić cyberbezpieczeństwo w zakładzie?

  1. Najlepiej nie dopuszczać do sytuacji, w której urządzenia w systemie sterowania i automatyki komunikują się z tymi podłączonymi do sieci korporacyjnej lub do Internetu. Uważać trzeba przy tym na połączenia pośrednie. Na przykład chociaż dane urządzenie nie jest podłączone do Internetu, ale wymienia się danymi z innymi, które łączą się z globalną siecią, staje się przez to podatne na atak. Hakerzy są zazwyczaj w stanie takie połączenie wyśledzić i wykorzystać.
  2. Warto wykonać segmentację sieci. Polega ona na podzieleniu jej zasobów, a potem ograniczeniu dostępu do poszczególnych ich grup. Dzięki temu, nawet gdy hakerzy złamią zabezpieczenia jednego węzła lub całego sektora, nie zainfekują pozostałych. Jeżeli natomiast sieć nie będzie podzielona na segmenty, włamując się do jednego urządzenia o najniższym poziomie zabezpieczeń, za jego pośrednictwem uzyskają dostęp do innych. W związku z upowszechnieniem się idei Internetu Rzeczy wiele urządzeń, wcześniej do niego niepodłączanych, zacznie z niego korzystać. Dlatego segmentacja staje się obowiązkowa. Dostęp do sektorów sieci najlepiej zabezpieczyć firewallem.
  3. Zdalny dostęp do wewnętrznych zasobów przedsiębiorstwa warto realizować w ramach sieci VPN (Virtual Private Network) z transmisją szyfrowaną.
  4. Dostęp do określonych zasobów musi być ograniczany na podstawie funkcji pracowników. Na przykład personel działu księgowości nie może mieć tych samych uprawnień, co operatorzy systemu SCADA i odwrotnie. We współpracy z działem kadr należy też aktualizować listę pracowników, aby uniknąć sytuacji, w której osoby niepowołane, na przykład zwolnione albo z firm zewnętrznych, z którymi już zakończono współpracę, wciąż mają aktywne konta użytkowników w systemie. Ponadto dzięki temu, że dostęp do niego nie jest anonimowy, można sprawdzić kto, kiedy i jakie czynności podejmował. W tym celu trzeba także monitorować ruch w sieci. Należy oprócz tego pamiętać o zmianie domyślnych haseł po zainstalowaniu nowego oprogramowania lub sprzętu. Hasła do kont użytkowników i inne ważne powinno się regularnie zmieniać.
  5. Trzeba pamiętać o regularnym pobieraniu i instalacji aktualizacji oprogramowania. Należy także śledzić informacje ogłaszane przez producentów komponentów automatyki o ostatnio wykrytych lukach bezpieczeństwa w ich produktach.
  6. Powinno się korzystać wyłącznie z programów z pewnych źródeł.
  7. Aby uniknąć zainstalowania nieautoryzowanego oprogramowania, uprawnienia do tej czynności powinna mieć tylko ograniczona liczba użytkowników. Nie ochroni to jednak przed plikami, które wystarczy skopiować do katalogu i uruchomić, bez wcześniejszej instalacji. By zabezpieczyć się przed wgraniem złośliwego oprogramowania tego rodzaju, zwykle dezaktywuje się interfejs USB i napędy CD/DVD.
  8. Nieużywane porty należy zablokować, a usługi - wyłączyć.
  9. Szkolenia personelu, które uświadomią mu zagrożenia wynikające z cyberataków i przedstawią najnowsze metody, jakie stosują hakerzy, by przeniknąć do atakowanego systemu, są koniecznością. Dotychczasowe cyberincydenty dowodzą bowiem, że w nawet najlepiej chronionym systemie najsłabszym ogniwem zawsze jest człowiek.

PO CO BRONIĆ DOSTĘPU DO MASZYN?

Rys. 1. Działanie robaka Stuxnet

System kontroli fizycznego dostępu do zasobów zakładu przemysłowego, którymi mogą być zarówno pojedyncze maszyny, jak i hale produkcyjne, laboratoria lub magazyny, składa się z wielu komponentów, sprzętowych i programowych. Ich zadaniem jest najpierw zidentyfikowanie osoby, która chce wejść do strefy chronionej albo zamierza uruchomić strzeżoną maszynę, a potem autoryzowanie jej dostępu do tego konkretnego zasobu, czyli potwierdzenie jej uprawnień do wykonania danej czynności.

Jeżeli chodzi o maszyny, to kontrolę dostępu wprowadza się zwłaszcza w przypadku tych urządzeń, od których operatorów wymaga się specjalnych kompetencji i maszyn drogich, których zniszczenia z powodu błędów nieuprawnionych użytkowników chce się uniknąć. Dotyczy to też urządzeń niebezpiecznych.

Przykłady pomieszczeń chronionych to natomiast m.in. clean roomy, tzn. sterylne sale, o kontrolowanej atmosferze, z których korzysta się m.in. w przemyśle farmaceutycznym, biomedycznym oraz produkcji elektroniki. Dostęp do nich musi być pod ścisłym nadzorem, ponieważ osoby w nich przebywające powinny zachować szczególne środki ostrożności, aby nie zanieczyścić ich, produktów w nich przechowywanych ani procesów w nich realizowanych.

Inny przykład to strefy, w których występuje zagrożenie wybuchem albo pożarem, na przykład w kopalniach, rafineriach i zakładach chemicznych. Kontrolę dostępu wprowadza się oprócz tego w laboratoriach oraz pracowniach projektowych. Wejście do nich osób niepowołanych umożliwia bowiem kradzież własności intelektualnej.

METODY IDENTYFIKACJI

Specyfika chronionego zasobu warunkuje właściwą metodę identyfikacji. Te mogą być różne. W dużym uproszczeniu użytkownik może być przez system kontroli dostępu rozpoznawany na podstawie tego, co wie, co ma albo czym jest.

To pierwsze dotyczy sytuacji, w której osoba starająca się o dostęp do danego zasobu wprowadza na klawiaturze przypisaną jej kombinację znaków, przeważnie cyfr. Wyższy poziom bezpieczeństwa zapewnia połączenie kodu z inną formą potwierdzania tożsamości. Jeśli kod jest stosowany samodzielnie, liczba wszystkich możliwych kombinacji musi być wielokrotnie większa od liczby kodów przypisanych poszczególnym użytkownikom. Unika się wtedy przypadkowego odgadnięcia właściwego zestawu znaków przez intruza.

W drugim przypadku osoba starająca się o dostęp posługuje się jakimś elementem, na przykład kluczem, którym otwiera zamek lub czymś, co zbliża lub wprowadza do czytnika. Może to być karta zbliżeniowa albo breloczek lub karta z wbudowanym tagiem RFID.

Technologia RFID od niedawna jest w przemyśle coraz popularniejsza. Do jej zalet zalicza się m.in.: brak ruchomych części w czytnikach, które przy intensywnej eksploatacji mogłyby się psuć (w odróżnieniu od zamków) oraz niski koszt znaczników. Oprócz tego, w przeciwieństwie do kart magnetycznych, które można rozmagnesować, tagi trudno zniszczyć, skopiować albo zmienić ich zawartość. W znacznikach RFID można ponadto zapisać o wiele więcej danych, które łatwo można zmieniać. W jednym znaczniku, który należy do danego operatora, można na przykład przypisać mu różne uprawnienia do obsługi różnych maszyn.

JAK BRONIĆ DOSTĘPU DO MASZYN, A JAK DO POMIESZCZEŃ?

W identyfikacji w oparciu na tym, czym użytkownik jest, wykorzystywane są natomiast jego cechy biometryczne. O ile znaczniki RFID sprawdzają się w kontroli dostępu do maszyn przemysłowych, o tyle warunki, jakie panują w środowisku produkcyjnym, nie są optymalne w przypadku skanerów biometrycznych.

Pyły, oleje, środki chemiczne i inne zanieczyszczenia przemysłowe mogą bowiem zostawiać ślady na soczewkach tych urządzeń, uniemożliwiając lub fałszując odczyt cech biometrycznych. Poza tym jest to droższa metoda kontroli dostępu. W związku z tym w przemyśle znajduje zastosowanie głównie w ochronie pomieszczeń o specjalnym przeznaczeniu.

Dalej porównujemy metody kontroli dostępu na podstawie danych biometrycznych. Przedstawiamy też cechy biometryczne, na podstawie których można jednoznacznie identyfikować ludzi.

Modernizacja systemu monitoringu wizyjnego zmniejszyła liczbę nocnych włamań

Jeden z włoskich producentów stali wiele lat temu zainstalował w swoich zakładach produkcyjnych systemy monitoringu wizyjnego z kamerami analogowymi. Za ich pośrednictwem kontrolowano pracę hut i ich otoczenie.

Problemy z nocnymi włamaniami
W ostatnich latach niestety znacznie częściej, niż wcześniej dochodziło do kradzieży, zarówno surowców do produkcji stali, jak i gotowych wyrobów. Przeglądanie wielogodzinnych nagrań na taśmach analogowych w celu analizy przebiegu tych zdarzeń i szukania winnych stawało się coraz bardziej męczące i mniej efektywne. Ponadto do wielu z tych kradzieży dochodziło w nocy. W związku ze słabą jakością obrazu wideo nagrywanego w ciemnościach albo przy słabym oświetleniu ich sprawcy bardzo często pozostawali bezkarni.

Zintegrowane zarządzanie ochroną
Dlatego zdecydowano się na unowocześnienie systemu telewizji przemysłowej. W hutach zainstalowano łącznie ponad 40 kamer IP. Systemy monitoringu w każdym zakładzie działały niezależnie. Oprócz tego istniała możliwość zdalnego dostępu do nich z centrum zarządzania w taki sposób, jak gdyby stanowiły jeden, zintegrowany system. Ułatwiało to zarządzanie pracą personelu ochrony tych obiektów. Częścią systemu monitoringu były też kamery z promiennikami podczerwieni.

Mniej włamań dzięki kamerom działającym w nocy
Kamery tego typu zamontowano na obwodzie granicy terenu hut. Dzięki temu, w połączeniu ze specjalnym oprogramowaniem do analizy obrazów w czasie rzeczywistym, stworzono system detekcji osób oraz pojazdów wkraczających na teren zakładu nielegalnie w dzień, jak i w nocy. W razie wykrycia intruza osoby odpowiedzialne za ochronę są natychmiast alarmowane. Incydenty są zapisywane i opisywane, co ułatwia ich późniejsze odszukanie i analizę.

Modernizacja systemu telewizji przemysłowej poprawiła wykrywalność sprawców włamań, szczególnie tych nocnych. Dzięki temu znacząco zmniejszyła się też ich liczba.

BIOMETRIA W KONTROLI DOSTĘPU

Dane biometryczne identyfikują każdego człowieka jednoznacznie, dzięki czemu ich zestawianie z wcześniej zapisanym wzorcem jest powszechnie stosowaną metoda kontroli dostępu. Przykładowe unikatowe cechy ludzi to: wygląd tęczówki oka, linie papilarne, geometria twarzy i geometria dłoni.

Cechy biometryczne w systemach kontroli dostępu można wykorzystywać do weryfikacji albo identyfikacji tożsamości. W pierwszym przypadku osoba, której dane trzeba potwierdzić, najpierw sama się identyfikuje, podając na przykład kod dostępu lub wkładając kartę magnetyczną do czytnika.

Następnie jej określona cecha biometryczna jest mierzona, przykładowo po przyłożeniu oka do skanera fotografuje się tęczówkę. Wówczas system sprawdza, czy jej wygląd jest zgodny z wzorcem, który w bazie danych jest przypisany danej osobie. Ta metoda jest szybsza, gdyż nie wymaga porównywania odczytów skanera z kolejnymi rekordami w bazie danych, do momentu znalezienia tego pasującego.

Takie podejście jest stosowane w drugiej metodzie. Podczas identyfikacji cechę biometryczną mierzy się nieznanemu użytkownikowi. Następnie przeszukuje się bazę danych. Jeżeli znajdzie się pasujący rekord, można ustalić jego dane osobowe. Im więcej jest użytkowników, tym dłużej trwa ich identyfikacja. Z drugiej strony w tym przypadku wymagany jest tylko skaner cechy biometrycznej, podczas gdy do weryfikacji potrzebny jest dodatkowy sprzęt, na przykład czytnik kart magnetycznych.

Kamil Wachowicz

Phoenix Contact

  • Czy krajowe firmy zwracają uwagę na bezpieczeństwo sieciowe? Jak wygląda ten rynek?

Według firmy IDC rynek rozwiązań bezpieczeństwa IT w krajach Europy Środkowej, czyli w Polsce, Rumunii, Czechach i na Węgrzech, osiągnie w 2016 roku wartość 685 mln dolarów. Sektor w naszym kraju, który w 2015 roku odnotował siedmioprocentowy wzrost wartości, będzie składał się na prawie połowę tego rynku. Obszar ten obejmuje zarówno oprogramowanie, sprzedażą urządzeń, jak też wszelkie usługi poboczne związane z bezpieczeństwem w sieci.

Niemal 60% przychodów generowanych jest dzięki sprzedaży rozwiązań zwiększających bezpieczeństwo urządzeń końcowych, co jest zasługą liderów tego segmentu. Tymi ostatnimi są firmy oferujące oprogramowanie, w przypadku których szacowany wzrost wynosi około 9%. Drugim obszarem są usługi związane z bezpieczeństwem IT, które stanowią około 40% całości - tutaj najwięcej przychodów pochodziło z usług wdrożeniowych, zarządzanych i hostingowych.

Najmniejsza część rynku to sprzedaż urządzeń - w tym przypadku odnotowano nieco ponad 25% ogólnych przychodów. Warto jednak nadmienić, że rozwiązania te stają się coraz popularniejsze przede wszystkim dzięki łatwości ich obsługi oraz instalacji. Najpopularniejsze są tu zintegrowane, wielofunkcyjne urządzenia zabezpieczające UTM, czyli Unified Threat Management. Pełnią one funkcję firewalla, systemu wykrywania włamań i antywirusa.

Warto dodać jeszcze jedną statystykę - wydatki na bezpieczeństwo IT w polskich firmach stanowią od 2,5% do 15% całkowitych kosztów IT. Są one oczywiście uzależnione od wielkości przedsiębiorstwa i rodzaju prowadzonej działalności.

  • Jaka jest funkcjonalność urządzeń UTM, które oferujecie?

Urządzenia mGuard, bo o nich mowa, są jako hardware odporne na zainfekowanie wirusami, a ich funkcjonalność wybiega daleko poza rozwiązania oparte na softwarze. Są one używane do dwóch celów - zabezpieczania w sieci (firewall) oraz komunikacji zdalnej i przesyłania danych za pomocą VPN. Przesyłanie danych jest szyfrowane, co zapewnia dodatkowe bezpieczeństwo. Oprócz zapory sieciowej mamy też do dyspozycji router oraz zarządzany switch, dzięki któremu można też kontrolować inne, podobne urządzenia w sieci. Dane można również przesyłać za pomocą światłowodu.

  • Jakie są perspektywy rozwoju rynku?

Stale rosnący rynek zabezpieczeń sieciowych jest dowodem, że firmy, obawiając się cyberataków, zabezpieczają swoje sieci, a ponad 100 tys. aplikacji z użyciem urządzeń mGuard to potwierdza. Według szacunków w bieżącym roku rynek rozwiązań dla bezpieczeństwa IT w Polsce wzrośnie o ponad 9%, a popyt ten napędzany będzie w znacznym stopniu przez inwestycje sektora publicznego i finansowego, a także te w zakresie energetyki i gazu, czyli w branży procesów ciągłych. Potencjał wzrostowy wykazuje również sektor ochrony zdrowia, gdyż organizacje wchodzące w jego skład muszą dostosować się do nowych wymogów regulacyjnych dla środowiska IT.

JAK WYBRAĆ NAJLEPSZĄ KAMERĘ PRZEMYSŁOWĄ?

Uzupełnieniem systemów kontroli dostępu są systemy monitoringu wizyjnego. Ułatwiają one identyfikowanie osób wchodzących i tych opuszczających teren zakładu, śledzenie ich dalszego przemieszczania się, sprawdzanie zajętości pomieszczeń i lokalizowanie maszyn, materiałów i innych zasobów przedsiębiorstwa. O przydatności danych rejestrowanych przez system telewizji przemysłowej decyduje przede wszystkim wybór właściwych kamer. Ułatwia go wcześniejsze znalezienie odpowiedzi na kilka podstawowych pytań.

Jednym z nich jest określenie miejsca montażu kamer. Jeżeli będą pracować na zewnątrz budynku, należy wybrać modele wzmocnione, odporne na działania wandali i różne warunki otoczenia, głównie temperaturę (kamery, które mogą działać w bardzo szerokim zakresie temperatur, wyposaża się w grzałki i wentylatory), oraz sprawdzić klasę wodoszczelności. Jeśli kamery będą używane w warunkach silnego zapylenia, wewnątrz i na zewnątrz, ważny jest także stopień pyłoszczelności obudowy.

Czasami przydatna jest możliwość ukrycia przed obserwowanymi osobami kierunku, w jakim w danej chwili zwrócony jest obiektyw kamery. Jest to możliwe w przypadku kamer kopułowych. Ten typ kamer jest także często stosowany wewnątrz pomieszczeń ze względu na walory estetyczne, a na zewnątrz - dzięki wykonaniu wandaloodpornemu.

Rozważyć trzeba też parametry kamer. Jednym z nich jest pole widzenia. Jest to miara tego, jak duży obszar można zobaczyć "okiem" kamery. Jego powierzchnia zależy od ogniskowej soczewki. Im krótsza jest ta ostatnia, tym większe pole widzenia kamery i odwrotnie, im dłuższa jest ogniskowa, tym pole widzenia jest mniejsze.

Kolejnym ważnym parametrem jest rozdzielczość kamery. Jest ona miarą zdolności do rozróżnienia szczegółów na obrazie. Im jest większa, tym lepsza jest jakość obrazu. Można na nim dostrzec wówczas takie detale, jak rysy twarzy lub numery rejestracyjne. Trzeba przy tym pamiętać, że obrazy o dużej rozdzielczości są przechowywane w plikach o dużych rozmiarach. Następną kwestią jest możliwość rejestrowania obrazu przy braku naturalnego światła, czyli w nocy.

DYSKRETNY MONITORING

Można to zrealizować na jeden z dwóch sposobów. Pierwszy z nich polega na zamontowaniu dodatkowych lamp albo/i reflektorów, które oświetlą monitorowane obiekty. Użycie źródeł światła widzialnego pozwala na uzyskanie obrazu kolorowego. Poza tym ten sposób ma jednak kilka bardzo istotnych wad.

Po pierwsze dodatkowe odbiorniki prądu zwiększają jego zużycie, a zatem i koszty utrzymania obiektu, tym bardziej, im rozleglejszy jest teren objęty nadzorem. Dodatkowe oświetlenie wymaga również nadzoru, konserwacji, napraw i okresowej wymiany podzespołów. Zadania te angażują personel i generują kolejne wydatki.

Najważniejsze jest jednak to, że zamontowanie źródeł światła widzialnego uwidacznia kamery, a przez to zdradza, że miejsce to jest pod obserwacją. Wandale, złodzieje i inne osoby, które nie chcą się znaleźć w zasięgu kamery, mogą dzięki temu bardzo łatwo ominąć oświetlone, a tym samym kontrolowane, części obiektu.

Jeśli skuteczność ochrony zależy od tego, jak dobrze uda się ukryć to, że obiekt jest monitorowany albo po prostu wymagana jest w tej kwestii jak największa dyskrecja, lepiej jest zainwestować w kamery wyposażone w oświetlacz, który emituje promieniowanie o długości fali w zakresie podczerwieni (IR). Można również zbudować system monitoringu wykorzystujący kamery i oddzielne reflektory podczerwieni. Promienniki IR zwykle włączają się automatycznie po zapadnięciu zmroku, kiedy kamera przełącza się w tryb nocny, czarno-biały.

FUNKCJE OPROGRAMOWANIA

Tematy numerów w najbliższym kwartale

Przydatne są także różne funkcje, które poprawiają jakość obrazu, na przykład redukują szumy w obrazie spowodowane ruchem kamery i wyostrzają go, niwelując tym samym wpływ na przykład zmian oświetlenia lub silnego podświetlenia obiektu obserwacji.

Na użyteczność obrazów rejestrowanych przez system telewizji przemysłowej ma oprócz tego wpływ oprogramowanie używane do obsługi kamer. Ważne jest m.in. to, z ilu kamer jednocześnie można za jego pośrednictwem obserwować obrazy, jakie rozwiązania zastosowano, żeby ograniczyć ilość miejsca zajmowanego na dysku przez zapisywane materiały (na przykład różne techniki kompresji, włączanie nagrywania tylko wtedy, kiedy zostanie wykryty jakiś ruch, automatyczne usuwanie najstarszych nagrań) i aby opisać obraz (znaczniki czasowe, możliwość dodania opisu przez operatora). Przydatne opcje to również możliwość wykonania stop-klatki i przybliżenia obrazu (zoom), nawet jeśli kamera nie ma takiej funkcji.

Monika Jaworowska

Zapytania ofertowe
Unikalny branżowy system komunikacji B2B Znajdź produkty i usługi, których potrzebujesz Katalog ponad 7000 firm i 60 tys. produktów
Dowiedz się więcej
Przejdź do kompendium

Prezentacje firmowe

Zobacz również