DWA ŚWIATY
Położenie obiektu w przestrzeni opisuje się, podając współrzędne wybranego punktu obiektu w układzie współrzędnych prostokątnych oraz kąty, określające orientację obiektu. W sterowaniu robotem wykorzystuje się natomiast zbiór wartości liniowych i kątowych przemieszczeń jego przegubów, które pozwalają uzyskać określoną pozycję końcówki manipulatora. By sterować ruchem robota na podstawie informacji o położeniu obiektu, konieczna jest więc transformacja współrzędnych między jednym a drugim układem odniesienia,co polega na rozwiązaniu tzw. zagadnienia kinematyki odwrotnej. W przypadku gdy położenie obiektu jest wyznaczane na podstawie informacji wizyjnej, niezbędne są dodatkowe mechanizmy pozwalające odnieść obraz z kamery do aktualnego położenia końcówki manipulatora.
W tym zakresie stosuje się różne rozwiązania. Sygnał błędu można wyznaczyć np. na podstawie parametrów obrazu. Innym rozwiązaniem jest wstępna lokalizacja obiektu w zarejestrowanym obrazie, wyznaczenie jego pozycji w trójwymiarowym układzie współrzędnych, w którym pracuje robot i obliczenie różnicy między aktualnym położeniem obiektu i manipulatora. W przypadku ruchomej kamery zamontowanej na końcówce efektora robota lub innej jego części, ważne jest też precyzyjne określenie pozycji kamery. Jest to realizowane w trakcie tzw. kalibracji kamera–robot. Jeżeli nie zostanie ona przeprowadzona wystarczająco precyzyjnie, to maleje też dokładność całego systemu.
Uprawa pieczarekChociaż roboty coraz częściej wyręczają ludzi w zadaniach przemysłowych, jak do tej pory nie zyskały większej popularności w rolnictwie i ogrodnictwie. Wkrótce może się to zmienić, o czym świadczą badania prowadzone np. na uniwersytecie w Warwick w Wielkiej Brytanii, gdzie naukowcy próbują wykorzystać połączenie robotów z systemem wizyjnym w selekcji pieczarek na podstawie ich rozmiaru i jakości. Na wstępie zadaniem systemu wizyjnego jest określenie położenia każdego grzyba – informacja ta jest przesyłana do sterownika robota, który mierzy wysokość pieczarki, wykorzystując czujnik laserowy. Jeżeli grzyb spełnia zadane kryteria, jest zrywany za pomocą manipulatora wyposażonego w przyssawkę. Jak do tej pory głównym wyzwaniem dla naukowców pozostaje zwiększenie szybkości pracy robotów, tak by stała się ona porównywalna z możliwościami człowieka. Wówczas możliwa będzie automatyzacja angielskich farm pieczarek, co zwiększy ich konkurencyjność na unijnym rynku, gdzie ze względu na wysokie koszty pracy tracą one w starciu z producentami z takich krajów jak Polska, Holandia lub Irlandia. |
SYSTEMY WIZYJNE RÓŻNYCH DOSTAWCÓW
Oprogramowanie wspomagające integrację robotów z systemami wizyjnymi, jak również elementy systemów wizyjnych można znaleźć w ofercie praktycznie wszystkich znaczących producentów robotów przemysłowych. Na przykład firma ABB oferuje w tym zakresie system wizyjny PickMaster 3, przeznaczony do wykorzystania w ramach zrobotyzowanych stanowisk sortowania, pakowania i manipulowanie detalami oraz aplikację PickMaster5, która jest szczególnie polecana do obsługi paletyzacji.
Oprócz tego w ofercie ABB można też znaleźć kompletny system VGR (Vision Guided Robotics) pod nazwą TrueView, który współpracuje ze wszystkimi robotami produkcji ABB i obejmuje sprzęt wizyjny oraz specjalistyczne oprogramowanie eVisionFactory (eVF). Rozwiązania tego typu ma w swojej ofercie również firma Kawasaki. Firma ASTOR, dystrybutor jej robotów, oferuje otwarty system wizyjny K-Vision, który można optymalizować do potrzeb aplikacji. Oprogramowanie umożliwia zastosowanie kamer wizyjnych dowolnych producentów (więcej informacji w artykule „Systemy wizyjne we współpracy z robotami Kawasaki” w bieżącym numerze).
Case study: przemysł motoryzacyjnyZakładanie nakrętek mocujących koło do piasty jest pozornie jedną z najprostszych czynności w trakcie montażu pojazdu, jednak okazuje się, że w praktyce najtrudniej proces ten zautomatyzować, a bez wykorzystania systemu wizyjnego jest to wręcz niemożliwe. Aby robot mógł ustawić wkrętak w odpowiedniej pozycji, musi precyzyjnie zlokalizować poszczególne nakrętki. Jest to utrudnione m.in. dlatego, że zanim pojazd dotrze do stanowiska robota, koła na piaście mogą się obracać wokół własnej osi, a nawet nieznacznie przesuwać na boki. Zmienne jest też ustawienie kolejnych samochodów na linii montażowej. Dodatkowo w ramach jednej linii montażowej mogą być budowane różne modele pojazdów, z rozmaitymi typami kół, co dodatkowo należy wziąć pod uwagę. Wszystkie te kwestie sprawiają, że jedynym rozwiązaniem jest wizyjne sterowanie robotem. Można w tym celu wykorzystać np. system wizyjny Cognex In-Sight 5403, tak jak w aplikacji wykonanej przez firmę Radix Controls. Oprogramowanie wchodzące w skład tego systemu wykorzystuje algorytm dopasowania wzorca, który pozwala zlokalizować koło w zarejestrowanym obrazie. Następnie system wyszukuje środek osi koła i dalej, w oparciu o m.in. algorytm detekcji krawędzi oraz fotografie obiektu robione pod różnymi kątami, określa kąt obrotu koła oraz jego nachylenie. Informacja o położeniu koła jest dalej przesyłana do sterownika robota, który na tej podstawie odpowiednio ustawia wkrętak. System można też zaprogramować do rozpoznawania różnych obiektów, dzięki czemu personel może na bieżąco zmieniać ustawienia całego systemu w przypadku zmiany typu kół. |
PRZYKŁADOWE MOŻLIWOŚCI
Innym przykładem jest system wizyjny dla robotyki iRVision firmy Fanuc dostępny wraz z kamerą oraz skanerem laserowym podłączanymi bezpośrednio do kontrolera robotów R-30iA, dzięki czemu nie jest wymagany dodatkowy komputer. Produkt ten wykorzystamy do omówienia cech rozwiązania tego typu. W systemie iRVision dostępne są m.in. następujące funkcje:
- 2D Single View, czyli rejestracja obrazów 2D nieruchomych detali,
- 2D MultiView, czyli lokalizacja obiektu na podstawie złożenia obrazów dwuwymiarowych z kilku kamer w jeden obraz 2D, co zapewnia większą precyzję,
- depaletyzacja 2,5D, czyli wyznaczanie wysokości palety na podstawie informacji o rozmiarze elementu na szczycie stosu,
- śledzenie detali na ruchomej taśmie przenośnikowej,
- funkcja pozwalająca ocenić, jak zmieniło się ułożenie detalu w momencie podniesienia przez chwytak, dzięki czemu robot, układając detal, może skorygować to przesunięcie.
W zakresie przetwarzania obrazu w iRVision stosowany jest głównie algorytm dopasowania wzorca (geometric pattern matchinmg). Dostępne są takie funkcje jak: detekcja nieregularnych kształtów, pomiar odległości między dwoma krawędziami, opcja histogramu, znajdująca zastosowanie np. w kontroli jakości powierzchni oraz ustalanie pozycji obiektu na podstawie cech charakterystycznych, takich jak otwory i rowki.
Oprócz tego możliwych jest kilka sposobów kalibracji. Najprostsza jest kalibracja dwupunktowa, w której użytkownik wybiera punkty w polu widzenia kamery jednakowo od niej oddalone i wprowadza do systemu ich rzeczywistą odległość, wykorzystywaną w dalszych obliczeniach jako punkt odniesienia. Innym rozwiązaniem jest plansza kalibracyjna w postaci siatki kółek, która jest umieszczana na płaskiej powierzchni w polu widzenia kamery. Ta metoda pozwala jednocześnie skorygować błędy perspektywy. Dostępna jest też opcja tzw. automatycznej kalibracji kamera–robot. Polega ona na rejestracji obrazów w trakcie ruchu ramienia robota przy różnych jego ustawieniach. Kalibracja automatyczna jest szybka i nie wymaga żadnych dodatkowych elementów. Dzięki temu może być uruchamiana wielokrotnie w czasie pracy systemu np. w przypadku, gdy kamera jest narażona na wibracje.