• Nie Znaleziono Wyników

Dopasowywanie chmur punktów na podstawie deskryptorów

W dokumencie W POLITECHNIKA POZNAŃSKA (Stron 27-36)

2. Analiza stanu wiedzy

2.4. Dopasowywanie chmur punktów na podstawie deskryptorów

2.4.1 Podstawy

Deskryptorem w niniejszej pracy nazywany jest wektor K liczb reprezentujący cechy wyznaczonej porcji danych. Istotą algorytmu generującego deskryptory jest nadawanie zbliżonej wartości wektora punktom danych podobnym do siebie (np. dwóm punktom stanowiącym wierzchołki sześcianu) oraz wartości istotnie różnej punktom odmiennym (np. punktowi stanowiącemu wierzchołek i punktowi znajdującemu się na płaszczyźnie walca). Odległość d pomiędzy deskryptorami o wymiarze K to długość wektora stanowiącego różnice pomiędzy deskryptorami w dowolnej metryce, np. euklidesowej:

d ( y1, y2)=‖y2y1‖=

i =1K (y2 iy1 i)2 (2.1)

Algorytm generowania deskryptorów lokalnych reprezentowany jest przez funkcję f :ℝN×3→ℝN ×K przekształcającą zbiór N punktów X={P1,P2,... Pn}, P∈ℝ3na zbiór deskryptorów Y ={ y1,y2,... yn}, y ∈ℝK . Funkcja f nie przekształca każdego punktu niezależnie, ale uwzględnia również relacje sąsiedztwa z innymi punktami, to znaczy przy generowaniu deskryptora yi, uwzględniane są wszystkie punkty należące do sąsiedztwa punktu P o promieniu r, gdzie sąsiedztwo jest definiowane jakoN ={Pi:‖PiP‖≤r } . Deskryptory lokalne mogą następnie posłużyć do rozwiązania zadania segmentacji, to znaczy przypisania do każdego z punktów prawdopodobieństwa przynależności do zadanych klas lub do wyznaczania położenia modelu w chmurze punktów sceny poprzez porównywanie deskryptorów.

Metody generujące wektory globalne generują jeden wektor cech dla całej chmury punktów.

Zakładając, że ϕ oznacza funkcję generowania deskryptora globalnego, ϕ:ℝN ×3→ℝK , taką że dla wejściowej chmury punktów X ∈ℝ3×N, funkcja ϕ(X )∈ℝK generuje jeden wektor o wymiarze K, będący deskryptorem globalnym. Deskryptor taki może służyć do klasyfikacji reprezentacji, czyli określania przynależności chmury punktów do jednej z zakładanych klas.

Metody generowania deskryptorów opisane w rozdziale 2.4 są definiowane ręcznie na podstawie intuicji i eksperymentów badaczy. Nie są optymalizowane, ani modyfikowane do stosowania z konkretnym typem danych. Przeciwieństwem są algorytmy przedstawione w rozdziale 2.5.

Początkowo nie zawierają one żadnej wiedzy o przetwarzanych danych, nie wymagają od programisty intuicji i implementacji metod dostosowanych do kluczowych parametrów

przetwarzanych danych geometrycznych. Cała ta wiedza jest zdobywana przez algorytm na etapie uczenia, to jest przetwarzania zbioru danych trenujących i optymalizacji parametrów sieci, które aktualizują się automatycznie w taki sposób, aby jak najlepiej realizować powierzone zadanie.

Głównym problemem rozważanym w pracy jest wyznaczanie 6-wymiarowej pozycji zbioru znanych obiektów w chmurach punktów pozyskanych z kamer 3D lub skanerów laserowych.

Pozycja obiektu, odbiera 6 stopni swobody, 3 przesunięcia i 3 obroty względem osi trójwymiarowego układu współrzędnych. W niniejszej pracy, dla uproszczenia przekształceń, pozycja obiektu jest reprezentowana, jako macierz transformacji T ∈SE(3) , składającej się z obrotu R∈SO(3) i przesunięcia t ∈ℝ3, T=[R∣t ] . Pozycja jest szacowana na podstawie odczytów z kamer, dlatego pozycje generowane przez algorytmy są zdefiniowane w układzie współrzędnych kamery. W rozdziale 4 przedstawiono techniki przekształceń układów współrzędnych i integracji wyników opracowanych metod z układami współrzędnych robotów przemysłowych.

Wynikiem algorytmu dopasowania jest transformacja T, która przenosi chmurę punktów modelu XMw pobliże chmury sceny XS, co jest realizowane przez minimalizację funkcji L, sumy

odległości pomiędzy punktami modelu, a najbliższym punktem sceny.

L=

i=1 NM

min‖T⋅PMiPS‖ (2.2)

Miarą jakości dopasowania F jest udział punktów modelu, które znajdują się w odległości mniejszej od zadanego progu rFdo najbliższego punktu sceny.

F=|{PM:min‖PM−PS‖<rF}|

NM (2.3)

W przypadku wyznaczania pozycji wielu modeli do wielu scen dla których znane są prawidłowe wartości transformacji, używa się zbiorczej miary jakości, wskaźnika sukcesu Sr. Oznacza on stosunek liczby właściwie dopasowanych chmur, to znaczy takich, dla których wyznaczona transformacja Tpr=[Rprtpr]różni się od transformacji prawdziwej Tgt=[Rgt∣tgt]o mniej niż zadane progi Δ RT, Δ tT, do liczby wystąpień modeli w scenach.

2.4.2 Dopasowywanie zgrubne i dokładne

Algorytm RANSAC (ang. Random Sample Consensus) [35] jest popularnym narzędziem w wielu zagadnieniach wizji komputerowej, przede wszystkim ze względu na zdolność do pracy na danych zawierających błędy wynikające z niedoskonałości urządzeń pomiarowych i algorytmów wstępnego przetwarzania. Ściślej, RANSAC jest techniką szacowania parametrów modelu, tolerującą punkty odstające. Jednocześnie z relacją opisującą dane, wyznaczana jest klasyfikacja próbek na pasujące do wyznaczonej zależności i na punkty odstające. Technika ta jest stosowana do wyznaczania zależności pomiędzy zmiennymi, może stanowić odporny na zakłócenia odpowiednik regresji liniowej, służyć do wykrywania linii i kół na obrazach oraz do szukania zależności pomiędzy deskryptorami zarówno na obrazach płaskich, jak i w trójwymiarowych chmurach punktów.

RANSAC działa na zasadzie iteracyjnego generowania i testowania hipotez. W losowy sposób wybiera się minimalny zbiór danych wejściowych i na podstawie tych danych określa się parametry modelu. Na przykład dla zadania dopasowania prostej do zbioru punktów minimalnym zbiorem dla którego można wyznaczyć model są dwa punkty. Następnie model jest oceniany na całym zbiorze danych wejściowych, wyznaczana jest liczba punktów pasujących do modelu i punktów odstających. Ocena ta jest oparta na wartości progowej, np. odległości punktu od modelu prostej.

Jeżeli odległość rozpatrywanego punktu jest mniejsza od progu, zaliczany jest on do punktów przystających do modelu. Pętla generowania i sprawdzania hipotezy jest następnie powtarzana, aż do momentu, gdy prawdopodobieństwo znalezienia lepszego rozwiązania spadnie poniżej założonej wartości, osiągnięta zostanie zakładana liczba iteracji lub udział punktów pasujących do modelu będzie wystarczający.

Głównym problemem wynikającym z zastosowania algorytmu RANSAC jest jego iteracyjna i losowa natura [36]. Liczba wymaganych iteracji rośnie wykładniczo wraz ze wzrostem liczby próbek, a to przekłada się na długie czasy obliczeń. W związku z tymi ograniczeniami, zaproponowano wiele rozwiązań, które mają na celu przyspieszenie obliczeń, niektóre opierają się na optymalizacji procesu weryfikacji, inne proponują nowe, lepsze niż losowe strategie wyboru próbki do wygenerowania hipotezy. Poza tym, omawiana technika wielu, niezależnych iteracji na tych samych danych w naturalny sposób nadaje się do implementacji równoległej, korzystającej z wielordzeniowych architektur współczesnych procesorów i kart graficznych.

W MLESAC [37] wprowadzono funkcję oceniającą jakość wygenerowanej hipotezy o zależności pomiędzy parą punktów i jeszcze przed oceną udziału punktów przystających, wybiera się hipotezę maksymalizującą prawdopodobieństwo prawidłowości rozwiązania. Podejście to

pozwoliło zmniejszyć liczbę iteracji wymaganych do osiągnięcia zadowalającego rozwiązania i tym samym skrócić czas obliczeń. Podobna postawa została zastosowana w PROSAC [38], gdzie relacje pomiędzy punktami dopasowywanymi w dwóch chmurach są oceniane i losowanie minimalnego zbioru do wygenerowanego zbioru odbywa się z najbardziej obiecujących par. Połączenie i wybór optymalnych strategii generowania hipotez i ich uproszczonej weryfikacji przedstawiono w [39].

Techniki sprowadzania obliczeń do formy równoległej, wykonywanej współbieżnie na wielu rdzeniach procesora lub jednostkach obliczeniowych karty graficznej przedstawiono w [40].

Bardzo prostym krokiem, znacznie przyspieszającym realizację algorytmu RANSAC jest wstępne odrzucanie zależności wynikających z podobieństwa deskryptorów na podstawie odległości pomiędzy punktami. Pomysł ten zaprezentowano w [41] i został później zaimplementowany w bibliotekach programistycznych, a także używany w niniejszej pracy. Dla grupy punktów stanowiących podstawę do wysunięcia hipotezy oblicza się odległości pomiędzy punktami zarówno w chmurze źródłowej, jak i docelowej. Transformacja polegająca na przesunięciu i obrocie trójwymiarowej chmury punktów nie zmienia odległości pomiędzy punktami, dlatego przy idealnym dopasowaniu, uzyskana byłaby zerowa różnica odległości pomiędzy punktami. Jeżeli odległości pomiędzy punktami różnią się, to znaczy, że zależności są nieprawidłowe, a hipotezę można odrzucić. Dzieje się to jeszcze przed kosztownym obliczeniowo sprawdzaniem odległości pomiędzy chmurami punktów, dlatego znacznie skraca się czas obliczeń.

Oczywiście w rzeczywistych danych, szum w położeniu punktów może powodować różnice w odległościach pomiędzy parami odpowiadających sobie punktów, dlatego konieczne jest ustalenie progu tolerancji. Na przykład jeżeli maksymalna odległość pomiędzy odpowiadającymi sobie punktami w chmurze źródłowej nie różni się o więcej niż o 10% od odległości pomiędzy punktami w chmurze docelowej, to nie powinno być to podstawą do wstępnego odrzucenia przykładu i należy zweryfikować hipotezę obliczając odległości pomiędzy wszystkimi punktami chmury. Podobne podejście zastosowano w [30], gdzie jako kolejne kryterium do szybkiego odrzucania hipotez zastosowano zgodność kierunków normalnych w punktach stanowiących podstawę do wygenerowania hipotezy. Jeżeli kąt pomiędzy kierunkami normalnymi pary punktów wynosi więcej niż 30°, to hipoteza jest odrzucana i nie jest obliczana odległość między chmurami.

Nawet z zabiegami zwiększającymi efektywność dopasowania algorytmem RANSAC, ogólna zasada działania wciąż sprawia, że duża część obliczeń nie przyczynia się wprost do poprawy rezultatu. Opracowano więc metody, które w każdej iteracji poprawiają istniejące rozwiązanie, a nie generują nowe hipotezy od nowa. Przykładem jest algorytm FGR (ang. Fast Global Registration), który wprowadzono w [42]. Polega ona na jednorazowym wygenerowaniu połączeń pomiędzy

najbliższymi sobie deskryptorami i obliczenie na tej podstawie transformacji, którą przetwarzana jest dopasowywana chmura punktów. Oczywiście część deskryptorów będzie wadliwie dopasowana, więc rozwiązanie będzie obarczone błędem. W następnym kroku wybierane są dopasowania obarczone największym błędem (odległość pomiędzy punktami w przestrzeni jest największa) i usuwa się je ze zbioru, na podstawie którego generowana jest transformacja.

Czynności te powtarza się do uzyskania zadowalających rezultatów. Metoda ta wykonuje w jednym kroku zgrubne dopasowanie i iteracyjną korektę, dlatego nie ma potrzeby stosować dalszych kroków dokładnego dopasowywania, jak ma to miejsce w przypadku algorytmów typu RANSAC.

Podejmowane są również próby mające na celu zastąpienie ręczne definiowanych algorytmów dopasowujących chmury punktów na podstawie deskryptorów sieciami neuronowymi. Sieć neuronowa 3DRegNet [43] przyjmuje na wejściu pary odpowiadających sobie punktów, dlatego wymagane jest wstępne wyznaczenie par, na przykład przez wyszukiwanie najbliższych sąsiadów pomiędzy chmurą źródłową, a docelową w przestrzeni deskryptorów. Sieć przetwarza zależności i klasyfikuje je jako przystające lub odstające, a także zwraca wynikowe przesunięcie i obrót chmury. Obiecująca dokładność dopasowywania i przetwarzanie w jednym kroku, bez iteracji, na karcie graficznej sprawiają, że wkrótce metody oparte na technikach uczenia maszynowego mogą zastąpić stosowane obecnie algorytmy.

ICP (ang. Iterative Closest Point) [44] jest najczęściej używanym algorytmem do dopasowania trójwymiarowych kształtów bazującym na geometrii i ewentualnie na kolorze reprezentacji.

Algorytm ten wymaga dwóch chmur punktów i wstępnego przypuszczenia o ich wzajemnym położeniu. Zbyt odległe wstępne dopasowanie prowadzi do nieprawidłowych wyników algorytmu.

W przypadku zastosowań, gdy dopasowywane są dane przestrzenne pobierane ze skanera w czasie rzeczywistym, ruch pomiędzy kolejnymi ekspozycjami jest na tyle mały, że możliwe jest dopasowanie przy założeniu macierzy jednostkowej jako wstępnej transformacji. Działanie algorytmu polega na powtarzającym się generowaniu par odpowiadających sobie punktów na obu reprezentacjach i minimalizowaniu ich odległości. Punkty, dla których będą szukane zależności wybierane są przez próbkowanie równomierne lub losowe. Dla każdego wybranego punktu z jednego zbioru, wybierany jest najbliższy sąsiad w drugiej reprezentacji. Każdej parze przypisywana jest waga, wyliczona na podstawie odległości pomiędzy punktami lub zgodności kierunków normalnych. Część par może zostać po tym kroku całkowicie odrzucona, co zapobiega wadliwym wynikom spowodowanym punktami odstającymi. Na podstawie odległości pomiędzy punktami obliczana jest odległość pomiędzy reprezentacjami. Może być to suma odległości pomiędzy punktami lub odległość punktu do lokalnej płaszczyzny opartej na wybranym sąsiedzie i

jego wektorze normalnym. Odległość stanowiąca błąd jest później minimalizowana, np. metodą najmniejszych kwadratów i na podstawie wygenerowanej transformacji, siatki są do siebie zbliżane.

W każdym z etapów możliwe jest zastosowanie wielu podejść, dlatego w literaturze można spotkać cały szereg wariantów metody ICP.

2.4.3 Deskryptory globalne

Zadanie klasyfikacji obiektów opiera się na obliczaniu podobieństwa reprezentacji do uogólnionego modelu. Między innymi w tym przypadku wystarczające jest zastosowanie deskryptora globalnego, który jest wynikiem przekształcenia geometrii. Deskryptor globalny to jeden wektor cech, który powinien umożliwić pomiar podobieństwa pomiędzy kształtami. Główną zaletą tego podejścia jest prostota. Obliczany jest tylko jeden deskryptor dla całego kształtu, nie jest wymagane szukanie zależności pomiędzy wieloma deskryptorami, jak ma to miejsce w przypadku metod lokalnych. Funkcja kształtu, która przekształca dowolny model trójwymiarowy w wektor cech powinna posiadać szereg właściwości. Najważniejsza jest zdolność do różnicowania, czyli wrażliwość funkcji na zmiany kształtu przetwarzanego obiektu. Z drugiej strony konieczna jest odporność funkcji na szum, punkty odstające i inne zmiany wynikające z niedoskonałości urządzeń pomiarowych. Deskryptor globalny wygenerowany przez funkcję kształtu powinien charakteryzować się niezmiennością względem przekształceń geometrycznych obiektu, czyli przesunięcie i obrót. Niektóre deskryptory są również odporne na zmianę skali i odbicia lustrzane.

Istotę porównywania podobieństwa kształtów przy pomocy deskryptorów globalnych przedstawiono na rys. 2.7.

Miarą odmienności modeli 3D jest długość różnicy wektorów w normie L1 lub L2. Dla deskryptorów będących histogramami cech geometrycznych stosować można również metrykę Bhattacharyya lub Wassersteina, jak również stosować techniki dopasowywania krzywych zarówno

Rys. 2.7. Porównywanie modeli 3D na podstawie jednego globalnego deskryptora

dla funkcji gęstości prawdopodobieństwa jak i dla dystrybuanty. Klasyfikacja modelu może polegać na znalezieniu najbliższego sąsiada w przestrzeni deskryptorów w bazie danych lub na porównywaniu odległości do uśrednionego deskryptora dla całej klasy obiektów. Innym podejściem jest zastosowanie gotowej, uniwersalnej implementacji klasyfikatora, jak maszyny wektorów nośnych lub drzew decyzyjnych z modelem zwiększania gradientu, zakładające, że dostępna baza zawiera więcej niż kilka obiektów reprezentujących każdą z klas.

Kształty mogą być opisane jako histogramy lub zbiory cech opartych o kierunki wektorów normalnych i krzywiznę powierzchni [45]. Stosuje się też modele oparte na odległościach, kątach, powierzchniach trójkątów i objętościach czworościanów [46] dla losowo wybranych punktów na powierzchni obiektu. Wektor cech jest w tym przypadku histogramem wartości dla określonej liczby prób.

Wartość globalnego deskryptora obiektu powinna być niezależna od jego położenia kątowego.

W publikacji [47] zwrócono uwagę na ten problem i zaproponowano algorytm, który oblicza cechy przekształcając model do postaci funkcji sferycznej, którą można rozbić do składowych harmonicznych. Deskryptorem jest macierz o wymiarze 64 × 64, której kierunkami jest promień i częstotliwość, a wartościami są sumy składowych harmonicznych dla danej kombinacji.

Alternatywnym sposobem zapewnienia niewrażliwości deskryptora na obroty jest wstępne przekształcenie chmury punktów do postaci normalnej, na przykład przez obliczenie kierunków głównych, przesunięcie centroidy chmury do początku układu współrzędnych i obrót sprawiający, że kierunki główne będą zgodne z kierunkami układu współrzędnych. W pracy [47] wykazano jednak ograniczenia tego rozwiązania. Jest to wciąż ważny i nierozwiązany problem, gdyż nawet nowoczesne metody, oparte o techniki uczenia, jak zaproponowana w niniejszej rozprawie, generują deskryptory, które nie są wewnętrznie odporne na obroty, natomiast podejście ze sprowadzeniem modelu do postaci normalnej często nie jest skuteczne.

2.4.4 Deskryptory lokalne

Standardowym podejściem przy rozpoznawaniu obiektów jest obliczenie atrybutów punktu danych w niewielkim otoczeniu, czyli deskryptora lokalnego. Następnie określane jest podobieństwo tych fragmentów, które może służyć do klasyfikacji obiektu lub być podstawą do szukania zależności na podstawie których można zlokalizować obiekt na zdjęciu lub w chmurze punktów.

Ręcznie definiowane deskryptory opierają się na z góry zdefiniowanym algorytmie, mającym jak najlepiej opisywać lokalną geometrię trójwymiarowych obiektów. Wszystkie deskryptory analizują

otoczenie punktu. Na jego podstawie, dla każdego punktu generując wektor będący histogramem właściwości, takich jak kąty pomiędzy kierunkiem normalnym do powierzchni w analizowanym punkcie i kierunkami normalnymi w punktach otoczenia. Deskryptory różnią się sposobem ustalania układów współrzędnych i wyborem otoczenia. Powinny być niewrażliwe na sztywne transformacje chmury punktów, to jest przesunięcia i obroty, a także na zmianę gęstości punktów i losowy szum.

Wszystkie metody oparte na deskryptorach zakładają istnienie charakterystycznych punktów, które będą wyróżniać się z grupy swoimi cechami geometrycznymi. W przypadku bardzo prostych scen z przewagą płaszczyzn lub dla obiektów o swobodnych płaszczyznach o niewielkiej krzywiźnie, takie założenie bywa fałszywe. Dla tych przypadków sprawdza się przeszukiwanie potencjalnych zależności pomiędzy punktami metodą siłową [48] lub upraszczanie obiektów do postaci podstawowych kształtów, jak płaszczyzny, walce, stożki i torusy [49].

Pierwszym algorytmem, który uzyskał dużą popularność w zakresie dopasowywania trójwymiarowych chmur punktów jest metoda generowania Spin Images [50]. W metodzie tej dla każdego punktu obliczany jest kierunek normalny do lokalnej płaszczyzny wyznaczonej na podstawie położenia najbliższych sąsiadów. Kierunek normalny jest podstawą dla lokalnego układu współrzędnych. Wyznaczone są dwa kierunki, osiowy, zgodny z kierunkiem normalnym i prostopadły promieniowy. Generowany jest obrotowy obraz (ang. Spin Image), będący właściwie dwuwymiarowym histogramem, który określa gęstość punktów chmury rzutowanych na płaszczyznę lokalnego układu współrzędnych. W celu ograniczenia wymiarów deskryptora, rozdzielczość histogramu jest mniejsza niż rozdzielczość rozpatrywanej chmury punktów.

Szybki histogram cech punktów (ang. Fast Point Feature Histograms, FPFH) [51] jest obecnie prawdopodobnie najpopularniejszym ręcznie definiowanym deskryptorem lokalnym geometrii 3D.

Stanowi podstawę do porównywania wszystkich nowych algorytmów. Popularność wynika ze skuteczności i wbudowania w najbardziej rozpowszechnioną bibliotekę programistyczną wspierającą przetwarzanie chmur punktów, czyli PCL [52]. Dla każdego punktu w zadanym promieniu poszukiwane są punkty sąsiednie. Rozpatruje się relacje punktu z każdym z sąsiadów, wyznaczany jest lokalny układ współrzędnych, oparty o lokalny kierunek normalny i wektor łączący dwa rozpatrywane punkty. Relacja jest opisywana kątami, między kierunkiem normalnym w punkcie, a kierunkami osi układu współrzędnych oraz kątem pomiędzy kierunkiem normalnym, a wektorem łączącym punkty. Stosowano również parametr mówiący o odległości pomiędzy punktami w parze, lecz wprowadzał błędy w przypadku analizy reprezentacji opartych o skanach RGB-D, w których gęstość punktów zmienia się wraz z odległością od sensora. W podstawowej

wersji PFH deskryptor jest wielowymiarowym histogramem cech dla utworzonych par. Wartość każdej funkcji jest dzielona na b równych przedziałów, dlatego wymiar deskryptora to b3. W wersji szybkiej FPFH zastosowano obliczanie deskryptora jako średniej ważonej z sąsiednimi punktami, a histogram dla każdej zmiennej jest liczony osobno, co zmniejszyło jego rozmiar do 3b.

Standardowo przyjmowany jest podział na 11 słupków, co odpowiada deskryptorowi o 33 elementach.

Metoda generowania deskryptorów ISS (ang. Intrinsic shape signatures) [53] opiera niewrażliwość na transformacje geometryczne poprzez użycie lokalnych układów współrzędnych, w których kierunek główny stanowi wektor normalny do powierzchni w punkcie, a pozostałe kierunki wyznaczane są na podstawie analizy komponentów głównych pozycji sąsiednich punktów.

Deskryptor stanowi histogram z ważonych położeń punktów w sferycznej siatce.

Podobna idea, lokalnego układu współrzędnych i deskryptora stanowiącego histogram cech sąsiednich punktów przyświecała przy opracowywaniu kolejnych deskryptorów jak NARF [54], RoPS [55] i SHOT [56].

2.4.5 Deskryptory obrazów płaskich

Opisane wyżej deskryptory obliczane są na podstawie chmur punktów. Istnieje też osobna rodzina metod, pozwalająca na wyznaczenie pozycji obiektów jedynie na podstawie zdjęcia. Przy użyciu klasycznych metod wywodzących się z technik przetwarzania obrazów płaskich można zbudować stosunkowo szybkie i w niektórych przypadkach skuteczne systemy lokalizacji obiektów.

Operowanie na zdjęciach bez głębi pozwala na zgrubne określenie położenia kątowego. Zwykle konieczne są kolejne etapy zwiększające precyzję rozwiązania, już przy użyciu pełnej, trójwymiarowej reprezentacji. Można wyróżnić kilka typów tych metod.

Podejścia oparte na zastosowaniu szablonów, dopasowują krawędzie modelu obiektu widzianego z wielu różnych kierunków do obrazu sceny [31], [57]. Różne warianty tej metody używają odmiennych miar podobieństwa opartego na odległościach pomiędzy krawędziami. Połączenie kryteriów kształtu krawędzi i zgodności kierunków normalnych wyznaczonych z mapy głębi umożliwia dopasowywanie tymi metodami gładkich, pozbawionych tekstury obiektów.

Istnieją też techniki używające lokalnych cech wyznaczanych w punktach kluczowych obrazu.

Wektory cech są dopasowywane pomiędzy obrazami modelu, a obrazem sceny i geometrycznie weryfikowane [58], [59]. Głównym ograniczeniem tych metod w zastosowaniu do wyznaczania

Wektory cech są dopasowywane pomiędzy obrazami modelu, a obrazem sceny i geometrycznie weryfikowane [58], [59]. Głównym ograniczeniem tych metod w zastosowaniu do wyznaczania

W dokumencie W POLITECHNIKA POZNAŃSKA (Stron 27-36)