• Nie Znaleziono Wyników

Index of /rozprawy2/11249

N/A
N/A
Protected

Academic year: 2021

Share "Index of /rozprawy2/11249"

Copied!
26
0
0

Pełen tekst

(1)Akademia Górniczo-Hutnicza im. Stanisława Staszica Wydział Geodezji Górniczej i Inżynierii Środowiska Katedra Geoinformacji, Fotogrametrii i Teledetekcji Środowiska. Rozprawa doktorska. ZASTOSOWANIE IMERSYJNYCH OBRAZÓW WIDEO DO FOTOGRAMETRYCZNYCH POMIARÓW 3D. mgr inż. Karol Kwiatek. dr hab. inż. Regina Tokarczyk, prof. AGH. Kraków 2017.

(2)

(3) Bardzo dziękuję mojej Pani promotor dr hab. inż. Reginie Tokarczyk, prof. AGH za okazaną pomoc, poświęcony czas, cenne uwagi i wsparcie naukowe podczas realizacji pracy doktorskiej. Dziękuję mojemu promotorowi pomocniczemu dr inż. Jakubowi Koleckiemu za wsparcie naukowe przy realizacji niniejszej pracy doktorskiej. Dziękuję panu Erykowi Lipińskiemu (gps.pl) i koledze Cezaremu Śliwkowskiemu (dip360.pl), za użyczenie urządzeń niezbędnych do realizacji badań. Dziękuję pani Sylwii Szlapińskiej, panu Piotrowi Krystkowi (gps.pl) i koledze Bogusławowi Radoniowi (geo-rad.eu) za pomoc przy pomiarach geodezyjnych. Dziękuję moim rodzicom, żonie Ewelinie oraz Sarze, Soni i Filipowi za cierpliwość i bezgraniczne wsparcie..

(4)

(5) Spis treści. Spis treści Spis treści ............................................................................................................................. i Wykaz symboli i skrótów ................................................................................................... iii 1.. Wprowadzenie .............................................................................................................. 1. 2.. Cel i tezy rozprawy ....................................................................................................... 2. 3.. Fotogrametria panoramiczna ......................................................................................... 3 3.1. Historia zobrazowań panoramicznych ................................................................................ 4 3.2. Rodzaje systemów panoramicznych ................................................................................... 5 3.3. Kamery panoramiczne ....................................................................................................... 6 3.4. Klasyfikacja metod pomiarowych wykorzystujących panoramy ......................................... 8 3.5. Geometria modelu sferycznego ........................................................................................ 10 3.6. Fotogrametria sferyczna................................................................................................... 15. 4.. Imersyjne obrazy wideo .............................................................................................. 17 4.1. Charakterystyka obrazów imersyjnych ............................................................................. 17 4.2. Kamery imersyjne ........................................................................................................... 19 4.3. Przegląd fotogrametrycznych metod pomiarowych i zastosowań wideo imersyjnego........ 21 4.3.1 Metody pomiarowe i zastosowania fotogrametryczne .........................................................22 4.3.2 Systemy mobilnego kartowania oparte o kamerę panoramiczną ..........................................23. 4.4. Geometria modelu imersyjnego ....................................................................................... 25. 5.. Geometria obrazu imersyjnego na przykładzie kamery Ladybug®3 ............................ 27 5.1. Kamera Ladybug® 3 ....................................................................................................... 27 5.1.1 Charakterystyka kamery.....................................................................................................28 5.1.2 Układy współrzędnych .......................................................................................................29 5.1.3 Plik kalibracyjny ................................................................................................................30. 5.2. Etapy tworzenia obrazu imersyjnego ................................................................................ 31 5.3. Warunek kolinearności i komplanarności dla modelu imersyjnego kamery Ladybug ........ 33. 6.. Cele badawcze i metodyka badań ................................................................................ 36. 7.. Wpływ wykorzystania obrazowania imersyjnego w modelu sferycznym na pomiary fotogrametryczne ........................................................................................................ 38 7.1. Błędy obrazów sferycznych ............................................................................................. 38 7.2. Terenowy rozmiar piksela ................................................................................................ 39 7.3. Błędy obrazów imersyjnych względem modelu sferycznego ............................................ 40 7.3.1 Błąd paralaksy ...................................................................................................................42 7.3.2 Błąd łączenia .....................................................................................................................48 7.3.3 Błąd lokalizacji ..................................................................................................................50 7.3.4 Błąd epipolarny..................................................................................................................52 7.3.5 Błąd przestrzennego wcięcia w przód .................................................................................55 7.3.6 Zalecenia do wykonywania imersyjnego wideo dla celów pomiarowych .............................75. 8.. Charakterystyka warunków badań ............................................................................... 78 8.1. Zastosowane urządzenia i programy................................................................................. 79 i.

(6) Spis treści. 8.2. Pola testowe .................................................................................................................... 82. 9.. Wpływ wykorzystania obrazowania imersyjnego w modelu sferycznym na pomiary fotogrametryczne ........................................................................................................ 87 9.1. Tworzenie obrazów imersyjnych ..................................................................................... 87 9.1.1 Tworzenie panoram z obrazów składowych ....................................................................... 87 9.1.2 Porównanie wpływu sposobu łączenia obrazów składowych na pomiary fotogrametryczne. 88. 9.2. Pomiary fotogrametryczne z panoram imersyjnych .......................................................... 90 9.2.1 Badanie wpływu zmian promienia sfery............................................................................. 91 9.2.2 Badanie wpływu zmian promienia koła maskowania .......................................................... 96 9.2.3 Badanie wpływu zmian bazy ............................................................................................. 99 9.2.4 Badanie wpływu doboru rozmieszczenia fotopunktów w stosunku do promienia sfery ...... 104. 10. Tworzenie gęstej chmury punktów z IOW – wyniki badań ........................................ 106 10.1. Badanie czynników wpływających na liczbę punktów chmury utworzonej z IOW ........ 106 10.1.1 Liczba panoram ............................................................................................................... 106 10.1.2 Zmiana bazy.................................................................................................................... 108 10.1.3 Zmiana rozdzielczości obrazu .......................................................................................... 108 10.1.4 Zmiany tonalne obrazu .................................................................................................... 109. 10.2. Czynniki skracające czas tworzenia gęstej chmury punktów z IOW .............................. 111. 11. Rekonstrukcja trajektorii ruchu kamery imersyjnej – wyniki badań ........................... 113 11.1. Kalibracja systemu mobilnego ...................................................................................... 113 11.1.1 Kalibracja Zestawu I........................................................................................................ 115 11.1.2 Kalibracja Zestawu II ...................................................................................................... 117. 11.2. Wyrównanie sieci fotogrametrycznych opartych o panoramy imersyjne........................ 123 11.2.1 Porównanie georeferencji pośredniej i bezpośredniej........................................................ 124 11.2.2 Integracja georeferencji bezpośredniej z wyrównaniem SfM ............................................ 125. 12. Podsumowanie i wnioski ........................................................................................... 130 Załączniki ........................................................................................................................ 133 Wykaz tabel ..................................................................................................................... 134 Wykaz rysunków ............................................................................................................. 136 Bibliografia ...................................................................................................................... 142. ii.

(7) Wykaz symboli i skrótów. Wykaz symboli i skrótów Symbole greckie α, β, γ. kąty obrotów kamery imersyjnej. ΔE. błąd epipolarny. ∆X, ∆Y, ∆Z. przyrost współrzędnych. ∆X’, ∆Y’, ∆Z’. różnice współrzędnych pomiędzy punktem obarczonym i nieobarczonym błędem paralaksy. ΔXlok , ΔYlok. błąd lokalizacji. Δx, Δy. błąd paralaksy podłużny i poprzeczny. ΔxS. błąd łączenia. Δx’S, Δy’S. poziomy i pionowy rozmiar piksela panoramy sferycznej. ε, ξ. kąt poziomy i pionowy pomiędzy osią kamery składowej a kierunkiem obserwacji o wierzchołku w początku układu współrzędnych kamery imersyjnej. θ, φ. kąt poziomy (długość geograficzna na panoramie sferycznej) i kąt zenitalny (szerokość geograficzna na panoramie sferycznej). θo. początek pomiaru kąta poziomego (długości geograficznej) na panoramie sferycznej. λ. współczynnik skali między współrzędnymi na panoramie sferycznej a współrzędnymi terenowymi. ω, φ, κ. kąty omega (obrót wokół osi X), phi (obrót wokół osi Y), kappa (obrót wokół osi Z). ϑ. kąt poziomy panoramy sferycznej. Inne symbole AAB. azymut odcinka AB. B. wektor bazy łączący początki układów współrzędnych kamer imersyjnych. B. macierz kalibracyjna (ang. boresight matrix). B’. wektor bazy łączący środki rzutów kamer składowych. Bx, By, Bz. składowe wektora bazy pomiędzy kamerami imersyjnymi. b. układ współrzędnych IMU. b*. układ współrzędnych o osiach równoległych do układu kamery imersyjnej, zaczepiony w początku układu IMU. bx, by, bz. składowe wektora bazy pomiędzy panoramami sferycznymi. c, r. numer kolumny i wiersza na obrazie. co, ro. numer kolumny i wiersza na obrazie dla punktu głównego. f, Cc. stała kamery dla kamery składowej. CLD. stała kamery imersyjnej podana przez producenta. D. odległość pozioma od początku układu współrzędnych kamery iii.

(8) Wykaz symboli i skrótów. imersyjnej do punktu obiektu Do. pozioma odległość od środka rzutów kamery imersyjnej do punktu obiektu mierzona przy kątach ε=0° i ξ=0°. d. odległość pozioma od środka rzutów kamery składowej do punktu obiektu. dαx, dαy, dαz. poprawki kątowe dla panoramy sferycznej. dϑ, dφ. poprawki kątowe dla panoram imersyjnych do punktów obarczonych błędami paralaksy podłużnej i poprzecznej. I. iloraz rozmiaru piksela przez stałą kamery składowej. K. macierz konstrukcyjna. Kc. macierz kalibracyjna kamery imersyjnej. k. współczynnik skali pomiędzy współrzędnymi 3D kamery składowej a współrzędnymi kamery sferycznej. b. wektor przesunięcia w układzie IMU wektor przesunięcia w układzie kamery imersyjnej. M1 i M2. wektory promieni rzutujących panoram sferycznych do punktu terenowego. mϑ. błąd oszacowania kąta. mp. błąd położenia punktu. mX. błąd głębi wcięcia. mY,Z. błąd położenia punktu na płaszczyźnie YZ. N’ i N”. macierze obrotu panoram sferycznych. N1, N2. wektory promieni rzutujących panoram imersyjnych do punktu terenowego. nc , r c. ilość kolumn i wierszy w rzutowaniu sferycznym. Pteren. terenowy rozmiar piksela kamery imersyjnej. Pskł. terenowy rozmiar piksela kamery składowej. R. macierz obrotu układu kamery sferycznej względem układu terenowego. R. promień sfery panoramy imersyjnej. Rc. macierz obrotu układu kamery składowej względem układu współrzędnych kamery imersyjnej macierz obrotu układu IMU (b) względem układu odniesienia (L) ∗. macierz obrotu układu współrzędnych o osiach równoległych do układu kamery imersyjnej (b*), zaczepionego w początku układu IMU do układu odniesienia (L) macierz obrotu układu kamery imersyjnej (i) względem układu odniesienia (L). Rs. promień sfery w rzutowaniu sferycznym; pierwsza składowa układu współrzędnych sferycznych. Rs’. promień panoramy sferycznej utworzonej poprzez rzutowanie punktu terenowego na płaszczyznę OXY iv.

(9) Wykaz symboli i skrótów. Rz(α). macierz obrotu o kąt α wokół osi z_LD. Ry(β). macierz obrotu o kąt β wokół osi y_LD. Rx(γ). macierz obrotu o kąt γ wokół osi x_LD. RMSEX, RMSEY, RMSEZ, RMSEXYZ. średni błąd kwadratowy współrzędnych fotopunktów i punktów kontrolnych. RMSEXo, RMSEYo, RMSEZo. średni błąd kwadratowy współrzędnych środków rzutów. RMSEXoYoZo. średni błąd kwadratowy położenia środków rzutów. RMSEyaw, RMSEpitch, RMSEroll. średni błąd kwadratowy kątów yaw, pitch, roll. RMSEypr. średni błąd kwadratowy orientacji kątowej. ra. promień koła maskowania. rb. wektor współrzędnych IMU. ri. wektor współrzędnych początku układu współrzędnych kamery imersyjnej. rL. wektor współrzędnych terenowych pozyskanych z GPS. s. stosunek bazowy. T. wektor translacji między punktem na panoramie imersyjnej a punktem terenowym. Tr. wektor translacji środka rzutów kamery składowej do początku przyjętego wspólnego układu współrzędnych kamery imersyjnej ,. ,. składowe wektora translacji Tr. t. liniowa wartość przesunięcia środka rzutów kamery składowej do początku układu współrzędnych kamery imersyjnej. u, v. współrzędne pikselowe na panoramie sferycznej. W, H. szerokość i wysokość panoramy w rzutowaniu sferycznym. v. odchyłka dla punktu kontrolnego. X,Y,Z. współrzędne terenowe. Xo,Yo, Zo. współrzędne środka rzutów kamery sferycznej. X. wektor współrzędnych obrazowych w układzie kamery składowej. Xlok. znormalizowany wektor współrzędnych wyrażonych w układzie kamery składowej. Xp. wektor między środkiem rzutów panoramy sferycznej i punktem terenowym. X’. wektor obrazowy w układzie kamery imersyjnej. x, y, z. współrzędne kartezjańskie w układzie kamery sferycznej. xs, ys. współrzędne obrazowe na panoramie sferycznej. x_LD, y_LD, z_LD. współrzędne kartezjańskie w układzie kamery Ladybug. x_Nr, y_Nr, z_Nr. współrzędne kartezjańskie w układzie kamery składowej o danym numerze (Nr). v.

(10) Wykaz symboli i skrótów. Wykaz skrótów A0. Pawilon A0 w AGH w Krakowie. AGH. Akademia Górniczo-Hutnicza w Krakowie. ARP. centrum fazowe anteny GPS (ang. Antenna Reference Point). C4. Pawilon C4 w AGH w Krakowie. EOZ. elementy orientacji zewnętrznej kamery. FIREWIRE. standard łącza szeregowego. fps. liczba klatek na sekundę (ang. frames per second). GB. gigabit; jednostka informacji (ang. gigabyte). GPIO. interfejs służący do komunikacji pomiędzy elementami systemu komputerowego (ang. General Purpose Input/Output). GNSS. nawigacja satelitarna (ang. Global Navigation Satellite Systems). GPS. system nawigacji satelitarnej utworzonej przez USA (ang. Global Positioning System). IMU. jednostka nawigacji inercyjnej (ang. Inertial Measurement Unit). INS. inercyjny system nawigacyjny (ang. Inertial Navigation System). IOW. imersyjne obrazy wideo. KRA1. punkt należący do sieci ASG-EUPOS zlokalizowany w Krakowie. LoD. poziom szczegółowości (ang. Level of Details). LD®2, LD®3, LD®5. skrótowe oznaczenie kamer imersyjnych: Ladybug® 2, Ladybug® 3, Ladybug® 5. LD3, Os. początek układu współrzędnych kamery imersyjnej, środek rzutów kamery imersyjnej. MMS. system mobilnego kartowania oparty o system wizyjny i skaner laserowy (ang. mobile mapping system). PGR. format plików tworzony przez kamery Ladybug. PUWG 2000. Państwowy Układ Współrzędnych Geodezyjnych 2000. RS232. standard opisujący sposób połączenia urządzeń. SfM. automatyczny proces obliczania orientacji kamery i trójwymiarowych położeń punktów wiążących poprzez analizę sekwencji obrazów (ang. Structure from Motion). SPAN. urządzenie integrujące pomiary GNSS i INS. UTC. uniwersalny czas koordynowany (ang. Coordinated Universal Time). vi.

(11) 1. Wprowadzenie. 1. Wprowadzenie Wielokamerowe dookólne systemy wizyjne pozwalają rejestrować przestrzeń sprawniej i efektywniej niż poprzez stosowanie osobnych sensorów wizyjnych. Takie urządzenia stają się aktualnie coraz powszechniejsze z uwagi na szersze możliwości publikowania nagrań 360° (przeglądarki panoramiczne 360°, okulary VR). Znajdują one też zastosowanie w fotogrametrii, głównie w systemach mobilnego kartowania. Jednak tylko niektóre wielokamerowe systemy mogą być stosowane do celów fotogrametrycznych. Panoramy i wideo panoramy rejestrowane przez dookólne systemy wizyjne służą w głównej mierze jako podkład wizualny do danych ze skaningu laserowego (np. Leica Pegasus: Two, Topcon IP-S3). Są to systemy bardzo kosztowne, ale dostarczają dokładnych danych pomiarowych. Jednym ze sposobów na obniżenie kosztów takich systemów może być rezygnacja z aktywnego systemu skanującego na rzecz wykorzystania dla celów pomiarowych obrazów panoramicznych. Takie postępowanie upraszcza system mobilny jednak może mieć negatywne konsekwencje dla dokładności i kompletności opracowywanych produktów. Najczęściej nie wykorzystuje się jedynie oddzielnych obrazów składowych, lecz tworzone są „ułomne” panoramy sferyczne, które w tej pracy nazywane są panoramami imersyjnymi. Obrazy składowe są rzutowane na powierzchnię sfery i wyświetlane jako panoramy sferyczne o wspólnym środku rzutów. Powoduje to powstawanie błędów na tych panoramach, co wpływa na dokładność opracowań fotogrametrycznych, czym zajęto się w tej pracy. Dotychczasowe badania nad systemami dioptrycznymi1 i katadioptrycznymi2 koncentrowały się głównie na przedstawieniu modeli matematycznych opisujących przekształcenia geometryczne obrazów panoramicznych, metodach łączenia obrazów składowych w panoramy (Szeliski i Shum, 1997), pomiarach z pojedynczych panoram cylindrycznych i sferycznych (Fangi, 2007; Schneider i Maas, 2006), określaniu trajektorii poruszającej się kamery panoramicznej (Schmeing et al., 2011) czy badaniu różnic pomiędzy panoramami sferycznymi i panoramami utworzonymi przez kamery imersyjne (Ji et al., 2014). Brak jest natomiast opracowań dotyczących wpływu różnych parametrów odpowiedzialnych za tworzenie panoram imersyjnych na pomiary fotogrametryczne 3D, na tworzenie wysokorozdzielczych chmur punktów, a także na generowanie trajektorii poruszającej się kamery imersyjnej. W dotychczasowych badaniach nie ma też analizy dokładności pomiarów fotogrametrycznych z obrazów tworzonych przez wielokamerowe systemy dioptryczne oraz wykorzystania zalet imersyjnego wideo. Niniejsza rozprawa zawiera badania pozwalające na wypełnienie luk w istniejącym stanie wiedzy na temat obrazowania wideo imersyjnego i jego zastosowania do pomiarów fotogrametrycznych. W szczególności położono nacisk na wpływ użycia obrazów imersyjnych w dostępnym oprogramowaniu fotogrametrycznym wykorzystującym model sferyczny na dokładność takich pomiarów. Praca składa się z 12 rozdziałów, poprzedzonych wykazem symboli i skrótów. W rozdziale 2 przedstawiono cel i tezy rozprawy. Rozdział 3 omawia fotogrametrię panoramiczną ze szczególnym uwzględnieniem geometrii modelu sferycznego. Imersyjne obrazy wideo zaprezentowane są w rozdziale 4, a kolejny rozdział 5 dokładniej opisuje geometrię modelu imersyjnego na przykładzie kamery Ladybug® 3. Rozdział 6 to cele badawcze i metodyka badań, natomiast rozdział 7 jest poświęcony błędom obrazowania imersyjnego. Rozdział 8 opisuje zastosowane urządzenia i programy oraz pola testowe, a rozdziały od 9 do 11 przedstawiają wyniki badań związane z trzema tezami. Ostatni rozdział 12 podsumowuje badania.. 1 2. system dioptryczny (ang. dioptric) – system wizyjny wykorzystujący obiektywy system katadioptryczny (ang. catadioptric) – system wizyjny wykorzystujący lustra paraboliczne lub hiperboliczne. 1.

(12) 2. Cel i tezy rozprawy. 2. Cel i tezy rozprawy Celem rozprawy jest przedstawienie możliwości wykorzystania imersyjnych obrazów wideo (IOW) do pozyskiwania informacji o przestrzennej geometrii obiektów. Z uwagi na „ułomny” charakter obrazów imersyjnych w odniesieniu do panoram sferycznych, celem poznawczym będzie analiza modelu imersyjnego i zbadanie różnic w stosunku do modelu sferycznego, natomiast praktycznym aspektem badań będzie sprawdzenie wpływu tych różnic na pomiary fotogrametryczne na konkretnych, zarejestrowanych imersyjnych obrazach wideo (wewnątrz budynków i na zewnątrz). Budowa mobilnego systemu składającego się z modułów pozycjonowania i imersyjnego obrazowania pozwoli sprawdzić, jak algorytm SfM użyty w dostępnym oprogramowaniu akceptującym panoramy sferyczne pozwala na estymowanie wirtualnego środka rzutów kamery imersyjnej w stosunku do danych pozyskanych z pomiarów satelitarnych. Zbudowany system pozwoli zweryfikować, czy połączenie metody SfM z systemem pozycjonowania usprawnia wyznaczenie trajektorii ruchu w różnych warunkach. Przedmiotem badań są panoramy imersyjne i ich potencjalne zastosowanie w pomiarach fotogrametrycznych, tworzenie pozyskanej za ich pomocą gęstej chmury punktów i wyznaczanie trajektorii ruchu systemów mobilnych rejestrujących panoramy wewnątrz i na zewnątrz budynków. Z uwagi na wykorzystanie oprogramowania bazującego na obrazach sferycznych w analizach uwzględniono model sferyczny z błędami obrazowania imersyjnego. Problemem badawczym jest analiza dokładności pomiarów uzyskiwanych z panoram imersyjnych w zależności od wielu czynników wpływających na tworzenie IOW, a także od specyfiki rejestrowanego miejsca. Ustalono następujące tezy rozprawy doktorskiej: Teza 1: Imersyjne obrazy wideo pozyskiwane z systemów mobilnych mogą być użyte jako źródło fotogrametrycznych danych do pomiarów 3D o dokładności wynikającej z geometrii modelu obrazowania. Teza 2: Imersyjne obrazy wideo pozwalają na tworzenie modeli 3D obiektów w postaci chmury punktów o dużej rozdzielczości. Teza 3: Imersyjne obrazy wideo pozwalają na poprawienie dokładności wyznaczenia trajektorii ruchu kamery poprzez integrację metody SfM z pomiarem GNSS/INS. W celu weryfikacji tez badawczych zostaną wykorzystane następujące procedury wyjaśnienia naukowego i badań:       . analiza czynników wpływających na generowanie panoram sferycznych i imersyjnych; analiza błędów pomiaru z wykorzystaniem obrazowania imersyjnego w modelu sferycznym; ocena wpływu wybranych czynników na dokładność pomiarów fotogrametrycznych z panoram imersyjnych i wyznaczenia trajektorii kamery imersyjnej; analiza czynników wpływających na tworzenie chmury punktów o dużej rozdzielczości; analiza metod kalibracji systemu mobilnego opartego o kamerę imersyjną; analiza porównawcza wyznaczenia pozycji kamery imersyjnej za pomocą metody bezpośredniej, pośredniej oraz integracji obu metod; uogólnianie wyników badań i wnioskowanie na tej podstawie.. 2.

(13) 3. Fotogrametria panoramiczna. 3. Fotogrametria panoramiczna Tradycyjna kamera dostarcza informacji o przestrzeni, podobnie jak widzi ludzkie oko i zwykle skierowana jest w określonym kierunku. Jej pole widzenia jest ograniczone. Wykorzystanie dodatkowych sensorów (radar, skaner laserowy) pozwala na uzyskanie informacji o rozmieszczeniu obiektów wokół obserwatora, ale brak informacji wizualnej o otaczającej przestrzeni może utrudnić percepcję danego miejsca. Widok panoramiczny jest sposobem rozwiązania problemu ograniczonego pola widzenia. Zdecydowana większość opracowań fotogrametrycznych wykorzystuje kamery fotograficzne o obrazie będącym rzutem środkowym, który charakteryzuje przechodzenie wszystkich promieni z przestrzeni przedmiotu do przestrzeni obrazu przez jeden punkt3 – środek rzutów. Idealny rzut środkowy, realizowany przez system optyczny, występuje w przypadku obiektywu pozbawionego dystorsji, a matryca lub film, na których zapisywany jest obraz stanowią idealną płaszczyznę. W fotogrametrii panoramicznej wykorzystywany jest rzut panoramiczny, który charakteryzuje się, również jak w przypadku rzutu środkowego, jednym środkiem rzutów oraz odpowiednią powierzchnią rzutowania. Fotogrametria panoramiczna to dział fotogrametrii bliskiego zasięgu, który zamiast obrazów będących rzutem środkowym na płaszczyznę wykorzystuje panoramy w formie cylindrycznej, sferycznej i (rzadziej) kubicznej. Chronologicznie fotogrametria panoramiczna rozwinęła się na danych pozyskiwanych z panoram cylindrycznych. Pierwsze pomiary opierały się na wykorzystywaniu stereoskopii (Shum i Szeliski, 1999). Od roku 2003 zaczęły ukazywać się artykuły odnoszące się do fotogrametrii panoramicznej (Luhmann i Tecklenburg, 2004; Parian i Gruen, 2004b; Schneider i Maas, 2003; Schneider i Maas, 2004). W latach 2004-2005 odbyły się dwie konferencje dotyczące wykorzystania panoram w fotogrametrii (Panoramic Photogrammetry Workshop w Dreźnie i rok później w Berlinie). W kolejnym roku Fangi (2006) przedstawił po raz pierwszy swoją koncepcję pomiarów z panoram sferycznych, które tworzył za pomocą odpowiednio wykonanych zdjęć na głowicy panoramicznej i komercyjnego programu do łączenia obrazów (Realviz Stitcher, później PTgui). Termin fotogrametria sferyczna zaczyna pojawiać się w literaturze w kolejnym roku (Fangi, 2007). Pomimo upływu następnych kilku lat, Luhmann et al. (2013) nadal wyróżnia jedynie fotogrametrię panoramiczną spośród wielu działów fotogrametrii, natomiast brak jest nawiązania do fotogrametrii sferycznej jako osobnego działu fotogrametrii bliskiego zasięgu. Koncepcja fotogrametrii sferycznej nadal się rozwija głównie z powodu niskich kosztów zakupu sprzętu i oprogramowania. W ostatnich latach tę metodę zastosowano do kilkunastu międzynarodowych projektów (d'Annibale et al., 2010; Fangi i Pierdicca, 2012; Pisa et al., 2011; Wahbeh et al., 2016). Obecnie fotogrametria panoramiczna opiera się na wykorzystaniu fragmentów wysokorozdzielczych panoram (tzw. gigapanoram) utworzonych przy zastosowaniu odpowiednich obiektywów i głowic panoramicznych, a w fotogrametrii sferycznej podejmowane są próby automatyzacji pomiarów. Zanim panoramy znalazły zastosowanie w fotogrametrii, rozpowszechniły się najpierw jako forma prezentacji przestrzeni (przede wszystkim jako malowidła panoramiczne prezentowane w specjalnie wybudowanych rotundach (Oettermann, 1997)), a także jako filmy panoramiczne pokazywane na ekranach 360˚ (Kenderdine, 2010). Ostatnio coraz częściej panoramy pokazywane są w okularach lub hełmach do wirtualnej rzeczywistości (Lemle et al., 2015).. 3. W „Manual of Photogrammetry” autorzy wskazują na istnienie dwóch punktów związanych ze środkiem rzutów: przedni i tylni punkt węzłowy pokrywający się z odpowiednio przedmiotowym i obrazowym punktem głównym. W tej rozprawie środkiem rzutów jest jeden punkt, w którym skupiają się wiązki promieni rzutujących (McGlone et. al. 1980). . McGlone, C., Mikhail, E. i Bethel, J., 1980. Manual of photogrammetry, s.). 3.

(14) 3. Fotogrametria panoramiczna. 3.1. Historia zobrazowań panoramicznych Panorama to słowo pochodzące od dwóch greckich słów: pan (wszystko) i horama (widok). Odnosi się do obrazów o polu widzenia równym 360°, ale w języku potocznym zwykle mniejszym od 180° (kinowy ekran panoramiczny, panoramiczny ekran telewizora, dach panoramiczny w samochodzie). Zanim jednak wyraz ten przyjął znaczenia w naukach technicznych, kojarzony był najpierw z twórczością artystyczną, gdzie odnosił się przede wszystkim do kąta pełnego (Hyde, 1988; Oettermann, 1997). Pierwsze panoramy były malarskim przedstawieniem dookólnej przestrzeni. Spopularyzował je wynalazek Roberta Barkera (1739 - 1806), który w 1787 roku opatentował panoramę i sposób jej prezentacji w rotundach (Oettermann, 1997). Malarskie panoramy prezentowane w dookólnych budowlach pokazywały miejsca niedostępne z uwagi na daleką podróż, miejsca kultu religijnego (np. Panorama Jerozolimska w Altötting w Niemczech) lub miejsca historycznych wydarzeń (np. Panorama Racławicka we Wrocławiu). Rozwój fotografii, który zwiększył realność i aktualność przedstawianej rzeczywistości, przyczynił się także do powstania pierwszych panoram opartych o fotografie (The Library of Congress, 2006). Od czasu pojawienia się pierwszych kamer o szerokim polu widzenia w latach 40. XIX wieku (rok 1843 – kamera z ruchomym obiektywem (ang. swing lens camera) stworzona przez Puchbergera i rok 1848 – osiem dagerotypów sfotografowanych przez Portera) technika obrazowania przestrzeni pozostawała prawie bez zmian (Luhmann, 2004). Dopiero na przełomie wieków XIX i XX zaczęto podejmować próby łączenia wielu kamer filmowych w jeden zestaw nagrywający, w taki sposób, aby każda z kamer nagrywała inny fragment 360° pola widzenia. W ten sposób powstały konstrukcje, które umożliwiły utworzenie najpierw pierwszych dookólnych ruchomych obrazów, a następnie pomieszczeń do ich wyświetlania czyli rotund panoramicznych. Cineorama (Benosman i Kang, 2001), Kinopanorama (Michaux, 1999) to tylko wybrane udane próby prezentacji panoram i dookólnych wideo na ekranach panoramicznych. Circarama stworzona przez W. Disney’a w latach 50. XX wieku prezentowała filmy panoramiczne na ekranie 360°, jednak nagrania składowe były oddzielane czarnym polem (rys. 3.1a), gdyż nie było możliwości bezszwowego połączenia składowych wideo. System kamer wykorzystywany do rejestracji materiału do prezentacji w Circaramie opierał się na 11 kamerach (rys. 3.1b).. a). b). Rys. 3.1. Circarama: a) ekran 360º utworzony przez W.Disney’a oparty na 11 projektorach; b) system nagrywający skonstruowany z 11 kamer filmowych. Źródło: (Circarama, 1956). Wraz z rozwojem cyfrowych technik prezentacji obrazów rozpoczęto, w wielu miejscach na świecie, budowę nowych rotund panoramicznych opartych nie na dziełach malarskich i fotografii analogowej, a na cyfrowej projekcji, która umożliwiła składanie nagrań bez przerw między nimi. Problem przerw między nagraniami składowymi do tych konstrukcji został już rozwiązany poprzez nagrywanie odpowiednimi kamerami z zakładką i z zastosowaniem późniejszej obróbki cyfrowej (Yelin, 2000). Także w Polsce powstały nowoczesne planetaria oparte o projekcje cyfrowe, gdzie wyświetlane są produkcje filmowe o szerokim polu widzenia (Planetarium Niebo Kopernika w Warszawie, Planetarium EC1 w Łodzi). Obecnie tworzone są, coraz powszechniej, w różnych miejscach na świecie wielkie ekrany 360° (np. Infoversum w Holandii), kina panoramiczne czy planetaria na wzór dawnych rotund.. 4.

(15) 3. Fotogrametria panoramiczna. Efekt, jaki może uzyskać widz znajdujący się wewnątrz takiego kina panoramicznego Grau (2003) określa jako przeniesienie lub „zanurzenie” w innej rzeczywistości i definiuje to zjawisko jako imersja4 (ang. immersion). To słowo oznacza intelektualne stymulowanie stanu świadomości widza lub oglądającego, który jest umieszczany w środku pokazywanych wydarzeń i ma możliwość interakcji z wyświetlonymi obiektami. Ekrany 360° w Sydney (Scheer i Sewell, 2011) lub w Hong Kongu (Kenderdine, 2010) pozwalają już na coraz większą interakcję, jednak pełna interakcja widzów z prezentowanym materiałem cyfrowym, możliwa do uzyskania z prawie doskonałym efektem imersji (np. w hełmach lub okularach do wirtualnej rzeczywistości) wymaga dalszych badań i prac konstrukcyjnych. Obecnie coraz częściej tworzy się filmy 360º do okularów VR w celu uzyskania doskonalszego efektu imersji. Portal YouTube udostępnił możliwość wgrywania plików o 360° polu widzenia w styczniu 2015 roku. Całkowite „zanurzenie” widza w oglądanym materiale jest uzyskiwane poprzez niedopuszczenie obrazów otaczającej przestrzeni do wnętrza okularów. Oglądający ma możliwość poruszania głową w celu zobaczenia innego fragmentu filmu 360º, jednak nadal ma ograniczone możliwości poruszania się w przestrzeni (Google, 2015).. 3.2. Rodzaje systemów panoramicznych Obrazy panoramiczne są w tej rozprawie rozumiane jako obrazy o 360° polu widzenia, które pozyskiwane są z systemów dioptrycznych. Może to być jedna kamera na obrotowej głowicy lub system wielu kamer rozmieszczonych dookólnie. Tworzenie panoram umożliwiają też inne systemy np. katadioptryczne, jednak z uwagi na ogólnie niską rozdzielczość nie są brane pod uwagę w tej pracy. Parian (2007) przedstawia następujący podział systemów panoramicznych:  systemy dioptryczne: o kamery jednoobiektywowe (np. lustrzanka z obiektywem szerokokątnym) (rys. 3.2a); o kamery wieloobiektywowe (rys. 3.2b); o skanery panoramiczne (kamera wyposażona w jedną linijkę CCD);  systemy katadioptryczne: o kamery wykorzystujące pojedyncze lustro (rys. 3.2c); o kamery wykorzystujące wiele luster (rys. 3.2d). Z kolei Ji et al. (2014) podobnie wyróżnia także te dwa systemy i jeden dodatkowy system skanerowy, który używa obiektywów do rejestracji przestrzeni, ale sposób tworzenia obrazów jest inny. Systemy skanerowe pozwalają uzyskać wysokorozdzielcze panoramy poprzez obrót linijki CCD wokół osi kamery, ale nie nadają się do rejestracji ruchomych obiektów (Schneider i Maas, 2003).. Rys. 3.2 Systemy dioptryczne: a) jednoobiektywowe; b) wieloobiektywowe i systemy katadioptryczne: c) wykorzystujące pojedyncze lustro; d) wykorzystujące wiele luster. Źródło: (Immersive Media, 2009), (FullView, 2013).. 4. Od tego słowa powstało określenie kamery imersyjnej lub obrazu imersyjnego zastosowanych w tej rozprawie, w celu odróżnieniu od często stosowanego wyrazu „panoramiczny”.. 5.

(16) 3. Fotogrametria panoramiczna. Z systemów dioptrycznych na uwagę zasługują kamery wieloobiektywowe (a właściwie wielokamerowe). Celem tej grupy kamer jest zarejestrowanie jak największego pola widzenia bez straty rozdzielczości przy najmniejszej liczbie kamer składowych. Kamery składowe są tak rozmieszczone, aby miały minimalne pokrycie pomiędzy sąsiednimi widokami i dlatego wykorzystuje się kamery o szerokim polu widzenia. W celu wykonania jakichkolwiek pomiarów z takich kamer, konieczna jest kalibracja indywidualnych kamer składowych oraz całości systemu z uwagi na przesunięcie środków rzutów, ponieważ nie ma możliwości technicznych, aby ich środki rzutów znalazły się w jednym punkcie. Dość często dokonuje się uproszczenia polegającego na tym, że przesunięcia środków rzutów względem wspólnego wirtualnego środka rzutów są pomijane i obrazy mogą zostać połączone bezszwowo, jeśli obiekty znajdują się poza pewną określoną minimalną odległością od kamer wieloobiektywowych (Parian, 2007).. 3.3. Kamery panoramiczne Pierwsze próby wykorzystania kamer panoramicznych do pomiarów fotogrametrycznych poczyniono na podstawie obrazów pozyskanych z konstrukcji Porro i Chevalliera utworzonych niezależnie w 1858 roku. Kamera Porro umożliwiała obrót wokół osi pionowej, a kamera Chevalliera dodatkowo obrazowała na cylindrycznym pasku, na którym umieszczało się materiał światłoczuły (Luhmann, 2004). Niestety pierwsze urządzenia do rejestracji szerokiego pola widzenia nie cieszyły się powodzeniem w fotogrametrii z uwagi na trudność i wysiłek związany z mechanicznym obrotem kamery wokół osi obrotu. Pojawienie się fototeodolitów usprawniło wykonywanie zobrazowań panoramicznych i wykorzystanie ich w fotogrametrii bliskiego zasięgu. W 1904 roku, Scheimpflug skonstruował kamerę składającą się z siedmiu dookólnie umieszczonych obiektywów wokół jednego centralnego obiektywu (rys. 3.3). Kamera ta stosowana była do fotografowania terenów z balonu, który unosił się do góry poprzez ogrzewane powietrze. Kilka lat później, Aschenbacher stworzył kamerę panoramiczną składającą się z 9 obiektywów nadającą się do opracowań fotogrametrycznych (Luhmann, 2004).. Rys. 3.3 Jedna z pierwszych kamer panoramicznych wyprodukowana przez Scheimpfluga w 1904 roku i wykorzystywana w fotogrametrii. Źródło: (Erdkamp, 2012). Kamery składowe wykorzystywane w powyżej omawianych konstrukcjach były przesunięte o pewną odległość względem osi obrotu instrumentu. Obecnie, w czasach fotogrametrii cyfrowej nadal nie ma możliwości fizycznego połączenia kilku kamer w jedną kamerę, tak aby uzyskać jeden wspólny środek rzutów. Można to osiągnąć poprzez zastosowanie metod łączenia obrazów i estymowanie jednej wspólnej stałej kamery (Szeliski, 2005). Obecnie stosowane techniki łączenia obrazów w panoramy umożliwiają szybkie wygenerowanie obrazu o 360° polu widzenia i stworzenie obrazu bez wyraźnych przerw między obrazami składowymi. Najnowsze badania nad zobrazowaniami panoramicznymi skupiają się już nie na pracach opartych o jedną kamerę na głowicy panoramicznej lub skanerze panoramicznym (Fangi, 2007; Parian i Gruen, 2004a; Schneider i Maas, 2006), ale na tworzeniu obrazów i wideo z wielu kamer cyfrowych (Ji et al., 2014; Pramulyo et al., 2017; Shi et al., 2012; Xu, 2012; Xu i Mulligan, 2013).. 6.

(17) 3. Fotogrametria panoramiczna. Google (2009) od kilku lat wykorzystuje wieloobiektywowe kamery o 360° polu widzenia do tzw. street view pokazującego widok dookólny z poziomu ziemi. Wieloobiektywowe kamery panoramiczne oraz dodatkowe sensory, np. skaner laserowy, są montowane na różnych platformach (rys. 3.4).. a). c). b). d). e). Rys. 3.4 Pojazdy i urządzenia przenośne Google do rejestrowania panoram opartych o kamery wieloobiektywowe: a) samochód Street View, b) Trekker Street View, c) wózek Street View, d) skuter śnieżny Street View, e) trójkołowiec Street View. Źródło: (Google, 2016). W literaturze odnaleźć można niewiele przykładów urządzeń pomiarowych, które bazują na panoramach oraz pozwalają użytkownikowi na wykonywanie pomiarów. Najczęściej urządzenia te są stosowane w inwentaryzacji zabytków (d'Annibale et al., 2010), dokumentacji scen wypadków czy morderstw (3rdTech, 2014), gdzie jest wymagany krótki czas wykonania zdjęć (Lewis et al., 2011). Razem z kamerami panoramicznymi, przeznaczonymi do celów metrycznych, producenci sprzedają także specjalistyczne oprogramowanie do wykonywania pomiarów z panoram. Niektóre z nich są dedykowane jedynie do wybranej kamery, a niektóre można stosować do innych kamer. Tabela 3.1 przedstawia zestawienie programów, które w większości opierają się na współosiowym ułożeniu panoram (iStar Measurement Capture, Measure3D, PanoMetric, StereoPano). W większości przypadków do prostych pomiarów potrzebne są dwie współosiowe panoramy sferyczne wykonane w pewnej określonej odległości pionowej. Odsunięcie dwóch współosiowych panoram najłatwiej można zrealizować za pomocą wysuwanej środkowej kolumny statywu (rys. 3.5). Jedyną czynnością poza rejestracją obrazów jest pomiar bazy pionowej.. Rys. 3.5 Wysuwana środkowa kolumna statywu pozwala na szybkie utworzenie współosiowych panoram. Źródło: (Nctech, 2016). Większość programów pracuje z dedykowanymi kamerami lub odczytuje tylko pliki utworzone przez wybrane kamery. Jedynie programy profesora Fangi i Agisoft Photoscan pozwalają wczytać dowolne obrazy sferyczne. Programy Fangi preferują pracę z fragmentami wysokorozdzielczych panoram sferycznych z uwagi na ograniczenia pamięci RAM, a praca przy pomiarze obrazów sferycznych jest manualna i pozwala na opracowanie par panoram. Natomiast program Photoscan umożliwia opracowanie fotogrametryczne z dużą liczbą obrazów panoramicznych, nie ma konieczności ograniczania pola widzenia, co jest ważne przy pracy z obrazami utworzonymi z panoramicznego wideo.. 7.

(18) 3. Fotogrametria panoramiczna Tab. 3.1. Przykładowe programy i aplikacje do pomiarów fotogrametrycznych z panoram.. Nazwa programu. Nazwa kamery z jaką współpracuje. Opis programu/aplikacji. Globespotter firmy Cyclomedia (2013). Indywidualnie stworzona kamera oparta o obiektywy typu „rybie oko”. Aplikacja internetowa, która udostępnia zobrazowania stworzone przez firmę Cyclomedia dostępna jest na stronie: https://globespotter.cyclomedia.com; aplikacja umożliwia pomiary wprost z panoram poprzez wykorzystanie wielu widoków wykonanych z poziomu ulicy; dodatkowo program pozwala na wyświetlanie na panoramach danych georeferencyjnych czyli np. map ewidencyjnych czy danych adresowych.. iStar Measurement Capture (Nctech, 2016). iStar firmy NCtech. Program do pomiarów na podstawie współosiowych panoram utworzonych kamerą iStar; kamera może być obsługiwana poprzez urządzenie mobilne lub poprzez ekran LCD umieszczony na kamerze.. Measure3D firmy Fovex (2015). Fovex Metric. Program do pomiarów na podstawie współosiowych panoram utworzonych na różnych wysokościach kamerą Fovex Metric; program pozwala na pomiary 3D z dokładnością do 1 mm na 10 metrach dzięki wysokorozdzielczym panoramom.. PanoMetric firmy PanoScan (2012). PanoScan. Aplikacja komputerowa stworzona przez tworców kamery PanoScan; umożliwia wykonywanie pomiarów z minimum dwóch współosiowych panoram cylindrycznych utworzonych kamerą PanoScan.. Photoscan Professional firmy Agisoft (2015). Dowolna, wymagane są panoramy w projekcji sferycznej lub cylindrycznej. Program pozwala importować wielostanowiskowe obrazy panoramiczne; można wykonać interaktywne pomiary na utworzonym modelu 3D przy wykorzystaniu algorytmów SfM.. Sphera, PointsRecord, Pano (Fangi i Nardinocchi, 2013). Lustrzanka cyfrowa na głowicy panoramicznej. Programy prof. Fangi pozwalają na orientację panoram sferycznych i interaktywne pomiary; wykorzystują głównie fragmenty panoram sferycznych utworzonych kamerami umieszczonymi na głowicy panoramicznej; mało intuicyjny interfejs; wiele poleceń i obliczeń wprowadzanych jest manualnie.. StereoPano firmy Kolor (2012). Lustrzanka cyfrowa na głowicy panoramicznej. Program StereoPano na podstawie dwóch panoram współosiowych sferycznych tworzy mapy głębokości (ang. depth maps); program jest w fazie rozwoju.. Trimble Business Center (Trimble, 2014). Trimble V10. Program komputerowy, który łączy pomiary GNSS, dane ze skaningu laserowego, zdjęcia lotnicze i naziemne, a także panoramy; użytkownicy mają możliwość importu i wizualizacji danych z wielu urządzeń; szybko i intuicyjnie można utworzyć model 3D dowolnego obiektu.. 3.4. Klasyfikacja metod pomiarowych wykorzystujących panoramy Pomiary z panoram można sklasyfikować w dwojaki sposób: dotyczący metody pomiarów lub celu i związanej z nim postaci uzyskanych wyników. Podział metod pomiarowych może dotyczyć liczby i konfiguracji sieci panoram (opracowanie pary panoram, wyrównanie wielostanowiskowe). Z kolei druga klasyfikacja dotyczy wyników pomiaru, jak np. odległość, pole powierzchni, a także wyznaczanie trajektorii przemieszczającego się punktu rzutowania czyli pozycjonowanie. Przykładowo: Huang (2014) zaproponowała klasyfikację w oparciu o kryterium wzajemnego położenia obrazów panoramicznych, która wiąże się z metodami pomiarów fotogrametrycznych. Jej podział dotyczy co prawda panoram cylindrycznych, ale w większości 8.

(19) 3. Fotogrametria panoramiczna. przypadków może mieć także zastosowanie do obrazów sferycznych. Wzorując się na podziale Huang, poniżej przedstawiono cztery sposoby wzajemnego położenia panoram sferycznych (tab. 3.2). Piąty sposób zaproponowany przez Huang (2014) czyli symetryczne panoramy (połączenie panoram i wycinków panoram) nie został ujęty w tabeli, ponieważ dla panoram sferycznych, inaczej niż dla panoram cylindrycznych, nie da się uzyskać efektu stereoskopowego. Wielostanowiskowe panoramy (w tym spoziomowane) najczęściej wykorzystuje się do tworzenia wirtualnych spacerów przedstawianych w interaktywnych panoramicznych przeglądarkach (Jacobs, 2004). Panoramy współosiowe wykonane na różnych wysokościach służą do rekonstrukcji fotografowanej przestrzeni, są one bardzo często spotykane w literaturze i w istniejących projektach (Huang et al., 2008; Huang et al., 2010). Natomiast panoramy koncentryczne służą głównie do wyznaczania parametrów orientacji wzajemnej kamer składowych (Parian i Gruen, 2005). Tab. 3.2. Przegląd metod do pomiarów fotogrametrycznych opartych o wzajemne położenie panoram sferycznych.. Wzajemne położenie panoram sferycznych. Wizualizacja rozmieszczenia panoram sferycznych. Wielostanowiskowe panoramy o równoległych osiach (np. panoramy spoziomowane) (ang. parallel-axis panoramas). Wielostanowiskowe panoramy (ang. multi-view panoramas). Panoramy współosiowe (ang. co-axis panoramas). Panoramy koncentryczne (ang. concentric panoramas). Źródło: opracowanie własne na podstawie (Huang, 2014). Poprawnie utworzony obraz panoramiczny może służyć do pomiarów fotogrametrycznych. Dokładność wykonania wysokorozdzielczych obrazów uzależniona jest m.in. od centryczności obrotów urządzenia panoramicznego i algorytmu składającego obrazy w panoramę. Niektóre systemy dioptryczne jednoobiektywowe można obracać ręcznie na głowicy panoramicznej, a inne – automatyczne - same obliczają kąt obrotu kamery i dostosowywują prędkość obrotu do czasu naświetlania. Centryczność środków rzutów zdjęć składowych panoramy decyduje w głównej mierze o dokładności pomiarów fotogrametrycznych. Pomimo znajomości geometrii obrazów panoramicznych ich zastosowanie w fotogrametrii nie jest częste. Pisa, Zeppa i Fangi (2011) oparli inwentaryzację stanowisk archeologicznych o obrazy 360°, a Uthaisri (2014) wykorzystał panoramy w systemach mobilnego kartowania. Szlapińska i Tokarczyk (2015) sprawdzili dokładność i rozdzielczość chmur punktów utworzonych z wysokorozdzielczych panoram. Bednarczyk i Pelc-Mieczkowska (2014) wskazują na duży potencjał wykorzystania panoram w geodezji i GIS, gdzie zaproponowali zastosowanie panoram jako rozszerzenie tradycyjnych opisów topograficznych punktów osnowy. Beers et al. (2011) wymieniają podstawowe warunki, jakie powinny spełniać panoramy, aby można było z nich wykonywać pomiary:     . zapewnienie podobnej jakości szczegółów położonych w zbliżonych odległościach od stanowiska fotografowania; wyrównany poziom naświetlenia; możliwość pomiaru w odpowiednich programach komputerowych; znajomość orientacji; wystarczająca rozdzielczość, nie mniejsza niż 4000×2000. 9.

(20) 3. Fotogrametria panoramiczna. Dodatkowo Beers et al. (2011), oprócz wskazania warunków wykonania panoram, określają dokładności pomiaru. W celu uzyskania dokładności bezwzględnej ok. 10 cm (dokładność wymagana przez systemy GIS), położenie kamery używanej do pomiarów powinno być także wyznaczone z dokładnością ok. 10 cm. Z kolei dokładność wyznaczenia orientacji kątowej powinna być w granicach 0,1° i lepsza.. 3.5. Geometria modelu sferycznego Rzutowanie (projekcja) to proces, który przedstawia trójwymiarowy obiekt na określonej płaszczyźnie zwanej rzutnią. Każdemu punktowi w przestrzeni 3D przypisywany jest odpowiadający mu punkt na rzutni 2D. Wyróżnić można rzuty wykorzystujące jako rzutnię powierzchnię sfery, walca, stożka czy innej bryły. W rozprawie bardziej szczegółowo omawiane jest rzutowanie na sferę. Przedstawienie zobrazowań panoramicznych na płaszczyźnie, np. na ekranie komputera, wiąże się również z zastosowaniem odpowiedniego rzutowania (Woeste, 2009). Wyróżnić można dwa typy powierzchni ze względu na sposób rozwijania danej bryły:  powierzchnie rozwijalne (prostokreślne) - to m.in. powierzchnie walcowe (cylindryczne) i stożkowe;  powierzchnie nierozwijalne – to m.in. sfera. Powierzchnie rozwijalne przekształcają każdą linię krzywą wchodzącą w jej skład w krzywą płaską o dokładnie takiej samej długości. W przypadku powierzchni nierozwijalnej (np. sfery) następują pewne przybliżenia. Dla obrazów panoramicznych wyróżnić można następujące typy rzutowań panoramicznych (zwanych często odwzorowaniami w nawiązaniu do pojęć stosowanych w kartografii) (Jacobs, 2004):  rzutowanie sferyczne (ang. spherical/equirectangular projection) (rys. 3.6a);  rzutowanie cylindryczne (ang. cylindrical projection) (rys. 3.6b);  rzutowanie kubiczne (ang. cubic projection) (rys. 3.6c).. a). b). c). Rys. 3.6 Typy rzutowań panoramicznych: a) sferyczne; b) cylindryczne; c) kubiczne.. Nie ma niestety jednej idealnej metody prezentacji panoram, podobnie jak to jest w przypadku przedstawiania powierzchni Ziemi na płaszczyźnie. Każda z płaskich reprezentacji panoram ma swoje wady i zalety, jednak tylko wybrane (cylindryczne (Kang i Weiss, 2001), sferyczne (Fangi, 2007) i sporadycznie kubiczne (Jauregui i White, 2005)) znalazły zastosowanie w fotogrametrii. Rzutowanie sferyczne lub odwzorowanie walcowe równoodległościowe (ang. equirectangular projection) to odwzorowanie, w którym punkty oddalone od równika o określoną długość, są w takiej samej odległości od równika na mapie (Gajderowicz, 2009). Szerokością geograficzną jest odległość od bieguna, co powoduje, że równania opisujące to odwzorowanie nie są skomplikowane. Tego typu odwzorowanie charakteryzuje się wiernokątnością oraz prostokątnym kształtem rzutni (stosunek boków wynosi 2:1) (rys. 3.7). Linia horyzontu oraz południki co 90° są liniami prostymi, pozostałe linie są zakrzywione (rys. 3.8) (Nieuwenhuijse, 2015). Projekcja nadaje się idealnie do pomiarów dwóch kierunków ze środka sfery (kąt poziomy i kąt zenitalny). Bieguny (zenit i nadir) umieszczone są na krawędziach (górnej i dolnej) obrazu w taki sposób, że występują jako linie (Gawthrop, 2009).. 10.

(21) 3. Fotogrametria panoramiczna. Rys. 3.7 Odwzorowanie walcowe równoodległościowe – mapa świata z południkami i równoleżnikami Źródło: https://commons.wikimedia.org/wiki/File: Equirectangular_projection_SW.jpg (dostęp: 8.07.2016). Rys. 3.8 Odworowanie walcowe równoodległościowe – schematyczna geometria Źródło: http://www.graphics.com/sites/default/files/old/ sections/rockynook/wildside/4.jpg (dostęp: 8.11.2016). Pole widzenia modelu sferycznego nie jest ograniczone, więc może to być panorama sferyczna pełna o polu widzenia 360°×180° lub niepełna (np. 120°×120°). Wiele przeglądarek panoramicznych5 (ang. panoramic viewer) (KrPano, Pano2VR, PTGui Viewer) obsługuje rzutowanie sferyczne. Panoramę nakłada się na tzw. wirtualną sferę oglądaną z punktu znajdującego się wewnątrz sfery. Ten sam punkt jest też środkiem rzutów, przez który powinny przechodzić promienie rzutujące przy tworzeniu panoramy sferycznej. Poprawnie utworzona panorama sferyczna (ze zdjęć składowych pozyskanych z użyciem statywu i głowicy panoramicznej) to pierwszy krok do wykonywania pomiarów z tego typu zobrazowań. Kolejny krok to poznanie zależności pomiędzy układami współrzędnych występującymi w panoramie sferycznej:  układ współrzędnych terenowych (X, Y, Z);  układ współrzędnych kamery sferycznej (x, y, z);  układ współrzędnych sferycznych (Rs, ϑ, φ);  układ współrzędnych obrazowych (xs, ys) lub układ współrzędnych pikselowych (u, v). Rysunek 3.9 przedstawia tok przebiegu procesu przeliczania współrzędnych terenowych na współrzędne obrazowe. Rysunek 3.10 ilustruje układ współrzędnych dla panoramy sferycznej, a rysunek 3.11 układy współrzędnych obrazowych dla panoramy sferycznej rozwiniętej na powierzchni. Tabela 3.3 zawiera równania na przeliczanie współrzędnych w różnych układach (oznaczenia literowe odnoszą się do rysunków 3.9, 3.10 i 3.11). W fotogrametrii sferycznej podstawą jest znajomość dwóch wartości kątowych ( ) i (φ) oraz długości promienia sfery (Rs), który oblicza się na podstawie obwodu panoramy sferycznej. Pomiar z wykorzystaniem panoram sferycznych można porównać do pomiaru kierunków teodolitem, gdzie również mierzone są dwa kąty: poziomy i pionowy (lub zenitalny). Jeśli panoramy nie są spoziomowane, to konieczne jest wprowadzenie poprawek dαx i dαy. Dotyczą one odchyleń od pionowości osi z w dwu płaszczyznach. Różnica pomiędzy kierunkiem mierzonym teodolitem lub za pomocą obrazów sferycznych polega na niższej dokładności pionowania osi sfery (Fangi i Nardinocchi, 2013).. 5. Aplikacje komputerowe, przeznaczone do oglądania panoram (sferycznych, cylindrycznych lub kubicznych) na ekranie komputera, umożliwiają zmianę wyświetlania fragmentu obrazu.. 11.

(22) 3. Fotogrametria panoramiczna. Rys. 3.9 Proces przeliczania współrzędnych dla panoramy sferycznej. gdzie: P – punkt w terenie P’ – obraz punktu terenowego na panoramie sferycznej Rs – promień panoramy sferycznej Rs’ – promień panoramy sferycznej przechodzący przez rzut punktu P na płaszczyznę Osxy (Ps). Rys. 3.10 Układy współrzędnych dla panoramy sferycznej. Źródło: opracowanie własne na podstawie (Fangi i Nardinocchi, 2013) gdzie: θo – początkowa wartość długości geograficznej dla panoramy sferycznej θ – długość geograficzna dla panoramy sferycznej ϑ – kąt poziomy - długość geograficzna panoramy sferycznej φ –kąt zenitalny - szerokość geograficzna panoramy sferycznej D1 - odległość punktu terenowego od środka rzutów panoramy sferycznej (odcinek OsP) Os – środek rzutów panoramy sferycznej Ps – rzut punktu P na płaszczyznę Osxy P’s – punkt utworzony poprzez przecięcie odcinka łączącego punkty Os i Ps ze sferą. 12.

(23) 3. Fotogrametria panoramiczna. H=πRs. W=2πRs gdzie: Δx’s, Δy’s – poziomy i pionowy rozmiar piksela W – szerokość panoramy sferycznej H – wysokość panoramy sferycznej Rys. 3.11 Układy współrzędnych: obrazowy (xs, ys) i pikselowy (u,v) w rzutowaniu sferycznym.. Tab. 3.3. Transformacje dla panoramy sferycznej.. Transformacja. 6. Równania =. A→B. ( −. ). =. (3.1) (3.2). + Promień Rs nadaje skalę obliczeniom. Poniższe równania są prawdziwe przy zachowaniu pionowości układu panoramy sferycznej. ∙ 2. =. ′. =. (3.3) 2. gdzie:. B→C. C→D. 6. - współczynnik skali między współrzędnymi na panoramie sferycznej a współrzędnymi terenowymi R – macierz obrotu z układu terenowego do układu kamery sferycznej nc – liczba kolumn w rzutowaniu sferycznym (3.4). ′. = ′ (3.5). . ∙ =. ′. Oznaczenia literowe odnoszą się do rys. 3.9. 13.

(24) 3. Fotogrametria panoramiczna D→E. =. (3.6). gdzie: = + przy założeniu, że =0 wtedy. =. (3.7). =. (3.9). =. (3.10). =. (3.11). (3.8). wtedy. =. −. (3.12). gdzie: nr – liczba wierszy w rzutowaniu sferycznym ( − )+ ( − ) = + . ( − )− ( − ) ( − )+ ( − )+( − − = . A→E. (3.13) ). (3.14). gdzie: dαx i dαy – odchyłki od pionowości względem osi x i y X, Y, Z – współrzędne terenowe punktu wyznaczanego Xo, Yo, Zo – współrzędne środka rzutów kamery sferycznej Źródło: opracowanie własne na podstawie (Fangi i Nardinocchi, 2013). Znając równanie kolinearności (3.1) można teraz sformułować równanie komplanarności dla dwóch panoram sferycznych (rys. 3.12). Równanie komplanarności dla panoram sferycznych ma następującą postać (Barazzetti et al., 2010): ×. ∙(. )=0. (3.15). gdzie: B – wektor łączący początki układu współrzędnych panoram sferycznych M1 i M2 – wektory rzutowe do punktu P. 0 [ ′. ′] ∙. ′. ′. − 0. ∙. − 0. −. ′′. ∙. ∙. (3.16). " " =0 ". gdzie: , , - składowe wektora bazy panoram sferycznych N’ i N” – macierze obrotu obu panoram sferycznych x’,y’,z’ – współrzędne kartezjańskie punktu P’ dla pierwszej panoramy sferycznej x”,y”,z” – współrzędne kartezjańskie punktu P” dla drugiej panoramy sferycznej. czyli po rozpisaniu: 1 ′. ′. ′. ′. ′. ′. ∙. ∙. − 0. − 1 ∙ −. ′′ ′′. ′′ 1 − ′′. 1 ′. − 0. ′. −. ′′ ′′ 1. ∙. ′′ ′′. ′′ ′′ = 0 ′′. 14. (3.17) ′. − ′. − 0 −. ′. 1.

(25) 3. Fotogrametria panoramiczna. Rys. 3.12 Komplanarność dwóch panoram sferycznych. Źródło: opracowanie własne na podstawie (Fangi i Nardinocchi, 2013) gdzie: ′- kąt zenitalny pierwszej panoramy sferycznej "- kąt zenitalny drugiej panoramy sferycznej ′ – kąt poziomy pierwszej panoramy sferycznej " – kąt poziomy drugiej panoramy sferycznej ′ , ′ , ′ - poprawki kątowe dla pierwszej panoramy ′′ , ′′ , ′′ - poprawki kątowe dla drugiej panoramy O’s i O”s – środki rzutów panoram sferycznych. 3.6. Fotogrametria sferyczna Fotogrametria wykorzystująca geometrię modelu sferycznego nazywana jest wieloobrazową fotogrametrią sferyczną (ang. Multi-image Spherical Photogrammetry - MISP - (d'Annibale et al., 2013)), fotogrametrią panoramiczną sferyczną (ang. Panoramic Spherical Photogrammetry - PSP - (Fangi i Nardinocchi, 2013)), a najczęściej fotogrametrią sferyczną (ang. spherical photogrammetry) (Barazzetti et al., 2010; Fangi, 2009). Fotogrametria sferyczna to dziedzina fotogrametrii bliskiego zasięgu wykorzystująca do pomiarów geometrii obiektów obrazy będące panoramami sferycznymi. Ten rodzaj fotogrametrii został wprowadzony przez Fangi (2007; 2009) na podstawie badań przeprowadzonych przez Luhmanna i Tecklenburga (2004) oraz Schneidera i Maasa (2003). Profesor Fangi opracował aplikacje, które służą do pracy z panoramami sferycznymi. Program PointsRecord.exe napisany w języku Fortran to aplikacja do pomiaru punktów homologicznych z panoram, natomiast Sphera.exe służy do orientacji obrazów panoramicznych na podstawie danych zapisanych w plikach tekstowych przez wcześniejszy program. Aplikacje działają na zasadzie odczytu plików o odpowiedniej nazwie i rozszerzeniu, a wynikiem ich pracy są także kolejne pliki tekstowe. Praca z aplikacjami jest żmudna i czasochłonna, gdyż dane wejściowe trzeba odpowiednio przygotować i kontrolować ich strukturę. Rezultatem prac z użyciem tych programów jest rysunek w postaci pliku DWG w odpowiednim układzie współrzędnych, który może być zaimportowany np. do programu Autodesk Autocad. W miarę opracowywania danych z wielu międzynarodowych projektów w dziedzinie dziedzictwa kulturowego (np. w Jordanii (D’Annibale i Fangi, 2009), w Libii (Pisa et al., 2011) czy w Syrii (Fangi et al., 2013)) powstawały wyżej wymienione aplikacje komputerowe, które pozwoliły na manualne utworzenie modeli 3D fotografowanych obiektów. Interaktywne modelowanie przestrzeni w środowisku aplikacji 3Dsmax (D’Annibale i Fangi, 2009) umożliwiło opracowanie metody szybkiego pozyskiwania panoram na miejscu, a późniejsze opracowanie zebranego materiału opierało się na długotrwałych ręcznych pomiarach. Wahbeh 15.

(26) 3. Fotogrametria panoramiczna. et al. (2016), na podstawie wcześniej utworzonych panoram sferycznych (Fangi et al., 2013) i zdjęć pozyskanych z baz internetowych, podjęli próbę wirtualnej rekonstrukcji świątyni Bel w Palmirze w Syrii, która została zniszczona podczas działań wojennych. Model 3D świątyni może być kiedyś podstawą do rekonstrukcji tego zabytku. Barazzetti et al. (2010) zainicjowali także badania nad przyspieszeniem pracy z panoramami sferycznymi i zaproponowali wstępną automatyzację rekonstrukcji obiektów, jednak dopiero dokładne poznanie przebiegu linii epipolarnych (Fangi i Nardinocchi, 2013) pozwoli na dalszą automatyzację pomiarów. Badania nad automatyzacją pomiarów z obrazów sferycznych są nadal prowadzone (Fangi, 2015). Fangi i Nardinocchi (2013) twierdzą, że fotogrametria sferyczna jest efektywnym narzędziem do prac dokumentacyjnych szczególnie istotnych w dziedzinie dziedzictwa kulturowego. Głównymi zaletami są: szybkość i kompletność rejestracji. Co więcej, koszt zakupu sprzętu potrzebnego do wykonywania pomiarów jest stosunkowo niski. Niestety oprogramowanie Fangi staje się mało przydatne w przypadku pracy z dużą liczbą średnio- lub wysokorozdzielczych obrazów panoramicznych, ponieważ często konieczne jest dla nich redukowanie pola widzenia. Znajomość geometrii epipolarnej pozwala na określenie położenia punktów homologicznych na parze panoram. Przecięcie się płaszczyzny epipolarnej przechodzącej przez środki dwóch panoram i punkt P kreśli linię epipolarną na każdej sferze, dla panoram sferycznych jest nią okrąg, a znajomość jego położenia przyspiesza znajdywanie odpowiadających sobie punktów (Fangi i Nardinocchi, 2013). Jednak w przypadku jakichkolwiek odstępstw od zachowania jednego wspólnego środka rzutów poznanie przebiegu linii epipolarnej na panoramach utworzonych z wielu kamer jest już o wiele bardziej skomplikowane.. 16.

(27)

Cytaty

Powiązane dokumenty

W ramach badań prowadzonych w naukach teologicznych nadaje się kategorii gatunku (formy wypowiedzi) szeroki zakres i eksponuje się funk- cjonalny punkt widzenia,

1. Zapis taki powinien się składać z następujących elementów ujętych w nawiasie kwadratowym: nazwisko autora cytowanej pracy, rok wydania publikacji i strona / strony, np.

W poniższej tabeli przedstawiono rozkład procentowy ich odpowiedzi (gwiazdką oznaczono od- powiedź poprawną). Naj- częściej wybieranym dystraktorem była odpowiedź A –

Uczestnicy przedsięwzięcia – dzieci, młodzież i ich ro- dzice i opiekunowie – będą mogli wziąć udział w krót- kich wykładach, warsztatach praktycznych, zajęciach

Ufam, że wyniki naszych badań choć w niewielkim stopniu przyczynią się do poznania wspaniałego daru języka, który dany jest człowiekowi i wspólnocie dla realizacji

Dysfunctions of the mitochondrial proteins lead to the mitochondrial diseases, which can be caused by muta- tions in mtDNA as well as in the nuclear genes.. Clinical features of

Obawy przed marginalizacją języka, jak i próby wyjaśniania, że będzie on jednym z języków urzędowych w Unii, to najczęściej pojawiające się tematy, które można odnaleźć

Bohdan Koziełło-Poklewski, Bohdan Łukaszewicz, wstęp Bohdan Koziełło-Poklewski, Olsztyn 1977 : [recenzja]. Komunikaty Mazursko-Warmińskie nr