• Nie Znaleziono Wyników

Przegląd aktualnie prowadzonych w Polsce prac badawczych w zakresie wykorzystania fotogrametrii i teledetekcji dla potrzeb gospodarki rolnej i leśnej.

N/A
N/A
Protected

Academic year: 2021

Share "Przegląd aktualnie prowadzonych w Polsce prac badawczych w zakresie wykorzystania fotogrametrii i teledetekcji dla potrzeb gospodarki rolnej i leśnej."

Copied!
43
0
0

Pełen tekst

(1)

Przegląd aktualnie prowadzonych w Polsce prac badawczych w zakresie wykorzystania fotogrametrii i teledetekcji dla

potrzeb gospodarki rolnej i leśnej.

S. Królewicz, J. Piekarczyk, I. Wyczałek

Opracowanie wykonane dla GUGiK na podstawie materiałów konferencji Wiosna w Geodezji i Kartografii – Teoria i praktyka współczesnej fotogrametrii i teledetekcji

oraz danych z literatury naukowej i Internetu

Poznań - 2005

(2)

Spis treści

1. Wprowadzenie

2. Źródła danych obrazowych 2.1. Wstęp

2.1. Źródła danych obrazowych

2.2. Cyfrowe lotnicze sensory obrazujące

2.3. Sensory satelitarne o bardzo wysokiej rozdzielczości

2.4. Uzupełniające urządzenia rejestrujące w systemach teledetekcyjnych 2.5. Bibibliografia do podrozdziału 2

3. Wstępne przetwarzanie danych 3.1. Wprowadzenie

3.2. Metody poprawiające jakość danych teledetekcyjnych

3.2.1. Metoda trendu powierzchniowego i jej zastosowanie do wyrównania jasności zdjęć lotniczych 3.2.2. Łączenie danych teledetekcyjnych o różnej rozdzielczości przestrzennej i spektralnej 3.3. Problematyka jakości danych po korektach geometrycznych i radiometrycznych

3.4. Ortorektyfikacja obrazów lotniczych i satelitarnych 3.5. Bibibliografia do podrozdziału 3

4. Algorytmy segmentacji i klasyfikacji obrazów dla potrzeb aktualizacji SIP

4.1. Idea metodyki aktualizacji danych w ramach SIP z wykorzystaniem danych teledetekcyjnych 4.2. Automatyczna detekcja zmian zabudowy

4.2.1. Podstawy teoretyczne 4.2.2. Implementacja metody 4.2.3. Podsumowanie metody

4.3. Adaptacyjny algorytm rozpoznawania obrazów dla detekcji dróg 4.3.1. Podstawy teoretyczne

4.3.2 Test praktyczny

4.2.3. Wnioski z pierwszych prób implementacji metody 4.4. Analiza użyteczności algorytmu segmentacji gęstościowej

4.4.1. Podstawy teoretyczne metody 4.4.2. Implementacja

4.5. Wnioski

4.6. Bibibliografia do podrozdziału 4

5. Zastosowanie metod teledetekcyjnych w rolnictwie i leśnictwie 5.1. Metody teledetekcyjne stosowane w rolnictwie

5.2. Zastosowanie teledetekcji gospodarce leśnej 5.3. Bibliografia do rozdziału 5

(3)

1. Wprowadzenie

Współczesne czasy charakteryzują się wzrastającą dynamiką prób zastosowań fotogrametrii i teledetekcji w różnych dziedzinach gospodarki, co z jednej strony jest efektem niebywałego wzrostu rozdzielczości i szczegółowości źródeł danych obrazowych, z drugiej zaś – wynikiem znaczącego postępu w rozwoju teorii. Efektem tych dynamicznych zmian jest, a przynajmniej być powinno, ich wdrażanie w inicjatywy zmierzające do rozwoju społeczeństw bazujących na wiedzy. W tym sensie omawiana dziedzina współtworzy nowe reguły życia wspólnotowego i jego zrównoważonego rozwoju. Jest to także jeden z podstawowych warunków rozwoju naszego kraju w jego dążeniach do współtworzenia zasad współżycia społeczeństw w ramach wspólnych inicjatyw europejskich.

Polska nauka podąża śladem czołowych ośrodków naukowo-badawczych i wdrożeniowych podejmując próby rozwoju rozwiązań teoretycznych i aplikacyjnych w tym zakresie. Praktycznym wyrazem uzyskiwanych efektów naukowo-badawczych w tej dziedzinie w naszym kraju jest wzrastająca liczba publikacji, co otwiera przed twórcami prac możliwości podejmowania współpracy międzynarodowej. Jedną z form wymiany doświadczeń w omawianej dziedzinie jest zapoczątkowany w bieżącym roku cykl dorocznych tematycznych seminariów naukowych organizowanych przez Zakład Geodezji Politechniki Poznańskiej we współpracy z innymi ośrodkami naukowo-dydaktycznymi, przede wszystkim z Instytutem Geografii Fizycznej i Kształtowania Środowiska Przyrodniczego Uniwersytetu Adama Mickiewicza. Przedmiotem niniejszego opracowania jest przegląd tematów poruszanych w referatach zgłoszonych na pierwsze seminarium poświęcone tej tematyce, które miało miejsce w ramach cyklicznej konferencji z cyklu „Wiosna w geodezji i kartografii”. Przegląd powyższy zostanie odniesiony do możliwości zastosowania różnorodnych technik teledetekcyjnych w rolnictwie i leśnictwie oraz porównany z dostępnymi w literaturze tematu publikacjami naukowymi.

Fotogrametria i teledetekcja, jako nauki o zdalnym pozyskiwaniu i przetwarzaniu informacji o przestrzennym rozmieszczeniu przedmiotów lub zjawisk, bazują na trzech podstawach technologicznych, obejmujących rejestrację, określenie geometrycznych cech obiektów oraz interpretację ich cech jakościowych.

Metody rejestracji obrazów powierzchni ziemi są przedmiotem ciągłego procesu podnoszenia szybkości, jakości i powtarzalności. Tematykę tę poruszali podczas obrad zarówno zaproszeni wykładowcy (A. Bujakiewicz, A.

Linsenbarth) jak i autorzy referatów (A. Plichta, Z. Zdunek). Przegląd tych metod jest przedmiotem drugiego rozdziału niniejszego opracowania. Obejmuje on wprawdzie jedynie omówienie cech wybranych systemów pozyskiwania obrazów, ale jest niezmiernie istotny z punktu widzenia prób wykorzystania produktów pracy tych systemów. Wśród cech sensorów teledetekcyjnych, których rozwój był w ostatnich latach kilku latach najbardziej widoczny, należy wymienić rozdzielczość przestrzenną, rozdzielczość spektralną (sensory hiperspektralne) oraz wprowadzenie kamer cyfrowych na obszar zastosowań fotogrametrycznych.

Bardzo ważne ze względu na efekty interpretacji obrazów jest zachowanie ich w postaci możliwie najbliższej danym źródłowym, lub takie ich przetworzenie, aby w efekcie uzyskać informację bogatszą w treść. Na etapie przygotowania danych obrazowych należy zatem stosować odpowiednie procedury korekcyjne, a w systemach satelitarnych o najwyższej rozdzielczości - metody łączenia kanałów lub scen pochodzących z różnych sensorów.

Problematyka znalazła odzwierciedlenie w wykładzie pani prof. A. Bujakiewicz,, oraz referentów: S. Królewicz, A.

Osińska-Skotak, Z. Zdunek i M. Mróz. Tematyka ta jest omówiona w trzecim rozdziale.

W zastosowaniach aplikacyjnych szczególnie interesujące są rozwiązania zmierzające do sporządzania, weryfikacji i aktualizacji topograficznych baz danych systemów informacji przestrzennej w oparciu o dane teledetekcyjne.

W rozdziale czwartym przedstawione są próby autorskich opracowań algorytmicznych mających na celu zautomatyzowanie tych procesów (J. Jelonek, K. Krawiec, I. Wyczałek). Aplikacyjne zastosowanie fotogrametrii i teledetekcji omówione zostały w rozdziale piątym.

(4)

2. Źródła danych obrazowych

2.1. Wstęp

Od wielu lat głównym źródłem danych w technologiach fotogrametrycznych były analogowe zdjęcia lotnicze. Od połowy lat 90-tych, tj. od okresu, w którym metody analogowe zostały zastąpione współczesnymi technologiami fotogrametrii cyfrowej, zdjęcia (obrazy) w postaci cyfrowej, stały się podstawową formą danych źródłowych dla opracowań fotogrametrycznych. Obrazy cyfrowe uzyskiwane z pułapu lotniczego, można pozyskać bezpośrednio - lotniczymi kamerami cyfrowymi, albo jak ciągle powszechnie ma to miejsce w wielu krajach, w tym w Polsce, poprzez skanowanie zdjęć analogowych. Uzyskiwanie zdjęć konwencjonalnymi kamerami optycznymi stanowi jedyny element o charakterze analogowym, w łańcuchu technologicznym fotogrametrycznej technologii cyfrowej. Alternatywnym źródłem do zdjęć lotniczych w średniej skali, stają się wysokorozdzielcze obrazy satelitarne (VHRS), pozyskiwane już obecnie kilkoma systemami. Ze względu na stale rosnącą rozdzielczość przestrzenną i radiometryczną takich obrazów oraz przewidywane, w najbliższych kilku latach, następne systemy generujące obrazy o jeszcze wyższej rozdzielczości, obrazy VHRS niewątpliwie dostarczą bardzo cennych informacji geometrycznych do aktualizacji baz danych topograficznych oraz wielu zastosowań tematycznych.

2.2. Cyfrowe lotnicze sensory obrazujące

Zapisu obrazu w teledetekcji dokonuje się dwoma sposobami: „klasycznym” na filmie fotograficznym oraz cyfrowym. Różnią się one charakterem relacji pomiędzy wartością natężenia promieniowania elektromagnetycznego a gęstością optyczną na negatywie fotografii lub wartością liczbową jasności na obrazie cyfrowym. Gęstość optyczna, określająca stopień zaczernienia na negatywie, związana jest z natężeniem reakcji fotochemicznych. Natężenie tych reakcji zależy w sposób logarytmiczny od ilości energii padającej na film fotograficzny, tzn. że jednostkowy przyrost gęstości optycznej nie jest związany prostoliniowo z jednostkowym wzrostem wartości promieniowania elektromagnetycznego. W przypadku sensorów cyfrowych relacja ta ma charakter prostoliniowy (Lillesand i Kiefer, 1994), czyli jednostkowy wzrost wartości energii powoduje jednostkowy przyrost wartości w skali liczbowej (ryc. 1).

Ryc. 1. Sposób zapisu zróżnicowania promieniowania elektromagnetycznego na fotografii i obrazie cyfrowym.

Postęp technologiczny między fotografią analogową a cyfrową nie ogranicza się jedynie do zmiany sposobu zapisu obrazu, którego naturalną konsekwencją jest eliminacja procesów obróbki fotochemicznej i skanowania, czyli zamiany postaci analogowej na cyfrową. Coraz szersze wprowadzanie fotografii cyfrowej jest ukierunkowane na zwiększenie rozdzielczości spektralnej i jakości opracowań przestrzennych. Zastosowanie kontroli jakości i ekspozycji

(5)

podczas nalotu zwiększa operatywność systemu rejestracji w trybie rzeczywistym. Oczywistym walorem stosowania kamer cyfrowych jest zapewnienie wysokiej automatyzacji, zarówno w trakcie pozyskiwania obrazów jak i ich opracowywania, dzięki zwiększeniu zgodności w procedurach przetwarzania automatycznego.

Rozdzielczość obrazów fotograficznych zależy od zdolności rozdzielczej zarówno filmu fotograficznego i układu optycznego kamery. Zamieniając postać analogową zdjęcia fotograficznego na cyfrową istotne jest również dobranie odpowiedniej rozdzielczości optycznej skanowania. Zdolność rozdzielcza filmów fotograficznych związana jest z czułością filmu i kontrastem pomiędzy obiektami. Im wyższa czułość filmu, tym niższa zdolność rozdzielcza. Im większy kontrast pomiędzy obiektami, tym dokładniej zostaną one zarejestrowane. Przeciętna zdolność rozdzielcza typowych niskokontrastowych filmów lotniczych waha się od 100 do 150 par linii w milimetrze, co odpowiada rozdzielczości od 7500 do 11500 dpi (na podstawie dokumentacji technicznych filmów lotniczych firm KODAK i AGFA, dostępnych w internecie na rok 2004). Zdolność rozdzielcza obiektywów kamer lotniczych RC30 i RMK TOP wynosi około 100 par linii w milimetrze. W wymaganiach technicznych, obowiązujących w USA dla kamer z ogniskową 153 mm, przyjmuje się, że średnia zdolność rozdzielcza w ramach całej klatki zdjęcia powinna wynosić średnio 65 par linii w milimetrze (USGS Aerial Camera Acceptance Specifications For 153-mm Focal Length), co odpowiada rozdzielczości skanowania około 5000 dpi (punktów na cal). Możliwości skanerów wykorzystywanych do uzyskania postaci cyfrowej z negatywów są wyższe. Skaner fotogrametryczny LH Systems DSW500 posiada rozdzielczość optyczną wynoszącą 7500 dpi (Dam i in., 2000). Zatem zeskanowany negatyw zdjęcia lotniczego o rozmiarach 23 cm na 23 cm z rozdzielczością 5000 dpi, posiada potencjalnie wymiar 45000 x 45000 pikseli.

Rejestracja obrazu w kamerach cyfrowych odbywa się w dwojaki sposób: za pomocą liniowej lub prostokątnej macierzy CCD. Zapisując obraz kamerą wyposażoną w macierz liniową uzyskuje się ciągły pas obrazu. Ten sposób rejestracji wyklucza stosowanie tradycyjnego oprogramowania fotogrametrycznego, a zapis obrazu linia po linii ogranicza stosowanie szerokiego zakresu czasów naświetlenia i wyklucza wykorzystanie techniki kompensacji FMC (Forward Mution Compensation) do korekcji zmazu obrazu (Kasser i Egels, 2002; Heier, 2001). Zmaz obrazu powstaje wskutek różnicy prędkości pomiędzy przesuwającym się w kadrze obrazem powierzchni Ziemi a nieruchomym elementem rejestrującym obraz. W kamerach LH Systems ADS-40 i DPA macierz liniowa ma szerokość 12000 pikseli (Fricker i in., 1999; Beutner in., 1999). Obrazy uzyskiwane za pomocą macierzy prostokątnych CCD odpowiadają kształtem zdjęciom fotograficznym, co umożliwia ich przetworzenie za pomocą standardowego oprogramowania fotogrametrycznego. Obraz z cyfrowej kamery Z/Iimaging DMC 2001 rejestrowany jest przez cztery oddzielne macierze i ma łączny wymiar 8000 na 14000 pikseli (Kasser i Egels, 2002; Diener i in., 2000). Wymiar elementów światłoczułych stosowanych w omawianych kamerach cyfrowych wynosi obecnie od 9 do 12 µm, co odpowiada rozdzielczości 2500 dpi.

Obraz w postaci cyfrowej jest zapisywany z większą rozdzielczością radiometryczną (Heier i Hinz, 1999; Fricker i in., 1999). Na typowym panchromatycznym filmie lotniczym lub jednej warstwie filmu kolorowego można zapisać około 180 poziomów szarości, natomiast na odpowiadającym mu obrazie cyfrowym - ponad 4000 poziomów (Camera Calibration Panel Report, 2000), przy 12-bitowym kodowaniu sygnału.

Jak w wspomniano powyżej, obraz w kamerach cyfrowych może być rejestrowany na dwa sposoby. W pierwszym, obraz terenu jest rejestrowany dynamicznie, z wykorzystaniem szeregu linii detektorów. Pierwszą kamerą tego typu, której prototyp został zaprezentowany na XIX Kongresie ISPRS w Amsterdamie w roku 2000 i od kilku lat powoli wchodzi na rynek, jest kamera ADS 40 firmy Leica Geosystems. Urządzenie to rejestruje obraz w w szerokopasmowym zakresie panchromatycznym (465-680 nm) dla opracowań stereoskopowych, oraz dodatkowo w węższych zakresach spektralnych RGB (610-660, 535-585, 430-490 nm) i INR (835-885 nm). System jest wspomagany przez urządzenie GPS/INS, pozwalające na ciągłe określenie zmian pozycji platformy rejestrującej w czasie lotu. Na poniższej ilustracji przedstawiony jest przekrój przez urządzenie oraz schemat rejestracji obrazu.

(6)

a) b)

Ryc. 2. Kamera ADS 40 – (a) przekrój i (b) idea rejestracji za pomocą linijek CCD

Alternatywnym rozwiązanie rejestracji obrazu wykorzystuje prostokątne matryce CCD. W celu zwiększenia rozdzielczości geometrycznej, z jednoczesnym warunkiem zachowania obrazu wielkoformatowego, na matrycach CCD rejestruje się podobrazy, które następnie łączy się ze sobą cyfrowo. Pierwszą kamerą tego typu, prezentowaną w 2000 roku w Amsterdamie, która od kilku lat jest w sprzedaży, to cyfrowa modularna kamera DMC firmy Z/I Imaging, z modułami PAN i MS, pozyskująca obraz (o matrycy 14k x 8k), na podstawie czterech podobrazów, generująca 12-bitowy obraz panchromatyczny z rozdzielczością terenową sięgającą 0,05 m. Na rycinie 3 przedstawiono widok ogólny oraz schemat łączenia czterech obrazów cząstkowych w jeden.

a) b)

Ryc. 3. Kamera DMC – (a) widok, (b) złożenie czterech części obrazu.

Obecnie intensywnie rozwijane są systemy konkurencyjne, które niewielki spadek jakości i komfortu pracy rekompensują zdecydowanie niższą ceną. Pojawiają się w nich również nowe rozwiązania, nie obecne w wyżej omówionych lotniczych kamerach cyfrowych. Grupę tę tworzą między innymi kamery UltraCamD firmy Vexcel Imaging GmbH (Austria), DiMAC (Dimac Systems Luksemburg), seria Digi-CAM firmy IGI mbH (Niemcy).

Kamera UltraCam D jest wielogłowicowym zespołem złożonym z 4 modułów panchromatycznych, dających wynikowy obraz o rozdzielczości 11,5k x 7,5k pikseli, oraz 4 modułów wielospektralnych (RGB i NIR), każdy o wymiarach 4k x 2,7k pikseli. Piksel we wszystkich obrazach na rozmiar 9 µm a rozdzielczość radiometryczna wynosi 14 bitów. Najmniejsza wielkość piksela w mierze terenowej przy odległości fotografowania 500 m wynosi 0,05 m, podobnie

(7)

jak dla kamery DMC 2001. Kamera ta pozyskuje 2775 obrazów przez 6-godzin ciągłej pracy, z pokryciem podłużnym 70

% lub większym. Zdjęcia są wykonywane w czasie min czasie co 0.75 s. Kamera obsługiwana jest w trakcie pracy przez 15-procesorowa stację roboczą wyposażoną w 30 mobilnych dysków twardych, co pozwala zarejestrować około 1 Tb danych. Badania wykazały, że dokładność ‘matchingu’ jest około 2,5 razy wyższa niż ze zdjęć skanowanych. Wynika to z wykorzystania większej liczby obrazów dla matchingu, a w szczególności z zastosowania wielopromieniowej korelacji elementów obrazu (multi ray matching). Widok ogólny kamery wraz ze stacją robocza przedstawia rycina 4.

a) b) c)

Ryc. 4. Kamera UltraCam: a) widok ogólny, b) sposób formowania obrazu, c) stacja robocza.

Możliwość rejestracji obrazów z bardzo dużym pokryciem stwarza dogodne warunki do korekcji obrazu wynikowego do standardowych warunków oświetlenia lub uzyskiwania danych o charakterystyce dwukierunkowej rejestrowanych obiektów. Szersze możliwe wykorzystanie tej okoliczności, będzie możliwe po zastosowaniu w tej kamerze obiektów z szerszym polem widzenia. Obecnie uzyskiwany obraz charakteryzuje się 55° stopniowym polem widzenia w poprzek i 37° w kierunku poprzecznym kierunku lotu. Jeżeli zadane zostanie pokrycie 95% , wówczas jeden punkt zostanie zarejestrowany na 20 kolejnych obrazach (Franz L. Michael Gruber., 2003; F. Leberl i in., 2003). Kamera ta jest pod względem rozdzielczości porównywalna z kamerami DMC i ADS40, jednak dzięki niższej cenie ma zdecydowanie większy zbyt. Opieka serwisowa kamery jest wspomagana przez Internet.

Kamera DiMAC może się składać z maksymalnie czterech modułów, montowanych na wspólnym stabilizowanym podwieszeniu. Każdy moduł to obiektyw o różnej ogniskowej (60, 80, 100,120 i 150 mm) i możliwym innej charakterystyce spektralnej. W kamerze tej zastosowano najwyższą z omawianych do tej pory rozdzielczość radiometryczną, do 16 bitów na pojedynczy kanał, co pozwala uzyskiwać obrazy kolorowe z 48-bitowa głębią koloru.

Taki obraz pozwala rozróżniać szczegóły ukryte w bardzo głębokich cieniach. W trakcie lotu obrazy są zapisywane na urządzeniu wyposażonym 120 Gb dyski twarde. Każdy moduł jest oparty na kolorowej matrycy CCD o wymiarach 5440 x 4080 pikseli. Rozdzielczość naziemna uzyskiwanych obrazów jest taka sama jak dla omawianych powyżej kamerach, tj.

maksymalnie 5 cm.

a) b)

ryc. 5. Kamera DiMAC: a) widok ogolny, b) pojedynczy moduł.

(8)

Na rynku pojawiły się także średnio rozdzielcze kamery cyfrowe (z matrycą 4k x 4k), które są wyposażone w zintegrowany system GPS/INS, w celu bezpośredniego geokodowania (np. kamera DSS firmy Applanix). W tym przypadku, zakłada się tzw. georeferencję wprost, co oznacza, że nie wykonuje się już wtórnego wyrównania parametrów orientacji zewnętrznej w etapie aerotriangulacji, lecz wyznaczone w czasie lotu parametry są zastosowane dla fotogrametrycznego wcięcia w przód, gwarantując dokładność terenową rzędu 0,30 m.

Należy się jednak spodziewać, że ze względu na pojawianie się na rynku coraz to nowych tańszych cyfrowych kamer lotniczych, powszechne wdrożenie do produkcji fotogrametrycznej będzie realne w ciągu najbliższych kilku lat.

Coraz powszechniejsze stanie się wykorzystywanie w fotografii lotniczej urządzeń tanich, choćby zwykłych aparatów cyfrowych, których możliwości wzrastają znacznie szybciej niż urządzeń profesjonalnych do fotografii lotniczej. Obecne są już dostępne urządzenia, na rynku aparatów domowych, których rozdzielczość osiąga 12 mln pikseli i posiadają stabilizatory obrazu. Takie urządzenia znajdują zastosowanie nie tylko w fotografii naziemnej, lecz również lotniczej.

Pozwalają one w tani sposób pozyskać dane do inwentaryzacji, co ma zastosowanie w wielu dziedzinach wiedzy, np. w naukach rolniczych, biologicznych i geograficznych oraz w archeologii. Ma to uzasadnienie wtedy, kiedy dokładność duża geometryczna danych nie jest wymagana. Powstaje również wiele programów do fotogrametrycznego przetwarzania zdjęć z takich tanich aparatów, przygotowane przez firmy zajmujące się do tej pory tylko typową geodezją.

2.3. Sensory satelitarne o bardzo wysokiej rozdzielczości

Drugą grupę systemów służących do rejestracji topografii terenu i pokrycia, stanowią wysokorozdzielcze systemy satelitarne (VHRS), które są systemami komercyjnymi. Od kilku lat zostały one udostępnione dla celów cywilnych. W projektowanych dalszych systemach przewiduje się ich zastosowanie zarówno do potrzeb cywilnych jak i wojskowych. Ze względu na koszty przewiduje się także przejście od satelitów średnich i dużych (masa od 500 do powyżej 1000 kg), które są drogie, do tańszych i lżejszych (10 – 500 kg).

Obecnie i w najbliższych latach, do roku 2010, przewiduje się grupę około 20 satelitarnych systemów wysokorozdzielczych, generujących obrazy PAN z rozdzielczością co najmniej od 0,5 do 2,0 metrów, w trybie mono i stereo, oraz obrazy MS z różną liczbą kanałów spektralnych. Najbardziej popularne systemy VHRS wykorzystywane obecnie do celów kartometrycznych, to:

– IKONOS 2 (Space Imaging), generujący obrazy PAN (526-929 nm) z rozdzielczością geometryczną 1 m oraz obrazy MS (w 4 kanałach spektralnych: 632-698, 506-595, 445-516 i 757-853 nm) z rozdzielczością 4 m.

– QuickBird 2 - obrazy PAN (450-900 nm) z rozdz. 0,6 m, oraz obrazy MS (4 kanały: 450-520, 520-600, 630-690 oraz 760-900 nm) z rozdzielczością 2,5 m.

– EROS A1 (ImageSat) - obrazy PAN z rozdz. 1,8 m.

– ORBView 3 - obrazy PAN z rozdz. 1 m, oraz obrazy MS (4 kanały) z rozdz. 4 m.

Dostępne są w sprzedaży rosyjskie obrazy panchromatyczne z satelitów Resurs DK-1 i DK2, z rozdzielczością 1 i 1,5 m, wielospektralne z rozdzielczością 2-3 m (np. dostępne przez Internet GEMI Store, jednego z największych dystrybutorów danych przestrzennych). Obszary zarejestrowane przez tego satelitę i zarchiwizowane nie obejmują obszaru Polski.

Popularny system SPOT 5, pozwala obecnie generować stereoskopowe obrazy panchromatyczne HRS z rozdzielczością interpolowaną 2,5 m, z tym że trzeba podkreślić, iż powstają one na skutek zwiększenia rzeczywistej rozdzielczości naziemnej wynoszącej 5 m. Przewiduje się, że w przyszłości program SPOT zostanie zastąpiony przez francusko-włoski program ORFEO, w ramach którego będzie rozwijana seria wysokorozdzielczych systemów Pleiades, obrazująca w zakresie optycznym (rozdzielczość 0,7 m i wyższa), w połączeniu z wysokorozdzielczymi obrazami

(9)

mikrofalowymi SAR (program COSMO-SkyMed). Innym celem który zamierza się zrealizować przy budowie wspomnianych systemów satelitarnych, to powtarzalność zobrazowań mniejsza od 3 dni.

Należy zwrócić uwagę na niektóre ważne podkreślenia aspekty, w przypadku stosowania satelitarnych obrazów VHRS dla celów kartometrycznych. Wysoka obecnie rozdzielczość geometryczna obrazów VHRS będzie się zwiększała w najbliższych latach. Mówi się, że wkrótce rozdzielczość obrazów QuickBird wyniesie 0,50 m, a za kilka lat pojawią się systemy, dla których rozdzielczość może nawet osiągnąć 0,25 m. Odnosząc wspomniane dane o rozdzielczości naziemnej do informacji o rozdzielczości sensorów wojskowych, można mieć lepiej określoną perspektywę rozwoju danych dostępnych dla sektora cywilnego. Na podstawie dostępnych w literaturze danych rozdzielczość naziemna obrazów wykonywanych przez sensory amerykańskie z serii KH-12, umieszczone na pokładach satelitów wojskowych, osiąga 10 cm (Pike, 2000; Petrle, 2002).

Przeprowadzone prace eksperymentalne dotyczące ortorektyfikacji wysokorozdzielczych obrazów satelitarnych pozyskanych z systemów Ikonos, QuickBird i EROS, wskazują na możliwość wygenerowania cyfrowych ortofotomap z pikselem 1,0 m dla obrazu Ikonos, 0,6 m dla obrazu QuickBird oraz 1,8 m dla obrazu EROS. Należy jednak podkreślić, że skuteczność i dokładność procesu ortorektyfikacji jest uzależniona od przyjętego modelu matematycznego oraz rodzaju i rozmieszczenia punktów referencyjnych.

Rozdzielczość geometryczna ortofotomap satelitarnych nie oznacza ich dokładności pozycyjnej, tj. dokładności pomiaru zarejestrowanych obiektów topograficznych. Dokładność ta jest zależna od rodzaju obiektu, jego identyfikacji i rozpoznawalności na obrazie. Przyjmuje się, że na tego typu obrazach można określić pozycję z dokładnością 1,0-2,0 razy wymiar piksela. Oznacza to, że ortofotomapy uzyskane z obrazów satelitarnych Ikonos i QuickBird stają się konkurencyjne pod względem dokładności pozycyjnej do ortofotomap, uzyskiwanych na podstawie średnioskalowych zdjęć lotniczych w skali 1:26 000. Należy tutaj jednak zwrócić uwagę na to, że jak wynika z doniesień literaturowych, zasób treści limitowany rozdzielczością jest niższy niż w przypadku zdjęć lotniczych i może być to ograniczeniem dla niektórych zastosowań.

W stosunku do zobrazowań lotniczych, gdzie pole widzenia wynosi przeciętnie 56° (ogniskowa 210 mm, wymiar zdjęcia 23 x 23 cm) lub 94° (ogniskowa 150 mm), zobrazowania satelitarne wykonywane są przy bardzo małym polu widzenia, mniejszym niż 2° (IKONOS 2°, QuickBird – 1°). Ma to olbrzymie znaczenie przy wykonywaniu korekcji danych, ponieważ kąt obserwacji dla całej sceny jest prawie taki sam. Również jakość radiometryczna danych w stosunku do danych analogowych jest dużo wyższa. Większość wysokorozdzielczych systemów satelitarnych posiada możliwość ukośnego ustawienia się względem pozycji nadirowej, np. IKONOS pozwala na wykonywanie zobrazowań pod kątem do 30°. Pozwala to na wykonywanie zdjęć tego samego punktu na powierzchni Ziemi, co trzy dni, jeśli oczywiście panują w danym okresie sprzyjające warunki atmosferyczne.

Obserwując rozwój wysokorozdzielczych urządzeń satelitarnych można zauważyć, iż miały być one konkurencją dla analogowych zdjęć lotniczych przynajmniej w dwóch aspektach: relatywnie niższej ceny na jednostkę powierzchni oraz miały oferować kilka kanałów spektralnych (chodzi zwłaszcza o bliską podczerwień). W pewnym sensie te założenia zostały wprowadzone w życie. Jednak cena zakupu zdjęć satelitarnych nadal jest wysoka, między innymi z powodu stosowania minimalnych powierzchni do jednorazowego zakupu. Przez długi okres było 100 km2, ostatnio zmniejszono tę powierzchnię do 50 km2 (odpowiada mniej więcej powierzchni 100-tysięcznego miasta). Było to i jest nadal ograniczenie, którego nie mogą pokonać niektóre zainteresowane kręgi użytkowników: duże gospodarstwa rolne czy naukowcy prowadzący eksperymenty na niewielkich obszarach testowych. W przypadku naszego kraju mniejsza popularność wysokorozdzielczych zdjęć satelitarnych wynika również z niesprzyjających warunków pogodowych.

Wprowadzenie na komercyjny rynek pierwszych egzemplarzy urządzeń cyfrowych przeznaczonych dl fotogrametrii i teledetekcji lotniczej nastąpiło w niecały rok od pojawienia się wysokorozdzielczych urządzeń satelitarnych. Początkowo były to tylko dwa urządzenia ADS40 i DMC, które to są dość drogie. Jednak w ostatnim czasie pojawiło się kilka zdecydowanie tańszych rozwiązań, które spowodowały wzrost liczby wykorzystywanych

(10)

praktycznie kamer cyfrowych. Lotnicze kamery cyfrowe, podobnie jak sensory satelitarne oferują obrazy wielospektralne jednak w dużo wyższej rozdzielczości, zarówno przestrzennej jak i radiometrycznej.

2.4. Uzupełniające urządzenia rejestrujące w systemach teledetekcyjnych

Ważnym uzupełnieniem systemów rejestrujących zobrazowania wykorzystywane dla celów kartometrycznych są:

– Lotniczy skaning laserowy – LIDAR (Light Detection and Ranging), rozwijany intensywnie od połowy lat 90-tych, dla generowaniach dokładnych numerycznych modeli rzeźby terenu (NMT) oraz tworzenia trójwymiarowych modeli miast. Jest to impulsowo pracujący dalmierz laserowy, połączony z głowicą skanującą i sprzęgnięty z systemem precyzyjnego pozycjonowania DGPS/INS, który rejestruje ogromną chmurę punktów wysokościowych terenu, dochodzącą nawet do 7 mln punktów na milę kwadratową. Ważną zaletą systemu, jest to, że część wysyłanych impulsów promieniowania odbija się od powierzchni pokrycia terenu (pierwsze odbicie – first pulse mode) natomiast część promieniowania (około 30% latem i 70% zimą) przenika przez roślinność i odbija się od topograficznej powierzchni terenu (najdalsze odbicie – last pulse mode). W niektórych modelach możliwe jest wyróżnienie 4 poziomów odbicia. Stosując odpowiednie oprogramowanie dla filtracji i klasyfikacji pokrycia, można uzyskać NMT z dokładnością od 15 do 30 cm oraz każdy punkt pokrywający teren może być zaklasyfikowany do osobnych zbiorów, dotyczących odpowiedniego rodzaju tego pokrycia (np. różnego rodzaju roślinność, budynki, linie energetyczne, itp.). Lotnicze systemy laserowe często łączy się z kamerą cyfrową, celem uzyskania jednocześnie obrazu terenu, z którego można wygenerować ortofotografię, lub z kamerą video dla zarejestrowania ogólnego widoku terenu.

Przykładami lotniczych systemów laserowych, są: ALS50 firmy Leica Geosystems, pozwalający generować NMT z dokładnością 0,15 m; FALCON firmy Toposys; system ATLAS SL, do rejestrowania powierzchni terenu i jej pokrycia z małych wysokości od 20 do 280 m; system ALTM 3100 firmy Optech (łączony z kamerą DMC firmy Z/I Imaging);

system LiteMapper, prezentowany przez firmę IGI mbH na XX Kongresie ISPRS w Istambule.

a) b)

Rys. 6. Oprzyrządowanie skanera ALS50 (a) oraz zarejestrowana chmura punktów 3D (b)

– Systemy obrazujące w zakresie mikrofalowym, które pozwalają obrazować powierzchnię Ziemi niezależnie od pory dnia i nocy oraz warunków atmosferycznych. Obecnie stosowane systemy mikrofalowe, wykorzystujące interferometrię radarową (InSAR), pracują z pułapu lotniczego, zwykle w paśmie X (w zakresie fal centymetrowych).

Są one bardzo przydatne dla generowania Numerycznego Modelu Powierzchni (DSM), tj. modelu powierzchni terenu wraz z pokryciem. Przejście do NMT wymaga odpowiedniej filtracji i edycji uzyskanych danych. System STAR-3i firmy Intermap, pracujący w zakresie X, pozwala uzyskać NMT o dokładności sięgającej 0,5 m, oraz ortofotomapę z pikselem 1,25 m. W najbliższym czasie będą rozwijane wysokorozdzielcze mikrofalowe systemy

(11)

satelitarne. Dla przykładu, firma DLR (Niemieckie Centrum Aerokosmiczne) planuje uruchomić komercyjny system satelitarny TerraSAR-X, dostarczający obrazy z pikselem do 1 m.

Zastosowanie LIDAR-u może być bardzo wszechstronne. Poniżej przedstawiono wybrane przykłady:

1) do generowani trójwymiarowego modelu terenu, nawet w obszarach zalesionych, 2) tworzenie trójwymiarowych modeli miast,

3) do analizy zmian w strefie brzegowej, w szczególności linii brzegowej i ruchów wydm nadmorskich (ryc. 7).

4) pomiar koncentracji różnych składników atmosfery takich jak pyły, aerozole (np. mgły, chmury kropelek kwasu siarkowego powstające z S02) oraz różne składniki gazowe (tlenki siarki, azotu, ozon), urządzenie zamontowane na samochodzie (Karol Musioł, 1999).

5)

Ryc. 7. Widok perspektywiczny ukazujący model rzeźby wyspy Matagorda, wybrzeże stanu Teksas. DTM wykonano za pomocą skanowania laserowego (Źródło: http://www.geotimes.org/nov03/feature_LIDAR.html)

2.5. Źródła bibliograficzne do rozdziału 1

Beutner S., Jacobsen K., Wegmann H., 1999: Topographic Information System by Satellite and Digital Airborne Images.

Joint Workshop of ISPRS WG I/1, I/3 and IV/4 „Sensors and Mapping from Space 1999”. Hanover, September 27-30.

Bujakiewicz A., Aspekty technologiczne nowoczesnych metod fotogrametrii cyfrowej, Materiały konferencja z cyklu Wiosna w geodezji i kartografii – Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory – Poznań 16-17.04.05.

Camera Calibration Panel Report, 2000, American Society for Photogrammetry and Remote Sensing, Bethesda, Meryland.

Dam A.L., Miller S.B., Nagle G.A., Walker A.S., (2000): Photogrammetric Scannic Innowation in the LH Systems DSW500. International Archives of Photogrammetry and Remote Sensing. Vol. XXXIII, Part B2. Amsterdam 2000. 119- 124.

Diener S., Kiefer M., Dorstel Ch. (2000): Radiometric Normalisation and Colour Composite Generation of the DMC.

International Archives of Photogrammetry and Remote Sensing. Vol. XXXIII, Part B1. Amsterdam 2000. 82-88.

F. Leberl, M. Gruber, M. Ponticelli, S. Bernoegger, R. Perko. The Ultracam D large format aerial digital camera system.

Reprinted for Proceedings Of The American Society For Photogrammetry & Remote Sensing, Anchorage, Alaska, 5-9 May, 2003. Źródło: http://www.vexcel.com/downloads/photogram/ultracam/whitepapers/paper-UCD-ASPRS- proc2003.pdf

(12)

Franz L. Michael Gruber. Economical large format aerial digital camera. PREPRINT GIM International, The worldwide Magazine for Geomatics, June 2003. Źródło: http://www.vexcel.com/downloads /photogram/ultracam/whitepapers/paper- UCD-GIM-june2003.pdf

Fricker P., Sandau R., Walker A.S., 1999: Airborne digital sensors – a new approach. Joint Workshop of ISPRS WG I/1, I/3 and IV/4 „Sensors and Mapping from Space 1999”. Hanover, September 27-30.

Heier H., 2001: Deploying DMC in today’s workflow. Adres internetowy: http://www.ziimaging.com /News/OtherDocs/Heier.pdf.

Heier H., Hinz A., 1999: A Digital airborne camera system for photogrammetry and thematic application. Joint Workshop of ISPRS WG I/1, I/3 and IV/4 „Sensors and Mapping from Space 1999”. Hanover, September 27-30.

Kasser M., Egels Y., 2002: Digital Photogrammetry. Taylor&Francis, Londyn. Nowy Jork.

Lillesand T.M., Kiefer R.W., 1994: Remote Sensing and Image Interpretation. John Wiley & Sons, Inc. Nowy Jork.

Linsenbarth A., Nowoczesne sposoby pozyskiwania i wykorzystania teledetekcyjnych danych satelitarnych.

Materiały konferencja z cyklu Wiosna w geodezji i kartografii – Teoria i praktyka współczesnej Geodezji i fotogrametrii.

Jeziory – Poznań 16-17.04.05.

Musiał K., Zródło: http://www.if.uj.edu.pl/Foton/64/lidar.htm

Plichta A., Cyfrowe źródła obrazujące wyzwaniem współczesnej fotogrametrii i teledetekcji. Materiały konferencja z cyklu Wiosna w geodezji i kartografii – Teoria i praktyka współczesnej Geodezji i fotogrametrii.

Jeziory – Poznań 16-17.04.05.

Zdunek Z., Dane obrazowe QuickBird - dziś i jutro. Materiały konferencja z cyklu Wiosna w geodezji i kartografii – Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory – Poznań 16-17.04.05.

(13)

3. Wstępne przetwarzanie danych teledetekcyjnych

3.1. Wstęp

Obraz teledetekcyjny powstaje głównie dzięki odbitemu od powierzchni Ziemi promieniowaniu elektromagnetycznemu, którego źródłem w zakresie widzialnym i w bliskiej podczerwieni jest energia słoneczna. O wartości promieniowania elektromagnetycznego odbitego od badanych obiektów decydują: suma bezpośredniego promieniowania słonecznego i promieniowania rozproszonego atmosfery. Promieniowanie padające na dany obiekt ulega odbiciu, rozpraszaniu i pochłanianiu. Proporcje między tymi zjawiskami zależą od właściwości fizycznych, chemicznych i biologicznych powierzchni odbijającej. Promieniowanie odbite od powierzchni Ziemi, na drodze od rozpatrywanej powierzchni do urządzenia rejestrującego, ulega również rozpraszaniu i pochłanianiu. Promieniowanie elektromagnetyczne, które jest rejestrowane w danym punkcie obrazu, jest sumą promieniowania bezpośrednio odbitego od obiektu na powierzchni Ziemi, promieniowania rozproszonego w atmosferze oraz odbitego od innych obiektów (ryc. 8).

Ryc. 8. Przemiany promieniowania elektromagnetycznego na drodze od Słońca, do sensora.

Wpływ rozpraszania i absorpcji światła w atmosferze jest szczególnie istotny w przypadku zobrazowań satelitarnych, wykonywanych z dużej wysokości i obejmujących wielkie obszary. Dotyczy to również sytuacji, kiedy porównywane są obrazy wykonane w różnym czasie. Aby poprawnie wykonać klasyfikacje takich obrazów wielu autorów uważa za konieczne przeprowadzenie korekcji danych usuwającej wpływ warunków atmosferycznych (Dave i Berstein, 1982; Teillet, 1986; Franklin i Giles, 1995). Duggin i Robinowe (1990) wskazali, iż zróżnicowanie obrazu związane z wpływem atmosfery może być skorelowane z wpływem warunków oświetlenia i obserwacji oraz mieć charakter niesystematyczny, związany z przestrzennymi zmianami składu i gęstości powietrza. Techniki korygowania wpływu atmosfery można podzielić na dwie grupy (Franklin i Giles, 1995). Pierwsza obejmuje metody fizyczne, które wymagają danych o warunkach atmosferycznych, takich jak zawartość aerozoli i cząstek stałych, wilgotność, ciśnienie i temperatura w profilach pionowych oraz niektórych parametrach sensora a czasami także danych z naziemnych pomiarów radiometrycznych. Zebranie danych o parametrach charakteryzujących stan atmosfery jest kosztowne i nie zawsze możliwe do zrealizowania w trakcie wykonywania zobrazowania. Dlatego stworzono też metody, w których nie wykorzystuje się żadnych dodatkowych danych oprócz samego obrazu. W oparciu o wartości jasności poszczególnych

(14)

pikseli i korzystając z metod statystycznych koryguje się wpływ warunków atmosferycznych (Crippen, 1987; Chavez, 1988). Zupełnie nowe możliwości wykonywania korekcji atmosferycznej dają sensory, które w czasie kilku sekund wykonują zobrazowanie tego samego punktu na powierzchni Ziemi wzdłuż toru lotu z wielu kierunków i w kilku bądź w wielu zakresach spektralnych (Chrien i in. 2001; Diner in., 1998). Na podstawie analizy takich zobrazowań można między innymi oszacować zawartość aerozoli, wartości wilgotności, ciśnienia i temperatury. Jako przykład takich urządzeń można wymienić instrumenty: MISR – Multi-angle Imiging SpectroRadiometer i AirMISR (wersja przystosowana do pułapu lotniczego) i POLDER (POLarization and Directionality of Earth Reflectances).

Spośród przyczyn zmieniających jasność obrazu duże znaczenie ma położenie topograficzne, określane przez nachylenie i wystawę stoku (Cavayas, 1987, Itten and Mayer, 1993; Gu i Gillespie, 1998). Jest ono uznawane za najważniejszy czynnik modyfikujący dane teledetekcyjne w obszarach o średnim i dużym zróżnicowaniu wysokości względnej (Dymond, 1988). Położenie topograficzne jest rozpatrywane względem położenia zenitalnego i azymutalnego Słońca. Parametry te łącznie określają warunki oświetlenia dla danej powierzchni. Dane o nachyleniu i wystawie stoków pozyskuje się z modeli wysokościowych. Meyer i Itten (1993) wskazali na konieczność stosowania danych wysokościowych o rozdzielczości odpowiadającej lub wyższej od rozdzielczości obrazu korygowanego. Dymond (1988, 1992) analizował wielkość błędów, jakich można się spodziewać podczas klasyfikacji obrazów, a wynikających ze zróżnicowanego położenia topograficznego w obszarach górskich. Stwierdził, iż wykorzystując dane nieskorygowane dokładność klasyfikacji była o 15% niższa niż w przypadku danych poddanych korekcji. Wśród wielu technik korygowania wpływu położenia topograficznego, wyróżnia się dwa standardowe podejścia: Lamberta, zwane inaczej korekcją kosinusową, które opiera się na założeniu, że promieniowanie elektromagnetyczne jest odbijane jednakowo we wszystkich kierunkach, czyli w sposób rozproszony i Minearta, zakładającym niejednakowe odbicie we wszystkich kierunkach od danego typu powierzchni (Smith i in., 1980; Teillet, 1986, 1982; Meyer i Itten, 1993).

Większość naturalnych powierzchni roślinnych i glebowych wykazuje niejednakowy we wszystkich kierunkach rozkład odbicia promieniowania elektromagnetycznego. W wyniku tego obserwowana powierzchnia, w danych warunkach oświetlenia, posiada różną jasność w zależności od kierunku, z którego jest obserwowana. Rozkład odbitego promieniowania zależy od warunków oświetlenia, zmieniających się wraz z kątem zenitalnym Słońca, proporcji pomiędzy bezpośrednim promieniowaniem słonecznym a światłem dyfuzyjnym nieba, położenia topograficznego powierzchni odbijającej oraz jej właściwości, w szczególności od jej szorstkości (Norman i in., 1985; Taylor i in., 1996; Cierniewski, 2001). Szorstkość powierzchni roślinnych, wynika z architektury roślin, tzn. różnic wysokości poszczególnych roślin oraz z kształtu i sposobu ułożenia liści. Szorstkość gleb niepokrytych roślinnością jest kształtowana przez wielkość ziaren i agregatów glebowych, których ułożenie i wielkość jest modyfikowana przez zabiegi agrotechniczne (Cierniewski i in., 1998; Cierniewski 2001). W przypadku upraw rolniczych istotny jest stosunek powierzchni zajmowanej przez rośliny do powierzchni odkrytej gleby. Oświetlenie takich powierzchni przez promienie słoneczne powoduje ich samozacienienie.

Szorstkie powierzchnie glebowe są przeważnie najjaśniejsze, gdy widzi się najmniej ich powierzchni zacienionych.

Wtedy detektor obserwuje powierzchnie mając Słońce za sobą a kierunek obserwacji jest zbliżony do kąta padania promieni słonecznych (Milton i Webb, 1987).

Bezpośrednim skutkiem istnienia zjawiska dwukierunkowego odbicia od powierzchni Ziemi, przy oświetleniu z określonego kierunku, jest zmienność jasności rejestrowanych obiektów na obrazach teledetekcyjnych w zależności od kąta obserwacji mierzonego do normalnej (Teilet, 1986; Becker i in., 1988; Muller, 1993). Zmienne warunki obserwacji w przypadku sensorów teledetekcyjnych (większość kamer lotniczych; sensory satelitarne SPOT-HRV, MISR, NOAA- AVHRR, POLDER) mogą powodować błędy w obliczaniu wskaźników roślinnych (Holben i Fraser, 1984; Barnsley i Kay, 1990; Muller 1993) oraz być przyczyną niedokładnej analizy spektralnej obrazu (Becker i in., 1988; Foody, 1988; Duggin i Ribonowe, 1990, Flanklin i Giles, 1995). Konsekwencją niedokładności w klasyfikacji danych teledetekcyjnych jest wykonanie niepoprawnych map (Franklin i Wilson, 1991; Yang i Vidal, 1991).

Wspólną cechą fotograficznych i cyfrowych sensorów teledetekcyjnych jest wykorzystywanie układów optycznych o stożkowym polu widzenia. Materiał, z którego zbudowane są soczewki i stożkowe pole widzenia, jest

(15)

przyczyną tego, iż strumień światła docierający bezpośrednio do błony filmowej lub powierzchniowej matrycy CCD, przechodząc przez układ optyczny, ulega radialnemu osłabieniu w miarę wzrostu odległości od punktu głównego zdjęcia, czyli winietowaniu naturalnemu (Wójcik, 1989; Slater, 1975). Dokładny zapis zmienności promieniowania elektromagnetycznego zależy również od cech materiału, który wykorzystuje się do rejestracji obrazu. Na filmie fotograficznym po procesie wywołania, nawet w obrębie powierzchni jednakowo naświetlonych, obserwuje się fluktuacje wartości gęstości optycznej, co wynika z ziarnistości obrazów fotograficznych (Zaleski i Jabłonka, 1992). Poszczególne elementy światłoczułe matrycy CCD wykazują różnice w budowie wewnętrznej struktury krzemu. Jest to przyczyną rejestracji innych wartości sygnału przez poszczególne elementy światłoczułe, w momencie jednakowego naświetlenia całej matrycy. W starszych macierzach CCD różnice wprowadzane przez poszczególne elementy, przy jednakowym naświetleniu, osiągały wartość 10% (Watkins in., 1995). Postęp technologiczny w sposobie wytwarzania macierzy CCD sprawił, że obecnie różnice te są dużo mniejsze. Zakłócenia wprowadzane przez elementy światłoczułe, zwane szumami, jak również winietowanie mogą być korygowane tuż po rejestracji obrazu na zasadzie wstępnej korekcji obrazu a przed zapisem na dysku twardym.

Omówione powyżej czynniki składają się na rozkład jasności na zdjęciu lotniczym lub scenie satelitarnej. W zależności od celu wykorzystania danych teledetekcyjnych można stosować różnego rodzaju techniki wzmacniania lub korekcji. Cele takich zabiegów mogą być następujące: wizualna poprawa jakości obrazu pod kątem interpretacji wizualnej lub uzyskanej wiarygodnych danych o odbitym promieniowaniu elektromagnetycznym od powierzchni Ziemi, pod kątem klasyfikacji. Wśród tematów referatów zaprezentowanych na konferencji Wiosna w Geodezji i Kartografii – Teoria i praktyka współczesnej fotogrametrii i teledetekcji problemy związane ze wstępnym przetwarzaniem danych teledetekcyjnych były wielokrotnie poruszane i zostaną pokrótce przedstawione w kolejnych podrozdziałach.

3.1. Metody poprawiające jakość danych teledetekcyjnych

3.2.1. Metoda trendu powierzchniowego i jej zastosowanie do wyrównania jasności zdjęć lotniczych

Metoda trendu powierzchniowego oparta jest on na funkcjach wielomianowych dwóch zmiennych. Każdy piksel obrazu rastrowego jest traktowany jako punkt. Dla obrazów teledetekcyjnych najczęściej stosuje się wielomiany dwóch zmiennych stopnia pierwszego i drugiego, odpowiednio dla obrazów satelitarnych i zdjęć lotniczych.

Celem omawianej pracy jest przedstawienie zastosowania metody trendu powierzchniowego do wyrównywania jasności kolorowych zdjęć lotniczych na przykładzie zdjęć z programu PHARE. W pracy przeanalizowano wpływ próbkowania obrazu na zmienność współczynników funkcji wielomianowych, omówiono wpływ obiektów odfotografowanych na funkcję trendu oraz przedstawiono możliwości polepszenia wyników wyrównania jasności uzyskiwanych tą metodą. Dla wybranych rodzajów powierzchni omówiono zmienność jasności wybranych obiektów przed i po wyrównaniu naświetlenia w powiązaniu ze zmieniającymi się warunkami obserwacji tych powierzchni na trzech kolejnych zdjęciach w szeregu.

Do realizacji celu niniejszej pracy wybrano trzy kolejne zdjęcia lotnicze wykonane w ramach programu PHARE, z obszaru Puszczy Bukowej (obszar odfotografowany na zdjęciach nie ma dla celu niniejszej pracy istotnego znaczenia).

Zdjęcia zostały zeskanowane z rozdzielczością 2000 dpi i zapisane w formacie TIFF w Centralnym Ośrodku Dokumentacji Geodezyjnej i Kartograficznej. Do zapisu barw wykorzystano 24-bitowy model RGB, W modelu tym barwa jest reprezentowana przez trzy liczby odpowiadające jasności promieniowania w trzech barwach podstawowych. Dla każdego ze zdjęć wykonano separację barwną i zapisano każdy kanał spektralny (niebieski, zielony i czerwony) w postaci oddzielnej macierzy rastrowej.

W toku przeprowadzonych prac skupiono się na następujących problemach:

(16)

- czułości funkcji na ustawienie częstości próbkowania, czyli co który piksel brany jest pod uwagę przy ustalaniu równania trendu powierzchniowego,

- możliwości ustalania funkcji trendu na podstawie obrazów o mniejszej rozdzielczości, - poprawienia wyników uzyskiwanych tą metodą.

Ogólna postać analizowanego równania jest następująca:

F(B) = A +Bx2+Cx+Dxy+Ey+Fy2

W trakcie prowadzonych testów, zmieniając ustawienia częstości próbkowania, stwierdzono, ten parametr w w nieznaczny sposób zmienia w nieznaczny wartości współczynników, nie istotny z punktu widzenia praktycznego.

Wielkość zmian była mniejsza od 0,2 wartości jednostkowego przyrostu jasności (analizowane dane zapisane były z kodowaniem 8-bitowym, w zakresie od 0-255). Rzadsze próbkowanie skraca czas obliczeń.

Ryc. 9. Przykładowe wartości funkcji trendu powierzchniowego ustalane na podstawie obrazów próbkowanych z różnym częstości próbkowania.

Ustalanie równań na podstawie obrazów w mniejszej rozdzielczości okazało się nie przydatne. Kształt powierzchni opisywanej równaniami dla wszystkich rozdzielczości jest podobny. Największe różnice wykazują wartości współczynnika A, decydującego o ogólnym zwiększeniu jasności całego obrazu. To sprawia, że nie jest możliwe skrócenie czasu obliczeń, przez wykorzystanie tego samego obrazu ze zmniejszoną rozdzielczością.

Zdjęcia lotnicze PHARE wykonywano z wykorzystanie filtrów antywinietujących. Ich zastosowanie Jest dodatkową przyczyną modyfikującą ogólny rozkład jasności na całym zdjęciu lotniczym. Utrudnia to wyrównywanie jasności takich zdjęć, zwłaszcza metodami fizycznymi. Funkcja trendu powierzchniowego jest narzędziem, za pomocą którego jednym równaniem opisuje się rozkład jasności w całej płaszczyźnie zdjęcia. Nie jest to jednak doskonałe narzędzie. Zaproponowano (Królewicz, 2005) proste udoskonalenie tej metody, przez podzielenie sumy jasności obrazu skorygowanego funkcją trendu powierzchniowego i obrazu oryginalnego przez 2. Na rycinie 10 przedstawiono trzy zdjęcia, a) oryginalny obraz w kanale czerwonym, b) skorygowany obraz w kanale czerwonym oraz c) efekt działa proponowanej metody. Na obrazie b) widać jak w wyniku zastosowania funkcji trendu powierzchniowego w narożnikach zdjęcia obraz jest nadmiernie rozjaśniony lub przyciemniony. Zaproponowane uśrednienie powoduje zminimalizowanie niepożądanych efektów.

(17)

Ryc. 10. Trzy zdjęcia: a) oryginalny obraz w kanale czerwonym, b) skorygowany obraz w kanale czerwonym oraz c) efekt działa proponowanej metody.

3.2.2. Łączenie danych teledetekcyjnych o różnej rozdzielczości przestrzennej i spektralnej

Teledetekcyjne systemy satelitarne i lotnicze dostarczają nam ogromnej ilości obrazów powierzchni Ziemi.

Systemy te różnią się wieloma parametrami, a obrazy przez nie rejestrowane mają różną rozdzielczość przestrzenną (geometryczną), spektralną i czasową. W celu pełnego wykorzystania zawartych na pozyskanych obrazach informacji opracowuje się wiele technik łączenia danych, nazywanych czasami technikami „integracji”, „scalenia”, „zespolenia”, czy też „fuzji” (Mróz i Szumiało, 2005). Do podstawowych celów łączenia danych zaliczyć można:

• podwyższenie rozdzielczości przestrzennej satelitarnych obrazów wielospektralnych przy wykorzystaniu obrazów panchromatycznych i zdjęć lotniczych ułatwiającego proces fotointerpretacji.

• ułatwiania przeprowadzania korekcji geometrycznych poprzez łatwiejszy i bardziej precyzyjny wybór fotopunktów i punktów kontrolnych,

• wzmocnienia rozróżnialności obiektów w stosunku do pojedynczego obrazu, co ułatwia pracę na obrazie barwnym lub mapie satelitarnej,

• rozszerzenia zbiorów danych o nowe wymiary przestrzeni spektralnej w celu poprawienia wyników klasyfikacji.

Dokładność klasyfikacji może być zwiększona, kiedy w jej procesie wykorzystujemy dane wieloźródłowe.

Dane satelitarne zazwyczaj pozyskiwane są w postaci zbiorów wielospektralnych. W wielu przypadkach jako oddzielny kanał rejestrowany jest szerokopasmowy zakres widzialny promieniowania elektromagnetycznego. Obraz taki najczęściej charakteryzuje się większą rozdzielczością przestrzenną. Istnieją metody, które pozwalają uzyskać obrazy wtórne kolorowe, będące połączoną kompozycją kanału panchromatycznego i trzech spektralnych. Najczęściej obraz panchromatyczny posiada dwukrotnie większą rozdzielczość niż węższe spektralnie pozostałe kanały. Do łączenia takich danych wykorzystuje się metodę „Pan-Fuse”, opartą na podziale jednego piksela panchromatycznego czterema pikselami multispektralnymi. W taki sposób przygotowywano kolorowe obrazy z danych pozyskiwanych z satelitów SPOT oraz Landsat ETM. Na rycinie 11 przedstawiono kompozycje barwną z satelity SPOT PAN o rozdzielczości 10 m oraz XS 20 m. W oparciu o metodę PanFuse, wykonano mozaiki całego świata z rozdzielczością 15 m. Kanał panchromatyczny, 15 m, połączono z kanałami multispektralnymi – 2, 4 i 7. Mozaiki z obszaru naszego kraju są dostępne na stronie Centrum Kosmicznego im. Johna C. Stennisa należącego do NASA pod adresem internetowym:

https://zulu.ssc.nasa.gov/mrsid/mrsid.pl. Dostępne są na tej stronie dane są z roku 1990 i również 2000. Publikowane są one w formacie MRSID i aby można było przeglądać obrazy należy posiadać przeglądarkę obsługującą ten format.

(18)

Metodę PanFuse wykorzystuje się wielokrotnie do łączenia danych z różnych systemów satelitarnych np.

panchromatyczny SPOT z wielospektralnym Landsatem.

W 1999 roku pojawiły się na rynku komercyjnym wysokorozdzielcze obrazy satelitarne, w których stosunek wielkości piksela obrazu panchromatycznego do multispektralnego przekraczał 1:2 (liniowo). W przypadku takich obrazów przestały się sprawdzać dotychczas stosowane algorytmy (PanFuse). Pojawiła się potrzeba opracowania algorytmu dającego możliwość połączenia obrazu panchromatycznego z multispektralnym, z jednoczesnym efektem wyostrzania. Odpowiedzią na tę potrzebę jest gama algorytmów o wspólnej, potocznej nazwie PanSharp.

Ryc. 11. Kompozycja Barwna powstała w wyniku połączenia obrazów multispektalnych (XS) SPOT z panchromatycznym kanałem (P) metodą PanFuse.

Wśród nich wyróżnia się najczęściej trzy przekształcenia: IHS, HBS i Brovey. W dwóch pierwszych przekształca się najpierw trzy kanały spektralne podstawione do przestrzeni barwnej RGB na kanały w przestrzeni IHS lub HBS (I – intensywność, H- barwa lub odcień S – nasycenie i B – jasność), następnie opierając się na założeniu, że zakres spektralny obrazu o wyższej rozdzielczości np. panchromatycznego, jest taki sam jak suma tych, w których zostały zarejestrowane obrazy o niższej rozdzielczości geometrycznej np. wielospektralne.

(19)

Ryc. 12. Przykład zastosowania technik wyostrzania kompozycji barwnej z kanałów wielospektralnych systemu QuickBird o niższej rozdzielczości (2,44m) poprzez ich połączenie z kanałem o wyższej rozdzielczości (1m).

W dobie pojawienia się systemów hiperspektralnych zostały stworzone modyfikacje transformacji Brovey’a pozwalające na łączenie informacji pochodzących z obrazów o różnej rozdzielczości przestrzennej, w sposób

„bezstratny”, tj. przy zachowaniu charakterystyk spektralnych „odwzorowanych” w zestawie wąskich kanałów spektralnych, ale z dokładnością lokalizacji obiektów w skali i stopniu szczegółowości kanału wysokorozdzielczego (szerokopasmowego). Wąskie kanały spektralne są grupowane w tzw. „segmenty” danych tak, aby w danej grupie znalazły się obrazy należące do szerszego spektralnie, ale wysokorozdzielczego kanału, który będzie kanałem wyostrzającym, obejmującym swoim zasięgiem cały segment hiperspektralny. Właściwe „wyostrzanie” dokonuje się przez wymnożenie kanałów o różnej rozdzielczości w ramach „segmentów” z odpowiednią normalizacją (Mróz i Szumiało, 2005).

(20)

3.3. Jakość danych teledetekcyjnych przed i po korekcjach radiometrycznych i geometrycznych

Wśród badaczy zajmujących się przetwarzaniem obrazów teledetekcyjnych, wyróżnić można dwie grupy:

takich, którzy dopuszczają klasyfikację na podstawie „surowych” danych zapisanych przez satelitę i takich, którzy uważają, że klasyfikację powinno się przeprowadzać po przekształceniu wartości „surowych” na zestandaryzowane współczynniki odbicia. Przedmiotem zainteresowań badań prowadzonych przez panią dr Osińską-Skotak było stwierdzenie czy wykonywanie korekcji atmosferycznej obrazów wielospektralnych przed procesem klasyfikacji daje wymierne efekty poprawy jakości uzyskiwanych wyników czy też utrudnia ona poprawne przeprowadzenie procesu klasyfikacji.

Prace eksperymentalne zostały przeprowadzone dla czterech zdjęć satelitarnych zarejestrowanych przez system LANDSAT TM w różnych okresach roku, obejmujących obszar Warszawy i okolic. Są to sceny zarejestrowane w różnych latach i różnych miesiącach. Wynikająca z tego różnorodność danych była korzystna z punktu wykonywanych prac badawczych. Sceny satelitarne zarejestrowane zostały w dniach 2 kwietnia 1990 r., 25 maja 1992 r., 15 lipca 1987 r. oraz 16 sierpnia 1993 r. około godziny 900 lokalnego czasu słonecznego, przy bezchmurnej pogodzie.

Korekcję atmosferyczną zdjęć satelitarnych wykonano w module ATCOR (A Spatially-Adaptive Fast Atmospheric Correction Algorithm), który jest pakietem programów służącym do korekcji atmosferycznej obrazów uzyskanych przy pomocy sensorów o wysokiej rozdzielczości przestrzennej, takich jak: LANDSAT TM, SPOT czy IRS.

Oblicza on współczynniki odbicia oraz temperaturę rzeczywistą powierzchni na podstawie danych z różnych kanałów spektralnych zarejestrowanych w różnych systemach satelitarnych dla różnych warunków atmosferycznych.

Autorka przeprowadziła klasyfikację pokrycia terenu w podejściu nadzorowanym w sposób klasyczny, na podstawie zdefiniowanych przez użytkownika pól treningowych. Następnie wykonano klasyfikację przy zastosowaniu algorytmu największego prawdopodobieństwa (z ang. maximum likelihood method).

We wszystkich analizowanych terminach większa różnica wpływu korekcji atmosferycznej zauważalna jest dla terenów pokrytych roślinnością. W zakresie promieniowania zielonego (TM2) i czerwonego (TM3) obiekty pokryte roślinnością na obrazie skorygowanym ze względu na wpływ atmosfery mają niższe odbicie spektralne (do ok. 10%), co należy tłumaczyć silniejszym rozpraszaniem tych zakresów przez atmosferę. Jedynie bardzo jasne gleby i piaski mają wyższe odbicie spektralne na obrazach skorygowanych nawet o 10-15%. W zakresie bliskiej podczerwieni (TM4) tereny pokryte roślinnością oraz gleby lekkie, piaszczyste, jasne wykazują wyższe odbicie spektralne (2-20% ) po skorygowaniu wpływu atmosfery. Nieznacznemu obniżeniu ulega natomiast odbicie dla gleb ciężkich oraz wód powierzchniowych (do ok. 5%).

W przypadku klasyfikacji nadzorowanej metodą maksymalnego prawdopodobieństwa największą zgodność klasyfikacji wykonanej dla danych źródłowych i klasyfikacji uzyskanej dla danych skorygowanych otrzymano dla klas, definiujących gleby odkryte i wyniosła ona ponad 90 % . Pozostałe klasy wykazują już znacznie mniejszą zgodność.

Powyżej 80% pikseli zostało sklasyfikowanych w ten sam sposób w przypadku klas: powierzchnie betonowe, tereny zabudowane, zabudowa zwarta i przemysłowa, tereny pokryte bardzo gęstą roślinnością. Pozostałe klasy mają słabszą zgodność przy porównaniu wyników obu klasyfikacji. Dotyczy to w szczególności klas związanych z roślinnością, choć w niektórych terminach ujawnia się również dla gleb odkrytych.

Przy wykonywaniu klasyfikacji pokrycia terenu metodą nadzorowaną okazało się, że korekcja atmosferyczna zmienia charakterystykę statystyczną pól treningowych. Poddanie danych źródłowych korekcji atmosferycznej prowadzi w efekcie do uzyskania większego zróżnicowania odpowiedzi spektralnych poszczególnych obiektów. Szczególnie duże znaczenie ma korekcja atmosferyczna w zakresie bliskiej podczerwieni.

Można stwierdzić z całą pewnością korekcja atmosferyczna poprawia możliwość rozróżniania terenów pokrytych roślinnością o różnego rodzaju biomasie, zawartości chlorofilu, itp. Wynika to przede wszystkim z wykonania korekcji atmosferycznej w zakresie bliskiej podczerwieni, ale nie tylko. Zauważono również większą łatwość w

(21)

klasyfikowaniu gleb odkrytych i rozróżnianiu niektórych typów pokrycia terenu od siebie (np. wody powierzchniowe, las iglasty, zabudowa przemysłowa), które w niektórych terminach trudno od siebie odseparować.

a.

b.

Ryc. 13. Charakterystyki spektralne wybranych obiektów terenowych opracowane na podstawie danych satelitarnych LANDSAT TM z dnia 15 lipca 1987 r.: a. - nie poddanych korekcji atmosferycznej, b. - poddanych korekcji atmosferycznej w module ATCOR.

Przeprowadzono również testy związane z geometrycznymi zmianami danych satelitarnych, wynikającymi z dostosowania ich geometrii do lokalnych układów współrzędnych. Owo dostosowanie wynika z zastosowania wielu warstw informacyjnych, nie tylko obrazowych, pochodzących z różnych źródeł w procesie klasyfikacji i konieczności sprowadzenia ich do wspólnego układu współrzędnych. Istotą problemu jest to, iż każda zmiana układu współrzędnych

woda głęboka woda płytsza las iglasty las liściasty zakrzaczenia trawa zielona zboże jare łachy piaszczyste powierzchnia betonowa gleba piaszczysta asfalt gleba zwięzła

woda głęboka woda płytsza las iglasty las liściasty zakrzaczenia trawa zielona zboże jare łachy piaszczyste powierzchnia betonowa gleba piaszczysta asfalt gleba zwięzła

(22)

(zewnętrznego w stosunku do układu kolumn i wierszy macierzy rastrowej) wymusza zmianę kształtu macierzy rastrowej. Z kolei zmiana kształtu macierzy, powoduje powstanie nowego układu wierszy i kolumn. Po takiej zmianie niezbędne staje się ponowne próbkowanie obrazu rastrowego, czyli obliczenie nowej jasności każdego piksela.

Najczęściej stosuje się w tym celu jedną z trzech metod ponownego próbkowania: najbliższego sąsiada (z ang. nearest neighbour), interpolacji bilinearnej (z ang. bilinear interpolation) oraz splotu sześciennego (z ang. cubic convolution). Metody te różnią się zasięgiem sąsiedztwa jakie bierze udział w procesie obliczania nowej jasności pikseli (ryc. 14). Zatem, każda zmiana geometryczna przed procesem klasyfikacji powoduje modyfikacje źródłowych danych satelitarnych.

Ryc. 14. Metody ponownego próbkowania obrazu.

W związku z tym problem, pani dr Osińską-Skotak, podjęłą próbę przeanalizowania wielkości wpływu przekształceń geometrycznych na wyniki klasyfikacji. W pierwszym podejściu wykonywana była najpierw klasyfikacja na podstawie danych źródłowych, a następnie wynik, jaki uzyskano, poddano transformacji geometrycznej przy zastosowaniu próbkowania obrazu metodą najbliższego sąsiada. Drugie podejście polegało na odwróceniu kolejności wykonywania klasyfikacji i transformacji geometrycznej, czyli: najpierw wykonywana była transformacja geometryczna źródłowych zdjęć wielospektralnych a dopiero w drugim kroku przeprowadzano klasyfikację obrazów już zgeometryzowanych. Analizie poddano jedne z pierwszych scen satelitarnych, jakie zarejestrował system satelitarny SPOT-5 w 2002 roku. Pierwsze zdjęcie, obejmujące swoim zasięgiem teren Żuław Wiślanych, pozyskano 20 sierpnia 2002 r., natomiast drugie, dla obszaru Puszczy Białej, zarejestrowano 12 września 2002 r.

a) Żuławy b) Powiat Wyszków

Ryc.15. Fragmenty obszarów testowych „Żuławy” oraz „Wyszków” przedstawione w formie kompozycji barwnej ze zdjęć SPOT 5 w tej samej skali.

(23)

Obszar testowy „Żuławy” to teren o strukturze agrarnej skonsolidowanej wielkoobszarowej, pola siewne o różnej wielkości (nawet do 25 ha) mają różnorodne wymiary i kształty, ale bardzo rzadko występują pola o wydłużonym kształcie, tak bardzo charakterystyczne dla Niziny Mazowieckiej (Ryc. 15). Z kolei obszar testowy „Wyszków” jest to teren o bardzo rozdrobnionej strukturze agrarnej. Wielkość średnia gospodarstwa w powiecie wyszkowskim ma powierzchnię od 2 ha do 4 ha, ale pola siewne mają na ogół od 0,4 ha do 1 ha i często mają one bardzo wydłużone kształty.

W wyniku przeprowadzonych badań okazało się, że wpływ momentu wykonania transformacji geometrycznej na rezultaty klasyfikacji nienadzorowanej zdjęć wielospektralnych istnieje, ale bardziej istotne znaczenie na wyniki klasyfikacji ma algorytm ponownego próbkowania obrazu niż sam moment wykonania geometryzacji. Wpływ na wynik klasyfikacji jest większy w przypadku metod próbkowania: bilinearnej i splotu sześciennego, w których przy obliczaniu wartości piksela w nowym układzie współrzędnych wykorzystuje się większą ilość pikseli sąsiadujących, niż dla metody najbliższego sąsiada (Osińska-Skotak, Fijałkowska, Chudzyńska, 2004). Stwierdzono również, Jednoznacznie można stwierdzić, że wpływ momentu wykonywania transformacji geometrycznej najsilniej ujawnia się dla terenów o rozdrobnionym krajobrazie. W przypadku obszaru skonsolidowanego o dużych jednorodnych powierzchniach wpływ ten jest mniej widoczny.

3.4. Ortorektyfikacja obrazów lotniczych i satelitarnych

Proces ortorektyfikacji obrazów teledetekcyjnych jest ciągle udoskonalany, mimo iż jest on współcześnie niemal całkowicie zautomatyzowany. Proces ortorektyfikacji można określić mianem geometrycznej normalizacji danych. Jest to przekształcenie geometryczne, w wyniku którego następuje przejście z geometrii rzutu środkowego (lub ogólniej z geometrii pola widzenia sensora), do geometrii rzutu prostokątnego, właściwego mapom. W trakcie tej korekcji usuwa się większość zniekształceń geometrycznych, wynikających z deniwelacji występujących na powierzchni Ziemi.

W przypadku ortorektyfikacji danych o dużej rozdzielczości, poniżej 1 m, pozyskiwanych z pułapu lotniczego, pewną nowością jest coraz powszechniejsze wykonywanie „prawdziwej” lub może poprawniej mówiąc, pełnej ortorektyfikacji zdjęć lotniczych. Do tej pory przyjęło się w opracowaniach fotogrametrycznych wykonywać korekcję zniekształceń geometrycznych, wynikających z rzeźby terenu, w trakcie ortorektyfikacji, pomijano zaś w tym procesie wszelkiego rodzaju budowle. Wynikało z różnych przyczyn technologicznych i interpretacyjnych. Budowle widziane ukośnie, są łatwiej identyfikowalne w aspekcie ich przeznaczenia. Z kolei pełna rektyfikacja obrazu bardzo ułatwia zastosowanie danych teledetekcyjnych w procesie aktualizacji map zasadniczych. W niedalekiej perspektywie, należy się spodziewać, iż wizualnie produkt ortorektyfikacji nie będzie oglądany na ekranie komputera w dwóch wymiarach, lecz w trzech – wizualizacja pokrycia powierzchni Ziemi na bardzo dokładnych modelach rzeźby, uwzględniających topografię miasta. Do tego celu nie będzie konieczne używanie okularów do obserwacji trójwymiarowej, ponieważ na rynku pojawiły się monitory generujące same obraz trójwymiarowy (np. LL-151-3D 15'' XGA LCD Monitor).

Większość prac rozwojowych dotyczących ortorektyfikacji dotyczy danych wysokorozdzielczych danych satelitarnych. W przypadku tych danych satelitarnych najbardziej popularnym tematem badawczym jest rozwój i ewaluacja wirtualnych algorytmów ortorektyfikujących (Rigorous Sensor Model) i modeli RPC. Ortorektyfikacja metodą wirtualnego modelu kamery jest dokładniejsza i mniej pracochłonna, ale występuje w niewielu pakietach oprogramowania. Ortorektyfikacja metodą RPC (Rational Polynomial Coefficients) występuje praktycznie w każdym oprogramowaniu przeprowadzającym ortorektyfikację danych satelitarnych, ale wymaga większej ilości fotopunktów oraz nie uwzględnia poprawek orbitalnych. Do wykonania ortorektyfikacji niezbędne jest posiadanie punktów kontrolnych pomierzonych GPS oraz dokładnych modeli DEM. Precyzja modeli DEM im większa tym lepiej. Niemniej jednak dla terenów płaskich odpowiedni wydaje się już DTED-2 (Zdunek, 2005). Dokładność ortofotomap uzyskiwanych z danych satelitarnych odpowiada średnioskalowym zdjęciom lotniczym.

(24)

3.5. Bibibliografia do podrozdziału 3

Barnsley M. J., Kay S. A., 1990: The relationship between sensor geometry and, vegetation-canopy geometry and image variance. International Journal of Remote sensing. Vol. 11, No 4, pp. 1075-1083.

Becker F., Nerry F. 1988: Towards a quantitative uses of Aerial Color Infrared Films. Photogrammetric Engineering and Remote Sensing, Vol. 44, No. 6.

Bujakiewicz A., Aspekty technologiczne nowoczesnych metod fotogrametrii cyfrowej, Materiały konferencja z cyklu Wiosna w geodezji i kartografii – Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory – Poznań 16-17.04.05.

Cavayas F., 1987: Modelling and correction of topographic effect using multitemporal satellite images. Canadian Journal of Remote Sensing, Vol. 13, No. 1, pp. 49-67.

Chrien N.L., Bruegge C.J., Gaitley B.J. (2001): AirMISR Labolatory Calibration and In-flight Perfomance Results. Remote Sensing of Environment. Vol. 77. pp. 328-337.

Cierniewski J., 2001: Model kierunkowego odbicia od gleb uprawnych uwzględniający obecność agregatów glebowych oraz mikroreliefu powierzchni gleby. Bogucki Wyd. Nauk. Poznań.

Crippen R., 1987: The regression intersection method of adjusting image data for band rationing. International Journal of Remote Sensing. Vol. 9, No. 1, pp. 137-155

Dave D. V., Berstein R., 1982: Effects of terrain orientation and solar position satellite –level luminance observations.

Remote Sensing of Environment, Vol. 12 No. 1, pp. 331-348.

Diner J.D., Beckert J.C., Reilly T.H., Bruegge C.J., Conel J.E., Kahn R.A., Martonchik J.V., Ackerman P.T., Davies R., Gerstl S.A.W., Gordon H.R., Muller J.P., Myneni B.R., Sellers P.J., Pinty B., Verstraete M.M., (1998): Multi-angle Imiging Spectroradiometer (MISR) Instrumetn Description and Experiment Overview. IEE Transactions on Geoscience and Remote Sensing. Vol 36. No. 4. 1072-1088.

Duggin M. J., Robinove C. J., 1990: Assumption implicit in remote sensing data acquisition and analysis. International Journal of Remote Sensing, Vol. 11, No. 10, pp. 1669-1694

Dymond, J. P., 1988, Nonparametric modeling of radiance in hill Country. Remote Sensing of Environment. Vol. 25, No.

1, pp. 3-21.

Dymond, J. P., 1992, Nonparametric modeling of radiance in hill country for digital classification of aerial photographs.

Remote Sensing of Environment. Vol. 39, No. 1, pp. 95-102.

Franklin S.E., Giles Ph.T., 1995: Radiometric processing of aerial and satellite remote sensing imagery. Computers &

Geoscience. Vol. 21, No. 3, pp. 413-423.

Franklin S.E., Wilson B. A., 1991: Spatial and spectral methods in remote sensing. Computers & Geoscience. Vol. 17, No. 8, pp. 1151-1172.

Gu D., Gillespie A., 1998: Topographic normalization of Landsat TM images of forest based on subpixel Sun-canopy- sensor geometry. Remote Sensing of Environment. Vol. 64, 166-175.

Holben B., Fraser S. N., 1984: Red and Near-Infrared response to Off-Nadir Viewing. International Journal of Remote Sensing. Vol. 5, 145-154.

Cytaty

Powiązane dokumenty

detach i nad Bałtykiem oraz nasilające się na Śląsku powodzie, także w prawobrzeżnej części prowincji, spowodowały większy umiar tego władcy w okresie

W analizowanych serialach animowanych najliczniejszą grupę nazw stanowią określenia, które wskazują na cechy fizyczne, psychiczne, umysłowe i charakterologiczne

This distinction is not always clear in the available research sources which show a wide range of approaches, varying from ex-ante assessment of the physical condition and

Jeśli dany styl staje się powszechnym stylem wielkiej epoki, interesy klasowe i ideologie przeciwne klasie, która go stworzyła, i ideologii, z jaką jest związany

Jeżeli przez socjologię będziemy rozumieli wiedzę o procesach i stru k ­ turach zachowań międzyludzkich, a przez literatu rę — każde przedsta­ wienie jakiegoś

The approach considered here is, however, about knowing the general solution to the problem (a function that associates all possible input data with the corresponding

Które z niżej podanych informacji wchodzą w skład bazy danych państwowego rejestru granic i powierzchni jednostek podziałów terytorialnych kraju.. dotyczące przebiegu

Ujemny wp³yw na pozycjê Polski w UE w zakresie prac badawczych i rozwojo- wych wywiera³y tak¿e w¹ski zakres wspó³pracy w dziedzinie B+R miêdzy przedsiê- biorstwami a uczelniami