• Nie Znaleziono Wyników

Stochastyczne symulacje błędów NMT

W dokumencie Index of /rozprawy2/10750 (Stron 40-46)

3. Przegląd literatury

3.3. Stochastyczne symulacje błędów NMT

Podejście stochastyczne bazuje na przekonaniu, że mapa błędu NMT jest rozkładem wszystkich możliwych realizacji, pośród których znajdują się prawdziwe wartości. Nazywa się to stochastycznym obrazowaniem (ang. stochastic imaging) lub modelowaniem przestrzennej niepewności poprzez alternatywne, jednakowo prawdopodobne numeryczne reprezentacje (mapy) przestrzennie rozproszonego zjawiska. Niepewność jest następnie obliczana poprzez przeprowadzenie na tych mapach (realizacjach) analiz statystycznych, co można określić mianem poszukiwania dla nich rozkładu Gaussa (za Journel, 1996, Hunter i Goodchild, 1997 cytowanymi przez Wechsler, 2001). Każdą taką realizację można porównać poprzez analogię do pojedynczego pomiaru jakiejś wartości w tradycyjnym modelu błędów Gaussa. Z rozkładu tych map można uzyskać wartość średnią oraz odchylenie standardowe, które odnoszą się do wartości prawdziwych.

Najbardziej popularną techniką symulacji jest metoda Monte Carlo z uwagi na swoją uniwersalność i najlepszą przydatność w rozwiązywaniu problemów związanych z niepewnością (Zhang i Goodchild, 2002). Zakłada ona, iż NMT, dla którego chcemy określić niepewność jest tylko jednym z pośród wielu potencjalnych realizacji rzeźby terenu. Każdy punkt badanego modelu zaburzany jest błędem przypadkowym o zadanym rozkładzie, co jest powtarzane wielokrotnie tworząc przez to cały zestaw możliwych, wiarygodnych modeli. Stochastyczna symulacja zapewnia zatem zestaw losowych, jednakowo prawdopodobnych map wykorzystując metody modelowania stochastycznego ze statystyki matematycznej. Stosując tę technikę otrzymujemy pewien zakres (bufor), wewnątrz którego znajduje się rzeczywisty przebieg powierzchni terenu (za Burrough i McDonnell, 1998; Chrisman, 1989 cytowanymi przez Wechsler, 2001). Z tego też względu techniki symulacyjne mogą być zastosowane do określenia niepewności modelu wysokościowego. Podstawowy algorytm metody Monte Carlo polega na (Wechsler, 2001):

1) wybraniu losowego obszaru, na którym brak jest wartości symulowanych,

2) wygenerowaniu pola losowego bazując na potencjalnych wysokościach wybranego, dowolnego obszaru,

3) dodaniu pola losowego do oryginalnego NMT – w wyniku tego dostajemy jedną z możliwych realizacji,

4) powtórzeniu kroków 2) oraz 3) tyle razy, ile wynosi liczba potrzebnych realizacji uznawanych za wystarczającą aby uchwycić rozkład możliwych wartości wysokości.

Określenie wspomnianej liczby potrzebnych realizacji często jest określana przez badaczy w sposób arbitralny, przykładowo na poziomie 100 (np. Poggio i Soille, 2010). Nie jest to właściwe postępowanie, gdyż w celu zapewnienia optymalności i efektywności należy znaleźć kompromis między złożonością obliczeniową związaną z generowaniem kolejnych realizacji a stopniem w jakim poprawiają one dokładność wyniku końcowego. Dla przykładu, jeżeli 400 realizacji daje taką samą dokładność co 200 realizacji to wzrost złożoności obliczeniowej związany z dodatkowymi 200 realizacjami jest niepotrzebny. Raaflaub i Collins (2006) proponują metodę, która polega na sprawdzaniu czy zmiana odchylenia standardowego kolejnej realizacji mapy odchylenia standardowego jest znaczna. Jeżeli nie jest, wtedy oznacza to, że kolejne realizacje nie niosą ze sobą istotnej informacji i od tego momentu każda następna iteracja w metodzie Monte Carlo jest zbędna. Przedstawione to zostało na Rys.11.

41

Rys.11. Odchylenie standardowe mapy odchylenia standardowego w funkcji liczby realizacji w metodzie Monte Carlo (za Raaflaub i Collins, 2006; zmodyfikowano)

3.3.1. Bezwarunkowe modele symulacyjne błędu

Bezwarunkowe modele symulacyjne błędu bazują na stochastycznej symulacji realizacji funkcji losowych (ang. random functions) lub w szczególności w kontekście przestrzennym – pól losowych (ang. random fields). Posiadają one informacje na temat właściwości rozkładu błędu, ale nie wykorzystują żadnych estymatorów tych błędów. W najprostszej formie działania tych modeli następuje wybór niezależnych i nieskorelowanych wartości pochodzących z rozkładu normalnego o parametrach μ=0 oraz σ=RMSE, które następnie służą do wygenerowania pól losowych o rozdzielczości tożsamej z modelem i o właściwościach „białego szumu”, dodawanych następnie do oryginalnego NMT (metoda Monte Carlo) co skutkuje powstaniem pewnej liczby niezależnych, jednakowo prawdopodobnych realizacji NMT. Modele te można opcjonalnie ograniczyć poprzez wprowadzenie przestrzennej autokorelacji używając wzorca przestrzennej zależności (skorelowania) błędu. Jest to osiągalne na wiele sposobów poprzez wykorzystanie (Fisher i Tate, 2006; Oksanen, 2006):

• algorytmu losowo zmieniającego zawartość poszczególnych komórek modelu (ang. pixel swapping lub simulated annealing) działającego w sposób iteracyjny, aż do osiągnięcia pożądanej wartości opisującej przestrzenną autokorelację – może to być I Moran’a (Fisher, 1991, 1998), C Geary’ego (Veregin, 1997) lub korelacja ρ (Hunter i Goodchlid, 1997) opisane w podrozdziale 3.1.2,

• przestrzennie autoregresywnego procesu (ang. spatially autoregressive model) zmierzającego do uzyskania założonej z góry korelacji (Zhang i Goodchild, 2002),

• semiwariogramu w celu określenia estymatorów błędu (Fisher, 1998),

• przestrzennych średnich kroczących (ang. spatial moving averages) bazujących na stwierdzeniu, że usunięcie nieskorelowanego szumu w polu losowym przy użyciu filtru dolnoprzepustowego zwiększa poziom autokorelacji (Cressie i Pavlicova, 2002),

• sekwencyjnej symulacji Gaussa (SGS - ang. sequential gaussian simulation) (np. Goovaerts, 1997; Deutsch i Journel, 1998),

• bezpośredniej sekwencyjnej symulacji (DSS – ang. direct sequential simulation) (Soares, 2001; Delgado i in., 2006).

Modele symulacyjne są często wykorzystywane przez badaczy do określania niepewności map spadków i ekspozycji, czy obszaru zlewni. Wykorzystuje się do tego NMT z uwagi na spójność wynikowej mapy z danymi wysokościowymi, sam proces zaś jest bardziej obiektywny, gdyż komputery nie są podatne na omyłki możliwe przy manualnym opracowaniu, co może mieć miejsce

42

w przypadku obszarów zlewni (Oksanen i Sarjakoski, 2005a). Określenie ich zasięgu i przebiegu cieków wodnych jest pierwszym krokiem w modelowaniu hydrologicznym (Poggio i Soille, 2010).

Raaflaub i Collins (2006) porównali wpływ skorelowanego i nieskorelowanego błędu NMT na wyniki obliczenia produktów pochodnych takich jak: map spadków, ekspozycji, indeksu topograficznego, obszaru zlewni. Wysnuli wnioski, iż błędy dla większości z nich były znacząco mniejsze w przypadku NMT charakteryzującego się skorelowanym błędem wysokości. Wyjątkiem okazały się mapy ekspozycji, dla których wykazali obojętność względem skorelowanego i nieskorelowanego błędu modelu. Do badań posłużył im pojedynczy NMT z serii modeli dostarczonych przez władze prowincji Alberta w Kanadzie. Modele te powstały metodą fotogrametryczną poprzez pomiar punktów w odstępach 25 m, 50 m, 100 m w zależności od stopnia zróżnicowania terenu. Z punktów pomiarowych wyinterpolowano następnie siatkę o rozdzielczości 25 m przy użyciu oprogramowania SCOP (za Ackermann, 1992; cytowanym przez Raaflaub i Collins, 2006). Dokładność modelu wynosi odpowiednio ± 10 m oraz ± 3 m dla położenia sytuacyjnego i wysokościowego na poziomie 90%. Pozostałe 10% wysokości charakteryzuje się dokładnością ± 5 m na poziomie 90%. Wpływ błędu sytuacyjnego został przez autorów pominięty. Wykorzystali oni metodę Monte Carlo, przeprowadzając uprzednio analizę ilości wymaganych realizacji. Dla nieskorelowanego błędu zaburzali oni NMT realizacjami o SD równym RMSE modelu oraz wartości średniej μ równej zero. W celu uwzględnienia autokorelacji przestrzennej błędu wybrali oni funkcję korelacji Gaussa. Stworzyli maskę o wymiarach 21 × 21 wypełnioną wartościami uzyskanymi z dodatniego rozkładu normalnego o SD = 5 m oraz ME = 0 m, w którym wartościom ujemnym odpowiada wartość funkcji gęstości równa zero. Wartość wag malała od centralnej komórki, dla której była największa, w stronę krawędzi maski.

Oksanen i Sarjakoski (2005b) również badali wpływ błędów NMT na dokładność produktów pochodnych na przykładzie map spadków, ekspozycji oraz obszaru zlewni. Obszarem testowym była Wyspa Ruissalo zlokalizowana 5 km na zachód od miasta Turku w południowo-zachodniej Finlandii, dla której autorzy stworzyli NMT typu GRID o wymiarach 652 × 440 i rozdzielczości 10 m metodą kartograficzną na podstawie wielkoskalowych map planistycznych wykonanych przez Urząd Miasta Turku. W zastosowanej metodzie Monte Carlo wykorzystali 1000 realizacji błędu NMT wygenerowanych za pomocą SGS. Przeprowadzili oni szereg analiz z wykorzystaniem różnych wartości błędu NMT (0.25 m, 0.50 m, 1.00 m, 2.00 m) oraz różnych parametrów semiwariogramu określających poziom autokorelacji. Przeanalizowali różne ich konfiguracje zmieniając: model (wykładniczy, gaussowski), próg (0.0625 m2, 0.25 m2, 1.00 m2, 4.00 m2) oraz zasięg (0 m, 30 m, 60 m, 120 m). Zgodnie z przewidywaniami wzrost błędu NMT pociągał za sobą błąd produktów pochodnych. Jednakże przyjęty model przestrzennej autokorelacji wywierał różny wpływ na przenoszenie błędów. Autorzy przede wszystkim podważyli powszechne do tej pory stwierdzenie, że wykorzystanie nieskorelowanego modelu błędu NMT jest najgorszym przypadkiem (ang. worse-case scenario). Ponadto wykazali, że dobór kształtu modelu przestrzennej autokorelacji przy tworzeniu semiwariogramu (wykładniczy czy gaussowski) jest mniej istotny niż dobór prawidłowych parametrów (zasięg i próg). Stwierdzili jednak, że kształt funkcji semiwariogramu wywierał większy wpływi na mapy nachyleń i ekspozycji niż na wyznaczenie obszarów zlewni.

Zaletą bezwarunkowych modeli symulacyjnych jest to, że nie wymagają żadnych danych referencyjnych w celu przeprowadzenia analizy rozkładu przestrzennego błędu. Niewątpliwą wadą natomiast jest fakt, iż zakładają one, że rozkład błędu jest jednolity na całym obszarze opracowania. Jak udowodniono we wcześniej powoływanych źródłach (np. Monckton, 1994; Hunter i Goodchild, 1997; Fisher, 1998; Liu i Jezek, 1999; Wechsler, 2001; Fisher i Tate, 2006; Kraus i in., 2006) rozkład błędu jest przestrzennie skorelowany, więc jego wartość w jednym obszarze jest większa niż w drugim. W większości przypadków, aby uwzględnić tą regionalizację błędu model symulacyjny musi zostać uwarunkowany.

Alternatywne podejście uwzględniające zróżnicowaną autokorelację błędu zaproponowali Oksanen i Sarjakoski (2010). Zwracają oni uwagę na fakt, iż analizy przestrzenne uwzględniające niepewność NMT powstałych metodą LIDAR są rzadkością, co spowodowane jest dwoma czynnikami. Po pierwsze istnieje ogólne przekonanie o wysokiej dokładności modeli utworzonych za pomocą danych ze skaningu laserowego (np. za Hodgson i in., 2005; Barber i Shortridge, 2005; Vaze i Teng, 2007; cytowanymi przez Oksanen i Sarjakoski, 2010) co czyni tego typu analizy zbytecznymi. Po drugie modele symulacyjne błędu wykorzystują najczęściej metody simulated annealing

43

(np. Fisher, 1991, 1998) lub SGS (np. Deutsch i Journel, 1998), które nie są odpowiednie dla ogromnych zbiorów danych ze względu na słabą skalowalność (Oksanen i Sarjakoski, 2010). Z tego powodu Oksanen i Sarjakoski (2010) zaproponowali model symulacyjny błędu oparty na metodzie Monte Carlo (1000 realizacji) odpowiedni dla tego typu zbiorów danych. Cechuje się on niestacjonarnością, czyli zmiennością parametrów korelacji przestrzennej w obrębie modelu. Aby to uzyskać konieczne jest zdefiniowanie jądra k, będącego odpowiednikiem pola losowego, które jako zmienną przyjmuje kowariogram (Rys.6 b)). W najbardziej złożonym przypadku może to być kilka parametrów: model kowariogramu, próg, zasięg, współczynnik i kierunek anizotropii oraz efekt samorodków. W celu uproszczenia modelowania oraz zmaksymalizowania wydajności symulacji autorzy przyjęli wariancję (próg) jako zmieniający się lokalnie parametr. Do badań wykorzystali NMT o nazwie NLS KM2 (NLS, 2010) o rozdzielczości 2 m o wymiarach 9 km × 12.3 km powstały z danych LIDAR o gęstości 1.1 pkt/m2. Do walidacji metodyki wykorzystali dane referencyjne w postaci 2% losowo wybranych punktów terenu (ang. ground points) pochodzących z automatycznej klasyfikacji danych LIDAR o rozdzielczości od 4.5 do 8.9 pkt/m2. Wyniki walidacji potwierdziły poprawność zaproponowanej metodyki likwidującej ograniczenia globalnych parametrów niepewności modelu. Zwracają jednak uwagę na fakt, że powyższe stwierdzenie należy traktować ostrożnie, gdyż dane referencyjne nie były o rząd wielkości dokładniejsze niż badany model.

Inną alternatywę dla uwarunkowanych modeli symulacyjnych zaproponowali Delgado i inni (2006). Oni również wykorzystali metodę Monte Carlo lecz z algorytmem DSS do wygenerowania 100 realizacji map błędu. Dla potrzeb symulacji użyli oprogramowania GeoMS (CMRP, 2012) umożliwiającego tworzenie wariogramów empirycznych, wpasowywania w nie teoretycznych oraz generowania symulacji. Po uzyskaniu map realizacji błędu dokonali ich sprawdzenia w oparciu o dodatkowe 500 punktów, które nie brały udziału w procesie symulacji. Uzyskana wartość RMSE, po odrzuceniu punktów na dachach budynków, wyniosła 0.10 m, co w porównaniu do nominalnej wartości błędu wysokościowego zastosowanej metody LIDAR (około 0.07 m) uznana została za zadowalającą. Punkty sprawdzające pochodziły z tego samego zbioru danych jakim był pomiar LIDAR sensorem Toposys miasta Grenada w Hiszpanii. Obszar testowy charakteryzował się nachylonymi zboczami z dużą ilością elementów pokrycia terenu (budynki, drzewa, drogi). Zbiór składał się z 1 592 487 punktów o gęstości około 4.87 pkt/m2, z którego w sposób losowy wybrano 50 000 punktów o gęstości około 0.15 pkt/m2, które następnie posłużyły do dalszej analizy dokładnościowej. Wykonane przez autorów sprawdzenie w oparciu o wspomniane 500 punktów jest konieczne ze uwagi na fakt, iż kształt lokalnej dystrybuanty (CDF – ang. Cumulative Distribution Function), z której wartości symulowane są pobierane jest nieznany. Z tego względu DSS nie gwarantuje osiągnięcia przez poszczególne realizacje założonego rozkładu błędu (Robertson i in., 2006), gdyż lokalna CDF nie może zostać w sposób pełny scharakteryzowana tylko przez lokalną wartość średnią oraz wariancję (Delgado i in., 2006). Zaletą jednak tej metody w odniesieniu do SGS jest to, że w przeciwieństwie do niej nie wymaga transformacji zmiennej losowej (wysokości) do rozkładu normalnego przed rozpoczęciem symulacji. W rezultacie swoich badań Delgado i inni (2006) wykazali, że wyższe lokalne wartości błędu są połączonym efektem dostępności danych (mniejsza gęstość danych spowodowana pokryciem terenu przez roślinność i budynki) oraz charakterystyki terenu (większe nachylenie). Nie stwierdzili również wystąpienia rozkładu normalnego dla histogramów wysokości punktów w poszczególnych realizacjach (Rys.12).

44

Rys.12. Histogramy wysokości dla dwóch punktów GRID obliczone na podstawie 100 realizacji NMT: wyżej punkt o wariancji 0.029 m2, niżej punkt o wariancji 5.645 m2

(za Delgado i in., 2006; zmodyfikowano) 3.3.2. Uwarunkowane modele symulacyjne błędu

W modelach uwarunkowanych atrybut przestrzenny Z(s), jakim jest wysokość oblicza się z obserwacji punktowych z(si), i = 1,…,n. Wynik będzie inny w zależności od wykorzystanego modelu przestrzennej zależności (wymienione w poprzednim podrozdziale) lecz reguła jest w każdym przypadku taka sama. Wygenerowane pola losowe uwarunkowuje się do obserwacji błędu e(si) dla określonej liczby punktów. Mogą one pochodzić z porównania badanego NMT z danymi referencyjnymi o wyższej dokładności.

Istnieje wiele publikacji na temat zastosowania uwarunkowanych modeli symulacyjnych w praktyce. Kyriakidis i inni (1999) wykorzystali SGS do wygenerowania pól losowych, a następnie stosując metodę Monte Carlo przeprowadzili ocenę dokładności jednostopniowego modelu USGS (ang. United States Geological Survey) „Death Valley” o rozdzielczości 3 sekund kątowych (ang. 3-arcsecond) przetransformowanego do układu UTM do postaci GRID o wymiarach 148 × 149 i oczku siatki 74.4 m × 92.5 m (określając go jako dane miękkie – ang. soft data). Jako dane do uwarunkowania użyli dane punktowe wyinterpolowane metodą biliniową z modelu USGS 7.5 minutowego „Furnance Creek” o oczku siatki 30 m (określając je jako dane twarde – ang. hard data). Holmes i inni (2000) wykorzystują dokładnie tę samą metodologię co Kyriakidis i inni (1999), z tą różnicą że badali wielkość i rozkład przestrzenny błędu w modelu USGS 30 m, a jako dane twarde wykorzystali różnicowy pomiar GPS (DGPS – ang. Differential Global Positioning System). Wykazali oni znaczny wpływ błędów NMT na produkty pochodne np. mapy spadków, indeksu wilgotności czy akumulacji rzecznej. Wpływ ten był szczególnie wysoki na obszarach położonych w dnach dolin oraz wzdłuż cieków wodnych. Jednocześnie, jak już wspomniano w podrozdziale 3.1, dowiedli oni, że

45

korelacja pomiędzy błędem i różnymi wskaźnikami opisującymi zróżnicowanie powierzchni topograficznej była niewielka.

Fisher (1998) wykorzystując semiwariogramy dokonał estymacji błędu dla dwóch modeli: „Panorama” oraz „Profile” dostarczanych przez BOS o rozdzielczości odpowiednio 50 m i 10 m pasma górskiego Cairngorm w Grampianach Wschodnich w Szkocji. Na przykładzie map widoczności porównał wyniki otrzymane z wykorzystaniem trzech modeli symulacji błędów. Pierwszym był bezwarunkowy model symulacji bez autokorelacji przestrzennej (pole losowe o charakterystyce „białego szumu”). Drugi model również był bezwarunkowy jednak uwzględniał autokorelację za pomocą metody pixel swapping z wykorzystaniem charakterystyki I Morana. W trzecim, uwarunkowanym modelu symulacji błędów Fisher jako dane referencyjne przyjął wysokości punktów charakterystycznych terenu pozyskane drogą digitalizacji map w skali 1:10000. Na podstawie przeprowadzonych badań wykazał autokorelację przestrzenną błędów w NMT, niedoszacowanie wysokości na grzbietach i przeszacowanie w obrębach dolin oraz znaczącą korelację między nachyleniem terenu a błędem wysokości. Do takich samych konkluzji doszedł w swojej publikacji Wise (2011). Wnioski te nie zostały potwierdzone dla modelu „Profile” z uwagi na podejrzenie wykorzystania punktów przyjętych jako referencyjne do budowy tegoż modelu. W celu weryfikacji konieczny byłby niezależny pomiar dodatkowych 500-1000 punktów, więc z tego powodu autor skupił się na modelu „Panorama”. Fisher zaproponował również sposób ulepszenia metody modelowania błędów polegający na generowaniu pola losowego za pomocą rzeczywistego błądu średniego oraz odchylenia standardowego wynikającego z danych referencyjnych zamiast globalnych wartości zapewnianych przez BOS. Jako punkty stałe w polach losowych przyjął znany błąd w punktach referencyjnych. Symulację błądu przeprowadził wykorzystując autokorelacje przestrzenną odpowiadającą autokorelacji zaobserwowanej za pomocą semiwariogramu. Zaproponowane przez Fisher’a podejście daje wymierne rezultaty poprawiając sposób opisu rozkładu przestrzennego błędów w NMT.

Powyższa metodyka została doceniona przez zespół Darnell i inni (2008) określając ją mianem „prawdopodobnie najlepszej metody modelowania błędu”. W swoich badaniach wykorzystali oni oprogramowanie open source R (CRAN, 2012) wraz z bibliotekami GSTAT (GSTAT, 2012) oraz Lattice (CRAN, 2012) objętych licencją wolnego oprogramowania GPL (ang. General Public License). Pierwsza z nich służy do modelowania geostatystycznego i przeprowadzania metody Monte Carlo, druga natomiast pozwala generować wizualizacje 2D (funkcja „Levelplot”) oraz 3D (funkcja „Wireframe”) powierzchni błędów. W myśl tej licencji użytkownicy mogą dowolnie używać, rozpowszechniać i modyfikować oprogramowanie co spełnia postawiony przez autorów postulat ogólnej dostępności oprogramowania dla wszystkich użytkowników. Zaimplementowali oni metodykę opartą na uwarunkowanej symulacji stochastycznej metodą Monte Carlo obejmującą generowanie semiwariogramów, które następnie wraz z sekwencyjną symulacją Gaussa posłużyły do utworzenia kolejnych realizacji map błędów. Do badań wykorzystali dwa modele o oczku siatki 12.5 m oraz 25 m obszaru o powierzchni około 25 m2 w północno-zachodniej Słowenii obejmujący dolinę Rzeki Idrija. Modele dostarczone zostały przez Survey and Mapping Authority of Slovenia, a pozyskano je niezależnie jako kombinacje metody InSAR, kartograficznej oraz pomiarów bezpośrednich. Jako dane referencyjne wykorzystali 100 punktów kontrolnych pozyskanych z LIDAR. Wyniki ich badań dowiodły korelacji przestrzennej błędu oraz jego powiązanie z nachyleniem terenu. Dla terenów o nachyleniu większym niż 30˚ wielkość błędu drastycznie wzrastała.

W podrozdziale 3.3.1 wspomniano o zagadnieniu określania zasięgu obszaru zlewni. Obszar ten może być wyznaczony również przy pomocy uwarunkowanego modelu symulacyjnego. Poggio i Soille (2010) do badań wykorzystali dwa NMT obejmujące obszar Rzeki Ren o rozmiarze około 120 km. Pierwszy model to globalny numeryczny model terenu (GDEM – ang. Global Digital Elevation Model) pochodzący z misji ASTER (ang. Advanced Spaceborne Thermal Emission and Reflection Radiometer – zaawansowany satelitarny radiometr do pomiaru odbicia i emisyjności). Drugim analizowanym modelem był model SRTM. Jako dane referencyjne wykorzystali oni model EuroDEM, który został zmozaikowany z różnych źródeł w celu uzyskania możliwie jak najdokładniejszych danych (za EuroDEM, 2008; EuroGeographics, 2008; Hovenbitzer, 2008; cytowanymi przez Poggio i Soille, 2010). Do celów modelowania błędu NMT wykorzystali metodę Monte Carlo z SGS. Użyli do tego bibliotekę GSTAT (GSTAT, 2012) programu R (CRAN, 2012). Dla każdego z dwóch obszarów testowych wykorzystanie wyestymowanego, przestrzennie

46

zróżnicowanego błędu modeli wejściowych przyniosło poprawę wyników określania obszarów zlewni. Model GDEM, pomimo wyższej rozdzielczości, dostarczył gorszych wyników.

Również Castrignano i inni (2006) wykorzystali metodę Monte Carlo oraz algorytm SGS do generowania 500 map symulacji błedu. Obszar testowy stanowiła dolina Val Chiavenna o powierzchni około 1.5 ha położona w Alpach w Północnych Włoszech. Jako dane referencyjne wykorzystano zbiór 110 punktów rozproszonych pomierzonych przy pomocy dalmierza laserowego połączonego z tachimetrem elektronicznym. Wykazali oni, że hipoteza rozkładu normalnego błędu NMT nie może zostać odrzucona z prawdopodobieństwem większym niż 0.10. Analizując histogram błędów stwierdzili nieznaczny, dodatni błąd systematyczny. Wartości błędów były w oczywisty sposób skorelowane z nachyleniem terenu.

W dokumencie Index of /rozprawy2/10750 (Stron 40-46)

Powiązane dokumenty