• Nie Znaleziono Wyników

Index of /rozprawy2/10750

N/A
N/A
Protected

Academic year: 2021

Share "Index of /rozprawy2/10750"

Copied!
147
0
0

Pełen tekst

(1)Akademia Górniczo-Hutnicza im. Stanisława Staszica Wydział Geodezji Górniczej i Inżynierii Środowiska Katedra Geoinformacji, Fotogrametrii i Teledetekcji Środowiska. Rozprawa doktorska. PORÓWNANIE METOD ESTYMACJI PRZESTRZENNEGO ROZKŁADU BŁĘDU NUMERYCZNYCH MODELI TERENU. mgr inż. Łukasz Kulesza. dr hab. inż. Beata Hejmanowska, prof. AGH. Kraków 2013.

(2) Składam najserdeczniejsze podziękowania dr hab. inż. Beacie Hejmanowskiej, prof. AGH za rozległą pomoc,wsparcie i przewodnictwo w trakcie realizacji niniejszej pracy..

(3) Lista akronimów. Lista akronimów ALS ALTM ASPRS ASTER BOS CCD CDF CODGiK DFT DGPS DSM DSS DTM EOW EOZ ESD ESRI FFT GCP GDEM GIS GNSS GODGiK GPL GPRS GPS GSD ICESat IDW InSAR ISARA ISO ISOK LIDAR LPIS ME MLC MLS MNK NMPT NMRT NMT OLS PDOP PRG PUWG. lotniczy skaning laserowy (ang. Airborne Laser Scanner) lotniczy laserowy sensor terenowy (ang. Airborne Laser Terrain Mapper) Amerykańskie Stowarzyszenie Fotogrametrii i Teledetekcji (ang. American Society for Photogrammetry and Remote Sensing) zaawansowany satelitarny radiometr do pomiaru odbicia i emisyjności (ang. Advanced Spaceborne Thermal Emission and Reflection Radiometer) Brytyjski Urząd Geodezji (ang. British Ordnance Survey) matryca CCD (ang. Charge Coupled Device) dystrybuanta (ang. Cumulative Distribution Function) Centralny Ośrodek Dokumentacji Geodezyjnej i Kartograficznej dyskretna transformacja Fouriera (ang. Discrete Fourier Transform) różnicowy pomiar GPS (ang. Differential Global Positioning System) Numeryczny Model Pokrycia Terenu (ang. Digital Surface Model) bezpośrednia sekwencyjna symulacja (ang. Direct Sequential Simulation) Numeryczny Model Terenu (ang. Digital Terrain Model) elementy orientacji wewnętrznej elementy orientacji zewnętrznej mapa odchylenia standardowego błędu (ang. Error Standard Deviation) korporacja Environmental Systems Research Institute szybka transformacja Fouriera (ang. Fast Fourier Transform) terenowy punkt kontrolny (ang. Ground Control Point) globalny numeryczny model terenu (ang. Global Digital Elevation Model) system informacji geograficznej (ang. Geographic Information System) globalny system nawigacji satelitarnej (ang. Global Navigation Satellite System) Grodzki Ośrodek Dokumentacji Geodezyjnej i Kartograficznej powszechna licencja publiczna (ang. General Public License) pakietowa transmisja danych (ang. General Packet Radio Service) system pozycjonowania globalnego (ang. Global Positioning System) terenowa rozdzielczość pikselowa (ang. Ground Sample Distance) satelita pomiaru lodu, zachmurzenia i wysokości terenu (ang. Ice, Cloud and land Elevation Satellite) wagowana odwrotna odległość (ang. Inverse Distance Weighting) interferometria radarowa (ang. Interferometric Synthetic Aperture Radar) Międzynarodowa Organizacja Badań Dokładności Przestrzennej (ang. International Spatial Accuracy Research Association) Międzynarodowa Organizacja Normalizacyjna (ang. International Organization for Standardization) informatyczny system osłony kraju przed nadzwyczajnymi zagrożeniami skaning laserowy (ang. LIght Detection And Ranging) system identyfikacji działek rolnych (ang. Land Parcel Identification System) błąd średni (ang. Mean Error) klasyfikator maksymalnego prawdopodobieństwa (ang. Maximum Likelihood Classifier) metoda ruchomych najmniejszych kwadratów (ang. Moving Least Squares) metoda najmniejszych kwadratów Numeryczny Model Pokrycia Terenu Numeryczny Model Rzeźby Terenu Numeryczny Model Terenu zwykła regresja liniowa (ang. Ordinary Least Squares) rozmycie dokładności sytuacyjno-wysokościowej (ang. Positional Dilution of Precision) Państwowy Rejestr Granic Państwowy Układ Współrzędnych Geodezyjnych 3.

(4) Lista akronimów PZGiK RA RMSE RTK RTN RZGW SD SDQ SGS SMoRP SRTM TI TIN USGS VRS WMS. Państwowy Zasób Geodezyjny i Kartograficzny analiza ryzyka (ang. Risk Analysis) błąd średni kwadratowy (ang. Root Mean Squared Error) metoda pomiaru kinetycznego (ang. Real Time Kinematic) metoda pomiaru kinematycznego wykorzystująca poprawki z systemu ASG-EUPOS Regionalny Zarząd Gospodarki Wodnej odchylenie standardowe (ang. Standard Deviation) przestrzenna jakość danych (ang. Spatial Data Quality) sekwencyjna symulacja Gaussa (ang. Sequential Gaussian Simulation) System Monitoringu Ryzyka Powodziowego kosmiczna radarowa misja topograficzna (ang. Shuttle Radar Topographic Mission) indeks topograficzny (ang. Topographic Index) nieregularna siatka trójkątów (ang. Triangulated Irregular Network) Amerykańska Agencja Pomiarów Geologicznych (ang. United States Geological Survey) wirtualna stacja referencyjna (ang. Virtual Reference Station) sieciowy standard udostępniania map (ang. Web Map Service). 4.

(5) Spis treści. Spis treści 1. 1.1. 1.2. 1.3.. Wprowadzenie......................................................................................................................... 7 Zarys problematyki badawczej ................................................................................................. 7 Cel pracy................................................................................................................................... 8 Przegląd zawartości pracy ........................................................................................................ 8. 2.. Jakość Numerycznego Modelu Terenu............................................................................... 10 2.1. Systematyka parametrów charakteryzujących jakość NMT................................................... 11 2.2. Zasady opisu jakości NMT zgodnie z Normą ISO 19113 ...................................................... 17 2.2.1. Elementy jakości danych wraz z ich elementami podrzędnymi ...................................... 17 2.2.1.1. Deskryptory elementu podrzędnego jakości danych ................................................... 20 2.2.2. Przeglądowe elementy jakości danych ............................................................................ 21 2.3. Podsumowanie zagadnienia określania jakości NMT ............................................................ 22. 3.. Przegląd literatury................................................................................................................ 23 3.1. Charakterystyka przestrzenna błędu NMT ............................................................................. 25 3.1.1. Mapy błędów................................................................................................................... 25 3.1.2. Podejście geostatystyczne ............................................................................................... 25 3.1.3. Analiza Fourierowska...................................................................................................... 31 3.2. Analityczne modele błędów NMT.......................................................................................... 33 3.3. Stochastyczne symulacje błędów NMT.................................................................................. 40 3.3.1. Bezwarunkowe modele symulacyjne błędu .................................................................... 41 3.3.2. Uwarunkowane modele symulacyjne błędu .................................................................... 44 3.4. Wpływ typu pokrycia i nachylenia terenu na dokładność NMT ............................................ 46 3.5. Podsumowanie przeglądu literatury........................................................................................ 48. 4.. Charakterystyka obszarów badań ...................................................................................... 50. 5.. Charakterystyka danych...................................................................................................... 53 5.1. Numeryczne Modele Terenu .................................................................................................. 53 5.2. Dane pomiarowe NMT ........................................................................................................... 56 5.3. Ortofotomapy lotnicze ............................................................................................................ 59 5.4. Pomiary bezpośrednie............................................................................................................. 59 5.4.1. Główny obszar badań ...................................................................................................... 61 5.4.2. Dodatkowy obszar badań ................................................................................................ 66. 6.. Metodyka badawcza ............................................................................................................. 69. 7.. Generowanie map błędów i odchylenia standardowego NMT ......................................... 73 7.1. Metoda Krausa i innych (2006) .............................................................................................. 73 7.2. Metoda Carlisle’a (2002, 2005) .............................................................................................. 79 7.3. Podejście geostatystyczne....................................................................................................... 86 7.4. Wzory empiryczne.................................................................................................................. 92 7.5. Pokrycie terenu ....................................................................................................................... 94 7.5.1. Dokładność NMT wynikająca z pokrycia terenu ............................................................ 94 7.5.2. Nadzorowana klasyfikacja pikselowa ............................................................................. 96. 8.. Weryfikacja map błędów i odchylenia standardowego NMT......................................... 103 8.1. Porównanie poszczególnych metod estymacji przestrzennego rozkładu błędu.................... 103 8.2. Powierzchnia teoretyczna obarczona znanym błędem ......................................................... 105 8.2.1. Metoda Krausa i innych (2006)..................................................................................... 106 8.2.2. Metoda Carlisle’a (2002, 2005)..................................................................................... 108 8.2.3. Podejście geostatystyczne ............................................................................................. 111 8.2.4. Wzory empiryczne oraz pokrycie terenu....................................................................... 114 8.2.5. Podsumowanie wyników weryfikacji opartej o powierzchnię teoretyczną................... 116 8.3. NMT LIDAR jako powierzchnia referencyjna..................................................................... 118 8.4. Podsumowanie weryfikacji map błędów i odchylenia standardowego NMT....................... 126. 5.

(6) Spis treści 9.. Wpływ dokładności NMT na wyniki analiz przestrzennych .......................................... 127 9.1. Metoda twarda ...................................................................................................................... 127 9.2. Metoda miękka ..................................................................................................................... 129 9.2.1. Globalna wartość dokładności....................................................................................... 129 9.2.2. Mapa przestrzennego rozkładu dokładności.................................................................. 130 9.3. Podsumowanie wyników analiz przestrzennych .................................................................. 131. 10.. Podsumowanie i wnioski .................................................................................................... 135. Literatura........................................................................................................................................... 140. 6.

(7) 1. Wprowadzenie. 1. Wprowadzenie 1.1. Zarys problematyki badawczej Wykładniczy wzrost technologiczny jaki można zaobserwować na przestrzeni ostatnich kilkudziesięciu lat stawia przed współczesnymi ludźmi coraz więcej nowych wyzwań. Rozwój nauki i ekspansja człowieka nie pozostaje bez wpływu na otaczające nas środowisko, co skutkuje zwiększeniem częstotliwości występowania ekstremalnych zjawisk klimatycznych i hydrologicznych. W Europie raczej rzadko występują takie zjawiska jak tornada, trzęsienia ziemi czy erupcje wulkanów, jednak bardzo często jest ona nękana przez wodę występującą z koryt rzecznych. W XX wieku powodzie pochłonęły łącznie 9500 ofiar, dotknęły dalsze 10 milionów osób oraz stały się przyczyną strat szacowanych na około 70 miliardów euro (KZGW, 2013). Można zaobserwować, że wraz z upływem czasu duże powodzie stają się coraz bardziej powszechnym zjawiskiem. Ponadto analiza dostępnych danych nakazuje myśleć, że w ciągu najbliższych lat kraje europejskie mogą być ponownie niejednokrotnie dotknięte wystąpieniem zjawiska powodzi. Ocieplenie klimatu powoduje topnienie lodowców, wzrost poziomu mórz, zwiększenie powierzchni parowania wody, co przekłada się na wzrost intensywności opadów atmosferycznych. Dodatkowo wzrost liczby ludności, niewłaściwe gospodarowanie i rozwój budownictwa na obszarze dorzecza powodują ograniczenie zdolności gruntu do wchłaniania wód powodziowych. Nie można zapomnieć też o szkodach, jakie powodzie mogą wyrządzić środowisku naturalnemu. Chodzi głównie o zanieczyszczenie chemikaliami pochodzącymi z uszkodzonych instalacji oczyszczalni ścieków, ferm hodowlanych, zakładów przemysłowych czy stacji paliw. Przytoczone fakty te stały się bodźcem do dyskusji na forum międzynarodowym dotyczącej zminimalizowania konsekwencji powodzi, która zwieńczona została opracowaniem dyrektywy Parlamentu Europejskiego i Rady Europy – Dyrektywy 2007/60/WE z dnia 23 października 2007 r. w sprawie oceny ryzyka powodziowego i zarządzania nim (zwanej dalej Dyrektywą Powodziową). Nakłada ona obowiązek oszacowania ryzyka w związku z występowaniem stref zagrożenia powodziowego. Polskie prawo natomiast zobowiązało dyrektorów Regionalnych Zarządów Gospodarki Wodnej (RZGW) do opracowania studium ochrony przeciwpowodziowej zgodnie z zapisami ustawy Prawo Wodne z dnia 18 lipca 2001 r. (Dz. U. z 2001 r. Nr 115, Poz. 1229 wraz z późniejszymi zmianami). Są to przykłady potwierdzające potrzebę wzrostu świadomości ryzyka związanego z podejmowaniem decyzji na podstawie przeprowadzanych analiz GIS (ang. Geographic Information System), dlatego też coraz częściej pojawia się problematyka jakości i dokładności danych źródłowych zasilających te systemy zwracając przy tym coraz większą uwagę na wiarygodność tych wyników. Harmonogram Dyrektywy Powodziowej nakłada obowiązek opracowania map zagrożenia i map ryzyka powodziowego do końca 2013 roku. Na obszarze całej Polski w ramach różnych zadań pozyskiwane są dane w celu utworzenia w/w opracowań dla obszarów szczególnie narażonych z punktu widzenia powodzi. Jako przykład można przytoczyć zadanie pod nazwą „System monitoringu ryzyka powodziowego (SMoRP)”. Realizowane jest ono w ramach Projektu „Kompleksowe zabezpieczenie przeciwpowodziowe Żuław – Etap I – Regionalny Zarząd Gospodarki Wodnej w Gdańsku” jako część realizacji postanowień „Programu Żuławskiego – 2030”. Funkcjonowanie systemu przyrodniczo-technicznego Żuław jest bezpośrednio uzależnione od poprawnego działania infrastruktury ochrony przeciwpowodziowej. Nabiera ono istotnego znaczenia w obliczu prognozowanych globalnych i regionalnych zmian klimatycznych, które mogą doprowadzić do wzrostu zagrożenia powodziowego wywołanego nasilającymi się anomaliami klimatycznymi i hydrologicznymi oraz podwyższaniem poziomu wód Bałtyku. Presja urbanizacyjna na terenach przyległych powoduje dodatkowy wzrost tego zagrożenia. Dla poprawnego wykonania założeń SMoRP podstawowym i niezbędnym źródłem informacji jest dokładny Numeryczny Model Terenu (NMT) wraz z aktualną ortofotomapą. NMT stanowi bardzo istotną warstwę informacyjną w tych systemach jak również innych systemach GIS. Z ich udziałem wykonuje się wiele analiz przestrzennych – począwszy od prostych zapytań, poprzez wykorzystanie map pochodnych NMT (map nachyleń, ekspozycji, krzywizn, widoczności), na złożonym modelowaniu zjawisk zachodzących w środowisku kończąc. Obecnie dane pomiarowe służące do generowania NMT pozyskiwane są z coraz większą dokładnością oraz w o wiele krótszym czasie, 7.

(8) 1. Wprowadzenie więc naturalną koleją rzeczy jest wzrost wymagań dokładnościowych narzucanych przez inwestorów oraz ustawodawcę (przykładem może być Rozporządzenie Ministra Spraw Wewnętrznych i Administracji z dnia 9 listopada 2011 w sprawie standardów technicznych wykonywania geodezyjnych pomiarów sytuacyjnych i wysokościowych oraz opracowywania i przekazywania wyników tych pomiarów do państwowego zasobu geodezyjnego i kartograficznego – Dz. U. z 2011 r. Nr 263, Poz. 1572). Powoduje to konieczność zwrócenia uwagi nie tylko na sam produkt, ale także na jego jakość. Bagatelizowanie tego aspektu jest niedopuszczalne ze względu na wpływ jaki ma on na wyniki analiz przestrzennych. Metodę twardą, która nie uwzględnia wiarygodności danych źródłowych, można wykorzystywać tylko do celów nie niosących za sobą dużego ryzyka. W przypadku, gdy w grę wchodzi ludzkie życie (przykładem mogą być wspomniane wcześniej strefy zalewowe) analizy należy przeprowadzać metodą miękką – biorąc pod uwagę różne aspekty dokładnościowe danych wejściowych. Przeszkodą jest fakt, że oprogramowanie GIS rzadko umożliwia przeprowadzanie analiz przestrzennych z uwzględnieniem dokładności danych źródłowych (Heuvelink i in., 2006). Dlatego też nieraz jedynym wyjściem jest opracowanie własnego oprogramowania.. 1.2. Cel pracy Przedmiotem badań prezentowanej pracy jest analiza i ocena przydatności różnych metod estymacji przestrzennego rozkładu błędu NMT w analizach przestrzennych oraz sprawdzenie wpływu zastosowania różnego rodzaju informacji o jakości na ich wyniki. W pracy zbadano potencjał poszczególnych metod oraz przedstawiono optymalny sposób ich wykorzystania z punktu widzenia pozyskiwania informacji o przestrzennym rozkładzie błędu modelu. Podjęto również próbę wyboru metody, która przyniosi najlepsze rezultaty oraz opracowania wytycznych dotyczących odpowiedniego jej działania. W tym celu przeanalizowano pięć różnych, reprezentatywnych metod przestrzennej estymacji błędu NMT, jakie na przestrzeni lat były przedmiotem różnych badań prezentowanych w literaturze. W praktycznych analizach wykorzystano dwa modele terenu pozyskane w różny sposób, o odmiennych parametrach dokładnościowych. Badania przeprowadzono na dwóch obszarach: w okolicy miasta Częstochowy oraz na terenie miasta Krakowa. Sprawdzono również jakie korzyści może przynieść połączenie poszczególnych metod w celu poprawienia dokładności estymacji przestrzennego rozkładu błędu. Dodatkowo zweryfikowano zasadność wykorzystania przestrzennie zróżnicowanej dokładności na potrzeby analiz przestrzennych na przykładzie generowania stref zalewowych. Ostatecznie, biorąc pod uwagę powyższe rozważania, sformułowano następującą tezę pracy: • integracja różnych metod estymacji przestrzennego rozkładu błędu NMT zwiększa możliwość prawidłowego oszacowania dokładności, • wykorzystanie przestrzennie zróżnicowanej informacji o dokładności NMT wywiera istotny wpływ na wyniki generowania stref zalewowych.. 1.3. Przegląd zawartości pracy Niniejsza praca została podzielona na dziesięć rozdziałów. W rozdziale pierwszym zarysowany został podjęty problem badawczy oraz zaprezentowano cel i tezy pracy oraz krótki opis poszczególnych rozdziałów. W rozdziale drugim przedstawiono zagadnienie sposobu opisu jakości NMT. Usystematyzowano pojęcia pojawiające się w literaturze dotyczącej dokładności modeli terenu, a także odniesiono się do norm opisu jakości ISO (ang. International Organization for Standardization) wraz ze szczegółowym przeglądem ich zawartości. W trzecim rozdziale znajdują się wyniki przeprowadzonych badań literaturowych na temat sposobu opisu przestrzennie zróżnicowanej dokładności NMT. Omówiono różne podejścia i przeprowadzono syntezę zaproponowanych rozwiązań. Pozwoliło to na wyodrębnienie kilku reprezentatywnych metod, które poddano głębszej analizie i porównaniu w kolejnych rozdziałach. W rozdziale czwartym przedstawiono charakterystykę obszarów badań uwzględniającą ich położenie, opis a także przesłanki przemawiające za jego wyborem. 8.

(9) 1. Wprowadzenie W rozdziale piątym szczegółowo opisano wszystkie dane jakie zostały wykorzystane w niniejszej pracy. Zawiera on również opis procedury przeprowadzonego pomiaru bezpośredniego, a także informacje na temat wykonywania niezbędnych pomiarów dla potrzeb testowania metod estymacji przestrzennego rozkładu błędu numerycznych modeli terenu. W rozdziale szóstym zaprezentowano przyjętą metodykę badawczą oraz przegląd wykorzystanego oprogramowania komputerowego. W rozdziale siódmym zamieszczono szczegółowy opis działania poszczególnych procedur estymacji przestrzennej dokładności NMT oraz podjęto próbę wyboru najlepszego zestawu parametrów dla każdej z nich. Na podstawie otrzymanych wyników połączono mapy błędów i odchylenia standardowego pochodzące z różnych metod, w celu uzyskania jak najlepszej oceny dokładności. W rozdziale ósmym przeprowadzono weryfikację wyników opisanych w poprzednim rozdziale. Celem tej weryfikacji był wybór najbardziej optymalnej i dającej najlepsze wyniki procedury określania przestrzennego rozkładu błędu i odchylenia standardowego. Dla obu wykorzystanych modeli przeprowadzono analizę dyskretną (w punktach pomiarowych) oraz ciągłą (przy użyciu powierzchni referencyjnych). W rozdziale dziewiątym zaprezentowano wpływ, jaki wywiera informacja o jakości NMT na wyniki analiz przestrzennych, na przykładzie generowania stref zalewowych. Wykorzystano oba dostępne modele NMT z założeniem ich bezbłędności (metoda twarda), przyjmując globalną wartość dokładności określoną przez producenta oraz mapy przestrzennego rozkładu błędu i odchylenia standardowego (metody miękkie). W rozdziale dziesiątym zawarto podsumowanie uzyskanych wyników.. 9.

(10) 2. Jakość Numerycznego Modelu Terenu. 2. Jakość Numerycznego Modelu Terenu W chwili obecnej obszar całego kraju jest pokryty NMT o różnej dokładności. Przykładem są wspomniane już modele dorzeczy rzecznych przechowywane w Ośrodkach Koordynacyjno-Informacyjnych utworzonych przy RZGW wykonane w ramach projektu Banku Światowego „Usuwanie skutków powodzi”. Istnieje też model pokrywający cały kraj, powstały przy okazji budowy systemu LPIS (ang. Land Parcel Identification System – tworzonego dla potrzeb systemu informatycznego wspomagania dopłat bezpośrednich do rolnictwa). Dowodzi to aktualności zagadnienia związanego z określaniem jakości NMT. W celu ujednolicenia sposobu opisu jakości Międzynarodowa Organizacja Normalizacyjna ISO opracowała normy ISO 19113:2002 Informacja Geograficzna – Podstawy Opisu Jakości, ISO 19114:2003 Informacja Geograficzna – Procedury Oceny Jakości i ISO 19115:2003 Informacja Geograficzna – Metadane. Norma ISO 19113 wyznacza podstawy opisu jakości danych geograficznych oraz definiuje pojęcia opisujące jakość tych danych. Zgodnie z niniejszą normą problem jakości jest zagadnieniem wieloczynnikowym i obejmuje następujące elementy: • kompletność, • spójność logiczna, • dokładność położenia, • dokładność czasowa, • dokładność tematyczna. Każdy z wymienionych elementów posiada zdefiniowane unikalne elementy podrzędne, które opisywane są przez siedem deskryptorów. Razem tworzą one kompletny mechanizm opisu jakości dla każdego elementu podrzędnego i zostały one opisane dokładniej w dalszej części pracy. Zasady normy odnoszą się do cyfrowych danych geograficznych, ale mogą być rozszerzone na inne dane: mapy, wykresy i dokumenty tekstowe. Z punktu widzenia użytkownika założenia normy odpowiadają na fundamentalne pytanie: czy dane geograficzne mają wystarczającą dokładność dla konkretnego zastosowania? Z punktu widzenia zleceniodawcy mogą być wykorzystane do definicji wymagań dokładnościowych pozyskiwanych danych geograficznych. Norma ISO 19114 jest uzupełnieniem opisanej powyżej normy ISO 19113. Jej głównym celem jest zaprezentowanie wskazówek dla procedur obliczeniowych raportujących ilościową informację o jakości według zasad opisanych we wcześniejszej normie. Podaje ona szereg przykładów pozwalających lepiej zrozumieć sposób, w jaki powinien być wykonany opis jakości, gdyż norma 19113 udostępnia nam tylko narzędzie, zbiór pojęć i definicji ze szczątkowymi przykładami. Obie normy stanowią spójny i usystematyzowany sposób określenia i raportowania informacji o jakości danych. Informacje zawarte w tych normach są użyteczne zarówno dla twórców danych określających zgodność z warunkami technicznymi, jak również dla użytkowników próbujących rozstrzygnąć, czy zbiór danych niesie ze sobą wystarczającą dokładność dla danego zastosowania. Na koniec określa ona dziedzinę do przeprowadzenia oceny i raportowania jakości danych jako metadanych lub w postaci raportu oceny jakości. Cyfrowe dane geograficzne stanowią przybliżenie świata rzeczywistego. Rzadko mamy do czynienia z kompletnymi, w pełni prawidłowymi, czyli idealnymi danymi. Każde przedstawienie rzeczywistości jest jej abstrakcją, zawsze częściową i na jeden z wielu możliwych sposobów. Powoduje to wzrost liczby zbiorów danych, ich złożoności i różnorodności, więc koniecznym jest przekazanie użytkownikowi wszystkich istotnych informacji dotyczących procesu powstawania, cyklu życia oraz przewidzianego zastosowania. Następna z norm ISO 19115 zawiera strukturę opisu cyfrowych danych geograficznych. Sporządzenie na jej podstawie precyzyjnego opisu jakości danych umożliwia ich twórcom i użytkownikom wydajniejsze zarządzanie, uaktualnianie i ponowne wykorzystanie tych danych. Metadane pozwalają producentom danych opisać zbiór danych w taki sposób, że użytkownik będzie miał świadomość założeń i ograniczeń nałożonych w procesie pozyskiwania daych i prawidłowo oceni przydatność do konkretnego celu. Założenie dokładnego opisu jakości nie zawsze zostaje spełnione ze względu na lukę w komunikacji na linii producent – użytkownik danych. Dzieje się tak często z uwagi na fakt, iż użytkownicy nie do końca rozumieją znaczenia metadanych, które używają specyficznej terminologii technicznej. Rozwiązaniem tego problemu mogłoby być zastosowanie języka, jakim posługują się użytkownicy oraz skupienie się na 10.

(11) 2. Jakość Numerycznego Modelu Terenu przydatności i wiarygodności produktu niż na sposobie powstania zbioru danych (Boin i Hunter, 2006).. 2.1. Systematyka parametrów charakteryzujących jakość NMT Jakość NMT najczęściej jest kojarzona z jego błędem określonym w specyfikacji istotnych warunków zamówienia (SIWZ) dla wykonawców, który później jest konfrontowany z wyrywkowym pomiarem kontrolnym. Przedsiębiorstwa kontrolujące wykonują najczęściej pomiar wysokości określonej liczby (n) punktów rozproszonych lub w liniach profilowych otrzymując wartość uznawaną za referencyjną (zREF), która jest najbardziej prawdopodobną wysokością terenu. Porównanie jej z wysokością odczytaną z NMT (zNMT) pozwala na obliczenie błędu średniego kwadratowego (mh):. (1). mh =. ∑ (z. − z REF ). 2. NMT. n. Postępując w ten sposób można otrzymać globalną wartość dla całego modelu (Wise, 2011). W literaturze anglojęzycznej oznaczany on jest jako RMSE (ang. Root Mean Squared Error) (Fisher i Tate, 2006). Autorzy cytując (Gens, 1999; Kyriakidis i in., 1999) stwierdzają, że błąd danego zbioru pomiarów punktowych powierzchni terenu może być poprawnie określony tylko w odniesieniu do innego zbioru znanych, z reguły dokładniejszych, pomiarów. Takie dane zwane są referencyjnymi i często zakłada się ich bezbłędność. Pomiar kontrolny weryfikuje zatem błąd nominalny narzucony przez SIWZ. Warunkiem koniecznym odbioru zleconych prac przez zamawiającego jest spełnienie warunków technicznych, można więc założyć, że wszystkie dostępne modele mają wartość błędu średniego kwadratowego nie większą niż założoną w SIWZ, którą użytkownik może przyjąć za nominalną. Do celów kontroli jakości produktu RMSE może być wystarczający, jednak nie zawiera dokładnej informacji, jak dobrze wysokość modelu reprezentuje rzeczywisty teren. Co najwyżej może określić stopień zgodności tegoż modelu z wysokością terenu w punktach kontrolnych. Dodatkowo wartość RMSE jest zawsze dodatnia, co nie daje jakiejkolwiek informacji o ewentualnym niedoszacowaniu lub przeszacowaniu wysokości (przesunięcie – ang. bias). Pomimo to błąd średni kwadratowy jest nadal powszechnie stosowany dla celów opisu dokładności modelu (np. Sun i in., 2008; Paredes-Hernandez i in., 2010a; 2010b; Wise, 2010). W szeregu publikacji pojawia się stwierdzenie, że RMSE nie zawsze stanowi najodpowiedniejszy parametr oceny dokładności, gdyż charakter błędów w modelu wysokościowym nie zawsze spełnia warunki przypadkowości i rozkładu normalnego (np. Li, 1988; Monckton, 1994; Fisher, 1998; Wechsler, 2001). Proponują oni wykorzystanie błędu średniego (ME – ang. Mean Error) oraz odchylenia standardowego błędu (SD – ang. Standard Deviation) jako alternatywnej metody opisu błędów modelu: (2). (3). ME =. SD =. ∑ (z. NMT. − z REF ). n. ∑ [ME − (z. − z REF )]. 2. NMT. n −1. W przypadku założenia, że ME jest równy 0, formuła SD jest tożsama z RMSE. Błąd średni może być dodatni lub ujemny i informuje o przesunięciu NMT (ang. bias). W literaturze, zwłaszcza polskiej, często nazywany jest też średnią odchyłką, która odzwierciedla błąd systematyczny. W dalszej części pracy używane jest określenie błąd średni (ME). Charakteryzowanie błędu wysokości przy użyciu pojedynczej wartości ma uzasadnienie ekonomiczne – stosunkowo łatwo można ją obliczyć i zamieścić w dokumentacji produktu, prostym zadaniem jest również porównywanie kilku modeli ze sobą. Wszystkie te parametry mają charakter globalny i nie opisują przestrzennego rozkładu błędu (Papasaika i Baltsavias, 2010). Zarówno RMSE jak i ME są oparte na kilku domniemanych, wątpliwych założeniach dotyczących błędu: nie posiada on rozkładu przestrzennego i jest statystycznie stacjonarny na całym obszarze (Castrignano i in., 2006). Globalna jego wartość dla 11.

(12) 2. Jakość Numerycznego Modelu Terenu całego modelu jest tylko w niewielkim stopniu odpowiedzią na pytania: który model jest dokładniejszy?, do jakich celów może zostać użyty?, jak powstał, czyli innymi słowy jaki był cykl jego życia? Częściowo odpowiedzi na te pytania mogłyby dostarczyć obszerne metadane utworzone w oparciu o normę ISO 19115. Jednakże w tym celu konieczne jest opracowanie metodyki, która pozwoliłaby na scharakteryzowanie jakości NMT. Rozwój technologiczny sprzyja coraz to nowym zastosowaniom NMT, który stanowi jedną z podstawowych warstw w systemach GIS. Wykorzystywany może być m.in. w hydrografii, łączności, budownictwie, górnictwie, wojsku, ekologii, rolnictwie, projektowaniu czy służbach kryzysowych (Kurczyński, 2010; Oksanen, 2006). Tak szeroki wachlarz zastosowań powoduje powstawanie wielu zbiorów danych będących podstawą modelowania i analiz, w oparciu o które podejmowane są różnorakie decyzje. Van Oort (2006) w swojej pracy doktorskiej wymienia następujące zjawiska dotyczące przestrzennej jakości danych (SDQ – ang. Spatial Data Quality): • następuje wzrost dostępności i wykorzystania danych przestrzennych, • rośnie liczba użytkowników świadomych w niewielkim stopniu poziomu zagrożeń wynikających z przestrzennego zróżnicowania jakości danych, • systemy GIS umożliwiają wykorzystanie danych w różnego rodzaju zastosowaniach, niezależnie od ich przydatności określonej przez parametr jakości, • twórcy oprogramowania GIS rzadko dostarczają narzędzi do zarządzania analizą dokładności, • wzrasta dystans między końcowym użytkownikiem a producentami, którzy są najlepiej poinformowani o jakości jednakże często przekazują w niewielkim stopniu informacje na temat tworzonych danych. Wielu badaczy podkreśla konieczność podjęcia zagadnień związanych z SDQ, gdyż gwałtownie zwiększa się ryzyko niewłaściwego wykorzystania danych przestrzennych na skutek wzrostu ich liczby (za Heuvelink i Lemmens, 2000; Lowell i Jaton, 2000; Mowrer i Congalton, 2000; Hunter i Lowell, 2002 cytowanymi przez Van Oort i in., 2006). Agumya i Hunter (1999) wyodrębnili trzy grupy użytkowników ze względu na to jak reagują na SDQ w danych przestrzennych. Pierwsza grupa określa przydatność danych przed ich wykorzystaniem, druga wybiera najlepszy spośród dostępnych zbiorów danych, natomiast trzecia wykorzystuje dane niezależnie od ich dokładności. Pośród badaczy panuje ogólne przekonanie, że użytkownicy niestety należą w większości do trzeciej grupy. Zazwyczaj nie wykorzystują informacji na temat błędu NMT, a przyczyny takiego stanu rzeczy mogą być różne. Przede wszystkim uważają oni, że NMT powinien być bezbłędny, więc ignorują informację o SDQ i związanym z nią ryzykiem. Często nie mają przy tym pełnej świadomości o różnym poziomie jakości poszczególnych NMT lub bagatelizują fakt ich niedokładności przyjmując jedynie do wiadomości informację o nominalnej wartości błędu średniego kwadratowego. Do tego dochodzi brak potrzebnej wiedzy oraz metodologii aby przeprowadzić analizę ryzyka (RA – ang. Risk Analysis) wsparty niedoborem praktycznych przykładów ilustrujących potrzebę oraz korzyści płynące z RA. Uboga i niewystarczająca dokumentacja na temat SDQ jaką najczęściej dysponują użytkownicy również nie wpływa pozytywnie na wykorzystanie informacji na temat błędu NMT (za Openshaw, 1989; Forier i Canters, 1996; Heuvelink, 1998; Li i in., 2000; van der Wel, 2000; Crosetto i Tarantola, 2001; de Bruin i in., 2001; Jakobsson i Vauglin, 2001; Duckham, 2002; de Bruin i Hunter, 2003; van Oort i in., 2005 cytowanymi przez van Oort i in., 2006; Wechsler, 2003;). Stanu rzeczy nie zmieniają również wspomniani twórcy oprogramowania GIS, którzy rzadko implementują narzędzia do przeprowadzania analiz dokładności (Hejmanowska, 2005; van Oort i in., 2006). Podobne wnioski wysnute zostały w rozprawie doktorskiej (Oksanen, 2006). Jej autor idzie nawet o krok dalej przedstawiając idealistyczną koncepcję tzw. „error button”. Do chwili obecnej, pomimo wielu lat badań dotyczących jakości NMT, nie doczekała się ona realizacji w postaci prostej metody klawisza funkcyjnego uwzględniającej błąd NMT w analizach GIS. Możliwe, że jest to koncepcja utopijna, a algorytm postępowania bardziej złożony. W dyskusji na temat jakości NMT pojawia się pewien problem z definiowaniem różnych pojęć, szczególnie, że powszechnym jest korzystanie w większości przypadków z literatury anglojęzycznej. Najogólniej jakość NMT można określić za pomocą jego dokładności (ang. accuracy). Jest to wielkość różnicy pomiędzy wartością pomierzoną a taką, która została uznana za prawidłową. W literaturze można spotkać również określenie często mylone z dokładnością, a mianowicie precyzję (ang. precision). Można ją zdefiniować jako stopień dokładności podczas podawania wyniku pomiaru 12.

(13) 2. Jakość Numerycznego Modelu Terenu w obliczeniach arytmetycznych, czyli mówiąc kolokwialnie „ilość miejsc po przecinku”. Ma ona szczególne znaczenie przy dokładnym obliczaniu map pochodnych NMT wykorzystujących pierwszą (nachylenie, ekspozycja) oraz drugą (krzywizna) pochodną (Hutchinson i Gallant, 2000). Brak wiedzy o wiarygodności pomiaru w reprezentacji rzeczywistej wartości ma związek z pojęciem niepewności (ang. uncertainty). Jest ona miarą tego czego nie wiemy, reprezentacją zaufania do naszej wiedzy bardziej aniżeli ujęcie ilościowe nieznanego błędu (Heuvelink i in., 2007). Często nie jesteśmy świadomi rzeczywistej wartości wysokości i z tego względu musimy przyjąć pewien możliwy zakres błędu jaki jest związany z pomiarem. Błąd (ang. error) możemy zdefiniować jako rozrzut między pomierzoną a prawidłową, rzeczywistą wartością. Niemożność ustalenia tej wartości, ze względu na obarczenie błędem każdego pomiaru powoduje, że pojęcie ustalenia dokładnej wartości błędu jest na swój sposób abstrakcyjne. Dokładna natura i lokalizacja błędu w przestrzennych bazach danych, zwłaszcza danych wysokościowych, nie może zatem zostać dokładnie określona. Nieznajomość tego błędu powoduje niepewność (Wechsler, 2001). Oksanen (2006) w swojej rozprawie doktorskiej definiuje błąd jako dobrze określoną i mierzalną część niepewności co zostało zilustrowane na Rys.1. Fisher i Tate (2006) w odniesieniu do (Hunter i Goodchild, 1993; Gahegan i Ehlers, 2000) przyjmują konwencję uznającą błąd jako wypadkową aspektów formalnych związanych z pomiarem/estymacją, natomiast inne, mniej namacalne, bardziej rozmyte zagadnienia uznają za niepewność. Problemy formalne związane z pomiarem odnoszą się do przyjętej technologii pozyskiwania danych, czyli mówimy o błędzie (dokładności) pomiaru.. Rys.1.. Systematyka niepewności NMT (za Fisher 1999, 2003; zmodyfikowano). Sposób postrzegania przez nas powierzchni ziemi pozwala nam powiedzieć, że możliwym jest jej pomiar przy pomocy zbioru punktów w przestrzeni w określonym układzie odniesienia przyjąwszy pewien stopień generalizacji. Jeżeli bylibyśmy w stanie pomierzyć ponownie każdy z tych punktów to jakakolwiek uzyskana miedzy wynikami pomiarów różnica byłaby spowodowana błędem jednego lub, co jest bardziej prawdopodobne, obu z nich. Jeżeli dane byłyby pozyskane różnymi metodami np. za pomocą niwelacji trygonometrycznej oraz niwelacji precyzyjnej to uzasadnione jest przekonanie, że drugi zestaw danych jest bardziej dokładny, co wynika z nominalnej dokładności tych metod. Błąd jest adekwatną wielkością, jeżeli charakteryzujemy jakość NMT w oparciu o pomiar kontrolny. Wykonuje się go w wybranych punktach, a zatem błąd uzyskany na jego podstawie jest tylko pewnym oszacowaniem jakości modelu. Pojawiają się pytania: na ile istotny jest wybór punktów kontrolnych i jaki ma on wpływ na otrzymaną wartość błędu?, na ile wiarygodne jest to oszacowanie? Problemy formalne związane z estymacją błędu mają związek z interpolacją wysokości w punktach, które nie były objęte pomiarem. Algorytmy interpolacyjne umożliwiają określenie wysokości terenu w dowolnym punkcie. Na różnice pomiędzy wielkością mierzoną, a estymowaną wpływa poprawność przyjętego sposobu interpolacji. Natomiast w przypadku porównywania dwóch NMT trudno mówić o błędzie pomiarowym. Jeden z modeli może być dokładniejszy, drugi mniej dokładny, ale w obu przypadkach stanowią one przybliżenie powierzchni ziemi powstałe z przekształcenia informacji uzyskanej w trakcie pomiaru. Nie są to zatem wprost dane pomiarowe. Można zatem raczej mówić 13.

(14) 2. Jakość Numerycznego Modelu Terenu o dopasowaniu modelu mniej dokładnego do bardziej dokładnego lub o błędzie modelu. Inną kwestią związaną z jakością NMT jest niepewność, na którą w dużej mierze ma wpływ reprezentacja modelu. Jeżeli zastosujemy jednakową metodę pomiaru oraz estymacji to wszelkie różnice między modelami wynikające z faktu pozyskanych danych z różną gęstością powinny być traktowane raczej jako aspekt niepewności reprezentacji modelu. W dziedzinach związanych z metrologią można natknąć się na trochę inne podejście związane z oceną dokładności, mianowicie określa się tzw. powtarzalność i odtwarzalność. Ogólnie rzecz biorąc mamy do czynienia z powtarzalnością (ang. repeatability) mierząc daną wielkość przy użyciu tej samej metody, instrumentu, w tych samych warunkach, przez tego samego operatora, natomiast odtwarzalność (ang. reproducibility) z wykorzystaniem różnych technik pomiaru, w zmiennych warunkach przez różne osoby. Norma ISO 21748:2010 – Wskazówki wykorzystania estymatorów powtarzalności, odtwarzalności i poprawności w ocenie niepewności pomiaru zakłada, że wpływ wszelkich rozpoznanych i istotnych błędów systematycznych może zostać usunięty albo poprzez wprowadzenie korekty do samego procesu pomiaru, albo poprzez zbadanie i usunięcie przyczyny powodującej ten efekt. NMT jest obiektem dynamicznym podlegającym nieustannym zmianom w zakresie reliefu powierzchni, które mają charakter powolniejszych fluktuacji oraz mikroreliefu powierzchni, gdzie zmiany są szybkie. Wprowadza się pojęcia chropowatości i szorstkości powierzchni, które różnie mogą być rozumiane przez specjalistów z różnych dziedzin. Wysocki (Wysocki, 1979) definiuje chropowatość, jako zaczątki morfologii terenu, które należy rozumieć jako małe formy terenu o niejednostajnym spadku mogące stać się zauważalnym źródłem błędów w NMT. Drugim terminem definiowanym przez Wysockiego jest szorstkość, którą opisuje jako mikrorelief, czyli drobne zmiany w powierzchni terenu wywołane działalnością rolniczą, warunkami atmosferycznymi itp. Deniwelacje spowodowane w/w czynnikami są rzędu +/-0.05 m, a zatem są to zaniedbywalne wielkości w porównaniu do gęstości punktów pomiarowych oraz oczka siatki NMT przedstawiającego teren. W niniejszej pracy nie zajmowano się modelami inżynierskimi o oczku siatki poniżej 1 m. Wpływ szorstkości może być dyskusyjny w przypadku pomiaru bezpośredniego czy metodą skaningu laserowego (LIDAR – ang. LIght Detection And Ranging), gdyż dokładności wysokościowe osiągane przez te metody mogą być porównywalne z szorstkością powierzchni terenu. Szorstkość można traktować jako „szum” (składnik ε” ze wzoru (4)) co jest odpowiednikiem efektu samorodków w metodzie geostatystycznej, którą opisano szerzej w podrozdziale 3.1.2. Chropowatość natomiast jest źródłem błędów współzależnych możliwych do opisania z wykorzystaniem wariancji i kowariancji (wielkość m(s) + ε’(s) ze wzoru (4)) (Hejmanowska i in., 2008; Oksanen, 2006). Oznaczono ją na Rys.2 jako odchyłki d(s) między NMT a rzutem ortogonalnym punktów siatki na teren. Według Juhy Oksanena istnieje następująca zależność między wysokością punktu na powierzchni terenu (hTeren – linia ciągła na Rys.2) oraz punktu wchodzącego w skład siatki NMT (hNMT – dłuższe linie przerywane na Rys.2): (4). zTeren (s ) = z NMT + m(s ) + ε ' (s ) + ε ". gdzie: zTeren(s) – rzeczywista wysokość w punkcie s zNMT(s) – wysokość NMT w punkcie s m(s) – błąd systematyczny (przesunięcie) ε’(s) – błąd przypadkowy skorelowany przestrzennie ε” – błąd przypadkowy nieskorelowany przestrzennie (szum). Niezależnie od tego z jakiego typu błędami mamy do czynienia, interesuje nas jakiś wypadkowy parametr charakteryzujący jakość NMT. Poszukując tego parametru należy zwrócić uwagę na procedurę tworzenia modelu. Dane źródłowe jakie posłużyły do jego wygenerowania mogły zostać pozyskane przy użyciu różnych technologii: pomiar bezpośredni (w tym również RTK GPS ang. Real Time Kinematic – Global Positioning System), naziemny lub lotniczy LIDAR, interferometria radarowa (InSAR – ang. Interferometric Synthetic Aperture Radar), metoda kartograficzna lub fotogrametryczna. Warunkują one oczywiście ostateczną dokładność (błąd) modelu, który według licznych pozycji literaturowych może wynosić od kilku milimetrów do 14.

(15) 2. Jakość Numerycznego Modelu Terenu kilkudziesięciu metrów. Nie jest to jednak zależność wprost, ponieważ w oparciu o dokładny pomiar można wygenerować model daleko odbiegający od rzeczywistości. Istotne są kryteria przyjęte podczas pozyskania danych źródłowych: definicja obiektów mierzonych, gęstość punktów oraz wybór rodzaju i parametrów modelu (TIN, GRID). W modelu TIN wszystkie punkty źródłowe wchodzą w skład NMT, natomiast uzyskanie modelu GRID wymaga interpolacji, ponieważ z reguły prawie żadne z punktów pomiarowych nie znajdują się w strukturze modelu. Wyjątkiem jest sytuacja, gdy dane pomiarowe zostały pozyskane specjalnie do tego rodzaju modelu np. metodą pomiaru bezpośredniego w postaci niwelacji siatkowej lub fotogrametrycznie za pomocą matchingu (Fisher, 1998).. Rys.2.. Składowe błędu NMT (za Oksanen, 2006; zmodyfikowano). Oprócz wyboru rodzaju i parametrów siatki istotny jest również sposób odwzorowania rzeczywistości, gdyż jak wiadomo model jest pewnym jej przybliżeniem. Dla każdej metody pomiarowej znane są różne algorytmy tworzenia modeli jak również sposoby ich wizualizacji, ale łączy je to, że w większości przypadków odnoszą się one do tak zwanych NMT 2.5D, w których wysokość jest jednowartościową funkcją dwóch zmiennych (wzór (5)) stanowiących współrzędne punktu. Wysokość h można zatem opisać następująco: (5). h ( x, y ) : R 2 a R. Oznacza to, że każdemu punktowi na poziomej płaszczyźnie odniesienia odpowiada tylko jedna wysokość. Przy takim założeniu nawisy skalne na urwiskach czy mosty nie są zamodelowane prawidłowo, gdyż w przypadku takich obiektów każdemu punktowi na poziomej płaszczyźnie odpowiadają zwykle (conajmniej) trzy wartości wysokości. Problem pojawia się również podczas modelowania powierzchni prawie pionowych, gdzie duże różnice wysokości idą w parze z niewielką zmianą współrzędnych płaskich np. klify, urwiska. W tym przypadku reprezentacja rzeźby terenu w postaci modelu 2.5D jest możliwa, jednakże jakość jej opisu jest słaba ze względu na małą gęstość punktów w odniesieniu do powierzchni jaką zajmuje nachylony teren. NMT 3D jest pozbawiony tych ograniczeń, jednak jest znacznie trudniejszy w obróbce, dlatego też do tej pory niewiele jest publikacji na ten temat. NMT może być dobrze lub słabo zdefiniowany (Rys.1). W pierwszym przypadku niepewność można scharakteryzować za pomocą błędu, co zostało już omówione wcześniej. Co jednak jeżeli mamy do czynienia z drugim przypadkiem? Mówimy wtedy raczej o nieokreśloności (ang. vagueness) lub niejednoznaczności (ang. ambiguity) (za Fisher, 1999, 2003 cytowanym przez Oksanen, 2006). 15.

(16) 2. Jakość Numerycznego Modelu Terenu Pojęcia te nabierają istotnego znaczenia w momencie porównywania ze sobą różnych NMT, a nie modelu z pomiarem kontrolnym. Przypadek nieokreśloności występuje, gdy mamy braki w metadanych, czyli gdy kryteria przyjęte podczas pomiaru nie są nam znane lub nie mamy informacji czy zostały one spełnione np. posiadamy model, ale nie mamy informacji o jego pochodzeniu, dokładności, dotychczasowych zastosowaniach. Przypadek niejednoznaczności natomiast wystąpi, gdy podczas pomiaru przyjęte zostały różne kryteria, różnie zdefiniowano katalog mierzonych obiektów, proces interpolacji był wykonany różnymi metodami z wykorzystaniem innych parametrów. Przykładowo, pomiar może być wykonany na stereogramie fotogrametrycznym lub przy użyciu technologii LIDAR. Może też być oparty na automatycznym pomiarze punktów w siatce, uzupełnionym punktami rozproszonymi oraz liniami nieciągłości terenu lub obejmować tylko dane punktowe. Na podstawie danych źródłowych może zostać wykonana triangulacja, czyli model TIN i na jego podstawie wygenerowany model siatkowy. Można również bezpośrednio otrzymać GRID na drodze interpolacji z danych pomiarowych np. z wykorzystaniem metody wagowanej odwrotnej odległości (IDW – ang. Inverse Distance Weighting). Wartości przyjętych wag w tej metodzie również mają bardzo duży wpływ na dokładność interpolacji, a więc na końcowy efekt w postaci NMT (Li i in., 2008). Kryteria przyjęte w tych przypadkach są niejednoznaczne, tzn. w każdym przypadku inne. Podkreślić należy, że możemy mówić o niejednoznaczności tylko w przypadku modeli słabo zdefiniowanych. Załóżmy, że mamy kilka takich modeli obejmujących ten sam obszar. Gdybyśmy wykonali kontrolę szczegółową z wykorzystaniem pomiaru bezpośredniego, fotogrametrycznego lub LIDAR o co najmniej rząd większej dokładności niż ta, w oparciu o którą powstały badane NMT, to wtedy bylibyśmy w stanie opracować mapy różnicowe pomiędzy wspomnianymi modelami a powierzchnią referencyjną. Te z kolei pozwoliłyby na wygenerowanie map przestrzennego rozkładu błędu. Byłoby to równoznaczne z tym, że pomimo wcześniejszego założenia niejednoznaczności lub nieokreśloności analizowanych modeli w wyniku szczegółowej kontroli zostały one na swój sposób dodefiniowane i ich jakość można by określić za pomocą mapy błędu. Jest to jednak przypadek raczej teoretyczny, gdyż w praktyce na ogół nie posiadamy dokładniejszego modelu z uwagi na nieopłacalność takiego rozwiązania. Można zauważyć potrzebę opracowania takiej metodyki, która pozwalałaby na generowanie przestrzennych map rozkładu błędu bez konieczności wykonywania dodatkowych, kosztownych pomiarów. Wspomnianą w poprzednim akapicie powierzchnię referencyjną można uzyskać na trzy sposoby. Pierwszy z nich polega na wykorzystaniu pomiarów o wyższej dokładności pochodzących z digitalizacji punktów charakterystycznych rzeźby terenu (np. Monckton, 1994; Fisher, 1998), pomiarów bezpośrednich (np. Gao, 1997; Kyriakidis i in., 1999; Carlisle, 2002, 2005) lub technologii LIDAR (np. Zhou i Liu, 2002, 2004; Darnell i in., 2008). Druga metoda polega na użyciu powierzchni opisanej funkcją (funkcjami) matematycznymi (np. Zhou i Liu, 2002, 2004). Trzecia natomiast opiera się na wykorzystaniu walidacji krzyżowej, w której część danych jest usunięta z NMT i wykorzystana jako dane kontrolne dla wartości wyinterpolowanych z pozostałych punktów modelu (Wise, 2011). Każda z nich ma swoje wady i zalety. W pierwszej osiągane dokładności zależą głównie od metody pomiaru i rozmieszczenia (zagęszczenia) punktów, co można dowolnie zaplanować w zależności od potrzeb. Niestety metoda ta jest zależna od skali (McClean i Evans, 2000), a uzyskana powierzchnia powstaje z danych dyskretnych, co powoduje że odbiega ona w jakimś stopniu od powierzchni rzeczywistej. Druga metoda ma tę zaletę, że w oczywisty sposób wartości uzyskane na podstawie ciągłej, znanej w każdym punkcie powierzchni są prawidłowe. Problem polega jednak na świadomości jak dobrze ta powierzchnia reprezentuje rzeczywisty teren. Generalnie matematycznie opisane powierzchnie mają tendencje być łagodniejsze, pozbawione gwałtownych zmian nachylenia terenu oraz obszarów o dużej chropowatości, które charakteryzują naturalny krajobraz. W tych miejscach często dodatkowo pojawiają się problemy interpolacyjne (Wise, 2000). Niewątpliwą zaletą trzeciej metody jest fakt, iż nie wymaga ona żadnych dodatkowych nakładów związanych z pozyskaniem danych referencyjnych. To co jest jej zaletą staje się równocześnie wadą, mianowicie może ona służyć jedynie do określenia błędu wprowadzonego przez proces interpolacji, gdyż brak porównania z wysokością rzeczywistą terenu powoduje, że nie mówi ona nic na temat dokładności bezwzględnej (podrozdział 2.2.1) wartości wysokości. Biorąc pod uwagę powyższe rozważania w dalszej części pracy wykorzystano pierwszą metodę jako najpowszechniej stosowaną przez zespoły badawcze. W ramach podsumowania należy podkreślić, że mówiąc o jakości NMT należy mieć na uwadze informacje zawarte w metadanych: zastosowaną metodę i kryteria pomiarowe, procedurę 16.

(17) 2. Jakość Numerycznego Modelu Terenu generowania NMT oraz sposób wykonania weryfikacji. Zgodnie z Rys.1 mając dobrze zdefiniowany model możemy jakość opisać za pomocą błędu o charkterze globalnym lub przestrzennie zróżnicowanego. W przypadku, gdy model jest nieprecyzyjnie (słabo) zdefiniowany to jego błąd, nawet jeśli jest w metadanych, jest obciążony niepewnością, a oszacowanie dokładności NMT w ten sposób jest niewiarygodne. W żadnym stopniu nie dyskryminuje to tych modeli, należy tylko mieć tego świadomość oraz ograniczyć zaufanie do nich. Można je wykorzystywać do jednych celów, do innych nie zaś nie stwierdzając albo niewystarczające sprecyzowanie dokładności, albo niezgodność z oczekiwaniami. Ma to związek z pojęciem wiarygodności (rzetelności – ang. reliability) NMT oraz pojęciem „fitness-to-use” – przydatności dla danego zastosowania (Chrisman, 1984). W jego świetle istotnym jest określenie czy szansa otrzymania nieprawidłowego wyniku związanego z występowaniem błędów w modelu jest znacząca dla danego zastosowania. Jeżeli tak jest to oznacza, że dany model może nie być odpowiedni dla tego konkretnego zadania.. 2.2. Zasady opisu jakości NMT zgodnie z Normą ISO 19113 Opublikowane przez Międzynarodową Organizację Normalizacyjna normy ISO 19113:2002 Informacja Geograficzna – Podstawy Opisu Jakości oraz komplementarna dla niej ISO 19114:2003 Informacja Geograficzna – Procedury Oceny Jakości, która stanowi jej uzupełnienie w postaci przykładów mogą zostać wykorzystane do następujących celów: • identyfikacji i przedstawiania informacji o jakości, • oceny jakości zbioru danych, • formułowania specyfikacji produktów i wymagań użytkownika, • określania schematów aplikacyjnych. Można zauważyć, że zasady przedstawione w normach mają zastosowanie zarówno do istniejących zbiorów danych w celu ich weryfikacji i przekazania informacji o jakości użytkownikowi, jak również na etapie projektowania pozyskania danych tworząc SIWZ. Procedury opisu jakości mogą być zastosowane do danych posiadających wspólną charakterystykę, aby można było tę jakość określić. Opisuje się ją używając dwóch komponentów: • elementów jakości danych – razem z elementami podrzędnymi jakości danych oraz deskryptorami elementu podrzędnego jakości danych opisują w jakim stopniu zbiór danych spełnia wymogi postawione w specyfikacji technicznej i zapewnia ilościową informację o jakości, • przeglądowe elementy jakości danych – dostarczają ogólnej, nieilościowej informacji o jakości. Wszelkie pojęcia służące raportowaniu informacji o jakości są w wymienionych powyżej normach podane, ale ich znaczenie jedynie zasygnalizowane. Konieczna zatem była szczegółowa analiza zastosowania i przydatności poszczególnych elementów w odniesieniu do NMT. Dlatego też w kolejnych podrozdziałach opisano wszystkie elementy jakości danych wraz z odpowiadającymi im elementami podrzędnymi oraz deskryptorami elementów podrzędnych łącznie z analizą pod kątem ich zastosowania w przypadku opisu jakości NMT. 2.2.1. Elementy jakości danych wraz z ich elementami podrzędnymi Elementy jakości danych zostały już wymienione na początku niniejszego rozdziału. Każdemu z nich przypisane są unikalne elementy podrzędne jakości danych, które powinny być użyte (gdy mają zastosowanie) do opisania ilościowej jakości zbioru danych jakim jest NMT: • Kompletność – określa obecność lub nieobecność obiektów, ich atrybutów i związków. Jest definiowana przez następujące elementy podrzędne jakości danych: o Nadmiar – nadmiarowe dane obecne w zbiorze danych. o Niedomiar – dane nieobecne w zbiorze. Obydwa powyższe elementy podrzędne jakości danych mają zastosowanie w odniesieniu do NMT, gdyż może on obejmować obszar odpowiednio większy lub mniejszy niż wymagany. Możemy mówić o nadmiarze lub niedomiarze danych również na etapie ich pozyskania. Pierwszy przypadek ma miejsce, gdy pomiarem objęto zbyt dużą liczbę punktów i linii strukturalnych w przypadku terenu mało zróżnicowanego, natomiast drugi. 17.

(18) 2. Jakość Numerycznego Modelu Terenu. •. •. przypadek wystąpi w sytuacji odwrotnej – dokonano zbyt daleko idącej generalizacji terenu lub źle zidentyfikowano i pomierzono jego punkty charakterystyczne. Spójność logiczna – określa stopień zgodności z logicznymi regułami struktury danych. Opisana jest przez następujące elementy podrzędne jakości danych: o Spójność pojęciowa – zgodność z regułami schematu pojęciowego. W pierwszej kolejności należałoby zdefiniować ten schemat w odniesieniu do NMT: czy stanowią go tylko surowe dane źródłowe, na podstawie których użytkownik może wygenerować model, czy może jest to NMT sam w sobie, bez informacji o danych, z których powstał, czy wreszcie jedno i drugie jednocześnie. Nie bez znaczenia jest fakt, że algorytm tworzenia modelu powinien być jego komponentem, gdyż wykorzystanie różnych algorytmów w odniesieniu do tych samych danych źródłowych zaowocuje powstaniem modeli różniących się od siebie w mniejszym lub większym stopniu. Kolejną istotną kwestią jest z jakim modelem mamy do czynienia. Czy są to NMT, Numeryczne Modele Rzeźby Terenu (NMRT), Numeryczne Modele Pokrycia Terenu (NMPT), modele 3D czy modele drapowane, w których oprócz wysokości wykorzystywane są inne dane zapewniające lepszą prezentacje terenu np. ortofotomapa lub mapa użytkowania. W wymienionych przypadkach o spójności pojęciowej danego modelu ze specyfikacją decydować będzie obecność wszystkich tych elementów. Jednakże ten aspekt oceny jakości został już ujęty w omówionym poprzednim elemencie jakości danych – kompletności. o Spójność dziedziny – zgodność wartości z dziedzinami wartości. W przypadku NMT dziedziną wartości jedynego atrybutu – wysokości – jest nieograniczony zbiór liczb rzeczywistych. Wyjściem poza dziedzinę może być natomiast pojawienie się wartości alfanumerycznej na skutek ludzkiego błędu, jako że NMT często przechowywane są w formie plików tekstowych. Innym przypadkiem może być wystąpienie wartości zmiennoprzecinkowej przy założeniu, że model miał posiadać wysokości jedynie w postaci liczb całkowitych. o Spójność formatu – do jakiego stopnia dane są zapisane zgodnie z fizyczną strukturą zbioru danych. Można ją rozpatrywać na dwa sposoby: jako spójność NMT pod kątem założonego w specyfikacji wielkości oczka siatki i punktu początkowego GRID-a lub może mieć związek z formatem w jakim zapisany jest model (plik tekstowy xyz, ArcView, Idrisi itp.). Błędy wynikające z braku wewnętrznej integralności plików będące tożsame z błędami zapisu fizycznego na dysku komputerowym są pomijane, gdyż w tym przypadku modelu nie można otworzyć, a co za tym idzie przeprowadzić oceny jakości. o Spójność topologiczna – poprawność jawnie zapisanych cech topologicznych zbioru danych. Dla NMT GRID ten element podrzędny jakości danych nie ma zastosowania. Dla modeli TIN jest ona definiowana poprzez relacje między węzłami, krawędziami oraz związkiem między przyległymi trójkątami i dotyczy sprawdzenia poprawności połączeń punktów rozproszonych za pomocą boków trójkątów w wyniku triangulacji (poprawność przeprowadzenia triangulacji) oraz zamknięcia trójkątów. W odniesieniu do modeli hybrydowych jest to topologia połączeń punktów siatki GRID z liniami strukturalnymi najczęściej przechowywanymi w osobnym pliku. W miejscach przebiegu tych linii siatka GRID winna być dopasowana do ich przebiegu. Dwa typy danych, siatka i linie nieregularne w wyniku połączenia muszą stanowić spójną całość. Dokładność położenia – daje informację ilościową na temat dokładności położenia obiektów. Z punktu widzenia użytkownika i producenta NMT jest to najistotniejszy element jakości danych zatem na raportowaniu tej informacji o jakości będzie się skupiać niniejsza rozprawa doktorska. W literaturze można spotkać określenie dokładności zewnętrznej i wewnętrznej modelu – nie inaczej jest w normie ISO 19113. W przypadku odchyłek pomiędzy danymi źródłowymi, które posłużyły do wygenerowania NMT a samym modelem możemy mówić o dokładności (błędzie) wewnętrznym modelu. Analogicznie, gdy posiadamy zestaw niezależnych danych kontrolnych, które nie brały udziału w tworzeniu modelu to możemy wyznaczyć jego błąd zewnętrzny. Norma wskazuje trzy elementy podrzędne: o Dokładność bezwzględna lub zewnętrzna – określa ona bliskość przedstawionych wartości współrzędnych do wartości uznawanych za prawdziwe lub będące prawdziwymi. Do 18.

(19) 2. Jakość Numerycznego Modelu Terenu. •. •. określenia dokładności bezwzględnej należy najpierw zdefiniować jakie dane są uznawana za prawdziwe i przez to mogą posłużyć jako dane referencyjne: czy są to dane punktowe, w profilach czy może też drugi NMT o rząd wyższej dokładności. Istotną kwestią jest również określenie metody pomiaru elementów kontrolnych zapewniającej adekwatną dokładność względem badanego modelu. o Dokładność względna lub wewnętrzna – opisuje bliskość względnego położenia obiektów w zbiorze danych do ich odpowiedniego względnego położenia uznanego za prawdziwe lub będącego prawdziwym co w przypadku NMT znaczy tyle co rozbieżność pomiędzy danymi źródłowymi wykorzystanymi do budowy modelu a nim samym. o Dokładność położenia dla danych siatkowych – bliskość wartości położenia danych siatkowych do wartości uznanych za prawdziwe lub będących prawdziwymi. Ten element podrzędny jakości danych stanowi podzbiór pozostałych dwóch opisanych elementów podrzędnych odnoszący się tylko do danych siatkowych. Nie można się zatem oprzeć wrażeniu, że jest on w normie zbędny będąc ich redundancją. Mógłby mieć zastosowanie jedynie w przypadku bezpośredniego pomiaru metodą niwelacji siatkowej jako błąd wyznaczenia siatki w odniesieniu do teoretycznej lecz jest to metoda stosowana niezwykle rzadko w szczególnych przypadkach. Dokładność czasowa – może dotyczyć zarówno dokładności związanych z czasem pozyskania wartości atrybutów, jak i związków pomiędzy poszczególnymi obiektami. Ocena jakości NMT za pomocą tego elementu jakości danych ma znaczenie tylko w przypadku tworzenia co najmniej dwóch modeli obejmujących ten sam obszar w pewnym odstępie czasu, które służą następnie do określenia powstałych zmian. Takie zastosowanie ma miejsce w kopalniach odkrywkowych w celu obliczenia objętości mas urobku, w zarządzaniu kryzysowym w celu określenia rozmiaru szkód wywołanych kataklizmami (powodzie, tornada, tsunami itp.) czy w leśnictwie w celu określenia jakości drzewostanu. Poza wymienionymi przykładami dokładność czasowa NMT nie jest parametrem aż tak bardzo istotnym. Składa się ona z trzech elementów podrzędnych: o Dokładność pomiaru czasu – przedstawia błędy w pomiarze czasu, czyli poprawność odwołań czasowych. Określa rozbieżność między rzeczywistym czasem wykonania pomiaru danych źródłowych służących do wygenerowania NMT a czasem podanym w specyfikacji produktu. Okres zbierania danych w przypadku dużych obszarów jest raczej długotrwały, podczas gdy w specyfikacji może figurować data zakończenia lub w najlepszym wypadku pewien przedział czasowy. Element podrzędny jakości danych przekazuje informacje użytkownikowi na ile dokładnie ten czas został określony (dokładność co do godziny, co do dnia, miesiąca itd.). o Spójność czasowa – daje informacje o poprawności uporządkowania zdarzeń lub sekwencji. W przypadku większej liczby modeli tego samego obszaru należy zwrócić szczególną uwagę na właściwie uszeregowanie każdego z nich na osi czasu pozyskania danych źródłowych. o Ważność czasowa – dostarcza informacji o istotności danych względem czasu, czyli odpowiada na pytanie jaki odsetek danych ma datę wykonania pomiaru zgodną z rzeczywistym czasem, w którym nastąpiło ich pozyskanie. Zagadnienie jest podobne do tego, który opisuje element dokładności pomiaru czasu, jednakże w tym przypadku skupiamy się na błędach w określeniu czasu pozyskania danych, a nie na dokładności zapisu np. dane w rzeczywistości były pozyskane w kwietniu, natomiast zbiór danych niesie informację o pomiarze w czerwcu. W przypadku pomiarów LIDAR ma to kluczowe znaczenie z uwagi na zależność penetracji wiązki laserowej od stanu wegetacji roślinności. Dokładność tematyczna – traktuje o dokładności atrybutów ilościowych i poprawności atrybutów nieilościowych oraz klasyfikacji obiektów i ich związków. Zawiera następujące elementy podrzędne jakości danych: o Poprawność klasyfikacji – porównuje klasy, do których przyporządkowano poszczególne obiekty lub atrybuty z przestrzenią rozważań. Może nią być w zależności od charakteru danych rzeczywista wartość w terenie lub zbiór referencyjny. Ten element podrzędny odpowiada na pytanie ile obiektów w zbiorze danych jest prawidłowo sklasyfikowanych. 19.

(20) 2. Jakość Numerycznego Modelu Terenu. o. o. W odniesieniu do NMT nie jest wykonywana jakakolwiek klasyfikacja zatem ten element podrzędny go nie dotyczy. Poprawność atrybutów nieilościowych – informuje o stopniu prawidłowości atrybutów nieilościowych opisujących rzeczywistość, czyli dla przykładu czy wartości atrybutów nie posiadają omyłek pisarskich (tzw. „literówek”). Z uwagi na fakt, że NMT nie przechowuje atrybutów nieliczbowych, a wyłącznie jeden atrybut jakim jest wysokość, to ten element podrzędny w przypadku NMT również nie ma zastosowania. Dokładność atrybutów ilościowych – informuje o stopniu prawidłowości atrybutów liczbowych. Jak już wspomniano przed chwilą w NMT wysokość jest jedynym atrybutem ilościowym, także ten element podrzędny mógłby mieć zastosowanie, jednakże bardziej naturalnym wydaje się opis jakości modelu wysokościowego za pomocą dokładności położenia (bezwzględnej/zewnętrznej lub względnej/wewnętrznej), więc w celu uniknięcia redundancji danych tego elementu podrzędnego jakości danych w odniesieniu do NMT również nie stosuje się.. 2.2.1.1. Deskryptory elementu podrzędnego jakości danych Każdy z opisanych w rozdziale 2.2.1 elementów podrzędnych mających zastosowanie do NMT powinien nieść ze sobą zapisaną informację o jakości. Aby zapewnić kompletność zapisu tej informacji w normie ISO 19113 zdefiniowano siedem deskryptorów elementu podrzędnego jakości danych wymienionych poniżej: 1) Zakres jakości danych – zasięg lub cechy danych, dla których jest przedstawiana informacja o jakości. W ramach jednego zbioru danych jakość może być zmienna, można zatem zdefiniować wiele zakresów jakości danych, aby móc dokładniej przedstawić ilościową informację o jakości. Zakres można opisać określając: a. Poziom – można analizować całą serię NMT, wśród których znajduje się interesujący nas model, może to być tylko on sam w sobie lub może to być mniejsza grupa danych zlokalizowana w nim fizycznie i posiadająca wspólne cechy np. jednakowe kryterium zbierania danych, to samo źródło danych itp. b. Typy elementów (listy typów obiektów, atrybuty obiektów i związki pomiędzy obiektami np. dane punktowe, linie nieciągłości, linie profilowe) lub konkretne elementy (lista instancji obiektów, wartości atrybutów i instancje związków pomiędzy obiektami np. konkretny, skończony zbiór linii nieciągłości, profili itd.). c. Zasięg geograficzny – może być zdefiniowany zarówno poprzez zakres współrzędnych w określonym układzie lub poprzez godło podziału sekcyjnego w tym układzie, ale również z wykorzystaniem granic podziału administracyjnego – Państwowy Rejestr Granic (PRG). d. Zasięg czasowy – wykorzystywany w przypadku danych reprezentujących obszar charakteryzujący się dużą zmiennością w czasie (np. wspomniane już kopalnie odkrywkowe, gdzie wykorzystuje się modele różnicowe). Definiuje się go poprzez wskazanie okna czasowego precyzującego moment, w którym dane zostały pozyskane. 2) Miara jakości danych – ocena elementu podrzędnego jakości danych np. procent poprawnych wartości atrybutu w określonym zakresie. Dla każdego zakresu jakości danych powinna być podana conajmniej jedna miara jakości danych. Większa ich liczba powinna mieć zastosowanie w przypadku gdy pojedyncza miara jakości danych może być niewystarczająca do pełnej oceny jakości dla wszelkich możliwych zastosowań zbioru danych. Każda miara jakości danych powinna krótko opisywać i nazywać, jeżeli istnieje nazwa, typ zastosowanego testu oraz zawierać parametry brzegowe i graniczne. Wśród jej elementów składowych wyróżniamy: a. Opis miary jakości danych – tekst opisujący rodzaj wyniku oceny jakości np. wartość binarna, RMSE, liczba wystąpień braków, procent obiektów o błędzie wysokości większym niż założony limit itp. Powinien on krótko charakteryzować podejście zastosowane do konkretnego przypadku oceny jakości.. 20.

(21) 2. Jakość Numerycznego Modelu Terenu. 3). 4). 5). 6) 7). b. Kod identyfikacyjny miary jakości danych – ma postać unikalnego identyfikatora (ang. ID) w postaci liczby w domenie wyliczeniowej dla każdej oceny jakości elementu podrzędnego. c. Procedura oceny jakości danych – opis poniżej. d. Wynik oceny jakości danych – opis poniżej. Procedura oceny jakości danych – działania wykonywane w celu stosowania metod oceny jakości oraz przedstawiania ich wyników. Jest to deskryptor opisowy mający na celu zwięzłe przybliżenie użytkownikowi metodyki procedury opisu jakości. Składa się ona z dwóch komponentów: a. Typ procedury oceny jakości danych – może przyjmować wartości ze zbioru {1,2,3} co oznacza odpowiednio: wewnętrzna, zewnętrzna oraz pośrednia. Wartość 1 (wewnętrzna) odnosi się do procedur, w których nie są wykorzystywane żadne zewnętrzne dane, natomiast wartość 2 (zewnętrzna) oznacza wykorzystanie referencyjnego zbioru danych. Są to procedury bezpośrednie. Wartość 3 (pośrednia) odnosi się do pośrednich metod oceny jakości zbioru danych. b. Opis procedury oceny jakości danych – tekst opisujący metodykę postępowania, wykorzystaną podczas weryfikacji jakości. Może być to również odwołanie do jakiejś metodyki. Powinno w niej być precyzyjnie opisane, które elementy i w jakim zakresie mają być ze sobą porównywane. Wynik oceny jakości danych – wartość lub zbiór wartości wynikających z zastosowanej miary jakości danych. Dodatkowo możliwe jest zdefiniowanie wymaganego poziomu zgodności jakości – wartości progowej, granicznej (ang. Conformance Quality Level), której przekroczenie przesądza o niespełnieniu przez zbiór danych wymagań użytkownika lub tych postawionych w specyfikacji produktu. W tym przypadku wynik oceny jakości danych należy definiować jako rezultat oceny otrzymanej wartości lub zbioru wartości względem określonego wymaganego poziomu jakości. Ten typ norma ISO 19113 nazywa spełnionyniespełniony. Wyróżniamy trzy komponenty, które razem składają się na wynik oceny jakości danych: a. Typ wartości jakości danych – opis poniżej. b. Wartość jakości danych – zależy od typu wartości określającej jakość danych i jest faktycznym wynikiem oceny jakości. c. Jednostka wartości jakości danych – opis poniżej. Typ wartości jakości danych – deskryptor jest obligatoryjny i określa typ wartości wykorzystywanej do przedstawienia wyniku oceny jakości danych. Domeną jest zamknięty zbiór obejmujący wartości: zmienna boolowska, liczba, proporcja, procent, próbka, tabela, obraz binarny, macierz, cytat, wolny tekst, inne. Jednostka wartości jakości danych – jeżeli wynik oceny jakości jest wyrażony w pewnych jednostkach to należy ją określić w tym deskryptorze. W przypadku NMT najczęściej będzie to metr. Data oceny jakości danych – data lub zakres dat, do których odnosi się pomiar jakości danych.. 2.2.2. Przeglądowe elementy jakości danych W poprzednim podrozdziale opisane zostały elementy jakości danych przedstawiające ilościową informację o jakości zbioru danych w różnych aspektach. Aby opisać jakość nieilościową norma ISO 19113 definiuje trzy przeglądowe elementy jakości danych: • Przeznaczenie – powinno opisywać uzasadnienie utworzenia zbioru danych oraz zawierać informacje o zamierzonym przez twórców jego wykorzystaniu. Zbiór danych niekoniecznie musi zostać wykorzystany do celów, dla których został stworzony. O rzeczywistym użyciu zbioru traktuje kolejny element przeglądowy jakości danych. • Wykorzystanie – powinno opisywać aplikacje, do których zbiór danych był faktycznie wykorzystany zarówno przez producenta, jak i kolejnych użytkowników danych. • Pochodzenie – opisuje historię zbioru danych oraz w miarę możliwości szczegółowo jego cykl życia począwszy od zgromadzenia i pozyskania danych, poprzez ich kompilacje i wydzielenia, aż do postaci końcowej. Pochodzenie może zawierać dwa unikalne składniki: 21.

Cytaty

Powiązane dokumenty

Rzeczywista analogia pomię­ dzy dziełem a ry tu ałem okaże się moim zdaniem mniej kom pletna i oczy­ wista, ale jednocześnie o wiele bardziej trw ała i

Actually, our model with adversarial learning generates more words (in total about 2000 words for all test data) than the model without adversarial learning. When added the

W tym dyscyplinarnym kontekście dyskursu nie jest to rozumiane jako system abstrakcyjny, ale raczej jako „to, co ma miejsce, kiedy ludzie zbliżają się do zdobycia wiedzy na

Z podręcznika „Biologia na czasie 3” zapoznajcie się z metodami datowania, które są stosowane w paleontologii i krót- ko je scharakteryzujcie.. 1–6) i opisy

1. Zapis taki powinien się składać z następujących elementów ujętych w nawiasie kwadratowym: nazwisko autora cytowanej pracy, rok wydania publikacji i strona / strony, np.

W poniższej tabeli przedstawiono rozkład procentowy ich odpowiedzi (gwiazdką oznaczono od- powiedź poprawną). Naj- częściej wybieranym dystraktorem była odpowiedź A –

Uczestnicy przedsięwzięcia – dzieci, młodzież i ich ro- dzice i opiekunowie – będą mogli wziąć udział w krót- kich wykładach, warsztatach praktycznych, zajęciach

Problem jedności wewnątrzteoretycznej pojawia się ze szczególną ostrością w odniesieniu do nauk empirycznych, których teorie zawierają dwa typy zdań: zdania syntetyczne i