• Nie Znaleziono Wyników

Metody Przetwarzania Danych Meteorologicznych Wykład 2

N/A
N/A
Protected

Academic year: 2021

Share "Metody Przetwarzania Danych Meteorologicznych Wykład 2"

Copied!
39
0
0

Pełen tekst

(1)

Metody Przetwarzania Danych Meteorologicznych

Wykład 2

Krzysztof Markowicz Instytut Geofizyki UW

kmark@igf.fuw.edu.pl

(2)

Dane meteorologiczne oraz pojecie skali

• Dane mogą mieć charakter ilościowy (np. czasowy przebiegi temperatury ciśnienia) jak i jakościowy

(opisywany dyskretnymi liczbami: mgła, deszcz, slaby, umiarkowany, silny, brak, itd.).

• Z danymi nierozerwalnie związane jest pojęcie skali

• Skala jako zdolność rozdzielcza to najmniejsza odległość

pomiędzy punktami przestrzennymi lub czasowymi, które uważamy za różne

• Związana jest ona z własnościami fizycznymi przyrządu jak i sposobem przetwarzania danych.

• Definiowana jest ona w zależności od sytuacji z jaką mamy

do czynienia. Możemy ją określić na kilka sposobów.

(3)

3

Skala wewnętrzna

L

) f max(

x

max f 

 

 

L – wewnętrzna skala przestrzenna pola, f(x) pole fizyczne, Δf – amplituda zmienności pola

Skala L może mieć własność izotropową jak i anizotropową.

W tym przypadku maksymalna pochodna określa skalę sieci.

Tak zdefiniowane pojęcie skali jest stosunkowo rzadko

stosowane

(4)

W tym przypadku skala określona jest przez odległość pomiędzy ekstremami sygnału.

Skala w tym przypadku zdefiniowana jest z dokładnością do rzędu wielkości.

Skale wykorzystuje się często do oceniany względnych relacji różnych członów równań.

Tak zdefiniowana skala nie ma więc ścisłej, jednoznacznej wartości liczbowej, lecz dzięki temu ma bardzo szeroki

L f x

f  

W innym podejściu możemy zdefiniować skalę zewnętrzną

(5)

5

• Skale można zdefiniować jako długości fali ( lub okres w przypadku skali czasowej) fourierowskiej składowej pola.

• Poza klasycznym rozwinięciem fourierowskim można rozpatrywać rozwinięcia w innej bazie ortogonalnej.

• Wszystkie bazy ortogonalne mają bowiem charakter oscylacyjny o gęstości oscylacji rosnącej indeksem.

• Skala jest wtedy przypisana do indeksu funkcji wybranej bazie- im wyższy indeks tym mniejsza skala.

1 i

i ie (x) c

) x (

f  

b

a

k i

ik e (x)e (x)dx

Tak zdefiniowana skala może mieć określoną wartość

liczbową, lecz w praktyce może być trudna do efektywnego

wyznaczania.

(6)

Aproksymacja

• Aproksymacja – zastępowanie jednych wielkości innymi, bliskimi w ściśle sprecyzowanym sensie. W skrócie:

przybliżenie jednej wartości za pomocą innych.

• Aproksymowaniem funkcji nazywamy przybliżanie jej za pomocą kombinacji liniowej tzw. funkcji bazowych.

• Funkcja aproksymująca – przybliżenie zadanej funkcji nie musi przechodzić przez jakieś zadane punkty, tak jak to jest w interpolacji.

• Mówi się, że funkcja przybliżająca wygładza daną funkcję (gdy funkcja jest gładka jest różniczkowalna). Przybliżenie takie powoduje pojawienie się błędów, zwanych błędami aproksymacji. Dużą zaletą aproksymacji w stosunku do interpolacji jest to, że aby dobrze przybliżać, funkcja

aproksymująca nie musi być wielomianem bardzo dużego

(7)

7

• Przybliżenie w tym wypadku rozumiane jest jako

minimalizacja pewnej funkcji błędu. Prawdopodobnie najpopularniejszą miarą tego błędu jest średni błąd

kwadratowy, ale możliwe są również inne funkcje błędu, jak choćby średni błąd.

• Istnieje wiele sposobów aproksymacji jednymi z najbardziej popularnych są: aproksymacja

średniokwadratowa i aproksymacja jednostajna oraz

aproksymacja liniowa, gdzie funkcją bazową jest funkcja liniowa.

• Całkiem dobrze znaną i stosowaną dosyć szeroko metodą jest także szybka transformata Fouriera.

• Bardzo dobrym narzędziem aproksymacyjnym są sieci

neuronowe.

(8)

Interpolacja

• Interpolacja jeden z rodzajów aproksymacji funkcyjnej, polegający na wyznaczaniu w określonym przedziale

funkcji y = f(x), która dla konkretnych liczb z danego przedziału przyjmuje z góry zadane wartości

• gdy n = 2 (oraz ) f(x) jest funkcją liniową, co prowadzi do tzw. interpolacji liniowej.

• Ogólniej funkcja w jest wielomianem interpolacyjnym funkcji f stopnia n jeżeli w n+1 punktach przyjmuje ona wartości takie jak f, oraz jest wielomianem stopnia co najwyżej n.

• Interpolacja jest często stosowana gdy dysponuje się

skończoną liczbą danych do określenia zależności między

wielkościami.

(9)

9

Definicja

• Jeśli mamy ciąg n różnych danych x

k

i dla każdego x

k

przyporządkowaną wartość y

k

, wówczas

szukamy funkcji f takiej, aby:

• Parę x

k

, y

k

nazywamy punktem pomiarowym a funkcję f interpolacją punktów pomiarowych.

k k

) y x

(

f  k=1,2,…,N

(10)

W jakim celu wykonujemy interpolację danych?

• wizualizacji pola przestrzennego lub czasoprzestrzennego w postaci izolinii lub izopowierzchni

• przeniesienia danych analizowanych z nieregularnej na regularną siatkę punktów (taka postać ułatwia analizy numeryczne)

• wyznaczenia wartości analizowanego parametru w punkcie dla którego nie ma bezpośrednich danych (np.

wyznaczenie wartości parametrów meteorologicznych dla

miejscowości, w której nie ma stacji meteorologicznej)

(11)

11

(12)
(13)

13

Interpolacja danych z dryfterów

(14)
(15)

15

Schemat procedury interpolacyjnej

• Mamy N punktów pomiarowych x

k

i wartości obserwacyjne f

o

(x

k

) (k=1,2,…,N)

• Wybieramy rodzinę funkcji zależnych od M parametrów:

u(x,c

1

,…,c

M

).

• Konkretne wartości parametrów:

wybieramy na podstawie wartości obserwacyjnych, w oparciu o pewne przyjęte kryteria dobroci interpolacji.

• Otrzymujemy funkcje interpolująca:

) c~

,..., c~

, c~

(

1 2 M

) c~

,..., c~

, c~

, x ( u )

x (

f

A

1 2 M

Rodziny funkcji u wybierać można w różny sposób. Najczęściej stosuje się tzw. rozwinięcia spektralne, tzn. wybiera się pewną bazę funkcyjną i funkcję interpolującą zapisuje w formie kombinacji liniowej funkcji

bazowych:

M

1 i

i i M

2

1, c~ ,...,c~ ) c e (x) c~

, x ( u

(16)

• Funkcje bazowe mogą być na przykład funkcjami liniowymi,

wielomianowymi, trygonometrycznymi, etc. Szczególnie dogodne bywają bazy ortogonalne na obszarze, na którym stosuje się

interpolacje. Często stosuje się funkcje różne od zera jedynie na pojedynczych podobszarach, na które podzielony został obszar poddawany analizie (tzw. elementy skończone).

• Szczególną postacią rozwinięcia na funkcje bazowe jest

przedstawienie funkcji interpolującej jako kombinacji liniowej wartości obserwowanych:

Tworzące w tym przypadku bazę funkcje nazywane funkcjami wagowymi lub po prostu wagami (lub wagami a

posteriori) mogą być wybierane lub konstruowane w oparciu o różne kryteria, najczęściej wynikające ze znajomości

statystycznych (klimatologicznych) własności analizowanych

(17)

17

• Niekiedy zakłada się , (kollokacja).

Teoretycznie można by również próbować uzależniać

funkcje wagowe od wartości obserwowanych (mielibyśmy wtedy reprezentację nieliniową) lecz takie podejście nie znajduje dotąd szerszego zastosowania w praktyce.

• Pewnym uogólnieniem powyżej omówionych metod są metody kolejnych przybliżeń, polegające na tym, że ostatecznie przyjmowana funkcja interpolująca jest (teoretycznie) granicą ciągu funkcji interpolujących tworzonych według pewnych określonych procedur.

Oczywiście w praktyce jako tę granicę przyjmuje się

ostatni z kilku pierwszych wyrazów tego ciągu.

(18)

Rodzaje interpolacji

• lokalne – wartość funkcji interpolującej w punkcie x zależy od wartości zmierzonych w pewnym bliskim

otoczeniu x; W przypadku waga związana z interpolacja spełnia warunek:

• globalne – wartość funkcji interpolującej w dowolnym punkcie x zależy się od danych we wszystkich punktach obserwacyjnych

• Funkcja interpolująca nie musi w punktach

obserwacyjnych być równa wartości tam obserwowanej (choć, jak zobaczymy dalej, w pewnych procedurach

interpolacyjnych taki warunek się stawia). Odzwierciedla to w pewnym sensie fakt obciążenia danych

obserwacyjnych błędami pomiarowymi i

(19)

19

Określoność zagadnienia interpolacji

Określoność zagadnienia interpolacji zależy od stosunku liczby parametrów

wyznaczanych do liczby danych pochodzących z obserwacji:

• parametrów mniej niż danych – nadokreśloność,

• parametrów tyle samo co danych – określoność,

• parametrów więcej niż danych – niedookreśloność.

• Sytuacja niedookreśloności nie pozwala w zasadzie na jednoznaczne

wyznaczenie parametrów szukanej funkcji interpolacyjnej, chyba że zostaną dodane dodatkowe warunki nakładane na parametry, redukujace liczbę

niezależnych parametrów do nie większej niż liczba danych.

• Z taką sytuacją spotykamy się np. przy interpolacji omawianymi niżej funkcjami sklejanymi (splajnami), gdzie takimi warunkami są żądania ciągłości na granicach sympleksów dzielących analizowany obszar lub przedział. Pozornie sytuacja określoności wydaje się najbardziej pożądaną, gdyż pozwala na pełne wykorzystanie informacji dostarczanej przez

obserwacje.

• Przy nieodpowiednim wyborze rodziny funkcji użytej do interpolacji może się jednak okazać, że np. funkcja idealnie zgodna z obserwacją w punktach

obserwacyjnych, będzie pomiędzy punktami obserwacyjnymi wykazywała zachowania bardzo nierealistyczne, niezgodne ze znanymi właściwościami analizowanego pola.

(20)

• Przykład takiego zachowania łatwo

skonstruować np. w przypadku użycia w charakterze takiej rodziny wielomianów dostatecznie wysokiego rzędu.

• Przykład:

• Wielomian piątego rzędu przechodzący przez pięć punktów pomiarowych, wykazujący

pomiędzy nimi znacznie większy zakres zmienności niż można by oczekiwać na podstawie znajomości fizyki zjawiska.

Przy przedstawieniu spektralnym o skali funkcji interpolującej decydują skale użytych funkcji bazowych, dlatego przy wyborze ich liczby należy

zachować ostrożność. Np. oscylacje szybkozmiennych funkcji fourierowskich o okresie (lub długości fali w przepadku przestrzennym) krótszym niż

odległość pomiędzy punktami pomiarowymi mogą dać nierealistyczny obraz przebiegu funkcji między tymi punktami.

Dlatego ogranicza się zwykle liczbę wyrazów rozwinięcia np. w oparciu o

(21)

21

Kryteria dobroci interpolacji

• Kryteria dobroci interpolacji dostarczają reguł

pozwalających wybrać konkretną funkcję interpolującą z rodziny funkcji użytej do interpolacji.

• Najczęściej stosowane kryteria możemy podzielić na.

• Kollokacyjne

• Wariacyjne

• Statystyczne

(22)

Kryteria kollokacyjne

Kryteria kollokacyjne wymagają by w punktach pomiarowych funkcja interpolacyjna przyjmowała wartości równe

obserwowanym. Przy ścisłym rozumieniu terminu „interpolacja”,

kryterium to powinno być zawsze spełnione. My jednak będziemy

ten termin rozumieć szerzej, stosując go również do przypadków,

w których to nie zachodzi.

(23)

23

Kryteria wariacyjne

• Kryteria wariacyjne mają zazwyczaj charakter globalny i żądają, by funkcja interpolująca minimalizowała (lub

maksymalizowała) pewien funkcjonał zależny od wartości obserwowanych (tzw. funkcja kosztu, ang. cost function) ewentualnie z dodatkowymi warunkami. Dodatkowym żądaniem może być np. ograniczenie całki z sumy

kwadratów pochodnych funkcji interpolującej, co prowadzi do ograniczenia z dołu skali funkcji

interpolującej.

• Typowym przykładem kryterium wariacyjnego (któremu w dalszym ciągu poświęcimy więcej uwagi) może być kryterium minimalizacji tzw. błędu kwadratowego (suma kwadratów odchyleń funkcji interpolującej od wartości obserwowanych w punktach obserwacji, winna być

minimalna).

(24)

Kryteria statystyczne

Kryteria statystyczne są odmianą kryteriów wariacyjnych, w których minimalizowany funkcjonał zależy nie od

pojedynczego, aktualnie analizowanego zbioru

obserwacji, a od całej rodziny takich zbiorów obserwacji wykonanych w tych samych (niekiedy także w innych) punktach, stanowiącej pewną populację w sensie

statystycznym. Zwykle chodzi o to, by minimalizować

odpowiednio zdefiniowany przeciętny błąd interpolacji w

sensie klimatologicznym.

(25)

25

Uzgadnianie pól

• W meteorologii często analizuje się kilka pól parametrów

fizycznych takich jak temperatura, ciśnienie, wilgotność etc., które są niecałkiem od siebie niezależne, celem użycia ich jako warunków początkowych w numerycznych modelach prognostycznych.

• Może się zdarzyć, że po osobnej analizie pola interpolujące nie będą spełniały relacji obecnych pomiędzy ich rzeczywistymi

odpowiednikami, co może spowodować np. pojawienie się

niestabilności rozwiązań. Dlatego konieczne bywa tzw. uzgodnienie pól (ang. adjustment), zapobiegające takim niepożądanym efektom.

• Uzgodnienia dokonuje się różnymi metodami, których będziemy szerzej omawiać na następnych wykładach. Np. jedną z pierwszych prób uzgodnienia pól ciśnienia i wiatru polegała na nałożeniu na rozwiązanie odpowiedniego problemu wariacyjnego warunku geostroficzności, co miało eliminować z rozwiązań

prognostycznych tak inicjowanych niestabilne fale grawitacyjne.

Metoda ta okazała się jednak nie w pełni skuteczna i obecnie stosuje się techniki bardziej skomplikowane, np. kilkakrotne całkowanie równań prognostycznych “ w przód i w tył” (ze zmianą kierunku czasu), co w niektórych modelach prowadzi do stopniowej

wzajemnej adaptacji, początkowo nieuzgodnionych pól.

(26)

Przykłady technik interpolacyjnych

• Metody interpolacji oparte na kryterium kollokacyjnym

• Najczęściej stosowane metody oparte na kryterium kollokacyjnym

należą do rodziny metod interpolacji tzw. funkcjami sklejanymi lub z angielskiego “splajnami” (spline).

• Polega ona na tym, że punkty pomiarowe traktujemy jako wierzchołki sympleksów (odcinków, trójkątów, czworościanów – w zależności od wymiaru przestrzeni, w której pracujemy) na które dzielimy naszą przestrzeń i wewnątrz każdego sympleksu definiujemy funkcje aproksymującą tak, by w wierzchołkach spełniała kryterium kollokacyjne.

• Funkcje z sąsiadujących z sobą sympleksów “sklejamy” tak, by na ścianach dzielących sąsiednie sympleksy zachodziła ciągłość funkcji wraz z pochodnymi do założonego rzędu.

• Na funkcje aproksymujące najczęściej wybiera się wielomiany o liczbie zmiennych zależnej od wymiaru przestrzeni, rzędu o jeden większego niż rząd pochodnych, których ciągłość ma być zachowana.

(27)

27

• Łatwo zauważyć, że warunki kollokacji + warunki ciągłości

pozwalają jednoznacznie określić współczynniki wielomianu dla każdego sympleksu.

• Przy rzędzie “zerowym”, który gwarantuje jedynie ciągłość samej funkcji mamy do czynienia z popularną interpolacją przedziałami liniową.

• W praktyce meteorologicznej rzadko stosuje sie wielomiany rzędu wyższego niż trzeci, ponieważ w równaniach fizyki

atmosfery rzadko występują pochodne rzędu wyższego niż drugi.

• Można zauważyć, że interpolacje splajnami to szczególne

przypadki rozkładu spektralnego, w którym funkcje bazowe są różne od zera tylko w obszarze przypisanego im sympleksu.

(28)

Przykłady - Metoda najmniejszych

• Metoda najmniejszych kwadratów jest typowym przykładem metody globalnej z zastosowaniem kryterium wariacyjnego.

Minimalizowanym funkcjonałem jest suma kwadratów różnic wartości funkcji interpolacyjnej i wartości obserwowanych w punktach pomiarowych. Najczęściej stosuje się ją do funkcji interpolacyjnych w postaci rozwinięć spektralnych. W takim przypadku, jeżeli:

gdzie jest dodawaną czasem tzw. wagą a posteriori, stanowiącą miarę istotności danego punktu obserwacyjnego. Zazwyczaj ustala się ją na podstawie statystycznych rozważań o strukturze błędów

k

(29)

29

• Różniczkując funkcjonał J kolejno po wszystkich

parametrach c

j

i przyrównując otrzymane wyrażenia do 0 (warunek konieczny dla minimum J):

otrzymuje się układ algebraicznych równań liniowych ze względu na c

i

. Jego rozwiązanie wymaga odwrócenia

tzw. macierzy Gramma, czyli macierzy postaci

(30)

• W pewnych przypadkach na funkcję interpolującą nakłada się dodatkowe żądania i w tym celu odpowiednio modyfikuje się funkcjonał J .Np. żądając by funkcja ta była dostatecznie dużej

skali, tzn. by jej pochodne były odpowiednio ograniczone, można J zastąpić funkcjonałem J':

oznacza normę gradientu funkcji f

A

w sensie przestrzeni L2 (tzn. sumę kwadratów współrzędnych gradientu

scałkowaną po całym analizowanym obszarze) a γ jest

pewną, odpowiednio dobraną,

(31)

31

Przykłady - Interpolacje funkcji wektorowych

• Czasami trzeba interpolować funkcje odpowiadające - rzeczywistym wektorom (np. prędkości wiatru),

- zespołom parametrów opisywanych łącznie (np. wiatr, ciśnienie, temperatura).

• Wtedy może mieć sens łączne minimalizowanie

funkcjonału dla wszystkich składowych pola oraz

narzucenie dodatkowych warunków (ustalenie

dodatkowego funkcjonału, określającego warunki

zgodności pomiędzy parametrami).

(32)

Metody kolejnych przybliżeń (iteracyjne)

• Przykładem metody kolejnych przybliżeń może być metoda iteracyjna – SCM (Subsequenced Correction

Method), a właściwie cała rodzina tych metod. Ogólna ich postać przedstawia się następująco:

• Mamy dane f

o

(x).

• Wybieramy zerową, początkową postać pola f

oA

(x),

wynikającą z naszej wiedzy o polu (wynik prognozy, dane klimatyczne).

• Wprowadzamy do tej postaci poprawki w sposób iteracyjny:

Funkcje wagowe mają często kształt

(33)

33

Uwagi końcowe

• Zastosowanie stanu prognostycznego jako wyjściowego pozwala na obserwację pewnej ciągłości modelu

prognostycznego i ma szczególne znaczenie gdy procedura interpolacyjna jest elementem asymilacji nowych danych obserwacyjnych napływających w toku procesu

prognozowania.

• Modele numeryczne nie odzwierciedlają bowiem

atmosfery ściśle, ale mają własną wewnętrzną logikę.

Proste wstawienie danych pomiarowych w miejsce

prognozowanych doprowadza do zakłócenia logiki modelu i jego załamania (brak wewnętrznej spójności nowych

warunków początkowych). Z tego względu jest rzeczą sensowną, żeby nowe warunki początkowe uwzględniały to, co dotychczas model wyprodukował.

• Szczególnym przykładem metody SCM jest tzw. algorytm Barnesa zmniejszający skale funkcji wagowych L

i

z kroku na krok, co pozwala na wyodrębnianie w kolejnych

krokach coraz mniejszych struktur.

(34)

Metoda Barnes’a i Cressmana’a –metody kolejnych przybliżeń

N

1 m

m N

1 m

m m

m 1g

w

) y , x ( S w

S 





2m2

m R

exp d w

Metoda Barnes (1964) polega na dwustopniowym

poprawianiu pola interpolowanego. Jeśli pole obserwacji oznaczymy przez S(x

m

,y

m

) wówczas pierwsze przybliżenie w punkcie siatki ma postać:

gdzie w

m

są wagami, d

m

jest odległością stacji od punktu siatki,

(35)

35

N

1 m

'm N

1 m

m 1 m

m ' m

m 1g

2g

w

)]

y , x ( S ) y , x ( S [ w S

S 





2m2

m R

exp d

w 

W wyniku drugiej korekcji pola otrzymujemy:

 jest parametrem zbieżności i zmienia się od 0 do 1. Metoda bez parametru  wymaga zazwyczaj znacznie większej liczby iteracji do osiągnięcia zbieżności.

Wyznaczenie S

1

(x

m

,y

m

) wymaga użycia ponownie interpolacji.

Najczęściej używa się do tego wartość S

1g

z 4 sąsiednich oczkach

siatki i wykorzystuje liniową interpolację.

(36)

Przykłady funkcji wagowych

(37)

37

Funkcje wagowe Cressmana

Cressman 1959

Zmodyfikowana

waga Cressmana

(38)

Wybór promienia wpływu

• Nie ma jednoznacznej teorii pozwalającej na wybór optymalnej wartości promienia wpływu R.

• Zależy ona zarówno od parametru meteorologicznego (inaczej są skorelowane przestrzennie pola temperatury, ciśnienia czy opadów) jak i struktury sieci obserwacyjnej czy też od ukształtowania terenu.

• Koch, 1983 zaproponował następujący wybór promienia wpływu:

 2n 052 . 5

R  N

n  Area

gdzie Δn jest gęstością stacji meteorologicznych, Area – pole

powierzchni sieci obserwacyjnej, N - liczba stacji w sieci.

(39)

Usłonecznienie na podstawie 3 stacji pomiarowych oraz obliczeń modelowych na podstawie 39

obserwacji satelitarnych zachmurzenia

Cytaty

Powiązane dokumenty

• Często scałkowana wariancja kilku pierwszych wyrazów, wyznaczona przez sumę odpowiadających im wartości własnych funkcji autokorelacyjnej, stanowi tak znaczący

• W praktyce, gdy proces ciągły jest aproksymowany przez skończony ciąg dyskretny, szum reprezentowany jest przez wektor losowy [X(t k )], którego współrzędne (czyli wartości w

Do określenia wymiaru ważne jest tylko , by granica istniała i dala się wyznaczyć. W fizyce zależności muszą być niezależne od wyboru jednostek, a więc – jednorodne: (zmiana

• W czasie przetwarzania danych nie powstają nowe dane, mogą być za to tracone. przez uśrednianie).. • Zmianę

Abstrakcyjna teoria prawdopodobieństwa w sensie matematycznym jest bardzo bogata a jej przydatność praktyczna wynika z faktu, że empirycznie wyznaczalne prawdopodobieństwo w

Estymację – szacowanie wartości parametrów lub postaci rozkładu zmiennej na podstawie próby – na podstawie wyników próby formułujemy wnioski dla całej

• W przypadku gdy mamy n punktów siatki operator liniowej interpolacji wpływa na wartości analizy tylko w sąsiedztwie obserwacji podczas gdy współczynnik korelacji

• Nie jest to wybór obowiązkowy jednak należy pamiętać o różnicy pomiędzy informacją a priori, która jest używana w definicji funkcji kosztu od pierwszego przybliżenia,