• Nie Znaleziono Wyników

Metody teledetekcyjne w badaniach atmosfery. Wykład 14 – Zagadnienie odwrotne

N/A
N/A
Protected

Academic year: 2021

Share "Metody teledetekcyjne w badaniach atmosfery. Wykład 14 – Zagadnienie odwrotne"

Copied!
22
0
0

Pełen tekst

(1)

Metody teledetekcyjne w badaniach atmosfery.

Wykład 14 – Zagadnienie odwrotne

Krzysztof Markowicz kmark@igf.fuw.edu.pl

(2)

2

Zagadnienie odwrotne

• Z matematycznego punktu widzenia problem zagadnienia odwrotnego jest równoznaczny problemowi asymilacji

danych w numerycznych prognozach pogody.

• W obu przypadkach problem jest na ogół źle postawiony gdyż liczba obserwacji jest mniejsza od liczby

wyznaczanych wielkości fizycznych.

(3)

• Przez y (y1,y2,…,ym) oznaczmy wektor obserwacji, zaś x

(x1,x2,…,xn) wektor wyznaczanych (niewiadomych) wielkości (wektor stanu). Przez  oznaczamy wektor błędów obserwacji.

• Relacje pomiędzy wektorem obserwacji i wektorem stanu zapisujemy w postaci:

gdzie F(x) oznacza model fizyczny (model do przodu – forward model). Używamy terminu model gdyż

powyższy związek jest często określony przez

skompilowane relacje fizyczne zapisywane w postaci numerycznej.

F(x) y

(4)

4

Funkcja wagowa

(x x ) K(x x )

x ) x ( ) F

x ( F

y o o o

W wielu rozważaniach wygodnie jest rozważać problem liniowy. Dokonujemy linearyzacji modelu fizycznego w otoczeniu pewnego stanu referencyjnego xo.

Macierz K (m x n) oznaczamy funkcją wagową. Macierz ta nie koniecznie musi być kwadratowa. W przypadku gdy

m<n problem jest niedookreślony (źle postawiony) m>n mamy nadmiarową liczbę obserwacji.

(5)

3-wymiarowa analiza wariacyjna : 3D-VAR

• W metodzie 3D-Var poszukujemy wektora analizy xa, który minimalizuje skalarną funkcję kosztu.

• Zdefiniowana jest ona przez odległość pomiędzy

wektorem stanu x a wektorem pierwszego przybliżenia xb mnożoną przez wagę będąca odwrotnością kowariancji błędu i odległość pomiędzy wektorem stanu x, a

wektorem obserwacji yo mnożoną przez odwrotność kowariancji błędów obserwacyjnych.

• W metodzie 3D-Var minimalizacji dokonujemy w przestrzeni wektora stanu.

(6)

6

3-wymiarowa analiza wariacyjna : 3D-VAR

• Rozważamy funkcję koszu oraz jej gradient w postaci:

Minimalizacja wariacyjnej funkcji kosztu (na podstawie 2-

wymiarowego modelu).

Kwadratura funkcji kosztu ma kształt paraboloidy (w tym

przypadku) z wartością minimalna dla optymalnej wartości analizy xa. Algorytm poszukiwania wartości minimalnej sprowadza się do

poruszania po krzywej funkcji kosztu w kierunku największego gradientu funkcji.

)) ( (

)) ( (

) (

) (

)

(x x x B 1 x x y F x R 1 y F x J b T b T

)) ( (

2 ) (

2 )

(x B 1 x x F R 1 y F x

J b T

(7)

• W praktyce punkt startowy minimalizacji zwany pierwszym

przybliżeniem (first guess) jest często wybierany na podstawie informacji a priori (background) xb.

• Nie jest to wybór obowiązkowy jednak należy pamiętać o różnicy pomiędzy informacją a priori, która jest używana w definicji funkcji kosztu od pierwszego przybliżenia, które jest używane do inicjalizacji procedury minimalizacyjnej.

• Jeśli minimalizacja jest zadowalająca to wynik analizy nie

zależy istotnie od wyboru wartości startowej. Jednak zawsze zależy od informacji a priori.

• Znaczącym problemem analizy 3D-Var jest konieczność znalezienia metody pozwalającej wyznaczyć macierz

kowariancji B, która określa błędy informacji a priori dla każdej pary zmiennych modelu.

• W większości przypadków macierz kowariancji błędu

związana z obserwacjami jest przekątna macierzą blokową lub macierzą diagonalą.

(8)

8

• Łatwo zauważyć, że przekątna macierz blokowa

implikuje, iż funkcja kosztu Jo jest sumą N skalarnych funkcji kosztu Jo,i każdej zdefiniowanej dla podmacierzy Ri oraz odpowiadającej Hi oraz yi.

• Rozbicie funkcji kosztu Jo staje się użytecznym

narzędziem do badania zachowania metody 3D-Var ze względu na każdą obserwację (jej wartość i

dopasowanie do wektora stanu x)

• Dodatkowo pozwala to na wymuszenie słabszych więzów (ograniczeń) przez dodanie dodatkowego czynnika w funkcji kosztu Jc.

• Prowadzi to jednak do warunku wstępnego co utrudnia i komplikuje minimalizację.

)) ( (

)) ( (

) (

1 ,

1 ,

x F y

R x

F y

J

x J

J

i i

i T i

i i

o

N i

i o o

(9)

Teoria Bayesa

• W podejściu Bayesa używamy pojęcia

prawdopodobieństwa do opisu naszej wiedzy na temat wektora stanu oraz obserwacji.

• Definiujemy:

• P(x) - gęstość praw-sta (pdf) wektora stanu x. P(x)dx jest prawdopodobieństwem przed wykonaniem obserwacji, że wektor stanu znajduje się w przedziale (x,x+dx).

• P(y) - pdf obserwacji

• P(x,y) - pdf złożone x i y. P(x,y)dxdy oznacza

prawdopodobieństwo, że wektor x znajduje się w przedziale (x,x+dx) zaś y w przedziale (y.y+dy).

• P(y|x) - pdf warunkowe wektora y dla danego x. Oznacza, że P(y|x)dy jest prawdopodobieństwem, że wektor

obserwacji y znajduje się w przedziale (y,y+dy) gdy wektor stanu x przyjmuje określoną wartość

• P(x|y) – analogicznie jak powyższej

(10)

10

Rodgers, 2000

(11)

• Twierdze Bayesa :

opisuje prawdopodobieństwo warunkowe

Koncepcyjne przybliżenie problemu odwrotnego:

• Przed wykonaniem obserwacji mamy wiedzę a priori w postaci rozkładu gęstości prawdopodobieństwa (pdf-u).

• Proces obserwacyjny jest utożsamiany jako mapowanie wektora stanu w przestrzeni obserwacji przy użyciu modelu (forward model)

• Teoria Bayesa opisuje formalizm procesu odwrotnego do powyższego mapowania i wyznaczania pdf-u aposteriori poprzez poprawianie pdf-u a priori przez pdf obserwacji.

) y ( P

) x ( P ) x

| y ( ) P

y

| x (

P

(12)

12

Rozważmy problem liniowy





( ) ( )

2 exp 1

|

| ) 2 ( ) 1

( /2 1/2 y y R 1 y y

y R

P n T

 i i j j

j

i y y y y

R ,

F(x) Kx y

Błędy pomiarowe  mogą być często przybliżane rozkładem Gaussa stąd wyrażenie na P(y|x) ma postać:

 

1

1( )

) (

)

| ( ln

2 P y x y Kx T R y Kx c

gdzie c1 jest stałą zaś R jest macierzą kowariancji błędów pomiarowych

(13)

• Podobnie można zdefiniować pdf wektora stanu. Jednak w tym przypadku przybliżenie rozkładem Gaussa jest mnie realistyczne aczkolwiek wygodne do opisu.



 x xa x xa T B

 

2

1( )

) (

) ( ln

2 P x x xa T B x xa c

gdzie xa jest a priori znanym stanem x, zaś B odpowiadającą mu macierzą kowariancji.

Podstawiając i wykorzystując twierdzenie Bayesa dostajemy związek na pdf a posteriori

   

3

1

1( ) ( ) ( )

) (

)

| ( ln

2 P x y y Kx T R y Kx x xa T B x xa c

Ma ono rozkład Gaussa więc może być zapisane w postaci:

 

(14)

14

Porównując czynniki kwadratowe w x otrzymujemy:

x S

x K

B x Kx

R K

xT T 1 T 1 T ˆ1

1 1

ˆ1 KR K B

Co daje: S

Analogicznie równanie liniowe w xT:

ˆ) ˆ (

) (

) ( )

(Kx T R1 y xT B1 xa xT S 1 x

Upraszczając czynnik xT ponieważ równanie musi być spełnione dla każdego x oraz podstawiając za S-1 otrzymujemy:

x B

K R

K x

B y

R

KT 1 1 a ( T 1 1) ˆ

(15)

) (

) (

) (

) ˆ (

1 1

1 1

1 1

1 1 1

a T

T a

a T

T

Kx y

R K

B K

R K

x

x B

y R

K B

K R

K x

) (

)

ˆ xa BKT (KBK T R 1 y Kxa

x

alternatywnie

(16)

16

Liczba stopni swobody

• Rozważmy przypadek gdy mamy p niezależnych informacji (p pomiarów) nieobarczonych błędami (gdy dopuścimy

błędy pomiarowe oznaczać to może, że duże błędy zmniejszą liczbę niezależnych informacji).

• Rozważmy przypadek, gdy mamy dwuelementowy wektor stanu (x1,x2) oraz dwa pomiary (y1, y2) i prosty model do przodu

















2 1 2

1 2

1

x x 01

. 1 99 . 0

99 . 0 01 . 1 y

y

gdzie błędy są niezależne a ich wariancja wynosi 2. Jest to równoznaczne z pomiarem ortogonalnej kombinacji z1 oraz z2.

2 1

2 1

2 1

2

2 1

2 1

2 1

1

) x x

( 02 . 0 )

y y

( z

) x x

( 2 )

y y

( z

Zmienna z2 ma znacznie mniejszą

wartość niż z1 a więc nie zawiera użytecznej informacji na temat różnicy x2 – x1.

(17)

• Ponieważ, macierze kowariancji mogą posiadać niezerowe elementy poza diagonalą (będące odzwierciedleniem korelacji pomiędzy poszczególnymi elementami) transformujemy

macierz do nowej bazy w której wszystkie wartości pozadiagonalne są zerowe.

)

~ 1/2(

xa

x B

x ~y R1/2 y

~~ ~

~

~y R1/2KB1/2x R1/2 Kx

gdzie: ~ 1/2 1/2 KB R

K

Liczba niezależnych obserwacji jest równa liczbie wartości osobliwych macierzy:

które mają wartość większą niż 1.

Jest to równoznaczne z liczbą wartości własnych macierzy

2 / 1 2

/

~ 1

KB R

K

(18)

18

Analiza błędów

f (x,b) y

) c , x , , y ( R

a

Zapiszmy wektor obserwacji w postaci:

gdzie b oznacza wektor parametrów niewchodzących w skład wektora stanu (np. natężenie linii widmowej, zależność poszerzenia linii widomych od temperatury itd.), zaś f jest „forward function” opisującą fizykę pomiaru uwzględniającą np. transfer promieniowania, czy pełny opis aparatury pomiarowej.

Wektor odzyskiwanych parametrów może być umownie zapisany w postaci:

gdzie R oznacza umownie metodę odwrotną, oznacza najlepsze oszacowanie parametrów funkcji do przodu f, zaś c jest wektorem

parametrów nie występujących podobnie jak wektor informacji a priori xa w funkcji f, które jednak mogą wpływać na wartości odzyskiwanych

parametrów np. przez równego rodzaju niepewności i błędy.

(19)

Podstawiając otrzymujemy:

) b , b , x ( f )

b , x (

F '

) c , x , , )

b , x ( f ( R

a

Dokonujemy linearyzacji modelu do przodu F (y=F(x)+)

gdzie wektor b został podzielony na b i b’ zaś b’ opisuje te parametry funkcji do przodu f, które zostały zignorowane przy konstrukcji modelu do przodu F.

Wyznaczany wektor stanu możemy przepisać do postaci:

) c , x , , )

' b , b , x ( f )

b , x ( F ( R

a

gdzie f jest błędem modelu do przodu związanym z niepoprawnym opisem fizycznym

(20)

20

Dokonujemy linearyzacji modelu F w otoczeniu

otrzymujemy b

x

x a

) c , x , , )

' b , b , x ( f )

b

( K )

x x

( K )

, x ( F ( R

a x a b a

gdzie

b K F

x K F

b x

Obecnie linearyzujemy operator R względem wektora y:

] )

' b , b , x ( f )

b

( K )

x x

( K [ G ]

c , x , ), , x ( F [ R

a a x x a b

x Gx R

(21)

y y

a

a a

a a

G

) x x

( A

x ] c , x , ), , x ( F [ R x

Ostatecznie różnica pomiędzy wektorem odzyskanym a wektorem informacji a priori wynosi:

x K

G

A y x

y Kb(b ) f(x,b,b') bias

wygładzanie

błąd metody odwrotnej

gdzie

(22)

22

y y

b y

a

G

) ' b , b , x ( f G

) b

( K G

) x x

)(

I A ( x

Ostatecznie różnica pomiędzy wektorem odzyskanym a wektorem stanu wynosi:

błąd wygładzania

błąd parametrów modelu błąd modelu do przodu szum metody odwrotnej

Cytaty

Powiązane dokumenty

• Funkcje wagowe oblicza się przy pomocy modelu linia po linii dla standardowego profilu temperatury i ciśnienia.. • Znacznym ograniczeniem jest nakładanie się funkcji

• Z tego powodu oraz ze względu na silną zmienność zdolności emisyjnej powierzchni lądowych teledetekcja mikrofalowa jest bardzo trudna i ograniczymy się jedynie do

• Zdecydowanie najprostsze pomiary radarowe związane są z pomiarami wysokości oceanu gdyż poziom oceanu mierzony jest na podstawie różnicy czasu pomiędzy.. wysyłanym i

• Rozpatrzmy krople deszczu spadające w nieruchomym powietrzu. • Kropla nie jest sferyczna i ustawia się tak iż najdłuższa oś znajduje się w płaszczyźnie horyzontalnej...

gdzie B jest stosunkiem całkowitego współczynnika rozpraszania wstecznego do współczynnika rozpraszania wstecznego dla molekuł powietrza,  ray określa depolaryzację

Przyrodzie ciała doskonale czarne nie występują, dlatego często definiuje się pojęcie ciała doskonale szarego, przez które rozumie się ciało, dla którego zdolność

Warm Tropical Areas Cold Land Ocean, Sea Cold Snow. Jochen Kerkmann (EUMETSAT) Jochen

najlepsze oszacowanie parametrów funkcji do przodu f, zaś c jest wektorem parametrów nie występujących podobnie jak wektor informacji a priori x a w funkcji f, które jednak mogą