RAP 412 12 listopada 2008
Wykªad 6: Klasykacja ªa«cuchów Markowa. Rozkªady stacjonarne.
Wykªadowca: Andrzej Ruci«ski Pisarze: Katarzyna Mieczkowska, Bartosz Zaleski
Wst¦p
Na ostatnim wykªadzie dowiedzieli±my si¦ czym s¡ ªa«cuchy Markowa oraz poznali±my postawowe zagadnienia z nimi zwi¡zane (jednorodno±¢, macierze przej±¢, Tw. Chapmana- Koªmogorowa). W pierwszej cz¦±ci tego wykªadu omówimy zagadnienie stanu pocz¡tkowego oraz dokonamy fragmentarycznej klasykacji ªa«cuchów Markowa ze wzgl¦du na relacje zachodz¡ce mi¦dzy poszczególnymi stanami. Na ko«cu zajmiemy si¦ badaniem rozkªadu stacjonarnego oraz przytoczymy twierdzenie o zbie»no±ci ªa«cuchów.
1 Rozkªad pocz¡tkowy
W badaniu ªa«cuchów Markowa szczególn¡ rol¦ odgrywa stan pocz¡tkowy - zauwa»my, »e mo»e on wpªyn¡¢ na to, »e do niektórych stanów nie dotrzemy nigdy, a do innych jedynie po pewnym okresie czasu. Formalnie rzecz bior¡c, stan pocz¡tkowy to po prostu zmienna losowa X 0 . Nie nale»y si¦ wi¦c dziwi¢, »e czasem ªa«cuch Markowa nie b¦dzie zaczynaª si¦
z jednego wyznaczonego stanu, ale z pewnego rozkªadu prawdopodobie«stwa na przestrzeni stanów.
Rozkªad pocz¡tkowy b¦dziemy przedstawiali jako wektor µ 0 , okre±lony w nast¦puj¡cy sposób µ (0) = (µ (0) 1 , µ (0) 2 , . . . , µ (0) k )
= (P(X 0 = s 1 ), P(X 0 = s 2 ), . . . , P(X 0 = s k )), gdzie {s 1 , . . . , s k } jest zbiorem stanów ªa«cucha.
Poniewa» µ (0) jest rozkªadem prawdopodobie«stwa, wi¦c X k
i=1
µ (0) i = 1
Analogicznie, przez µ (1) , µ (2) , . . . mo»emy oznaczy¢ rozkªady prawdopodobie«stwa w mo- mentach czasu 1, 2, . . . (czyli rozkªady zmiennych X 1 , X 2 , . . . ) tak, »e
µ (n) = (µ (n) 1 , µ (n) 2 , . . . , µ (n) k )
= (P(X n = s 1 ), P(X n = s 2 ), . . . , P(X n = s k ))
Przykªad 1. Na poprzednim wykªadzie zajmowali±my si¦ pewnym losowym spacerze po kwadracie. Zaczynali±my go od wierzchoªka nr. 1. Zatem w tym przypadku rozkªad pocz¡tkowy ma posta¢:
µ (0) = (1, 0, 0, 0).
Ponadto, ªatwo mo»na zauwa»y¢, »e np. w drugim kroku rozkªad tego ªacucha ma posta¢:
µ (2) = ( 1 2 , 0, 1
2 , 0).
Okazuje si¦, »e je±li znamy rozkªad pocz¡tkowy µ (0) oraz macierz przej±¢ P , to w prosty sposób mo»emy wyznaczy¢ wszystkie rozkªady µ (1) , µ (2) , . . . . Mówi o tym nast¦puj¡ce twierdzenie:
Twierdzenie 1. Je±li (X 1 , X 2 . . .) jest jednorodnym ªa«cuchem Markowa o sko«czonym zbiorze stanów {s 1 , . . . , s k } , rozkªadzie pocz¡tkowym µ (0) i macierzy przej±¢ P , to
∀ n µ (n) = µ (0) P n
Dowód. Rozwa»my przypadek kiedy n = 1. Dla j = 1, . . . , k, otrzymujemy
µ (1) j = P(X 1 = s j ) = X k
i=1
P(X 0 = s i , X 1 = s j )
= X k
i=1
P(X 0 = s i )P(X 1 = s j | X 0 = s i )
= X k
i=1
µ (0) i P i,j = (µ (0) P ) j
gdzie (µ (0) P ) j oznacza j-ty element wektora µ (0) P . St¡d µ (1) = µ (0) P .
Przypadek ogólny udowodnimy indukcyjnie. Ustalmy m i zaªó»my, »e teza twierdzenia jest prawdziwa dla n = m. Dla n = m + 1 mamy zatem
µ (m+1) j = P(X m+1 = s j ) = X k
i=1
P(X m = s i , X m+1 = s j )
= X k
i=1
P(X m = s i )P(X m+1 = s j | X m = s i )
= X k
i=1
µ (m) i P i,j = (µ (m) P ) j ,
a st¡d µ (m+1) = µ (m) P . Z zaªo»enia indukcyjnego wiemy, ze µ (m) = µ (0) P m , sk¡d ostatecznie otrzymujemy
µ (m+1) = µ (m) P = µ (0) P m P = µ (0) P (m+1)
Powy»sze twierdzenie ªatwo daje si¦ uogólni¢ na przypadek ªa«cucha niejednorodnego,
którego denicj¦ podajemy poni»ej.
Denicja 1 (Niejednorodny ªa«cuch Markowa). Niech P (1) , P (2) , . . . b¦dzie ci¡giem macierzy o wymiarach (k × k) takich, »e P i,j ≥ 0 dla ka»dego i, j ∈ {1, . . . , k} oraz ∀
i
P
j P i,j = 1 . Ci¡g zmiennych losowych (X 0 , X 1 , . . .) o warto±ciach ze sko«czonego zbioru stanów S = {s 1 , . . . , s k } nazywamy niejednorodnym ªa«cuchem Markowa z macierzami przej±cia P (1) , P (2) , . . . , je»eli dla ka»dego n, dowolnych i, j ∈ {1, . . . , k} i ka»dego i 0 , . . . , i n−1 ∈ {1, . . . , k} mamy
P(X n+1 = s j |X 0 = s i
0, X 1 = s i
1, . . . , X n−1 = s i
n−1, X n = s i )
= P(X n+1 = s j |X n = s i )
= P i,j (n+1) .
Twierdzenie 2. Niech (X 1 , X 2 , . . .) b¦dzie niejednorodnym ªa«cuchem Markowa o sko«c- zonym zbiorze stanów, rozkªadzie pocz¡tkowym µ (0) i macierzach przej±¢ P (1) , P (2) , . . . . Wówczas
∀ n µ (n) = µ (0) P (1) P (2) · · · P (n) . Dowód. Dowodzimy analogicznie jak Twierdzenie 1.
2 Przykªady
W tej cz¦±ci wykªadu poka»emy kilka przykªadów obrazuj¡cych pewne procesy Markowa przedstawione za pomoc¡ macierzy przej±¢.
Przykªad 2 (Pogoda w Göteborgu). Wyobra¹my sobie, »e jeste±my w szwedzkim mie±cie Göteborgu i chcemy przewidzie¢ jaka b¦dzie jutro pogoda. Niektórzy mówi¡, »e najlepszym na to sposobem jest po prostu przypu±ci¢, »e b¦dzie ona taka sama jak jest dzi±. Gdyby przyj¡¢,
»e stwierdzenie to jest prawdziwe, to naturalne wydaje si¦ by¢ modelowanie pogody za pomoc¡
ªa«cuchów Markowa. Poniewa» ma to by¢ prosty przykªad, to zaªo»ymy, »e s¡ mo»liwe tylko dwa jej rodzaje: sªo«ce lub deszcz. Je±li powy»szy sposób przewidywania pogody sprawdza si¦
w 75% czasu (niezale»nie czy dzi± ±wieci sªo«ce czy pada deszcz), to pogoda tworzy ªa«cuch Markowa ze zbiorem stanów S = {s 1 , s 2 } , gdzie s 1 = deszcz, s 2 = sªo«ce i macierz¡
przej±¢
P =
" 3
4 1
4 1 4 3 4
# .
Przykªad 3 (Pogoda w Los Angeles). W poprzednim przykªadzie dla pogody w Göteborgu zachodziªa symetria mi¦dzy deszczem i sªo«cem. Jednak w Los Angeles sªo«ce ±wieci znacznie cz¦±ciej ni» pada deszcz, dlatego bardziej uzasadniony b¦dzie model ªa«cucha Markowa z macierz¡ przej±¢
P =
" 1
2 1
2 10 1 9 10
#
Przykªad 4 (Internet). Okazuje si¦, »e, przy pewnych dodatkowych zaªo»eniach, równie» na poruszanie si¦ po internecie mo»na patrze¢ jak na proces Markowa. Je±li przez S oznaczymy zbiór wszystkich stron internetowych w danym momencie (jest on oczywi±cie sko«czony), a przez d i ilo±¢ odno±ników do innych witryn umieszczonych na i-tej stronie, to otrzymamy wtedy proces Markowa o macierzy przej±¢ P takiej, »e
P i,j =
½ 1
d
igdy na stronie s i istnieje link do strony s j
0 w przeciwnym przypadku
Gdyby±my w poprzednim przykªadzie dopu±cili u»ywanie przycisku powrotu do poprzed- niej strony, to proces staciªby wªasno±¢ Markowa, poniewa» to gdzie znajdziemy si¦ w nast¦pnym kroku zale»aªoby równie» od tego które strony odwiedzili±my wcze±niej. Zatem przyszªo±¢ nie zale»aªaby tylko od tera¹niejszo±ci, lecz tak»e od przeszªo±ci.
Przykªad 5 (Dokªadniejsza pogoda w Göteborgu). W poprzednim przykªadzie dotycz¡cym pogody w Göteborgu rozwa»ali±my maªo rzeczywisty przypadek, poniewa» pogoda byªa nieza- le»na od pory roku. Teraz rozbudujemy troch¦ t¦ sytuacj¦. Do zbioru stanów dodamy stan s 3
oznaczaj¡cy ±nieg oraz wprowadzimy dwie ró»ne macierze - b¦dzie to przykªad niejednorod- nego ªa«cucha Markowa. Zmiany pogody w lecie (np. od maja do wrze±nia) ilustrowa¢ b¦dzie macierz P lato , a w zimie (tj. od pa¹dziernika do kwietnia) - macierz P zima :
P lato =
3 4 1
4 0
1 4 3
4 0
1
2 1
2 0
P zima =
1 2 3 10 1
5 20 3 7
10 3 20 1
5 3
10 1 2
3 Nieredukowalne i nieokresowe ªa«cuchy Markowa
W rozdziale tym omówimy dwie wa»ne wªasno±ci ªa«cuchów Markowa: okresowo±¢ i rozkªadal- no±¢. S¡ one kluczowe dla badania rozkªadu stacjonarnego, któremu po±wi¦cony b¦dzie kole- jny rozdziaª. Poni»sze denicje wprowadzamy dla ªa«cucha Markowa (X 0 , X 1 , . . .) o warto±- ciach w sko«czonym zbiorze stanów {s 1 , . . . , s k } i macierzy przej±¢ P .
Denicja 2. Mówimy, »e stan s i komunikuje si¦ ze stanem s j , co zapisujemy s i → s j , je±li istnieje n takie, »e
P(X m+n = s j | X m = s i ) > 0.
Dla ªa«cuchów jednorodnych prawdopodobie«stwo to jest niezale»ne od m i równe (P n ) i,j .
Denicja 3. Je±li s i → s j i s j → s i , to mówimy, »e stany komunikuj¡ si¦ ze sob¡, co za- pisujemy s i ↔ s j .
Denicja 4. a«cuch Markowa nazywamy nieredukowalnym, je±li
s
i,s ∀
j∈S (s i ↔ s j )
Wygodnym sposobem przedstawiania ªa«cuchów Markowa s¡ tzw. grafy przej±¢.
Denicja 5. Grafem przej±¢ ªa«cucha Markowa nazywamy skierowany graf wa»ony G = (V, E), w którym zbiór wierzchoªków tworzy zbiór stanów ªa«cucha, tzn. V = S . Dwa wierzchoªki v i w s¡ poª¡czone kraw¦dzi¡ o wadze p, gdy p = P(X 1 = w | X 0 = v) > 0 , tzn. gdy wierzchoªek w jest osi¡galny z wierzchoªka v w jednym kroku.
Je±li chcemy w prosty sposób sprawdzi¢ czy ªa«cuch Markowa jest nieredukowalny, wystarczy spojrze¢ na jego graf przej±¢ i sprawdzi¢ czy istnieje ±cie»ka skierowana mi¦dzy dowolnymi dwoma jego wierzchoªkami.
Przykªad 6 (Przykªady grafów przej±¢ ªa«cuchów jednorodnych.). eby lepiej zobrazowa¢
poj¦cie grafu przej±¢ poka»emy teraz kilka przykªadów. Pierwszy zwi¡zany jest ze spacerem losowym po kwadracie, który analizowali±my na poprzednim wykªadzie, drugi natomiast doty- czy procesu zmian pogody w Göteborgu.
1 2
4 3
– 1 2
– 1 2
– 1 2
– 1 2 – 1
2 – 1
2 – 1
2 – 1
2
Rysunek 1: Przykªad z poprzedniego wykªadu.
s
1s
2– 1 4
– 1 4 – 3
4 – 3
4
Rysunek 2: Pogoda w Göteborgu.
Przykªad 7 (Grafy przej±cia dla dokªadniejszej pogody w Göteborgu.). W tym przykªadzie przedstawimy dwa grafy przej±¢. Jeden obrazowa¢ b¦dzie zachowanie ªa«cucha opisuj¡cego precyzyjniej pogod¦ w Göteborgu w okresie letnim, a drugi w okresie zimowym. Brak ªuku oznacza, »e prawdopodobie«stwo przej±cia mi¦dzy dwoma stanami jest zerowe.
s s
s
1 2
3
– 1 4
– 1 4 – 3
4 – 3
4
– 1
2 – 1
2
Rysunek 3: Macierz letnia.
s s
s
1 2
3