• Nie Znaleziono Wyników

Procesy stochastyczne w2-3-2020

N/A
N/A
Protected

Academic year: 2021

Share "Procesy stochastyczne w2-3-2020"

Copied!
80
0
0

Pełen tekst

(1)

1

Procesy stochastyczne WYKŁAD 2 - 3

Łańcuchy Markowa

Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

(2)

2

Przykład

Symetryczne błądzenie przypadkowe na prostej. Stan początkowy to 0.

Rzucamy symetryczną monetą, jeśli wypadł „orzeł” to przechodzimy o jedną jednostkę w prawo, jeśli wypadła „reszka” to przechodzimy o jedną jednostkę w lewo.

(3)

3

Przykładowa realizacja:

(0, 1, 2, 1, 0, -1, 0, 1, 2, 3, 2, 3, 2, 1, 0, -1, 0, -1, -2, ……)

i jej obraz graficzny

(4)

4

Jest to proces X = (X0, X1, X2, X3, X4, ……)

Jakie są rozkłady jednowymiarowe tego procesu? Jaka jest przestrzeń stanów tego procesu?

(5)

5

Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych losowych

X0, X1, ...

Określonych na wspólnej przestrzeni probabilistycznej, przyjmujących wartości całkowite i spełniające warunek

Z j i i n n n n n n n n

i

X

j

X

P

i

X

i

X

i

X

j

X

P

     

, ,..., 1 1 1 1 1 1 0 0 1 0

...,

,

,

(6)

6

Zatem dla łańcucha Markowa rozkład prawdopodobieństwa warunkowego położenia w n-tym kroku zależy tylko od prawdopodobieństwa warunkowego położenia w kroku poprzednim a nie od wcześniejszych punktów trajektorii (historia).

(7)

7

Andrei A.Markov1856 - 1922

(8)

8

Przykład.

A1, ..., An - wierzchołki n-kąta foremnego. Punkt losowo porusza się po tych wierzchołkach.

Czy jest łańcuchem Markowa ciąg położeń punktu gdy

a) punkt porusza się w sposób zdeterminowany zgodnie z ruchem wskazówek zegara, (tak)

b) punkt losowo wybiera kierunek i dalej porusza się w wybranym kierunku, (nie)

(9)

9

Niech

X

j

X

i

P

p

ij(n)

n

n1

oznacza prawdopodobieństwo przejścia w n-tym kroku ze stanu i do stanu j.

(10)

10

Jeśli pij(n) nie zależą od n to łańcuch nazywamy

(11)

11

Zakładając, że numery stanów są całkowite, nieujemne można prawdopodobieństwa przejść zapisać w macierzy

) ( 11 ) ( 10 ) ( 01 ) ( 00 ) ( n n n n n

p

p

p

p

P

Dla łańcuchów jednorodnych powyższą macierz oznaczamy P.

(12)

12

Dla łańcuchów jednorodnych i stanów 0, 1, 2, …, N macierz P ma postać:

NN N N N N

p

p

p

p

p

p

p

p

p

P

1 0 1 11 10 0 01 00

(13)

13

Własności macierzy prawdopodobieństw przejść: a) pij  0

b) suma każdego wiersza jest równa 1. tzn.

i

j

p

ij

1

(14)

14

Każdą macierz spełniającą warunki a), b) nazywamy macierzą stochastyczną.

(15)

15

Uwaga.

Macierz stochastyczna i rozkład zmiennej losowej X0

określają pewien łańcuch Markowa.

Własności macierzy stochastycznych są zatem ściśle związane z własnościami łańcuchów Markowa.

(16)

16

Własności macierzy stochastycznych. A - dowolna macierz kwadratowa stopnia r.

Wielomianem charakterystycznym tej macierzy nazywamy wielomian

I

A

W

(

)

det

Równanie W (

)  0 nazywamy równaniem charakterystycznym. Pierwiastki tego równania to wartości własne lub pierwiastki charakterystyczne tej macierzy.

Niech 1, ...., k - wartości własne macierzy

(17)

17

Własność:

I) suma wartości własnych (z krotnościami) jest równa śladowi macierzy tzn. sumie elementów jej przekątnej.

II) Macierz jest osobliwa wtedy i tylko wtedy, gdy zero jest jej wartością własną

(18)

18 Przykład. Macierz           3 1 3 2 4 3 4 1 P

(19)

19 ma równanie charakterystyczne 0 12 5 12 7 3 1 3 2 4 3 4 1 det ) (  2                        W

(20)

20 i wartości własne: 1 =1, 12 5 2    .

(21)

21

Własności macierzy stochastycznych:

a) Wartością własną każdej macierzy stochastycznej jest  = 1 (oznaczamy 1 =1),

b) Moduły wszystkich wartości własnych dowolnej macierzy stochastycznej są mniejsze lub równe 1, c) Średnia arytmetyczna i iloczyn dwóch macierzy

stochastycznych tego samego stopnia są także macierzami stochastycznymi.

d) (tw. Dooba ) istnieje granica n P A

n k k n

    1 1 lim , Macierz A ma własność PA = AP = A = A2 (macierz idempotentna),

(22)

22

Klasyfikacja macierzy stochastycznych. 1 = 1 1 > 1

1

1

i i

Regularne (tzn. nierozkładalne i niecykliczne) rozkładalne niecykliczne

1

1

i i

nierozkładalne cykliczne rozkładalne cykliczne Uwaga

W macierzy rozkładalnej występują diagonalne podmacierze stochastyczne (ich ilość wynosi 1).

W macierzy cyklicznej w kolejnych potęgach okresowo (długość cyklu) pojawiają się bloki zerowe i dodatnie.

(23)

23

Tw. Frecheta (tw. Dooba dla macierzy nierozkładalnych)

Dla każdej nierozkładalnej macierzy stochastycznej P istnieje granica

E P n n k k n

    1 1 lim ,

(ergodyczność w sensie Cesaro)

             r r r e e e e e e e e e E        2 1 2 1 2 1 (macierz ergodyczna)

(24)

24

Macierz E ma własność

PE = EP = E = E2

i spełnia warunki a), b) definicji macierzy stochastycznej.

(25)

25

Elementy macierzy E możemy wyznaczyć z warunków: (P - I)eT = 0, 1 1    r i i e , gdzie e = (e1, ...., er )

(26)

26

Dla macierzy regularnych tw. Dooba ma postać: Twierdzenie.

Jeśli macierz stochastyczna P jest regularna to istnieje granica

P

E

n n

lim

, (ergodyczność)

(27)

27

Stochastyczne macierze regularne charakteryzuje też tzw. twierdzenie ergodyczne:

Twierdzenie.

Jeśli macierz stochastyczna P jest regularna to istnieje taka jej potęga w której co najmniej jedna kolumna ma wszystkie elementy dodatnie.

(28)

28 Przykład. Macierz            0 5 , 0 5 , 0 75 , 0 25 , 0 0 5 , 0 0 5 , 0 P ma wartości własne 1 =1, 8 17 1 2     , 8 17 1 3    

(29)

29 Przykład. Macierz              0 0 5 , 0 5 , 0 0 0 5 , 0 5 , 0 5 , 0 5 , 0 0 0 5 , 0 5 , 0 0 0 P ma wartości własne

1 =1, 2  1, 3  0 o krotności 2, więc jest

macierzą cykliczną nierozkładalną. Macierz ta ma własność     parzyste n gdy e nieparzyst n gdy 2 P P Pn .

(30)

30 Przykład. Macierz                        4 3 4 1 0 0 0 3 2 3 1 0 0 0 0 0 1 0 0 0 0 0 2 1 2 1 0 0 0 2 1 2 1 P ma wartości własne 1 =1 o krotności 3, 2  0, 12 1 3   , więc

(31)

31

Macierz stochastyczna rozkładalna (po ewentualnym przestawieniu wierszy i kolumn) ma bloki diagonalne, które są macierzami stochastycznymi. Wartościami własnymi macierzy P są wartości własne poszczególnych bloków. W tym przykładzie są trzy bloki diagonalne.

(32)

32 Przykład. Macierz              0 1 0 0 1 0 0 0 0 0 5 , 0 5 , 0 0 0 5 , 0 5 , 0 P ma wartości własne

1 =1 o krotności 2, 2  0, 3  1 , więc jest

(33)

33

Macierz przywiedlna.

Macierz kwadratowa P stopnia n nazywa się

przywiedlna, jeśli przez odpowiednie permutacje wierszy i kolumn można przekształcić P do postaci

D

C

B

0

gdzie B, D są kwadratowe.

W przeciwnym przypadku macierz P nazywa się nieprzywiedlna.

(34)

34

Własność

Macierz dodatnia jest nieprzywiedlna,

Jeśli macierz ma zerowy wiersz lub kolumnę zerową to jest przywiedlna.

(35)

35

Postać normalna macierzy stochastycznej.

Postać normalna macierzy stochastycznej P stopnia n to macierz               S T R T T g 0 0 0 0 0 0 0 0 0 2 1       

Otrzymana z P przez odpowiednie permutacje wierszy i kolumn, gdzie Ti to macierze stochastyczne i

nieprzywiedlne, 1 ≤ g ≤ n, g = krotność wartości własnej 1.

S kwadratowa, niestochastyczna i nieprzywiedlna (jeśli istnieje).

(36)

36 Przykład. Macierz              5 , 0 0 0 5 , 0 0 5 , 0 5 , 0 0 0 5 , 0 5 , 0 0 5 , 0 0 0 5 , 0 P

ma wartości własne 1 =1 o krotności 2, 2  0 o

krotności 2.

Jej postać normalna

            5 , 0 5 , 0 0 0 5 , 0 5 , 0 0 0 0 0 5 , 0 5 , 0 0 0 5 , 0 5 , 0

Ma dwie macierze stochastyczne 

       5 , 0 5 , 0 5 , 0 5 , 0 2 1 T T Brak macierzy S i R.

(37)

37 Przykład. Macierz              5 , 0 5 , 0 0 0 0 0 5 , 0 5 , 0 0 0 1 0 0 0 0 1 P

ma wartości własne 1 =1 o krotności 2, 2  0, 2  0,5. Jest

to macierz rozkładalna niecykliczna.

Jej postać normalna jest taka jak P

            5 , 0 5 , 0 0 0 0 0 5 , 0 5 , 0 0 0 1 0 0 0 0 1

Ma dwie macierze stochastyczne T1  T2 

 

1 ,

       0 0 5 , 0 5 , 0 R ,       5 , 0 5 , 0 0 0 S

(38)

38

Własności ŁM zależne od własności macierzy P.

P - regularna, nieprzywiedlna.

Ł. ergodyczny, rozkład gr. nie zależy od r. początkowego, jeden dodatni r. stacjonarny.

(39)

39

P - regularna, przywiedlna.

Ł. ergodyczny, rozkład gr. nie zależy od r.

(40)

40

P - nierozkładalna, cykliczna, nieprzywiedlna.

Ł. ergodyczny w sensie Cesaro, jeden dodatni rozkład stacjonarny.

(41)

41

P - nierozkładalna, cykliczna, przywiedlna.

Ł. ergodyczny w sensie Cesaro,

(42)

42

P - rozkładalna, niecykliczna.

Ł. nieergodyczny, rozkład gr. zależy od rozkładu początkowego, wiele rozkładów stacjonarnych.

(43)

43

P - rozkładalna, cykliczna.

Ł. nieergodyczny, rozkład gr. zależy od rozkładu początkowego, wiele rozkładów stacjonarnych.

(44)

44

Łańcuchy Markowa (jednorodne).

pi(n) - prawdopodobieństwo znalezienia się w stanie i po n krokach (rozkład zmiennej losowej Xn).

pi(0) - prawdopodobieństwo znalezienia się w stanie i w chwili początkowej (rozkład zmiennej losowej

X0 - rozkład początkowy).

p(n) = (p0(n), p1(n), ... pN(n))

(45)

45

pij - prawdopodobieństwo przejścia od stanu i do

stanu j w jednym (dowolnym) kroku,

P = [pij]- macierz prawdopodobieństw przejść

(46)

46

Przykład.

Błądzenie przypadkowe z odbiciem.

 

0

 

1

 

2

 

3

1

 

4

1                 p p q p q q

(47)

47                  0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 p q p q p q P

(48)

48

Przykład.

Zapisz macierz P dla łańcuch a Markowa przedstawionego grafem

 

0

 

1

 

2

 

3 14//25

 

4 1 2 / 1 4 / 3 1 4 / 1                     1/5

(49)

49

P(n) = Pn = [pij(n)] - macierz prawdopodobieństw przejść od stanu i do stanu j w n krokach,

(50)

50

Równanie Chapmana, - Kołmogorowa:

m j m m i j i

k

l

p

k

p

l

p

(

)

(

)

(

)

(51)

51

Sydney Chapman (1888 – 1970) brytyjski

matematyk i geofizyk.

(52)

52

Andriej Kołmogorow (1903-1987) – rosyjski matematyk, m.in. sformułował aksjomaty

(53)

53

Własność:

Znając rozkład początkowy i macierz P możemy wyznaczyć rozkład zmiennej losowej Xn czyli prawdopodobieństwo znalezienia się w poszczególnych stanach po n krokach:

(p0(n), p1(n), ...) = (p0(0), p1(0), ...)Pn.

czyli

p(n) = p(0)P

n

(54)

54

Granicę   p()  nlim p(n) (o ile istnieje ) nazywamy rozkładem granicznym łańcucha Markowa.

(55)

55

Łańcuch Markowa dla którego istnieje rozkład graniczny niezależny od rozkładu początkowego p(0) nazywamy łańcuchem ergodycznym a rozkład graniczny nazywamy rozkładem ergodycznym.

(56)

56

Twierdzenie.

Rozkład graniczny nie zależy od rozkładu

początkowego p(0) wtedy i tylko wtedy, gdy wiersze macierzy granicznej

E

P

n

n

lim

są takie same (równe rozkładowi granicznemu  ).

Warunek ten jest spełniony dla macierzy P regularnej (jednokrotna wartość własna równa 1 i brak innych wartości własnych o module 1).

(57)

57

Twierdzenie.

Jeśli macierz stochastyczna P lub dowolna jej potęga ma wszystkie elementy dodatnie to odpowiadający jej łańcuch Markowa jest ergodyczny.

(58)

58

Sposoby wyznaczania rozkładu granicznego:

Sposób I.

Rozkład graniczny  jest jedynym niezerowym rozwiązaniem układu

(P

T

- I) 

T

= 0,

spełniającym warunek 1 1  

i i ,

(59)

59

Przykład.

Wyznaczyć rozkład ergodyczny łańcucha Markowa o macierzy            6 , 0 4 , 0 0 4 , 0 0 6 , 0 2 , 0 5 , 0 3 , 0 P

(60)

60

Należy rozwiązać równanie jednorodne

                                     0 0 0 4 , 0 4 , 0 2 , 0 4 , 0 1 5 , 0 0 6 , 0 7 , 0 2 1 0

(61)

61

Jest to układ nieoznaczony z jednym parametrem. Przyjmijmy np. 0 = 1, wtedy 1 = 28/24, 2 = 40/24. Dzieląc te rozwiązania przez ich sumę otrzymamy rozwiązanie unormowane

(62)

62 Sposób II.

k kk jj j

A

A

gdzie A

kk

to dopełnienia algebraiczne

macierzy I - P (wyznacznik podmacierzy

otrzymanej przez skreślenie tego wiersza i

k-tej kolumny macierzy I – P).

(63)

63

Przykład.

Wyznaczyć drugim sposobem rozkład ergodyczny łańcucha z poprzedniego przykładu.

(64)

64

Klasyfikacja stanów.

Będziemy utożsamiać stan s

k

z liczbą k.

Stan s

k

jest osiągalny ze stanu s

j

jeśli p

jk

(n) > 0

dla pewnego n,

Stany s

k

i s

j

nazywamy wzajemnie

komunikującymi się jeśli stan s

k

jest

(65)

65

Stan s

k

jest stanem nieistotnym gdy istnieje

stan s

j

osiągalny ze stanu s

k

a stan s

k

nie jest

osiągalny ze stanu s

j

,

(66)

66

Zbiór stanów C nazywamy zamkniętym,

jeżeli żaden stan spoza C nie da się osiągnąć

wychodząc z dowolnego stanu w C.

(67)

67

Pojedynczy stan zamknięty (musi być p

kk

= 1)

(68)

68

Łańcuch Markowa jest nieprzywiedlny, gdy

wszystkie jego stany wzajemnie komunikują

się.

(69)

69

Przy badaniu ewolucji łańcucha Markowa

w czasie chcemy wiedzieć, do których stanów

łańcuch powraca nieskończenie wiele razy,

a które

po

pewnym

czasie

opuszcza

bezpowrotnie.

(70)

70

Niech F

kj

będzie prawdopodobieństwem, że

łańcuch wychodząc ze stanu k dotrze

kiedykolwiek do stanu j.

        

n n kj P X j X k F ( | 0 )

(71)

71

Jeśli f

kj

(n) - prawdopodobieństwo, że

wychodząc ze stanu k łańcuch dojdzie po raz

pierwszy do stanu j w n-tym kroku

)

|

,

,....,

(

)

(

n

P

X

1

j

X

1

j

X

j

X

0

k

f

kj

n

n

to

F

kj

n

f

kj

(

n

)

(72)

72

Stan j nazywamy:

a) powracającym, gdy F

jj

= 1.

b) chwilowym gdy F

jj

< 1.

(73)

73

Twierdzenie.

W

nieprzywiedlnym

łańcuchu

Markowa

wszystkie stany są tego samego typu: jeżeli

jeden

jest

powracający

(chwilowy)

to

wszystkie są powracające (chwilowe).

Dlatego możemy mówić, że łańcuch jest np.

powracający.

(74)

74

Twierdzenie.

Przestrzeń stanów S łańcucha Markowa

można jednoznacznie przedstawić w postaci

sumy:

...

2 1

T

S

S

S

gdzie T - zbiór stanów chwilowych,

S

i

- nieprzywiedlne zamknięte zbiory stanów

(75)

75

Łańcuchy okresowe.

Okresem stanu j nazywamy liczbę:

o(j) = NWD(n: p

jj

(n)>0)

jest to największy wspólny dzielnik takich

liczb n, że powrót do stanu j może nastąpić po

n krokach.

Stan j nazywamy okresowym gdy ma okres

większy od 1 i nieokresowym gdy ma okres 1.

(76)

76

Twierdzenie.

W nieprzywiedlnym łańcuchu Markowa

wszystkie stany mają ten sam okres.

Zatem nieprzywiedlny łańcuch Markowa

nazywamy okresowym, gdy jego stany mają

okres większy od 1, w przeciwnym przypadku

łańcuch nazywamy nieokresowym.

(77)

77

Łańcuch ergodyczny.

Łańcuch jest ergodyczny jeśli istnieje

j ij n

p

(

n

)

lim

 1

j

Rozkład

nazywamy

rozkładem

(78)

78

Łańcuch stacjonarny.

Łańcuch jest stacjonarny, gdy istnieje rozkład

 zwany rozkładem stacjonarnym, że

P = 

W łańcuchu ergodycznym rozkład stacjonarny

(graniczny)

nie

zależy

od

rozkładu

początkowego.

(79)

79

Uwaga.

ergodyczny  stacjonarny

Każdy łańcuch o skończonej liczbie stanów

jest stacjonarny.

(80)

80

Twierdzenie.

Dla

nieprzywiedlnego,

nieokresowego

łańcucha Markowa (X

n

) dla którego istnieje

rozkład stacjonarny  mamy:

a) łańcuch (X

n

) jest powracający,

b) łańcuch (X

n

) jest ergodyczny,

c) rozkład stacjonarny jest jedyny oraz 

j

=1/

j

, gdzie 

j

jest średnim czasem powrotu

łańcucha do stanu j.

Cytaty

Powiązane dokumenty

W artykule przedstawiono wybrane metody obliczania osiadaĔ fundamentów oraz scharakteryzowano warunki stawiane przez Eurokod 7 w zakresie speánienia stanu granicznego

Zad. 273) Seminarium probabilistyczne jest organizowane przez matematy- ków z Torunia, Warszawy i Wrocławia. Na zakończenie każdego spotkania losuje się z równy-

1. 33) Jakie jest prawdopodobieństwo, że partia złożona z 4 sztuk pew- nego towaru będzie zalegać w magazynie więcej niż 1 dzień, jeśli sprzedaż tego towaru jest opisywana

[r]

Przejście pomiędzy stanami odbywa się w następujący sposób: z obu pudełek losujemy po jednej kuli i zamieniamy miejscami.. Znaleźć macierz przejścia dla takiego

[r]

[r]

Rozkład prawdopodobieństwa π na zbiorze stanów łańcucha Markowa, który nie zmienia się po wykonaniu jednego kroku, nazywamy rozkładem stacjonarnym:. π P