• Nie Znaleziono Wyników

Procesy stochastyczne

N/A
N/A
Protected

Academic year: 2021

Share "Procesy stochastyczne"

Copied!
58
0
0

Pełen tekst

(1)Procesy stochastyczne. Krzysztof Golec–Biernat Instytut Fizyki Jądrowej PAN w Krakowie. (30 kwietnia 2021) Wersja robocza nie do dystrybucji. Kraków 2006/07.

(2) 2.

(3) Spis treści 1 Podstawy. 6. 1.1. Prawdopodobieństwo . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 6. 1.2. Prawdopodobieństwo warunkowe . . . . . . . . . . . . . . . . . . . . .. 8. 1.3. Zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 8. 1.4. Momenty zmiennej losowej . . . . . . . . . . . . . . . . . . . . . . . . .. 9. 1.5. Funkcja charakterystyczna . . . . . . . . . . . . . . . . . . . . . . . . .. 10. 1.6. Kumulanty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 11. 2 Przykłady rozkładów prawdopodobieństw. 12. 2.1. Rozkład dwumianowy . . . . . . . . . . . . . . . . . . . . . . . . . . .. 12. 2.2. Bł¸adzenie przypadkowe . . . . . . . . . . . . . . . . . . . . . . . . . .. 13. 2.3. Rozkład Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 14. 2.4. Rozkład Gaussa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 15. 2.5. Rozkład Poissona a rozkład Gaussa . . . . . . . . . . . . . . . . . . . .. 16. 2.6. Błądzenie przypadkowe a rozkład Gaussa . . . . . . . . . . . . . . . .. 17. 3 Momenty i kumulanty faktorialne. 18. 3.1. Funkcja tworząca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 18. 3.2. Momenty i kumulanty faktorialne . . . . . . . . . . . . . . . . . . . . .. 19. 3.

(4) 4 Rozkłady wielu zmiennych losowych. 21. 4.1. Momenty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 21. 4.2. Kumulanty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 22. 4.3. Wielowymiarowy rozkład Gaussa . . . . . . . . . . . . . . . . . . . . .. 23. 4.4. Stała normalizacyjna . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 24. 4.5. Funkcja charakterystyczna rozkładu Gaussa . . . . . . . . . . . . . . .. 25. 4.6. Twierdzenie Wicka . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 26. 4.7. Centralne twierdzenie graniczne . . . . . . . . . . . . . . . . . . . . . .. 28. 5 Procesy stochastyczne. 29. 5.1. Definicja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 29. 5.2. Prawdopodobieństwo warunkowe . . . . . . . . . . . . . . . . . . . . .. 30. 5.3. Procesy Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 31. 5.4. Równanie Chapmana-Kołmogorowa-Smoluchowskiego . . . . . . . . .. 32. 5.5. Stacjonarny proces Markowa . . . . . . . . . . . . . . . . . . . . . . .. 33. 5.6. Proces dwudzielny – losowego telegrafu . . . . . . . . . . . . . . . . . .. 33. 5.7. Proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 34. 5.8. Proces Ornsteina-Uhlenbecka . . . . . . . . . . . . . . . . . . . . . . .. 36. 5.9. Proces Wienera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 37. 6 Równanie Master. 39. 6.1. Małe różnice czasów . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 39. 6.2. Wyprowadzenie równania Master . . . . . . . . . . . . . . . . . . . . .. 40. 6.3. Entropia rozkładu jednocząstkowego . . . . . . . . . . . . . . . . . . .. 41. 6.4. Równanie Master dla stanów dyskretnych . . . . . . . . . . . . . . . .. 42. 4.

(5) 7 Procesy jednokrokowe. 44. 7.1. Proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 45. 7.2. Symetryczne bl¸adzenie przypadkowe . . . . . . . . . . . . . . . . . . .. 46. 7.3. Równania ewolucji QCD . . . . . . . . . . . . . . . . . . . . . . . . . .. 47. 8 Ruchy Browna. 53. 8.1. Równanie Fokkera-Plancka . . . . . . . . . . . . . . . . . . . . . . . .. 53. 8.2. Interpretacja współczynników funkcyjnych . . . . . . . . . . . . . . . .. 55. 8.3. Równanie dyfuzji . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 55. 8.4. Bł¸adzenie przypadkowe . . . . . . . . . . . . . . . . . . . . . . . . . .. 56. 8.5. Dyfuzja a procesy Wienera . . . . . . . . . . . . . . . . . . . . . . . .. 57. 5.

(6) Rozdział 1. Podstawy 1.1. Prawdopodobieństwo. Rachunek prawdopodobieństwa jest działem matematyki badającym własności modeli opisujących zjawiska przypadkowe. Zjawisko przypadkowe (lub statystyczne) to zjawisko, które w wyniku wielokrotnego powtarzania przy tych samych warunkach początkowych daje różne wyniki. Pojęciem pierwotnym w rachunku prawdopodobieństwa jest zdarzenie elementarne ω. Na przykład, wynik rzutu monetą - orzeł lub reszka - jest takim zdarzeniem. Zbiór zdarzeń elementarnych oznaczamy przez Ω. W naszym przykładzie Ω = {ωO , ωR } .. (1.1). Niech 2Ω oznacza zbiór wszystkich podzbiorów zbioru Ω: 2Ω = {A; A ⊂ Ω} .. (1.2). 2Ω = {∅, {ωO } , {ωR }, {ωO , ωR }} ,. (1.3). W naszym przykładzie. gdzie ∅ oznacza zbiór pusty. Rodzinę zbiorów M ⊂ 2Ω nazywamy σ-algebrą zbiorów, gdy spełnione są następujące warunki: 6.

(7) 1. Ω ∈ M 2. A ∈ M => Ω − A ∈ M 3. An ∈ M dla n = 1, 2, . . .. ∞ S. =>. n=1. An ∈ Ω. Przykładami sigma algebry zbiorów to M = {∅, Ω} ,. M = 2Ω .. (1.4). Elementy sigma algebry, A ∈ M, nazywamy zdarzeniami losowymi. Wprowadza się następującą terminologię: • A = ∅ nazywa się zdarzeniem niemożliwym. • A = Ω nazywa się zdarzeniem pewnym. • A0 = Ω − A nazywa się zdarzeniem przeciwnym do zdarzenia A. Odwzorowanie sigma algebry w zbiór liczb rzeczywistych P : M → R. (1.5). nazywamy miarą unormowaną gdy 1. P (A) ­ 0 2. P (Ω) = 1 3. P jest funkcją przeliczalnie addytywną, tzn. P(. ∞ [. An ) =. ∞ X. P (An ). (1.6). n=1. n=1. dla każdego ciągu zbiorów An ∈ M parami rozłacznych, tzn. Ai ∩ Aj = ∅ dla dowolnych i, j ∈ N,. Trójkę. (Ω , M, P ). (1.7). nazywamy przestrzenią prawdopodobieństwa, gdy Ω 6= ∅ jest zbiorem zdarzeń elementarnych, M jest sigma algebrą zdarzeń losowych, natomiast P jest miarą unormowaną określoną na M. Nazywamy ją wtedy prawdopodobieństwem. Wypiszmy kilka własności prawdopodobieństwa: 7.

(8) 1. P (∅) = 0 2. A ⊂ B => P (B − A) = P (B) − P (A) 3. A ⊂ B => P (A) ¬ P (B) 4. 0 ¬ P (A) ¬ 1 5. P (A0 ) = 1 − P (A) 6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B). 1.2. Prawdopodobieństwo warunkowe. Prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, że zaszło zdarzenie B jest określone przez P (A ∩ B) . (1.8) P (A|B) = P (B) Zauważając, że P (A ∩ B) = P (A|B) P (B) P (B ∩ A) = P (B|A) P (A) ,. (1.9). otrzymujemy wzór Bayesa P (A|B) =. 1.3. P (B|A) P (A) . P (B). (1.10). Zmienne losowe. Zmienną losową X jest odwzorowanie zbioru zdarzeń elementarnych w zbiór liczb rzeczywistych X : Ω → R. (1.11) W praktyce zmienna losowa jest określona jeśli podamy: (a) zbiór I jej dopuszczalnych wartości liczbowych (b) rozkład prawdopodobieństwa zadany na tym zbiorze. 8.

(9) Zbiór dopuszczalnych wartości I może być dyskretny, ciągły lub dyskretny i ciągły. Zbiór ten może być wielowymiarowy. W przypadku pojedynczej dyskretnej zmiennej losowej rozkład prawdopodbieństwa dany jest nieujemną funkcją P (xi ) ­ 0 , unormowaną do jedynki. X. i = 1, 2, . . . P (xi ) = 1 .. (1.12) (1.13). i. Dla zmiennej losowej o wartościach ciągłych definujemy gęstością prawdopodobieństwa p(x) taką, że iloczyn p(x) dx (1.14) jest prawdopodobieństwem tego że zmienna losowa X przyjmuje wartości z przedziału (x, x + dx). Warunek unormowania przyjmuje teraz postać Z. p(x) dx = 1 .. (1.15). I. 1.4. Momenty zmiennej losowej. Jeśli f (X) jest funcją liczbową określona na tym samym zbiorze co zmienna losowa X to jej wartość średnia to hf (X)i =. Z. f (x) p(x) dx. (1.16). W szczególności m-ty moment zmiennej losowej X to µm = hX m i =. Z. xm p(x) dx .. (1.17). Liczba µ1 to wartość średnia zmiennej losowej X, µ1 = hXi =. Z. x p(x) dx ,. (1.18). natomiast wariancja X to D. E. 2 σX = (X − hXi)2 =. = µ2 − (µ1 )2 .. Z. (x − hXi)2 p(x) dx (1.19). 9.

(10) Nie wszystkie rozkłady prawdopodobieństwa posiadają skończone momenty, na przykład rozkład Lorentza, p(x) =. 1 P , π (x − a)2 + P 2. x ∈ R,. (1.20). ich nie posiada. Ze względu na symetrię możemy jednak przyjąć µ1 = a.. 1.5. Funkcja charakterystyczna. Funkcja charakterystyczna zmiennej losowej X to G(k) =. D. eikX. E. =. Z. dx eikx p(x). (1.21). |G(k)| < 1 .. (1.22). I. łatwo się przekonać, że zachodzi G(0) = 1 ,. G(k) jest funkcją tworzącą dla momentów µm . Rozwijając bowiem eksponentę pod całką w szereg Taylora znajdziemy G(k) =. Z. dx I. ( ∞ ) X (ikx)m m=0. m!.   Z ∞  X (ik)m  dx xm p(x) . p(x) =  m!  m=0. I. i ostatecznie G(k) =. ∞ X (ik)m m=0. m!. µm. (1.23). Stąd wynika następujący wzór dla momentów dm G

(11)

(12) = . d (ik)m

(13) k=0

(14). µm. (1.24). Tak więc pochodne G(k) w punkcie k = 0 istnieją do tego samego rzędu co momenty. 10.

(15) 1.6. Kumulanty. Logarytm funkcji charakterystycznej służy do zdefiniowania kumulant κm zmiennej losowej X ∞ X (ik)m ln G(k) = κm (1.25) m! m=0 i stąd otrzymujemy wzór dla kumulant κm =. dm ln G(k)

(16)

(17) . d (ik)m

(18) k=0

(19). (1.26). Kumulanty są kombinacjami momentów, przykładowo κ1 = µ1 κ2 = µ2 − µ21 = σ 2 κ3 = µ3 − 3 µ2 µ1 + 2 µ31 κ3 = µ4 − 4 µ3 µ1 − 3 µ22 + 12 µ2 µ21 − 6 µ41 .. (1.27). Pierwsza kumulanta jest więc równa wartości średniej zmiennej µX losowej, a druga 2 . jej wariancji σX. 11.

(20) Rozdział 2. Przykłady rozkładów prawdopodobieństw 2.1. Rozkład dwumianowy. Rozpatrzmy N prób. Pytamy jakie jest prawdopodobieństwo n sukcesów jeśli prawdopodbieństwo pojedynczego sukcesu wynosi p. Jesli próby są niezależne to prawdopobieństwo jest iloczynem trzech czynników: • liczby sposobów, na które n sukcesów realizuje się w N próbach:. N n. • prawdopodobieństwa odniesienia n sukcesów: pn • prawdopodbieństwa porażki w pozostałych próbach: (1 − p)N −n . Stąd wzór dla rozkładu dwumianowego, w którym zmienna losowa przyjmuje skończoną liczbę wartości, n = 0, 1, 2, . . . , N : !. N pn (1 − p)N −n n. PN (n, p) = gdzie symbol Newtona N n. !. =. N! n!(N − n)! 12. (2.1). (2.2).

(21) Prawdopodobieństwo p jest parametrem tego rozkładu. Jest on unormowany do jedynki ! N N X X N PN (n, p) = pn (1 − p)N −n = (p + 1 − p)N = 1 . (2.3) n n=0 n=0 Funkcja charakterystyczna rozkładu dwumianowego to GN (k) =. N X. e. ikn. PN (n, p) =. n=0. N X n=0. !. N (eik p)n (1 − p)N −n n. = (1 − p + eik p)N .. (2.4). Stąd funkcjonał generujący dla kumulant ln GN (k) = N ln(1 + p (eik − 1)). (2.5). Licząc kumulanty ze wzoru (1.26), znajdujemy wartość średnią i dyspersję

(22). 2.2.

(23) p eik

(24) = Np κ1 = µ1 = N

(25) 1 + p (eik − 1)

(26) k=0. (2.6). κ2 = σ 2 = N p (1 − p) .. (2.7). Bła ¸dzenie przypadkowe. Szczególnym przypadkiem rozkładu dwumianowego jest rozkład opisujący jednowymiarowe błądzenie przypadkowe z równymi prawdopodobieństwami ruchu w prawo i w lewo, p = q = 1/2, ! 1 N . (2.8) PN (n, 1/2) = N 2 n Wartość średnia i dyspersja w tym przypadku to µ1 (n) =. N , 2. σ 2 (n) =. N . 4. (2.9). Sumaryczne przesunięcie r z punktu startowego po N krokach jest zmienną losową równą r = n − (N − n) = 2n − N . (2.10) o zakresie −N ¬ r ¬ N . Zauważmy, że r i N są obie parzyste lub nieparzyste. 13.

(27) Rozkład prawdopodobieństwa r otrzymujemy z rozkładu (2.8) wyliczając n = (N + r)/2 z (2.10) i podstawiając do (2.8), PN (r) =. 1 N! . 2N ((N − r)/2)!((N + r)/2)!. (2.11). Wartośc średnia i dyspersja sumarycznego przesunięcia to odpowiednio µ1 (r) = 0 ,. 2.3. σ 2 (r) = N .. (2.12). Rozkład Poissona. Dla dużej liczby prób N i małego prawdopodbieństwa pojedynczego sukcesu rozkład dwumianowy przechodzi w rozkład Poissona w następującej granicy p → 0,. N → ∞,. N p = µ = const .. (2.13). Podstawiając p = µ/N do (2.1), otrzymujemy . PN n ,. µ N. . =. N! n! (N − n)!. . µ N. n . 1−. 1 N! = (N − n)! N n (1 − µ/N )n. µ N.  n  µ. N (N − 1) . . . (N − n + 1) = (N − µ)n =. (1 −. 1 n−1 N ) . . . (1 − N ) µ n (1 − N ). N −n. n!. µ 1− N.  n  µ. µ 1− N. n!.  n  µ. 1−. n!. N. µ N. N. N. (2.14). Wykonając granicę N → ∞ przy ustalonej liczbie sukcesów n, znajdujemy . lim PN n ,. N →∞. µ N. . =. µn µ lim 1 − n! N →∞ N . N. =. µn −µ e . n!. (2.15). Stąd rozkład Poissona zmiennej losowej n = 0, 1, 2, . . . P (n, µ) = 14. µn −µ e . n!. (2.16).

(28) Jest to rozkład unormowany do jedynki ∞ X. P (n, µ) = e−µ. n=0. ∞ X µn n=0. n!. = e−µ e µ = 1 .. (2.17). Policzmy funkcję charakterystyczną G(k) =. ∞ X. eikn P (n, µ) = e−µ. n=0. ∞ X (eik µ)n n=0. n!. = e−µ exp{eik µ}. = exp{µ (eik − 1)} .. (2.18). Stąd funkcjonał generujący dla kumulant ln G(k) = µ (eik − 1) =. ∞ X (ik)m m=1. m!. µ.. (2.19). Widzimy, że wszystkie kumulanty są identyczne i równe wartości średniej κm = µ. (2.20). Stąd wartość średnia i wariancja rozkładu Poissona są sobie równe σ 2 = hni = µ .. 2.4. (2.21). Rozkład Gaussa. Rozkład Gaussa jest określony dla zmiennej losowej X o wartościach rzeczywistych x ∈ (−∞, ∞): 1 2 2 p(x) = √ (2.22) e−(x−µ) /2 σ 2πσ 2 Normalizacja jest tak dobrana, że rozkład jest unormowany do jedynki Z∞. dx p(x) = 1 .. (2.23). −∞. Licząc funkcję charakterystyczną otrzymujemy G(k) =. Z∞. 1. eikx P (x) dx = eikµ− 2 σ. −∞. 15. 2 k2. .. (2.24).

(29) Stąd funkcjonał generujący dla kumulant ln G(k) = ikµ −. 1 2 2 (ik)2 2 σ k = ikµ + σ . 2 2!. (2.25). Wykorzystując definicję (1.25), znajdujemy różne od zera tylko dwie pierwsze kumulanty κ1 = µ , κ2 = σ 2 , κk>2 = 0 . (2.26) Z relacji (1.27) wynika, że µ to wartość średnia, a σ 2 to wariancja zmiennej losowej √ X. Wielkość σ = σ 2 to dyspersja, która określa szerokość rozkładu Gaussa.. 2.5. Rozkład Poissona a rozkład Gaussa. Dla dużych wartości parametru µ  1, rozkład Poissona, P (n, µ) =. µn −µ e , n!. (2.27). dąży do rozkładu Gaussa dla wartości zmiennej losowych n bliskich µ, n ≈ µ. Korzystając ze wzoru Stirlinga dla dużych n √ n! ≈ nn e−n 2πn , (2.28) zapiszemy wzór (2.27) w postaci P (n, µ) ≈ √. 1 1 en ln µ−µ = √ en−µ + n ln(µ/n) . n ln n−n e 2πn 2πn. (2.29). Dla wartości n ≈ µ możemy rozwinąć ln(µ/n) = ln(1 + (µ/n − 1)) ≈ (µ/n − 1) − 21 (µ/n − 1)2 . Stąd otrzymujemy P (n, µ) ≈ √. 1 2 e−(n−µ) /(2n) . 2πn. (2.30). (2.31). Wykorzystując następnie warunek n ≈ µ, znajdujemy rozkład Gaussa, P (n, µ) ≈ √ o wartości średniej µ i szerokości. √. 1 2 e−(n−µ) /(2µ) , 2πµ. µ 16. (2.32).

(30) 2.6. Błądzenie przypadkowe a rozkład Gaussa. Dla dużej liczby kroków N , rozkład (2.11) błądzenia przypadkowego jest bliski rozkładowi Gaussa. Korzystając ze wzoru Stirlinga (2.28) znajdujemy 1 N! 2N ((N − r)/2)!((N + r)/2)! √ N N 2πN p ≈ (N − r)(N −r)/2 (N + r)(N +r)/2 π 2 (N − r)(N + r). PN (r) =. (2.33). Porządkując to wyrażenie otrzymujemy s. PN (r) ≈ s. =. 2 1 2 2 (N −r)/2 πN (1 − r /N ) (1 − r/N ) (1 + r/N )(N +r)/2. (2.34). 2 N −r N +r exp − ln(1 − r/N ) − ln(1 + r/N ) πN (1 − r2 /N 2 ) 2 2 . . Wykorzystując przybliżenie ln(1 + x) = x − x2 /2 dla x  1 dostajemy dla r  n PN (r) ≈. r. 2 N −r exp − πN 2 (. r2 1 exp − ≈ 2√ 2N 2πN (. r r2 − − N 2N 2. !. N +r − 2. r r2 − N 2N 2. !). ). (2.35). Otrzymaliśmy w ten sposób rozkład proporcjonalny (z czynnikiem 2) do rozkładu Gaussa o wartości średniej i dyspersji µ1 (r) = 0 ,. σ 2 (r) = N .. 17. (2.36).

(31) Rozdział 3. Momenty i kumulanty faktorialne 3.1. Funkcja tworząca. Rozkłady prawdopodobieństwa P (n) zmiennej dyskretnej n można generować przy pomocy funkcji tworzącej Z(x) =. ∞ X. xn P (n). (3.1). n=0. Zakładając, że jest to szereg zbieżny w zmiennej x w pewnym przedziale zbieżności o promieniu R > 1 wokół x = 0 widzimy, że P (n) są proporcjonalne do współczynników rozwinięcia funkcji tworzącej w szereg Taylora. Stąd 1 dn Z

(32)

(33) P (n) = n! dxn

(34) x=0

(35). (3.2). P (n) = 1. (3.3). Warunek unormowania prawdopodobieństwa to Z(1) =. ∞ X n=0. Przykładowo, dla prawdopodobieństwa Poissona P (n, µ) = znajdujemy Z(x) =. ∞ X n=0. xn. µn −µ e n!. ∞ X µn −µ (xµ)n e = e−µ = eµ(x−1) n! n! n=0. 18. (3.4). (3.5).

(36) 3.2. Momenty i kumulanty faktorialne. Zdefiniujmy nową funkcję. F (x) = ln Z(x). (3.6). F (1) = 0. (3.7). Zauważmy, że. Rozwińmy więc tę funkcję w szereg Taylora wokół x = 1 F (x) =. ∞ X cn n=1. n!. (x − 1)n. (3.8). Współczynniki rozwinięcia dla n ­ 1 dn F (x)

(37)

(38) cn = dxn

(39) x=1

(40). (3.9). nazywamy kumulantami faktorialnymi lub korelacjami rozkładu prawdopodobieństwa P (n), Dla rozkładu Poissona otrzymujemy z równania (3.5) F (x) = µ(x − 1) ,. (3.10). w więc tylko pierwszy współczynnik jest różny od zera c1 = µ ,. cn­2 = 0 .. (3.11). Przypomnijmy, że normalne kumulanty dla rozkładu Poissona to κk = µ k. (3.12). natomiast dla rozkładu Gaussa jedyne niezerowe kumulanty to κ1 = µ ,. κ2 = σ 2. (3.13). Tak więc kumulanty faktorialne ck pełnią dla rozkładu Poissona taka samą rolę jaką pełnią normalne kumulanty κk dla rozkładu Gaussa. Oba rodzaje kumulant pozwalają scharakteryzować te rozkłady jako rozkłady graniczne z punktu widzenia innych rozkładów. Moment faktorialny k−tego rzędu rozkładu prawdopodobieństwa P (n) to hnik =. ∞ X. n(n − 1) . . . (n − k + 1) P (n). n=k. 19. (3.14).

(41) gdzie k = 1, 2, . . .. Dla k = 1 otrzymujemy wartość średnią hni1 =. ∞ X. n P (n) = n. (3.15). n(n − 1) P (n). (3.16). n=1. Natomiast dla k = 2 mamy hni2 =. ∞ X n=2. Momenty faktorialne można generować przy pomocy funkcji tworzącej Z(x) poprzez kolejne różniczkowania po zmiennej x dk Z(x)

(42)

(43) hnik = dxk

(44) x=1

(45). (3.17). Otrzymujemy więc je ze współczynników rozwinięcia Taylora Z(x) wokół x = 1, Z(x) =.

(46) ∞ X 1 dk Z

(47)

(48) k! dxk

(49). k=0. (x − 1)k = x=1. ∞ X hnik (x − 1)k k=0. k!. (3.18). gdzie dodatkowo zdefiniowaliśmy hni0 = 1. Dla rozkładu Poissona znajdujemy Z(x) = eµ(x−1) =. ∞ X µk k=0. i stąd. k!. (x − 1)k. hnik = µk = nk. (3.19). (3.20). Momenty faktorialne hnik są powiązane z korelacjami cn . Dla kolejnych współczynników otrzymujemy, wykorzystując warunek Z(1) = 1, 1 dZ

(50)

(51) d ln Z

(52)

(53) c1 = = = hni1

(54) dx x=1 Z dx

(55) x=1

(56).

(57). c2 =. 1 − 2 Z. c3 =. 2 Z3. . (3.21). 1 d2 Z

(58)

(59) + = hni2 − hni21 Z dx2

(60) x=1 !

(61). . dZ dx. 2. dZ dx. 3. 3 dZ d2 Z 1 d3 Z

(62)

(63) − 2 + = hni3 − 3 hni1 hni2 + 2 hni31 Z dx dx2 Z dx3

(64) x=1 !

(65). Związek pomiędzy kumulantami faktorialnymi, a momentami faktorialnymi jest taki sam jak związek pomiędzy kumulantami, a momentami rozkładu, równanie (1.27). 20.

(66) Rozdział 4. Rozkłady wielu zmiennych losowych Dla wielu zmiennych losowych X1 , X2 , . . . , Xn definiuje się łączny rozkład gęstości prawdopodobieństwa, Pn (x1 , x2 , . . . , xn ) ­ 0 , (4.1) że przyjmują one wartości odpowiednio z przedziałów (xi , xi + dxi ). Rozkład ten jest unormowany do jedynki. Z. Pn (x1 , . . . , xn ) dx1 . . . dxn = 1 .. (4.2). Całkując po k < n zmiennych otrzymuje sie rozkłady brzegowe Pm (x1 , . . . , xm ) =. Z. Pn (x1 , . . . , xm , xm+1 , . . . , xn ) dxm+1 . . . dxn. (4.3). Jeżeli zmienne losowe Xi są niezależne to rozkład (4.1) jest iloczynem rozkładów prawdopodobieństwa poszczególnych zmiennych losowych Pn (x1 , x2 , . . . , xn ) =. n Y. P (i) (xi ). (4.4). i=1. 4.1. Momenty. Dla rozkładów wielu zmiennych losowych funkcja charakterystyczna to transformata Fouriera Gn (k1 , . . . , kn ) =. Z. ei(k1 x1 +...+kn xn ) Pn (x1 , . . . , xn ) dx1 . . . dxn . 21. (4.5).

(67) Jeśli zmienne losowe są niezależne to z (4.4) wynika wzór Gn (k1 , . . . , kn ) =. n Y. G(i) (ki ) ,. (4.6). i=1. gdzie G(i) (ki ) to funkcje charakterystyczne rozkładów pojedynczej zmiennej. Momenty wielowymiarowego rozkładu hX1m1. . . . Xnmn i. =. Z. mn 1 xm 1 . . . xn Pn (x1 , . . . , xn ) dx1 . . . dxn .. (4.7). są generowane przez rozwinięcie funkcji charakterystycznej w szereg Taylora ∞ X. Gn (k1 , . . . , kn ) =. (m1 ...mn. (ik1 )m1 . . . (ikn )mn hX1m1 . . . Xnmn i (m )! . . . (m )! 1 n )=0. (4.8). gdzie sumujemy po wszystkich ciągach n-wyrazowych (m1 , . . . , mn ).. 4.2. Kumulanty. Wielowymiarowe kumulanty hhX1m1 . . . Xnmn ii definiujemy poprzez rozwinięcie w szereg Taylora logarytmu funkcji charakterystycznej (4.8): ln Gn (k1 , . . . , kn ) =. ∞ X (m1 ...mn. (ik1 )m1 . . . (ikn )mn hhX1m1 . . . Xnmn ii (m1 )! . . . (mn )! )0 =0. (4.9). gdzie z sumowania wyłaczony jest człon z m1 = . . . = mn = 0. Ważną kumulantą jest (n × n) wymiarowa macierz kowariancji hhXi Xj ii = h(Xi − hXi i)(Xj − hXj i)i = hXi Xj i − hXi i hXj i .. (4.10). Diagonalne elementy tej macierzy to wariancje poszczególnych zmiennych losowych, σi2 =. 2 2 Xi = Xi − (hXi i)2 ,. (4.11). natomiast elementy pozadiagonalne to kowariancje. covij =. . Xi Xj , 22. i 6= j .. (4.12).

(68) Współczynniki korelacji to hhXi Xj ii ρij = q. . . Xi2 Xj2. (4.13). Rozważmy przypadek n = 2 ze zmiennymi losowymi X1 i X2 . Zmienne są statystycznie niezależne jeśli spełniony jest któryś spośród poniższych warunków. Implikuje on wtedy pozostałe. • wszystkie momenty faktoryzują się: hX1m1 X2m2 i = hX1m1 i hX2m2 i • funkcja charakterystyczna faktoryzuje się: G(k1 , k2 ) = G1 (k1 )G2 (k2 ) • kumulanty znikają: hhX1m1 X2m2 ii = 0 ,. jeśli m1 , m2 6= 0.. Słabszym warunkiem od statystycznej niezależności jest brak korelacji, co wyraża się znikaniem kowariancji hhX1 X2 ii = 0 .. 4.3. (4.14). Wielowymiarowy rozkład Gaussa. Wprowadzając notację wektorową x = (x1 , x2 , . . . , xn ) wielowymiarowy rozkład Gaussa jest określony przez wzór n. Pn (x) = C exp − 12 xTA x + bT x. o. (4.15). gdzie A = AT jest dodatnio określoną macierzą symetryczną o wymiarze (n × n), natomiast b jest stałym wektorem n-wymiarowym. Stała C jest tak dobrana by rozkład P (x) był unormowany do jedynki Z. dn x Pn (x) = 1 .. (4.16). gdzie dn x = dx1 dx2 . . . dxn . Tak więc należy policzyć C −1 =. Z. n. o. dn x exp − 21 xT A x + bT x . 23. (4.17).

(69) 4.4. Stała normalizacyjna. Z symetryczności macierzy A wynika, że istnieje macierz ortogonalna O, diagonalizująca A Λ = diag(λ1 , λ2 , . . . , λn ) = OT AO . (4.18) Z dodatniej określoności A wynika, że wartości własne λi > 0. Ponadto Λ−1 = diag. . 1 1 1 , ,..., λ1 λ2 λn. . = O−1 A−1 (OT )−1 = OT A−1 O ,. (4.19). gdyż własność ortogonalności macierzy O prowadzi do O−1 = OT . Wykonując więc transformację x = Oy we wzorze (4.17), dostajemy C. −1. = =. Z. n. dn y exp − 12 yT Λ y + (OT b)T y. n Z∞ Y. n. o. o. dyi exp − 12 λi yi2 + b0i yi ,. (4.20). i=1 −∞. gdzie wprowadziliśmy oznaczenie b0i = (b0 )i = (OT b)i . Wykładnik eksponenty można zapisać w następującej formie λi b0 − yi2 − 2 i yi 2 λi . Zmieniając więc zmienne x0i i pamiętając, że. . b0 λi yi − i = − 2 λi. s. b0 λi yi − i 2 λi. = Z∞. . . 2. dx e−x =. √. 2. +. b0i 2 . 2λi. (4.21). . (4.22). ,. (4.23). π,. −∞. znajdujemy s. C −1 = s. =. 2n exp λ1 . . . λn. (. (2π)n exp λ1 . . . λn. (. n 1X b0i 2 2 i=1 λi. ) n Z∞ Y. n 1X b0i 2 2 i=1 λi. ). 24. 02. dx0i e−xi. i=1 −∞. .. (4.24).

(70) Iloczyn wartości własnych jest równy wyznacznikowi macierzy Λ, stąd λ1 . . . λn = det Λ = det A (det O)2 = det A .. (4.25). gdyż det O = 1. Korzystając z wzoru (4.19) możemy zapisać sumę z eksponenty we wzorze (4.24) w postaci: n X b0 2 i. i=1. λi. = (b0 )T Λ−1 b0 = bT (O Λ−1 OT ) b = bT A−1 b .. (4.26). Ostatecznie otrzymujemy s. C −1 =. (2π)n exp{ 12 bT A−1 b} det A. (4.27). i stała normalizacyjna rozkładu Gaussa wynosi s. C =. det A exp{− 12 bT A−1 b} (2π)n. (4.28). łącząc wzór (4.19) z wynikiem (4.27), otrzymujemy przy tej okazji następujący ważny wzór Z. 4.5. s n. dn x exp − 21 xT A x + bT x. o. =. (2π)n exp{ 12 bT A−1 b} det A. (4.29). Funkcja charakterystyczna rozkładu Gaussa. Obliczmy funkcję charakterystyczną rozkładu Gaussa (4.15) Gn (k) =. Z. =C =C. dn x eik·x Pn (x) Z. dn x exp − 12 xTA x + (b + ik)T x. s. (2π)n exp{ 12 (b + ik)T A−1 (b + ik)}. det A. n. o. (4.30). Stąd po podstawieniu wartości stałej normalizacyjnej, znajdujemy Gn (k) = exp{− 12 kT A−1 k + i kT A−1 b} 25. (4.31).

(71) Logarytm funkcji korelacji to ln Gn (k) = − 12 kT A−1 k + i kT A−1 b =. n X (iki )(ikj ). 2. i,j=1. (A−1 )ij +. n X. (iki )(A−1 b)i .. (4.32). i=1. Stąd jedynie niezerowe kumulanty to wartości średnie hXi i = hhXi ii = (A−1 b)i. (4.33). hhXi Xj ii = (A−1 )ij .. (4.34). oraz macierz kowariancji. Rozkład Gaussa jest więc całkowicie określony przez wartości średnie i macierz kowariancji zmiennych. Jeżeli zmienne losowe nie są skorelowane, tzn. hhXi Xj ii ∼ δij , to macierz A−1 jest diagonalna, a zatem i A jest diagonalna. Wtedy wielowymiarowy rozkład Gaussa faktoryzuje się co oznacza, że zmienne losowe są statystycznie niezależne. Tak więc dla rozkładu Gaussa brak korelacji oznacza niezależność statystyczną. Niezależność tą można zawsze uzyskać dokonując liniowej transformacji zmiennych (4.22).. 4.6. Twierdzenie Wicka. Rozważmy rozkład Gaussa z b = 0: n. o. Pn (x) = C exp − 21 xTA x ,. (4.35). co oznacza, że wartość średnia każdej zmiennej losowej jest równa zeru. Wtedy zachodzi hhXi Xj ii = hXi Xj i = (A−1 )ij , (4.36) a funkcja charakterystyczna to n. Gn (k) = exp − 21 kT A−1 k = exp. . −. 1 2. n X. o. (A−1 )ij ki kj. . i,j=1. =. n Y. n. exp − 21 (A−1 )ij ki kj. i,j=1. 26. o. .. (4.37).

(72) Rozwijając eksponentę w szereg Taylora, znajdujemy Gn (k) =. ∞ X. n Y. i,j=1 m=0. =. 1 m!. . (iki )(ikj ) hXi Xj i 2. n  Y i,j=1. m. (iki )(ikj ) 1+ hXi Xj i + . . . 2. . .. (4.38). W sumie występuje tylko parzysta liczba czynników (iki ). Oznacza to, że różne od zera są tylko momenty z parzystą liczbą (m1 + . . . + mn ) we wzorze Gn (k) =. ∞ X (m1 ...mn. (ik1 )m1 . . . (ikn )mn hX1m1 . . . Xnmn i . (m )! . . . (m )! 1 n )=0. (4.39). Interesują nas momenty z mi ¬ 1, (4.40). hXi1 Xi2 . . . Xi2k i , w których liczba składników jest parzysta, a wskaźniki różnią się między sobą. (4.41). i1 < i2 < . . . < i2k .. Wtedy wyrażenia reprezentowane przez kropki w (4.38) nie dają wkładu do momentów. Porównując prawe strony wyrażeń (4.39) i (4.38), otrzymujemy hXi1 Xi2 . . . Xi2k i =. X. hXi Xj i hXk Xl i . . . hXm Xn i ,. (4.42). gdzie sumowujemy po wszystkich podziałach ciągu (i1 , i2 , . . . i2k ) na uporządkowane pary. Liczba takich podziałów to (2k − 1)(2k − 3) . . . 3 · 1 =. (2k)! . 2k k!. (4.43). Czynnik 1/2 ze wzoru (4.38) nie pojawia się po prawej stronie (4.42), gdyż każda para wskaźników występuje dwukrotnie w iloczynie w tym wzorze. Przykładowo, dla k = 2 znajdujemy hX1 X2 X3 X4 i = hX1 X2 i hX3 X4 i + hX1 X3 i hX2 X4 i + hX1 X4 i hX2 X3 i . 27.

(73) 4.7. Centralne twierdzenie graniczne. Rozważmy n niezależnych zmiennych losowych X1 , X2 , . . . , Xn posiadających taką samą wartość średnią µ i wariancję σ 2 . Poza tym ich indywidualne rozkłady prawdopodobieństwa są dowolne. Centralne twierdzenie graniczne orzeka, że dla n → ∞, zmienna losowa X1 + X2 + . . . + Xn − nµ √ Y = (4.44) σ n jest opisywana rozkładem Gaussa z wartością średnią hY i = 0 i wariancją σ 2 = 1. Dowód przeprowadzimy definiując nowe zmienne losowe X i = Xi −µ, dla których. wartość średnia X i = 0. Nie wpływa to na wariancje, gdyż dla nowej zmiennej mamy. 2. σX 2 = X i i. = (Xi − µ)2 = σ 2 .. (4.45). Funkcja charakterystyczna zmiennej Y to G(k) = =. Z. eik(x1 +...+xn )/(σ. n Y i=1. G. (i). . k √. σ n. . √. n). =. P (1) (x1 ) . . . P (n) (xn ) dx1 . . . dxn k2 + ... 1− 2n. !n. 1. 2. → e− 2 k .. W granicy dużych n otrzymaliśmy funkcję charakterystyczną rozkładu Gaussa (2.24) o zerowej wartości średniej i wariancji σ 2 = 1. Zaniedbane wyrazy w nawiasie są co najmniej rzędu 1/n2 i mogą być pominięte w rozważanej granicy.. 28.

(74) Rozdział 5. Procesy stochastyczne 5.1. Definicja. Funkcja losowa Y to odwzorowanie liczb rzeczywistych w zbiór zmiennych losowych Y : t → Y (t) .. (5.1). W zależności od tego jaką zmienną jest t, funkcję losową nazywamy • procesem stochastycznym gdy t ∈ [0, ∞), • łańcuchem stochastycznym, gdy t ∈ Z, • polem stochastycznym jeśli t ∈ RD . Proces stochastyczny jest całkowicie określony poprzez zbiór łącznych (gęstości) prawdopodobieństw dla dowolnych chwil ti : Pn (y1 , t1 ; . . . ; yn , tn ) ,. n = 1, 2, . . . .. (5.2). W przypadku ciągłych wartości zmiennych losowych, wielkość Pn (y1 , t1 ; . . . ; yn , tn ) dy1 dy2 . . . dyn. (5.3). określa prawdopodobieństwo, że zmienne losowe Yi (ti ) przyjmują wartości z przedziałów, odpowiednio, (yi , yi + dyi ). Zbiór łącznych (gęstości) prawdopodbieństw nazywamy hierarchią. 29.

(75) Znajomość hierarchii pozwala policzyć każdą średnią, na przykład hY (t1 ) . . . Y (tn )i =. Z. y1 . . . yn Pn (y1 , t1 ; . . . ; yn , tn ) dy1 . . . dyn .. (5.4). Hierarchia (5.2) spełnia cztery podstawowe warunki zgodności: (i) (ii). Pn ­ 0 Pn nie zmienia się przy zamianie dwóch par (yk , tk ) i (yl , tl ). (iii). R. Pn (y1 , t1 ; . . . ; yn , tn ) dyn = Pn−1 (y1 , t1 ; . . . ; yn−1 , tn−1 ). (iv). R. P1 (y1 , t1 ) dy1 = 1. Kolmogorow udowodnił, że każdy układ funkcji spełniających te cztery własności wyznacza pewien proces stochastyczny Y (t). Proces stochastyczny jest stacjonarny jeśli wszystkie Pn zależa jedynie od różnic czasów: Pn (y1 , t1 + τ ; . . . ; yn , tn + τ ) = Pn (y1 , t1 ; . . . ; yn , tn ) (5.5) Dla rozkładu P1 zachodzi wtedy P1 (y1 , t1 + τ ) = P1 (y1 , t1 ) .. (5.6). Tak więc, warunkiem koniecznym, ale niewystarczającym by proces był stacjonarny jest by P1 nie zależało od czasu.. 5.2. Prawdopodobieństwo warunkowe. Prawdopodobieństwo warunkowe zdefiniowane poniżej P1|1 (y2 , t2 | y1 , t1 ) =. P2 (y2 , t2 ; y1 , t1 ) P1 (y1 , t1 ). (5.7). określa prawdopodobieństwo że dla t2 zmienna losowa Y (t2 ) = y2 pod warunkiem, że dla t1 zmienna losowa przyjmuje wartość Y (t1 ) = y1 . Prawdopodobieństwo warunkowe jest nieujemne i unormowane Z. dy2 P1|1 (y2 , t2 | y1 , t1 ) = 1 30. (5.8).

(76) Ogólnie, ustalając wartości zmiennej losowej Y (t) w k zadanych chwilach, pytaamy jakie jest prawdopodobieństwo przyjęcia określonych wartości w l innych chwilach. Wprowadzając oznaczenie k = (yk , tk ) (5.9) otrzymujemy następujący wzór na prawdopodbieństwo warunkowe Pl|k (k + l . . . k + 1|k . . . 1) =. Pk+l (k + l . . . k + 1, k . . . 1) . Pk (k . . . 1). (5.10). Warunek unormowania przyjmuje teraz postać Z. dyk+l . . . dyk+1 Pl|k (k + l . . . k + 1|k . . . 1) = 1 .. (5.11). Dodajmy, że uporządkowanie czasowe nie odgrywa roli w podanych definicjach, ze względu na własność (ii) hierarchii.. 5.3. Procesy Markowa. Jest to proces stochastyczny o własności takiej, że dla każdego zbioru kolejnych chwil tn > . . . > t2 > t1. (5.12). zachodzi następujący warunek dla prawdopodobieństwa warunkowego P1|(n−1) (yn , tn | yn−1 , tn−1 ; . . . ; y1 , t1 ) = P1|1 (yn , tn | yn−1 , tn−1 ). (5.13). Tym samym rozkład P1|(n−1) zależy tylko od chwili tn−1 i żadna informacja o chwilach wcześniejszych nie ma na niego wpływu. Wielkość P1|1 nazywamy prawdopodobieństwem przejścia. Wprowadzając oznacznie k ≡ (yk , tk ) ,. (5.14). zapiszemy warunek Markowa w postaci P1|(n−1) (n | n − 1; . . . ; 1) = P1|1 (n | n − 1). (5.15). Proces Markowa jest określony przez prawdopodobieńtwo jednocząstkowe P1 oraz prawdopodobieństwo przejścia P1|1 . Na ich podstawie można odtworzyć całą hierarchię prawdopodobieństw. 31.

(77) Na przykład, dla rozkładu dwucząstkowego z t2 > t1 otrzymujemy ze definicji prawdopodobieństwa warunkowego P2 (2, 1) = P1|1 (2 | 1) P1 (1) .. (5.16). Podobnie, dla rozkładu trójcząstkowego z t3 > t2 > t1 , korzystając dodatkowo z definicji procesów Markowa, mamy P3 (3, 2, 1) = P1|1 (3 | 2, 1) P2 (2, 1) = P1|1 (3 | 2) P1|1 (2 | 1) P1 (1) .. (5.17). Powyższe równania służa do wyprowadzenia podstawowych równań jakie muszą spełniać P1 i P1|1 w procesach Markowa.. 5.4. Równanie Chapmana-Kołmogorowa-Smoluchowskiego. Całkując obie strony równania (5.16) po y1 znajdujemy warunek dla prawdopodobieństwa jednocząstkowego P1 (y2 , t2 ) =. Z. dy1 P1|1 (y2 , t2 | y1 , t1 ) P1 (y1 , t1 ). (5.18). Zapisując to równanie dla t1 = t2 otrzymujemy dodatkowy warunek P1|1 (y2 , t1 | y1 , t1 ) = δ(y2 − y1 ) .. (5.19). Całkując obie strony równania (5.17) po y2 otrzymujemy P2 (y3 , t3 ; y1 , t1 ) = P1 (y1 , t1 ). Z. dy2 P1|1 (y3 , t3 | y2 , t2 ) P1|1 (y2 , t2 | y1 , t1 ) .. Dzieląc obie strony przez P1 (y1 , t1 ), a następnie korzystając z definicji prawdopodobieństwa warunkowego (5.7), otrzymujemy równania Chapmana–Kolmogorowa–Smoluchowskiego dla prawdopodobieństw przejścia P1|1 (y3 , t3 | y1 , t1 ) =. Z. dy2 P1|1 (y3 , t3 | y2 , t2 ) P1|1 (y2 , t2 | y1 , t1 ). (5.20). Każde dwie nieujemne funkcje P1 i P1|1 spełniające równania (5.18) i (5.20) definiują jednoznacznie proces Markowa. 32.

(78) 5.5. Stacjonarny proces Markowa. Definiuje się stacjonarne procesy Markowa, dla których P1 nie zależy od czasu, natomiast P1|1 zależy od czasów poprzez ich różnicę P1|1 (y2 , t2 | y1 , t1 ) = P1|1 (y2 | y1 ; t2 − t1 ). (5.21). Wtedy funkcje hierarchii (5.2) spełniają warunek stacjonarności (5.5). Na przykład, dla funkcji dwucząstkowej zachodzi P1|1 (y2 , t2 + τ | y1 , t1 + τ ) = P1|1 (y2 | y1 ; t2 − t1 ) = P1|1 (y2 , t2 | y1 , t1 ) . Warunki konsystencji przyjmują teraz postać P1|1 (y3 | y1 ; τ 0 + τ ) =. Z. dy2 P1|1 (y3 | y2 ; τ 0 ) P1|1 (y2 | y1 ; τ ). (5.22). P1 (y2 ) =. Z. dy1 P1|1 (y2 | y1 ; τ ) P1 (y1 ). (5.23). W dalszych rozważaniach przyjmiemy oznaczenie P1|1 (y2 | y1 ; τ ) ≡ Pτ (y2 | y1 ) .. (5.24). W dalszej częsci rozdziału podamy przykłady kilku procesów Markowa.. 5.6. Proces dwudzielny – losowego telegrafu. Jest to proces, w którym zmienna losowa przyjmuje wartości y ∈ {−1, 1}, natomiast prawdopodobieństwo przejścia jest jednorodne w czasie i zadane przez P1|1 (y, t | y 0 , t0 ) =. 1 2 {1. 0. 0. + e−2(t−t ) } δyy0 + 21 {1 − e−2(t−t ) } δy(−y0 ). (5.25). Ponadto prawdopodbieństwo jednocząstkowe jest niezależne od czasu i równe P1 (1, t) = P1 (−1, t) =. 1 2. .. (5.26). Otrzymujemy więc proces stacjonarny. Możemy wtedy użyć oznaczeń z poprzedniego rozdziału i zapisać prawdpodobieństwa przejścia między poszczególnymi stanami w następującej postaci Pτ (1|1) = Pτ (−1| − 1) = Pτ (−1|1) = Pτ (1| − 1) = 33. 1 2 {1. 1 2 {1. + e−2τ }. − e−2τ }. (5.27) (5.28).

(79) łatwo sprawdzić warunki unormowania sumy prawdopodobieństw przejścia z danego stanu początkowego do dowolnego stanu końcowego Pτ (1|1) + Pτ (−1|1) = Pτ (1| − 1) + Pτ (−1| − 1) = 1 .. (5.29). łatwo też sprawdzić, że spełnione są równania Chapmana-Kołmogorowa, np. dla stanów y3 = y1 = 1 zachodzi Pτ 0 +0 (1|1) = Pτ 0 (1| − 1) Pτ (−1|1) + Pτ 0 (1|1) Pτ (1|1) 0. 0. = 14 {1 − e−2τ }{1 − e−2τ } + 14 {1 + e−2τ }{1 + e−2τ } = 12 {1 + e−2(τ. 0 +τ ). (5.30). }.. Podobnie dlo pozostałych konfiguracji stanów. Ponadto, spełnione jest równanie (5.18). Na przykład P1 (1, t) = Pt (1|1) P1 (1, 0) + Pt (1| − 1) P1 (−1, 0) = 14 {1 + e−2τ } + 14 {1 − e−2τ } =. 1 2. (5.31). i podobnie P1 (−1, t) = 21 . Prawdopodbieństwo jednocząstkowe rzeczywiście nie zmienia się z czasem.. 5.7. Proces Poissona. W procesie tym zmienna losowa przyjmuje wartości dyskretne n = 0, 1, 2, . . .. Prawdopodobieństwo przejścia dla chwil t2 ­ t1 ­ 0 oraz n2 ­ n1 to P1|1 (n2 , t2 | n1 , t1 ) =. (t2 − t1 )n2 −n1 −(t2 −t1 ) e . (n2 − n1 )!. (5.32). Dodatkowo, w chwili początkowej prawdopodobieństwo jednocząstkowe jest zadane przez P1 (n, 0) = δn0 . (5.33) Stąd wzór na prawdopodobieństwo jednocząstkowe w dowolnej chwili czasu zgodny z relacją (5.18) X. P1|1 (n, t | m, 0) P1 (m, 0) = P1|1 (n, t | 0, 0) =. m. 34. tn −t e = P1 (n, t) . n!. (5.34).

(80) Proces Poissona nie jest stacjonarny, gdyż prawdpodobieństwo jednocząstkowe (5.34) zależy od czasu. P1 (n, t) opisuje rozkład prawdopodobieństwa liczby znaków punktowych wygenerowanych w przedziale czasowym [0, t]. Udowodnijmy jeszcze, że spełnione jest równanie Chapmana-Kołmogorowa. Dla t3 ­ t2 ­ t1 ­ 0 oraz n3 ­ n2 ­ n1 zachodzi n3 X. P1|1 (n3 , t3 | n1 , t1 ) =. P1|1 (n3 , t3 | n2 , t2 ) P1|1 (n2 , t2 | n1 , t1 ). n2 ­n1 n3 X (t3 − t2 )n3 −n2 −(t3 −t2 ) (t2 − t1 )n2 −n1 −(t2 −t1 ) = e e. (n3 − n2 )!. n2 ­n1. (n2 − n1 )!.  n3  t2 − t1 n2 (t3 − t2 )n3 e−(t3 −t1 ) X (n3 − n1 )! = (t2 − t1 )n1 (n3 − n1 )! n ­n t3 − t2 (n3 − n2 )! (n2 − n1 )! 2. (5.35). 1. Wyrażenie z sumą po zmianie wskaźnika na n02 = n2 − n1 to n3X −n1  n02 =0. = = =. . . t2 − t1 t3 − t2. n0 +n1. t2 − t1 t3 − t2. n1 n3X −n1. t2 − t1 t3 − t2. n1 . n02 =0. 2. (n3 − n1 )! (n3 − n1 − n02 )! (n02 )!. n3 − n1 n02. t2 − t1 1+ t3 − t2. !. t2 − t1 t3 − t2. n3 −n1. =. . n0. 2. t2 − t1 t3 − t2. n1 . t3 − t1 t3 − t2. n3 −n1. (t2 − t1 )n1 (t3 − t1 )n3 −n1 (t3 − t2 )n2. Podstawiając do wzoru (5.34) otrzymamy oczekiwany wynik P1|1 (n3 , t3 | n1 , t1 ) =. (t3 − t1 )n3 −n1 −(t3 −t1 ) e . (n3 − n1 )!. (5.36). Wzór (5.18) można udowodnić korzystając z relacji P1 (n, t) = P1|1 (n, t | 0, 0) i równania Chapmana-Kołmogorowa: P1 (n2 , t2 ) = P1|1 (n2 , t2 | 0, 0) =. X. P1|1 (n2 , t2 | n1 , t1 ) P1|1 (n1 , t1 | 0, 0). n1. =. X. P1|1 (n2 , t2 | n1 , t1 ) P1 (n1 , t1 ) .. n1. 35. (5.37).

(81) 5.8. Proces Ornsteina-Uhlenbecka. Jest to proces stacjonarny zdefiniowany zdefiniowany dla zmiennej losowej przyjmującej wartości rzeczywiste, −∞ < y < ∞, poprzez n o 1 P1 (y) = √ exp − 21 y 2 2π. (5.38). 1 (y2 − y1 e−τ )2 Pτ (y2 | y1 ) = p exp − 2(1 − e−2τ ) 2π(1 − e−2τ ) (. ). (5.39). .. Sprawdzimy, że spełnione jest równanie Chapmana-Kołomogorowa. Wprowadzając oznaczenie: ∆τ = 1 − e−2τ , otrzymujemy P. τ 0 +τ. Z∞. (y3 | y1 ) =. dy2 Pτ 0 (y3 | y2 ) Pτ (y2 | y1 ). −∞. 1 =p 2 (2π) ∆τ 0 ∆τ. Z∞ −∞. 0. (y3 − y2 e−τ )2 (y2 − y1 e−τ )2 − dy2 exp − 2∆τ 0 2∆τ (. ). (5.40). Wykładnik w eksponcie możemy zapisać w następujący sposób 0. ∆τ +τ 0 (y3 − y1 e−(τ +τ ) )2 exp − (y2 − a)2 − ∆τ ∆τ 0 2∆τ +τ 0 (. ). gdzie a jest wyrażeniem niezależnym od y2 . Całkując po tej zmiennej w równaniu (5.40) zgodnie ze wzorem Z∞. −Ay 2 /2. dy e. =. r. −∞. 2π , A. (5.41). otrzymujemy oczekiwany wynik 1 Pτ 0 +τ (y3 | y1 ) = p (2π)2 ∆τ 0 ∆τ. s. 0. (y3 − y1 e−(τ +τ ) )2 ∆τ ∆τ 0 2π exp − ∆τ +τ 0 2∆τ +τ 0 (. 1. 0. (y3 − y1 e−(τ +τ ) )2 =q exp − 2(1 − e−2(τ +τ 0 ) ) 2π(1 − e−2(τ +τ 0 ) ) (. ). ). .. (5.42). Równanie konsystencji (5.18) jest również spełnione na mocy związku P1 (y) = lim Pτ (y | y1 ) τ →∞. 36. (5.43).

(82) i równania Chapmana-Kołomogorowa-Smoluchowskiego, w którym wykonujemy powyższą granicę. Wartość średnia dla procesu Ornsteina-Uhlenbecka jest równa zeru h Y (t)i =. Z. y P1 (y) dy = 0 ,. (5.44). natomiast dwupunktowa funkcja autokorelacji to κ(τ ) = h Y (t + τ )Y (t)i=. Z. y1 y2 P2 (y2 , t + τ ; y1 , t) dy1 dy2. =. Z. y1 y2 Pτ (y2 | y1 ) P1 (y1 ) dy1 dy2 = e−τ .. (5.45). Twierdzenie Dooba orzeka, że jest to jedyny proces Markowa, który jest stacjonarny i gausowski.. 5.9. Proces Wienera. Bardzo ważnym procesem Markowa jest proces Wienera, w którym zmienna losowa przyjmuje wartości rzeczywiste −∞ < y < ∞. Opisuje on losowe położenie cząstki Browna, co pokażemy w jednym z dalszych rodziałów. Prawdopodobieństwo przejścia jest zdefiniowane dla t2 > t1 wzorem: 1 (y2 − y1 )2 P1|1 (y2 , t2 | y1 , t1 ) = p exp − 2(t2 − t1 ) 2π(t2 − t1 ) (. ). .. (5.46). Dodatkowo zakładamy, że dla t = 0 prawdopodobieństwo jednocząstkowe P1 (y, 0) = δ(y) .. (5.47). Wtedy z równania (5.18) wynika 1 y2 P1 (y, t) = √ exp − 2t 2πt (. ). .. (5.48). Tak więc proces Wienera nie jest procesem stacjonarnym ze względu na zależność P1 od czasu. 37.

(83) Wartość średnia dla procesu Wienera jest równa zero hY (t)i =. Z. y P1 (y, t) dy = 0 ,. (5.49). natomiast dwupunktowa funkcja korelacji dla czasów t2 > t1 to hY (t1 )Y (t2 )i=. Z. y1 y2 P2 (y2 , t2 ; y1 , t1 ) dy1 dy2. =. Z. y1 y2 P1|1 (y2 , t2 | y1 , t1 ) P1 (y1 , t1 ) dy1 dy2. = t1 = min{t1 , t2 } .. 38. (5.50).

(84) Rozdział 6. Równanie Master 6.1. Małe różnice czasów. Zapiszmy prawdopodobieństwo przejscia w procesie Markowa, P1|1 (y2 , t2 | y1 , t1 ), dla małych wartości różnicy czasu t2 − t1 ≡ δt. Pamiętając o warunku (5.19), P1|1 (y2 , t1 | y1 , t1 ) = δ(y2 − y1 ) ,. (6.1). zapiszemy z dokładnością do członów liniowych w δt: P1|1 (y, t + δt | y 0 , t) ' δ(y − y 0 ) A(y 0 , δt) + Wt (y | y 0 ) δt ,. (6.2). A(y 0 , δt = 0) = 1 .. (6.3). gdzie (y | y 0 ). Funkcja Wt jest prawdopodobieństwem przejścia na jednostkę czasu ze stanu y 0 do stanu y w chwili t. Dla stacjonarnych procesów Markowa Wt (y | y 0 ) nie zależy od czasu. Całkując obie strony równania (6.6) po y, otrzymujemy z warunku unormowania (5.8) prawdopodobieństwa przejścia, Z. dy P1|1 (y, t + δt | y 0 , t) = 1 = A(y, δt) + δt. Z. Stąd wynika następujące równanie A(y, δt) = 1 − δt 39. Z. dy Wt (y | y 0 ) .. dy Wt (y | y 0 ) .. (6.4).

(85) Wielkość a0 (y 0 , t) =. Z. dy Wt (y | y 0 ). (6.5). jest całkowitym prawdopodobieństwem przejścia na jednostkę czasu ze stanu y 0 do jakiegokolwiek innego stanu. Stąd 1 − a0 (y 0 , t) jest analogicznym prawdopodobieństwem, że układ pozostanie w stanie y 0 . Tak więc prawdopodobieństwo przejścia (6.2) dla małych czasów przyjmuje postać P1|1 (y, t + δt | y 0 , t) ' δ(y − y 0 ) (1 − a0 (y 0 , t)) + Wt (y | y 0 ) δt. 6.2. (6.6). Wyprowadzenie równania Master. Napiszmy równanie Chapmana-Kołmogorowa dla uporządkowanych chwil czasowych: t + δt > t > t0 , Z. P1|1 (y, t + δt | y0 , t0 ) =. dy 0 P1|1 (y, t + δt | y 0 , t) P1|1 (y 0 , t | y0 , t0 ) .. (6.7). Po podstawieniu równania (6.6) otrzymujemy P1|1 (y, t + δt | y0 , t0 ) ' (1 − a0 (y, t) δt) P1|1 (y, t | y0 , t0 ) + δt. Z. dy 0 Wt (y | y 0 ) P1|1 (y 0 , t | y0 , t0 ) .. (6.8). Stąd, po wykorzystaniu relacji (6.5), w granicy δt → 0 otrzymujemy równanie Master dla prawdopodobieństwa przejścia ze stanu y0 w chwili t0 ∂ P (y, t | y0 , t0 ) = ∂t 1|1. Z. n. dy 0 Wt (y | y 0 )P1|1 (y 0 , t | y0 , t0 ) − Wt (y 0 | y)P1|1 (y, t | y0 , t0 ). o. (6.9) Identyczne w formie równanie otrzymujemy dla prawdopodobieństwa jednocząstkowego powstałego z uśrednienia prawdopodobieństwa przejścia po rozkładzie jednocząstkowym w chwili początkowej t0 , P1 (y, t) =. Z. dy0 P1|1 (y, t | y0 , t0 ) P1 (y0 , t0 ). (6.10). Tak więc mamy ∂P1 (y, t) = ∂t. Z. dy 0 Wt (y | y 0 ) P1 (y 0 , t) − Wt (y 0 | y) P1 (y, t) . 40. (6.11).

(86) Pierwszy wyraz po prawej stronie opisuje zmianę P1 (y, t) wynikającą z przejść do stanu y w czasie δt, natomiast drugi wyraz z ujemnym znakiem opisuje analogiczną zmianę wynikającą z opuszczenia stanu y. Równanie Master jest więc równaniem bilansu przyjść dla ustalonego stanu. Zauważmy, że całkowite prawdopodobieństwo jednocząstkowe jest zachowane w czasie Z d dy P1 (y, t) = 0 (6.12) dt Rzeczywiście, całkując obustronnie równanie (6.11) otrzymujemy po prawej stronie wyrażenie R=. Z. Z. dy. dy 0 Wt (y | y 0 ) P1 (y 0 , t) − Wt (y 0 | y) P1 (y, t) . (6.13). Zmieniając zmienne y ↔ y 0 w drugiej całce otrzymujemy identyczne wyrażenie podcałkowe jak w pierwszej całce i stąd R = 0.. 6.3. Entropia rozkładu jednocząstkowego. Zdefiniujmy entropię prawdopodobieństwa jednocząstkowego S(t) = −. Z. dy P1 (y, t) ln P1 (y, t). (6.14). Policzmy pochodną entropii po czasie dS =− dt. Z. dy. dP1 (y, t) (ln P1 (y, t) + 1) dt. (6.15). Podstawiając (6.11) otrzymujemy dS =− dt. Z. Z. dy. dy 0 Wt (y | y 0 ) P1 (y 0 , t) − Wt (y 0 | y) P1 (y, t) (ln P1 (y, t) + 1) (6.16) . Zamieniając zmienne y ↔ y 0 w pierwszej całce przy założeniu, że te dwie całki można rozdzielić, otrzymujemy dS = dt. Z. Z. dy. dy 0 Wt (y 0 | y) P1 (y, t) ln. P1 (y, t) P1 (y 0 , t). (6.17). Korzystając z relacji matematycznej dla dodatnich x, y y ln. y ­y−x x 41. (6.18).

(87) znajdujemy. . dS ­ dy dy 0 Wt (y 0 | y) P1 (y, t) − P1 (y 0 , t) dt Zmieniając ponownie zmienne y ↔ y 0 w drugiej całce dostajemy Z. dS ­ dt. Z. Z. dy P1 (y, t). Z. dy 0 Wt (y 0 | y) − Wt (y| y 0 ). |. {z. . (6.19). (6.20). }. Dla procesów Markowa z prawdopodobieństwami przejścia na jednostkę czasu spełniającymi warunek Z Z dy 0 Wt (y 0 | y) ­ dy 0 Wt (y| y 0 ) (6.21) otrzymujemy prawo wzrostu entropii dS ­0 dt. (6.22). dla każdego prawdopodobieństwa P1 (y, t). Warunek (6.21) oznacza, że sumaryczne prawdopodobieństwo przejścia na jednostkę czasu ze stanu y do dowolnego stanu y 0 jest większe lub równe prawdopodobieństwu przejścia na jednostkę czasu z dowolnego stanu y 0 do stanu y. Innymi słowy, to co wypływa ze stanu y w jednostce czasu jest większe lub równe temu co do niego wpływa w tej samej jednostce czasu. Warunek (6.21) jest automatycznie spełniony dla równych prawdopodobieństw przejść w obie strony Wt (y 0 | y) = Wt (y| y 0 ) (6.23) dla każdego y, y 0 . Warunek (6.21) jest jednak słabszym warunkiem.. 6.4. Równanie Master dla stanów dyskretnych. W wersji z dyskretnymi wartościami n zmiennej losowej y równanie Master (6.11) dla prawdopodobieństwa jednocząstkowego przyjmuje postać X dPn (t) = {Wnn0 (t) Pn0 (t) − Wn0 n (t) Pn (t)} . dt n0. (6.24). Równanie to można zapisać w formie macierzowej X dPn (t) = Wnn0 (t) Pn0 (t) , dt n0. 42. (6.25).

(88) gdzie macierz Wnn0 jest zadana wzorem !. Wnn0 = Wnn0 −. X. Wn00 n δnn0 =. n00.  Wnn0   . dla n 6= n0. P   Wn00 n  −. dla n = n0. n00 6=n. Wyrazy diagonalne Wnn są równe (minus) sumie wyrazów pozdiagonalnych w kolumnie n, X Wnn = − Wn00 n , (6.26) n00 6=n. tak więc, suma wyrazów w dowolnej kolumny macierzy W wynosi zero X. Wn00 n = Wnn +. n00. X. Wn00 n = 0 .. (6.27). n00 6=n. Warunek ten jest konieczny do zachowania całkowitego prawdpodobięnstwa w dowolnej chwili czasu  XX XX d X 0 0 0 Pn (t) = Wnn (t) Pn (t) = Wnn (t) Pn0 (t) = 0 . dt n 0 n n0 n n. Przykładowo, dla trzech stanów, n = 1, 2, 3, macierz W ma postać −(W21 + W31 ).     W =   . W12. W13.     .  . W21. −(W12 + W32 ). W23. W31. W32. −(W13 + W23 ). (6.28). Warunek (6.21) konieczny dla wzrostu entropii prawdopodobieństwa dla stanów dyskretnych to X X Wn0 n = Wnn0 (6.29) n0. n0. Ustalając n0 = 1 w powyższym przykładzie otrzymujemy. co daje warunek. W11 + W21 + W31 = W11 + W12 + W13. (6.30). W21 + W31 = W12 + W13. (6.31). który mówi, że sumaryczne prawdopodobieństwo przejścia na jednostkę czasu ze stanu 1 do stanów 2 lub 3 jest równe takiemu samemu prawdopodobieństwu dla przejść ze stanu 2 lub 3 do stanu 1. 43.

(89) Rozdział 7. Procesy jednokrokowe Rozważmy proces Markowa z ciągłym czasem, w którym zbiorem dopuszczalnych wartości są liczby całkowite n. W procesach jednokrokowych przejścia następują tylko pomiędzy najbliższymi sąsiadami, n → (n − 1) z prawdopodobieństwem przeskoku w dół rn oraz n → (n + 1) z prawdopodobieństwem przeskoku w górę gn . Macierz przejścia przyjmuje więc postać Wnn0 = rn0 δn(n0 −1) + gn0 δn(n0 +1) ,. (7.1). co prowadzi do równania Master dPn = rn+1 Pn+1 + gn−1 Pn−1 − (rn + gn ) Pn dt. (7.2). Człony z dodatnim znakiem po prawej stronie opisują przejścia z sąsiednich poziomów na poziom n, natomiast człony z ujemnym znakiem opisują przejścia z poziomu n na sąsiednie (rozpad poziomu). Poniżej dyskutujemy dwa przykłady procesów jednokrokowych. Zauważmy, że warunek (6.29) wzrostu entropii X. Wn0 n =. n0. X. Wnn0. (7.3). n0. przyjmuje postać rn + gn ­ rn+1 + gn−1 dla wszystkich możliwych wartości n. 44. (7.4).

(90) 7.1. Proces Poissona. Proces Poissona opisuje błądzenie przypadkowe ze stałym prawdopodobieństwem po zbiorze liczb naturalnych n = 0, 1, 2, . . . z krokami tylko w prawo rn = 0 ,. gn = λ > 0 .. (7.5). Zauważmy, że warunek (7.4) jest spełniony. W szczególności, dla n = 0 otrzymujemy λ ­ 0, zakładając, że g−1 = 0. Entropia rozkładu Poissona jest więc funkcją rosnącą. Równanie Chapmana-Kolmogorowa dla procesu Poissona przyjmuje postać Pn (t + δt) = λ δt Pn−1 (t) + Pn (t)(1 − λ δt) ,. (7.6). prowadzącą w granicy δt → 0 do równania Master P˙n (t) = λPn−1 (t) − λPn (t) .. (7.7). Zakładamy, że w chwili t = 0 cząstka znajduje się w punkcie n = 0, tzn. Pn (0) = δn0 .. (7.8). Poszukajmy rozwiązania metodą funkcji tworzącej F (z, t) =. z n Pn (t) .. (7.9). Pn (t) = 1 .. (7.10). X n. Oczywiście zachodzi. F (1, t) =. X n. Wykonując takie sumowanie po obu stronach równania (7.9), następnie zmieniając odpowiednio zmienne sumowania, otrzymujemy równanie ∂F (z, t) = λ (z − 1) F (z, t) . ∂t. (7.11). Rozwiązaniem spełniającym warunek początkowy F (z, 0) = 1 jest F (z, t) = exp{λ t(z − 1)} = e−λ t. ∞ X (λ t)n n z , n=0. n!. (7.12). co prowadzi do rozkładu Poissona (5.7) dla n = 0, 1, 2, . . . Pn (t) = o wartości średniej i wariancji. (λ t)n −λ t e . n!. µ = σ2 = λ t . 45. (7.13) (7.14).

(91) 7.2. Symetryczne bla ¸dzenie przypadkowe. Symetryczne błądzenie przypadkowe po zbiorze liczb n = 0, ±1, ±2, . . . jest zdefiniowane przez warunek: rn = gn = c . (7.15) Warunek (7.4) jest w tym przypadku spełniony dla wszystkich n i otrzymany rozkład będzie miał rosnącą w czasie entropię. Równanie Chapmana-Kołmogorowa to Pn (t + δt) = c δt Pn+1 (t) + c δt Pn−1 (t) + Pn (t)(1 − 2 c δt) .. (7.16). Po właczeniu parametru c do definicji jednostki czasu, równanie Master przyjmuje postać P˙n (t) = Pn+1 (t) + Pn−1 (t) − 2Pn (t) , (7.17) z warunkiem początkowym takim jak dla procesu Poissona: Pn (0) = δn0 .. (7.18). Rozwiązując to równanie metodą funkcji tworzącej (7.9), otrzymujemy ∂F (z, t) = ∂t. . 1 z + − 2 F (z, t) . z . (7.19). Korzystając z warunku początkowego F (z, 0) = 1, znajdujemy rozwiązanie 1 F (z, t) = exp t z + − 2 z  . . .. (7.20). Rozwijając w szereg potęg z otrzymamy F (z, t) = e. ∞ X z k tk. −2t. k!. k=0 ∞ X. = e−2t. !. zn. n=−∞. ∞ −l l X z t l=0. n+l>0 X l=0. !. l!. t2l+n . l! (n + l)!. Stąd prawdopodobieństwo Pn (t) = e−2t. n+l>0 X l=0. t2l+n = e−2t I|n| (2t) , l!(n + l)! 46. (7.21).

(92) gdzie In jest funkcją Bessela. W granicy t → ∞, n → ∞ przy ustalonym n2 /t otrzymujemy jako wyrażenie asymptotyczne rozkład Gaussa 1 n2 Pn (t) = √ exp − 4t 4πt (. ). (7.22). .. o wartości średniej i wariancji µ = 0,. 7.3. σ 2 = 2t .. (7.23). Równania ewolucji QCD. Przykładem procesów Markowa jest opis emisji kwarkowo gluonowej w chromodynamice kwantowej w przybliżeniu wiodących logarytmów. Niech qx (t) będzie prawdopodobieństwem znalezienia kwarku w nukleonie z ułamkiem pędu podłużnego nukleonu x ∈ [0, 1] przy skali t = ln(Q2 /Q20 ), zwanej odtąd czasem. Napiszmy równanie bilansu (6.6) dla naszego prawdopodobieństwa w chwili t + δt qx (t + δt) = δt. X. . P. xx0. (t) q (t) + qx (t) 1 − x0. . P. x0 x. (t) δt. .. (7.24). x0 <x. x0 >x. |. X. {z. }. {z. |. emisja rzeczywista. emisja wirtualna. }. Funkcja Pxx0 (t) jest prawdopodbieństwem na jednostkę czasu emisji rzeczywistego gluonu przez kwark o ułamku pędu x0 , w wyniku której kwark uzyskuje ułamek x < x0 . Suma w nawiasie po prawej stronie równania (7.24), X. Px0 x (t) δt ,. (7.25). x0 <x. to całkowite prawdopodobieństwo zmiany ułamka pędu kwarku x w czasie δt. Nowy ułamek x0 < x, gdyż parton traci pęd. Stąd wyrażenie w nawiasie, 1−. X. Px0 x (t) δt ,. (7.26). x0 <x. to prawdopodbieństwo, że w czasie δt ułamek x pędu kwarku nie ulega zmianie. Opisuje więc ono emisję wirtualną. Tak sformułowane równanie zachowuje normalizację całkowitego prawdopodobieństwa X X qx (t + δt) = qx (t) . (7.27) x. x. 47.

(93) Mamy bowiem X. qx (t + δt) =. X. x. qx (t) +. x. X X x. Pxx0 (t) qx0 (t) −. x0 >x. X. . Px0 x (t) qx (t) δt .. x0 <x. Wysumowane po x wyrażenie w nawiasie znika, gdyż {. . .} =. XX. =. XX. X x. x. XX. Θ(x0 > x) Pxx0 qx0 −. XX. x. x0. x. =. Θ(x0 > x) Pxx0 qx0 −. XX x. x0. Θ(x0 > x) Pxx0 qx0 −. XX x. x0. Θ(x < x0 ) Pxx0 qx0. x. x0. x0. Θ(x0 < x) Px0 x qx. Θ(x0 > x) Pxx0 qx0 = 0 ,. x0. gdzie w drugim członie zmieniliśmy najpierw oznaczenie x ↔ x0 , a następnie kolejność sumowania. Wykonując granicę δt → 0 w równaniu (7.24), otrzymujemy “równanie ewolucji”, będące w istocie równaniem Master X X dqx (t) Pxx0 (t) qx0 (t) − qx (t) = Px0 x (t) . dt x0 >x x0 <x |. {z. }. |. emisja rzeczywista. {z. (7.28). }. emisja wirtualna. Sumowanie dla części rzeczywistej i wirtualnej odpowiada całkowaniu, odpowiednio X x0 >x. →. Z1. 0. X. dx ,. Zx. →. x0 <x. x. dx0 ,. (7.29). 0. co prowadzi do następującego równania ewolucji w lekko zmienionych oznaczeniach dq(x, t) = dt. Z1. dx0 P (x, x0 ; t) q(x0 , t) − q(x, t). x. Zx. dx0 P (x0 , x; t) .. (7.30). 0. Prawdopodobieństwo przejścia zależą od ułamków pędu w następujący sposób P (x, x0 ; t) =. 1 P x0. . x ,t , x0 . (7.31). co daje dq(x, t) = dt. Z1 x. dx0 x P 0 , t q(x0 , t) − q(x, t) 0 x x . . Zx 0. 48. dx0 x0 P ,t . x x . . (7.32).

(94) Zmieniając zmienną całkowania na z = x/x0 w pierwszej całce, a w drugiej całce na z = x0 /x, znajdujemy równanie ewolucji Altarelliego-Parisiego dq(x, t) = dt. Z1 x. dz P (z, t) q(x/z, t) − q(x, t) z. Z1. dz P (z, t) .. (7.33). 0. Prawdopodobieństwo przejścia ma niecałkowalną osobliwość dla z = 1, P (z, t) ∼. 1 1−z. (7.34). i górna granica całkowania powinna być zastąpiona przez 1 − . Można jednak rozbić ostatnią całkę:. R1. =. 0. dq(x, t) = dt. Rx 0. Z1 x. R1. + , by zapisać x. dz P (z, t) {q(x/z, t) − zq(x, t)} − q(x, t) z. Zx. dz P (z, t) .. (7.35). 0. W pierwszym wyrażeniu podcałkowym pojawia się wielkość q(x/z, t) − zq(x, t) , 1−z. (7.36). która jest nieosobliwa dla z = 1, jeśli istnieje skończona granica dla z → 1. Równanie (7.35) można zapisać przy pomocy definicji dystrybucji [. . .]+ [P (z)]+ = P (z) − δ(1 − z). Z1. dy P (y) .. (7.37). 0. Działa ona na dowolną funkcję próbna f (z) w następujący sposób, regularyzując osobliwość P (z) dla z = 1, Z1 0. dz [P (z)]+ f (z) =. Z1. dz P (z) {f (z) − f (1)} ,. 0. 49. (7.38).

(95) Adaptując ten wzór dla prawej strony równania (7.35), znajdujemy Z1 x. Z1. dz [P (z)]+ q(x/z) = z. 1 dz [P (z)]+ q(x/z) − z. 0. dz P (z) q(x/z) z. 0. Z1. =. Zx. 1 q(x/z) − q(x) − dz P (z) z . . Z1 x. dz P (z) q(x/z) z. 0. 0. =. Zx. 1 dz P (z) q(x/z) − q(x) − q(x) z . . Zx. dz P (z) .. 0. Stąd ostatecznie równanie ewolucji (7.35) przyjmuje postać dq(x, t) = dt. Z1 x. dz [P (z, t)]+ q(x/z, t) . z. (7.39). Powyższe równanie można zapisać również w postaci dq(x, t) = dt. Z1. Z1. dw. dz δ(x − zw) [P (z, t)]+ q(w). (7.40). 0. 0. Stąd całkując obie strony po x dostajemy  1 Z. d  dt. . dx q(x, t) =. Z1. dz [P (z, t)]+. 0. 0. Z1. dw q(w). (7.41). 0. Z równania (7.38) dla f (z) = 1 otrzymujemy Z1. dz [P (z)]+ = 0. (7.42). 0. co oznacza zachowanie w czasie całki po rozkładzie kwarkowym Z1. dx q(x, t) = C = const. 0. Jest to tzw. reguła zachowania liczby kwarków walencyjnych. 50. (7.43).

(96) Zanalizujmy na koniec entropię rozkładu kwarkowego. Ponieważ zakładamy, że q(x, t) > 0, zdefiniujmy entropię poprzez całkę Z1. S(t) = −. dx q(x, t) ln q(x, t). (7.44). q(x, t) (ln q(x, t) + 1) dt. (7.45). 0. Różniczkując po czasie otrzymujemy dS =− dt. Z1. dx 0. Wykorzystując równanie (7.40) dostajemy dS =− dt. Z1. Z1. Z1. (7.46). 0. 0. 0. dz δ(x − zw) [P (z, t)]+ q(w) (ln q(x, t) + 1). dw. dx. Człon z jedynką daje zero po wykorzystaniu równania (7.42) i stąd dS =− dt. Z1. Z1. dx. Z1. dz δ(x − zw) [P (z, t)]+ q(w) ln q(x, t). dw. 0. 0. (7.47). 0. Wykonując całkę po x oraz wykorzystując definicję dystrubucji plus mamy dS =− dt. Z1. Z1. dw 0. 0. =. dz [P (z, t)]+ q(w) ln q(wz, t). Z1. Z1. dw 0. dz P (z, t) q(w) ln. q(w, t) q(wz, t). (7.48). 0. Wykorzystując nierówność dla x, y > 0 y ln. y ­y−x x. (7.49). znajdujemy dS ­ dt. Z1. Z1. dw 0. =−. dz P (z, t) [q(w, t) − q(wz, t)]. 0. Z1. Z1. dw 0. dz [P (z, t)]+ q(wz, t). 0. 51. (7.50).

(97) Wykonując całkę po w z wykorzystaniem reguły sum znajdujemy Z1. dw [q(w, t) − q(wz, t)] = 1 −. 0. Z1. dw q(wz, t) = C −. 0. Jeżeli. 1 z. 1 z. Zz. dy q(y, t). (7.51). 0. Zz. dy q(y, t) < C. (7.52). dy q(y, t) ¬ Cz. (7.53). 0. lub. Zz 0. to całka (7.51) jest większa od zera i entropia S jest funkcją niemalejącą dS ­0 dt. (7.54). Różniczkując obie strony równania (7.53) po z, otrzymujemy warunek (7.55). q(z, t) ¬ C. dla każdego z ∈ (0, 1) i t > 0. Warunek ten nie jest spełniony dla dodatnio określonych rozkładów, gdyż gdyby tak było to całka Z1. dx q(x, t) ¬ C. 0. Z1. dx = C. (7.56). 0. gdzie równość zachodzi dla rozkładu q(x, t) ≡ C. Nie otrzymujemy więc warunku wzrostu entropii na podstawie oszacowania wykorzystującego nierówność (7.49).. 52.

(98) Rozdział 8. Ruchy Browna 8.1. Równanie Fokkera-Plancka. Rozważmy równanie Master ∂P (y, t) = ∂t. Z. dy 0 Wt (y | y 0 ) P (y 0 , t) − Wt (y 0 | y) P (y, t) . . (8.1). Popatrzmy na prawdopodobieństwo przejścia Wt (y | y 0 ) jako na funkcje punktu startowego y 0 i skoku r = y − y 0 : Wt (y | y 0 ) = Wt (y − y 0 , y 0 ) = Wt (r , y − r) .. (8.2). Podobnie dla prawdopodbieństwa Wt (y 0 | y) mamy Wt (y 0 | y) = Wt (y 0 − y , y) = Wt (−r , y) .. (8.3). Tak więc, otrzymujemy ∂P (y, t) = ∂t. Z. dr {Wt (r , y − r) P (y − r , t) − Wt (−r , y) P (y, t)} .. (8.4). Przyjmijmy następujące założenia: 1. Dla ustalonego punktu początkowego y 0 możliwe są tylko małe przeskoki r, tzn. prawdopodobieństwo przejścia Wt (r , y 0 ) ≈ 0. dla 53. |r| > δ ..

(99) 2. Przy zmianie punktu początkowego y 0 prawdopodobieństwo przejścia zmienia się powoli Wt (r , y 0 ) ≈ Wt (r , y 0 + ∆y) dla |∆y| < δ . 3. Prawdopodbieństwo P (y 0 , t) również zmienia się wolno z y 0 . Możemy wtedy rozwinąć pierwsze wyrażenie pod całką w (8.4) względem drugiego argumentu wokół y dla |r| < δ: Wt (r, y − r) P (y − r, t) = Wt (r, y) P (y, t) +. ∞ X (−r)k ∂ k. k!. k=1. ∂y k. {Wt (r, y) P (y, t)} .. (8.5). Po podstawieniu do równania (8.4) i założeniu, że Wt (r, y) = Wt (−r, y) otrzymujemy równanie Moyala ∞ X ∂P (y, t) (−1)k ∂ k = {ak (y, t) P (y, t)} k ∂t k! ∂y k=1. (8.6). gdzie wspólczynniki funkcyjne ak (y, t) to momenty przeskoku ak (y, t) =. Z. dr rk Wt (r, y) .. (8.7). |r|<δ. Zgodnie z definicją skoku, r jest zawsze różnicą między punktem końcowym a początkowym, w tym wypadku y. Współczynniki te zawierają informację o mikroskopowym prawdopodobieństwie przejścia na jednostkę czasu Wt . Równania Fokkera-Plancka otrzymujemy zachowując tylko dwa pierwsze wyrazy sumy w równaniu Moyala ∂P (y, t) ∂ 1 ∂2 = − {a1 (y, t) P (y, t)} + {a2 (y, t) P (y, t)} ∂t ∂y 2 ∂y 2. (8.8). Jest to równanie typu równania dyfuzji, w którym pierwszy wyraz po prawej stronie nazywa się członem dryfowym, natomiast drugi członem dyfuzyjnym. 54.

(100) 8.2. Interpretacja współczynników funkcyjnych. Obliczmy momenty zmiennej losowej ∆Y = Y (t + ∆t) − Y (t) ,. (8.9). opisującej przeskoki w procesie Markowa w krótkich chwilach czasu δt. Zakładając, że Y (t) = y znajdujemy dla k-tego momentu D. (∆Y )k. E. =. Z. dy 0 (y 0 − y)k P1|1 (y 0 , t + δt | y, t) .. (8.10). Podstawiając postać (6.6) prawdodopodbieństwa przejścia dla małych δt w procesie Markowa: P1|1 (y 0 , t + δt | y, t) = δ(y 0 − y) (1 − a0 δt) + Wt (y 0 | y) δt , znajdujemy D. (∆Y )k. E. = δt. Z. dy 0 (y 0 − y)k Wt (y 0 | y) = δt ak (y , t) .. Stąd wzór na współczynniki przejścia D. ak (y , t) = lim. δt→0. (∆Y )k δt. E. (8.11). Aby więc znaleźć dwa współczynniki a1,2 (y, t) w równaniu Fokkera-Plancka wystarczy dobrać δt tak małe by zmiana (y 0 − y) była mała, a jednocześnie tak duże by słuszne było założenie Markowa. Następnie liczymy średnie przesunięcie h∆Y i oraz. 2 średni kwadrat przesunięcia (∆Y ) do pierwszego rzędu w δt, co pozwala znaleźć współczynniki a1,2 na podstawie wzoru (8.11).. 8.3. Równanie dyfuzji. Dobrym przykładem ilustrującym metodę obliczania współczynników ak są ruchy Browna. Cząstka wykonuje wtedy losowe przeskoki wzdłuż osi X dla skal czasowych dostatecznie dużych by traktować je ruch jako proces Markowa. Długość skoków jest dowolna, ale prawdopodobieństwo dużych skoków jest bardzo małe. Co więcej, jest 55.

(101) ono funkcją symetryczną ze względu na kierunek i niezależną od punktu startowego. Wtedy mamy (∆X)2 a2 = ∆t. h∆Xi a1 = = 0, ∆t. = const .. (8.12). Stąd równanie Fokkera-Plancka dla prawdopodobieństwa przejścia P (x, t) ≡ P1|1 (x, t | x0 , t0 ). (8.13). przyjmuje postać równania dyfuzji ∂P (x, t) ∂ 2 P (x, t) = D ∂t ∂x2. (8.14). gdzie stała dyfuzji D = a2 /2. Otrzymaliśmy w ten sposób relację Einsteina wiążącą stałą dyfuzji ze średnim kwadratem skoku cząstki (∆X)2 D = . 2 ∆t. 8.4. (8.15). Bła ¸dzenie przypadkowe. Równanie dyfuzji możemy otrzymać rozważając równanie Master dla losowych przeskoków wzdłuż osi X. Załóżmy, że cząstka przeskakuje w prawo i lewo o wielkość ∆ z równym prawdopodobieństwem na jednostkę czasu, zadanym przez W (x ± ∆|x) =. D . ∆2. (8.16). Spełniony jest warunek niezależności od kierunku oraz założenie, że duże przeskoki są mało prawdopodobne. Wtedy równanie bilansu dla odstępu czasowego δt → 0 to P (x, t + δt) = P (x + ∆, t). D D D δt + P (x − ∆, t) 2 δt + P (x, t) 1 − 2 2 δt ∆2 ∆ ∆ . . .. Przepisując, otrzymamy P (x, t + δt) − P (x, t) P (x + ∆, t) − 2P (x, t) + P (x − ∆, t) = D δt ∆2. (8.17). W granicy δt → 0 oraz ∆ → 0, dostajemy równanie dyfuzji ∂P (x, t) ∂ 2 P (x, t) = D . ∂t ∂x2 56. (8.18).

(102) Zaburzmy symetrię przeskoków przy utrzymanym warunku ich małości. Na przykład, preferując przeskoki w lewo mamy W (x − ∆|x) =. D B + , 2 ∆ ∆. W (x + ∆|x) =. D . ∆2. (8.19). Otrzymujemy w tym przypadku równanie dyfuzji z dryfem ∂P (x, t) ∂P (x, t) ∂ 2 P (x, t) . = −B +D ∂t ∂x ∂x2. 8.5. (8.20). Dyfuzja a procesy Wienera. Rozwiązaniem równania dyfuzji bez dryfu jest prawdopodobieństwo przejścia 1 (x2 − x1 )2 P1|1 (x2 , t2 | x1 , t1 ) = p exp − 2D(t2 − t1 ) 2πD(t2 − t1 ) (. ). .. (8.21). Jeśli założymy, że w chwili początkowej cząstka była w położeniu x = 0, P1 (x, 0) = δ(x) ,. (8.22). to otrzymamy proces Wienera z prawdopodobieństwem jednocząstkowym 1 x2 P1 (x, t) = √ exp − 2Dt 2πDt (. ). ,. (8.23). które również spełnia równanie dyfuzji. Średnie przesunięcie dla ruchów Browna jest równe zeru ∞ hXt i =. Z. dx x P1 (x, t) = 0 ,. (8.24). −∞. natomiast średni kwadrat przesunięcia jest proporcjonalny do czasu D. Xt2. E. =. Z∞. dx x2 P1 (x, t) = D t .. −∞. 57. (8.25).

(103) Literatura [1] N. G. van Kampen, Procesy stochastyczne w fizyce i chemii, 2 wydanie, PWN, 1990. [2] C. Gardiner, Handbook of Stochastic Methods: for Physics, Chemistry and the Natural Sciences, 3rd ed., Springer, 2004. [3] H. Risken, The Fokker-Planck Equation: Methods of Solutions and Applications, Springer, 1996.. 58.

(104)

Cytaty

Powiązane dokumenty

się −x 9, suma jej +9 ylesamo .. cyfrąjest cyfrą,to +2 więcej,to ystarczyteraz 3n yzapisać lub2 .W przez9 k 10 zzadania wynosi1 jest1 a.Możem 9· jejpierwszą alenie jeśliliczba

Znajdź minimum tej

można nigdzie przejść w przypadku dowolnego znaku wejściowego, przejścia ze stanu {0,3} odpowiadają przejściom tylko ze stanu 0, stad ograniczają się jedynie do przejść stanu

Załóżmy, że T jest operatorem liniowym między przestrzeniami Banacha Xi Y.. Niech X będzie

Na podstawie obserwacji obliczono prawdopodobieństwo p=0,1 że któryś komputerów w czasie zajęć jest wolny (równe dla wszystkich pięciu

Ćw. 33) Pewne części maszyny, istotne dla jej działania, psują się zgodnie z rozkładem Poissona z częstotliwością 1 na 5 tygodni. jakie jest prawdopodobieństwo, że w

1. 33) Jakie jest prawdopodobieństwo, że partia złożona z 4 sztuk pew- nego towaru będzie zalegać w magazynie więcej niż 1 dzień, jeśli sprzedaż tego towaru jest opisywana

Pokazano tam także, że wpływ przetwornika (tj. szum kwantyzacji i zniekształcenia nieliniowe) można zmniejszać przez zwiększanie liczby próbek sygnału (nadpróbkowanie), przy