• Nie Znaleziono Wyników

Nierównowagowa mechanika statystyczna von Gerd Röpke

N/A
N/A
Protected

Academic year: 2021

Share "Nierównowagowa mechanika statystyczna von Gerd Röpke"

Copied!
210
0
0

Pełen tekst

(1)

################################################################################

Nierównowagowa mechanika statystyczna

von Gerd Röpke

Tytuł oryginału : „Statistische mechanik fur das nichtgleichgewicht”

VEB Deutscher Veralg der Wissenschaften Berlin 1987 Tłumaczenie z przekładu rosyjskiego – Moskwa Mir 1990 S. W. Tiszczenko , pod red. D. N. Zubarjewa

************************************************************************************************

Tłumaczenie : R. Waligóra Pierwsze tłumaczenie : 2013

Ostatnia modyfikacja : 2014-05-01 Tłumaczenie całości książki.

////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////

Wstęp ogólny

1) Skróty i oznaczenia zastosowane w tłumaczeniu (własne ).

NMS - nierównowagowa mechanika statystyczna MS - mechanika statystyczna

CP – czasoprzestrzeń EM – elektromagnetyczne MQ – mechanika kwantowa KTP – kwantowa teoria pola

Wielkości wektorowe zapisywane będą czcionką pogrubioną F, a , ...

Dopiski własne oznaczono symbolami (* ... *)

W tłumaczeniu dla stałej Diraca ħ ( zredukowanej stałej Plancka ) przyjęto oznaczenie h

************************************************************************************************

Przedsłowie

Mechanika statystyczna procesów nierównowagowych obecnie przyjmowana jest jako jeden z najbardziej interesujących obszarów badań fizyki teoretycznej. Jak układy fizyczne reagują na oddziaływanie zewnętrzne i w jaki sposób osiągają równowagę termodynamiczną ?

Jaką rolę w takich procesach odgrywają fluktuacje ?

Co można powiedzieć o układach otwartych i stanach stacjonarnych ?

Jak opisać stany metastabilne ? Co następuje w przypadku, kiedy stan staje się niestabilny, i jak przebiega tworzenie się i procesy samoorganizacji ?

Jaki jest sens prawdopodobieństwa i przypadkowości w procesach dynamicznych ?

Taki, daleki od pełności spis pytań, dla odpowiedzi, na które próbuje się wypracować układ pojęć i modeli

nierównowagowej mechaniki statystycznej (*NMS*). Taki aparat i modele są stosowalne również do układów, które nie stanowią przedmiotu badań fizyki w takim wąskim sensie. Do nich zaliczają się różnorodne układy biologiczne, techniczne, informatyczne, socjologiczne itp.

Centralnym problemem NMS jest problem nieodwracalności procesów w przyrodzie, na mocy, którego istnieje wydzielony kierunek czasu ( od przyszłości do przyszłości ). O upływie czasu można sądzić nie tylko posługując się strzałką czasu ( czas jako parametr zewnętrzny ) Można również sądzić na podstawie zdarzeń ( np. synteza i rozpad , kreacja i śmierć ), które generują cały czas nowe i nowe sytuacje, napędzając tym samym ewolucje układu. Problem nieodwracalności po raz pierwszy został postawiony, sto lat temu, kiedy Ludwig Boltzmann próbował wprowadzić opis statystyczny ewolucji czasowej układu, składającego się z dużej liczby cząstek. Mimo, że na takie zagadnienie poświęcono wiele wysiłku, cały ten problem pozostał nierozwiązany. Zazwyczaj problem ten formułujemy następująco : jak na podstawie odwracalnych równań ruchu dla procesów mikroskopowych można wyjaśnić obserwowaną nieodwracalność ?

Pierwszą idee rozwiązania takiego problemu w ramach kinetycznej teorii gazów było wprowadzenie H-twierdzenia Boltzmanna [1].

Wraz z pojawieniem się efektywnych metod przybliżonych w teorii wielu ciał, np. metoda funkcji Greena lub całkowanie w przestrzeniach funkcjonalnych, zostały osiągnięte ( w szczególności w ciągu ostatnich 30-tu lat ) istotne wyniki w mikroskopowym opisie układów makroskopowych. Podobne metody pozwalają rozpatrywać nawet układy gęste, własności których określane są nie przez cząstki izolowane, ale wzbudzenia kolektywne. Współczesne metody NMS, np. teoria nieliniowej reakcji lub metoda operatora rzutowego, pozwalają uwzględniać efekty wielocząstkowe.

(2)

W ostatnich latach w NMS pojawił się nowy kierunek badań. Jest on związany z pewnymi wynikami otrzymanymi dla układów złożonych, np. w ramach analizy zagadnienia ergodycznego i z tym faktem, że rozwiązania równań dynamicznych prowadzą do chaotycznego reżimu ruchu układu. W takich badaniach zarysowało się nowe podejście do opisu układów znajdujących się daleko od stanu równowagi. Takie zjawiska jak nierównowagowe przejścia fazowe i tworzenie się struktur, mają głęboki związek z aktualnymi i aktywnie badanymi obszarami fizyki teoretycznej. Uniwersalność układu pojęć i modeli, wykorzystywanych w NMS, dała możliwość zapoczątkowania nowej gałęzi badań, która została nazwana

„synergetyką”. Szczegóły jej omówienia można znaleźć np. w monografiach [2 – 4 ].

Konkretne postępy osiągnięto również w analizie układów nieliniowych. Niektóre przejawiane przez takie układy własności nie mogą być otrzymane w ramach teorii zaburzeń. Opracowane w ostatnich latach metody pozwoliły otrzymać nowe, charakterystyczne dla układów nieliniowych typy rozwiązań ( np. solitony ). Szczególny interes przedstawia również taka gałąź NMS jaką są układy relatywistyczne.

Do wciąż jeszcze nierozwiązanych (mimo długiej historii intensywnych badań tego zagadnienia ) problemów MS zaliczają się turbulencje w cieczach. Jednakże omówienie wszystkich wymienionych problemów wychodzi poza przyjęte ramy przedstawionej książki.

W opinii autora współczesne osiągnięcia NMS, powinny zająć odpowiednie miejsce w ogólnym wykładzie fizyki.

Podstawą przedstawionego podręcznika były wykłady prowadzone przez autora na Uniwersytetach w Dreźnie, Rostoku.

Przy pisaniu niniejszej książki znaczną uwagę poświęcono różnorodnym podejściom ku NMS z uwzględnieniem omówienia ich na jednym poziomie. W odróżnieniu od specjalistycznych monografii, poświęconych konkretnym zagadnieniem NMS wymagających od czytelnika solidnego przygotowania, celem niniejszej książki jest przedstawienie materiału w możliwie szerokim konspekcie, ale na takim poziomie, który zakłada znajomość fizyki teoretycznej na poziomie ogólnego wykładu uniwersyteckiego tak aby był on dostępny dla studentów wyższych lat i początkujących specjalistów. Bardziej złożone rozdziały, analiza których nie jest wymagana dla zrozumienia dalszego materiału, zostały zaznaczone gwiazdką.

Do obecnej chwili NMS nie stanowi zamkniętej teorii. Do tej pory nie zostały sformułowane zasady, na podstawie których omawiany rozdział fizyki teoretycznej można byłoby traktować jako jedną naukę. W przedstawionej książce w ramach określonego podejścia metodologicznego, unifikującego wyłożony materiał, wykorzystano podejście, oparte na pojęciu relewantnego operatora statystycznego, jak również idee o związku opisu stochastycznego i dynamicznego procesu fizycznego. W rozdziale 1 rozpatrzono elementy teorii procesów stochastycznych, która pozwala wprowadzić dogodne dla opisu procesów nierównowagowych pojęcia i równania.

W centrum uwagi rozdziału 2 jest wyprowadzenie równań dla procesów nierównowagowych i odwracalnych równań dynamiki. Wprowadzamy w nim pojęcie relewantnego operatora statystycznego i przedstawiamy metodę operatora rzutowego, który prowadzi do „poprawionej” mechanice hamiltonowskiej.

W rozdziałach 3 i 4 wcześniej wyłożoną teorię doprowadzamy do takiego etapu, że można ją już zastosować do obliczenia konkretnych układów nierównowagowych. Jeśli rozpatrzona w rozdziale 3 teoria kinetyczna pozwala przeprowadzić obliczenia procesów transportu w gazach i plazmie, to przedstawiona w rozdziale 4 teoria liniowej reakcji rozwinięta została głownie dla analizy zupełności układów z silnymi oddziaływań między cząsteczkowych.

Rozdział 5 zawiera szkic zastosowania metody funkcji Greena do zagadnień nierównowagowych, poruszono w nim niektóre inne ważne zagadnienia MS procesów nierównowagowych.

Szereg zagadnień praktycznych NMS omawianych jest na konkretnych przykładach. Pełny wykład podobnych zagadnień wychodzi poza ramy niniejszego kursu. Podpowiedzi do rozwiązań podanych w tekście zadań, umieszczono na końcu książki. W większości przypadków wychodziliśmy z statystyki kwantowej, rozpatrując klasyczną statystykę jako przykład graniczny tej pierwszej. Dla dalszej lektury można rekomendować książkę [4a], zawierającą podstawowy wykład teorii procesów stochastycznych, zjawisk relaksacyjnych, teorii reakcji liniowych i teorii wielu cząstek.

(* w dalszej kolejności autor skalda liczne podziękowania *)

Rostock, listopad 1988 Gerd Röpke

(3)

************************************************************************************************

Rozdział 1 Procesy stochastyczne.

Rozpatrzmy ewolucje czasową pewnego układu. Nie wszystkie jego własności określone są przez zadanie warunków granicznych i początkowych. Z całego szeregu przyczyn ( niepełna wiedza o stanie początkowym i oddziaływania z otaczającym ośrodkiem, zasadnicza nieprzewidywalność zdarzeń ) ewolucja takiego układu może następować na wielu drogach, o realizacji których można mówić z większym lub mniejszym prawdopodobieństwem. W niniejszym rozdziale omawiamy teorię procesów stochastycznych oraz pojęcie rozkładu prawdopodobieństwa. Wykład ten ilustruje licznymi przykładami.

W fizyce statystycznej procesów nieodwracalnych pojęcie procesu stochastycznego zajmuje miejsce centralne.

Wykorzystywane dla opisu procesów nieodwracalnych równania są związane ściśle z podstawowym równaniem kinetycznym – równaniem Fokkera-Plancka lub równaniem Langevina. W niniejszym rozdziale opowiemy o tych równaniach, a w następnym podamy ich związek z makroskopowym deterministycznym opisem układu.

W teorii procesów stochastycznych wykorzystuje się cały szereg specjalnych metod matematycznych, np. teorie stochastycznych równań różniczkowych. Rozwiązanie takich równań wymaga uogólnienia szeroko wykorzystywanej w fizyce klasy funkcji analitycznych poprzez dołączenie do niej funkcji nieróżniczkowalnych, a nawet funkcji nieciągłych.

Chociaż metody takie leżą u podstaw NMS, będziemy je rozpatrywali w sposób ogólny.

Literatura dotycząca procesów stochastycznych jest bardzo obszerna. Metody teorii procesów stochastycznych są szeroko wykorzystywane w różnych obszarach nauki – matematyce, elektrotechnice, fizyce, chemii, biologii, socjologii.

Pośród licznych i nowych monografii na wyróżnienie zasługuje książka : N. G. Van Kampen - Procesy stochastyczne w fizyce i chemii , PWN 1990

w której jasno i dokładnie omawiane są zastosowania metod teorii procesów stochastycznych w fizyce i podano ich różnorodne przykłady. Matematyczne aspekty teorii procesów stochastycznych w związku z ich zastosowaniami podano w książce Gardinera [6]. Dla dalszego zaznajomienia z tematem można zarekomendować monografie [3, 7 – 9 ].

1.1 Definicja procesu stochastycznego.

1.1.1 Zdarzenie i prawdopodobieństwo.

Pewne wyobrażenie o procesie stochastycznym można otrzymać, badając dynamikę przyrostu naturalnego. Liczebność populacji można w przybliżeniu przedstawić w postaci ciągłej funkcji czasu t. W istocie zmienia się ona skokowo : o +1 ( narodziny ) lub o –1 (śmierć )

Chociaż oddzielne akty noszą charakter przypadkowy, ze wszystkimi wynikającymi z tego konsekwencjami, globalnie zmiana liczebności populacji następuje w sposób ciągły i przewidywalny. Odchylenie od przewidywalności możemy wyjaśnić na konkretnej sytuacji.

Procesy tego rodzaju są spotykane często w fizyce. Nazywamy je procesami narodzin – śmierci. Do nich odnoszą się np.

procesy syntezy i rozpadu, wzbudzenia i wygaszenia, tworzenia się i zanikania określonych struktur. Niektóre z nich omówimy dokładniej w niniejszym rozdziale. Procesy te różnią się od innych poprzez szczególną rolę jaką odgrywa w nich przypadek : zdarzenia są w nich z zasady nieprzewidywalne. W charakterze przykładu zazwyczaj rozpatruje się rozpad jądra pierwiastka radioaktywnego w zadanym interwale czasowym ( ti , ti + ∆t )

O zdarzeniu przypadkowym mówimy, jeśli znając stan układu we wszystkich chwilach wcześniejszych, nie możemy określić jego dalszego zachowania, innymi słowy, jeśli w przyszłości może realizować się kilka różnych możliwości.

Ani optymalna informacja o przeszłości układu, ani skrupulatne przygotowanie układu, ani zadanie warunków, za pomocą których można kierować układem, nie pozwala przewidywać jego ewolucji, tj. przewidywania zmiany w czasie jej parametrów ( np. trajektorii w MK )

Prostym modelem ruchu, zawierającym element przypadkowości, jest jednowymiarowe błądzenie przypadkowe ( rys.1.1 ) Stan układu określony jest przez miejsce xn = nd, gdzie d długość kroku, n – liczba całkowita. W określonych chwilach czasu ti ,układ (* np. pijany pieszy *) wykonuje krok na prawo lub na lewo. Trajektoria ruchu x(t) = n(t)d ma charakter nieregularny, tak że jego postać wcześniejsza nie pozwala powiedzieć niczego o jej przyszłości. O tym, ze istnieje realna szansa zaistnienia również innych trajektorii, można się łatwo przekonać rozpatrując kilka jednakowych układów, wykonujących błądzenie przypadkowe.

(4)

Rys. 1.1 Jednowymiarowe błądzenie przypadkowe.

Na początku zastanowimy się na pewnych cechach charakterystycznych procesu stochastycznego. Niech wielkość A w zadanych chwilach czasu ti przyjmuje takie lub inne wartości a(ti ) z pewnego obszaru liczb, zbioru wszystkich stanów lub przestrzeni fazowej. Przykładami mogą być następujące zbiory.

a) Skończony zbiór stanów dyskretnych przy rzucaniu monety. Stanami możliwymi są „orzeł” z(ti ) lub „reszka” w(ti ) (rys. 1.2 )

Rys. 1.2 Możliwe stany przy rzucie monetą.

b) Przeliczalny zbiór dyskretnych wartości liczby cząstek idealnego gazu n(ti ) w zadanej objętości (rys. 1.3) lub liczebność populacji n(ti ) w procesie narodzin- śmierci.

Rys. 1.3 Fluktuacje liczby cząstek idealnego gazu w objętości V.

c) Przypadek graniczny ciągłego zbioru wartości prędkości cząstki brownowskiej ( makroskopowej cząstki zawieszonej w cieczy ) (rys. 1.4 )

(5)

Rys. 1.4 Prędkość cząstki brownowskiej.

Wartość a1(t1), którą wielkość A przyjmuje w zadanym momencie czasu ti nazywa się jej realizacją.

Wielkość A może zmieniać się w czasie. W chwili t2 > t1 w miejsce możliwego stanu a1(t1), może realizować się stan a2(t2 )( a1 a2 ).

W najprostszym modelu procesu stochastycznego wykorzystuje się czas dyskretny, tak że w każdej chwili ti realizuje się stan ai. Przy przejściu od jednej chwili czasu do drugiej następuje zmiana stanu ( praktycznie natychmiastowo ) i każdej chwili czasu odpowiada określony stan. Teraźniejszość – jest to cięcie, oddzielające przeszłość ( stany zrealizowane ) od przyszłości ( stany możliwe ). Analiza możliwych wariantów przyszłości, lub ocena szans określonego wyjścia stanowi właśnie zadanie dla fizyki. Z postawieniem tego zagadnienia na bazie podstawowego równania kinetycznego, zapoznamy się w podrozdziale 1.1.4.

Dla pewnej konkretnej wielkości A nie zawsze istnieje szansa realizacji takiego lub innego wyjścia, tj. wyboru z różnych możliwości. Zadając warunki zewnętrzne, można ustalić wartość tej wielkości. Jednakże w określonych chwilach czasu warunki zewnętrzne mogą doprowadzić układ do stanu niestabilnego, tak ze dalsza ewolucja „wybiera” pomiędzy kilkoma stanami stabilnymi ( bifurkacja, multistabilność, przejście fazowe ). W takich niestabilnych stanach ważną rolę odgrywają fluktuacje. Wzmocnienie mikroskopowych fluktuacji do poziomu czułości przyboru mikroskopowego następuje w procesie pomiaru.

Przy analizie podukładów większych układów całkowity układ zadaje warunki, przy których następuje zmiana stanu podukładu. Jeśli rozpatrywać tylko podukład, zmiana jego stanu występuje jako proces przypadkowy. Jednakże, jeśli uwzględnimy pełny układ, to zmiana taka może okazać się w pełni deterministyczna. Aby dokładnie ocenić szanse tego lub innego wyjścia dla podukładu, należy znać jej oddziaływanie z pełnym układem. Jeśli w charakterze przykładu

rozpatrujemy ruch auta do zadanego punktu, to łatwo się przekonać, że mimo na nieuporządkowania odchylenia od idealnej trasy na niewielkich odcinkach drogi ( lub nawet przeciwnie do niej ), auto osiągnie daleko umiejscowiony cel.

Jeszcze jednym przykładem oceny szans na powodzenie jest gra w warcaby. Na początku mamy wrażenie, że ruchy według ustalonych zasad mają charakter przypadkowy. Jednakże w procesie rozgrywki, kiedy każdy z przeciwników dąży do wygranej, taka przypadkowość zostaje znacznie ograniczona. Ruch pionka dla postronnego obserwatora, który nie zna celu i drogi jego realizacji, może wydawać się przypadkowy.

Do ważniejszych osiągnięć MQ należy stwierdzenie o tym, że w przyrodzie istnieje fundamentalna przypadkowość.

Mają miejsce takie zmiany układu, które nie są powodowane zewnętrznym oddziaływaniem na układ, ba nie są w ogóle kierowane takimi oddziaływaniami, np. powstanie stanu wzbudzonego przy przejściu kwantowym w odcinku czasowym ( t, t + ∆t ). Dokładna znajomość warunków początkowych i działającej na układ siły nie jest wystarczająca, aby

jednoznacznie ustanowić ewolucje takiego układu.

Zatem przypadkowość i prawdopodobieństwo stanowią pojęcia fundamentalne przy opisie ewolucji takich układów.

1.1.2 Proces przypadkowy (stochastyczny).

Proces – jest to zmiana stanu zachodząca w czasie. Jeśli pojawiają się stany dyskretne ai w dyskretnych chwilach czasu ti to realizacja procesu zadana jest przez ciąg {ai(ti )} , i =1, ... , n

Jeśli chodzi o zmienną ciągłą a, zależną od czasu t, to realizacja procesu opisywana jest przez funkcje a(t).

Kiedy mówimy o procesie przypadkowym A(t), to zakładamy, że istnieje nie jedna jego realizacja, a cały ich zbiór. Każdej możliwości realizacji ciągu {ai(ti )} przyporządkowujemy prawdopodobieństwo p( a1, t1, ... , an, tn ) jego realizacji, a każdej możliwej funkcji a(t) – funkcjonał prawdopodobieństwa pn[a(t)].

Proces przypadkowy A(t) określony jest przez możliwe realizacje {ai(ti )} lub a(t) wielkości A oraz rozkład prawdopodobieństwa p ( rys. 1.5 )

(6)

Rys. 1.5 Proces stochastyczny. Każdej funkcji z danej klasy funkcji przyporządkowujemy odpowiednie prawdopodobieństwo.

Rozkład prawdopodobieństwa p dla pewnego procesu można związać z prawdopodobieństwami stanów w zadanych momentach czasu. Ciąg prawdopodobieństw ( dla przypadku zmiennej ciągłej a(t) – będzie to ciąg gęstość

prawdopodobieństwa ) :

p1(a1, t1 ), p2(a1, t1; a2, t2 ) , ... , pn(a1, t1 ; ... ; an, tn )

daje prawdopodobieństwo tego, że w chwili t1 realizuje się wartość a1, w chwili t2 – wartość a2 itd.

Są one dodatnio określone i niezależne od uporządkowania par ai, ti. Określenie prawdopodobieństw niższych rzędów otrzymujemy z prawdopodobieństw wyższych rzędów poprzez ich sumowanie ( lub całkowanie ) po wszystkich możliwych stanach, które odnoszą się do wybranych chwil czasu. Mamy przykładowo :

dampm(a1, t1; am, tm ) = pm–1(a1, t1 ; ... ; am–1, tm–1 ) (1.1)

W przypadku zmiennych dyskretnych całkowanie zamieniamy na sumowanie. Dla prawdopodobieństwa jednoczesnego p1spełniona jest następująca zależność normalizacji :

da1p1(a1, t1) (1.2) Z prawdopodobieństw niższych rzędów nie możemy otrzymać prawdopodobieństw wyższych rzędów. W procesie

określania prawdopodobieństw na drodze całkowania ( lub sumowania) część informacji o procesie stochastycznym zostaje utracona. Przykładowo, prawdopodobieństwo p2 zawiera korelacje stanów w różnych chwilach czasu, a

prawdopodobieństwo p1 takich korelacji nie zawiera.

Inne podejście do analizy procesów stochastycznych polega na wykorzystaniu prawdopodobieństw warunkowych : ( dla prawdopodobieństwa warunkowego (1.3) wykorzystuje się standardowo oznaczenie :

pn|m(an+1, tn+1; ... ; an+m , tn+m | a1, t1 ; ... ; an, tn ) [6]

Dogodność wykorzystywanego przez nas oznaczenia (1.3) polega na tym, że porządek argumentów pn|m odpowiada wzrostowi czasu :

t1 t2≤ ... ≤ tn tn+1 tn+m )

które wyrażają prawdopodobieństwo realizacji wartości an+1, ... , an+m w chwilach tn+1, ... , tn+m przy warunku, że w chwilach t1, ... , tn miały miejsce wartości odpowiednio a1, ... , an

Ze zbioru wszystkich możliwych procesów wybieramy podzbiór realizacji, odpowiadający zadanym wartościom a1(t1 ), ...

, an(tn ). W ten sposób określamy nowy proces stochastyczny względem chwil czasu tn+1 , ... , tn+m. Szczególne znaczenie ma prawdopodobieństwo warunkowe :

pn|1(a1, t1; ... ; an , tn | an+1, tn+1 )

które przedstawia sobą prawdopodobieństwo przejścia w stan an+1 w chwili czasu tn+1 przy warunku, że w chwilach t1, ... , tn realizują się stany odpowiednio a1, ... , an. Jeszcze raz zauważmy, ze w przypadku dyskretnych wartości a rozpatrujemy prawdopodobieństwa, a w przypadku wartości ciągłych – gęstości. Rozkłady dyskretne można zapisać w postaci ciągłej za pomocą δ-funkcji.

(7)

Dla prawdopodobieństw warunkowych spełnione są następujące zależności :

Można pokazać, że proces stochastyczny jest określony całkowicie przez wszystkie pn|1 i p1.

Dla klasyfikacji procesów stochastycznych ważne znaczenie mają następujące możliwości : a) Proces z wartościami całkowicie niezależnymi :

W danym procesie nie występuje korelacja pomiędzy zdarzeniami, zachodzącymi w różnych chwilach czasu.

b) Proces Markowa ( t1< t2 < ... < tn+1 ) :

Przejście ze stanu w chwili tn w stan w chwili tn+1 nie jest zależne od historii. Ten szczególnie prosty proces stochastyczny, określony jest faktycznie przez rozkład prawdopodobieństwa p1(a0 ,t0 ) w pewnej ustalonej chwili początkowej t0 oraz prawdopodobieństwa warunkowe :

p1|1(a1, t1 | a2, t2 ) W szczególności mamy :

Proces Markowa – jest to najprostszy proces, opisujący przyczynowy związek pomiędzy zdarzeniami, występującymi w różnych chwilach czasu. Jego znaczenie dla fizyki polega na tym, że daje on wygodny model analityczny i jednocześnie pozwala opisać duży krąg zjawisk fizycznych.

1.1.3 Rozkłady jednowymiarowe p1.

Zbiór możliwych stanów a(t1) = a i odnoszący się do niego rozkład prawdopodobieństwa p1(a1, t1) = p(a) określają zmienna stochastyczną A. W charakterze przykładów rozpatrzymy wymienione w podrozdziale 1.1.1 procesy a – c a) Przy rzucaniu monety (sprawiedliwej ) prawdopodobieństwo wyrzucenia orła i reszki są równe :

p(z) = p(w) = ½

Przy rzucaniu kostki (sprawiedliwej ) prawdopodobieństwo wyrzucenia każdej z liczb n = 1, ... , 6 jest jednakowe i równe p(n) = 1/6.

Wartości tych prawdopodobieństw są tu postulowane ( są to tzw. prawdopodobieństwa apriori ) Ważnym przykładem jest rozkład binarny (rys. 1.6 ) :

W szczególności daje on rozkład prawdopodobieństwa n-krotnego wypadnięcia reszki w N próbach przy rzucie monetą, rozkład dróg jakie przeszedł piechur po N krokach przy jego ruchu przypadkowym, rozkład N molekuł w dwóch dużych jednakowych objętościach.

(8)

Jeśli prawdopodobieństwo zdarzenia elementarnego ( rzutu monetą, przemieszczenia piechura w jednym kroku, pojawienie się molekuły w objętości V1 lub V2 ), nie jest równe ½ tylko 1/ 1 + γ lub γ / 1 + γ np. γ = V1/V2, to mamy do czynienia z rozkładem Bernoulliego :

( Standardowo rozkładem binominalnym – dwumianowym nazywamy rozkład o postaci : pN(n) = ( N ) pn qW–n

( n ) gdzie p + q = 1.

W szczególności, przy p = q + ½ otrzymujemy rozkład (1.8), a przy p = 1/ 1 + γ , q = γ / 1 + γ - rozkład (1.9) )

który przy γ = 1 przechodzi w rozkład binominalny (1.8)

Rys. 1.6 Prawdopodobieństwo n-krotnego wypadnięcia reszki (z) przy 10 –krotnym rzucie monetą ( rozkład dwumianowy ) b) Przykładem dyskretnego nieskończonego, ale przeliczalnego zbioru zdarzeń o możliwych wartościach n = 0, 1, 2 ...

jest liczba cząstek n idealnego gazu w zadanej objętości. Prawdopodobieństwa p(n) = pn mówiąc ogólnie są nieujemne i unormowane następująco :

ΣΣΣΣ pn = 1 n=0

Rozkład prawdopodobieństw pn można scharakteryzować również poprzez inne wielkości, np. momenty, które określane są przez wyrażenia :

Dla prawdopodobieństw pn możemy zbudować funkcje tworzącą :

Momenty Φm i kumulanty Θm określone są przez następujące zależności :

(9)

One również charakteryzują rozkład prawdopodobieństwa. Słuszne są następujące równości : F(1) = Φ0 = 1 ( warunek normalizacji ) oraz

Φ1 = Θ1 = µ1 = ΣΣΣΣ npn n=0

Dla momentów mamy również wyrażenia :

Φm = < N(N – 1 ) ... ( N – n + 1 ) > (1.13)

Rozpatrzmy ważny przykład – rozkład Poissona ( rys. 1.7) :

pn = ( µ1n /n!) exp(–µ1 ) (1.14)

Rys. 1.7 Rozkład Poissona.

Dla rozkładu Poissona wszystkie kumulanty, oprócz pierwszej (Θ1 = µ1 ) zerują się. Rozkład ten opisuje np. liczbę cząstek n w zadanej objętości gazu idealnego ( zobacz również podrozdział 1.4.2 )

Kolejnym przykładem jest rozkład geometryczny ( rozkład Pascala ) :

pn = ( 1 – γ )γn ; n = 0, 1, 2, ... (1.15)

Wielkość (1.15) wyraża np. prawdopodobieństwo znalezienia na n-tym wzbudzonym poziomie oscylatora harmonicznego ( o częstości własnej ω0 ), umieszczonym w termostacie o temperaturze T. Dla takiego oscylatora, jak wiemy :

γ = exp( –hω0 /kBT )

Zadanie 1.1 Pokazać, że przy γ → 0 , N → ∞, Nγ = µ1 rozkład Bernoulliego przechodzi w rozkład Poissona.

Zadanie 1.2 Obliczyć pierwszy moment i kumulant dla rozkładu Poissona.

c) Współrzędna brownowskiej cząstki stanowi przykład zmiennej przypadkowej o wartości z obszaru ( –∞ < a < ∞ ).

Gęstość prawdopodobieństwa p(a) jest nieujemną funkcją , która spełnia warunek normalizacji :

p(a) da = 1

–∞ Dla zmiennej przypadkowej A możemy utworzyć momenty µm rozkładu prawdopodobieństwa :

(10)

Nawias < ... > oznacza uśrednienie funkcji zmiennej przypadkowej A po odpowiednim rozkładzie prawdopodobieństwa p(a).

Funkcja charakterystyczna :

jest funkcją tworzącą dla momentów µm , a funkcja :

- jest funkcją tworząca dla kumulant κm które wyrażają się poprzez kombinacje momentów.

Przykładowo : κm = µ2 – µ12 = σ2 - jest kwadratem dyspersji wielkości a.

Bardzo ważnym przypadkiem jest rozkład Gaussa ( rozkład normalny ) ( rys. 1.8 ) :

Rys. 1.8 Rozkład Gaussa.

Wszystkie kumulanty tego rozkładu κm przy n > 2 są równe zero. Rozkład normalny opisuje np. dyfuzje w przestrzeni współrzędnościowej lub rozkład prędkości dla ruchu Browna ( zobacz również podrozdział 1.3 )

Zadanie 1.3 Znaleźć funkcje tworząca i obliczyć momenty i kumulanty dla rozkładu Gaussa.

Zadanie 1.4 Pokazać, że rozkład Gaussa można rozpatrywać jako przypadek graniczny rozkładu dwumianowego przy przejściu do zmiennej przypadkowej N , n ½ N

(11)

Zadanie 1.5 Pokazać, że jeśli dwie niezależne wielkości przypadkowe mają rozkład normalny, to ich suma jest również wielkością przypadkową o rozkładzie normalnym. ( ogólniejszym wynikiem dla rozkładu o skończonej dyspersji jest centralne twierdzenie graniczne [13] )

Rozpatrzone tutaj rozkłady prawdopodobieństw można uogólnić na f wielkości przypadkowych : a = ( a(1), a(2), … , a(f) )

W szczególności, rozkład Gaussa w tym przypadku ma postać :

Symetryczna macierz :

^ )ij = < ( A(i) – µ1(i) ) ( A(j) – µ1(j) ) > (1.20)

nazywamy macierzą korelacji. Według niej możemy wnioskować czy fluktuacje wielkości A(i) i A(j) są statystycznie niezależne czy też istnieje pomiędzy nimi korelacja ( zobacz podrozdział 1.2.1 )

Wykorzystując funkcje tworzącą kumulant można pokazać, ze dla kilku wielkości przypadkowych o rozkładzie normalnych A(i) ( < A(i) > = 0 ) słuszna jest zależność :

gdzie sumowanie przebiega po wszystkich rozbiciach na pary.

Momenty nieparzyste zerują się. Mamy np. :

1.1.4 Procesy Markowa i podstawowe równanie kinetyczne.

Jak mówiliśmy w podrozdziale 1.1.2 proces Markowa opisywany jest z pomocą jednowymiarowego rozkładu prawdopodobieństwa p1(a0 ,t0 ) w ustalonej chwili czasu t0 i prawdopodobieństwo przejścia p1|1( a1, t1 | a2 ,t2 ) Wszystkie rozkłady prawdopodobieństwa wyższego rzędu pn( a1, t1 ; ... ; an ,tn ) wyrażają się poprzez podane prawdopodobieństwa ( zobacz zależność (1.6)).

Proces Markowa charakteryzuje się tym, że przejścia wewnątrz dwóch kolejnych interwałów czasu są wzajemnie

niezależne. Stąd wynika, że ewolucja czasowa w procesie Markowa określona jest tylko przez stany chwilowe, a nie przez prehistorię układu. Jak się dalej przekonamy, taka okoliczność wyraża się matematycznie w tym, że proces Markowa opisywany jest przez równanie różniczkowe pierwszego rzędu względem czasu.

Rozpatrzmy trójwymiarowy rozkład prawdopodobieństwa ( zobacz zależność (1.7)) przy t1< t2 < t3 :

Po przesumowaniu ( lub całkowaniu w przypadku ciągłego rozkładu ) po wszystkich stanach a2 otrzymamy ( zależność (1.1)) :

Rozdzielając obie części (1.23) na p1( a1, t1) dochodzimy do równania :

(12)

To ważne równanie, słuszne dla procesów Markowa nazywa się równaniem Chapmana-Kołmogorowa lub równaniem Smoluchowskiego. Prawdopodobieństwo przejścia w dwóch kolejnych w czasie krokach jest równe iloczynowi

prawdopodobieństw przejścia ze stanu wejściowego do pewnego stanu pośredniego oraz prawdopodobieństwa przejścia z tego stanu pośredniego do stanu końcowego, przy czym prowadzimy sumowanie ( lub całkowanie ) po wszystkich stanach pośrednich ( rys. 1.9)

Rys. 1.9 Równanie Chapmana-Kołmogorowa. Sumowanie prowadzimy po wszystkich stanach pośrednich.

Z definicji procesu Markowa (1.6) może wydawać się, że dla takiego procesu istnieje wydzielone skierowanie czasu.

Jednakże analogiczną zależność można zapisać również dla odwrotnego skierowania czasu.

Z równania widać, że nie ma wyróżnionego skierowania czasu.

Jeśli rozpatrzymy przejście do pewnego stanu w chwili czasu t3 = t2 + t w granicy t 0 otrzymamy równanie Chapmana-Kołmogorowa w postaci różniczkowej. Należy tutaj wykorzystać zależność p1 | 1 ( a1, t1 | a2 , t1) = δa1a2 Zależność ta oznacza, że w pewnej chwili czasu t1 układ znajduje się w stanie a1 i nie może się znajdować w stanie a2 a1. Rozkładając p1 | 1 ( a1, t1 | a2 , t1) w szereg względem potęg t = t2 – t1, otrzymujemy :

Wielkość w(a2 , a1; t1 ) charakteryzuje częstość przejść ( prawdopodobieństwo przejścia w jednostce czasu ) ze stanu a1 w stan a2 a1w chwili t1. Z warunku normalizacji (1.4) :

otrzymamy :

W granicy ∆t → 0 możemy zaniedbać człony rzędu (∆t )2. Ponieważ :

(13)

z równania Chapmana-Kołmogorowa (1.24) dla prawdopodobieństwa przejścia ze stanu a1 w chwili t1 w stan a2 w pewnej dalszej chwili czasu t3 = t2 + ∆t tj. dla wielkości :

otrzymamy następujące równanie dla warunków prawdopodobieństw :

Mnożąc obie części (1.29) przez p1(a1, t1 ) i sumując po wszystkich możliwych stanach a1, otrzymujemy :

Zamieniliśmy tutaj t2 na t, a2 i a3 na a’. Równanie (1.30) nazywa się równaniem master ( podstawowe równanie kinetyczne lub równanie M – w języku polskim nie ma w tej kwestii jednoznacznej terminologii. W dalszym tekście posługuje się wymiennie tymi terminami ).

Możemy go interpretować jako równanie prędkościowe dla rozkładu prawdopodobieństw ( rys. 1.10)

Pierwszy człon w prawej części (1.30) opisuje wzrost prawdopodobieństwa przebywania układu w stanie a na skutek przejścia z dwóch stanów (a’ ) w dany stan a. Drugi człon opisuje odpowiednie zmniejszanie się prawdopodobieństwa.

Łatwo możemy uogólnienie tego równania na kilka zmiennych losowych.

Zadanie 1.6 Wyprowadzić równanie M dla ciągłej zmiennej przypadkowej, analogicznie do tego jak to zrobiono dla przypadku zmiennej dyskretnej.

(14)

Rys. 1.10 Podstawowe równanie kinetyczne jako równanie prędkościowe dla rozkładu prawdopodobieństwa.

Waga procesu Markowa polega na tym, że opisywany jest on przez bardzo proste równania i jednocześnie dają one wystarczająco ogólny model matematyczny, mogący być zastosowany do dużej liczby zagadnień fizycznych.

Przy założeniu, że dla małych interwałów czasu t prawdopodobieństwa przejść są proporcjonalne do t, otrzymujemy równanie M, które dla procesów typu Markowa pozwala analizować zachowanie układu w dużych interwałach czasowych wychodząc od danych o jego zachowaniu na małych interwałach czasowych. Istnienie częstości przejść w ( a’, a ; t ) wyraża bezpośrednio markowskie zachowanie układu w krótkich czasach ( zachowanie mikroskopowe ). Częstość tą można obliczyć z dynamiki układu, np. tak jak będzie pokazane w podrozdziale 2.4, za pomocą teorii zaburzeń.

Możliwość opisania konkretnego procesu fizycznego z pomocą procesu Markowa zależy również od tego ile zmiennych wykorzystujemy dla opisu stanu układu. W tym związku często będziemy omawiali następujący przykład.

Rozpatrzmy dynamikę zamkniętego izolowanego układu, ruch cząstek którego spełnia prawa klasycznej mechaniki.

W przestrzeni fazowej ( napiętej na współrzędnych i pędach wszystkich cząstek tego układu ) czasowa ewolucja opisywana jest z pomocą zdegenerowanego procesu Markowa, w którym stan przyszły jest określony jednoznacznie przez stan obecny ( przyjmujemy, że z prawdopodobieństwem równym 1, realizuje się konkretna trajektoria ).

Prawdopodobieństwo przejścia w przestrzeni fazowej posiada δ-podobną formę. Jednakże, jeśli ograniczymy się tylko do przestrzeni konfiguracyjnej ( napiętej na współrzędnych wszystkich cząstek ), ewolucja czasowa układu już nie będzie procesem Markowa. W takim przypadku jest określona przez konfiguracje nie tylko w bieżącej ale i wcześniejszej chwili czasu. Odpowiada to tej okoliczności, że do prawa Newtona wchodzi druga pochodna współrzędnej po czasie. Zatem, przez każdy punkt przestrzeni konfiguracyjnej może przechodzić kilka trajektorii.

W fizyce często wykorzystuje się ograniczenie liczby zmiennych w celu opisania pewnego stanu ( np. makroskopowy opis układu wielu cząstek ). Przy takim ograniczeniu traci się pierwotny markowski charakter procesu, co wyraża się w

pojawieniu się „pamięci”. W dużych skalach czasowych proces ponownie nosi w przybliżeniu charakter procesu Markowa.

1.1.5 Przykład – rozpad radioaktywny.

Niech w chwili t0 mamy n0 wzbudzonych jąder materii radioaktywnej, a prędkość rozpadu pojedynczego jądra jest równa w.

Rozpad radioaktywny można rozpatrywać jako proces przypadkowy, w którym liczba wzbudzonych jąder n(t) w chwili t przyjmuje wartości 0, 1, 2, ... , n0 ( prawdopodobieństwa wartości n > n0 można przyjąć równe 0 )

Podstawowe równanie kinetyczne (1.20) dla rozkładu prawdopodobieństwa p1(n, t ) przyjmuje postać :

(15)

Uwzględniono tutaj, to że prawdopodobieństwo rozpadu n wzbudzonych jąder w jednostce czasu jest równa nw.

Innymi słowy, procesy rozpadu są statystycznie niezależne. Z uwzględnieniem warunku początkowego : p1(n, t0 ) = δn, n0

czasowa zależność rozkładu prawdopodobieństw jest określona całkowicie przez równanie M.

W celu rozwiązania tego równanie wykorzystamy metodę funkcji tworzącej dla prawdopodobieństw p1(n, t ) ( zobacz podrozdział 1.1.3 )

Pomnóżmy obie części równania (1.31) przez zn i przesumujmy po wszystkich n :

Ogólne rozwiązanie równania różniczkowego (1.32) ma postać :

gdzie funkcja f określona jest przez warunki brzegowe dla F(z, t).

Dla naszego przykładu znajdujemy :

Dane rozwiązanie pozwala w każdej chwili czasu t określić wszystkie statystyczne własności jednoczesnego rozkładu p1 ,a także wszystkie rozkłady wieloczasowe. Mamy zatem :

Wychodzimy tutaj z funkcji tworzącej :

z warunkiem brzegowym :

Szczególny interes stanowią dla nas momenty :

< Nm >t = ΣΣΣΣ nm p1(n, t ) n=0

rozkładu p1 Oprócz tego, z ln F znajdujemy kumulanty ( zobacz zależność (1.12)) :

(16)

Pierwsza równość w (1.38) wyraża znane wykładnicze prawo zmniejszania się z czasem liczby radioaktywnych jąder ( rys. 1.11). Odchylenie średniokwadratowe od tego wykładniczego prawa wyraża się przez kwadrat dyspersji : σ2 (t) = < Nm >t – < N >t2

Z wyrażenia (1.38) znajdujemy :

Rys. 1.11 Rozpad radioaktywny : wartość średnia, obszar ufności ( rozrzut wariancji ) i realizacja.

Zgodnie z własnością Markowa można zbudować również wszystkie wieloczasowe rozkłady prawdopodobieństw, konieczna dla pełnego opisu omawianego procesu stochastycznego.

Zadanie 1.7 Zapisać rozkład prawdopodobieństw p2( n1, t1; n2 , t2 ) dla rozpadu radioaktywnego.

1.2 Funkcje korelacyjne i gęstość spektralna.

1.2.1 Funkcja autokorelacyjna i korelacyjna.

Jak mówiliśmy w podrozdziale 1.1.3 zmienną przypadkową A(t1) można scharakteryzować nie tylko rozkładem prawdopodobieństwa p1(a, t1), ale również przez momenty ( zobacz (1.16)) :

lub kumulanty κn(t1 ).

(17)

Niższe kumulanty mają prosty sens :

κ1 = µ1 – wartość średnia ( środek ciężkości ) rozkładu

κ2 = µ2 – µ12 = σ2 = < ( A – µ1 )2 > - średni kwadrat fluktuacji ( kwadrat dyspersji ) rozkładu, który charakteryzuje rozrzut wartości zmiennej przypadkowej.

Pojęcia moment i kumulanty można uogólnić na przypadek kilku zmiennych przypadkowych A(i)(t1) , i = 1, ... , f Dla każdej zmiennej przypadkowej można zdefiniować wartość średnią :

Macierz korelacji ( zobacz (1.20)) :

służy jako uogólnienie średniego kwadratu fluktuacji. Jeśli element (ϕ^)ij , i ≠ j, nie jest równy zero, to zmienne A(i)(t1) i A(j)(t1) nie są statystycznie niezależne – istnieje pomiędzy nimi korelacja.

Do procesów stochastycznych możemy podejść inaczej : w miejsce jedne zmiennej przypadkowej A(t) można w oddzielnych punktach czasowych ti wprowadzić zmienne przypadkowe A(i)(ti ), przy czym liczba wybranych punktów czasowych może być dowolnie duża. Wtedy dla opisania procesu stochastycznego w miejsce chwilowych rozkładów prawdopodobieństw pn( a1, t1; ... ; an, tn ) lub chwilowych prawdopodobieństw warunkowych

pn |m( a1, t1; ... | ... ; an+m, tn+m ) możemy wykorzystać zależne od czasu funkcje korelacyjne.

Zatem, wraz z zależnymi od czasu wartościami średnimi µ(i)

1(t1) lub µ1(t) możemy zadać funkcje korelacyjne, najprostsza z których są dwuczasowe funkcje autokorelacyjne :

Funkcje autokorelacyjne opisują korelacje zmiennej A, charakteryzującej układ, w dwóch różnych punktach czasowych ( rys. 1.12)

Rys. 1.12 Funkcja autokorelacyjna dla rozpadu radioaktywnego ( zobacz zadanie 1.7)

Jeśli zmienne przypadkowe A(ti ) w różnych punktach czasowych przyjąć jako składowe wieloskładnikowego procesu A(i), to funkcja autokorelacyjna ma strukturę, analogiczną do macierzy korelacyjnej.

Możemy wprowadzić również zależne od czasu wartości średnie oraz funkcje korelacyjne dla wielo składnikowych procesów stochastycznych A(i)(t), i = 1, ... , f.

(18)

W szczególności funkcja korelacyjna :

zawiera oddziaływanie różnych zmiennych A(i), i A(j) w różnych chwilach czasu. W granicy t2 t1 z funkcji autokorelacyjnej otrzymamy kwadrat dyspersji, a z funkcji korelacyjnej – macierz korelacji.

Należy wyróżnić ważne przypadki szczególne zależnych od czasu rozkładów prawdopodobieństw.

a) Jeśli wszystkie prawdopodobieństwa pn( a1, t1; ... ; an, tn ) przy przesunięciu początku odniesienia czasu nie zmieniają się, to mówimy o procesie stacjonarnym.

b) Jeśli dla procesu Markowa prawdopodobieństwo przejścia p1|1( a1, t1 | a2, t2 ) przy przesunięciu początku odniesienia czasu nie zmieniają tj. są funkcjami tylko różnicy t1– t2 = ∆t, to mówimy o procesie jednorodnym. W tym przypadku częstość przejść w( a2, a1, t) nie zależy od czasu.

Przykłady procesów jednorodnych będziemy rozpatrywali w podrozdziałach 1.3 i 1.4.

Dla procesu stacjonarnego jednoczesny rozkład prawdopodobieństw p1(a, t), jak również wszystkie momenty µn nie zależą od czasu. Funkcje – autokorelacyjna i korelacyjna zależne są tylko różnicy czasu t1– t2 = ∆t, zatem początek odmierzania czasu można wybrać dowolnie. Ma miejsce następująca własność :

Dla funkcji autokorelacyjnej otrzymujemy w szczególności ( rys. 1.13) : ϕ(∆t ) = ϕ(–∆t )

Rys. 1.13 Ekspotencjalny zanik funkcji korelacyjnej dla procesu stacjonarnego ( prędkości cząstki brownowskiej ) Zadanie 1.8 Ustanowić związek pomiędzy funkcją autokorelacyjną i wielkościami σ , p1, p1 | 1.

Zadanie 1.9 Obliczyć funkcje autokorelacyjną dla rozpadu radioaktywnego ( zobacz podrozdział 1.1.5 ) 1.2.2 Przekształcenie Fouriera procesu stochastycznego.

Jeśli zadany jest proces stochastyczny A(t), to każdej funkcji a(t) można przyporządkować funkcjonał prawdopodobieństwa p[a(t)]. Podany rozkład prawdopodobieństwa dla procesu stochastycznego jak już powiedziano można scharakteryzować chwilową funkcją korelacyjną. Jeszcze jedna możliwość opisu procesu stochastycznego polega na tym, aby funkcje a(t) rozłożyć po zadanym układzie funkcji (* np. ortogonalnych *) i zadać rozkład prawdopodobieństwa dla współczynników takiego rozkładu.

W niniejszym podrozdziale przyjmiemy zmienna stanu a jako funkcje ciągłą z równą zero wartością średnią.

Funkcje a(t) można rozłożyć po funkcjach periodycznych exp(iωt) ( przekształcenie Fouriera ).

Taki rozkład należy jednakże przeprowadzić w sposób szczególny, bowiem dla np. procesu stacjonarnego wszystkie składowe rozkładu Fouriera są równe zero ( nie ma wyróżnionej fazy ). Dlatego też rozpatrzymy jednoskładnikowy rzeczywisty proces stochastyczny :

aT(t) = a(t) przy – ½ T t ½ T oraz a(t) = 0 poza zadanym interwałem zmienności t.

(19)

Rozkłada Fouriera :

określa również odwrotne przekształcenie Fouriera (obraz Fouriera ) :

Z warunku rzeczywistości funkcji aT(t), tj. z warunku a*T(t) = aT(t), od razu otrzymujemy a*~

T(ω) = a~T(–ω).

Z pomocą obrazu Fouriera a~T(ω) możemy określić gęstość spektralną S(ω) ( spektrum energetyczne ) procesu stochastycznego :

( nie będziemy się przy tym zastanawiali nad dowodem istnienia powyższej granicy )

Gęstość spektralna S(ω) określa średnią intensywność przypadająca na interwał ( ω, ω + dω ).

W charakterze przykładu rozpatrzymy promieniowanie EM, tak że wielkością fluktuującą jest natężenie pola elektrycznego E(t) ( akty emisji następują z różnymi fazami ). Rozkładając światło z pomocą spektrometru, otrzymujemy rozkład

intensywności względem częstości ( rys. 1.14)

Rys. 1.14 Gęstość spektralna fluktuującego pola elektrycznego ( rozkład spektralny światła )

Z warunku rzeczywistości a*~T(ω) = a~T(–ω) wynikają następujące zależności dla gęstości spektralnej :

S(ω) = S*(ω) = S(–ω) (1.48)

1.2.3 Twierdzenie Wienera-Chinczyna.

Gęstość spektralna S(ω) procesu stacjonarnego A(t) i funkcja autokorelacyjna ϕ(∆t) związane są następującymi zależnościami :

( niekiedy wykorzystuje się inną definicje gęstości spektralnej :

lub

(20)

Tak określona gęstość spektralna związana jest z gęstością spektralną (1.49) poprzez zależność : S’(ω) = (1/π) S(ω) lub S’(f) = 2S(2πf )

Wyrażenie (1.49) odpowiada definicji gęstości spektralnej w monografii [19] ( wzory (2.56), (2.62), (6.32), (9.13) itd. ) ) Jak zatem widać, funkcja autokorelacyjna i gęstość spektralna związane są przekształceniem Fouriera, a zależności (1.49) nazywają się twierdzeniem Wienera-Chinczyna.

Dowód tego twierdzenia wynika z (1.46) i (1.47) :

Jeśli czas T jest wystarczająco duży w porównaniu z różnicą czasu ∆t, dla którego funkcja ϕ(∆t) jest jeszcze znacznie różna od zera, to druga z całek w wyrażeniu (1.50) może być rozciągnięta na cały obszar ( -∞, +∞ ).

Przy tym otrzymujemy wynik (1.49).

W charakterze najprostszego przykładu zastosowania twierdzenia Wienera-Chinczyna rozpatrzymy ekspotencjalnie zanikającą funkcje autokorelacyjną :

ϕ(∆t) = < A2 > exp( – | ∆t | /τ ) (1.51)

Funkcja autokorelacyjna (1.51) zanika w czasie rzędu τ ( czas korelacji ).

Gęstość spektralna w takim przypadku ma postać :

S(ω) = < A2 > [ 2τ / 1 + (ωτ )2 ] (1.52)

Częstościowa zależność gęstości spektralnej ma postać zależności Lorentza. Taka zależność przedstawiona jest na rysunku 1.15 w skali logarytmicznej.

Rys. 1.15 Gęstość spektralna S(ω) szumu białego z częstością graniczną ωc = 1013 [Hz]

Typowa wartość korelacji czasowej τ, powiedzmy dla prędkości elektronów w metalu ma rząd 10–13 [s].

Dla częstości ω << 1/ τ spektrum energetyczne praktycznie nie zależy od częstości.

W takim przypadku mówimy o szumie białym poniżej częstości granicznej ωc = 1/τ.

Zadanie 1.10 Pokazać, że dla procesu stacjonarnego < A~(ω) A~(ω) > ~ δ( ω + ω’ ).

(21)

1.3 Ruch Browna

1.3.1 Równanie Langevina

W 1827 angielski botanik R. Brown analizował nieuporządkowany ruch pyłku kwiatowego w cieczy, w ten sposób opisał on ruch nazwany jego imieniem. Ruch taki wyjaśniamy tym, że cząstki makroskopowe zawieszone w cieczy, doznają w sposób ciągły losowych uderzeń ze strony otaczających je molekuł, uderzenia takie dają niezerową siłę wypadkową o charakterze losowym. Ruch Browna pozwala na podstawie obserwacji wielkości makroskopowych wnioskować o naturze procesów, przebiegających w skalach atomowych. Jednocześnie ruch ten daje nam ważny metodologiczny przykład dla zorientowania się w podstawowych pojęciach teorii procesów przypadkowych oraz opisu procesów nierównowagowych.

Wyobraźmy sobie cząstkę brownowską w postaci kuli o promieniu R i masie m, poruszającej się w cieczy z prędkością v.

Ruch taki można opisać, wprowadzając działająca na kulę siłę tarcia F, dla której przy niezbyt dużych prędkościach ma miejsce półempiryczne prawo Stokesa :

F = –mγv , γ = 6πRη /m (1.53)

η = ρν – lepkość dynamiczna, ν - lepkość kinematyczna , ρ - gęstość cieczy, γ - współczynnik tarcia.

Równania ruchu :

v(t) = –γv(t) (1.54)

w przypadku nie występowania innych sił ma rozwiązanie o postaci :

v(t) = v(t0)exp[ –γ( t – t0 )] (1.55)

Prędkość v0 = v(t0) w chwili t0 zmniejsza się zgodnie z prawem wykładniczym, tak że cząstka dąży do stanu w którym będzie ona spoczywała względem cieczy. Jednakże rozwiązanie to nie pozwala opisać ruchu Browna, ponieważ w takim ruchu cząstka nie dąży do stanu spoczynku względem cieczy. Na skutek zderzeń z molekułami cieczy cząstka znajduje się w stanie ciągłego i nieuporządkowanego ruchu. Zatem równanie (1.54) nie daje wyczerpującego opisu ruchu cząstki zawieszonej w cieczy.

Langevin uogólnił równanie ruchu cząstki Browna, wprowadzając dodatkową „siłę przypadkową” R(t) ( ściślej mR(t)) :

V(t) = –γV(t) + R(t) (1.56)

Zgodnie z takim równaniem, prędkość cząstki brownowskiej reprezentuje sobą proces stochastyczny V(t). Siła przypadkowa

R(t) ( siła Langevina ) opisuje wpływ otaczających cząstek i powinna ona posiadać następujące własności : a) Wartość średnia każdej składowej siły przypadkowej jest równa zero :

< Ri(t) >v0 = 0 , t > t0 (1.57)

Równanie ruchu (1.56) jest stochastycznym równaniem różniczkowym, które wiąże proces stochastyczny R(t) z procesem stochastycznym V(t) w tym sensie, że każdej realizacji r(t) przyporządkowano rozwiązanie v(t) równania różniczkowego (1.56) przy zadanym warunku początkowym v0 = v(t0) ( ściślej pojęcie stochastycznego równania różniczkowego wprowadzimy w podrozdziale 1.5 )

Indeks dla nawiasu średniowania oznacza, że uśrednianie prowadzimy tylko po takich realizacjach procesu

stochastycznego, dla których spełniony jest warunek v0 = v(t0). Warunek (1.57) oznacza, że siła przypadkowa nie wpływa na uśredniony ruch ( zobacz dalej następny podrozdział )

b) Rozpatrywany proces stochastyczny przyjmujemy jako proces Gaussa, a wtedy wszystkie funkcje korelacyjne wyższych rzędów można wyrazić przez dwuczasowe funkcje korelacyjne :

ϕij ( t1, t2 ) = < Ri(t1) Rj(t2) >v0

Dla rzędów parzystych mamy ( zobacz zależność (1.21)) :

gdzie sumowanie prowadzimy po wszystkich parach.

Wszystkie funkcje korelacyjne rzędu nieparzystego, np. pierwszy moment (1.57) są równe zero.

c) Dwuczasowe funkcje korelacyjne mają postać :

< Ri(t1) Rj(t2) >v0 = ϕij ( t1 – t2 ) = 2Dδij δ( t1– t2 ) (1.59) Korelacja pomiędzy różnymi składowymi siły przypadkowej ( i ≠ j ) nie występują, zatem takie składowe są statystycznie niezależne. Siła przypadkowa R(t) zmienia się na tyle szybko, że korelacje pomiędzy jej wartościami w różnych chwilach czasu można przyjąć równe zero. Funkcja korelacyjna (1.59) składowych siły przypadkowej ( przypadkowe źródło w równaniu Langevina ) posiada zerowy czas korelacji, a dyspersja siły przypadkowej przy t1 = t2 jest rozbieżna.

(22)

d) Proces stochastyczny V(t) – prędkość cząstki Browna – jest statystycznie niezależny od siły przypadkowej R(t’ ) przy t’ > t, a zatem nie zależy od zachowania siły przypadkowej w przyszłości :

< V(t )R(t’ ) >v0 = 0 przy t’ > t (1.60)

Przy t’ < t wielkości V(t) i R(t’ ) są naturalnie związane. Funkcje korelacyjną dla źródła siły Langevina można uogólnić, przyjmując czas korelacji τ dla ϕij ( t1– t2 ) skończony, ale małym w porównaniu z czasem charakterystycznym 1/γ.

Dalej, intensywność langevinowskiego źródła D w równaniu (1.59) przyjmujemy jako stałą, nie zależną od chwilowej prędkości cząstki brownowskiej v(t). Założenie to ogranicza równanie Langevina do przypadku liniowego. Dla przypadku liniowego D zależy od v co dalej prowadzi do szeregu trudności matematycznych [1*].

13.2 Metody rozwiązywania równania Langevina.

Równanie Langevina (1.56) jest stochastycznym równaniem różniczkowym ( zobacz podrozdział 1.5.1 ) o postaci :

dV /dt = f(V, t ) + g(V , r ) R(t) (1.61)

z warunkiem początkowym v0 = v(t0) Funkcje f, g charakteryzują zdeterminowaną część równania (1.61), a wielkość R(t) – szum. W szczególności, dla równania Langevina (1.56) mamy f(v , t ) = – γv, g(v , t ) = 1.

Składowa przypadkowa R(t ) opisuje szum biały ( δ-podobna korelacja ). Proces stochastyczny jest określony całkowicie poprzez zadanie momentów wieloczasowych. Konkretnie przy wykorzystaniu równania Langevina zakłada się, ze siła przypadkowa reprezentuje sobą proces Gaussa, tj. jest określona tylko poprzez zadanie średniej ( zależnego od czasu pierwszego momentu ) i funkcji (auto) korelacyjnej lub jej obrazu Fouriera – spektrum energetycznego.

Rozwiązanie równania Langevina również opisuje proces stochastyczny, tj. V(t) zadane jest nie w postaci funkcji v(t), a w postaci wieloczasowych rozkładów prawdopodobieństw lub momentów wieloczasowych dla wszystkich możliwych funkcji v(t).

Dokładniej nad równaniami stochastycznymi zastanowimy się w podrozdziale 1.5. Równanie te dają nam nowy w porównaniu ze standardowymi równaniami różniczkowymi matematyczny sposób, pozwalający analizować związki zachodzące pomiędzy procesami stochastycznymi.

Nie podając dowodu, zauważymy jedynie, że rozwiązanie stochastycznego równania różniczkowego o postaci (1.61) ze źródłem szumu gaussowskiego opisuje również stochastyczny proces Gaussa ( zobacz zadanie 1.16).

W tym przypadku dzięki markowskiemu charakterowi procesu stochastycznego rozwiązanie jest określone całkowicie poprzez podanie pierwszego momentu ( średniej ) i funkcji autokorelacyjnej lub jej spektrum energetycznego.

W celu rozwiązania stochastycznych równań różniczkowych wykorzystuje się w szczególności następujące metody : a) bezpośrednie całkowanie.

b) przekształcenie Fouriera.

c) teorię zaburzeń lub źródła przypadkowego

d) całkowanie w przestrzeni funkcjonalnej ( rozdział 1.5.2 )

W następnym podrozdziale omówimy równanie Fokkera-Plancka dla odpowiednich rozkładów prawdopodobieństw, ale najpierw zastanowimy się dokładniej nad punktami a i b.

Ad. a) Możemy przeprowadzić formalne całkowanie równania Langevina (1.56) :

Każdej realizacji r(t) procesu stochastycznego R(t) odpowiada realizacja v(t). Dla wartości średniej procesu stochastycznego

V(t) mamy :

Ostatni człon tego wyrażenia zeruje się na mocy własności (1.57) źródła przypadkowego. Człon pierwszy w prawej części (1.63) opisuje czasową zależność wartości średniej, a zatem opisuje ruch makroskopowy.

Dla drugiego momentu ( funkcja autokorelacyjna przy t1 = t2 ) z (1.62) z uwzględnieniem warunku (1.57) otrzymujemy :

(23)

Z uwzględnieniem (1.59) znajdujemy :

W dużych czasach t układ „zapomina” stan początkowy v0 ( rys. 1.16). W wyniku tego faktu otrzymujemy stan końcowy – stan stacjonarny, równowagę :

lim < Vi2(t) >v0 = D/γ (1.66)

t→∞

Rys. 1.16 Ruch Browna. Różne początkowe rozkłady v0 dążą do jednego i tego samego rozkładu – rozkładu Maxwella.

Z drugiej strony dla układu klasycznego, znajdującego się w stanie równowagi termicznej, jak wiadomo, słuszne jest prawo mówiące o równomiernym rozkładzie energii przypadającej na jeden stopień swobody :

< Vi2 > = kBT/m Zatem otrzymujemy :

D/γ = kBT/m (1.67)

Ta ważna zależność ustanawia związek ( przy zadanej temperaturze T i masie m, cząstki brownowskiej ) pomiędzy współczynnikiem tarcia γ i siłą źródła D w równaniu Langevina. Zależność tę nazywa się wzorem Einsteina [19a].

Szczególna własność tego równania polega na tym, że wiąże ono wielkość makroskopową γ, opisującą dyssypacje pędu, z mikroskopową charakterystyką D, wyrażająca fluktuacje siły przypadkowej. Dlatego też zależność (1.67) stanowi ważny przykład, rozpatrywanego w rozdziale 4 twierdzenia fluktuacyjno-dyssypacyjnego.

b) Dla pochodnej po prędkości, przekształcenie Fouriera ( zobacz wzór (1.46)) daje :

(24)

Przechodząc do obrazów Fouriera w równaniu Langevina, otrzymujemy równanie algebraiczne :

( iω + γ ) v~(ω) = R~(ω) (1.69)

Zgodnie z twierdzeniem Wienera-Chinczyna (1.49) dla spektrum energetycznego < | R~(ω) |2 > źródła szumu otrzymamy :

W ten sposób spektrum nie zależy od ω ( szum biały ). Z uwzględnieniem (1.69) otrzymujemy :

Jeśli wykorzystamy prawo < Vi2 > = kBT/m, to z zależności :

ponownie otrzymamy wzór Einsteina (1.67), z którego teraz wynika związek pomiędzy spektrum energetycznym źródła szumu oraz współczynnikiem tarcia :

Jest to szczególny przypadek twierdzenia fluktuacyjno-dyssypacyjnego.

Dla współrzędnych cząstki w sposób analogiczny znajdujemy :

Dalej otrzymujemy spektrum energetyczne dla współrzędnej X~(ω) :

Jeśli zadane jest spektrum energetyczne, to tym samym zadana jest funkcja autokorelacyjna. Ponieważ współrzędna X(t) jest procesem Markowa typu gaussowskiego, to jest ona określona przez rozkład początkowy i funkcje autokorelacyjną.

( Należy zauważyć, że X(t) nie jest procesem stacjonarnym, a procesem o stacjonarnych przyrostach. Jednakże na taki przypadek można również uogólnić pojęcia funkcji autokorelacyjnej i spektrum energetycznego [5] )

1.3.3 Równanie Fokkera-Plancka.

Równanie Langevina, będące stochastycznym równaniem różniczkowym, pozwala przyporządkować każdej realizacji źródła r(t) realizacje v(t). W miejsce tego, aby poszukiwać wszystkich rozwiązań v(t) i określać ich prawdopodobieństwa i momenty, można bezpośrednio otrzymać równania dla wieloczasowych rozkładów, odpowiadające równaniu Master.

W niniejszym podrozdziale zrobimy to dla rozkładu jednoczasowego prawdopodobieństwa p1(a, t) dla przypadku procesu Markowa. W wyniku tego otrzymamy równanie Fokkera-Plancka. Po analizie podejścia ogólnego omówimy zastosowanie równania Fokkera-Plancka dla opisu ruchu Browna ( następny rozdział ). Dalsze omówienia własności równania Fokkera- Plancka, oraz jego zastosowań można znaleźć w monografii [19b].

Wyjdziemy od równania Master (1.30), przyjmując zmienne a, t jako zmienne ciągłe :

(25)

Równanie to w pierwszej kolejności oznacza, ze czasowa zmiana rozkładu prawdopodobieństw p1(a, t) tj. jej postać w najbliższym otoczeniu t, określona jest całym procesem zmiany p1(a’, t ) do chwili t. Jednakże samo w sobie jest zrozumiałe, że natychmiastowa zmiana rozkładu p1(a, t) w punkcie a jest faktycznie określona tylko przez zachowanie p1 w bezpośrednim otoczeniu a. Rozkładając rozkład prawdopodobieństwa p1 w szereg potęgowy w punkcie a, dochodzimy do rozkładu Kramersa-Moyala :

gdzie wielkości :

reprezentują sobą częstości przejść w( a’, a ; t )

W celu uzasadnienia rozkładu Kramersa-Moyala dokonamy zamiany zmiennych, w wyniku której równanie Master (1.75) przyjmie następującą postać :

Rozkładając pierwszą składową wyrażenia podcałkowego względem potęg b, otrzymamy :

Dokonując zamiany a + b = a’, otrzymamy zależności (1.76) , (1.77).

Czasowa ewolucja rozkładu prawdopodobieństwa p1 określona jest przez momenty αnczęstości przejść.

Jeśli αn(a, t) = 0 dla n ≥ 3, to rozkład Kramersa-Moyala urywa się na drugim członie i mówimy o procesie dyfuzyjnym :

Równanie to nazywa się równaniem Fokkera-Plancka. Pierwszy człon w prawej części (1.8) nazywa się członem

konwektywnym, a drugi dyfuzyjnym. Równanie Fokkera-Plancka może być stosowane do wielu procesów fizycznych.

Pojawia się jednakże zagadnienie, przy jakich założeniach momenty αn(a, t) , n ≥ 3 zerują się. W pierwszej kolejności, dla procesu Gaussa dla którego :

Cytaty

Powiązane dokumenty

Sprawdź, czy podane funkcje są różnowartościowe i „na”, jeśli za przeciwdziedzinę przyjmiemy zbiór liczb

Uwaga: W powyższych przykładach dopuszczamy możliwość, że zapis liczby zaczyna się od cyfry

Napisz program, w którym można wybrać różne akcje (realizowane przez różne funkcje) z menu. Posłuż się instrukcją

J.Ch¡dzy«ski, Wst¦p do Analizy Zespolonej w Zadaniach, Wydaw- nictwo Uniwersytetu Šódziego.. A.Birkholc, Analiza Matematyczna, Funkcje Wielu Zmiennych,

Po włączeniu tej opcji (znajdującej się w górnej części okna) program będzie proponował wyświetlenie specjalnego okienka Opcje autokorekty za każdym razem, gdy kursor

Projekt wspóªnansowany przez Uni¦ Europejsk¡ w ramach Europejskiego

Zamiast zawiązków łodygi i liści rozwijają się w pąkach kwiatowych zawiązki części kwiatu, przy czym merystem wierzchołkowy zostaje zuŜyty na ich wytworzenie, tak Ŝe

6.10 Na ile sposobów można umieścić lwy w n klatkach, tak że w każdej klatce jest co najwyżej jeden lew i żadne dwie sąsiednie klatki nie są