• Nie Znaleziono Wyników

Całki po trajektoriach w mechanice kwantowej

N/A
N/A
Protected

Academic year: 2021

Share "Całki po trajektoriach w mechanice kwantowej"

Copied!
194
0
0

Pełen tekst

(1)

################################################################################

Całki po trajektoriach w mechanice kwantowej

Jean Zinn- Justin

Tytuł oryginału : Path integrals in quantum mechanics Oxford University Press 2005

Tłumaczenie wspomagane przekładem rosyjskim - Moskwa FizMatLit 2010

************************************************************************************************

Tłumaczenie : R. Waligóra Pierwsze tłumaczenie : 2017

Ostatnia modyfikacja : 2019-03-10 Tłumaczenie całości książki

************************************************************************************************

Wstęp własny

Zobacz tekst pt. Całki po trajektoriach w MQ i KTP

***********************************************************************************************

Wstęp

Podstawą dla niniejszej książki jest wykład „Zaawansowana mechanika kwantowa” (* Advanced quantum mechanics *) który autor wygłosił na Uniwersytecie paryskim jesienią 1996. Ponadto książka była inspirowana przez pewne rozdziały (1 – 6 oraz 39 –41 ) monografii :

J. Zinn – Justin Quantum field and critical phenomena Clarendon Press 1989, Oxford 4th ed. 2002 dla której niniejsza książka może stanowić wprowadzenie.

Po raz pierwszy niniejsza książka wydana była w języku francuskim :

J. Zinn – Justin Integrale de chemin en mecanique quantique – introduction; EDP Sciences, Les Ulis 2003

Podstawowym celem niniejszej książki jest zaznajomienie czytelnika z metodą matematyczną – całką po trajektoriach, która realizuje alternatywne podejście do mechaniki kwantowej (*QM *), ale co ważniejsze – metody, która w swej ogólnej postaci stała się kluczem do głębszego zrozumienia kwantowej teorii pola (* KTP*) oraz jej zastosowań, poczynając od fizyki cząstek, a kończąc na przejściach fazowych oraz własnościach gazów kwantowych.

Całki po trajektoriach – są to obiekty matematyczne, które można rozpatrywać jako uogólnienie standardowych całek na przypadek nieskończonej liczby zmiennych, reprezentowanych poprzez drogi. Maja one własności algebraiczne takie jak standardowe całki, jednakże z punktu widzenia analizy maja one pewne dodatkowe, nowe własności.

Całka po trajektoriach – jest mocnym instrumentem badania MQ, ponieważ szczególnie jasno ujawnia on odpowiedniość pomiędzy mechanika klasyczną i kwantową. Wielkości fizyczne są wartościami średnimi po wszystkich możliwych trajektoriach, jednakże w przybliżeniu quasi klasycznym h → 0 wkład dają tylko trajektorie które są najbliższe

trajektoriom klasycznym. Zatem, całka po trajektoriach odpowiada pewnej intuicji i daje możliwość prostego obliczania wielkości fizycznych w przybliżeniu quasi klasycznym. Fakt ten zilustrujemy na przykładzie procesów rozpraszania, jak również przy analizie własności spektralnych, oraz w przypadku przechodzenia przez barierę potencjału.

Sformułowanie MQ, oparte na całkach po trajektoriach nawet, jeśli wydaje się matematycznie bardziej złożone, niż standardowy formalizm równań różniczkowych o pochodnych cząstkowych jest bardziej sposobne do opisania układów o dużej liczbie stopni swobody, gdzie formalizm Schrödingera jest znacznie mniej użyteczny. Dlatego też pozwala on łatwo przechodzić od MQ o niewielkiej liczbie cząstek do KTP lub fizyki statystycznej. W szczególności, uogólnione całki po trajektoriach (całki polowe ) (* field integrals *) prowadza nas ku zrozumieniu głębokich wzajemnych związków między KTP i zjawiskami krytycznymi w przejściach fazowych pierwszego rodzaju.

W niniejszej książce rozpatrujemy przede wszystkim euklidesowe całki po trajektoriach. To oznacza, że budujemy reprezentacje w postaci całki po trajektoriach dla elementów macierzowych kwantowego operatora statystycznego lub macierzy gęstości przy równowadze termicznej e–βH ; H – hamiltonian kwantowy , β –odwrotność temperatury (w układzie jednostek w którym stała Boltzmanna kB jest równa 1 )

Możemy zatem opisać kwantową fizykę statystyczną z użyciem całki po trajektoriach, jak również – co jest jeszcze bardziej nieoczekiwane – pokazać odpowiedniość pomiędzy klasyczna i kwantową mechanika statystyczną.

(2)

Sformułowanie euklidesowe posiada jedną ważną dogodność – w przypadku ogólnym znacznie prościej jest określić całki po trajektoriach, określające operator e–βH (wzór Feynmana – Kaca ), niż kwantowy operator ewolucji e–i Ht/h Formalnie kwantowy operator statystyczny (lub macierz gęstości ), którego ślad jest kwantową sumą statystyczną :

ℑ(β) = tr e–βH (1)

opisuje „ewolucje“ w czasie urojonym ponieważ jest on związany z operatorem ewolucji zamiana β → it/h.

Z zależności tej od razu staje się jasna pewna trudność formalizmu euklidesowego – odpowiednie wyrażenia klasyczne posiadają nieco niezwyczajną postać co związane jest z faktem iż czas jest urojony.

Będziemy wykorzystywali pojęcia działania euklidesowego lub lagranżjanu, jak również czasu euklidesowego.

Tym niemniej, własności algebraiczne euklidesowych całek po trajektoriach mogą być łatwo uogólnione na przypadek kwantowego operatora ewolucji w czasie rzeczywistym i w ten sposób jawne wyrażenia mogą być otrzymane przy pomocy przedłużenia analitycznego, fakt ten zilustrujemy przy okazji obliczania amplitudy rozpraszania.

Warto wyróżnić jedną szczególnie ważną własność operatora statystycznego, mianowicie daje on metodę określenia struktury stanu podstawowego układu kwantowego, np. jeśli H jest ograniczony od dołu, to energia stanu podstawowego ma postać :

E0 = lim ( –(1/β) ln tr e–βH ) (2)

β→ ∞

Jeśli, oprócz tego, stan podstawowy jest jeden i jest on izolowany, to e–βH jest projektorem (*operatorem rzutowania *) przy β → +∞ na stan podstawowy | 0 > :

e–βH = e–βE0 [ | 0 > < 0 | + O(e–β(E1 – E0 ) )] (3)

Zatem, euklidesowe całki po trajektoriach często dają proste intuicyjne pojęcie obrazu struktury stanu podstawowego dla układów o dużej liczbie stopni swobody.

Zauważono, że efekty tunelowania kwantowego w przybliżeniu quasi klasycznym związane są z trajektoriami klasycznymi rozpatrywanymi w czasie urojonym. Zatem euklidesowe całki po trajektoriach są naturalnie predysponowane do rozwiązywania takiego zagadnienia.

Na zakończenie, wtarto dodać, że całka euklidesowa jest związana bezpośrednio z procesami dyfuzji, np. równanie Fokkera- Plancka mają postać równania Schrödingera w czasie urojonym. Ta klasa zagadnień zawiera w sobie w szczególności, ruch Browna, co też stanowiło motywacje dla zbudowania pierwszej całki po trajektoriach – całki Wienera.

Niniejsze książka ma następującą konstrukcję :

Celem rozdziału 1 jest pokazanie na przykładzie zwykłych całek metod i koncepcji które mogą być uogólnione na przypadek całek po trajektoriach.

Pierwsza część poświęcona jest obliczeniom standardowych całek Gaussa, średnich gaussowskich, oraz dowiedzeniu odpowiedniego twierdzenia Wicka. Wprowadzamy pojęcie stanu wkładu związanego. Pokazujemy, że wartości średnie jednomianów dogodnie jest przedstawić w postaci wykresów, które nazywa się diagramami Feynmana.

Zagadnienie obliczenia wartości średnich po miarach, nieco tylko różniącymi się od gaussowskich, może być sprowadzone do sumowania nieskończonych szeregów średnich gaussowskich.

Metoda ta nazywa się teorią zaburzeń.

Na koniec w rozdziale 1 podano krótki opis metody najszybszego spadku (* steepest descent method *) – metody, która pozawala w przybliżeniu znajdować całki o określonej postaci, sprowadzając je do pewnych przybliżeń ku całek gaussowskich.

W rozdziale 2 zbudujemy reprezentacje w postaci całki po trajektoriach dla operatora statystycznego e–βH dla przypadku hamiltonianu o prostej postaci p2/2m + V(q). Następnie w jawnej postaci obliczymy całkę po trajektoriach, opisującą ruch oscylatora harmonicznego w zewnętrznym, niezależnym od czasu polu siły. To pozwoli nam obliczać całki po trajektoriach dla dowolnych potencjałów analitycznych w ramach teorii zaburzeń. Otrzymane wyniki zastosujemy do obliczenia sumy statystycznej tr e–βE zgodnie z teorią zaburzeń i w przybliżeniu quasi klasycznym.

Wyrażenia podcałkowe w takiego rodzajach całek po trajektoriach określają miarę, określoną dodatnie na drogach.

Dlatego też naturalnym jest wprowadzenie odpowiednich średnich, nazywanych funkcjami korelacyjnymi.

Momenty takiego rozkładu można otrzymać różniczkując funkcjonalnie tzw. Funkcjonał tworzący.

Jak pokażemy w rozdziale 3, wyniki uzyskane w rozdziale 2 można zastosować do określenia spektrów całej klasy hamiltonianów w pewnych układach przybliżonych. Pokażemy również jak w ramach całki po trajektoriach pojawia się zasada wariacyjna i rozwiążemy kilka zagadnień związanych z O(N)- symetrią w granicy dużych N.

W rozdziale 4 zinterpretujemy funkcje korelacyjne, wyprowadzone w rozdziale 2 z pozycji klasycznej fizyki statystycznej, porównując klasyczna mechanikę statystyczną układów jednowymiarowych z kwantową mechaniką statystyczną cząstki.

(3)

W rozdziale 5 zbudujemy całki po trajektoriach dla hamiltonianów o ogólnej postaci, liniowych po prędkościach, takich jak np. hamiltoniany cząstek w polu magnetycznym. Pokażemy, że problem wyboru uporządkowania operatorów kwantowych pociąga za sobą niejednoznaczności w określeniu całki po trajektoriach. Rozpatrzymy również pewne procesy dyfuzji, opisywane przez równanie Fokkera –Plancka, które prowadzą do podobnych całek po trajektoriach.

W rozdziale 6 wprowadzimy reprezentacje holomorficzna MQ, dlatego że pozwala ono analizować własności układów bozonowych zarówno z punktu widzenia ewolucji jak i z punktu widzenia kwantowej fizyki statystycznej ( w tzw.

Formalizmie drugiego kwantowania ). W takim przypadku całka po trajektoriach posiada postać całki po trajektoriach w przestrzeni fazowej o parametryzacji zespolonej. Analogiczny formalizm, opisywany w rozdziale 7, oparty jest na całkowaniu po antykomutujących lub grasmannowskich zmiennych, dają one możliwość rozpatrywać bozony i fermiony na równym poziomie.

Rozdział 8 poświecono rozwiązaniu zagadnienia przechodzenia przez barierę w przybliżeniu quasiklasycznym i dla tego zagadnienia formalizm euklidesowy jest szczególnie użyteczny. Rozpatrzymy kwantowy zanik zdegenerowania między klasycznie zdegenerowanymi stanami energetycznymi raz rozpad stanów metastabilnych. Ważną rolę odgrywa tutaj pojęcie instantonu.

W rozdziale 9 wprowadzimy pojęcie ewolucji kwantowej (w czasie rzeczywistym ) i zbudujemy reprezentacje w postaci całki po trajektoriach dla macierzy rozpraszania (tzw. Macierz S ), otrzymując z tego standardowy rozkład perturbacyjny względem potęgi potencjału. W charakterze przykładu rozpatrzymy macierz S dla przypadków układu bozonowego i fermionowego. Następnie będziemy analizowali pewne inne przybliżenie układu quasiklasycznego.

W rozdziale 10 zawrzemy klika dodatkowych wyników, takich jak definicje całki po trajektoriach w przestrzeni fazowej, jak również problemy związane z kwantowaniem lagranżajnów z potencjałami, kwadratowymi po prędkościach.

Należy podkreślić, że w niniejszej książce będziemy trzymali się podejścia empirycznego, a zagadania ścisłości matematycznej nie będą dla nas pierwszorzędne. Naszym pierwszorzędnym celem jest podejście pedagogiczne – pokazać pojęcia całki po trajektoriach oraz jej własności z punktu widzenia fizyki. Oprócz tego, należy nauczyć się wykonywania obliczeń praktycznych z tego powodu wiele miejsca poświęcimy metodom obliczeniowym.

Na zakończenie warto zaznaczyć, że dla lektury niniejszej książki należy dysponować pewnym podstawowym zasobem wiedzy dotyczącej podstaw MQ, takimi jak zasada superpozycji, przestrzeń Hilberta, pojęcia operatorów działających na wektory określone w przestrzeni Hilberta, jak również równanie Schrödingera. Często będziemy wykorzystywali

diracowskie symbole bra i ket w celu oznaczenia wektorów i wektorów do nich sprzężonych określonych w przestrzeni Hilberta. Z tego powodu przypominamy pewne podstawowe pojęcia MQ w Dodatku A.

Krótki szkic historyczny i bibliograficzny.

Najprawdopodobniej, pierwszym kto zaproponował idee całki po trajektoriach był N. Wiener [1], który będąc zmotywowany pracą Einsteina o ruchu Browna, wykorzystał podobne podejście dla opisania własności statystycznych ruchu Browna. Ruch Browna możemy rozpatrywać jako granicę ciągłą markowskiego błądzenia losowego z dyskretnymi interwałami czasowymi. Ruch w chwili t ( t – liczba całkowita ) jest określony w sposób pełny przez określenie

położenia x w chwili t i prawdopodobieństwa p( x’ – x) przejścia z punktu x w inny punkt x’.

Dlatego, jeśli „punkt błądzący” znajduje się w chwili t w punkcie x0 , to prawdopodobieństwo Pn (xn , x0 ) znalezienia się w punkcie xn w chwili tn jest dane przez zależność :

Pn (xn , x0 ) = ∫ ... ∫ dx1 ... dxn–1 p(xn – xn–1 ) ... p(x2 – x1 ) p(x1 – x0 )

Zbiór całkowań po wszystkich zmiennych xi możemy interpretować jako uśrednienie z pewną wagą po wszystkich drogach {xi }, które rozpoczynają się w x0 i kończą się w xn w chwilach czasu przyjmujących wartości dyskretne 0, 1, ... , n

Oprócz tego w granicy n → ∞ dyskretna natura czasu nie odgrywa już roli. Na mocy centralnego twierdzenia granicznego wprowadzonego w ramach teorii prawdopodobieństwa, rozkład p( x’ – x ) możemy zamienić na rozkład Gaussa o postaci exp[ –( x – x’) /2D ], a zachowanie asymptotycznie przy tym nie zmieni się.

Taka graniczna procedura prowadzi do całki po trajektoriach – własności statystyczne ruchu Browna mogą być otrzymane poprzez uśrednienie z wagą gaussowską po klasie dróg ciągłych, zależnych od ciągłej zmiennej czasowej.

Praca Wienera jest dobrze znana, mniej znana jest natomiast praca Wentzela [2], który w ramach optyki kwantowej wprowadził koncepcje sumy po drogach z pewnym czynnikiem wagowym, zwrócił on również uwagę na destruktywną interferencje dróg, nie spełniających klasycznych równań ruchu i zinterpretował takie sumy jako amplitudy

prawdopodobieństw przejść.

Dirak [3] natomiast zapisał wyrażenie dla operatora ewolucji, przypominające całkę po trajektoriach, jednakże nie poszedł on dalej jak tylko do przybliżonej wersji z dyskretnymi interwałami czasowymi. Tym niemniej jego przybliżenie okazało się bardzo ważne z punktu widzenia fizyki relatywistycznej – pokazał on, że elementy macierzowe operatora ewolucji dla nieskończenie małego interwału czasu δt można wyrazić z użyciem pojęcia lagranżjanu £ w postaci exp( i £δt/h ) tj. w postaci jawnie kowariantnej.

(4)

Oczywiście współczesna historia całki po trajektoriach rozpoczęła się od artykułu Feynmana [4], który sformułował ewolucje kwantową z użyciem sumy po zbiorze trajektorii z wagą exp(i S/h ), S – klasyczne działanie ( całka po czasie od lagranżjanu ). Przy takim podejściu klasyczne równania ruchu pojawiają się przy obliczeniu całki po trajektoriach z użyciem metody stacjonarnej fazy. Kiedy w układzie fizycznym typowe wartości działania są duże w porównaniu z h, to podstawowy wkład do całki po trajektoriach wnoszą trajektorie bliskie klasycznym.

Sformułowanie MQ z użyciem pojęcia całki po trajektoriach daje nowe, głębsze zrozumienie zależności pomiędzy mechaniką kwantową i klasyczną. Oprócz tego całki po trajektoriach dają nam nowe instrumenty dla analizy MQ w przybliżeniu quasiklasycznym. Oprócz czysto konceptualnego przeformułowania MQ, należy zauważyć, że całki po trajektoriach stały się nieodzowne we współczesnej fizyce, np. w KTP, co wynika z tego faktu, ze z ich pomocą możemy łatwo dokonać uogólnienia na układy z dużą liczbą stopni swobody. W szczególności kwantowanie nieabelowych pól cechowania ( Faadeev, Popow 1967 ; DeWitt ) było by znacznie utrudnione jeśli nie posłużyć się sformułowaniem MQ z użyciem całek po trajektoriach. Jeśli uzmysłowimy sobie, że nieabelowe pola cechowania stanowią podstawę Modelu Standardowego fizyki cząstek, który opisuje wszystkie oddziaływania fundamentalne, to ważność powyższego faktu staje się oczywista.

Oprócz tego całki po trajektoriach odkryły głębokie związki pomiędzy KTP i fizyką statystyczną przejść fazowych.

Związki takie było by trudniej otrzymać na inne drodze. Poczynając od prac Willsona, zależności takie zaczęły odgrywać pierwszoplanową rolę w naszym współczesnym rozumieniu zjawisk krytycznych.

Z matematycznego punktu widzenia, całki po trajektoriach, opisujące ewolucje kwantową, trudno jest zdefiniować ponieważ co do modułu czynnik exp( iS/h ) jest równy 1 dla wszystkich trajektorii i dlatego sumaryczny wkład różnych trajektorii jest wynikiem interferencji. M. Kac zauważył, że jeśli zamienimy operator ewolucji exp( –iHt/h ) na operator statystyczny exp( –βH ) ( co odpowiada zamianie równania Schrödingera na równanie dyfuzji lub przewodnictwa cieplnego, to otrzymamy całkę po trajektoriach dla której wyrażenie podcałkowe ma dodatnio określoną miarę i stanowi uogólnienie całki Wienera [6]. Następnie wielu autorów zaczęło wykorzystywać całki po trajektoriach dla opisu ewolucji kwantowej dokonując przy tym przedłużenia analitycznego po zmiennej czasowej [7].

Taka strategię będziemy wykorzystywali w niniejszej książce.

W fizyce znalazło zastosowanie kilka uogólnień wejściowej idei całki po trajektoriach. Całka po trajektoriach w przestrzeni fazowej( przestrzeń współrzędnych i pędów ) z zespoloną parametryzacją – odpowiadającą reprezentacji holomorficznej MQ[8], pojawia się np. w sposób naturalny przy analizie własności układów bozonowych i w tzw.

formalizmie drugiego kwantowania. Całki po drogach Grassmanna [9, 10] dają z kolei możliwość analizy układów fermionowych i bozonowych z jednego punktu widzenia. Całki po trajektoriach rzeczywistych w przestrzeni fazowej [11- 13] pomagają intuicyjnie zrozumieć miarę całkowania, kiedy trajektorie leżą na rozmaitościach Riemanna ( rozmaitościach z niezerową krzywizną ) np. takich jak sfera [14].

W przedstawionej książce nie będziemy omawiali interesującego zagadnienia kwantowania układów z więzami, a zainteresowanego czytelnika odsyłamy do literatury [15].

Wielu autorów podkreśla, że w przypadku ogólnym, kiedy hamiltonian kwantowy nie może być otrzymany ze swojego klasycznego analogu, co związane jest z problemem uporządkowania operatorów, metoda całki po trajektoriach również nie rozwiązuje problemu, mimo tego, że formalnie wydaje się, że całka po trajektoriach zależy tylko od wielkości klasycznych. Jednakże w takim przypadku nawet ona nie jest określona jednoznacznie [16,17].

Całki po trajektoriach pozwoliły odtworzyć wiele przybliżeń quasiklasycznych z pomocą prostych i intuicyjnie zrozumiałych metod. Staje się to już jasne na przykładzie obliczenia spektrum hamiltonianów lub też z konstrukcji operatora ewolucji w przybliżeniu quasiklasycznym [14,18] z którego można otrzymać quasiklasyczne wyrażenia dla amplitud rozpraszania [19].

Wariant całki po trajektoriach z urojonym czasem ( kwantowy operator statystyczny, operator Feynmana- Kaca ) pozwolił przeanalizować przejście przez barierę w przybliżeniu quasiklasycznym [20]. W tym przypadku podstawowy wkład do całki po trajektoriach dają rozwiązania klasyczne typu instatntonów [21] i aby otrzymać całkę po trajektoriach, należy wprowadzić współrzędne kolektywne [22]. Zachowanie rozkładów teorii zaburzeń ( w pobliżu przybliżenia harmonicznego ) w wyższych rzędach można otrzymać z użyciem podobnych metod [23].

Na koniec warto wspomnieć, iż kilka książek poświeconych całce po trajektoriach ma znaczenie historyczne lub omawia inne podejście do zagadnienia. Oprócz tego zainteresowany czytelnik znajdzie w nich dodatkowe odsyłacze.

[16,24]

(5)
(6)
(7)

*************************************************************************************************

Rozdział 1 Całki Gaussa

Miary Gaussa odgrywają główną rolę w wielu działach nauki np. w teorii prawdopodobieństwa w związku z centralnym twierdzeniem granicznym, w MQ jak również w KTP, w teorii przejść fazowych i fizyce statystycznej.

Dlatego też zanim przejdziemy do omówienia całek po trajektoriach w niniejszym rozdziale przypomnimy kilka użytecznych wiadomości matematycznych dotyczących całek Gaussa, jak również własności średnich gaussowskich.

W szczególności dowiedziemy twierdzenia Wicka – prostego rezultatu, ale mającego duże znaczenie praktyczne.

W celu analizy własności wartości średnich względem dowolnej miary lub też rozkładu prawdopodobieństwa dogodnie jest wprowadzić funkcję tworzącą momentów rozkładu probabilistystycznego.

To pozwoli nam również wprowadzić funkcje tworzące rozkładu kumulant, które to posiadają szczególnie proste własności.

Metoda najszybszego spadku pozwala w przybliżeniu znajdować określony typ całek zespolonych. W każdym rzędzie przybliżenia wkłady do całek mają postać średnich gaussowskich. Dalej wyjaśnimy tę metodę zarówno dla

rzeczywistych jak i dla zespolonych całek pojedynczych i wielokrotnych, a naszym celem będzie przy tym zastosowanie tej metody do całek po trajektoriach.

Oznaczenia. W niniejszej książce będziemy wykorzystywali czcionkę pogrubioną w celu oznaczenia macierzy lub wektorów, kursywą oznaczamy elementy macierzowe lub składowe wektorów.

1.1 Funkcja tworząca.

Rozpatrzmy miarę dodatnio określoną lub rozkład probabilistyczny Ω(x1 , ... , xn ), zdefiniowany na Rn i znormalizowany w odpowiedni sposób. Dla oznaczenia wartości średniej funkcji F(x1 , ... , xn ) wprowadzimy następujące oznaczenie :

< F > ≡ dnx Ω(x)F(x) gdzie dnx ≡ Πn

i=1 dxi

Warunek normalizacji wybrano tak, że < 1 > = 1.

Zazwyczaj wygodnie jest wprowadzić obraz Fouriera rozkładu. W niniejszej książce będziemy mieli głównie do czynienia z określoną klasą rozkładów, dla których obraz Fouriera jest funkcją analityczną, istniejącą również dla argumentów urojonych.

Możemy zatem wprowadzić funkcje :

ℑ( b) = < ebx > = ∫ dnx Ω(x) ebx ; bx = Σ bixi (1.1) Dogodność takiego zapisu polega na tym, że funkcja podcałkowa jest miarą dodatnio określoną dla wszystkich wartości rzeczywistych b.

Przy rozkładzie wyrażenia podcałkowego względem potęg bk współczynnikami rozkładu są wartości średnie tj.

momenty rozkładu : ∞ n

ℑ(b) = Σ 1/ł! Σ bk1bk2... bkł < xk1xk2... xkł >

ł=0 k1, k2 ... kł = 1

Zatem, funkcja ℑ(b) jest funkcją tworzącą momentów rozkładu tj. wartości średnich funkcji jednomianowych.

Wartości średnie możemy otrzymać, różniczkując funkcje ℑ(b).

Różniczkując obie strony wyrażenia (1.1) po bk otrzymamy :

∂/∂bkℑ(b) = ∫ dnx Ω(x)xk ebx (1.2)

Powtórne różniczkowanie daje w granicy b = 0 :

< xk1xk2... xkł > = [ ∂/∂bk1∂/∂bk2 ... ∂/∂bkł ℑ(b) ] |

b=0 (1.3)

Taka reprezentacja dla funkcji tworzącej jest bardzo dogodna, a w podrozdziale 2.5.3 zostanie ona uogólniona na przypadek w którym liczba zmiennych staje się nieskończona.

(8)

1.2 Gaussowskie wartości średnie. Twierdzenie Wicka.

Na mocy centralnego twierdzenia granicznego teorii prawdopodobieństwa rozkłady Gaussa odgrywają ważną rolę we wszystkich zjawiskach stochastycznych. Dalej przypomnimy pewne własności algebraiczne całek Gaussa i średnich Gaussa. Ponieważ większość własności algebraicznych może być uogólnione a przypadek zespolonych całek Gaussa, to dalej rozpatrzymy również i taki ogólniejszy przypadek.

Całka Gaussa : n

ℑ(A) = ∫ dnx exp[ – Σ ½ xi Aij xj ] (1.4) i,j=1

jest zbieżna, jeśli macierz A o elementach Aij jest symetryczna zespolona i której cześć rzeczywista jest nieujemna (stąd wynika, że wszystkie wartości własne Re(A ) są nieujemne )

oraz żadna wartość własna ai nie jest równa zero : Re(A ) ≥ 0 , ai ≠ 0

Przy takich warunkach można z użyciem różnych metod dowieść, że :

ℑ(A) = (2π)n/2 (det A )– ½ (1.5)

Jeśli macierz jest zespolona, to wymagana jest ostrożność przy obliczaniu pierwiastka kwadratowego i przy ocenie znaku wyrażenia.

Dalej wyprowadzimy powyższą zależność dla przypadku macierzy rzeczywistych i dodatnio określonych.

W podrozdziale 1.l7 podamy dowód dla macierzy zespolonych. Inny niezależny dowód naszkicowano w ćwiczeniach.

1.2.1 Macierze rzeczywiste – dowód.

Jednowymiarowa całka Gaussa o ogólnej postaci może być stosunkowo łatwo obliczona (a > ) : +∞

∫ dx exp( –ax2 /2 + bx) = sqrt(2π/a) exp(b2/2a) (1.6) –∞

W przypadku ogólnym dowolna rzeczywista macierz symetryczna może być zdiagonalizowana poprzez odpowiednie przekształcenie ortogonalne i dlatego też macierz A w wyrażeniu (1.4) może być wyrażona następująco :

A = ODOT (1.7)

gdzie macierz O jest macierzą ortogonalną, a macierz D o elementach Dij jest macierzą diagonalną : OOT = 1 , Dij = ai δij

Dlatego dokonamy zamiany zmiennych x → y w całce (1.4) : n

xi = Σ Oij yj ⇒ xi = Σ xi Aij xj = Σ xi Oik ak Ojk xj = Σ ai yi2 j=1 i,j i,j i Jakobian ma postać : J = | det O | = 1

Teraz możemy sfaktoryzować całkę : n

ℑ(A) = Π ∫ dyi exp( –aiyi2 /2 ) i=1

Macierz A jest określona dodatnio i dlatego wszystkie wartości własne ai są dodatnie i wszystkie całki są zbieżne.

Wykorzystując (1.6) otrzymamy : ℑ(A) = (2π)n/2(a1a2 … an ) – ½

= (2π)n/2 (det A )– ½ 1.2.2 Całka Gaussa o ogólnej postaci.

Rozpatrzmy teraz całkę Gaussa : n n

ℑ(A, b) = ∫ dnx exp( – Σ ½ xi Aij xj + Σ bi xi ) (1.8) i,j=1 i=1

Aby ją obliczyć należy znaleźć minimum formy kwadratowej : n n n

∂/∂xk ( Σ ½ xi Aij xj – Σ bi xi ) = Σ Akj xj – bk = 0 i,j i=1 j=1 Wprowadzając macierz odwrotną :

∆ = A–1

możemy przedstawić rozwiązanie w postaci :

xi = Σ∆ij bj (1.9)

(9)

Po dokonaniu zamiany zmiennych xi → yi

xi = Σ∆ij bj + yi (1.10)

I całka przyjmie postać :

n n

ℑ(A, b) = exp( Σ ½ bi ∆ij bj ) ∫ dnx exp( – Σ ½ yi Aij yj ) (1.11) i,j=1 i,j =1

Zamiana zmiennych sprowadziła obliczenie do całki (1.4). dlatego możemy wnioskować, że : n

ℑ(A, b) = (2π)n/2 (det A )– ½ exp( Σ ½ bi ∆ij bj ) (1.12) i,j=1

Uwaga. Całki Gaussa posiadają ciekawa własność – po scałkowaniu po jednej zmiennej ponownie otrzymujemy całkę Gaussa. Taka struktura stabilności całki tłumaczy stabilność probabilistycznych rozkładów Gaussa i jest również związana z pewnymi własnościami oscylatora harmonicznego, które omówimy w podrozdziale 2.6.

1.2.3 Gaussowskie wartości średnie i twierdzenie Wicka.

Kiedy macierz A jest macierzą rzeczywistą i dodatnio określoną , to wyrażenie podcałkowe w całce Gaussa można rozpatrywać jako miarę dodatnio określoną (lub rozkład prawdopodobieństwa ) na Rn, która może być wykorzystywana w celu obliczenia wartości średnich funkcji n zmiennych xi :

n

< F(x) > ≡ N dnx F(x) exp( – Σ ½ xi Aij xj ) (1.13) i,j =1

gdzie czynnik normujący N określony jest z warunku < 1 > = 1.

N = ℑ–1(A, 0 ) = (2π)–n/2 (det A )½

Funkcja :

ℑ(A, b ) / ℑ(A, 0 ) = < ebx > (1.14)

gdzie ℑ(A, b ) jest funkcją (1.18) jest funkcją tworzącą momentów rozkładu tj. gaussowskich średnich jednomianów (zobacz podrozdział 1.1 )

Wartości średnie otrzymujemy przy różniczkowaniu (1.14) po zmiennych bi :

< xk1xk2... xkł > = (2π)–n/2 (det A )½ [ ∂/∂bk1∂/∂bk2 ... ∂/∂bkł ℑ(A, b ) ] | b=0 co przy zamianie ℑ(A, b ) na jawne wyrażenie (1.12) daje :

< xk1xk2... xkł > = [ ∂/∂bk1∂/∂bk2 ... ∂/∂bkł exp( Σ ½ bi ∆ij bj ) ] | b=0 (1.15) W przypadku ogólnym, jeśli funkcja F(x) reprezentuje sobą szereg potęgowy po zmiennych xi to jej wartość średnia jest zadana przez równość :

< F(x) > = [ F(∂/∂b) exp( Σ ½ bi ∆ij bj ) ] | b=0 (1.16) Twierdzenie Wicka. Równość (1.15) prowadzi nas do twierdzenie Wicka. Przy każdym różniczkowaniu eksponenty w prawej części równości pojawia się jeden czynnik b. Następnie należy ponownie różniczkować ten czynnik b, w

przeciwnym razie odpowiedni wkład znika, kiedy przyjmiemy b jako równe zero. Stąd możemy wnioskować, że wartość średnia iloczynu xk1xk2... xkł z wagą gaussowską proporcjonalną do exp( – ½ xi Aij xj ) zadana jest przez następujące wyrażenie : należy wszelkimi dostępnymi i możliwymi sposobami sparować indeksy k1k2... kł ( indeks ł powinien być parzysty, inaczej moment będzie równy zero ). Każdej parze kpkq przyporządkowujemy element ∆kpkq macierzy

∆ = A–1 wtedy :

< xk1xk2... xkł > = Σ ∆

kP1kP2 ... ∆

kPł–1kPł = (1.17)

wszystkie sparowania P indeksów { k1k2... kł }

= Σ < xkP1xkP2 > ... < xkPł–1xkPł > (1.18) wszystkie sparowania P

indeksów { k1k2... kł }

Równości (1.17), (1.18) są charakterystyczne dla wszystkich gaussowskich miar centrowanych tj. < xi > = 0 Miary takie często nazywa się twierdzeniem Wicka.

Po odpowiednie adaptacji dla potrzeb MQ lub KTP stają się one podstawą dla zbudowania teorii zaburzeń.

(10)

Zauważmy, że prostota otrzymanego wyniku nie powinna przesłaniać jego wielkiej roli praktycznej. Nadto ponieważ wyprowadzenie było czysto algebraiczne, to może być on łatwo uogólniony na przypadek całek zespolonych.

Wtedy jedynie traci się interpretacja funkcji Gaussa jako miar dodatnio określonych lub rozkładów prawdopodobieństwa.

Przykłady. Kolejno znajdujemy :

< xi1xi2 > = i1i2

< xi1xi2 xi3xi4 > = i1i2 i3i4 + i1i3 i2i4 +i1i4 i3i2

W przypadku ogólnym gaussowska średnia iloczynu 2p zmiennych jest sumą (2p – 1 )(2p – 3) ... 5x 3 x 1 wkładów (ten prosty wynik daje nam użyteczną metodę sprawdzania )

Użyteczna tożsamość. Rozpatrzmy średnia gaussowską iloczynu xiF(x) :

< xiF(x) > = N dmx xi F(x) exp( – Σ ½ xi Aij xj ) (1.19) i,j =1

Podstawiając tożsamość :

xi exp( – Σ ½ xi Aik xk ) = – Σ∆ił ∂/∂xł exp( – Σ ½ xi Aik xk ) i,k=1 ł j,k=1

do (1.19) i całkując przez części, otrzymamy zależność :

< xiF(x) > = N Σ ∆∫ dnx exp( – Σ ½ xi Aik xk ) ∂F/∂xł ł i,k =1

która może być przepisana do postaci :

< xiF(x) > = Σ < xixł > < ∂F/∂xł > (1.20)

ł

Taka postać wyrażenia może być otrzymana przy pomocy twierdzenia Wicka.

1.3 Miara Gaussa z zaburzeniem. Wkłady związane.

Nawet w tych sytuacjach, kiedy może być zastosowane centralne twierdzenie graniczne, miara Gaussa jest tylko rozkładem asymptotycznym. Dlatego użytecznym jest umieć w przybliżeniu obliczać wartości średnie z użyciem zaburzonych rozkładów Gaussa.

1.3.1 Miara Gaussa z zaburzeniem.

Rozpatrzmy ogólniejszy rozkład unormowany e–A(x, λ) /ℑ(λ ), gdzie funkcje A(x, λ) można przedstawić w postaci sumy części kwadratowej i wielomianu λV(x) po zmiennych xi :

n

A(x, λ) = ½ Σ ½ xi Aik xj + λV(x) (1.21)

i,j=1

parametr λ charakteryzuje amplitudę odchylenia od rozkładu Gaussa.

Czynnik normujący ℑ(λ ) zadany jest przez całkę :

ℑ(λ ) = ∫ dmx e–A(x, λ) (1.22) Aby go obliczyć, rozłożymy wyrażenie podcałkowe w szereg po λ i go scałkujemy człon po członie :

∞ n ∞

ℑ(λ ) = Σ (–λ)k /k! ∫ dmx Vk(x) exp( –Σ ½ xi Aik xj ) = ℑ(0 ) Σ (–λ)k /k! < Vk(x) >0 (1.23) k=0 i,j=1 k =0

Symbol < • >0 oznacza wartość średnią po unormowanej mierze Gaussa exp( –Σ ½ xi Aik xj )/ ℑ(0 )

Każdy człon w rozkładzie reprezentując sobą gaussowską średnią wielomianu, może być znaleziony z użyciem twierdzenia Wicka (1.17).

Wykorzystując równość (1.16) z F = e–λV otrzymujemy reprezentacje formalną dla funkcji (1.22) :

ℑ(λ ) /ℑ(0 ) = { exp[ –λV(∂/∂b)] exp( –Σ ½ bi ∆ik bj ) } | b=0 (1.24) i,j=1

Przykład. W przypadku zaburzenia :

V(x) = ¼! Σ xi4 (1.25)

i=1

rozkład do rzędu λ2 ma postać ( ∆A = 1 ) :

ℑ(λ ) /ℑ(0 ) = 1 – ¼! Σ < xi4 >0 + ½!(4!)2 λ2 ΣΣ < xi4 xj4 >0 + O(λ3 ) = i i j

= 1 – 1/8 λ Σ ∆ii2 + 1/128 λ2 Σ ∆ii2 Σ ∆jj2 + λ2 Σ ( 1/16 ∆ii∆jj ∆ij2 + 1/48 ∆ij4 ) + O(λ3 ) (1.26) i i j i,j

(11)

Możemy dokonać prostego sprawdzenia czynników, rozpatrując przypadek jednej zmiennej. W tym przypadku : ℑ(λ ) /ℑ(0 ) = 1 – 1/8 λ + 35/384 λ2 + O(λ3 )

Zauważmy, że pierwsze dwa człony rozkładu (1.26) eksponentują w taki sposób, że ln ℑ zawiera tylko wkłady związane tj. wkłady, które nie mogą być przedstawione w postaci iloczynu sum :

ℑ(λ ) – ln ℑ(0 ) = – 1/8 λ Σ ∆ii2 + λ2 Σ ( 1/16 ∆ii ∆jj ∆ij2 + 1/48 ∆ij4 ) + O(λ3 ) i i,j

1.3.2 Diagramy Feynmana.

Każdemu oddzielnemu wkładowi generowanemu przez twierdzenie Wicka, można przyporządkować graf, nazywany diagramem Feynmana. Każdy jednomian dający wkład do V(x), przedstawiamy wierzchołkiem z którego wychodzi tyle linii, jaka jest potęga tego jednomianu.

Każde sparowanie przedstawiamy jako linia łącząca wierzchołki do których nalezą odpowiednie zmienne.

Wkładowi związanemu odpowiada następująca własność grafu – wkładowi związanemu odpowiada diagram spójny.

Wkłady związane z czynnika normującego (1.22) (przykład 1.25) przedstawiono do rzędu λ2 na rysunku 1.1 i 1.2 (indeksy i, j odzwierciedlają sumowania w wyrażeniu (1.16))

Rys. 1.1 Diagram Feynmana – wkład < x4 >0 rzędu λ dla przykładu (1.25).

Rys. 1.2 Diagramy Feynmana – wkłady związane < xi4xj4 >0 rzędu λ2 dla przykładu (1.25).

1.3.3 Wkłady związane.

Dalej omówimy nieco dokładniej pojęcie wkładu związanego. Dalej będziemy wykorzystywali indeks c dla oznaczenia części związanej wartości średniej. Wtedy przykładowo :

< V(x) > = < V(x) >c , < V2(x) > = < V2(x) >c + < V(x) >2 c

< V3(x) > = < V3(x) >c + 3 < V2(x) >c < V(x) >c + < V(x) >3 c , ....

W przypadku ogólnym w rzędzie k możemy znaleźć : 1/k! < Vk(x) > = 1/k! < Vk(x) >c + człony nie związane Człon niezwiązany reprezentuje sobą iloczyn o postaci :

< Vk1(x) >c + < Vk2(x) >c ... < Vkp(x) >c , k1 + k2 + ... + kp = k

z wagą 1/k! pojawiającą się z rozkładu eksponenty pomnożonej przez czynnik kombinatoryczny, odpowiadający wszystkim możliwym sposobom grupowania k obiektów w kolekcje złożone z k1 + k2 + ... + kp obiektów, jeśli wszystkie ki są różne. Możemy znaleźć :

1/k! x k!/k1!k2! ... kp! = 1/ k1!k2! ... kp!

Jeśli m znaczeń ki jest równe, to należy rozdzielić na dodatkowy czynnik kombinatoryczny 1/m! Dlatego, że w przeciwnym wypadku jedne i ten sam człon będzie podliczany m! razy.

W ten sposób, rozkład perturbowany możemy zapisać w postaci :

W = ln ℑ(λ ) = ℑ(0 ) + Σ [( –λ)k /k! ] < Vk(x) >c (1.27)

(12)

1.4 Wartości średnie. Funkcja tworząca. Kumulanty.

Obliczymy momenty rozkładu : e–A(x, λ) / ℑ(λ ) ,

gdzie A(x, λ) wielomian dany przez wyrażenie (1.21) : n

A(x, λ) = Σ ½ xi Aij xj + λV(x) i,j=1

Wartości średnie o postaci < xk1,xi2 ... xił >, które będziemy nazywali funkcjami ł-punktowymi, tak jak to przyjęto w kontekście całki po trajektoriach, dane są one przez zależność :

< xi1,xi2 ... xił >λ = ℑ–1(λ) ℑi1i2 ... ił(λ) (1.28a)

i1i2 ... ił(λ) = dmx xi1,xi2 ... xił e–A(x, λ) (1.28b)

1.4.1 Funkcja dwupunktowa.

W charakterze ilustracji opiszemy niektóre etapy obliczania funkcji dwupunktowej < xi1xi2 >λ do rzędy λ2 Na początku dokonamy rozkładu całki :

ℑi1i2(λ) = ∫ dmx xi1xi2 e–A(x, λ)

W przykładzie (1.25) do rzędu λ2 otrzymamy :

ℑi1i2(λ) /ℑ(0 ) = ∆i1i2 – 1/24 ∆i1i2 Σ < xi4 >0 + ½ λ Σ ∆ii1 ∆ii ∆ii2 + i i

+ ( λ2 /2!(4!)2 ) Σ ∆i1i2 < xi4xj4 >0 + ( λ2 /2!4! ) Σ ∆ii1 ∆ii ∆ii2 < xj4 >0 + i,j i,j

+ λ2 Σ ( ¼ ∆ii1∆ii2 ∆ij2 ∆jj + 1/6 ∆i1i ∆ji2 ∆ij3 + ¼ ∆i1i ∆ji2∆ij ∆ii ∆jj ) + O(λ3 ) i,j

Teraz obliczymy zależność :

< xi1xi2 >λ = ℑi1i2(λ) /ℑ(λ )

W stosunku dwóch szeregów człony niezwiązane skracają się i w wyniku tego otrzymamy :

< xi1xi2 >λ = ∆i1i2 – ½ λ Σ ∆ii1 ∆ii ∆ii2 + i

+ λ2 Σ ( ¼ ∆i1i ∆ji2 ∆ij ∆ii ∆jj + ¼ ∆ii1∆ii2 ∆ij2 ∆jj + 1/6 ∆i1i ∆ji2 ∆ij3 ) + O(λ3 ) (1.29) i,j

Z użyciem pojęcia diagramów Feynmana wkłady rzędu 1, λ, λ przedstawiono na rysunkach odpowiednio 1.3 i 1.4.

Rys. 1.3 Funkcja dwupunktowa – wkłady rzędu 1 i λ.

Rys. 1.4 Funkcja dwupunktowa – wkłady rzędu λ2

W ten sposób możemy obliczyć funkcje czteropunktową tj. wartość średnią jednomianu czwartego rzędu o postaci ogólnej, przy tym otrzymalibyśmy dużo wkładów. Jednakże wynik upraszcza się, jeśli od razu obliczymy kumulanty rozkładu. W tym celu wygodnie jest na początku wprowadzić funkcje tworzącą wartości średnich < xi1,xi2 ... xił >λ

(13)

1.4.2 Funkcja tworząca. Kumulanty.

Wprowadźmy funkcje o postaci :

ℑ(b, λ) = ∫ dmx exp[ –A(x, λ) + bx ] (1.30)

która jest uogólnieniem funkcji (1.8) z przykładu o rozkładzie Gaussa. Jest ona proporcjonalna do funkcji tworzącej wartości średnich (1.28a) (zobacz podrozdział 1.1)

< ebx >λ = ℑ(b, λ )/ ℑ(λ)

będącej uogólnieniem funkcji (1.14). Różniczkując ją otrzymamy :

< xi1,xi2 ... xił >λ = ℑ–1(λ) [ ∂/∂bi1∂/∂bi2 ... ∂/∂bił ℑ(b, λ ) ] | b=0 (1.31) Dalej wprowadźmy funkcje :

W(b, λ ) = ln ℑ(b, λ ) (1.32)

W reprezentacji probablistycznej funkcja W(b, λ ) reprezentuje sobą funkcje tworzącą kumulant rozkładu.

Zauważmy, że w przykładzie z rozkładem Gaussa W(b) jest forma kwadratową względem b. Oprócz tego, z (1.27) widać, że rozkład perturbowany kumulant jest znaczeni prostszy ponieważ zawiera tylko wkłady związane.

W szczególności, wszystkie diagramy, odpowiadające całce normalizacji (1.26), mogą pojawić się tylko w W(0, λ ) Dlatego w stosunku ℑ(b, λ )/ ℑ(λ) skracają się one, tak jak to już zauważyliśmy na przykładzie funkcji dwupunktowej (podrozdział 1.4.1)

Uwaga. W fizyce statystycznej wartości średnie iloczynów < xi1,xi2 ... xił > nazywają się ł- punktowymi funkcjami korelacyjnymi (* l –point correlations functions *), a kumulanty :

Wi1i2 ... ił(ł) = [ ∂/∂bi1∂/∂bi2 ... ∂/∂bił W(b, λ ) ] | b=0 nazywają się spójnymi funkcjami korelacyjnymi.

Przykłady. Rozkładając (1.32) względem potęg b, znajdujemy iż funkcje jednopunktowe mają postać : Wi(1) = < xi >λ

Dla funkcji dwupunktowych :

Wi1i2(2) = < xi1xi2 >λ – < xi1 >λ < xi2 >λ = < (xi1– < xi1>λ ) ( xi2 – < xi2 >λ ) >λ

Zatem, związana funkcja dwupunktowa – jest to dwupunktowa funkcja zmiennych, z których odjęto ich wartości średnie.

W przypadku zaburzenia nieparzystego V(x) = V(–x), tak jak w przypadku (1.25) Wi1i2(2) = < xi1xi2 >λ

Wi1i2 i3i4(4) = < xi1xi2xi3xi4 >λ – < xi1xi2>λ < xi3xi4 >λ – < xi1xi3 >λ < xi2xi4 >λ – < xi1xi4 >λ < xi3xi2 >λ (1.33) Związana funkcja czteropunktowa, równa zero dla miary Gaussa daje pierwszą ocenę odchylenia miary od miary Gaussa (rys. 1.5)

Rys. 1.5 Funkcja czteropunktowa – wkłady związane rzędu λ i λ2 dla przykładu (1.25)

W przypadku (1.25) do rzędu λ2 będziemy mieli :

Wi1i2 i3i4(4) = –λ Σ ∆i1i ∆i2i ∆i3i ∆i4i + ½ λ2 Σ ∆i1i ∆i2i ∆i3j ∆i4j ∆ij2 + ½ λ2 Σ ∆i1i ∆i3i ∆i2j ∆i4j ∆ij2 + i i,j

+ λ2 Σ ∆i1i ∆i4i ∆i3j ∆i2j ∆ij2 + ½ λ2 Σ ( ∆ii ∆ij ∆i1i ∆i2j ∆i3j ∆i4j + 3 człony ) + O(λ3 ) (1.34) i,j i,j

(14)

1.5 Metoda najszybszego spadku.

Metoda najszybszego spadku jest to przybliżona metoda znajdowania określonego typu całek krzywoliniowych na płaszczyźnie zespolonej. Polega ona na aproksymacji całki przez sumę średnich Gaussa.

W pierwszej kolejności, opiszemy daną metodę dla przypadku całek rzeczywistych jednej zmiennej, a następnie

dokonamy uogólnienia na przypadek całek zespolonych. Na zakończenie rozpatrzymy również uogólnienie na przypadek dowolnej liczby zmiennych.

1.5.1 Całki rzeczywiste.

Rozpatrzmy całkę : b

I(λ) = ∫ dx e–A(x)/λ (1.35) A

gdzie A(x) – funkcja rzeczywista i analityczna w przedziale (a, b), λ – parametr rzeczywisty.

Naszym celem jest znalezienie asymptotyki całki w granicy λ → 0+

W tej granicy podstawowy wkład do całki daje maksimum wyrażenia podcałkowego tj. minimum A(x).

Możliwe są dwa przypadki :

i) Minimum A(x) osiągane jest w punkcie, leżącym na granicy całki. W takim przypadku należy rozłożyć A(x) w pobliżu tego punktu granicznego i następnie całkować, my jednakże nie będziemy analizowali takiego przypadku.

ii) Funkcja A(x) posiada jedno lub kilka minimów wewnątrz przedziału (a, b). Minima odpowiadają punktom xc , będących rozwiązaniami równania :

A’(xc ) = 0

gdzie w przypadku ogólnym A’’(xc ) > 0 (przypadek A’’(xc ) = 0 wymaga oddzielnej analizy ). Z powodów, które staną się jasne później, takie punkty nazywają się punktami siodłowymi (zobacz przykład ii)

Kiedy mamy kilka punktów siodłowych, największy wkład daje minimum absolutne A(x).

Oprócz tego, jeśli zaniedbamy poprawki rzędu exp( –const. /λ ), to obszar całkowania można ograniczyć do otoczenia (xc – ε , xc + ε ) punktu xc, ε – skończona, ale dowolnie mała. Wkład części prostej, zewnętrznej względem na dany interwał, jest w istocie ograniczony przez wielkość :

( b – a ) exp( –A’’(xc)ε2 /2λ )

gdzie własność ε << 1 jest konieczna dla tego, aby można było wykorzystać przybliżenie : A(x) – A(xc ) ~ ½ A’’(xc) (x – xc )2

Ściślej można twierdzić, że cześć obszaru całkowania dająca główny wkład, posiada rozmiar rzędu √λ.

Dlatego wygodnie jest dokonać zamiany zmiennej x → y : y = ( x – xc )/ √λ

W takim przypadku rozkład funkcji A ma postać :

A/λ = Λ(xc)/λ + ½ y2 Λ’’(xc) + 1/6 √λA’’’(xc)y3 + 1/24 λA’’’’(xc)y4 + O(λ3/2 )

Widać, że w wiodącym rzędzie można ograniczyć się do członów kwadratowych. W takim przypadku obliczenie sprowadza się do całki Gaussa w skończonych granicach :

ε/√λ

I(λ) ~ √λ exp( –A(xc)/λ ) ∫ dy e–A’’(xc )/y2/2 –ε/√λ

Można rozszerzyć obszar całkowania na cała oś rzeczywistą [ +∞, – ∞], dlatego że wkład od części osi nie wchodzącej pierwotnie do obszaru całkowania, jest wykładniczo mały względem parametru 1/λ. Dlatego też wiodący wkład dany jest przez całkę Gaussa i jest on równy :

I(λ) ~ sqrt[ 2πλ/A’’(xc)] exp[ –A(xc)/λ] (1.36)

Aby oszacować poprawkę wyższego rzędu, należy rozłożyć eksponente względem potęg λ i scałkować człon po członie.

Przyjmując :

I(λ) = sqrt[ 2πλ/A’’(xc)] exp[ –A(xc)/λ] J(λ) możemy znaleźć w kolejnym rzędzie :

J(λ) = 1 – λ/24 A’’’’< y4 > + (λ/2x 62 ) A’’’2 < y6 > + O(λ2 ) = 1 + λ/24[ 5(A’’’2/A’’3 ) – 3(A’’’’/A’’2 )] + O(λ2) gdzie symbol < • > oznacza średnią gaussowską

(15)

Uwagi.

i) Metoda najszybszego spadku generuje szereg względem potęg λ : ∞

J(λ) = 1 + Σ Jk λk k=1

który mówiąc ogólnie, jest rozbieżny dla wszystkich wartości parametru rozkładu.

Łatwo zrozumieć skąd bierze się taka rozbieżność – jeśli zmienimy znak λ w całce, maksimum funkcji podcałkowej przekształca się w minimum i punkt siodłowy już nie będzie dawała podstawowego wkładu do całki.

Tym niemniej, taki szereg jest użyteczny, dlatego iż dla małych λ sumy częściowe spełniają zależność : K

∃λ > 0 , { MK } : ∀K i 0+ ≤ λ ≤ λ | J(λ) – Σ Jk λk | ≤ MK λK+1 k=0

gdzie współczynniki MK w przypadku ogólnym rosną jak k!.

Taki szereg nazywamy szeregiem asymptotycznym. Przy ustalonym λ, jeśli indeks K wybrano w taki sposób iż realizuje się minimum oszacowania, funkcja określana jest z dokładnością do poprawek rzędu exp( const./λ)

Zauważmy, że taką ocenę można rozciągnąć również na sektor na płaszczyźnie zespolonej λ poprzez określony warunek

| Arg λ | < θ.

ii) Często spotykamy całki o ogólniejszej postaci : I(λ) = ∫ dx ρ(x) e–A(x)/λ

W takim przypadku, jeśli funkcja ln ρ(x) jest analityczna w punkcie siodłowym, nie koniecznie trzeba uwzględniać czynnik ρ(x) w równaniu punktu siodłowego.

W istocie fakt taki generuje przesuniecie x – xc położenia punktu siodłowego, otrzymywanego z równania : A’’(xc)( x – xc) ~ λρ’(xc)/ρ(xc)

Zatem, przesuniecie to ma rząd λ, podczas gdy wkład do całki daje znacznie większy obszar o rozmiarze √λ >> λ.

Dlatego też można tak jak wcześniej dokonać rozkładu w pobliżu rozwiązania równania A’(x) = 0.

W wiodącym rzędzie możemy znaleźć : I(λ) ~ sqrt(2πλ/A’’(xc )) ρ(xc) exp( –A(xc )/λ)

Zastosujemy teraz przedstawioną metodę do dwóch klasycznych zagadnień – obliczenia asymptotyk funkcji Γ, będącej uogólnieniem n! na przypadek argumentu zespolonego, jak również do zmodyfikowanej funkcji Bessela.

Przykłady. i) Klasycznym przykładem jest asymptotyczna ocena funkcji : ∞

Γ(s) = ∫ dx xs–1 e–x 0

przy s → +∞

Całka ta nie ma postaci kanonicznej (1.35), jednakże przybiera taka postać po dokonaniu liniowej zamiany zmiennych x = (s – 1)x’

Przyjmijmy s – 1 = 1/λ, wtedy : ∞

Γ(s) = (s – 1 )s–1 ∫ dx exp[ –( x – lnx )/λ]

0

Zatem A(x) = x – ln x. Znajdujemy położenie punktu siodłowego : A’(x) = 1 – 1/x = 0 ⇒ xc = 1

Druga pochodna w punkcie siodłowym jest równa A’’(xc) = 1, zatem w wiodącym rzędzie otrzymujemy :

Γ(s) ~ √2π (s – 1 )s– ½ e1– s ~ √2π ss– ½ /e–s (1.37) Wyrażenie to nazywa się również wzorem Stirlinga. Zauważmy, ze z pomocą uogólnienia danej metody na przypadek zmiennej zespolonej, którym to zajmiemy się później, można pokazać, że wynik powyższy pozostaje słuszny dla zespolonych wartości s, spełniających warunek | arg s | < π.

ii) Teraz otrzymamy asymptotykę zmodyfikowanej funkcji Bessela : π

I0(x) = (1/2π) ∫ dθ exp[x cos(θ)]

–π

( = J0(ix) ) przy x →+∞ (funkcja parzysta )

Całka ta posiada formę kanoniczną metody najszybszego spadku (x = 1/λ), a wyrażenie podcałkowe jest funkcją

(16)

Znajdźmy położenie punktów siodłowych : sin(θ) = 0 ⇒ θ = 0 (mod π )

Przy x → +∞ wiodący wkład daje punkt θ = 0. Dokonujemy rozkładu w pobliżu punktu siodłowego : xcos(θ) = x – ½ xθ2 + 1/24 xθ4 + O(θ6 )

Obszar dający wkład do całki, ma rząd θ = O(1/√x). Dlatego : ∞

I0(x) = (1/2π)ex ∫ dθ exp(– ½θ2 ) ( 1 + 1/24 xθ4 ) + O(ex/x2 ) = –∞

= (1/√2πx)ex [ 1 + (1/8x) + O(1/x2 ]

Wykorzystamy teraz powyższy przykład w celu wyjaśnienia nazwy „punkt siodłowy“. W tym celu należy zbadać funkcje cos(θ), stojąca pod znakiem całki, na płaszczyźnie zespolonej w pobliżu punktu siodłowego θ = 0.

Krzywe stałego modułu funkcji podcałkowej, są to krzywe na których funkcja Re(cos(θ)) jest stała : Re(cos(θ)) – 1 ~ ½ { [ Re(θ)]2 – [ Im(θ)]2 } = const.

Lokalnie krzywe te są hiperbolami. Przecinają się one tylko w punkcie siodłowym. Hiperbola, odpowiadająca zerowej stałej degeneruje się w dwie linie proste (rys. 1.6). Zatem, wykres modułu funkcji podcałkowej ma strukturę siodłową.

Rys. 1.6 Funkcja I0 : krzywe stałego modułu wyrażenia podcałkowego w pobliżu punktu siodłowego θ = 0.

1.5.2 Całki zespolone.

Znajdziemy teraz przybliżenie w przypadku λ → 0+ całki :

I(λ) =

dx exp[ –A(x)/λ ] (1.38)

C

gdzie A(x) – funkcja analityczna zmiennej zespolonej x; λ – rzeczywisty, parametr dodatni.

Kontur C rozpoczyna się w punkcie a, a kończy się w punkcie b na płaszczyźnie zespolonej i leży całkowicie w obszarze analityczności funkcji A. W charakterze przypadku granicznego można rozpatrzyć sytuacje, kiedy punkty a i b uchodzą ku nieskończoności na płaszczyźnie zespolonej.

Na pierwszy wzgląd może się okazać, że podstawowy wkład do całki ponownie dają punkty w których maksimum przyjmuje moduł funkcji podcałkowej tj. w których minimalna jest część rzeczywista A(x). Jednakże, mówiąc ogólnie wkłady otoczeń takich punktów skracają się ponieważ faza również zmienia się szybko (okoliczność ta prowadzi do metody stacjonarnej fazy ).

W tym przypadku przy zastosowaniu metody najszybszego spadku należy zdeformować kontur C, pozostając w obszarze analityczności A (i nie przecinając punktu osobliwego ) tak, aby minimalizować maksimum modułu funkcji podcałkowej na konturze tj. maksymalizować minimum funkcji Re(A(x)).

Jeśli można zdeformować kontur C w kontur równoważny, wzdłuż którego Re(A(x)) jest monotoniczna, to podstawowy wkład do całki daje punkt graniczny. W przypadku przeciwnym część rzeczywista A posiada minimum.

(17)

Na konturze optymalnym minimum odpowiada albo singularności funkcji, albo punktowi regularnemu, w którym pochodna funkcji A zeruje się :

A’(x) = 0

Właśnie taki przypadek chcemy teraz zbadać. Punkt xc, w którym A’(x) = 0 w przypadku ogólnym ponownie jest punktem siodłowym ze względu na krzywe, na których Re(A(x)) jest stała (rys. 1.6). Taka strukturę wyrażenia

podcałkowego łatwiej zrozumieć, jeśli przypomnimy sobie, że poziomice Re(A) i Im(A) tworzą dwie rodziny krzywych wzajemnie ortogonalnych. Jedyne możliwe punkty podwójne takich krzywych – to singularności i punkty siodłowe.

Rozłóżmy funkcje w punkcie xc :

A(x) – A(xc) = ½ A’’(xc)( x – xc ) + O((x – xc )3 )

Przechodząc do współrzędnych rzeczywistych u, v określonych przez zależności : u + iv = (x – xc ) exp[ i Arg A’’(xc)/2 ]

otrzymamy :

Re[ A(x) – A(xc )] ~ ½ | A’’(xc ) | (u2 – v2 )

W pobliżu punktu siodłowego można wybrać kontur, przechodzący po krzywej o stałym Im(A), zatem na takim konturze faza wyrażenia podcałkowego jest stała – nie można niczego skrócić. Wiodący wkład do całki daje otoczenie punktu siodłowego. Wkłady, które przy tym zaniedbujemy, zanikają szybciej niż dowolna potęga λ. Pozostała część dowodu i obliczenia pokrywają się z przypadkiem zmiennej rzeczywistej.

Przykład. Rozpatrzmy całkową reprezentacje standardowej funkcji Bessela :

J0(λ) = (1/2πi)

dz/z exp[ ½ x(z – 1)/z ]

C

Gdzie C – jest prostym konturem zamkniętym, obejmującym początek współrzędnych.

Obliczymy teraz w przybliżeniu powyższą całkę dla rzeczywistych x przy x → +∞, wykorzystując metodę najszybszego spadku. W tym celu przyjmujemy :

A(z) = ½ (1/z – z )

Punktami siodłowymi są rozwiązania równania : 2A’(z) = –(1/z2 ) – 1 = 0 ⇒ z = ±i

Wkład do całki dają punkty siodłowe. W przypadku punktu siodłowego z = i przyjmiemy z = i + exp(3iπ/4)s.

Wtedy :

A(z) = –i + s2/2 + O(s3)

Wkład punktu siodłowego ma postać : +∞

(1/2π) exp[ ¼ i(x – π )] ∫ ds exp(– ½ xs2 ) = exp[ ¼ i(x – π)] /√2πx –∞

Drugi punkt siodłowy daje wkład sprzężony zespolenie. Zatem, możemy znaleźć : J0(x) ~ sqrt(2/πx) cos( x – ¼ π)

x→ +∞

1.6 Metoda najszybszego spadku – kilka zmiennych, funkcje tworzące.

Rozpatrzmy n –wymiarową całkę o ogólnej postaci :

I(λ) = ∫ dnx exp[ –(1/λ) A(x1 , ... , xn )] (1.39)

Gdzie dla uproszczenia założyliśmy, że A jest funkcją całkowitą, a obszarem całkowania jest Rn W granicy λ → 0+ podstawowy wkład do całki dają punkty siodłowe tj. rozwiązania układu :

∂/∂xi A(x1 , ... , xn ) = 0 , ∀i (1.40)

Kiedy mamy kilka punktów siodłowych, należy rozłożyć je zgodnie z wartościami Re(A). Często wymagany punkt siodłowy odpowiada minimum Re(A), ale nie jest to obowiązkowe, ponieważ punkt siodłowy może być niedostępny przy deformacji wejściowego obszaru całkowania. Niestety, w przypadku kilku zmiennych zespolonych deformacja konturów nie jest zadaniem prostym.

Aby ocenić wiodący wkład punktu siodłowego xc, wygodnie jest dokonać zamiany zmiennych, przyjmując : x = xc + y√λ

Będziemy dokonywać rozkładu A(x) względem potęg λ (a zatem i po y ) :

(1/λ) A(x1 , ... , xn ) = (1/λ)A(xc ) + (1/2!) Σ [ ∂2A(xc)/∂xixj] yiyj + R(y) (1.41) i,j

gdzie

(18)

R(y) = Σ λ ½k –1 /k! Σ [ ∂kA(xc)/∂xi1 … ∂xik] yi1... yik (1.42) k=3 i1…. ik

Po zamianie zmiennych, człon kwadratowy po y przestaje być zależny od λ. Całka przyjmuje postać:

I(λ) = λ½n exp( –A(xc )/λ ] ∫ dny exp{– (1/2!) Σ [ ∂2A(xc)/∂xixj] yiyj + R(y) } (1.43) i,j

Jak tylko rozłożymy funkcje podcałkową względem potęg √λ, każdy człon okazuje się gaussowską średnią po wielomianie. W wiodącym rzędzie znajdujemy :

I(λ) ~ (2πλ)½n [ det A(2) ] – ½ exp[– A(xc )/λ ] (1.44) λ→0

gdzie

[ A(2) ]ij ∂2A(xc)/∂xixj

1.6.1 Funkcja tworząca i metoda najszybszego spadku.

Wprowadźmy funkcje :

ℑ(b, λ ) = ∫ dnx exp[ – (1/λ) ( A(x) – bx ] (1.45) gdzie A(x) – jest teraz regularną funkcją xi. Wprowadzimy również wielkość :

N = 1/ℑ(0, λ )

Funkcja ℑ(b, λ ) ma ogólna postać (1.30) i jest proporcjonalna do funkcji tworzącej momentów rozkładu N exp( –A(x)/λ) Wartości średnie wielomianów z wagą N exp( –A(x)/λ) :

< xk1xk2... xkł > ≡ N ∫ dnx xk1xk2... xkł exp( –A(x)/λ) (1.46)

można otrzymać przy różniczkowaniu ℑ(b, λ ) (zobacz (1.31)) :

< xk1xk2... xkł > ≡ λł N [ ∂/∂bk1∂/∂bk2... ∂/∂bkł ℑ(b, λ ) ] | b=0

Metoda najszybszego spadku. Zastosujemy teraz metodę najszybszego spadku do całki (1.45). Równania dla znalezienia punktów siodłowych mają postać :

Bi = ∂A/∂xi , ∀i (1.47)

Rozłożymy A(x) w punkcie siodłowym xc tak jak to wyjaśnialiśmy w podrozdziale 1.5, a następnie wykorzystamy wynik (1.44), otrzymany dla wiodącego rzędu :

ℑ(b, λ ) ~ (2πλ)½n [ det A(2) ] – ½ exp[– (1/λ) A(xc ) – bxc ] λ→0

gdzie

[ A(2) ]ij ∂2A(xc)/∂xixj

Dalej wprowadzimy wielkość W(b, λ ) – funkcje tworzącą kumulant rozkładu, które są również spójnymi funkcjami korelacyjnymi (równość (1.32), wzięta z inna normalizacją ) :

W(b, λ ) = λ ln ℑ(b, λ )

Wykorzystując tożsamość (3.51) : ln det M = tr ln M słuszna dla dowolnej macierzy M, możemy zapisać rozkład W do pierwszego rzędu :

W(b, λ ) = – A(xc ) + b xc + ½ λ ln(2πλ) – ½ λ tr ln ∂2A(xc)/∂xixj + O(λ2 ) (1.48) Ponieważ :

< xk1xk2... xkł >c ≡ λł–1 [ ∂/∂bk1∂/∂bk2... ∂/∂bkł W(b, λ ) ] | b=0

kolejne pochodne rozkładu (1.48) po b (przyjmując do wiadomości iż xc jest funkcją b na mocy (1.47)) obliczane w punkcie b = 0, generują odpowiednie rozkłady kumulant rozkładu probabilistycznego.

1.7 Całki Gaussa – macierze zespolone.

W podrozdziel1.2 dowiedliśmy wyniku (1.5) tylko dla macierzy rzeczywistych. Teraz uogólnimy dowód również na przypadek macierzy zespolonych.

W istocie bowiem, metoda oparta na diagonalizacji macierzy rzeczywistych posiada uogólnienie zespolone.

Dla dowolnej symetrycznej macierzy zespolonej A słuszny jest rozkład o postaci :

A = UDUT (1.49)

gdzie U – macierz unitarna, D –diagonalna macierz dodatnia.

(19)

W całce (1.4) dokonujemy zamiany zmiennych x → y : n

xi = Σ Uij yj j=1

Taka zamiana zmiennych stanowi bezpośrednie zespolone uogólnienie przekształcenia ortogonalnego (1.7). Wtedy to całka (1.4) zostanie sfaktoryzowana i w wyniku otrzymujemy iloczyn całek i (nietrywialnego ) jakobianu zamiany zmiennych. Dlatego :

ℑ(A) = (2π)½ n ( det D ) – ½ n /det U A ponieważ :

det A = det D (det U )2

to ponownie otrzymujemy wynik (1.5).

Reprezentacje macierzy zespolonych. Ponieważ istnienie reprezentacji (1.49) może nie być całkiem jasne, to w charakterze ćwiczenia poniżej podamy jego ogólny dowód.

i) Rozkład polarny. Macierz zespolona M posiada rozkład polarny :

M = UH ; U†U = 1 ; H = H† (1.50)

Jeśli macierz nie posiada zerowych wartości własnych, to dowód jest prosty. Z reprezentacji (1.50) wynika zależność pomiędzy hermitowskimi macierzami dodatnimi :

M†M = H2

W charakterze H wybierzemy macierz (M†M )½ o dodatnich wartościach własnych. Wtedy możemy się przekonać, że macierz U = MH–1 jest unitarna :

U†U = 1

Z takiego rozkładu wynika również drugi rozkład, równoważny do danego.

Macierz hermitowska może być zdiagonalizowana poprzez przekształcenie unitarne, dlatego możemy je przedstawić w postaci :

H = V†DV , V†V = 1

Gdzie D – macierz diagonalna : Dij = hiδij , hi > 0 Stąd wynika, że :

M = UV†DV

lub w prostszych oznaczeniach :

M = U†2 DU1 (1.51)

Gdzie U1, U2 - dwie macierze unitarne.

ii) Symetryczne macierze unitarne. Teraz dowiedziemy twierdzenia o rozkładzie dla symetrycznych macierzy unitarnych. Rozpatrzmy macierz U, spełniającą zależność :

U†U = 1 ; U = U†

Rozłóżmy U na część rzeczywista i urojoną : U = X + iY

Macierze X i Y są rzeczywiste i symetryczne i na mocy unitarności macierzy U spełniają zależności : X2 + Y2 = 1 ; XY – YX = 0

Dwie komutujące rzeczywiste macierze symetryczne mogą być zdiagonalizowane jednocześnie.

Odpowiednie wartości własne {xi, yj } (które są rzeczywiste ) spełniają zależność : xi2 + yi2 = 1

wprowadzimy dla nich następującą parametryzacje : xi = ri cos(θi ) , yi = ri sin(θi ) ; ri > 0

Niech O będzie ogólną macierzą ortogonalną, która diagonalizuje X i Y, a zatem i U, wtedy macierz U możemy zapisać w postaci :

U = OTRWO Gdzie

Wij = exp(iθi )δij , Rij = ri δij Teraz przyjmijmy :

Vij = exp(i ½ θi )Oij ⇔ V = W½O

Wtedy otrzymamy poszukiwaną reprezentacje (1.49) dla macierzy unitarnych :

U = VTRV , R jest diagonalna > 0 , V TV = 1 (1.52)

(20)

iii) Zespolone macierze symetryczne. Teraz podamy dowód dla zespolonych macierzy symetrycznych o postaci ogólnej :

M = MT

W takim przypadku z (1.51) otrzymujemy równość : U2†DU1 = U1†DU2*

gdzie * oznacza sprzężenie zespolone.

Wprowadzając macierz unitarną : W = U2U1T

Otrzymujemy warunek : D = WDW* ⇔ D = WTDW†

Mnożąc prawostronnie prawą część drugiej równości przez prawą część pierwszej równości, znajdujemy : D2 = WTD2W* ⇔ D2 = W†D2W ⇔ [ W, D2 ] = 0

Ostatnia równość w zapisie współrzędnościowym możemy przedstawić tak : ( hi2 + hj2 ) Wij = 0

dlatego

Wij = 0 , hi ≠ hj

Jeśli wszystkie wartości własne D są proste, to W – jest diagonalną macierzą unitarna : Wij = exp(iθi )δij

Podstawiając taki wynik do reprezentacji (1.51) i wyrażając U2 z użyciem W, znajdujemy : M = U1TW* DU1

Na koniec przyjmując : U0 = [ W½ ]* U1

Otrzymamy reprezentacje zespolonej macierzy symetrycznej poprzez dodatnia macierz diagonalną D i macierz U0 :

M = U0TDU0 (1.53)

Jeśli macierz D posiada zdegenerowane wartości własne, to z (1.51) wynika, że w odpowiedniej przestrzeni macierz M będzie proporcjonalna do symetrycznej macierzy unitarnej. Wtedy należy wykorzystać wynik (1.52), skąd widać, że rozkład (1.53) jest cały czas słuszny.

Ćwiczenia.

Ćwiczenie 1.1 Rozpatrzmy stochastycznie skorelowane zmienne x, y o gaussowskim rozkładzie prawdopodobieństwa.

Znamy pięć wartości średnich :

< x > = < y ) = 0 ; < x2 > = 5 ; < xy> = 3 ; < y2 > = 2 Znaleźć wartości średnie :

< x4 > , < x3y > , < x2y2 > , < xy5 > , < y6 > , < x3y3 >

wykorzystując twierdzenie Wicka.

Określić odpowiedni rozkład Gaussa.

Rozwiązanie. 75, 45, 28, 180, 120, 432

Rozkład Gaussa jest proporcjonalny do wyrażenia : exp[ – (2x2 – 6xy + 5y2 )/2 ]

Ćwiczenie 1.2 Rozpatrzmy trzy stochastycznie skorelowane zmienne x, y, z o rozkładzie gaussowskim.

Znamy 9 wartości średnich :

< x > = < y > = < z > = 0 , < x2 > = < y2 > = < z2 > = a , < xy > = b , < xz > = < zy > = c.

Znaleźć wartości średnie : < x4 > , < x6 > , < x3y > , < x2y2 > , < x2yz > jako funkcje a, b, c.

Określić odpowiedni rozkład Gaussa dla przypadku a = 2, b = 1 , c = 0.

Rozwiązanie. < x4 > = 3a2 , < x6 > = 15a3 , < x3y > = 3ab , < x2y2 > = a2 + 2b2 , < x2yz > = ac + 2bc W przypadku a = 2, b = 1, c = 0 rozkład Gaussa jest proporcjonalny :

exp[ –1/12 (4x2 + 4y2 + 3z2 – 4xy )]

Ćwiczenie 1.3 Indukcyjny algebraiczny dowód wyniku (1.5) Wyznacznik macierzy A(n) n × n, o ogólnej postaci o elementach Aij(n) może być obliczony indukcyjnie, w tym celu należy odjąć ze wszystkich wierszy ostatni wiersz pomnożony przez liczbę, aby wyzerować ostatnią kolumnę ( przy założeniu, że Ann(n) ≠ 0 w przeciwnym wypadku należy przestawić wiersz lub kolumny ).

(21)

Metoda ta prowadzi do następującej zależności pomiędzy wyznacznikami : det A(n) = Ann(n) det A(n–1)

gdzie A(n–1) – jest macierzą o wymiarze (n – 1) × (n – 1) o elementach :

Aij(n–1) = Aij(n) – Ain(n) Anj(n) /Ann(n) ; I,j = 1, …, n – 1 (1.54) Pokazać, że wynik (1.6) skombinowany z powyższą zależnością prowadzi do ogólnego równania (1.5).

Rozwiązanie. Rozpatrzymy całkę (1.4) i scałkujemy po jednej zmiennej, którą można nazwać xn (przy założeniu, że Re(Ann ) > 0 ), wykorzystując wynik (1.6) :

n–1 n–1

∫ dxn exp( – ½ Ann x2

n – xn Σ Ani xi ) = sqrt(2π/Ann ) exp[ ½ Σ (Ain Anj /Ann ) xi xj ] i=1 i,j=1

Pozostała całka jest całka Gaussa po n–1 zmiennych : n–1 n–1

(A) = sqrt(2π/Ann ) ∫ ( Π dxi ) exp[ –Σ ½ xi ( Aij – Ain Ann–1Anj ) xj ] i=1 i,j =1

Teraz zauważymy, że powtarzając takie częściowe całkowanie, wykorzystując (1.54) otrzymamy czynnik 1/det A.

Stąd wnioskujemy, że :

ℑ(A) = (2π)n/2 (det A)– ½ (1.55)

Ćwiczenie 1.4 Wykorzystując metodę najszybszego spadku, ocenić całkę : 1

In(α) = ∫ dx xαn (1– x)βn 0

gdzie β = 1 – α, α > , β > 0 w granicy n →∞.

Rozwiązanie. Punkt siodłowy to punkt xc = α, dlatego : In(α) ~ sqrt[2πα(1 –α)/n ] ααn (1– α)n(1–α)

Ćwiczenie 1.5 Rozpatrzmy całkę :

Z(g) = ∫ d3q exp{ (1/g)[ ½q2 – ¼ (q2 )2 ]}

gdzie q wektor dwuskładnikowy q = (q1, q2 )

Oszacować całkę w granicy g → 0– przy pomocy metody najszybszego spadku (w niniejszym ćwiczeniu istnieje pewna subtelność )

Rozwiązanie. Pewne podpowiedzi zawarte są w podrozdziale 8.3.1 : Z(g) ~ 4π3/2 g½ e¼g

Ćwiczenie 1.6 Wielomiany Hermite’a wchodzą do funkcji własnych kwantowego oscylatora harmonicznego. Jedna z całkowych reprezentacji ma postać :

+∞

Hn(z) = sqrt(n/2π) ∫ ds e–ns2/2 (z – is )n –∞

Ocenić wielomiany w granicy n→∞ przy rzeczywistych z z pomocą metody najszybszego spadku.

Rozwiązanie. Wielomiany Hn(z) kolejno zmieniają swoją parzystość : Hn(–z) = (–1)n Hn(z)

Dlatego można ograniczyć się do rozpatrzenia wartości z ≥ 0.

Przyjmujemy :

A(s) = ½ s2 – ln(z – is)

Punkty siodłowe znajdujemy z równania :

A’(s) = s – 1/s + iz = 0 ⇒ s± = – ½ iz ± sqrt( 1 – ¼ z2 ) Oprócz tego :

A’’(s) = 1 + 1/ (s + iz )2 = s2 + 1

Należy rozróżnić dwa przypadki : 0 ≤ z < 2 i z > 2 (przypadek z = 2 należy rozpatrzyć dodatkowo ) ii) z > 2. Dogodnie jest założyć z = 2 ch(θ) , θ > 0.

(22)

Wtedy :

s± = – ½ ie±θ ⇒ e–nA = exp( ½ ne–2θ + nθ )

W przeciwieństwie do tego, w przypadku | z | < 2 oba punkty siodłowe dają wkład do całki. Przyjmując z = 2cos(θ), znajdujemy :

Hn(z) ~ {1/sqrt[1– exp(–2iθ )]} exp( ne–2iθ2

/ 2 + niθ ) + człony sprzężone n→∞

Ćwiczenie 1.7 Wykorzystując metodę najszybszego spadku, oszacować całkę : +∞

In(a) = ∫ dx exp( –nx2/ 2 + nax ) chn(x) –∞

jako funkcje parametru rzeczywistego a w granicy n →∞.

Wyrazić wynik w postaci parametrycznej jako funkcje położenia punktu siodłowego.

Rozwiązanie. Zauważmy, że omawiana całka może być zapisana w postaci : +∞

In(a) = ∫ dx enf(x) –∞

f(x) = – ½ x2 + ax + ln(ch(x))

Punkt siodłowy dany jest przez równanie : f'(x) = 0 = –x + a + th(x)

gdzie:

f’’(x) = – th2(x)

Zatem, równanie dla punktu siodłowego posiada jednoznaczne rozwiązanie x(a) dla wszystkich a.

Aby sparametryzować wynik przy pomocy x(a), dokonamy zamiany : a = x – th(x)

W punkcie siodłowym : f(x) = ½ x2 – xth(x) + ln( ch(x)) dlatego :

I(a) = [ (2π)½ / | th(x) | ) enf(x)

Zauważmy, że metoda najszybszego spadku nie może być zastosowana przy a = 0, kiedy to f’’(x) =0.

W takim przypadku należy rozłożyć f(x) do rzędu x4 i całkować bezpośrednio.

*************************************************************************************************

Dodatek własny A - Całki Gaussa.

Funkcjonalne całki Gaussa rozumiemy jako iloczyn większej ilości zwykłych całek Gaussa.

Najprostsza z takich całek : ∞

G(a ) = ∫ dx exp( −ax2 ) (A.1) −∞

jeśli wykorzystamy trik Poissona polegający na tym, aby podnieść do kwadratu taką całkę i przejść w wyrażeniu podcałkowym do współrzędnych biegunowych, okaże się ona równa :

G(a) = sqrt(π/a ) (A.2)

Możemy uogólnić tą całkę na przypadek N stopni swobody. Niech : ∞

G(a ) = ∫ dx1dx2 … dxN exp( − xiaijxj ) (A.3) −∞

gdzie : A – macierz N × N rzeczywista o elementach aij Zapiszmy :

xiaijxj = XTAX , gdzie AT = A (A.4)

Macierz A można zdiagonalizować poprzez obrót :

A = RTAR , RTR = RTR = 1 (A.5)

gdzie : D – macierz diagonalna o wartościach diag( d1, d2 , ... , dN )

Cytaty

Powiązane dokumenty

Natomiast z mecenatu nad zespołami artystycznymi KUL i Studium Nauczycielskiego i Rada Okręgowa będzie musiała zrezygnować, ponieważ zespoły te od dłuższego czasu

 dostosowania wymagań szkolnych i sposobu oceniania do możliwości ucznia (nauczyciel jest zobowiązany przestrzegać wskazań zawartych w opinii przez poradnię);. 

Z dobroci serca nie posłużę się dla zilustrowania tego mechanizmu rozwojem istoty ludzkiej, lecz zaproponuję przykład róży, która w pełnym rozkwicie osiąga stan

Mimo prowadzonych od wielu lat intensywnych szczepień dzików, w takich krajach, jak Niemcy i Francja, nie udało się zlikwidować tego źródła wirusa klasycznego pomoru świń..

Fizyka II dla Elektrotechniki, lato 2011 17 orbitale 2p, objętościowa gęstość prawdopodobieństwa dla atomu wodoru w stanie kwantowym o n=2, l=1 i trzech różnych m l

Jedną z idei wiodących poszukiwań Reichenbacha jest dążenie do tego, aby prawa mechaniki kwantowej znalazły się w klasie wyrażeń, które mogą być prawdziwe albo

Dzieci wchodzą do szkoły w różnym stopniu do niej gotowe, czasem dziecko młodsze ma bogatszą wiedzę o świecie, lepiej opanowane różne umiejętności, jest

Ograniczenie liczby światów epistemicznie możliwych do aktualnego wskazuje na wszechwiedzę podmiotu (żaden świat alternatywny różny od aktualnego nie jest możliwy),