• Nie Znaleziono Wyników

Index of /rozprawy2/10417

N/A
N/A
Protected

Academic year: 2021

Share "Index of /rozprawy2/10417"

Copied!
112
0
0

Pełen tekst

(1)Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie Wydział Matematyki Stosowanej Katedra Analizy Matematycznej, Matematyki Obliczeniowej i Metod Probabilistycznych. Rozprawa doktorska. Złożoność obliczeniowa całkowania stochastycznego w sensie Itô Paweł Przybyłowicz. Promotor: dr hab. Bolesław Kacewicz Kraków 2011.

(2) Niniejszą pracę dedykuję Józefowi Przybyłowiczowi, mojemu pierwszemu nauczycielowi matematyki. Promotorowi, Profesorowi Bolesławowi Kacewiczowi, składam serdeczne podziękowania za owocne dyskusje prowadzone podczas pisania tej rozprawy, cenne uwagi oraz okazaną życzliwość..

(3) Spis treści. Streszczenie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wstęp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rozdział 1. Ogólny opis badanych problemów . . . . . . . . Rozdział 2. Optymalna aproksymacja całki Itô pewnego stochastycznego za pomocą informacji liniowej . . . . .. . . . . . . . . .. 3. . . . . . . . . .. 4. . . . . . . . . .. 5. . . . . . . . . .. 10. procesu. . . . . . 2.1. Znane wyniki w przypadku informacji standardowej o procesie Wienera 2.2. Algorytm Wagnera–Platena i ograniczenia z góry . . . . . . . . . . . . . 2.3. Ograniczenia z dołu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Złożoność obliczeniowa problemu (2.1) . . . . . . . . . . . . . . . . 2.4. Komentarz na temat oszacowań z góry . . . . . . . . . . . . . . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. Rozdział 3. Optymalna aproksymacja całki Itô funkcji deterministycznych regularnych i osobliwych . . . . . . . . . . . . . . . . . . . . . .. 14 16 19 31 41 42. . . .. 47 50 51 54. . . . .. 57 63 64 68. . . .. 72 76 77. . . .. 79 81 82. Rozdział 4. Podsumowanie i otwarte problemy . . . . . . . . . . . . . . . .. 84 84 85. 3.1. Przypadek regularny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1. Algorytm Itô–Taylora i ograniczenia z góry . . . . . . . . . . . . . . . . . 3.1.2. Ograniczenia z dołu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3. Aproksymacja całek Itô w klasie funkcji ciągłych. Porównanie modeli błędu najgorszego przypadku i asymptotycznego . . . . . . . . . . . . . . 3.2. Przypadek osobliwy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1. Wykrywanie nieznanych osobliwości funkcji kawałkami gładkich . . . . . 3.2.2. Błąd nieadaptacyjnego algorytmu AIT w klasie funkcji osobliwych . . . . 3.2.3. Konstrukcja adaptacyjnego algorytmu Itô–Taylora i jego optymalność w r,% klasie Fsng,1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.4. Prawdopodobieństwo porażki dla algorytmów AIT i AIT ∗ . . . . . . . . . r,% , p ­ 2 3.2.5. Ograniczenia z dołu w przypadku wielu osobliwości – klasa Fsng,p 3.2.6. Model asymptotyczny – ograniczenia z dołu dla algorytmów nieadaptacyjnych w przypadku osobliwym . . . . . . . . . . . . . . . . . 3.2.7. Uwagi do przypadku wielowymiarowego . . . . . . . . . . . . . . . . . . . 3.2.8. Złożoność obliczeniowa problemu (3.1) . . . . . . . . . . . . . . . . . . .. 4.1. Podsumowanie otrzymanych wyników . . . . . . . . . . . . . . . . . . . . . . . 4.2. Otwarte problemy i perspektywa przyszłych badań . . . . . . . . . . . . . . . .. 1.

(4) BIBLIOGRAFIA Dodatek A. Podstawowe wiadomości z teorii procesów stochastycznych oraz całki Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.1. Proces Wienera i jego podstawowe własności . . . . . . . . . . . . . . . . . . . A.2. Przestrzeń Wienera oraz przestrzenie Hilberta z jądrem reprodukującym . . . . A.3. Podstawowe własności całki Itô. Wzór Itô . . . . . . . . . . . . . . . . . . . . .. 87 87 89 92. Dodatek B. Dowody pomocniczych wyników . . . . . . . . . . . . . . . . . 96 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107. 2.

(5) Streszczenie W rozprawie badamy złożoność obliczeniową całkowania stochastycznego w sensie Itô. W pierwszejZczęści rozprawy zajmujemy się zadaniem optymalnej aproksymacji T. całki Itô postaci. 0. f (t, Bt )dBt , w przypadku gdy o procesie Wienera B jest dostępna. informacja liniowa, dana za pomocą całek Riemanna trajektorii procesu B. Ograniczenia z góry na n–ty błąd minimalny, gdzie n jest ustaloną kardynalnością informacji, uzyskane zostały za pomocą algorytmu Wagnera–Platena. Są one rzędu n−3/2 lub n−2 , w zależności od rozpatrywanej klasy funkcji f . Pokazujemy ograniczenie z dołu Ω(n−2 ), które w szczególnym przypadku okazuje się ograniczeniem optymalnym. W drugiej części rozprawy rozpatrujemy problem aproksymacji całki Itô Z 0. T. f (t)dBt funkcji f : [0, T ] → R, które mogą posiadać w [0, T ] nieznane osobliwości. Rozważamy najpierw przypadek regularny, w którym odwzorowania f należą do. klasy Höldera funkcji mających r ciągłych pochodnych (r ∈ N0 ) i których r–ta pochodna spełnia warunek Höldera z wykładnikiem % ∈ (0, 1]. Udowadniamy, że klasyczny nieadaptacyjny algorytm Itô–Taylora jest schematem optymalnym, nawet w klasie algorytmów adaptacyjnych, i ma błąd Θ(n−(r+%) ). W przypadku osobliwym rozważamy klasę funkcji kawałkami regularnych, które mają r ciągłych pochodnych wszędzie w [0, T ] poza skończoną liczbą nieznanych punktów osobliwych i których r–ta pochodna spełnia kawałkami warunek Höldera z wykładnikiem % ∈ (0, 1]. Pokazujemy, że żaden z nieadaptacyjnych algorytmów nie może skutecznie radzić sobie nawet w przypadku funkcji z jedną osobliwością. Błąd każdego takiego algorytmu okazuje się, w sensie rzędu, nie mniejszy niż n− min{1/2,r+%} . W następnej kolejności rozważamy więc algorytmy adaptacyjne. Konstruujemy adaptacyjny algorytm Itô–Taylora, który w przypadku klasy funkcji f z co najwyżej jedną osobliwością zachowuje optymalny błąd O(n−(r+%) ) znany z przypadku regularnego. W przypadku wielu osobliwości udowadniamy, że każdy, nawet adaptacyjny, algorytm ma błąd Θ(n− min{1/2,r+%} ).. Słowa kluczowe r–krotnie scałkowany proces Wienera, całka Itô, informacja standardowa, informacja liniowa, informacja całkowa, problem regularny, problem osobliwy, n–ty błąd minimalny, złożoność obliczeniowa. 3.

(6) Abstract In the thesis we study the computational complexity of stochastic Itô integration. We first investigate the optimal approximation of Itô integrals of the form ZT. f (t, Bt )dBt , where B is a one dimensional Wiener process. We consider linear in-. 0. formation about the Wiener process, consisting of certain Riemann integrals of its trajectories. Upper bounds on the nth minimal error, where n is the cardinality of information, are obtained by means of the Wagner–Platen algorithm. They are of order n−3/2 or n−2 , depending on a class of integrands. We also prove a lower bound Ω(n−2 ) which is sharp in some class of integrands. In the second part of the thesis we deal with the numerical approximation of stochastic Itô integrals. ZT. f (t)dBt of singular functions f : [0, T ] → R. We first consider. 0. the regular case, where f belongs to the Hölder class of functions with r continuous derivatives (r ∈ N0 ), the rth derivative satisfying the Hölder condition with an exponent % ∈ (0, 1]. We show in this case that the classical Itô–Taylor algorithm has the optimal error O(n−(r+%) ). In the singular case, we deal with a class of piecewise regular functions with parameters r and % as above, admitting a finite number of unknown singular points. We show that any nonadaptive algorithm cannot efficiently handle such a problem, even in the case of a single singularity. The error of any such algorithm is no less (asymptotically) than n− min{1/2,r+%} . In order to obtain better results we must turn to adaptive algorithms. We construct an adaptive Itô–Taylor algorithm which, in the case of at most one singularity, has the optimal error O(n−(r+%) ). Hence, the best speed of convergence known for regular functions is preserved in the case of a single singularity. For multiple singularities, we show that any adaptive algorithm has the error Ω(n− min{1/2,r+%} ), and that this bound is sharp.. Key words r–fold integrated Wiener process, Itô integral, standard information, linear information, integral information, regular problem, singular problem, nth minimal error, complexity. 4.

(7) Wstęp. W ciągu ostatnich kilkunastu lat można zauważyć wyraźny wzrost liczby publikacji i monografii dotyczących aproksymacji całek stochastycznych i ogólnie stochastycznych równań różniczkowych. Jedną z przyczyn tej tendencji może być zapotrzebowanie wynikłe z gwałtownego rozwoju matematyki finansowej oraz biomatematyki, w których to dziedzinach dominują metody probabilistyczne oparte na zwyczajnych i cząstkowych stochastycznych równaniach różniczkowych. Ponieważ rzadko można podać rozwiązania analityczne takich równań, zaczęto z powodzeniem stosować metody przybliżone. Jedną z pierwszych monografii, którą do dziś uznaje się za podstawową w tym zakresie, jest [21]. Opisano w niej konstrukcję algorytmów opartych na rozwinięciu Itô–Taylora, które zastosowano do aproksymacji rozwiązań stochastycznych równań różniczkowych w sensie Itô i Stratonowicza. Badano w niej tempo zbieżności takich algorytmów zarówno dla aproksymacji silnej (w której aproksymujemy całą trajektorię rozwiązania bądź tylko jego wartość w pewnym punkcie), jak i słabej (w której aproksymujemy momenty rozwiązania równania). Inną monografią poświęconą aproksymacji rozwiązań stochastycznych równań różniczkowych jest [26]. Oprócz standardowych metod opartych na rozwinięciu Itô–Taylora znanych z [21], rozważano w niej także aproksymację rozwiązań deterministycznych cząstkowych równań różniczkowych za pomocą metod probabilistycznych, schematy przybliżeń dla stochastycznych równań różniczkowych z małym szumem (SDEs with small noise) oraz dla stochastycznych układów hamiltonowskich. W obu tych monografiach skupiono się na poszukiwaniu oszacowań z góry na błąd rozpatrywanego algorytmu oraz badano kwestie stabilności rozważanych schematów. Nie rozstrzygano kwestii optymalności stosowanych schematów w danej klasie funkcji i przy danym modelu błędu. Nie badano również zachowania. 5.

(8) Wstęp. się i optymalności stałych asymptotycznych występujących w oszacowaniach błędów opisanych tam algorytmów. Działem analizy numerycznej, w którym rozważa się kwestie optymalności, jest teoria złożoności obliczeniowej opartej na informacji (Information-Based Complexity). Ogólnie rzecz biorąc, badania w tej dziedzinie zmierzają do odpowiedzi na pytanie, jaki jest minimalny koszt rozwiązania danego zadania z błędem co najwyżej ε, w danej klasie elementów i przy danym modelu błędu (ε–złożoność obliczeniowa problemu). Równoważnie, rozważa się n–ty błąd minimalny w danej klasie elementów. Jest on zdefiniowany jako najmniejszy błąd, jaki możemy uzyskać w danej klasie za pomocą algorytmów o koszcie równym co najwyżej n. W latach osiemdziesiątych ubiegłego stulecia ukazały się monografie [47], [48], które ustaliły, obowiązujący do dzisiaj, paradygmat badania problemów obliczeniowych pod kątem ich złożoności obliczeniowej. Ich kontynuacją jest pozycja [31], w której bada się złożoność problemów o wielkiej liczbie wymiarów. Główne problemy badane w teorii złożoności obliczeniowej to: metody rozwiązywania równań algebraicznych, problem aproksymacji funkcji, zadanie optymalnego przybliżania całek funkcji, problem optymalnej aproksymacji rozwiązań równań różniczkowych zwyczajnych ([17], [18], [19]), cząstkowych ([5], [39], [52]) oraz całkowych ([7], [53]). Rozpatrywanymi modelami obliczeń są modele deterministyczny najgorszego przypadku i asymptotyczny, średni, a także randomizacyjny oraz kwantowy (zobacz na przykład [6], [18], [31], [44], [47], [49] oraz [55]). Rozważano również zagadnienia z informacją zaburzoną ([33]). W latach dziewięćdziesiątych rozpoczęto badania złożoności obliczeniowej zadań stochastycznych, takich jak całkowanie stochastyczne ([4], [8], [42], [43], [51]) oraz rozwiązywanie stochastycznych równań różniczkowych ([2], [10]÷[15], [27], [29]). Jednymi z pierwszych artykułów rozważających problem optymalnej aproksymacji całek stochastycznych w sensie Itô były prace [8] i [51]. W [51] rozważano również złożoność całkowania w sensie Stratonowicza. Zadano w nich pytanie o złożoność oraz o algorytmy, które w sposób optymalny przybliżają całki stochastyczne, w przypadku gdy o trajektoriach procesu Wienera dostępna jest tylko informacja standardowa, dana za pomocą wartości procesu w skończonej liczbie punktów. Pracami, które kontynuują temat podjęty w tych artykułach, są prace mojego autorstwa [42] i [43]. Na nich oparta jest ta rozprawa.. 6.

(9) Wstęp. W rozprawie zbadamy złożoność obliczeniową zadania aproksymacji całki stochastycznej postaci I(f, B) =. ZT. f (t, Bt )dBt ,. (1). 0. lub I(f, B) =. ZT. f (t)dBt ,. (2). 0. gdzie T > 0, B jest jednowymiarowym procesem Wienera, natomiast funkcja podcałkowa f : [0, T ] × R → R lub f : [0, T ] → R należy do pewnej klasy funkcji. Naszym celem jest podanie możliwie ostrych oszacowań na złożoność obliczeniową i tym samym odpowiedź na pytanie, w jakim stopniu: • rodzaj dostępnej informacji o procesie Wienera B (dla problemu (1)) • regularność funkcji całkowanej f (dla problemu (2)) wpływa na złożoność problemu. Chcemy także zdefiniować algorytmy, które w sposób optymalny przybliżają wartość całek (1) oraz (2). Rozprawa jest zorganizowana następująco. W Rozdziale 1 ogólnie sformułujemy badany problem i opiszemy model obliczeń oraz błędu, który będziemy rozpatrywać. W Rozdziale 2 badamy, w jakim stopniu informacja całkowa o procesie Wienera B pozwala zmniejszyć złożoność obliczeniową zadania (1) w stosunku do przypadku, gdy dostępna jest jedynie informacja standardowa o procesie B. Za pomocą algorytmu Wagnera–Platena udowadniamy ograniczenia z góry na złożoność rozpatrywanego problemu. Są one rzędu (1/ε)2/3 lub (1/ε)1/2 , w zależności od rozpatrywanej klasy funkcji f . Korzystając z pewnych własności przestrzeni Hilberta z jądrem reprodukującym, pokazujemy ograniczenia z dołu Ω((1/ε)1/2 ), które w pewnym przypadku okazują się oszacowaniami optymalnymi. Główne wyniki Rozdziału 2 to Twierdzenie 2.5 (ograniczenia z góry na błąd), Lemat 2.1 (ograniczenia z dołu) oraz wynikające z nich Twierdzenie 2.7. Podsumowanie wyników dla złożoności znajduje się we Wniosku 2.2. Rozdział 3 poświęcony jest problemowi aproksymacji całki Itô (2) funkcji jednej zmiennej f : [0, T ] → R, które mogą posiadać nieznane punkty osobliwe. Będziemy zakładać, że dostępna jest informacja standardowa o funkcji f oraz o scałkowanym procesie Wienera. Złożoność obliczeniowa problemów osobliwych była rozpatrywana, w przypadku deterministycznym, w pracach [36] (całkowanie funkcji osobliwych), [37], [40] (aproksymacja funkcji kawałkami regularnych), [19] (problemy początkowe z osobliwymi funkcjami prawej strony) oraz [38] (ogólny przegląd metod dla problemów osobliwych). W rozprawie rozpatrujemy dla problemu (2) najpierw przypadek regularny,. 7.

(10) Wstęp. w którym całkowane funkcje f należą do klasy Höldera funkcji mających r ciągłych pochodnych (r ∈ N0 ) i których r–ta pochodna spełnia warunek Höldera z wykładnikiem % ∈ (0, 1]. Udowadniamy, że klasyczny nieadaptacyjny algorytm Itô–Taylora ([21]) jest algorytmem optymalnym, nawet w klasie algorytmów adaptacyjnych, i ma błąd Θ(n−(r+%) ) (gdzie n jest kardynalnością informacji). Tym samym, w przypadku regularnym adaptacja nie jest konieczna. Inaczej jest w przypadku osobliwym, w którym odwzorowania f należą do klasy funkcji kawałkami gładkich. Funkcje z tej klasy mają r ciągłych pochodnych wszędzie poza skończoną liczbą punktów osobliwych w [0, T ]. Pochodne rzędu r tych funkcji spełniają kawałkami warunek Höldera. Rozważamy dla takich zadań najpierw algorytmy nieadaptacyjne. Pokazujemy, że żaden tego typu algorytm nie może mieć rzędu błędu znanego z przypadku regularnego, nawet w przypadku gdy f ma tylko jedną osobliwość. Błąd każdego takiego algorytmu okazuje się, w sensie rzędu, nie mniejszy niż n− min{1/2,r+%} . Nasze rozważania kierujemy więc ku algorytmom adaptacyjnym. W przypadku gdy f ma co najwyżej jedną osobliwość, pokazujemy konstrukcję adaptacyjnego algorytmu Itô–Taylora, który zachowuje optymalny błąd O(n−(r+%) ) znany z przypadku regularnego. Schemat ten najpierw wykrywa nieznaną osobliwość, następnie odpowiednio modyfikuje wyjściową dyskretyzację [0, T ], a w końcu wykonuje na nowej siatce klasyczny algorytm Ito–Taylora. Do wykrycia osobliwości f używamy odpowiednio zmodyfikowanego algorytmu bisekcyjnego z pracy [19]. W przypadku dwóch lub więcej osobliwości wykazujemy, że nawet algorytmy adaptacyjne nie mogą zachować optymalnego błędu z przypadku regularnego. Udowadniamy, że każdy algorytm ma błąd Θ(n− min{1/2,r+%} ). Głównymi wynikami Rozdziału 3, które dotyczą przypadku regularnego, są: Twierdzenia 3.1, 3.2 i 3.4, Wniosek 3.1 (ograniczenia z dołu), Stwierdzenie 3.1 (ograniczenia z góry) oraz wynikający z nich Wniosek 3.2. Najważniejsze rezultaty dotyczące przypadku osobliwego zawarte są w Twierdzeniu 3.5 (które podaje oszacowanie błędu adaptacyjnego algorytmu Itô–Taylora), Lemacie 3.3 (który mówi o zachowaniu się nieadaptacyjnego algorytmu Itô–Taylora w klasie funkcji osobliwych), Stwierdzeniu 3.2 (podającym ograniczenia z dołu dla algorytmów nieadaptacyjnych) oraz we Wniosku 3.4 (mówiącym o optymalności skonstruowanego adaptacyjnego schematu Itô–Taylora). Podsumowaniem wyników dla złożoności zarówno w przypadku regularnym, jak i osobliwym jest Wniosek 3.7. Rozdział 4 zawiera podsumowanie wyników opisanych w rozprawie, listę problemów otwartych wynikłych podczas jej pisania oraz zarys problemów badawczych, którymi autor rozprawy planuje zająć się w przyszłości. Praca zawiera również dwa Dodatki,. 8.

(11) Wstęp. które zostały umieszczone na końcu. Dla wygody czytelnika w Dodatku A wprowadzamy kilka pojęć z zakresu teorii procesów stochastycznych i całki Itô, które wykorzystujemy w tej rozprawie. Przypomnimy pojęcia filtracji, filtracji naturalnej, procesu i przestrzeni Wienera, przestrzeni Hilberta z jądrem reprodukującym oraz własności całki Itô. Dodatek B zawiera dowody pomocniczych faktów.. 9.

(12) Rozdział 1. Ogólny opis badanych problemów. W pracy zbadamy złożoność obliczeniową dwóch zadań. W pierwszej kolejności zajmiemy się aproksymacją całki stochastycznej w sensie Itô postaci: I(f, B) =. ZT. f (t, Bt )dBt ,. (1.1). 0. gdzie T > 0, B jest jednowymiarowym procesem Wienera, natomiast funkcja f : [0, T ] × R → R należy do pewnej klasy funkcji gładkich. Następnie rozpatrzymy, również pod kątem złożoności obliczeniowej, zadanie postaci: I(f, B) =. ZT. f (t)dBt ,. (1.2). 0. gdzie tym razem funkcja f : [0, T ] → R będzie odwzorowaniem posiadającym osobliwości w [0, T ]. Niech (Ω, Σ, P) = (F, B(F ), µ0 ) będzie przestrzenią Wienera, gdzie F oznacza przestrzeń funkcji ciągłych w [0, T ] i przyjmujących wartość zerową w 0, B(F ) jest σ–ciałem zbiorów borelowskich w F oraz µ0 jest miarą Wienera. Przestrzeń Wienera jest kanoniczną przestrzenią probabilistyczną, na której określony jest proces Wienera B (Twierdzenie A.4 w Dodatku A). Przez {ΣB t , t ∈ [0, T ]} oznaczamy filtrację naturalną procesu Wienera B (zobacz Definicję A.3 w Dodatku A). 10.

(13) Aproksymacja wartości całki I(f, B)(ω) będzie dana za pomocą algorytmu A, który przyporządkowuje każdej funkcji f z pewnej klasy oraz każdej trajektorii ω ∈ F liczbę rzeczywistą A(f, B)(ω). Każdy taki algorytm oparty jest na pewnej informacji o f oraz o trajektorii ω procesu B, która dana jest za pomocą operatora informacji. Przez N = {1, 2, 3, . . .} oznaczamy zbiór liczb naturalnych bez zera, natomiast przez N0 = {0, 1, 2, . . .} – zbiór liczb naturalnych. Niech H będzie pewną przestrzenią liniową funkcji rzeczywistych f określonych na obszarze U ⊂ Rs , dla pewnego s ∈ N. Zakładamy, że dla funkcji z tej przestrzeni istnieją pochodne cząstkowe odpowiednio wysokiego rzędu. Przy rozpatrywaniu każdego z problemów (1.1) lub (1.2), przestrzeń H będzie precyzyjnie definiowana. Operatorem informacji nazywamy odwzorowanie N : H×F →. S. n­1. Rn . Dla danej funkcji f i trajektorii ω informacja N (f, ω) dana jest. poprzez skończoną liczbę wartości f lub jej pochodnych cząstkowych, wartości ω lub wartości pewnych funkcjonałów dla funkcji ω. Mówiąc dokładniej, zakładamy, że mamy dane wartości f i jej pochodnych cząstkowych w skończonej liczbie punktów zi ∈ U – jest to tak zwana informacja standardowa o f . Zakładamy ponadto, że znamy wartości funkcji ω ∈ F w pewnej skończonej liczbie punktów tj ∈ [0, T ]. Jest to informacja standardowa o ω. Informacja standardowa jest przypadkiem szczególnym informacji liniowej, która składa się z wartości pewnych ograniczonych funkcjonałów liniowych λk dla ω, zobacz na przykład [13]. Innym przypadkiem szczególnym informacji liniowej jest informacja całkowa, która dana jest za pomocą wartości całek Riemanna funkcji ω na pewnych przedziałach (ci , di ), 0 ¬ ci < di ¬ T . Informacja może być nieadaptacyjna lub adaptacyjna. Informację nazywamy nieadaptacyjną, jeżeli wszystkie punkty zi , tj i funkcjonały liniowe λk używane do wyznaczenia aproksymacji (wraz z ich liczbą) są zadane z góry (a priori ). Informacja jest adaptacyjna, jeżeli zi , tj oraz λk zależą od wartości funkcjonałów λk¯ wyliczonych w poprzednich krokach k¯ ¬ k − 1, a także od wartości f (lub jej pochodnych), ω w uprzednio obliczonych punktach z¯i , t¯j . ¯i ¬ i − 1, ¯j ¬ j − 1. Definicję informacji nieadaptacyjnej oraz adaptacyjnej będziemy dokładniej precyzować przy badaniu każdego z problemów (1.1) i (1.2). Niech G będzie pewną podklasą przestrzeni H. Przez algorytm A, używający informacji N , rozumiemy odwzorowanie zdefiniowane na G × F wzorem A(f, B)(ω) = ψ(N (f, ω)),. (1.3). gdzie ψ : N (G × F ) → R jest pewną funkcją mierzalną. Kosztem informacyjnym algorytmu A dla ustalonych f i ω nazywamy wymiar użytego wektora informacji N (f, ω) i oznaczamy cost(A, f )(ω). Średni koszt informacyjny algorytmu A w klasie G jest. 11.

(14) zdefiniowany przez cost(A, G) = sup E(cost(A, f )).. (1.4). f ∈G. W literaturze koszt algorytmu cost(A, f )(ω) zwany jest też kardynalnością informacji, natomiast średni koszt cost(A, G) – średnią kardynalnością użytej informacji. Jak widać, w koszcie algorytmu nie uwzględniamy kosztu kombinatorycznego, który jest mierzony liczbą operacji arytmetycznych potrzebnych do uzyskania przybliżenia ψ(N (f, ω)). Zakładamy bowiem (za literaturą), że koszt uzyskania informacji N (f, ω) (czyli koszt obliczania odpowiednich funkcjonałów) jest znacznie większy niż koszt operacji arytmetycznych. W rozprawie rozpatrujemy model błędu najgorszego przypadku ze względu na f i model średni ze względu na miarę Wienera µ0 ([47]). Średni błąd algorytmu A przy ustalonej funkcji f z klasy G jest zdefiniowany przez . 2. . e(A, f ) = E I(f, B) − A(f, B). 1/2 . ,. (1.5). natomiast błąd najgorszego przypadku w klasie G przez e(A, G) = sup e(A, f ).. (1.6). f ∈G. Dla danego n ∈ N niech Ψn oznacza klasę wszystkich algorytmów postaci (1.3) o średnim koszcie równym co najwyżej n, to znaczy Ψn = {A | cost(A, G) ¬ n}.. (1.7). Definiujemy n–ty błąd minimalny w klasie funkcji G i w klasie algorytmów Ψn jako en (G) = inf e(A, G), A∈Ψn. (1.8). gdzie infimum jest brane po wszystkich możliwych algorytmach należących do Ψn . Jest to najmniejszy możliwy błąd w klasie funkcji G, jaki możemy uzyskać za pomocą algorytmów z danej klasy, korzystających z informacji o kardynalności równej co najwyżej n. Dla danego ε > 0 rozważamy też ε–złożoność (ε–complexity) problemu. Jest ona zdefiniowana jako minimalny średni koszt potrzebny do uzyskania aproksymacji wartości całki stochastycznej I(f, B) z błędem nie większym od ε, comp(G, ε) = inf {cost(A, G) | e(A, G) ¬ ε}. A. (1.9). 12.

(15) Infimum brane jest po wszystkich algorytmach postaci (1.3) opartych na dowolnej informacji z dostępnej klasy informacji. Przyjmujemy, że inf ∅ = +∞. Wielkość (1.9) jest więc miarą trudności obliczeniowych związanych z wyznaczaniem rozwiązania problemu z zadaną dokładnością. Jak widać z definicji, wielkości (1.8) i (1.9) są ze sobą powiązane, zatem mając oszacowania na jedną z nich, dostajemy ograniczenia na drugą. Ze względu na wygodę w dalszym ciągu pracy będziemy używali notacji O − Ω − Θ, która jest często wykorzystywana w informatyce teoretycznej oraz w złożoności obliczeniowej zadań ciągłych ([22]). Przytoczymy teraz, dla kompletności, definicje tych oznaczeń. Niech f, g : R+ → R+ ∪ {0}. Piszemy, że f (ε) = O(g(ε)), jeśli ∃c1 ,c2 >0 ∀ε∈(0,c2 ] f (ε) ¬ c1 g(ε). Piszemy, że f (ε) = Ω(g(ε)), jeżeli g(ε) = O(f (ε)) oraz f (ε) = Θ(g(ε)), gdy g(ε) = O(f (ε)) i f (ε) = Ω(g(ε)). Analogiczne definicje stosuje się w przypadku, gdy zamiast rzeczywistego nieujemnego parametru ε → 0+ , rozważamy naturalny parametr n → +∞. Wszystkie stałe, jakie będą się pojawiały w oszacowaniach, łącznie z tymi występującymi w notacjach O, Ω i Θ, będą zależeć tylko od parametrów odpowiednich klas oraz od T , chyba że wyraźnie będzie zaznaczone, że jest inaczej. Ponadto, ten sam symbol może być użyty do oznaczenia różnych stałych. Przez zwrot "dla dostatecznie dużego n" rozumiemy "dla n ­ n0 ", gdzie n0 > 0 zależy tylko od T i parametrów klasy.. 13.

(16) Rozdział 2. Optymalna aproksymacja całki Itô pewnego procesu stochastycznego za pomocą informacji liniowej. W rozdziale tym, opartym na artykule [42], zbadamy złożoność obliczeniową zadania aproksymacji całki stochastycznej w sensie Itô postaci I(f, B) =. ZT. f (t, Bt )dBt .. (2.1). 0. Problem (2.1) rozważymy w klasach funkcji G ⊂ H, gdzie H = C(r1 , r2 ), r1 , r2 ∈ N0 i przestrzeń C(r1 , r2 ) jest określona jak następuje. Funkcja f : [0, T ] × R → R należy do C(r1 , r2 ) wtedy i tylko wtedy, gdy dla i = 0, 1, . . . , r1 , j = 0, 1, . . . , r2 oraz dla dowolnych (t, y) ∈ [0, T ] × R istnieją ciągłe pochodne cząstkowe ∂ i+j f (t, y)/(∂ti ∂y j ). Będziemy rozważać cztery klasy G. Do pierwszej z rozważanych klas, oznaczonej przez G = F W P , należą funkcje f = f (t, y), które dla pewnych stałych dodatnich D, K1 , K2 , L1 oraz L2 spełniają następujące warunki: • dla wszystkich (t, y) ∈ [0, T ] × R istnieją ciągłe pochodne cząstkowe ∂f (t, y)/∂t, ∂ i f (t, y)/∂y i , i = 1, 2, 3,. 14.

(17) • pochodne cząstkowe spełniają następujące warunki typu Lipschitza: sup t∈[0,T ],y∈R.

(18) 3

(19)

(20) ∂ f

(21)

(22)

(23)

(24) 3 (t, y)

(25). ∂y.

(26) 2

(27)

(28) ∂ f

(29) ∂2f

(30) (s, y)

(31)

(32)

(33) 2 (t, y) − 2 ∂y ∂y

(34)

(35)

(36) ∂f

(37) ∂f

(38) (t, y) − (s, y)

(39)

(40)

(41) ∂y ∂y

(42)

(43)

(44) ∂f

(45) ∂f

(46)

(47) (t, y) − (t, z)

(48)

(49) ∂t ∂t

(50)

(51)

(52) ∂f

(53) ∂f

(54) (t, y) − (s, y)

(55)

(56)

(57). ∂t. ∂t. ¬ D,. (2.2). ¬ L2 |t − s|,. (2.3). ¬ L1 |t − s|,. (2.4). ¬ K1 |y − z|,. (2.5). ¬ K2 |t − s|,. (2.6). dla wszystkich y, z ∈ R oraz s, t ∈ [0, T ]. Ponadto, będziemy również rozważać problem aproksymacji całki (2.1) w następującej klasie funkcji f = f (t, y), G = F¯ W P = {f ∈ F W P | ∂f (t, y)/∂y = 0, t ∈ [0, T ], y ∈ R}, która jest podklasą F W P . Stałe D, K1 , K2 , L1 , L2 będziemy nazywać parametrami ¯. klasy F W P lub F W P . Określamy również klasy: G = F(r1 , r2 ) = {f ∈ C(r1 , r2 ) |. sup. |∂ i+j f (t, y)/(∂ti ∂y j )| ¬ 1,. t∈[0,T ],y∈R. i = 0, 1, . . . , r1 , j = 0, 1, . . . , r2 }, G = F(r1 ) = {f ∈ F(r1 , 1) | ∂f (t, y)/∂y = 0, t ∈ [0, T ], y ∈ R}. dla całkowitych r1 , r2 ­ 0. Klasy F W P i F¯ W P są najszerszymi klasami funkcji, dla jakich udowodnimy oszacowania z góry na n–ty błąd minimalny. Klasy F(r1 , r2 ), F(r1 ) rozpatrujemy głównie pod kątem ograniczeń z dołu. Mianowicie, pokażemy, że złożoność obliczeniowa zadania aproksymacji całki (2.1) w tych dwóch klasach nie zależy od parametrów regularności r1 , r2 , gdy r1 i r2 są odpowiednio duże. Oznacza to, że zwiększanie regularności funkcji nie powoduje zmniejszenia złożoności obliczeniowej. Jak widać z powyższego, do klas F(r1 ) oraz F¯ W P należą te funkcje f = f (t, y), które nie zależą od zmiennej y. Dla uproszczenia zapisu będziemy dla tych funkcji pisać f = f (t). Każda z powyżej zdefiniowanych klas, dla pewnych r1 , r2 ∈ N0 , jest podzbiorem C(r1 , r2 ). Dla r1 ­ 2, r2 ­ 3 zachodzą pomiędzy nimi następujące relacje: F(r1 , r2 ) ⊂ F W P i F(r1 ) ⊂ F¯ W P . 15.

(58) 2.1. Znane wyniki w przypadku informacji standardowej o procesie Wienera. Uwaga 2.1. Z Faktu B.1 (Dodatek B) wynika, że dla funkcji f ∈ F W P proces stochastyczny (f (t, Bt ))t∈[0,T ] należy do L2ad ([0, T ] × Ω). Zatem, w rozważanych klasach funkcji f całka (2.1) jest poprawnie określoną całką Itô, zobacz Dodatek A.  Będziemy rozważać w tym rozdziale operator informacji N dla zadania (2.1) określony na produkcie C(r1 , r2 ) × F . Zakładamy, że operator ten dla funkcji f : [0, T ] × R → R zwraca informację standardową, natomiast dla trajektorii ω ∈ F informację standardową i całkową. Oznacza to, że znamy wartości f i jej pochodnych cząstkowych ∂f k+j /(∂tk ∂y j ) w skończonej liczbie punktów (ai , bi ) ∈ [0, T ] × R oraz mamy dostępne wartości następujących funkcjonałów liniowych λst j (ω) = Btj (ω) = ω(tj ), oraz λint i (ω). =. Zdi. Bt (ω)dt =. ci. Zdi. ω(t)dt,. (2.7). (2.8). ci. dla ω ∈ F , gdzie tj ∈ [0, T ] oraz 0 ¬ ci < di ¬ T , di ¬ ci+1 . Jeśli punkty ai , bi , ci , di oraz ich liczba są zadane z góry wówczas mówimy o informacji nieadaptacyjnej. Jeśli natomiast dopuszczamy zależność ai , bi , ci oraz di od wartości funkcji f (i jej pochodnych) oraz od wartości funkcjonałów (2.7), (2.8) w uprzednio wyliczonych punktach, to taką informację nazywamy adaptacyjną ze względu na f i B. W szczególności możemy mieć, że bi = ω(ai ), ci = ai oraz di = ai+1 . Naszym celem jest znalezienie ograniczeń z dołu i z góry na en (G) (gdzie G = F W P , G = F¯ W P , G = F(r1 , r2 ), G = F(r1 )), gdy n → +∞ (lub, równoważnie, na comp(G, ε), gdy ε → 0+ ). Chcemy również znaleźć algorytmy, dla których infimum w (1.8) jest (asymptotycznie) osiągane.. 2.1. Znane wyniki w przypadku informacji standardowej o procesie Wienera Złożoność obliczeniowa problemu aproksymacji całki stochastycznej (2.1) była badana, w przypadku gdy dostępna jest tylko informacja standardowa o procesie B, przez G. W. Wasilkowskiego i H. Woźniakowskiego w artykule [51], a następnie przez P. Hertlinga w pracy [8]. W zależności od rodzaju rozważanej klasy funkcji f , w celu znalezienia ograniczeń z góry na n–ty błąd minimalny, rozpatrywany był algorytm Eulera AE bądź Milsteina AM . Algorytmy te, znane w ogólnej formie z [21], zostały. 16.

(59) 2.1. Znane wyniki w przypadku informacji standardowej o procesie Wienera. w artykule [51] przedstawione w postaciach odpowiednich dla zadania (2.1). Podamy teraz dla kompletności te schematy. Dla danego n ∈ N, niech ai = (i − 1)T /n,. i = 1, 2, . . . , n + 1.. (2.9). Algorytm Eulera AE dla problemu (2.1) ma postać: AE (f, B) =. n X. AE i (f, B),. (2.10). i=1. gdzie AE i (f, B) = f (ai , Bai )(Bai+1 − Bai ).. (2.11). Natomist algorytm Milsteina AM jest zdefiniowany następująco, AM (f, B) =. n X. AM i (f, B),. (2.12). i=1. gdzie AM i (f, B) = f (ai , Bai )(Bai+1 − Bai ) +.

(60) T 1 ∂f (Bai+1 − Bai )2 − (ai , y)

(61)

(62) . (2.13) 2 ∂y n y=Bai

(63). . . W rozważanych przez autorów klasach funkcji f mamy AE ∈ Ψ2n natomiast AM ∈ Ψ3n . Autorzy rozpatrywali również zmodyfikowany algorytm Milsteina A˜M , powstały przez zastąpienie pochodnych cząstkowych Diy.

(64) ∂f = (ai , y)

(65)

(66) , i = 1, 2, . . . , n, ∂y y=Bai

(67). (2.14). w oryginalnym algorytmie AM ich aproksymacjami ¯ y = f (ai , Bai + h) − f (ai , Bai ) , D i,h h. (2.15). gdzie h ∈ (0, T /n]. Dla schematów AM i A˜M zostało udowodnione następujące twierdzenie. Twierdzenie 2.1. ([51]) Niech funkcja f : [0, T ] × R → R spełnia następujące warunki: (1) istnieją ciągłe pochodne cząstkowe ∂f /∂y, ∂ 2 f /∂y 2 , (2) istnieje stała L > 0 taka, że dla wszystkich y ∈ R, s, t ∈ [0, T ] funkcja f spełnia warunek Lipschitza |f (s, y) − f (t, y)| ¬ L|s − t|,. 17.

(68) 2.1. Znane wyniki w przypadku informacji standardowej o procesie Wienera. (3) istnieje stała K > 0 taka, że sup t∈[0,T ],y∈R.

(69) 2

(70)

(71) ∂ f

(72)

(73)

(74)

(75) 2 (t, y)

(76) ¬ K.. ∂y. Wówczas T3 2 2 L + K2 . n2 3  2   T3 4 2 T 2 2 M ˜ E I(f, B) − A (f, B) ¬ 2 L + 2K + K . n 3 4n . 2. E I(f, B) − AM (f, B). ¬. . . (2.16) (2.17) . W celu znalezienia ograniczeń z dołu na n–ty błąd minimalny autorzy udowodnili następujące twierdzenie. Twierdzenie 2.2. ([51]) Jeżeli klasa F zawiera funkcję h(t, y) = a + bt + cy 2 dla pewnych a, b, c ∈ R takich, że b + c 6= 0, to T 3/2 |b + c| en (F) ­ √ . 2 3(n + 3/2). (2.18) . Teza tego twierdzenia pozostaje prawdziwa, nawet jeśli założymy, że mamy pełną informację na temat całkowanej funkcji, czyli na przykład gdy znamy wzór opisujący daną funkcję. Stosując Twierdzenia 2.1 oraz 2.2 w klasie FL,K = {f : [0, T ] × R → R | ||f (1,0) || ¬ L, ||f (0,2) || ¬ K },. (2.19). gdzie L, K ­ 0, L2 + K 2 > 0, zostało udowodnione co następuje. Twierdzenie 2.3. ([51]) W klasie FL,K n–ty błąd minimalny, dla dowolnego n ­ 3, spełnia en (FL,K ) = Θ(n−1 ),. (2.20). oraz mamy następujące oszacowanie na złożoność obliczeniową zadania (2.1) comp(FL,K , ε) = Θ(ε−1 ).. (2.21). Algorytm Milsteina AM i jego modyfikacja A˜M są algorytmami optymalnymi. . 18.

(77) 2.2. Algorytm Wagnera–Platena i ograniczenia z góry. W klasie F(r1 , r2 ), dla r1 ­ 1, r2 ­ 2 i T ­ 1 również mamy en (F(r1 , r2 )) = Θ(n−1 ),. (2.22). comp(F(r1 , r2 ), ε) = Θ(ε−1 ),. (2.23). i algorytmem optymalnym jest schemat Milsteina AM , zobacz [51]. Dodatkowo w klasie Lipschitza FLip,L,K = {f : [0, T ] × R → R | |f (t, x) − f (s, x)| ¬ L|t − s|, |f (t, x) − f (t, y)| ¬ K|x − y|, t ∈ [0, T ], x, y ∈ R}, w pracach [8] i [51] został udowodniony następujący wynik. Twierdzenie 2.4. ([8], [51]) W klasie FLip,L,K n–ty błąd minimalny spełnia en (FLip,L,K ) = Θ(n−1/2 ),. (2.24). oraz mamy następujące oszacowanie na złożoność obliczeniową zadania (2.1) comp(FLip,L,K , ε) = Θ(ε−2 ).. (2.25). Algorytm Eulera AE jest algorytmem optymalnym.  Dowód ograniczeń z góry w powyższym twierdzeniu znajduje się w [51], natomiast z dołu – w [8]. Jak widać, problem (2.1) był badany w przypadku informacji standardowej o procesie Wienera B. W tej rozprawie zbadamy złożoność obliczeniową zadania (2.1) w ogólniejszym przypadku, gdy mamy dostępną informację całkową o procesie B.. 2.2. Algorytm Wagnera–Platena i ograniczenia z góry Z definicji różniczki stochastycznej dla procesów Itô (zobacz Definicję A.9 w Dodatku A) wynika, że wartość rozważanej całki Itô (2.1) jest równa XT , gdzie Xt , t ∈ [0, T ], jest rozwiązaniem następującego układu stochastycznych równań różniczkowych:   dY = dB , t t  dX = f (t, Y )dB , t t t. (2.26). z warunkiem początkowym X0 = Y0 = 0. Zatem, w celu uzyskania ograniczeń z góry na n–ty błąd minimalny dla problemu aproksymacji całki (2.1) w rozważanych klasach funkcji f możemy rozważyć algorytm Wagnera–Platena ([21]), dający przybliżone 19.

(78) 2.2. Algorytm Wagnera–Platena i ograniczenia z góry. rozwiązanie układów stochastycznych równań różniczkowych. Wypiszemy teraz jego postać, jaką przyjmuje dla układu (2.26), czyli równoważnie, dla naszego problemu (2.1). Dla danego n ∈ N, niech {ai }n+1 i=1 będzie dyskretyzacją przedziału [0, T ] zdefiniowaną w (2.9). Algorytm Wagnera–Platena AW P dla (2.1) ma postać: A. WP. (f, B) =. n X. P AW (f, B), i. (2.27). i=1. gdzie P AW (f, B) = f (ai , Bai )(Bai+1 − Bai ) i ai+1. Z

(79) ∂f + (t, Bai )

(80)

(81) (Bai+1 − Bt )dt ∂t t=ai a

(82). i.

(83) 1 ∂f + (Bai+1 − Bai )2 − (ai+1 − ai ) (ai , y)

(84)

(85) 2 ∂y y=Bai

(86). . . aZi+1

(87)  

(88) 1 ∂2f 1 3

(89) + (Bt − Bai )dt . (ai , y)

(90) (Bai+1 − Bai ) − 2 ∂y 2 y=Bai 3 a i. Ponieważ b1 = Ba1 = B0 = 0, więc algorytm AW P używa n wartości procesu Wienera B, bi = Bai dla i = 2, 3, . . . , n + 1. Ponadto, używa n wartości f , f (ai , bi ) dla i = 1, 2, . . . , n, n wartości pochodnych cząstkowych ∂f (t, y)/∂y w punkcie (t, y) = (ai , bi ) dla i = 1, 2, . . . , n, n wartości pochodnych cząstkowych ∂ 2 f (t, y)/∂y 2 w punkcie (t, y) = (ai , bi ) dla i = 1, 2, . . . , n oraz n wartości pochodnych cząstkowych ∂f (t, y)/∂t w (t, y) = (ai , bi ) dla i = 1, 2, . . . , n. Algorytm AW P używa również n wartości całek cZi+1. Bt dt, gdzie ci = ai dla i = 1, 2, . . . , n. Tym samym, całkowita kardynalności wyko-. ci. rzystanej informacji wynosi 6n i przez to AW P ∈ Ψ6n . Ponadto, algorytm wymaga co najwyżej 25n (grube oszacowanie) operacji arytmetycznych. Oszacujemy teraz z góry błąd algorytmu Wagnera–Platena dla funkcji f należących do klasy F W P . Oczywiście własności oraz rząd zbieżności tego algorytmu były już szeroko studiowane w literaturze, na przykład w [21] oraz w [27]. W pracach tych, dla odpowiednio regularnych f , został udowodniony błąd rzędu n−3/2 . Nie możemy jednak w naszym modelu skorzystać z tych wyników bezpośrednio, gdyż oszacowania te zostały udowodnione przy mocniejszych założeniach o f , niż przyjmujemy w niniejszej pracy, oraz zawierają niewyspecyfikowane stałe. Nie będziemy między innymi zakładać, że funkcja f = f (t, y) spełnia warunek Lipschitza ze względu na zmienną y. Ponadto przyjmiemy, że f jest jedynie trzykrotnie różniczkowalna ze względu na 20.

(91) 2.2. Algorytm Wagnera–Platena i ograniczenia z góry. zmienną y, podczas gdy w [21] autorzy zakładali, że f jest czterokrotnie różniczkowalna ze względu na tę zmienną. (W pracy [51] autorzy udowodnili ograniczenia z góry na błąd algorytmu Milsteina AM również przy słabszych założeniach o f niż w [21].) Pokażemy również w sposób jawny zależność błędu od parametrów klasy oraz od T . Zachodzi następujące oszacowanie na błąd algorytmu AW P w klasie F W P . Twierdzenie 2.5. Dla każdej funkcji f ∈ F W P mamy e(A. WP. , f) ¬. √. 5T. 2. . 2K22 T L2 T K 2 L2 D 2 + 2 + 1 + 1+ 15n 30n 4 12 8. 1/2. n−3/2 .. (2.28). Dowód. Dowód rozpoczniemy od zapisania algorytmu AW P w postaci całkowej. Z własności całki Itô (Dodatek A) wynikają następujące równości: aZi+1. aZi+1 Zt. ai. ai. (Bai+1 − Bt )dt =. aZi+1 Zt ai. dsdBt ,. (2.29). ai. 1 (Bai+1 − Bai )2 − (ai+1 − ai ) , 2 . dBs dBt =. ai. . (2.30). oraz aZi+1 Zt ai. Zs. ai ai. ai+1 t ai+1 1 Z Z 1 1 Z 3 dBu dBs dBt + dsdBt = (Bai+1 − Bai ) − (Bt − Bai )dt. (2.31) 2 a a 6 2 a i. i. i. Na podstawie (B.12) oraz (B.13) z Dodatku B mamy 2

(92) ∂j f ˆj,

(93) (a , y) ¬K i

(94) ∂y j y=Bai

(95)  2

(96) ∂f ˆ 3,

(97) E (s, Bai )

(98) ¬K ∂s s=ai. .

(99). . E. j = 0, 1, 2, (2.32). ˆ j = 25−2j C¯j2 (1 + c(3 − j)T 3−j ) dla j = 0, 1, 2, K ˆ 3 = 2C¯32 (1 + T ) oraz 0 ¬ K ˆj < gdzie K +∞ dla j = 0, 1, 2, 3. Przez c = c(m) oznaczamy tu funkcję

(100) zdefiniowaną w Fakcie

(101)

(102) A.1 (Dodatek A). Ponadto, f (ai , Bai ), są. ΣB ai –mierzalne..

(103) ∂f (s, Bai )

(104)

(105) ∂s. , s=ai.

(106) ∂f (ai , y)

(107)

(108) ∂y. oraz y=Bai.

(109) ∂2f (ai , y)

(110)

(111) ∂y 2. y=Bai. 21.

(112) 2.2. Algorytm Wagnera–Platena i ograniczenia z góry. Niech dla i = 1, 2, . . . , n oraz t ∈ [ai , ai+1 ] Fˆi (t) = f (ai , Bai ) +. Zt ai. +. Zt  ai. +.

(113) ∂f (s, Bai )

(114)

(115) ds ∂s s=ai

(116). s. Z 2

(117)

(118) ∂ f ∂f

(119)

(120) + (ai , y)

(121) dBu dBs (a , y) i

(122) 2 ∂y ∂y y=Bai y=Bai a

(123).

(124). . i. Zt.

(125)

(126) ∂2f (ai , y)

(127)

(128) 2. 1 2 a ∂y i. ds.. (2.33). y=Bai. Z (2.32) oraz z izometrii Itô mamy dla i = 1, 2, . . . , n oraz t ∈ [ai , ai+1 ] 

(129) Z t.

(130) (E(Fˆi (t))2 )1/2 ¬ (E|f (ai , Bai )|2 )1/2 + E

(131)

(132). ai.

(133) 

(134) Z t

(135) ∂f

(136)

(137) + E

(138) (ai , y)

(139)

(140) ai. ∂y. y=Bai. t.

(141)

(142) 2 ∂f (s, Bai )

(143)

(144) ds

(145)

(146) ∂s s=ai.

(147) 1/2.

(148).

(149) 2 1/2 

(150) Zt Zs 2

(151)

(152)

(153)

(154) ∂ f

(155)

(156)

(157) + E

(158) (a , y) dBs

(159) i

(160) 2 ai ai. ∂y. y=Bai.

(161) 2 1/2

(162) dBu dBs

(163)

(164).

(165) 2

(166) 1

(167) Z ∂ 2 f

(168)

(169) ds (a , y) + E

(170)

(171) i

(172)

(173) 2 2 ∂y y=Bai a 

(174).

(175) 1/2.

(176). i. . . ˆ j1/2 1 + 3(t − ai ) + (t − ai )1/2 . ¬ max K. (2.34). 0¬j¬3. Ponieważ dla i = 1, 2, . . . , n oraz t ∈ [ai , ai+1 ] odworowanie Fˆi (t) jest ΣB t –mierzalne oraz. aZi+1. ˆ i+1 − ai ), E(Fˆi (t))2 ¬ C(a. (2.35). ai. ˆ j 1 + 3T 2 + 1 T , zatem mamy Fˆi ∈ L2 ([ai , ai+1 ] × Ω). Korzystagdzie Cˆ = 3 max K ad 0¬j¬3 2 jąc więc z (2.29), (2.30), (2.31), (2.33) i Lematu A.1 (Dodatek A), możemy zapisać . . P w następującej postaci AW i. P AW (f, B) i. =. aZi+1. Fˆi (t)dBt .. (2.36). ai. Określmy następujące odwzorowanie fˆ(t, B) =. n X. 1(ai ,ai+1 ] (t)Fˆi (t).. (2.37). i=1. Dla każdego t ∈ [0, T ] proces fˆ jest ΣB t –mierzalny. Ponadto, z (2.35) otrzymujemy. 22.

(177) 2.2. Algorytm Wagnera–Platena i ograniczenia z góry ZT. E(fˆ(t, B))2 dt =. 0. ZT. X n. E. 1(ai ,ai+1 ] (t)(Fˆi (t))2. i=1. 0. +. X. . 1(ai ,ai+1 ] (t)1(aj ,aj+1 ] (t)Fˆi (t)Fˆj (t) dt. i6=j. =. n X. aZi+1. ˆ E(Fˆi (t))2 dt ¬ CT.. (2.38). i=1 ai. Tak więc fˆ należy do L2ad ([0, T ] × Ω). Na podstawie (2.36), (2.37) i z definicji algorytmu AW P mamy A. WP. (f, B) =. n X. P AW (f, B) i. =. i=1. ZT. fˆ(t, B)dBt .. 0. Ponieważ procesy (f (t, Bt ))t∈[0,T ] , (fˆ(t, B))t∈[0,T ] należą do L2ad ([0, T ] × Ω) więc ich różnica także. Korzystając więc z izometrii Itô (A.25) z Dodatku A, błąd algorytmu Wagnera–Platena możemy wyrazić następująco . 2. e(AW P , f ). . 2. . = E I(f, B) − AW P (f, B). = E. ZT . . 2. f (t, Bt ) − fˆ(t, B) dBt . 0. =. ZT. 2. . E f (t, Bt ) − fˆ(t, B). dt =. n X. e2i ,. (2.39). i=1. 0. gdzie e2i. =. aZi+1. 2. . E f (t, Bt ) − fˆ(t, B). dt.. ai. Naszym celem jest teraz uzyskanie odpowiednich oszacowań z góry na wielkości e2i , i = 1, 2, . . . , n. Z Wniosku A.1 z Dodatku A dostajemy dla t ∈ (ai , ai+1 ] f (t, Bt ) = f (ai , Bai ) +. Zt ai. t. t. Z

(178)

(179)

(180) ∂f 1 Z ∂2f ∂f

(181)

(182) (s, y)

(183) ds + (s, y)

(184) ds + (s, y)

(185)

(186) dBs . 2 ∂s 2 a ∂y ∂y y=Bs y=Bs y=Bs a

(187).

(188). i.

(189). i. Zatem dla wszystkich t ∈ (ai , ai+1 ] otrzymujemy f (t, Bt ) − fˆ(t, B) =. Zt  ai.

(190)

(191) ∂f ∂f − (s, Bai )

(192)

(193) (s, y)

(194)

(195) ds ∂s ∂s y=Bs s=ai

(196). 1Z + 2a. t. i. +. Zt  ai.

(197). .

(198)

(199) ∂2f ∂2f

(200) (s, y) − (ai , y)

(201)

(202) ds

(203) 2 2 ∂y y=Bs ∂y y=Bai

(204).

(205). . s. Z 2

(206)

(207)

(208) ∂f ∂ f ∂f

(209)

(210) (s, y)

(211) − (ai , y)

(212) + (ai , y)

(213)

(214) dBu 2 ∂y ∂y ∂y y=Bs y=Bai y=Bai a

(215). .

(216).

(217). . dBs .. i. (2.40) 23.

(218) 2.2. Algorytm Wagnera–Platena i ograniczenia z góry. Ponadto, stosując Wniosek A.1 do funkcji g(y) =. ∂f (ai , y), ∂y. dostajemy.

(219)

(220)

(221)

(222) ∂f ∂f ∂f ∂f = − (ai , y)

(223)

(224) + (ai , y)

(225)

(226) (s, y)

(227)

(228) (s, y)

(229)

(230) ∂y ∂y y=Bs y=Bs ∂y y=Bs ∂y y=Bai

(231).

(232). +. Zs ai.

(233).

(234). s.

(235)

(236) ∂2f 1 Z ∂3f

(237)

(238) dB + du. (a , y) (a , y) u i i

(239)

(240) ∂y 2 2 a ∂y 3 y=Bu y=Bu

(241).

(242). (2.41). i. Z (2.40) i (2.41) dla t ∈ (ai , ai+1 ] mamy Zt . f (t, Bt ) − fˆ(t, B) =. ai.

(243)

(244) ∂f ∂f − (s, Bai )

(245)

(246) (s, y)

(247)

(248) ds ∂s ∂s y=Bs s=ai

(249). 1Z + 2a. t. i. +. Zt  ai. +.

(250). .

(251)

(252) ∂2f ∂2f

(253) ds − (s, y) (ai , y)

(254)

(255)

(256) 2 2 ∂y y=Bs ∂y y=Bai

(257).

(258). .

(259)

(260) ∂f ∂f − (ai , y)

(261)

(262) dBs (s, y)

(263)

(264) ∂y y=Bs ∂y y=Bs

(265). Zt Zs  ai ai.

(266). .

(267)

(268) ∂2f ∂2f

(269) − dBu dBs (a , y) (ai , y)

(270)

(271) i

(272) 2 2 ∂y y=Bu ∂y y=Bai

(273).

(274). . t s

(275)

(276) 1 Z Z ∂3f + dudBs . (ai , y)

(277)

(278) 3 2 a a ∂y y=Bu i. (2.42). i. Korzystając z (2.42), możemy napisać, że e2i. =. aZi+1. 2. . E f (t, Bt ) − fˆ(t, B). . dt ¬ 5. ai. J1i. 1 1 + J2i + J3i + J4i + J5i , 4 4 . (2.43). dla i = 1, . . . , n, gdzie J1i J2i J3i J4i J5i. : =. : =. : =. : =. : =. aZi+1. Zt . E ai aZi+1. ai. Zt . E ai aZi+1. ai. Zt . E ai aZi+1. ai. 2

(279)

(280) ∂f ∂f (s, y)

(281)

(282) − (s, Bai )

(283)

(284) ds dt, ∂s ∂s y=Bs s=ai. (2.44). 2

(285)

(286) ∂2f ∂2f

(287)

(288) (s, y) (a , y) − ds dt, i

(289)

(290) 2 ∂y 2 y=Bs ∂y y=Bai. (2.45).

(291).

(292). Zt Zs  ai ai. Zt Zs. E ai. ai. .

(293). . . . 2

(294)

(295) ∂f ∂f − (ai , y)

(296)

(297) (s, y)

(298)

(299) dBs dt, ∂y y=Bs ∂y y=Bs. E ai aZi+1.

(300). ai.

(301).

(302). . . 2

(303)

(304) ∂2f ∂2f

(305)

(306) (a , y) − (a , y) dB dB dt, i i u s

(307)

(308) 2 ∂y 2 y=Bu ∂y y=Bai.

(309).

(310). . . 2

(311) ∂3f

(312) (a , y) du dB dt. i s

(313) ∂y 3 y=Bu.

(314). . . 24.

(315) 2.2. Algorytm Wagnera–Platena i ograniczenia z góry. Z Lematu B.1 oraz Faktu B.1 (Dodatek B) wynika, że całki stochastyczne występujące w J3i , J4i i J5i są poprawnie zdefiniowanymi całkami Itô procesów należących do L2ad ([0, T ] × Ω) (zobacz Dodatek A). Oszacujemy teraz z góry wyrażenia Jji , i = 1, 2, . . . , n, j = 1, 2, . . . , 5. Ponieważ z (2.5) i (2.6) mamy

(316)

(317)

(318) ∂f

(319)

(320) (s, y)

(321)

(322)

(323). ∂s.

(324)

(325) ∂f

(326) ¬ K2 |s − ai | + K1 |Bs − Ba |, − (s, Bai )

(327)

(328)

(329) i ∂s y=Bs s=ai

(330).

(331). więc z nierówności Schwarza dostajemy J1i. =. aZi+1. Zt . E ai. ai. 2

(332)

(333) ∂f ∂f 2K22 T 5 K12 T 4 − (s, Bai )

(334)

(335) (s, y)

(336)

(337) ds dt ¬ + . ∂s ∂s 15n5 4n4 y=Bs s=ai.

(338).

(339). . . (2.46). Z twierdzenia o wartości średniej i z warunku (2.2) mamy

(340) 2

(341)

(342) ∂ f

(343) ∂2f

(344)

(345) ¬ D|y − z|, (t, z)

(346) 2 (t, y) −

(347) 2. ∂y. (2.47). ∂y. dla wszystkich t ∈ [0, T ] i y, z ∈ R. Na podstawie (2.3) i (2.47) dostajemy

(348) 2

(349)

(350) ∂ f

(351)

(352)

(353) (s, y)

(354) 2

(355). ∂y. − y=Bs.

(356)

(357) ∂2f

(358)

(359) ¬ L2 |s − ai | + D|Bs − Ba |, (a , y) i

(360)

(361) i ∂y 2 y=Bai

(362).

(363). więc, również korzystając z nierówności Schwarza, otrzymujemy J2i. =. aZi+1. Zt . E ai. ai. 2

(364)

(365) ∂2f 2L22 T 5 D2 T 4 ∂2f

(366)

(367) − dt ¬ (s, y) (a , y) ds + . i

(368)

(369) 2 ∂y 2 15n5 4n4 y=Bs ∂y y=Bai.

(370).

(371). . . (2.48). (Dokładniejsze oszacowanie stałych w (2.46) oraz w (2.48) znajdują się pod koniec tego rozdziału, w podrozdziale 2.4.) Dla J3i z izometrii Itô oraz z warunku (2.4) mamy J3i. aZi+1. =. Zt . E ai ai aZi+1 Zt . =. ai. 2

(372)

(373) ∂f ∂f − (ai , y)

(374)

(375) dBs dt (s, y)

(376)

(377) ∂y y=Bs ∂y y=Bs.

(378).

(379). .

(380)

(381) ∂f ∂f E (s, y)

(382)

(383) − (ai , y)

(384)

(385) ∂y y=Bs ∂y y=Bs. ai.

(386).

(387). 2. . dsdt ¬. L21 T 4 . 12n4. (2.49). Korzystając dwukrotnie z izometrii Itô oraz z (2.47), otrzymujemy dla J4i , co następuje J4i. =. =. =. aZi+1. Zt Zs . E ai ai ai aZi+1 Zt Zs . E ai ai aZi+1 Zt ai. ai. Zs. ai ai. 2

(388)

(389) ∂2f ∂2f

(390)

(391) (a , y) (a , y) − dB dB i i u s dt

(392)

(393) 2 ∂y 2 y=Bu ∂y y=Bai.

(394).

(395).

(396)

(397) ∂2f ∂2f

(398) (a , y) − (ai , y)

(399)

(400) dBu i

(401) 2 2 ∂y y=Bu ∂y y=Bai

(402).

(403).

(404)

(405) ∂2f ∂2f

(406)

(407) E (a , y) − (a , y) i i

(408)

(409) 2 ∂y 2 y=Bu ∂y y=Bai . .

(410).

(411). . 2. . . 2. dsdt. D2 T 4 dudsdt ¬ . (2.50) 24n4. 25.

(412) 2.2. Algorytm Wagnera–Platena i ograniczenia z góry. Dla J5 , ponownie z izometrii Itô oraz z (2.2), dostajemy J5i. =. =. aZi+1. Zt Zs. E ai ai ai aZi+1 Zt Zs. E ai. ai. ai. 2

(413) ∂3f

(414) du dB (a , y) s dt i

(415) ∂y 3 y=Bu.

(416).

(417) ∂3f

(418) du (a , y) i

(419) ∂y 3 y=Bu

(420). . . 2. dsdt ¬. D2 T 4 . 12n4. (2.51). Zatem, korzystając z (2.43), (2.46), (2.48), (2.49), (2.50) i (2.51), mamy następujące oszacowanie błędu (2.39) algorytmu Wagnera–Platena: . 2. e(AW P , f ). ¬. L22 T K12 L21 D2 5T 4 2K22 T + + + + , n3 15n 30n 4 12 8 . . co kończy dowód.  Algorytm A. WP. korzysta z wartości pochodnych cząstkowych. Omówimy teraz jego. modyfikację, która wymaga jedynie wartości funkcji f . Biorąc h ∈ (0, T /n], modyfikujemy AW P , jak następuje. W algorytmie AW

(421) P za

(422)

(423)

(424) stępujemy wszystkie pochodne cząstkowe Dit = ∂f (t, Bai )

(425)

(426) , Diy = ∂f (ai , Bai )

(427)

(428) , ∂t ∂y t=ai. Diyy.

(429). =.

(430) ∂2f (ai , Bai )

(431)

(432) ∂y 2. y=Bai. przez następujące ilorazy różnicowe: y=Bai. ˜ t = f (ai + h, Bai ) − f (ai , Bai ) , D i,h h + h) − f (ai , Bai − h) f (a , B i ai ˜y = D , i,h 2h ˜ yy = f (ai , Bai + 2h) − f (ai , Bai ) − f (ai , Bai + h) + f (ai , Bai − h) , D i,h 2h2. dla i = 1, 2, . . . , n. Z Lematu B.2 (Dodatek B) mamy dla wszystkich ω ∈ Ω K2 T t ˜ i,h |Dit − D |¬ , n 2 ˜ y | ¬ DT , |Diy − D i,h 6n2 ˜ yy | ¬ 5DT . |Diyy − D i,h 6n. (2.52). Zmodyfikowany algorytm Wagnera–Platena A˜W P jest zdefiniowany przez A˜W P (f, B) =. n X. P A˜W (f, B), i. (2.53). i=1. 26.

(433) 2.2. Algorytm Wagnera–Platena i ograniczenia z góry P gdzie A˜W (f, B) mają postać i P (f, B) = f (ai , Bai )(Bai+1 − Bai ) A˜W i. ˜t +D i,h. aZi+1. (Bai+1 − Bt )dt. ai. 1 ˜y + D (Bai+1 − Bai )2 − (ai+1 − ai ) 2 i,h. . . aZi+1   1 ˜ yy 1 3 + Di,h (Bai+1 − Bai ) − (Bt − Bai )dt . 2 3 a. (2.54). i. Udowodnimy teraz, że algorytm A˜W P ma również błąd O(n−3/2 ) – niewielkiemu zwiększeniu ulegnie jedynie stała w oszacowaniu. Twierdzenie 2.6. Dla każdej funkcji f ∈ F W P mamy 25D2 T L2 T D2 T 2 4K22 T + + 2 + e(A˜W P , f ) ¬ T 2 n 18n 3n 9n2 1/2 5 5 5 + K12 + L21 + D2 n−3/2 . 2 6 4 . (2.55). Dowód. Postępując analogicznie jak w dowodzie Twierdzenia 2.5 pokażemy, że także algorytm A˜W P można zapisać w postaci całkowej. W tym celu zauważmy, że zmienne ˜ yy są ΣB –mierzalne. Ponadto, z (2.32) oraz (2.52) mamy ˜ y oraz D ˜t , D losowe D ai i,h i,h i,h DT 2 2 ˜ 1, + E|Diy |2 ¬ K 6n2    5DT 2 yy 2 yy 2 ˜ ˜ 2, E|Di,h | ¬ 2 + E|Di | ¬ K 6n    K2 T 2 t 2 ˜ i,h ˜ 3, E|D | ¬2 + E|Dit |2 ¬ K n . . ˜ y |2 ¬ 2 E|D i,h. . (2.56). ˜ 1 = 2((DT 2 )2 + 8C¯ 2 (1 + c(2)T 2 )), K ˜ 2 = 2((5DT )2 + 2C¯ 2 (1 + c(1)T )), K ˜3 = gdzie K 2 1 2((K2 T )2 + 2C¯32 (1 + T )). Niech dla i = 1, 2, . . . , n oraz t ∈ [ai , ai+1 ] F˜i (t) = f (ai , Bai ) +. Zt. ˜ t ds + D i,h. ai. Zt . ˜y + D i,h. ai. Zs ai. t. 1 Z ˜ yy yy ˜ Di,h dBu dBs + Di,h ds. 2a . (2.57). i. Dla każdego t ∈ [ai , ai+1 ] proces F˜i (t) jest ΣB t –mierzalny. Szacując analogicznie jak w dowodzie Twierdzenia 2.5, otrzymujemy z (2.56) oraz (2.57), że dla każdego i = 1, 2, . . . , n oraz t ∈ [0, T ] 1/2. 1/2. 1/2. 1/2. . . ˆ0 , K ˜1 , K ˜2 , K ˜ 3 } 1 + 3(t − ai ) + (t − ai )1/2 , (2.58) (E(F˜i (t))2 )1/2 ¬ max{K 27.

Cytaty

Powiązane dokumenty

[r]

Przez dziesięć lat swojego pobytu w Libanie udało mu się zdobyć nie tylko zaplecze organizacyjne w postaci Naczelnej Islamskiej Rady Szyickiej, ale również fundusze pochodzące

[European Banking Authority, 2013], podtrzymała swoje zalecenie z grudnia 2011 r., aby banki utrzymywały współczynnik kapitału Tier 1 na poziomie nie mniejszym niż 9%,

Celem artykułu jest wskazanie nowych możliwości poszukiwania i selekcji kandydatów, ze szczególnym zwróceniem uwa- gi na innowacyjną metodę rekrutacji i selekcji pracowników

w szczególności dokonano analizy definicji ryzyka personalnego w kontekście zarządzania zasobami ludzkimi oraz scharakteryzowano główne teorie opisujące zarządzanie ryzykiem

Omawia także cechy różnych rozm ów formalnych i wywiadów (dziennikarskich, lekarskich, sądowych, policyjnych). Charakterystyczne dla analizy konwersacyjnej je s t to,

Pamiętnik Literacki : czasopismo kwartalne poświęcone historii i krytyce literatury polskiej 74/2, 374-385. 1983.. b ib liografia uzupełniająca).. ku an tro­ p ologii

Myślę, że tego rodzaju tomizm, ograniczający się do obrony czy­ stości doktryny, wyrażający się strachem przed nowością — jest zjawis­ kiem u nas już