• Nie Znaleziono Wyników

Teoria ryzyka w ubezpieczeniach

N/A
N/A
Protected

Academic year: 2021

Share "Teoria ryzyka w ubezpieczeniach"

Copied!
88
0
0

Pełen tekst

(1)

Teoria ryzyka w ubezpieczeniach

Wojciech Niemiro

1

1Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika, To- ruń oraz Instytut Matematyki Stosowanej i Mechaniki, Uniwersytet Warszawski, wniem@mat.uni.torun.pl, wniem@mimuw.edu.pl

(2)

Spis treści

1 Elementy ekonomiki ubezpieczeń 3

1.1 Wstęp . . . 3

1.2 Użyteczność . . . 4

2 Probabilistyczne modele ryzyka 10 2.1 Indywidualny model ryzyka . . . 10

Sploty . . . 11

Przybliżenie normalne . . . 14

2.2 Kolektywny model ryzyka . . . 16

Sumy losowe . . . 16

Złożone rozkłady Poissona . . . 20

2.3 Aproksymacja modelu indywidualnego przez model kolektywny 21 3 Teoria ruiny 24 3.1 Proces nadwyżki ubezpieczyciela z czasem dyskretnym . . . . 24

Nierówność Lundberga . . . 27

Wykładnicza zamiana miary . . . 31

(3)

Zastosowanie Teorii Odnowienia . . . 34

3.2 Proces nadwyżki ubezpieczyciela z czasem ciągłym . . . 40

Proces Poissona . . . 40

Złożony proces Poissona . . . 46

Klasyczny proces nadwyżki z czasem ciągłym . . . 48

4 Teoria zaufania 52 4.1 Wstęp . . . 52

4.2 Statystyczne testy jednorodności . . . 52

4.3 Podejście bayesowskie . . . 60

Rozkłady a priori i a posteriori . . . 60

Warunkowa niezależność i dostateczność . . . 65

Zagadnienie predykcji . . . 69

Predykcja w modelu bayesowskim. . . 71

4.4 Od teorii bayesowskiej do modeli liniowych . . . 74

Predykcja liniowa . . . 75

Liniowa predykcja w modelu bayesowskim . . . 77

Model Bühlmanna - Strauba. . . 81

Zestawienie wzorów . . . 86

Model Bühlmanna-Strauba jako mieszany model liniowy . . . 87

(4)

Rozdział 1

Elementy ekonomiki ubezpieczeń

1.1 Wstęp

Istotą i celem systemu ubezpieczeniowego jest redukcja negatywnych skutków finansowych wynikających ze zdarzeń losowych. Nic dziwnego, że rachunek prawdopodobieństwa pełni podstawową rolę w konstruowaniu matematycz- nych modeli użytecznych w ubezpieczeniach. Statystyka matematyczna jest z kolei podstawowym narzędziem identyfikacji tych modeli, czyli dopasowania parametrów modeli do rzeczywistości.

Zaczniemy od krótkiego „słowniczka” polsko-angielsko-matematycznego. Prze- tłumaczymy na język matematyki kilka zasadniczych pojęć z zakresu ubez- pieczeń. Pamiętajmy przy tym, że każdy przekład na inny język prowadzi do nieuniknionych uproszczeń i zniekształceń. . .

• Szkodę (loss) będziemy utożsamiali z nieujemną zmienną losową, X >

0. Gdy X przyjmuje wartość 0, to oznacza po prostu brak szkody.

• Polisa (policy) jest to kontrakt pomiędzy ubezpieczającym (insured ) a ubezpieczycielem (insurer ), w którym ubezpieczyciel zobowiązuje się pokryć określoną część szkody w zamian za uzgodnioną opłatę, nazy- waną składką (premium). Wypłacone w przypadku zajścia szkody X

(5)

odszkodowanie (indemnity) oznaczymy przez I(X). zaś składkę ozna- czymy przez h. Z matematycznego punktu widzenia kontrakt ubezpie- czeniowy sprowadza się do określenia funkcji I : [0, ∞[→ [0, ∞[ i liczby h > 0. Naturalne jest założenie, że 0 6 I(x) 6 x dla każdego x > 0.

Pełne ubezpieczenie odpowiada funkcji tożsamościowej I(x) = x.

• Składką netto (net premium lub pure premium) nazywamy wartość oczekiwaną odszkodowania. Dla uproszczenia rozważmy pełne ubezpie- czenie i napiszmy µ = EX. Oczywiście rzeczywista składka jest zawsze większa od składki netto, h > µ, ponieważ ubezpieczyciel musi z czegoś żyć i pokryć koszty swojej działalności. Możemy napisać sugestywny wzór h = µ(1 + θ) + c i powiedzieć, że θ jest narzutem względnym (re- lative loading, wyrażonym w procentach oczekiwanej wysokości straty) a c jest narzutem dodatkowym, który od µ nie zależy.

1.2 Użyteczność

Dlaczego ludzie się ubezpieczają? Wobec tego, że h > µ, klient towarzystwa ubezpieczeniowego zawsze „średnio traci” na podpisaniu kontraktu! Decyzja o zawarciu kontraktu wydaje się w świetle tego nieracjonalna. Istnieje teo- ria, która ma wytłumaczyć powstały paradoks, nie rezygnując z założenia o racjonalnym charakterze podejmowanych decyzji ekonomicznych. Ta teoria opiera się na tak zwanej Zasadzie Użyteczności. Osobę podejmującą decy- zje nazywamy decydentem. Zakłada się, że zachowanie decydenta daje się opisać w terminach pewnej funkcji u : R → R zwanej funkcją użyteczności (utility function) w następujący sposób. Ponieważ interesuje nas podejmo- wanie decyzji w sytuacji niepewności, „wypłaty” traktujemy jako zmienne losowe.

Zasada Użyteczności. Załóżmy, że decydent posługujący się funkcją uży- teczności u ma do wyboru jedną z dwóch „akcji”:

• akcja 1 prowadzi do wypłaty X1,

• akcja 2 prowadzi do wypłaty X2. Zasada użyteczności mówi, że

(6)

• decydent wybierze akcję 1 jeśli Eu(X1) > Eu(X2),

• decydent wybierze akcję 2 jeśli Eu(X2) > Eu(X1).

W przypadku gdy Eu(X1) = Eu(X2), obie akcje są dla decydenta „równie dobre”.

Pominiemy dyskusję o zgodności tej zasady z rzeczywistością i o metodach jej empirycznej weryfikacji.

Przedyskutujmy zakładane zazwyczaj własności funkcji użyteczności. Ra- cjonalnie działający decydent woli mieć więcej, niż mniej. Wydaje się zatem rozsądne natępujące założenie.

• Funkcja u jest rosnąca.

Przyjmuje się zazwyczaj założenie o tak zwanej „awersji do ryzyka”. W sytuacji gdy do wyboru jest albo wypłata, która jest wielkością determini- styczą a albo wypłata, która jest zmienną losową o wartości oczekiwanej a, wtedy nie lubiący ryzyka decydent wybierze pewną wypłatę a. Oznacza to, że u(a) = u(EX) > Eu(X). Jest to dobrze znana nierówność Jensena! Awersja do ryzyka jest równoważna następującemu założeniu.

• Funkcja u jest wklęsła.

Wreszcie wspomnijmy, że rosnące afiniczne przekształcenia funkcji użytecz- ności są nieistotne z punktu widzenia podejmowania decyzji. Jeśli u1(x) = au(x) + b i a > 0 to decydenci posługujący się funkcjami u i u1 będą postę- powali identycznie.

Zasada Użyteczności uzupełniona założeniem o awersji do ryzyka wyjaśnia paradoks, o którym wspomnieliśmy poprzednio. Wyobrażmy sobie osobnika, którego stan posiadania jest opisany kwotą w, któremu zagraża szkoda X i który może wykupić pełne ubezpieczenie za cenę h. Chociaż h > EX, czyli w − h < E(w − X) to dla wklęsłej funkcji u jest całkiem możliwe, że u(w − h) > Eu(w − X). W takim przypadku decyzja o ubezpieczeniu się, czyli wybór pewnej wypłaty w − h jest zgodna z Zasadą Użyteczności.

(7)

1.2.1 PRZYKŁAD. Funkcja użyteczności jest dana wzorem u(x) = −e−αx,

dla pewnej stałej α > 0. Zauważmy, że jest to funkcja rosnąca i wklęsła.

Zastanówmy się, jaką składkę decydent gotów będzie zapłacić za pełne ubez- pieczenie straty X. Decyzja o ubezpieczeniu zostanie podjęta gdy u(w −h) >

Eu(w − X), czyli −e−α(w−h)> E−e−α(w−X), gdzie w jest wyjściowym stanem posiadania decydenta. Rozwiązując tę nierówność dochodzimy do wniosku, że maksymalna cena ubezpieczenia, którą decydent zapłaci jest równa

h = 1

αlog EeαX.

Ciekawą własnością rozważanej tu wykładniczej funkcji użyteczności jest fakt, że decyzja nie zależy od w, „majątku początkowego”.

1.2.2 PRZYKŁAD. Inną często rozważaną funkcją użyteczności jest funkcja potęgowa,

u(x) = xγ,

dla pewnej stałej γ, określona dla u > 0. Jeśli 0 < γ < 1, ta funkcja jest rosnąca i wklęsła.

1.2.3 PRZYKŁAD. Funkcja kwadratowa, u(x) = x − αx2,

dla pewnej stałej α > 0 jest wklęsła. Dla argumentów spełniających nierów- ność x < 1/(2α) jest ponadto rosnąca.

Zajmiemy się teraz przykładami różnych kontraktów ubezpieczeniowych i przytoczymy sławne twierdzenie o optymalnej postaci kontraktu. Najważ- niejsze są dwa następujące typy kontraktów.

1.2.4 PRZYKŁAD. Kontrakt typu stop-loss, czyli inaczej polisa z udziałem własnym. Ubezpieczyciel zobowiązuje się pokryć nadwyżkę szkody X ponad pewien ustalony z góry poziom d. Jeśli szkoda nie przekroczy d, odszkodo- wanie się nie należy. Innymi słowy,

Id(x) =

(0 jeśli x < d;

x − d jeśli x> d.

(8)

1.2.5 PRZYKŁAD. Ubezpieczenie proporcjonalne polega na tym, że ubez- pieczyciel zobowiązuje się pokryć ustalony procent szkody X. Innymi słowy,

I(x) = kx dla pewnej stałej k < 1.

Zaletą zarówno kontraktów typu stop-loss jak i proporcjonalnych jest pro- stota reguł. Ponadto kontrakty typu stop-loss są w pewnym senise opty- malne. Precyzuje to następujące twierdzenie.

1.2.6 TWIERDZENIE. Niech u będzie funkcją wklęsłą. Załóżmy, że Idjest funkcją określoną w Przykładzie 1.2.4, zaś I jest dowolną funkcją spełniającą warunek 0 6 I(x) 6 x dla x > 0. Jeżeli

EId(X) = EI(X) = h, to

Eu(w − X + Id(X) − h) > Eu(w − X + I(X) − h).

Interpretacja tego matematycznego faktu jest następująca. Decydent zasta- nawia się, czy wybrać kontrakt Id, czy raczej I. Zakładamy, że oba kontrakty są dostępne za tę samą cenę h i gwarantują wypłaty odszkodowań o tej samej wartości oczekiwanej. Oczywiście u jest funkcją użyteczności. Jeśli spełnione jest założenie o „awersji do ryzyka” to decydent wybierze kontrakt stop-loss.

Dowód twierdzenia 1.2.6. Wystarczy pokazać, że dla wklęsłej funkcji u mamy Eu(Id(X) − X) > Eu(I(X) − X) (dlaczego?). Nierówność

u(Id(x) − x) − u(I(x) − x) > u0(Id(x) − x)(Id(x) − I(x))

jest bezpośrednią konsekwencją wklęsłości funkcji u. Dla x spełniających warunek Id(x) − I(x) > 0 mamy x > d (bo Id(x) > 0) a więc Id(x) − x = −d.

Dla x takich, że Id(x) − I(x) 6 0 skorzystamy z nierówności Id(x) − x >

−d, która jest zawsze spełniona i pociąga za sobą u0(Id(x) − x) 6 u0(−d).

Wnioskujemy, że dla każdego x zachodzi nierówność

u(Id(x) − x) − u(I(x) − x) > u0(−d)(Id(x) − I(x)).

(9)

Wystarczy teraz zastosować do obu stron wartość oczekiwaną:

E [u(Id(X) − X) − u(I(X) − X)] > u0(−d)(h − h) = 0, co kończy dowód.

1.2.7 Uwaga. W powyższym dowodzie dla uproszczenia użyliśmy pochod- nej u0 funkcji u. Założenie o różniczkowalności nie jest jednak potrzebne.

Nierówność

u(b) − u(a) > u0(b)(b − a),

którą w istotny sposób wykorzystaliśmy, pozostaje prawdziwa jeśli u0(b) za- stąpić prawostronną pochodną u0+(b) = limx→b+(u(x) − u(b))/(x − b) lub lewostronną pochodną u0(b) = limx→b−(u(x) − u(b))/(x − b). Dla funkcji wklęsłej na przedziale otwartym jednostronne pochodne zawsze istnieją.

1.2.8 Wniosek. Przy założeniach Twierdzenia 1.2.6, Var(X − Id(X)) 6 Var(X − I(X)).

Aby uzasadnić ten wniosek, wystarczy zastosować Twierdzenie 1.2.6 do funk- cji u(y) = −(w − y − µ)2, gdzie µ = EX. Zauważmy przy okazji, że w Twier- dzeniu 1.2.6 nie zakłada się, że u jest funkcją rosnącą. Wystarcza założenie o wklęsłości u.

Zwróćmy uwagę na pewną szczególną wersję „awersji do ryzyka”. Przypu- śćmy, że decydent ma do wyboru albo wypłatę X1 albo wypłatę X2. W sytuacji gdy EX1 = EX2 i VarX1 < VarX2 decydent wybierze X1. Mniejszą wariancję interpretujemy jako „mniejszą niepewność” czyli „mniejsze ryzyko”.

Matematycznie jest to założenie, że decydent posługuje się kwadratową kwa- dratową użyteczności (Przykład 1.2.3).

Chociaż Wniosek 1.2.8 prostą konsekwencją Twierdzenia 1.2.6 to jest na tyle ciekawy, że być może zasługuje na niezależny dowód.

Dowód Wniosku 1.2.8. Elementarna nierówność a2− b2 > 2(a − b)b pozwala napisać

(x − I(x))2− (x − Id(x))2 > 2(Id(x) − I(x))(x − Id(x)).

(10)

Jeśli Id(x) − I(x) > 0 to x − Id(x) = d. Z kolei jeśli Id(x) − I(x) 6 0 to x−Id(x) 6 d. W obu przypadkach, (Id(x)−I(x))(x−Id(x)) > (Id(x)−I(x))d.

Biorąc wartość oczekiwaną dostajemy

E(X − I(X))2− (X − Id(X))2 > (h − h)d = 0, co kończy dowód.

Na zakończenie naszych rozważań wyjaśnijmy, jak można łatwo obliczać wy- stępującą w Twierdzeniu 1.2.6 wielkość EId(X), a więc składkę netto dla kontraktu stop-loss. Bardzo przydatna jest następująca wersja „wzoru na całkowanie przez części”.

1.2.9 Stwierdzenie. Jeżeli strata X > 0 jest zmienną losową o dystrybu- ancie F to

EId(X) = Z

d

[1 − F (x)]dx.

Dowód. Możemy napisać EId(X) =

Z 0

Id(x)F (dx) = Z

d

(x − d)F (dx)

= Z

d

Z x d

dyF (dx) = Z

d

Z y

F (dx)dy = Z

d

[1 − F (y)]dy.

Przypomnijmy, że w przypadku gdy rozkład zmiennej losowej X ma gęstość f , symbol F (dx) można zastąpić przez f (x)dx.

1.2.10 Wniosek. Dla dowolnej liczby h spełniającej nierówność 06 h 6 EX istnieje dokładnie jedna liczba d taka, że h = EId(X).

1.2.11 PRZYKŁAD. Przypuśćmy, że strata X jest zmienną losową o roz- kładzie wykładniczym Ex(0.1). Rozważmy proporcjonalny kontrakt ubez- pieczeniowy I(x) = x/2. Znajdźmy taką wielkość „udziału własnego” d aby kontrakt typu stop-loss miał taką samą wartość oczekiwaną, czyli EId(X) = EI(X). Proste rozważania i rachunek oparty na Stwierdzeniu prowadzą do rozwiązania d = 10 log 2. Zachęcamy Czytelnika do obliczenia Var(X −I(X)) i Var(X − Id(X)).

(11)

Rozdział 2

Probabilistyczne modele ryzyka

2.1 Indywidualny model ryzyka

Indywidualny model ryzyka polega po prostu na tym, że szkody związane z poszczególnymi polisami opisuje się jako niezależne, nieujemne zmienne lo- sowe. Oczywiście, założenie o niezależności jest pewnym uproszczeniem, ale w modelowaniu matematycznym tego rodzaju idealizacje są nieuniknione.

Głównym obiektem zainteresowania jest suma szkód w portfelu polis i jej rozkład prawdopodobieństwa. W rozważanym modelu ten rozkład jest splo- tem rozkładów pojedynczych składników.

Indywidualny model ryzyka.

S = Sn =

n

X

i=1

Xi,

gdzie X1, . . . , Xn są niezależnymi zmiennymi losowymi i Xi > 0.

• Xi oznacza szkody związane z i-tą polisą,

• S oznacza sumę szkód w rozważanym portfelu.

Podkreślmy jeszcze, że omawiany model opisuje straty w ustalonym okresie (powiedzmy w ciągu roku) i wobec tego nie ma tu potrzeby jawnego uwzględ- niania czasu pojawiania się poszczególnych szkód. Modele uwzględniające ewolucję w czasie omówimy później, w Rozdziale 3.

(12)

Sploty

Przypomnimy elementarne wiadomości o splotach rozkładów i przy okazji wprowadzimy oznaczenia, które będą w dalszym ciągu używane. Jeżeli X1 i X2 są niezależnymi zmiennymi losowymi o dystrybuantach F1 i F2, to suma S = X1+ X2 ma dystrybuantę

F (s) = Z

−∞

F1(s − x)F2(dx).

Jeśli rozkłady F2 są absolutnie ciągłe i mają gęstości fi (względem miary Lebesgue’a), to powyższy wzór można przepisać w postaci

F (s) = Z

−∞

F1(s − x)f2(x)dx.

Rozkład F ma wtedy gęstość f daną wzorem f (s) =

Z

−∞

f1(s − x)f2(x)dx.

Jeśli rozkłady Fi są dyskretne i mają „gęstości” fi(x) = P(Xi = x) to f (s) = P(S = s) =X

x

f1(s − x)f2(x).

Będziemy pisać F = F1∗ F2 i f = f1∗ f2. Zauważmy pewną niekonsekwencję tych oznaczeń. Z punktu widzenia analizy matematycznej należałoby powie- dzieć, że dystrybuanta F jest splotem dystrybuanty F1 i gęstości f2. Ale w rachunku prawdopodobieństwa mówi się o splotach rozkładów prawdopodo- bieństwa, a dystrybuanty/gęstości traktuje się tylko jako alternatywne opisy rozkładów.

Przy okazji wprowadźmy oznaczenie na „splotowe potęgi” rozkładów. Jeśli n > 0 to

Fn∗ = F ∗ · · · ∗ F

| {z }

n razy

.

Dodatkowo przyjmijmy, że F∗0 jest rozkładem skupionym w zerze. Jest to zgodne z naturalną konwencją dotyczącą „pustej sumy”: S0 =P0

i=1Xi = 0.

Jeśli myślimy o F jako o dystrybuancie, to F∗0(x) =

(1 dla x> 0;

0 dla x < 0.

(13)

Podobnie dla splotu n > 1 jednakowych gęstości przyjmiemy oznaczenie fn∗ = f ∗ · · · ∗ f

| {z }

n razy

.

Dla n = 0 napiszmy f0∗(s) = 0 dla s > 0 oraz f0∗(0) = 1. To jest całkowicie uzasadnione w przypadku dyskretnym, bo w istocie oznacza, że P(S0 = 0) = 1. Dla rozkładów absolutnie ciągłych ta notacja jest pewnym nadużyciem, bo rozkład F∗0 nie ma „gęstości w zwykłym sensie”, czyli względem miary Lebesgue’a. Warto byśmy o tym zastrzeżeniu pamiętali.

W teorii ryzyka mamy często do czynienia ze zmiennymi losowymi nieujem- nymi (na przykład są to wysokości szkód) oraz ze zmiennymi dyskretnymi o wartościach nieujemnych i całkowitych (na przykład liczby szkód). W przy- padku gdy X1, X2 > 0, wzór na splot gęstości przybiera postać

f (s) = Z s

0

f1(s − x)f2(x)dx.

Podobnie można zastąpić całkę R

−∞ przez Rs

0 we wzorze na dystrybuantę.

Jeśli X1, X2 mają wartości 0, 1, . . ., to f (s) = P(S = s) =

s

X

x=1

f1(s − x)f2(x).

Przypomnijmy kilka dobrze znanych faktów dotyczących splotów typowych rozkładów.

Rozkłady Poissona Poiss(λ1) ∗ Poiss(λ2) = Poiss(λ1+ λ2).

Rozkłady normalne N(µ1, σ21) ∗ N(µ2, σ22) = N(µ1+ µ2, σ21+ σ22).

Rozkłady gamma Gamma(α1, λ) ∗ Gamma(α2, λ) = Gamma(α1+ α2, λ).

Rozkłady dwumianowe Bin(n1, p) ∗ Bin(n2, p) = Bin(n1+ n2, p).

Rozkłady ujemne dwumianowe

Bin1, p) ∗ Bin2, p) = Bin1+ α2, p)

(14)

To zestawienie wygląda pięknie, ale raczej nie należy się spodziewać, że wynik będzie równie prosty w innych, mniej „przyjaznych” przykładach.

2.1.1 PRZYKŁAD. Przypuśćmy, że portfel polis składa się z kilku różnią- cych się między sobą jednorodnych pod-portfeli. Jednorodność rozumiemy w ten sposób, że każda z polis składających się na pod-portfel jest jedna- kowa i wiąże się z takim samym ryzykiem. Matematycznie, zmienne losowe Xi opisujące szkody wewnątrz jednego pod-portfela mają jednakowy rozkład prawdopodobieństwa. Stale obowiązuje założenie o niezależności wszystkich zmiennych Xi w całym portfelu. W ubezpieczeniach życiowych, dość prostym przykładem jest portfel opisany tabelką postaci

k nk qk bk 1 n1 q1 b1

· · · · r nr qr br

gdzie

• k jest numerem pod-portfela (grupy „ jednakowych” polis),

• nk jest liczbą polis w k-tym pod-portfelu,

• qk jest prawdopodobieństwem powstania szkody dla każdej z polis w k-tym pod-portfelu (powiedzmy, prawdopodobieństwem śmierci ubez- pieczonego),

• bkjest wysokością wypłaty w przypadku powstania szkody (powiedzmy, odszkodowaniem przysługującym w wypadku śmierci ubezpieczonego).

Zakładamy tu deterministyczną wysokość wypłat bkoraz niezależność wszyst- kich n = Pr

k=1nk zmiennych losowych opisujących szkody. Każda z tych zmiennych przyjmuje dwie wartości: 0 lub bk (z prawdopodobieństwami od- powiednio 1 − qk i qk, zależnymi od grupy k). W takim portfelu suma od- szkodowań S jest postaci

S =

r

X

k=1

S(k)=

r

X

k=1

bkLk,

(15)

gdzie Lk jest liczbą wypłat w k-tej grupie, Lk ∼ Bin(ni, qi) i zmienne losowe S(k) = bkLk są niezależne. Nawet w tak nieskomplikowanej sytuacji rozkład S nie wyraża się żadnym prostym wzorem i jest możliwy do obliczenia na ogół tylko numerycznie.

Przybliżenie normalne

Skoro dokładne obliczanie splotów jest trudne, dużą wartość mają metody przybliżone. Najczęściej używana jest aproksymacja rozkładem normalnym.

Jest to metoda oparta na Centralnym Twierdzeniu Granicznym rachunku prawdopodobieństwa (CTG). Przypomnimy najprostszą wersję tego wyniku.

2.1.2 TWIERDZENIE (Centralne Twierdzenie Graniczne). Załóżmy, że X1, . . . , Xn są niezależnymi zmiennymi losowymi o jednakowym rozkładzie prawdopodobieństwa o wartości oczekiwanej EXi = µ i wariancji VarXi = σ2. Jeśli Sn=Pn

i=1Xi, to dla każdej liczby a,

n→∞lim P

Sn− nµ

√nσ 6 a

= Φ(a), gdzie

Φ(a) = 1

√2π Z a

−∞

e−x2/2dx. 

Inaczej,

Sn− nµ

√nσ →dN(0, 1), (n → ∞).

Symbol „→d” oznacza zbieżność według rozkładu.

Dla nas ważna jest interpretacja CTG, wnioski zeń wynikające i zastoso- wania. W praktyce najczęściej interpretuje się CTG w następujący sposób.

Dla „dostatecznie dużych n”, suma Sn ma w przybliżeniu rozkład normalny N(nµ, nσ2). Zauważmy, że nµ = ESn i nσ2 = VarSn.

(16)

2.1.3 PRZYKŁAD. Wróćmy do sytuacji opisanej w Przykładzie 2.1.1. Przy- pomnijmy, że zmienna losowa S(k), która opisuje łączne szkody w k-tym pod-portfelu jest sumą nk niezależnych zmiennych losowych o jednakowych rozkładach, przy tym ES(k) = bknkqk i VarS(k) = b2knkqk(1 − qk). To po prostu wynika stąd, że S(k) = bkLk i Lk ∼ Bin(nk, qk). Jeśli liczby polis nk we wszystkich pod-portfelach są duże, to S(k) ma w przybliżeniu roz- kład N(bknkqk, b2knkqk(1 − qk)). Z własności splotów rozkładów normalnych wnioskujemy, że całkowita suma S ma w przybliżeniu rozkład

N (ES, VarS) , gdzie

ES =

r

X

k=1

bknkqk, VarS =

r

X

k=1

b2knkqk(1 − qk).

Innymi słowy, możemy bardzo łatwo obliczać przybliżone wartości prawdo- podobieństwa zdarzeń typu {S 6 a} lub {S > a}:

P(S 6 a) ≈ Φ a − ES√ VarS

 .

2.1.4 PRZYKŁAD. Niech S oznacza, jak poprzednio, sumę szkód w portfelu.

Ustalmy „małą dodatnią liczbę” α. Względnym narzutem bezpieczeń- stwa (relative security loading) nazywamy taką liczbę θ > 0, że h = (1+θ)ES jest kwantylem rzędu α rozkładu straty, P(S > h) = α. Interpretacja ubez- pieczeniowa tego pojęcia jest taka: jeśli składkę dla każdej polisy obliczymy składkę zgodnie z regułą

składka = (1 + θ) ∗ (składka netto),

to prawdopodobieństwo tego, że straty przekroczą zebraną składkę jest „do- statecznie małe”, to znaczy równe α (na przykład α = 0.01).

Dla uproszczenia rozważmy jednorodny portfel składający się z n polis, czyli załóżmy, że S = Pn

i=1Xi, gdzie X1, . . . , Xn są i.i.d. Przeanalizujmy zależ- ność narzutu θ od wielkości portfelu. Oznaczmy przez µ = EX1 i VarXi = σ2 momenty pojedynczego składnika sumy. Posłużymy się przybliżeniem nor- malnym. Niech z = z1−α będzie kwantylem rzędu α rozkładu N(0, 1), to znaczy Φ(z) = 1 − α. Ponieważ ES = nµ i VarS = nσ2, więc kwantyl rzędu

(17)

1−α rozkładu sumy S jest w przybliżeniu równy nµ+zσ√

n. W konsekwencji otrzymujemy następujący przybliżony wzór:

θ ≈ zσ

√n.

Ten wzór częściowo wyjaśnia, dlaczego duże firmy ubezpieczeniowe mogą sobie pozwolić na kalkulowanie składki na niższym poziomie i w rezultacie uzyskiwać przewagę nad konkurencją. Względny narzut bezpieczeństwa θ maleje wraz ze wzrostem rozmiaru n portfela. Oczywiście rozważamy model bardzo uproszczony i nasze wyjaśnienie bierze pod uwagę tylko jeden aspekt złożonego zjawiska. Podkreślmy jednak pożytek płynący z prostych modeli i przybliżonych wzorów: pozwalają one czasem zrozumieć zasadnicze prawi- dłowości, które niekoniecznie byłyby dostrzeżone na podstawie dokładnych (powiedzmy numerycznych) obliczeń.

2.2 Kolektywny model ryzyka

Najważniejszą cechą kolektywnego modelu ryzyka jest to, że nie opisuje on szkód związanych z konkretnymi polisami. Łączna strata w portfelu polis jest sumą składników, odpowiadających szkodom pojawiającym się w okre- ślonym przedziale czasu (można sobie wyobrażać, że szkody są numerowane w kolejności ich zajścia, ale ta interpretacja nie jest konieczna). Ponieważ liczba szkód jest zmienną losową, łączną stratę modelujemy jako sumę loso- wej liczby losowych składników.

Sumy losowe

Dla ciągu zmiennych losowych X1, . . . , Xn, . . ., napiszmy Sn = Pn i=1Xi i S0 = 0. Jeśli N jest zmienną losową o wartościach całkowitych i nieujemnych to możemy rozważyć sumę

SN =

N

X

i=1

Xi,

w której mamy losową liczbę (losowych) składników.

Odtąd stale będą obowiązywać następujące założenia:

(18)

• X1, . . . , Xn, . . . są są niezależne i mają jednakowy rozkład prawdopo- dobieństwa,

• N jest zmienną niezależną od X1, . . . , Xn, . . ..

Będziemy SN nazywali po prostu sumą losową. Następujące stwierdzenie opisuje pewne charakterystyki rozkładu prawdopodobieństwa tej zmiennej losowej. Wprowadżmy następujące oznaczenia na dystrybuantę, funkcję two- rzącą momenty i na momenty pojedynczego składnika, powiedzmy X = X1.

F (x) = P(X 6 x), M (r) = EerX, EX = µ, VarX = σ2.

Oznaczmy ponadto funkcję generującą prawdopodobieństwa zmiennej loso- wej N przez

Q(z) = EzN. 2.2.1 Stwierdzenie. Przy naszych założeniach,

• Momenty sumy losowej są następujące

ESN = µEN, VarSN = σ2EN + µ2VarN.

• Funkcja generująca momenty sumy losowej jest dana następującym wzorem

E exp(rSN) = Q(M (r)).

• Dystrybuanta sumy losowej jest dana następującym wzorem

P(SN 6 x) =

X

n=0

Fn∗(x)P(N = n).

Zajmijmy się teraz gęstością. Niech f będzie gęstością zmiennej losowej X lub funkcją prawdopodobieństwa,

f (x) =

(F0(x) jeśli F jest absolutnie ciągła, P(X = x) jeśli F jest dyskretna.

(19)

Gęstość sumy losowej jest dana wzorem fSN(x) =

X

n=0

fn∗(x)P(N = n).

W przypadku dyskretnym możemy napisać po prostu fSN(x) = P(SN = x).

2.2.2 PRZYKŁAD. Załóżmy, że N ma rozkład geometryczny, P(N = n) = pqn dla n = 0, 1, . . ., gdzie p + q = 1. O rozkładzie pojedynczego składnika sumy złóżmy, że jest to rozkład wykładniczy, X1 ∼ Ex(λ). Obliczmy rozkład sumy losowej SN dwiema metodami.

Najpierw posłużymy się gęstościami. Dla ustalonego n suma Sn ma gęstość Gamma(n, λ). W naszych oznaczeniach, dla s > 0 i dla n > 0,

fn∗(s) = λn

(n − 1)!sn−1e−λx i f0∗(s) = 0 dla s > 0. Zatem

fSN(x) =

X

n=1

λn

(n − 1)!sn−1e−λxpqn

= qpλe−λx

X

n=1

(qλn−1)

(n − 1)!sn−1 = qpλe−λxeqλx

= qpλe−pλx. Nie należy się dziwić, że R

0 fSN(x)dx = q, obliczona funkcja nie całkuje się do jedynki. Suma losowa przyjmuje wartość 0 z dodatnim prawdopodobień- stwem, mianowicie

P(SN = 0) = P(N = 0) = p.

Rozkład prawdopodobieństwa zmiennej losowej SN jest mieszanką rozkładu wykładniczego i „delty Diraca” w zerze: qEx(pλ) + pδ0. Czytelnik, który nie boi się nonszalanckiej notacji może napisać fSN(0) = P(SN = 0) i otrzymać fSN(0)+R

0 fSN(x)dx = q+p = 1. W każdym razie widzimy, że dystrybuanta interesującego nas rozkładu jest dana wzorem

FSN(s) =

(1 − qe−pλs dla s> 0;

0 dla s < 0.

(20)

Zauważmy, że ta dystrybuanta ma skok w zerze: FSN(s) = p.

Ten sam wynik można uzyskać nieco szybciej posługując się funkcjami two- rzącymi momenty. Dla pojedynczego składnika mamy M (r) = EerX1 = λ/(λ − r). Funkcja tworząca prawdopodobieństwa dla rozkładu geometrycz- nego jest równa Q(z) = EzN = p/(1 − qz). Stąd

MSN(r) = p(λ − r)

1 − qλ = p + q pλ pλ − r.

Prawa cześć tego wzoru jest kombinacją wypukłą funkcji tworzącej momenty zera i funkcji tworzącej momenty rozkładu wykładniczego. To pozwala roz- poznać, że poszukiwany rozkład jest mieszanką pδ0+ qEx(pλ).

Zreasumujmy nasze rozważania w następującej postaci.

Kolektywny model ryzyka. Łączna strata w portfelu jest sumą losową S = SN =

N

X

i=1

Xi, gdzie

• N oznacza losową liczbę szkód, które zaszły (w ciągu ustalonego czasu),

• Xi > 0 jest wysokością i-tej poniesionej szkody.

Zakłada się, że X1, . . . , Xn, . . . są i.i.d. oraz N jest zmienną niezależną od X1, . . . , Xn, . . ..

Podkreślmy różnice pomiędzy założeniami w modelu indywidualnym i kolek- tywnym.

• W modelu kolektywnym zakłada się, że składniki są niezależne i mają jednakowy rozkład prawdopodobieństwa. W modelu indywidualnym z oczywistych względów nie zakłada się jednakowego rozkładu. Dokład- niejsze wyjaśnienie tej kwestii odłożymy do Podrozdziału 2.3.

• W modelu kolektywnym można zakładać, że składniki sumy są dodat- nie, zaś w modelu indywidualnym trzeba uwzględniać składniki równe 0. To jest naturalne, bo dla niektórych polis (faktycznie, dla sporej ich części) występuje brak szkód.

(21)

Złożone rozkłady Poissona

Szczególną rolę odgrywają sumy losowe w których liczba składników N ma rozkład Poissona. Na początku spróbujemy wyjaśnić, dlaczego tak jest. Ele- mentarne, ale bardzo ciekawe twierdzenie graniczne mówi, że rozkład dwu- mianowy można przybliżać rozkładem Poissona.

2.2.3 TWIERDZENIE (Twierdzenie Graniczne Poissona). Jeśli n → ∞, pn → 0 i npn → λ, gdzie 0 < λ < ∞, to dla dowolnego ustalonego k = 0, 1, 2, . . .,

n k



pkn(1 − pn)n−k → e−λλk

k! .

Krócej,

Bin(n, pn) →d Poiss(λ).

Ten fakt zwany jest niekiedy „prawem małych liczb” i wyjaśnia, dlaczego o liczbie szkód N przyjmuje się chętnie założenie, że ma rozkład Poissona. Jeśli jest dużo okazji do spowodowania szkody (n → ∞) ale w każdym przypadku z osobna szkoda pojawia się niezależnie od pozostałych z małym prawdo- podobieństwem (pn → 0) to liczba szkód powinna mieć rozkład zbliżony do rozkładu Poissona.

2.2.4 DEFINICJA. Niech SN = PN

i=1Xi, gdzie zmienne Xi i N są nie- zależne, N ∼ Poiss(λ) i P(Xi 6 x) = P (x). Rozkład prawdopodobień- stwa sumy losowej SN nazywamy złożonym rozkładem Poissona i oznaczamy SN ∼ CPoiss(λ, P (·)).

Zauważmy, że złożony rozkład Poissona zależy od dwóch „parametrów”, mia- nowicie od liczby λ i dystrybuanty P . Drugi parametr jest „nieskończenie wymiarowy” bo jest funkcją a nie liczbą. Dystrybuanta P pełni tu tylko rolę wygodnej reprezentacji rozkładu prawdopodobieństwa zmiennych Xi. Jeśli będzie wygodniej, będziemy używali równoważnego zapisu CPoiss(λ, P (·)) ≡ CPoiss(λ, p(·)), gdzie p jest gęstością rozkładu Xi (szczególnie dla modeli dyskretnych).

Warto zapamiętać wzory na dystrybuantę i – przede wszystkim – na funkcję tworzącą momenty złożonego rozkładu Poissona, podane poniżej.

(22)

2.2.5 Wniosek. Jeśli S ∼ CPoiss(λ, P (·)) to P(S 6 x) =

X

n=0

e−λλn

n!Pn∗(x), EerS = exp [λ(M (r) − 1)] .

gdzie M jest funkcją tworzącą momenty dla rozkładu o dystrybuancie P . Poniższe niepozorne stwierdzenie jest, w moim przekonaniu, kluczem do zro- zumienia rozkładów Poissona („zwykłych” i złożonych).

2.2.6 Stwierdzenie. Rozważmy sumę losową S = PN

i=1Xi, gdzie N ∼ Poiss(λ) i rozkład prawdopodobieństwa składników jest dyskretny, o warto- ściach w zbiorze {a1, . . . , am}. Niech P(Xi = aj) = p(aj) = pj. Określimy zmienne losowe Nj w następujący sposób:

(2.2.7) Nj = #{i : 1 6 i 6 N, Xi = aj} =

N

X

i=1

I(Xi = aj).

Wtedy zmienne losowe N1, . . . , Nm są niezależne, Nj ∼ Poiss(pjλ) i

(2.2.8) S =

m

X

j=1

ajNj.

Odwrotnie, jeśli N1, . . . , Nm są niezależnymi zmiennymi losowymi, Nj ∼ Poiss(λj) i S jest określone wzorem 2.2.8. Wtedy S ∼ CPoiss(λ, p(·)), gdzie λ =Pm

j=1λj, a dyskretna gęstość p jest dana wzorem p(aj) = λj/λ.

2.3 Aproksymacja modelu indywidualnego przez model kolektywny

Przytoczymy twierdzenie, które ma podstawowe znaczenie w teorii ryzyka.

Pokazuje ono, że indywidualny model ryzyka można aproksymować przez model kolektywny. Wyjaśnia też, dlaczego tak ważne są złożone rozkłady Poissona. Z teoretycznego punktu widzenia jest to wynik dotyczący trójkąt- nej tablicy zmiennych losowych. Tego typu twierdzenia graniczne odgrywają istotną rolę w rachunku prawdopodobieństwa.

(23)

2.3.1 TWIERDZENIE (Zbieżność sum do złożonego rozkładu Poissona).

Rozważmy trójkątną tablicę, w której n-ty wiersz składa się z niezależnych zmiennych losowych Vn1, In1, . . . , Vn1, In1. Załóżmy, że Vni > 0, a zmienne Ini są zero-jedynkowe: P(Ini = 1) = qni = 1 − P(Ini = 1). Niech Pni(x) = P(Vni 6 x). Napiszmy

Sn =

n

X

i=1

IniVni. Załóżmy, że dla n → ∞

(i) max

i qni → 0, (ii) X

i

qni → λ, (iii) X

i

qni

λ Pni(x) → P (x).

Wtedy

Snd CPoiss(λ, P (·)) (n → ∞).

Dowód. Na początek wprowadźmy następujące oznaczenia.

λn=X

i

qni, Pn(x) = X

i

qni

λnPni(x).

Niech Mni(r) = EerVni. Zauważmy, że P

i(qnin)Pni(x) → P (x) i w kon- sekwencji P

i(qnin)Mni(r) → M (r), gdzie M (·) jest funkcją tworzącą mo- menty rozkładu o dystrybuancie P (·). Stąd natychmiast wynika, że

(*) exp

"

X

i

qni(Mni(r) − 1)

#

n→∞ exp [λ (M (r) − 1)] ,

gdzie prawa strona jest funkcją tworzącą momenty rozkładu CPoiss(λ, P (·)).

Ponieważ EerIniVni = qniEerVni+ 1 − qni = 1 + qni(Mni(r) − 1), więc (**) EerSn = qni =Y

i

[1 + qni(Mni(r) − 1)] .

(24)

Biorąc pod uwagę wzory (*) i (**) widzimy, że dowód będzie zakończony jeśli pokażemy, że:

Y

i

[1 + qni(Mni(r) − 1)] −Y

i

exp [qni(Mni(r) − 1)]

6X

i

|1 + qni(Mni(r) − 1) − exp [qni(Mni(r) − 1)]|

6X

i

qni2 6 max

i qniX

i

qni

n→∞ 0,

przynajmniej dla r < 0. Żeby uzasadnić powyższe oszacowania, użyjemy elementarnej nierówności |Q

iai −Q

ibi| 6 P

i|ai − bi|, która zachodzi dla

|ai|, |bi| 6 1. Przy naszych założeniach mamy 0 < Mni(r) 6 1 dla r <

0. Wykorzystaliśmy ponadto nierówność |ez − 1 − z| 6 z2, prawdziwą dla dostatecznie małych |z|.

(25)

Rozdział 3 Teoria ruiny

3.1 Proces nadwyżki ubezpieczyciela z czasem dyskretnym

Rozważymy proces nadwyżki ubezpieczyciela (insurer’s surplus process) ob- serwowany w określonych odstępach czasu. Momenty obserwacji dzielą więc czas na ciąg przedziałów (długości tych przedziałów nie muszą być takie same, mogą być również zmiennymi losowymi). Przyjmijmy następujące oznacze- nia:

Yi− strata netto (to znaczy strata − przyrost składki) w i-tym przedziale czasowym,

Sn− skumulowana strata netto w okresie 1, . . . , n, czyli Sn =Pn i=1Yi, u − początkowa rezerwa (nadwyżka ubezpieczyciela na początku rozpatry-

wanego okresu czasu).

Tak więc nadwyżka na koniec n-tego okresu (czyli w n-tym momencie obser- wacji procesu, n = 1, 2, . . .) wynosi

(3.1.1) u − Sn= u −

n

X

i=1

Yi,

(26)

Prawdopodobieństwo (ostatecznej) ruiny jest równe (3.1.2) ψ(u) = P(Sn > u for some n).

Moment ruiny jest następującą zmienną losową:

(3.1.3) R = R(u) =

(min{n : Sn > u} jeśli takie n istnieje;

∞ jeśli Sn 6 u dla wszystkich n.

Zwróćmy uwagę na ważną i typową konwencję oznaczeniową: jeśli do ruiny w ogóle nie dojdzie, to przyjmujemy, że R = ∞. Możemy dzięki temu napisać ψ(u) = P(R(u) < ∞).

1 2 3 n u

Y

Y

R

1

2

surplus

S

R

Rysunek 3.1: Proces nadwyżki ubezpieczyciela z czasem dyskretnym.

(27)

Będziemy też rozważali prawdopodobieństwo ruiny w skończonym czasie:

ψm(u) = P(Sn> u dla pewnego n 6 m).

Oczywiście, ψm(u) = P(R(u) 6 m).

Przyjmiemy następujące założenie.

3.1.4 Założenie. Zmienne losowe Y1, Y2, . . . są niezależne, mają ten sam rozkład i skończoną wartość oczekiwaną. Oznaczmy przez F dystrybuantę każdej z tych zmiennych.

Dla uproszczenia oznaczeń, oznaczmy przez Y = Yi „ jakąkolwiek” zmienną losową o dystrybuancie F . Możemy zatem napisać

F (y) = P(Y 6 y).

i

E(Y ) = Z

−∞

yF (dy).

Przy Założeniu 3.1.4, ciąg sum 0 = S0, S1, . . . nazywamy błądzeniem loso- wym. Problem ruiny jest ściśle związany z zachowaniem ciągu maksimów dla błądzenia losowego. Niech

Ξn = max{0, S1, . . . , Sn}, Ξ = lim

n→∞Ξn = max{0, S1, S2, . . .}, Rzecz jasna,

ψ(u) = P(Ξ > u), ψm(u) = P(Ξm > u).

Zacznijmy od przytoczenia następującego, intuicyjnie oczywistego wyniku.

3.1.5 Stwierdzenie. Jeśli E(Y ) > 0 to ψ(u) = 1 dla każdego u > 0. Jeśli E(Y ) < 0 to 0 < ψ(u) < 1 dla każdego u > 0.

(28)

Dla E(Y ) > 0, pierwsza część tego stwierdzenia wynika natychmiast z moc- nego prawa wielkich liczb (MPWL). W rzeczy samej, Sn/n →p.n. E(Y ), zatem Sn → ∞ i stąd Ξ = ∞ z prawdopodobieństwem 1. To znaczy, że ψ(u) = 1.

Jeśli E(Y ) = 0, jest również prawdą, że Ξn → ∞ ale dowód jest trudniejszy i zostanie pominięty.

Przypadek E(Y ) < 0 jest najbardziej interesujący z punktu widzenia zasto- sowań ubezpieczeniowych i w dalszym ciągu na nim się skoncentrujemy. Nie jest trudno pokazać, że w tym przypadku 0 < ψ(u) < 1.

Nierówność Lundberga

Następujące twierdzenie podaje pewne równanie na prawdopodobieństwo ru- iny. Dowód jest bardzo typowy: spotkamy później kilka innych równań wy- prowadzonych w analogiczny sposób.

3.1.6 TWIERDZENIE. Prawdopodobieństwo ruiny spełnia następujące równanie:

ψ(u) = 1 − F (u) + Z u

−∞

ψ(u − v)F (dv).

Dowód. Skorzystamy ze wzoru na prawdopodobieństwo całkowite, warunku- jąc względem zmiennej losowej Y1. Obliczymy zatem P(R < ∞|Y1 = v). Dla v > u to prawdopodobieństwo jest równe 1 (ruina następuje w pierwszym kroku, R = 1). Jeśli v 6 u to P(R < ∞|Y1 = v) = ψ(u − v), ponieważ cały proces „powtarza się od nowa” z kapitałem początkowym zmienionym z u na u − v. Całkując względem rozkładu zmiennej Y1 otrzymujemy wynik.

Nieznaczna modyfikacja powyższego rozumowania prowadzi do rekurencyj- nych wzorów na prawdopodobieństwo ruiny w czasie skończonym.

ψ1(u) = 1 − F (u), ψm+1(u) = 1 − F (u) +

Z u

−∞

ψm(u − v)F (dv).

(3.1.7)

(29)

Te wzory mogą służyć do numerycznego obliczenia ψ: zaczynamy od funkcji ψ1 danego pierwszym wzorem a następnie kolejno obliczamy funkkcje ψ2, . . . używając drugiego wzoru. Oczywiście,

ψm(u) % ψ(u) przy m → ∞, dla wszystkich u > 0.

W dalszych rozważaniach centralną rolę będzie grało następujące pojęcie.

3.1.8 DEFINICJA. Współczynnikiem dopasowania (adjustment coef- ficient) nazywamy taką liczbę r > 0, że

E erY = Z

−∞

eryF (dy) = 1.

k M (k)F

M (k)

F M ’ (r)F

M ’ (0)<0 >0

r 0

Rysunek 3.2: Funkcja tworząca momenty MF i współczynnik dopasowania r.

(30)

Należy w tym miejscu poczynić kilka uwag, mając przed oczyma powyższy rysunek. Niech

MF(κ) = E eκY

będzie funkcją tworzącą momenty zmiennej losowej Y . Załóżmy, że MF(κ) <

∞ dla κ w pewnym otoczeniu zera. Jeśli E(Y ) = MF0 (0) < 0 to MF maleje w pewnym otoczeniu zera. Wiadomo, że jest to funkcja wypukła. Jeśli za- łożymy, że limκ→γ−MF(κ) = ∞ dla γ = sup{κ : MF(κ) < ∞}, to równanie definiujące współczynnik dopasowania ma dokładnie jedno rozwiązanie (nie ma tu znaczenia, czy γ < ∞ czy γ = ∞). Otrzymaliśmy w ten sposób wa- runek dostateczny istnienia r, który można łatwo sprawdzić dla wielu rodzin rozkładów. Tak czy inaczej, odtąd przyjmiemy następujące założenie.

3.1.9 Założenie. Rozkład F zmiennej losowej Y jest taki, że E(Y ) < 0, funkcja tworząca momenty MF is jest skończona w pewnym prawostronnym otoczeniu 0 i współczynnik dopasowania r istnieje.

Najważniejszym, być może, wynikiem w klasycznej teorii ruiny jest następu- jąca nierówność.

3.1.10 TWIERDZENIE (Nierówność Lundberga). Jeśli Założenia 3.1.4 i 3.1.9 są spełnione to

ψ(u) ≤ e−ru, gdzie r jest współczynnikiem dopasowania.

Dowód. Pokażemy przez indukcję, że dla wszystkich m, ψm(u) ≤ e−ru.

Użyjemy wzorów 3.1.7. Najpierw zauważmy, że ψ1(u) = 1 − F (u) =

Z u

F (dv) 6

Z u

er(v−u)F (dv) 6 e−ru

Z

−∞

ervF (dv) 6 e−ru.

(31)

na mocy definicji liczby r. Następnie, zakładając nierówność ψm(u) 6 e−ru wnioskujemy, że

ψm+1(u) = 1 − F (u) + Z u

−∞

ψm(u − v)F (dv) 6

Z u

F (dv) + Z u

−∞

e−r(u−v)F (dv) 6

Z

−∞

er(v−u)F (dv) 6 e−ru.

W końcu, wystarczy się powołać na zbieżność ψm(u) → ψ(u) przy m →

∞.

Zauważmy, że powyższy dowód sugeruje pewną rekurencyjną metodę szaco- wania z góry prawdopodobieństwa ruiny. Zdefiniujmy ciąg funkcji ψm jak następuje:

ψ0(u) = e−ru, ψm+1(u) = 1 − F (u) +

Z u

−∞

ψm(u − v)F (dv).

(3.1.11)

Z dowodu Twierdzenia 3.1.10 wynika, że ψ1(u) 6 ψ0(u). Co więcej, ψ(u) 6 ψ0(u). Teraz łatwo wywnioskować, używając napisanych wyżej rekurencyj- nych wzorów, że ψ2(u) ≤ ψ1(u) i ψ(u) ≤ ψ1(u). Postępując w ten sam sposób otrzymujemy kolejno nierówności ψ(u) ≤ ψm+1(u) ≤ ψm(u). Można pokazać, że

ψm(u) & ψ(u) przy m → ∞ dla wszystkich u.

Uzasadnienie tego faktu pominiemy.

Porównajmy ciąg funkcji ψm z ciągiem ψm, zdefiniowanych przez (3.1.7), które aproksymują ψ z dołu. Oba ciągi są szybko zbieżne i mogą razem służyć do oszacowania prawdopodobieństwa ruiny z kontrolowaną dokładnością. Ta metoda została zaproponowana przez L. Gajka.

(32)

Wykładnicza zamiana miary

Opiszemy elegancki chwyt matematyczny, który zadziwiająco łątwo pozwala udowodnić głębokie twierdzenia, a w dodatku jest podstawą obliczeniowych algorytmów Monte Carlo. Przypomnijmy, że Y , strata netto w pojedynczym przedziale czasu, ma rozkład o dystrybuancie F i E(Y ) < 0. Niech r będzie współczynnikiem dopasowania. Zdefiniujmy

F (y) =˜ Z y

−∞

ervF (dv),

Z definicji r wynika, że ˜F (∞) = 1. W konsekwencji, zdefiniowana powyżej funkcja ˜F jest dystrybuantą pewnego rozkładuprawdopodobieństwa.

W skrócie napiszemy wzór na ˜F w uproszczonej postaci:

(3.1.12) F (dy) = e˜ ryF (dy).

Jeśli rozkład F ma gęstość f , to ˜f (y) = eryf (y) jest gęstością rozkładu ˜F . Rozważmy zmienną losową ˜Y o dystrybuancie ˜F :

P(Y 6 y) = ˜˜ F (y).

Ponieważ M jest wypukła, MF0(0) < 0 i MF(0) = MF(r) = 1, otrzymujemy następujący wniosek:

E(Y ) =˜ Z

y ˜F (dy) = Z

yeryF (dy)

= d dr

Z

eryF (dy)

= MF0(r) > 0.

(33)

Wyobraźmy sobie teraz ciąg ˜Y1, ˜Y2, . . . niezależnych zmiennych losowych o jednakowym rozkładzie ˜F . Powiemy, że sumy ˜Sn =Pn

i=1i tworzą błądzenie losowe stowarzyszone lub sprzeżone z oryginalnym błądzeniem Sn=Pn

i=1Yi. Ogólnie, wielkości oznaczane symbolami ze znaczkiem ˜ są zdefiowane den- tycznie jak ich odpowiedniki bez ˜ ale w terminach zmiennych ˜Yi zmiast Yi.

Zauważmy, że dla procesu u− ˜Sn, ruina jest pewna, na mocy Stwiedzenia 3.1.5.

Stowarzyszony proces ma ujemny dryf, w przeciwieństwie do oryginalnego procesu. W naszych oznaczeniach,

P(R < ∞).˜

Przejdźmy teraz do wyjaśnienia w jaki sposób badanie stowarzyszonego pro- cesu u − ˜Sn prowadzi do wyników dotyczących procesu u − Sn, bo przecież ten ostatni jest obiektem zainteresowania. Niech

Rn = {(y1, . . . , yn) : y1 ≤ u, . . . , y1+ · · · + yn−1≤ u, y1+ · · · + yn−1+ yn > u},

to znaczy zdarzenie {R = n} jest równoważne temu, że (Y1, . . . , Yn) ∈ Rn. Z tego wynika, ze

P(R = n) =˜ Z

· · · Z

Rn

f (y˜ 1) · · · ˜f (yn)dy1· · · dyn

= Z

· · · Z

Rn

ery1f (y1) · · · erynf (yn)dy1· · · dyn

= Z

· · · Z

Rn

er(y1+···+yn)f (y1) · · · f (yn)dy1· · · dyn

= E erSn; R = n .

Dodając stronami powyższe równości dla n = 1, 2, . . ., otrzymujemy

1 = P( ˜R < ∞) = E erSR; R < ∞ = E erSR|R < ∞

P(R < ∞).

(34)

Zatem

P(R < ∞) = 1

E (exp[rSR]|R < ∞).

Zauważmy, że to ostatnie równanie dotyczy już tylko wielkości związanych z oryginalnym procesem. Oczywiste przekształcenie prowadzi do następują- cego ważnego wyniku.

3.1.13 TWIERDZENIE. Dla procesu ruiny w czasie dyskretnym, przy na- szych stałych założeniach mamy

P(R < ∞) =

exp[−ru]

E (exp[r(SR− u)]|R < ∞).

Zmienna losowa SR− u jest niczym innym jak wartością bezwzględną nad- wyżki w momencie ruiny (z konieczności ujemnej). Mianownik we wzorze 3.1.13 jest równy wartości funkcji tworzącej momenty zmiennej losowej SR−u w punkcie r, obliczonej przy założeniu, że ta zmienna w ogóle istnieje. Za- uważmy, że ten mianownik jest zawsze wiekszy od 1, więc z Twierdzenia 3.1.13 wynika, że P(R < ∞) < e−ru. Otrzymaliśmy w ten sposób inny dowód nierówności Lundberga (Twierdzenie 3.1.10).

Teraz wykonajmy bardzo podobne rachunki, ale „w odwrotnym kierunku”:

P(R = n) = Z

· · · Z

Rn

f (y1) · · · f (yn)dy1· · · dyn

= Z

· · · Z

Rn

e−ry1f (y˜ 1) · · · e−rynf (y˜ n)dy1· · · dyn

= Z

· · · Z

Rn

e−r(y1+···+yn)f (y˜ 1) · · · ˜f (yn)dy1· · · dyn

= E



er ˜Sn; ˜R = n

 .

Ponieważ suma mnogościowa zdarzeń { ˜R = n} ma prawdopodobieństwo 1, dostajemy P(R < ∞) = E

exp[−r ˜SR˜]

. W konsekwencji,

(35)

(3.1.14) P(R < ∞) = e−ruE



exp[−r( ˜SR˜ − u)] .

Wyprowadzony w ten sposób fakt może być użyty do konstrukcji algorytmu typu Monte Carlo (MC) obliczania ψ(u) = P(R < ∞):

Powtarzaj (możliwie najwięcej razy)

Symuluj stowarzyszony proces u− ˜Snaż do momentu ruiny (n = ˜R).

Oblicz e−r( ˜SR˜−u).

Oblicz średnią obliczonych wielkości.

Pomnóż wynik przez e−ru aby otrzymać estymator prawdopodobień- stwa ruiny ψ(u).

Algorytm jest prosty i efektywny. Zauważmy, że czas symulacji jest zawsze skończony, ponieważ stowarzyszony proces zawsze, prędzej lub później scho- dzi poniżej 0 (zwykle całkiem prędko). Jest zadziwiające, że najbardziej efektywny algorytm MC obliczania prawdopodobieństwa ruiny polega na sy- mulowaniu innego procesu, dla którego ruina jest pewna!

Zastosowanie Teorii Odnowienia

Popatrzmy na proces nadwyżki w czasie dyskretnym z innego punktu wi- dzenia. Rozważmy momenty, w których proces osiąga rekordowe wartości poniżej poprzednio osiągniętego poziomu. Mówimy, że są to

momenty drabinowe (w dół), oznaczane przez K1 < K2 < · · · .

Odpowiadające im wartości rekordów są to tak zwane

wartości drabinowe (w dół), oznaczane przez u − C1 > u − C2 > · · · .

(36)

Ważne jest spostrzeżenie, że dla E(Y ) < 0 mamy zawsze skończoną (ale losową) liczbę momentów i wartości drabinowych. To dlatego, że proces ma dodatni dryf i prawie na pewno u − Sn → ∞ (Stwierdzenie 3.1.5). Niech D będzie liczbą punktów drabinowych (Ki, u − Ci). Jest to zmienna losowa taka, ze P(0 6 D < ∞) = 1.

Odstępy pomiędzy kolejnymi wartościami drabinowymi będziemy oznaczać przez L1, L2, . . .. Mamy zatem Li = Ci− Ci−1,

L1 = C1, . . . , CD = L1+ · · · + LD.

Formalne definicje opisanych powyżej pojęć są następujące. Przyjmiemy umownie, że min ∅ = ∞. Ta konwencja była już użyta w (3.1.3). Połóżmy

K0 = 0; Ki+1= min{n > Ki : Sn> SKi}, C0 = 0; Ci = SKi,

gdzie przyjmujemy, że S= ∞, a więc Ci = ∞ jeśli Ki = ∞ (po prostu, jeśli moment drabinowy nie istnieje, to wartość drabinowa nie istnieje). Możemy teraz napisać

D = max{i : Ci < ∞}.

Nasza konwencja (polegająca na zastąpieniu nieistniejących wartości drabi- nowych przez ∞) może się wydać sztuczna, ale w dalszym ciągu okaże się bardzo wygodna.

Zmienne losowe Li (wielkości o jakie kolejne rekordy w dół są „poprawiane”) są określone jako

L1 = C1; Li+1= Ci+1− Ci.

Uważny Czytelnik zauważy, że powyższe wzory pracują niestety tylko dla i 6 D.

Oczywisty ale kluczowy fakt sformułujemy w następujący sposób.

(37)

3.1.15 Stwierdzenie. Możemy traktować L1, L2, . . . jak niezależne zmienne losowe o jednakowym rozkładzie, przyjmujące wartości w przedziale ]0, ∞].

Dowód. W momencie K1 (jeśli ten pierwszy moment drabinowy istnieje), proces „ zaczyna się od nowa” i ewoluuje niezależnie w identyczny sposób jak proces zaczynający się w chwili 0 z tą różnicą, że początkowy poziom u jest zastąpiony przez u − L1. Następna zmienna L2 jest określona tak samo jak L1 = C1, tylko w terminach ciągu YK1+1, YK1+2, . . . zamiast ciągu Y1, Y2, . . ..

W rezultacie,

P(K2 = k, L2 6 y|K1, L1) = P(K1 = k, L1 6 y).

W szczególności, P(L2 6 y|L1) = P(L1 6 y). Stąd

P(L1 6 y1, L2 6 y2) = P(L1 6 y1)P(L2 6 y2), P(L1 6 y) = P(L2 6 y).

Analogiczne równości zachodzą dla więcej niż dwóch zmiennych Li.

Ciąg sum dodatnich zmiennych losowych o jednakowym rozkładzie nazywa się procesem odnowienia. Jeśli te zmienne przyjmują wartość ∞ z niezero- wym prawdopodobieństwem (mówimy, że są to zmienne ułomne) to proces odnowienia nazywamy chwilowym. Ciąg rekordów

C1 = L1, . . . , CD = L1+ · · · + LD.

jest zatem chwilowym procesem odnowienia. Niech H oznacza dystry- buantę „typowego rekordu” czyli dowolnej ze zmiennych Li. Dla uproszczenia opuszczając indeks i, napiszmy

H(y) = P(L 6 y).

Zauważmy, że jest to dystrybuanta ułomna, to znaczy

(38)

H(∞) = lim

y→∞H(y) = q < 1.

Prawdopodobieństwo „brakujące do jedynki” jest równe 1 − q = P(L = ∞).

Jest to prawdopodobieństwo zdarzenia polegającego na tym, że proces nad- wyżki nigdy nie spadnie poniżej poziomu początkowego (rekord nigdy nie zostanie pobity).

Niech

G(y) = P(L 6 y|L < ∞) = 1 qH(y).

Tak określona funkcja G jest warunkową dystrybuantą rekordu, pod warun- kiem tego, że rekord zaistniał. Obie funkcje H i G są pokazane na załączonym rysunku.

q

H(y) G(y)

y 1

Rysunek 3.3: Dystrybuanty H i G.

(39)

Następujący schemat może pomóc w zrozumieniu pojęcia chwilowego procesu odnowienia.

q

1−q

**

Generuj L1 ∼ G



Stop:D := 0

C1 := L1

q

1−q

**

Generuj L2 ∼ G



Stop:D := 1

C1 := L1 + L2

q

1−q

**

Generuj L3 ∼ G



Stop:D := 2

C1 := L1+ L2+ L3

... ...

q

1−q

**

Generuj Ln∼ G



Stop:D := n − 1

C1 := L1 + · · · + Ln

... ...

Cytaty

Powiązane dokumenty

umiejętności klasyfikowania przedmiotów według wybranego kryterium, odnajdywania różnic pomiędzy obrazkami, wypowiadania się na temat ilustracji, rozwijanie umiejętności

2.Był niezwykłym na ziemi Pielgrzymem, który ciągle przypomina światu, że ten godnie czci Chrystusa Imię, ten z ochoczym sercem służy bratu.

pełnomocnik złożył dwa sprawozdania: jedno przedstawiające uwagi do spra- wozdań sporządzonych przez ekspertów technicznych Microsoftu, które załączono do pisma Microsoftu z

Jeśli chcemy wyrównać tekst do lewej strony dokumentu, wybierzemy Wyrównaj do lewej, lub skrót klawiszowy Ctrl + L, a jeśli do prawej – wybieramy Wyrównaj do prawej lub

Znaleziono tam świadectwa kultu zmarłych i męczenników oraz wiary w nieśmiertelność duszy, a zatem osoby korzystające z katakumb nie były już prawdziwymi

Chodzi również o budowanie mostów do tych krajów Europy , które jeszcze nie zostały włączone w ideę wspólnej Europy.. Cieszę się, że mogę przekazać Państwu pozdrowienia

Krowy i gęsi mają łącznie sto głów i nóg, i jest ich łącznie trzy razy więcej niż koni.. Ile koni pasie się

8,9 U kobiet z krótką szyjką macicy lejkowate wpuklanie się błon płodowych występuje częściej, a ryzyko porodu przedwczesnego jest związane z długością szyjki macicy, a