• Nie Znaleziono Wyników

Matematyka ubezpieczeń maj¸atkowych i osobowych (MUMIO)

N/A
N/A
Protected

Academic year: 2022

Share "Matematyka ubezpieczeń maj¸atkowych i osobowych (MUMIO)"

Copied!
144
0
0

Pełen tekst

(1)

(MUMIO)

Ryszard Szekli

WYKŁAD (Uniwersytet Wrocławski -2012/2013)

(2)
(3)

Rozdział 1

Rozkłady wielkości portfela

Portfel:

X = {X1, . . . , XN}

zmienne niezależne o jednakowych rozkładach

SN = X1+ · · · + XN

zawartość portfela

Portfel prosty, gdy N jest ustaloną liczbą naturalną

Portfel złożonym, gdy N jest zmienna¸ losowa¸ całkowitoliczbowa¸.

Zakładamy: N jest niezależne od (Xi)i­1.

1.1 Rozkład wielkości portfela w modelu prostym

Przypadek rozkładów dyskretnych:

X, Y przyjmuja¸ jedynie wartości ze zbioru liczb naturalnych N = {0, 1, . . .} z prawdopodobieństwami P (X = i) = fX(i), P (Y = i) = fY(i), i ∈ N. Przyjmujemy fX(s) = fY(s) = 0 dla s /∈ N.

S := X + Y .

3

(4)

FS(s) =

X

i=0

FX(s − i)fY(i) (1.1.1)

oraz

fS(s) =

X

i=1

fX(s − i)fY(i). (1.1.2)

Analogicznie, gdy zmienne losowe przyjmują wartości w dowolnym przeliczalnym zbiorze kratowym {∆ · i : i ∈ Z}, gdzie ∆ > 0 (zmienne losowe o rozkładach kratowych). Ustawiając dopuszczalne wartości zmiennych w ciąg, załóżmy, że X, Y przyjmują przeliczalna¸ ilość wartości yi = i∆ ze zbioru {∆ · i : i ∈ Z} z dodatnimi prawdopodobieństwami fX(yi) i fY(yi), odpowiednio. Otrzymujemy wtedy dla s ∈ R

FS(s) =

X

i=−∞

FX(s − yi)fY(yi) (1.1.3)

oraz

fS(s) =

X

i=−∞

fX(s − yi)fY(yi). (1.1.4)

Mówimy, że dystrybuanta FS jest splotem FX i FY i oznaczamy FS(s) = FX∗ FY(s),jeśli zachodzi (1.1.3).

Podobnie dla funkcji prawdopodobieństwa oznaczamy fS(s) = fX∗ fY(s) jeśli zachodzi (1.1.4).

Oznaczenia na potęgi splotowe.

fX∗2= fX∗ fX

oraz

fX∗n= fX∗(n−1)∗ fX

dla n ­ 1.

Dla n = 0, fX∗0(s) := I{0}(s), FX∗0(s) := I[0,∞)(s).

(5)

Dla zmiennych X, Y typu absolutnie cia¸głego, czyli dla dystrybuant postaci FX(s) =Rs

−∞fX(x)dx, FY(s) =Rs

−∞fY(x)dx, dla s ∈ R można zastosować analogiczne rozumowania.

FS(s) = Z

−∞

FX(s − y)fY(y)dy = FX∗ FY(s) (1.1.5)

oraz różniczkując

fS(s) = Z

−∞

fX(s − y)fY(y)dy = fX∗ fY(s). (1.1.6)

Podstawowy lemat przy liczeniu wartości oczekiwanych:

(6)

Lemat 1.1.1 Niech X, Y będą zmiennymi losowymi o łącznej dystrybuancie

F(X,Y )(x, y) = P (X ¬ x, Y ¬ y) = Z x

−∞

Z y

−∞

f(X,Y )(u, v)dudv,

wtedy

E(ψ(X, Y )) = Z

−∞

Z

−∞

ψ(u, v)f(X,Y )(u, v)dudv,

gdzie ψ : R2→ R jest dowolną mierzalną funkcją.

Fψ(u, v) := I{u+v¬s}(u, v)...

Przykład 1.1.2 Niech X ma ge¸stość fX(x) = 12I(0,2)(x) oraz niezależnie, Y ma ge¸stość fY(x) =

1

3I(0,3)(x). Wtedy ze wzoru (1.1.5)

FS(s) =





















1 dla s ­ 5

1 −(5−s)12 2 dla 3 ¬ s < 5

s−1

3 dla 2 ¬ s < 3

s2

12 dla 0 ¬ s < 2 0 dla s < 0

.

F Wyliczenia prosto ze wzoru znajdują się w skrypcie. My wykorzystamy metodę opartą o analizę rozkładu masy probabilistycznej na płaszczyźnie.



Niech teraz S = Sn = X1+· · ·+Xn, gdzie (Xi)i­1sa¸ niezależnymi zmiennymi losowymi. W przypadku, gdy wartości Xi sa¸ naturalne, maja¸c P (S1 = k) = P (X1 = k), liczymy P (Sn = k) w sposób rekurencyjny:

P (Sn= k) =

k

X

m=0

P (Sn−1= k − m)P (S1= m)

Aby obliczyć rozkład np. sumy trzech zmiennych losowych niezależnych X1+X2+X3najpierw obliczamy rozkład fS2 sumy S2 = X1+ X2, a naste¸pnie zastosujemy powyższy wzór do obliczenia rozkładu

(7)

S3= S2+ X3. W przypadku dowolnego n w celu obliczenia rozkładu Sn be¸dziemy musieli zastosować takie poste¸powanie rekurencyjne n − 1 razy.

Przykład 1.1.3 Trzy niezależne ryzyka maja¸ rozmiary szkód jak w tabeli:

i 0 1 2 3

P (X1= i) 0.3 0.2 0.4 0.1 P (X2= i) 0.6 0.1 0.3 0 P (X3= i) 0.4 0.2 0 0.4

Policz rozkład zmiennej S = S3= X1+ X2+ X3.

Najpierw obliczymy rozkład fS2 dla S2= X1+ X2. Ze wzoru na splot (1.1.4) otrzymujemy

fS2(0) = fX1(0)fX2(0) = 0.18,

fS2(1) = fX1(0)fX2(1) + fX1(1)fX2(0) = 0.15,

fS2(2) = fX1(0)fX2(2) + fX1(1)fX2(1) + fX1(2)fX2(0) = 0.35, . . .

fS2(5) = fX1(3)fX2(2) = 0.03.

Naste¸pnie w ten sam sposób obliczymy rozkład S3

fS3(0) = fS2(0)fX3(0) = 0.072,

fS3(1) = fS2(0)fX3(1) + fS2(1)fX3(0) = 0.096, . . . .

Wyniki te przedstawimy w tabeli.

(8)

x fX1(x) fX2(x) fX3(x) fS2(x) fS(x)

0 0.3 0.6 0.4 0..18 0.072

1 0.2 0.1 0.2 0.15 0.096

2 0.6 0.3 0 0.35 0.170

3 0.4 0 0.4 0.16 0.206

4 - - - 0.13 0.144

5 - - - 0.03 0.178

6 - - - - 0.070

7 - - - - 0.052

8 - - - - 0.012



Przykład 1.1.4 X i Y są niezależne o rozkładzie N (0, 1) o gęstości

f (x) = 1

p(2π)ex22 , x ∈ R,

wtedy

f ∗ f (x) = Z

−∞

f (x − u)f (u)du = 1

2p(π)ex24 ,

tzn. X + Y =dN (0, 2) =dp(2)N (0, 1), suma 2 niezleżnych zmiennych losowych o rozkładzie standar- dowym normalnym ma rozkład przeskalowanej zmiennej losowej o standardowym rozkładzie normalnym.

F Maple



Przykład 1.1.5 X i Y są niezależne o rozkładzie Cauchy’ego C(0, 1) o gęstości

f (x) = 1 π

1

1 + x2, x ∈ R,

(9)

wtedy

f ∗ f (x) = Z

−∞

f (x − u)f (u)du = 2 π

1 4 + x2. Jest to znowu rozkład Cauchy’ego C(a, b) o gęstości

1 πb(1 +(u−a)b2 2),

dla a = 0, b = 2, tzn. X + Y =d 2C(0, 1) i podobnie jak w przykładzie poprzednim suma 2 niezleż- nych zmiennych losowych o rozkładzie standardowym Cauchy’ego ma rozkład przeskalowanej zmiennej losowej o standardowym rozkładzie Cauchy’ego.

F Maple



Przykład 1.1.6 X i Y są niezależne o rozkładzie stabilnym Levy’ego z α = 1/2 o gęstości

f (x) = 1

p(2πx3)e2x1 , x > 0,

wtedy

f ∗ f (x) = Z

−∞

f (x − u)f (u)du =

2 p(πx3)ex2

Suma 2 niezależnych zmiennych losowych o rozkładzie Levy’ego z α = 1/2 ma rozkład przeskalowanej zmiennej losowej o tym samym rozkładzie.

F Maple



(10)

Rysunek 1.1.1:Splot jednakowych rozkładów jednostajnych, na (0, 2).

(11)

Rysunek 1.1.2:Splot różnych rozkładów jednostajnych: na (0, 2) i (0, 3).

Rysunek 1.1.3:Porównanie gęstości normalnej N(0,1) i Cauchy’ego-czerwony

(12)

ROZKŁADY STABILNE

Zmienna losowa X ma rozkład stabilny (w węższym sensie), gdy dla pary zmiennych losowych X1, X2

niezależnych od siebie i od X, ale tym samym rozkładzie co X zachodzi własność zachowania typu rozkładu dla sum, dla danych stałych skalujących a, b > 0 istnieje zależna od nich stała skalująca c > 0, taka, że

aX1+ bX2=dcX.

Ta własność jednoznacznie wyznacza postać c = (a1/α+ b1/α)1/αdla α ∈ (0, 2]. Dla rozkładu normal- nego α = 2, dla rozkładu Cauchy’ego α = 1. Wzór na gęstość dla rozkładów stabilnych jest znany w prostej postaci dla α ∈ {1/2, 1, 2}.

Ważna rola stabilnych rozkładów polega na tym, że są one jedynymi możliwymi rozkładami granicz- nymi dla sum, tzn., jeśli ciąg sum przy pewnym normowaniu X1+···+Xb n−an

n jest zbieżny względem rozkładu przy n → ∞ dla an ∈ R i bn > 0, to graniczny rozkład jest stabilny. CTG stwierdza, że ciąg X1+···+Xn1/2n−nEX1 jest zbieżny do rozkładu normalnego, co jest jednym z możliwych schematów zbieżności do rozkładu stabilnego, w tym przypadku z α = 2. Typowym schematem jest przyjęcie bn = n1/α.

(13)

ROZKŁADY MIESZANE

Niech Y będzie zmienną o rozkładzie, który dopuszcza dodatnie prawdopodobieństwa P (Y = yi) > 0 dla skończonej lub nieskończonej przeliczalnej ilości yi zawartych w pewnym zbiorze kratowym {∆i : i ∈ Z}. Wtedy rozkład zmiennej Y jest rozkładem mieszanym, tzn.

FY(s) = βFYd(s) + (1 − β)FYc(s)

dla pewnego β ∈ (0, 1), wtedy

FYd(s) = P

iP (Y = yi)I[yi,∞)(s) P

iP (Y = yi) jest tak zwaną składową dyskretną dystrybuanty FY z

β =X

i

P (Y = yi)

oraz FYc(s) =Rs

−∞fYc(y)dy jest składową absolutnie ciagłą dystrybuanty FY. Wygodnie jest wprowa- dzić ogólne oznaczenia na splot dystrybuant mieszanych następująco,

FX∗ FY(s) = Z

−∞

FX(s − y)dFY(y),

przyjmując Z

−∞

h(y)dFYd(y) :=X

i

h(yi)(FYd(yi) − FYd(yi− ∆/2) = X

i

h(yi)P (Y = yi)/β

Z

−∞

h(y)dFYc(y) = Z

−∞

h(y)fYc(y)dy

i łącznie

Z

−∞

h(y)dFY(y) = βX

i

h(yi)P (Y = yi)/β + (1 − β) Z

−∞

h(y)fYc(y)dy

(14)

czyli

Z

−∞

h(y)dFY(y) = β Z

−∞

h(y)dFYd(y) + (1 − β) Z

−∞

h(y)dFYc(y)

dla dowolnej funkcji całkowalnej h(y).

Wstawiajac h(y) := FX(s − y) otrzymujemy

FS(s) = FX∗ FY(s) = β Z

−∞

FX(s − y)dFYd(y) + (1 − β) Z

−∞

FX(s − y)dFYc(y)

FS(s) = FX∗ FY(s) =X

i

FX(s − yi)P (Y = yi) + (1 − β) Z

−∞

FX(s − y)fYc(y)dy,

gdzie β =P

iP (Y = yi).

Przykład 1.1.7 Niech X ma rozkład z atomami P (X = 0) = 0.2, P (X = 1) = 0.7 i ge¸stościa¸ fX(x) = 0.1 dla x ∈ (0, 1). Zmienna losowa Y ma rozkład z atomami P (Y = 0) = 0.3, P (Y = 1) = 0.2 i ge¸stościa¸ fY(x) = 0.5, x ∈ (0, 1). Zakładaja¸c, że X i Y sa¸ niezależne obliczymy P (X + Y ∈ [1, 1.5)).

Metoda I (wyliczenie bezpośrednie poprzez analizę zdarzeń sprzyjających): skrypt, wynik =0.45375.

F Metoda II (graficzna analiza rozkładu masy): dokładne wyliczenia na ćwiczeniach Metoda III (wzory na sploty dla rozkładów mieszanych): skrypt



(15)

LICZENIE ROZKŁADÓW PRZY POMOCY TRANSFORMAT

F idea liczenia transformat

Definicja 1.1.8 Dla dowolnego ciągu liczb rzeczywistych (an)n­0funkcję

A(t) =

X

n=0

antn,

nazywamy funkcją tworzącą tego ciągu.

Jeśli (an)n­0jest ograniczony, to funkcja tworząca przyjmuje wartości skończone dla | t |< 1.

Dla zmiennej losowej X przyjmującej wartości ze zbioru liczb naturalnych definiujemy funkcję

PX(t) = EtX =

X

n=0

pntn,

dla pn:= P (X = n). Jest to funkcja tworz¸aca prawdopodobieństwa.

F Zauważmy, że PX(t) przyjmuje wartości skończone przynajmniej dla | t |¬ 1.

Funkcję ogona dyskretnego rozkładu określamy przez qn:= pn+1+ pn+2+ · · · . Funkcja tworząca ciągu (qn)n­0,

QX(t) =

X

n=0

qntn

jest skończona przynajmniej dla | t |< 1.

F Zachodzi (Pk−1

i=0 ti= (1 − tn)/(1 − t))

QX(t) =1 − PX(t) 1 − t .

(16)

Ponadto

PX0 (t) =

X

k=1

kpktk−1,

i funkcja ta jest skończona przynajmniej dla | t |< 1. Stąd, jeśli wartość oczekiwana zmiennej X jest skończona, to

EX = PX0 (1).

Zauważmy, że funkcję QX możemy zapisać jako iloraz różnicowy QX(t) = PX(1)−PhX(1−h), dla h :=

1 − t. Gdy t → 1, to h → 0 i mamy QX(1) = PX0 (1) = EX, co daje

EX = q0+ q1+ q2+ · · · .

Podobnie możemy otrzymać

PX00(1) = 2Q0X(1) = E(X(X − 1)).

Dla wariancji zmiennej X zachodzi więc równość

V arX = PX00(1) + PX0 (1) − (PX0 (1))2.

Podobne rozumowania możemy powtórzyć dla wyższych momentów zmiennej losowej X.

(17)

SUMY, ZBIEŻNOŚĆ

Funkcje tworzące prawdopodobieństwa, oprócz przydatnosci do liczenia momentów, przydają się do liczenia rozkładów sum zmiennych losowych. Funkcja tworząca sumy niezależnych zmiennych losowych jest równa iloczynowi funkcji tworzących składników.

Lemat 1.1.9 Niech X, Y będą niezależnymi zmiennymi losowymi o wartościach w zbiorze liczb na- turalnych, o funkcjach tworzących prawdopodobieństwa, odpowiednio PX, PY. Wtedy zmienna losowa X + Y ma funkcję prawdopodobieństwa daną splotem (1.1.4) oraz funkcję tworzącą prawdopodobień- stwa PX+Y równą iloczynowi PXPY.

Funkcje tworzące prawdopodobieństwa są przydatne również do badania zbieżności ciągu rozkładów

Lemat 1.1.10 Niech (Xn)n­1będzie ciagiem zmiennych losowych przyjmujących wartości naturalne, o funkcjach prawdopodobieństwa pXn i funkcjach tworzących prawdopodobieństwa PXn. Wtedy nastę- pujące warunki są równoważne

1. pXn(k) →n→∞pY(k), dla każdego naturalnego k i dla pewnej zmiennej losowej Y , 2. PXn(t) →n→∞PY(t), dla każdego t ∈ [0, 1) i dla pewnej zmiennej losowej Y .

(18)

Przykład 1.1.11 Funkcja tworząca prawdopodobieństwa rozkładu dwumianowego (binomialnego). Roz- kład dwumianowy jest rozkładem liczby sukcesów w próbach Bernoulliego, tzn. rozkładem sumy Sn= X1+ · · · + Xn, dla n prób, gdzie {Xi, i = 1, . . . , n} są niezależne o rozkładzie (funkcji prawdopo- dobieństwa) pXi(0) = 1 − pXi(1) = 1 − p = q, gdzie p ∈ (0, 1) jest prawdopodobieństwem sukcesu.

Ponieważ PXi(t) = q + pt, więc

PSn(t) = (q + pt)n.



Przykład 1.1.12 Liczba porażek przed uzyskaniem pierwszego sukcesu w kolejnych próbach Bernoul- liego jest zmienną losową o rozkładzie geometrycznym P (X = k) = pX(k) = qkp, k = 0, 1, 2, . . .. Z definicji (szereg geometryczny) otrzymujemy

PX(t) = p 1 − qt.

Liczba porażek przy oczekiwaniu na n-ty sukces jest więc sumą n niezależnych zmiennych losowych o rozkładach geometrycznych Sn= X1+· · ·+Xn. Zmienna ta ma funkcję tworzącą prawdopodobieństwa

PSn(t) = ( p 1 − qt)n.

Rozkład ten nazywamy rozkładem Pascala (szczególny przypadek ujemnego rozkładu dwumianowego - rozkład o funkcji tworzącej

P (t) = ( p 1 − qt)r, dla dowolnego r > 0.



(19)

Odwracanie

Jako ilustrację metody liczenia rozkładu przy użyciu funkcji tworzących przedstawimy jeszcze raz wyli- czenia z przykładu 1.1.3.

Przykład 1.1.13 Funkcje tworza¸ce prawdopodobieństwa zmiennych X1, X2, X3maja¸ postać

PX1(t) = 0.3 + 0.2t + 0.4t2+ 0.1t3, PX2(t) = 0.6 + 0.1t + 0.3t2, PX3(t) = 0.4 + 0.2t + 0.4t3,

i po wymnożeniu otrzymujemy funkcje¸ tworza¸ca¸ rozkładu sumy

PS(t) = 0.072 + 0.096t + 0.170t2+ 0.206t3+

+ 0.144t4+ 0.178t5+ 0.070t6+ 0.052t7+ 0.012t8,

a sta¸d odczytuja¸c współczynniki przy tk, k = 0, 1, . . . , 8, odczytujemy rozkład:

i 0 1 2 3 4 5 6 7 8

P (S = i) 0.072 0.096 0.170 0.20 0.144 0.178 0.070 0.052 0.012 .



(20)

Przybliżenie rozkładu dwumianowego rozkładem Poissona

Przykład 1.1.14 Zbieżność ciągu rozkładów dwumianowych do rozkładu Poissona. Rozkład Poissona jest dany przez pY(k) = e−λ λk!k, dla k = 0, 1, 2, . . . .

Z definicji mamy

PY(t) = e−λ(1−t).

Rozważmy ciąg zmiennych losowych o rozkładach dwumianowych pSn(k) = P (Sn= k) = nkpknqnn−k, gdzie prawdopodobieństwo sukcesu jest zależne od n, w taki sposób, że npnn→∞λ > 0. Dla funkcji tworzących prawdopodobieństwa mamy

PSn(t) = (qn+ pnt)n = (1 −npn(1 − t) n )n, stąd

PSn(t) →n→∞e−λ(1−t)= PY(t).

Z lematu 1.1.10 otrzymujemy

pSn(k) → pY(k)

tzn. dla dużych n prawdopodobieństwa dwumianowe możemy przybliżać rozkładem Poissona, o ile za- chodzi np ≈ λ.



(21)

Inne transformaty

Bez dodatkowych założeń co do nośnika rozkładu zmiennej losowej X użyteczne są następujące funkcje

MX(t) = EetX ,

funkcja tworz¸aca momenty,

CX(t) = log EetX ,

funkcja tworz¸aca kumulanty.

Dla niezależnych zmiennych (Xi)i­1 natychmiast z definicji otrzymujemy

MSn(t) =

n

Y

i=1

MXi(t), (1.1.7)

PSn(t) =

n

Y

i=1

PXi(t),

CSn(t) =

n

X

i=1

CXi(t).

Rzeczywiście, z niezależności

MSn(t) = EetSn = Eh

et(X1+...+Xn)i

= EetX1 · · · E etXn = MX1(t) · · · MXn(t)

i analogicznie dla pozostałych funkcji.

(22)

Twierdzenie 1.1.15 Załóżmy, że X1, . . . , Xn sa¸ niezależne. Wtedy

1. Jeżeli Xi∼ P oi(λi) to Sn∼ P oi(λ), gdzie λ =Pn i=1λi. 2. Jeżeli Xi∼ Bin(ri, q) to Sn∼ Bin(r, q), gdzie r =Pn

i=1ri. 3. Jeżeli Xi∼ Bin(mi, p) to Sn∼ Bin(m, p), gdzie m =Pn

i=1mi

4. Jeżeli Xi∼ Γ(αi, β) to Sn∼ Γ(α, β), gdzie α =Pn i=1αi. 5. Jeżeli Xi∼ N (µi, σi2) to Sn ∼ N (µ, σ2), gdzie µ =Pn

i=1µi, σ2=Pn i=1σi2.

F

P (t) = (q + pt)n

P (t) = exp(λ(t − 1))

P (t) = p

1−qt

r

M (t) = e(tσ)22 +tµ,

fX(y) = Γ(α)βα xα−1e−βx

M (t) = (β−t)βαα,

(23)

Momenty

Korzystaja¸c z transformat możemy wyliczyć momenty zmiennych losowych.

Oznaczmy

µk(X) = EXk ,

mk(X) = E(X − E [X])k , k > 0.

W przypadku, gdy wiadomo o jaka¸ zmienna¸ losowa¸ chodzi piszemy mk i µk. Parametr µknazywany jest k-tym momentem zwykłym, mk - k-tym momentem centralnym. W szczególności µ1(X) =: µX

jest średnia¸, m2(X) =: σX2 jest wariancja¸, a σX jest odchyleniem standardowym. Pomijamy indeks X w powyższych oznaczeniach, jeśli z kontekstu jasno wynika jakich zmiennych losowych dotyczą rozważania.

Parametr

γ3:= m3 σ3 jest nazywamy skośności¸a, a

γ4:= m4

σ4 − 3 nazywamy kurtoz¸a. Iloraz

γ1:= σ2 µ nazywamy indeksem dyspersji, a

γ2= σ µ współczynnikiem zmienności.

(24)

Przy założeniu niezależności zmiennych MS(1)

n(0) = CS(1)

n(0) = E [Sn], CS(2)

n(0) = Var [Sn] CS(3)

n(0) = m3(Sn) a sta¸d na przykład

µ1(Sn) =

n

X

i=1

µ1(Xi),

µ2(Sn) =

n

X

i=1

µ2(Xi).

Dla niezależnych zmiennych losowych o tym samym rozkładzie dostajemy

µ1(Sn) = nµ1(X), µ2(Sn) = nµ2(X).

(25)

Kumulanty

Rozwijając w szereg Taylora funkcję CX otrzymujemy

CX(t) =

X

n=1

kn(X)tn/n!,

współczynniki kn(X) = CX(n)(0) nazywamy kumulantami zmiennej losowej X.

k1(X) = µX

k2(X) = σX2

k3(X) = γ3σ3X= m3(X)

k4(X) = γ4(X)σX4 = m4(X) − 3σ4X Zachodzą:

kn(X + c) = kn(X)

dla n ­ 2, ,

kn(cX) = cnkn(X)

c ∈ R.

Dla niezależnych zmiennych losowych X, Y ,

kn(X + Y ) = kn(X) + kn(Y )

.

(26)

1.2 Rozkłady w modelu złożonym

1.2.1 Własności ogólne

Model złożony:

SN =

N

X

i=1

Xi

dla niezależnych (Xi)i­1o jednakowych rozkładach FX i wartościach naturalnych oraz dla niezależnej od nich zmiennej licza¸cej N.

Rozkład sumy S = SN :

FS(x) = P (S ¬ x) =

X

n=0

FX∗n(x)P (N = n),

a sta¸d

fS(x) =

X

n=0

fX∗n(x)P (N = n).

Be¸dziemy używali funkcji tworza¸cych.

Wzór na wartość oczekiwana ł, acznych roszczeń w złożonym modelu, gdzie zmienne losowe X, 1, X2, ..., maja wartość oczekiwan, a E[X] i wariancję V ar[X] :,

E[S] = E[X] · E[N ]. (1.2.1)

F Dowód: warunkujemy względem wartości N Wzór na wariancję łacznych roszczeń:,

V ar[S] = E[N ] · V ar[X] + (E[X])2· V ar[N ]. (1.2.2)

Z powyższego wzoru wynika, że wariancja składa się z dwóch składników; pierwszy z nich odnosi się do zmienności liczby roszczeń, drugi zaś do zmienności wysokości pojedynczego roszczenia.

F Dowód wprost: warunkujemy względem N wzór na drugi moment, sumę do kwadratu rozpisujemy na

(27)

sumę kwadratów i iloczyny mieszane, korzystamy z niezależności i jednakowości rozkładów oraz definicji wariancji.

Używaja¸c funkcji tworza¸cych, dostajemy zwia¸zek pomie¸dzy rozkładem SN a N i X, a także między momentami.

Fakt 1.2.1 Zachodza¸ naste¸puja¸ce wzory

MSN(t) = MN(log MX(t)),

CSN(t) = CN(CX(t)),

PSN(t) = PN(PX(t))

a stąd, dla momentów

E [SN] = E [N ] E [X] , (1.2.3)

Var [SN] = E [N ] Var [X] + Var [N ] (E [X])2, (1.2.4)

E(SN − E [SN])3 = E (N − E [N ])3 (E [X])3 (1.2.5) + 3Var [N ] E [X] Var [X] + E [N ] E(X − E [X])3 .

F Dowód: warunkowanie względem wartości N . Dla pochodnej

CS(1)

N(t) = CN(1)(CX(t))CX(1)(t) i wstawiaja¸c t = 0 otrzymujemy

E[SN] = CS(1)

N(0) = CN(1)(0)CX(1)(0) = E [N ] E [X] . Dla drugiej pochodnej mamy

CS(2)

N(t) = CN(2)(CX(t))[CX(1)(t)]2+ CN(1)(CX(t))CX(2)(t)

(28)

i wstawiaja¸c t = 0 otrzymujemy

V ar[SN] = CS(2)

N(0) = CN(2)(0)[CX(1)(0)]2+ CN(1)(0)CX(2)(0), co daje teze¸. Obliczaja¸c trzecia pochodna, ¸ dostajemy

CS(3)

N(t) = CN(3)(CX(t))[CX(1)(t)]3+ 2CN(2)(CX(t))CX(1)(t)CX(2)(t) + CN(2)(CX(t))CX(1)(t)CX(2)(t) + CN(1)(CX(t))CX(3)(t)

= CN(3)(CX(t))[CX(1)(t)]3+ 3CN(2)(CX(t))CX(1)(t)CX(2)(t) + CN(1)(CX(t))CX(3)(t)

i biora¸c t = 0 otrzymujemy wynik. 

(29)

Przykład 1.2.2 Rozważmy portfel ubezpieczeń, w którym ilość pojawiaja¸cych sie¸ roszczeń opisuje i rozkład wysokości pojedynczego roszczenia opisuja¸ tabele poniżej. Szukamy rozkładu zmiennej losowej SN = X1+ . . . + XN.

Rozkład zmiennej N.

n 0 1 2 3 4 5 6 7 8

pn 0.05 0.10 0.15 0.20 0.25 0.15 0.06 0.03 0.01

Rozkład wysokości pojedynczego roszczenia.

x 1 2 3 4 5 6 7 8 9 10

fX(x) 0.15 0.2 0.25 0.125 0.075 0.05 0.05 0.05 0.025 0.025 Obliczymy funkcje¸ tworza¸ca¸ zmiennej losowej N

PN(t) = 0.05 + 0.10t + 0.15t2+ 0.2t3+ 0.25t4+ 0.15t5+ 0.06t6+ 0.03t7+ 0.01t8,

wie¸c

PS(t) = 0.05 + 0.10PX(t) + 0.15(PX(t))2+ 0.2(PX(t))3+ 0.25(PX(t))4 + 0.15(PX(t))5+ 0.06(PX(t))6+ 0.03(PX(t))7+ 0.01(PX(t))8.

Funkcja tworza¸ca zmiennej losowej X ma postać

PX(t) = 0.15t + 0.2t2+ 0.25t3+ 0.125t4+ 0.075t5 + 0.05t6+ 0.05t7+ 0.05t8+ 0.025t9+ 0.025t10.

Łącząc oba wzory otrzymujemy

PS(t) = 0.05 + 0.015t + 0.02338t2+ 0.03468t3+ 0.03258t4 + 0.03579t5+ 0.03981t6+ 0.04356t7+ . . .

Teraz, wartości P (S = k) odczytujemy jako współczynniki przy tk, k = 0, . . . , 80.

(30)



(31)

Rysunek 1.2.1:Rozkład sumy losowej

Rysunek 1.2.2:Rozkład sumy losowej dla 10N

F Maple

KIEDY MOŻLIWE SĄ APROKSYMACJE ZNANYMI ROZKŁADAMI???

(32)

1.2.2 Zmienne losowe liczące ilość szkód

Dla zmiennej losowej N o rozkładzie dwumianowym Bin(n, p) mamy

E [N ] = np > Var [N ] = np(1 − p)

indeks dyspersji:

γ1(N ) = (1 − p) < 1

rozkłady dwumianowe można stosować wtedy, gdy średnia próbkowa jest dużo wie¸ksza niż wariancja próbkowa.

Dla zmiennej losowej N o rozkładzie Poissona P oi(λ), mamy

E [N ] = λ = Var [N ]

Założenie Poissonowskości ilości szkód jest zazwyczaj bardziej realistyczne niż założenie o dwumiano- wości rozkładu, lecz sytuacja równości próbkowej średniej i wariancji wyste¸puje dość rzadko.

Mieszany rozkład Poissona :

P (N = n) = Z

0

P (N = n|Θ = θ)dFΘ(θ) = Z

0

e−θθn

n! dFΘ(θ).

Interpretacja: rozważmy portfel ubezpieczeń składaja¸cy sie¸ z polis dla których liczba roszczeń jest zmienna¸ losowa¸ N o rozkładzie Poissona z parametrem Θ. Jeżeli przyjmiemy, że Θ jest zmienna¸ losowa¸, to rozkład zmiennej N ma parametr, który też jest zmienna¸ losowa¸ Θ przyjmuja¸ca¸ wartości dodatnie i posiadaja¸ca¸ dystrubuante¸ FΘ.

Mieszany rozkład Poissona będziemy oznaczać przez M P oi(Θ).

(33)

Warunkowa wartość oczekiwana i warunkowa wariancja

Wprowadzamy symbole

E[X | Y ]

oraz

V ar[X | Y ]

które oznaczaja zmienne losowe ( warunkow, a wartość oczekiwan, a i warunkow, a wariancję ), zdefiniowane, przez równości

E[X | Y ] = ϕ(Y ), V ar[X | Y ] = ψ(Y ),

dla rzeczywistych funkcji ϕ, ψ danych przez

E[X | Y = y] = ϕ(y), V ar[X | Y = y] = ψ(y).

(34)

Lemat 1.2.3 Dla dowolnych zmiennych losowych X, Y zachodzi następujacy zwi, azek,

E[X] = E[E[X | Y ]]. (1.2.6)

F Dowód: wartość oczekiwaną rozpisujemy z definicji, dwa razy, dla funkcji od Y , dla rozkładu warun- kowego, korzystamy z definicji warunkowego prawdopodobieństwa, zamieniamy kolejność sumowania.

F Korzystając z (1.2.6), dla mieszanego rozkładu Poissona:

PN(t) = EE tN | Θ = Eh

eΘ(t−1)i

= MΘ(t − 1).

Ponadto

CN(t) = log MN(t) = log PN(et) = log MΘ(et− 1)

oraz

E [N ] = E [Θ]

Var [N ] = E [Θ] + Var [Θ] = E [N ] + Var [Θ] , E(N − E [N ])3

= E(Θ − E [Θ])3 + 3Var [Θ] + E [Θ] .

F Z powyższych wzorów wynika, że dla N ∼ M P oi(Θ):

γ1(N ) = V arN

EN = 1 + γ1(Θ) ­ 1

(35)

Przykład 1.2.4 Załóżmy, że zmienna losowa N ma mieszany rozkład Poissona, a Θ ma rozkład Γ(α, β). Ponieważ funkcja tworza¸ca momenty dla rozkładu Γ(α, β) dana jest wzorem

MΘ(t) =

 β β − t

α

dla t < β,

wie¸c podstawiaja¸c

r = α, p = β

β + 1, q = 1 − p, dostajemy

MN(t) = MΘ(et− 1) =

 β

β − (et− 1)

α

=

β β+1

1 −

1 − 1+ββ  et

α

=

 p

1 − qet

r

.

Jest to funkcja tworza¸ca rozkładu ujemnego dwumianowego Bin(r, p). Mamy więc

M P oi(Gamma(α, β)) = Bin(α, β

β + 1) .

Funkcja prawdopodobieństwa tego rozkładu zadana jest wzorem

P (N = n) =r + n − 1 n



prqn, n ∈ N (1.2.7)

Jeżeli r = 1, to otrzymujemy rozkład geometryczny, N ∼ Geo(p)

Randomizacja rozkładem wykładniczym parametru wartości średniej w rozkładzie Poissona daje rozkład geometryczny:

M P oi(Exp(β)) = Geo( β β + 1) .



(36)

Przekształcajac gęstość (1.2.7) możemy j, a zapisać w postaci,

P (N = n) =

(−1)n −rnprqn dla n = 0, 1, 2, . . . , 0 dla pozostałych wartości n,

(1.2.8)

gdzie

−r n



=(−r)(−r − 1)...(−r − n + 1)

n! .

Dla tego rozkładu

E[N ] = rq

p, (1.2.9)

V ar[N ] = rq

p2 (1.2.10)

γ1(N ) = 1

p> 1. (1.2.11)

(37)

REKURENCJA PANJERA

Oznaczmy skrótowo funkcję prawdopodobieństwa zmiennej N przez pk = fN(k) = P (N = k), k ∈ N.

Załóżmy, że

pk =

 a + b

k



pk−1, k ­ 1, (1.2.12)

dla pewnego doboru parametrów a i b. Zapisuja¸c to inaczej dostajemy

k pk

pk−1 = ka + b =: l(k). (1.2.13)

W szczególności, dla rozkładu dwumianowego Bin(n, p):

a := −p

1 − p, b := p(n + 1) 1 − p dla Poissona P oi(λ):

a := 0, b := λ

dla ujemnego dwumianowego Bin(r, p):

a := q, b := (r − 1)q

(38)

METODA PANJERA:

Dla próbki N1, . . . , Nn, z rozkładu zmiennej N definiujemy

nk := # {i : Ni= k}

badamy wykres funkcji

ˆl : k → k nk

nk−1

oczekujemy, że w przybliżeniu jest liniowy, zgodnie z (1.2.13).

Punkt przecie¸cia linii ˆl(k) z osia¸ OY jest przybliżeniem parametru b z osia¸ OX, ilorazu −ba .

Jeśli wykres nie jest w przybliżeniu liniowy, to rozkład nie należy do klasy rozkładów spełniających rekurencję (1.2.12).

(39)

Twierdzenie 1.2.5 Przypuśćmy, że rozkład (pk)k­0 spełnia rekurencje¸

pk=

 a + b

k



pk−1, k ­ 1.

Wtedy (pk)k­0jest rozkładem Poissona, dwumianowym lub ujemnym dwumianowym.

F dowod

a := 0 wyliczając rekurencję otrzymujemy rozkład Poissona.

a 6= 0

pk =ak

k!(∆ + k − 1)(∆ + k − 2) · · · (∆ + 1)∆p0, k ∈ N, gdzie ∆ = (1 + ab).

Korzystamy z (x := −a, y := 1)

(x + y)r=

X

k=0

r k



xkyr−k, y > 0, |x/y| < 1

Sumuja¸c obie strony względem k

p0= (1 − a)

oraz

pk=−∆

k



(−a)k(1 − a)=∆ + k − 1 k



ak(1 − a), k ∈ N. (1.2.14)

Dla 0 < a < 1, ∆ > 0, rozkład ujemny dwumianowy z parametrem p = 1 − a oraz r = ∆.

a > 1 nie daje rozkładu.

a < 0, −∆ ∈ N, rozkład dwumianowy., q = 1/(1 − a), p = −a/(1 − a), n = −∆.

(40)

Inna metoda graficzna be¸dzie oparta na funkcji hazardowej zdefiniowanej dla n należących do nośnika rozkładu zmiennej N przyjmującej wartości ze zbioru liczb naturalnych,

rN(n) = P (N = n) P (N ­ n).

W szczególności, dla rozkładu

• Poissona P oi(λ) jest ona rosna¸ca dla λ > 0, (rys. 1.2.3);

• ujemnie dwumianowego Bin(r, p) jest ona maleja¸ca dla r < 1, rosna¸ca dla r > 1 i stała dla r = 1, tzn. dla rozkładu geometrycznego (rys 1.2.3).

Przybliżeniem funkcji rN(k) jest

ˆ

rN(k) = # {i : Ni= k}

# {i : Ni­ k} = nk

nk+ nk+1+ · · ·

(41)

Rysunek 1.2.3: Funkcje hazardowe: Poi(1), Geo(0.5).

(42)

Przykład 1.2.6 Rozważmy portfel składaja¸cy sie¸ z n = 421240 polis samochodowych. W tabeli, w drugiej kolumnie przedstawiono ilość polis nk, które wygenerowały k szkód. Chcemy znaleźć rozkład szkód najlepiej opisuja¸cy nasze dane.

k Obserwowane nk P oi(0.131) rk Bin M ixedP oi

0 370412 369247 370460 370409

1 46545 48644 46413 46558

2 3935 3204 4044 3916

3 317 141 301 328

4 28 5 20 27

5 3 0 1 2

Wykres dla rekurencji Panjera nie jest liniowy, funkcja hazardowa nie jest monotoniczna. Sugeruje to, że rozkład ilości szkód nie be¸dzie ani Poissona, ani dwumianowy ani ujemny dwumianowy. Liczymy teraz średnia¸, wariancje¸ i skośność próbkową ilości szkód i dostajemy:

N = 1

n

Xknk= 0.131 S2 = 1

n

X(k − N )2nk = 0.138 A := 1

n

X(k − N )3nk = 0.153

Średnia jest wie¸c mniejsza od wariancji. Odrzuca to ponownie możliwość dopasowania rozkładu dwu- mianowego. Spróbujmy dopasować rozkład mieszany Poissona, gdzie zmienna mieszaja¸ca Θ przyjmuje dwie wartości: P (Θ = θ1) = p = 1 − P (Θ = θ2). Średnia, wariancja i trzeci centralny moment Θ liczymy wie¸c ze wzorów:

E [Θ] = 1+ (1 − p)θ2;

Var [Θ] = p(θ1− E [Θ])2+ (1 − p)(θ2− E [Θ])2; m3(Θ) = p(θ1− E [Θ])3+ (1 − p)(θ2− E [Θ])3.

(43)

Korzystaja¸c teraz ze wzorów na momenty dla rozkładu mieszanego Poissona

E [N ] = E [Θ]

Var [N ] = E [Θ] + Var [Θ] = E [N ] + Var [Θ]

E(N − E [N ])3 = E (Θ − E [Θ])3 + 3Var [Θ] + E [Θ] .

otrzymujemy, wstawiając E [N ] := N , Var [N ] := S2, m3(N ) := A, układ trzech równań z trzema niewiadomymi, który po rozwia¸zaniu daje: p = 0.46325, θ1= 0.224349, θ2= 0.050434. Można przyjąć, że nasze dane pochodza¸ właśnie z takiego mieszanego rozkładu Poissona.

F Maple example-auta.mws



(44)

1.2.3 Złożony rozkład dwumianowy

Motywacja:

Portfel iid: (Y1, . . . , Yn) postaci

Yi= IiXi

gdzie (Xi)i­1, (Ii)i­1 sa¸ niezależnymi od siebie cia¸gami niezależnych zmiennych losowych o tych samych rozkładach

P (Ii= 1) = p = 1 − P (Ii= 0)

Wtedy

Y1+ · · · + Yn =d

N

X

i=1

Xi= SN

gdzie P (N = k) = nkpkqn−k, dla p ∈ (0, 1), q = 1 − p, k = 0, 1, . . . , n (N ma rozkład dwumianowy).

F transformaty

Mówimy, że SN ma złożony rozkład dwumianowy, SN ∼ CBin(n, p, FX), zachodzą wzory:

MN(t) = (q + pet)n CN(t) = n log(q + pet), MSN(t) = (q + pMX(t))n, CSN(t) = n log(q + pMX(t)),

a sta¸d

E [SN] = npE [X] ,

Var [SN] = npVar [X] + npq(E [X])2,

E(SN− E [SN])3 = npE X3 − 3np2EX2 E [X] + 2np3(E [X])3.

(45)

Złożone rozkłady dwumianowe mog¸a wi¸ec służyć do modelowania portfeli o dowolnym znaku skośności.

Dla X ≡ x0> 0

E(SN − E [SN])3 = npx30(1 − 3p + 2p2)









> 0 dla p < 12

= 0 dla p = 12

< 0 dla p > 12 .

Fakt 1.2.7 Jeśli S(1), S(2), . . . , S(n) sa¸ niezależnymi zmiennymi losowymi i S(i) ma rozkład złożony CBin(m(i), p, F ) to

S =

n

X

i=1

S(i)

ma rozkład złożony ujemny dwumianowy CBin(m, p, F ) dla

m =

n

X

i=1

m(i).

Cytaty

Powiązane dokumenty

Na rysunku 4 zamieszczono wartości błędu maksymalnego dla poszczególnych metod: BC- wielomiany Czebyszewa (linia ciągła z prostokątami) ,BO- wielomian optymalny (linia przerywana

Jakie jest prawdopodobie«stwo, »e w tym momencie drugie pudeªko b¦dzie zawieraªo k zapaªek, je±li na pocz¡tku ka»de pudeªko zawieraªo n

Potencjał synchronicznej warstwy dipolowej przypomina potencjał pojedynczego dipola, jest jednak rozciągnięty wzdłuż kierunku warstwy. Linie izopotencjalne

[r]

3.4 Jakie jest prawdopodobieństwo, że w czasie wykonywania 500 niezależnych prób Bernoulliego z prawdopodobieństwem sukcesu w pojedynczej próbie 0, 004 zaobser- wuje się nie

Zbiór funkcji liniowo nieza- leżnych to taki zbiór funkcji, że żadnej z nich nie można przedstawić w postaci kombinacji liniowej innych funkcji z tego zbioru.. Wyprowadzenie

• zadania te same co dla interpolacji, z tą różnicą, że zamiast dwóch metod interpo- lacji wybieramy dwie metody aproksymacji oraz testujemy metody na 2 rzeczywi- stych

Prosz¸e znaleźć najlepszy w sensie najmniejszych kwadratów wielomian aproksymuj¸ acy dla tych danych i potwierdzić instrukcj¸ a wewn¸etrzn¸ a OCTAVE.. W każdym zadaniu