• Nie Znaleziono Wyników

Podejście bayesowskie

W dokumencie Teoria ryzyka w ubezpieczeniach (Stron 61-75)

Niech X będzie obserwowaną zmienną losową. Zakładamy, że rozkład praw-dopodobieństwa Pθ tej zmiennej ma gęstość fθ i zależy od nieznanego para-metru θ. Jak zwykle, termin „gęstość” jest rozumiany w szerszym sensie i obejmuje przypadek dyskretny.

Zbiór wartości zmiennej losowej X oznaczymy symbolem X i nazwiemy prze-strzenią obserwacji. Zbiór możliwych wartości θ oznaczymy przez P. Jest to przestrzeń parametrów. W „zwykłym” modelu statystycznym mamy okre-śloną rodzinę gęstości {fθ : θ ∈ P} lub, co na jedno wychodzi, rodzinę roz-kładów prawdopodobieństwa {Pθ : θ ∈ P} na przestrzeni obserwacji.

Rozkłady a priori i a posteriori

Podejście bayesowskie polega na tym, że nieznany parametr θ traktujemy jako realizację zmiennej losowej Θ. Rozkład prawdopodobieństwa tej zmien-nej losowej przyjęto nazywać rozkładem a priori, ponieważ wyraża on na-szą wiedzę (lub przekonania) o parametrze przed zaobserwowaniem zmiennej

losowej X (bez brania pod uwagę danych). Gęstość rozkładu a priori ozna-czymy przez π. Model bayesowski określamy przez podanie, oprócz rodziny gęstości {fθ : θ ∈ P} na przestrzeni obserwacji, także gęstości π na prze-strzeni parametrów P. Prześledźmy najpierw konstrukcję modelu formalnie, z matematycznego punktu widzenia.

Rozpatrujemy parę zmiennych losowych Θ i X. Łączną gęstość tych zmien-nych definiujemy wzorem

f (θ, x) = π(θ)fθ(x), (θ ∈ P, x ∈ X ).

W ten sposób określamy jeden rozkład prawdopodobieństwa, nazwijmy go P, na nowej przestrzeni probabilistycznej Ω = P × X . Symbole E, Var, f (bez wskaźnika θ) będą odtąd oznaczały wartość oczekiwaną, wariancję i gęstość względem tego rozkładu P. Zauważmy, że teraz fθ staje się warun-kową gęstością zmiennej losowej X dla Θ = θ:

fθ(x) = f (θ, x)

π(θ) = f (x|θ).

Jeśli dana jest wartość naszej obserwacji i wiemy, że X = x, to możemy przy pomocy znanego wzoru Bayesa policzyć rozkład warunkowy losowego parametru Θ. Jest to tak zwany rozkład a posteriori. Gęstość tego rozkładu oznacza się często przez πx.

Wzór Bayesa. Rozkład a posteriori parametru Θ, dla danej obserwacji X = x, ma gęstość

πx(θ) = f (θ|x) = π(θ)fθ(x) f (x) , gdzie

f (x) = Z

π(θ)fθ(x)dθ. 

Gęstość f opisuje rozkład brzegowy zmiennej losowej X w modelu bayesow-skim. W tym kontekście mówi się f jest mieszanką wyjściowych gęstości fθ. W istocie, możemy traktować f jako „średnią ważoną” funkcji fθ, z „funkcją wagową” π.

Rozważmy teraz interpretację modelu bayesowskiego. Tę sprawę warto omó-wić dość dokładnie. Jeśli rozkład a priori wyraża tylko przekonania staty-styka i jest wybrany arbitralnie, to obliczone na jego podstawie prawdopo-dobieństwo ma charakter subiektywnej oceny szans. To jest klasyczny punkt widzenia teorii bayesowskiej. W wielu zastosowaniach rozkład a priori ma jednak inną, bardziej obiektywną interpretację. Dotyczy to szczególnie ubez-pieczeń i teorii zaufania.

Towarzystwo ubezpieczeniowe ma do czynienia z różnymi klientami. Jedni kierowcy powodują wypadki częściej, inni rzadziej. Przypuśćmy, że dla kon-kretnego klienta wysokość lub liczba szkód jest zmienną losową X o gęstości prawdopodobieństwa fθ. Każdemu klientowi odpowiada inna wartość para-metru θ. Rozkład o gęstości π opisuje „rozrzut” tego parapara-metru w populacji klientów. Jeśli zgłaszanie się klientów uznać za zjawisko przypadkowe, to każda nowa umowa jest dwuetapowym doświadczeniem losowym. W pierw-szym etapie pojawia się realizacja θ zmiennej losowej Θ, wybrana zgodnie z rozkładem priori. W drugim etapie, przypadek decyduje o wystąpieniu i wy-sokości aktualnych szkód. Wynikiem doświadczenia jest realizacja x zmiennej losowej X. Parametr θ jest już w drugim etapie ustalony, a losową zmien-ność szkód opisuje rozkład prawdopodobieństwa Pθ, który interpretujemy jako rozkład warunkowy zmiennej X przy danym Θ = θ.

Reasumując, lączny rozkład prawdopodobieństwa zmiennych losowych Θ i X jest probabilistycznym modelem dwuetapowego doświadczenia losowego, w którym obserwowujemy tylko wynik drugiego etapu: realizację zmiennej losowej X. Zmienna losowa Θ jest nieobserwowalna i możemy co najwyżej podać jej rozkład a posteriori.

4.3.1 PRZYKŁAD (Model Poisson/Gamma). Załóżmy, że liczba szkód dla pojedynczego klienta w ciągu n lat jest zmienną losową X ∼ Poiss(nθ). Tak więc

fθ(x) = Pθ(X = x) = e−nθ(nθ)x

x! , (x = 0, 1, . . .).

Parametr θ jest średnią liczbą szkód przypadających na rok. Przyjmijmy, że zmienność θ w populacji klientów opisuje rozkład Gamma(α, λ). Pierw-szym etapem doświadczenia losowego jest, z punktu widzenia towarzystwa ubezpieczeniowego, zawarcie umowy z pewnym klientem wybranym z tej po-pulacji. Średnia roczna liczba szkód dla naszego klienta jest więc zmienną losową Θ o gęstości prawdopodobieństwa

π(θ) = λα

Γ(α)θα−1e−λθ, (θ > 0).

W drugim etapie doświadczenia klient jest już ustalony, czyli mamy Θ = θ i liczba szkód X jest zmienną losową o (warunkowej) gęstości fθ. Łączny rozkład prawdopodobieństwa zmiennych losowych Θ i X określamy przez podanie gęstości:

f (θ, x) = π(θ)fθ(x) = λα

Γ(α)θα−1e−λθ· e−nθ(nθ)x

x! , (θ > 0, x = 0, 1, . . .).

Jest to dwuwymiarowa „gęstość prawdopodobieństwa” na przestrzeni P × X =]0, ∞[×{0, 1, . . .}. Chociaż zmienna losowa Θ jest typu ciągłego a zmienna X jest dyskretna, powinno być jasne jak taką „gęstość” należy rozumieć.

Gęstość brzegowa zmiennej X opisuje rozkład liczby szkód w całej populacji klientów. Mamy

Niech λ/(λ + n) = p i n/(λ + n) = 1 − p. Wtedy

Jest to tak zwany ujemny rozkład dwumianowy, który oznaczamy symbolem Bin(α, p). Okazało się, że ten rozkład jest mieszanką rozkładów Poissona, z rozkładem mieszającym gamma.

Przypomnijmy, że Θ opisuje „częstość powodowania szkód” dla naszego klienta, a więc może być podstawą do przewidywania liczby jego przyszłych szkód.

Towarzystwo ubezpieczeniowe jest zainteresowane znajomością tej zmiennej losowej, ale nie może jej bezpośrednio obserwować. Nasz stan wiedzy (lub raczej stopień niewiedzy) o zmiennej Θ po zaobserwowaniu liczby roszczeń X = x opisuje rozkład a posteriori. Ze wzoru Bayesa mamy

πx(θ) = f (θ|x) = λα

Rozkład warunkowy parametru Θ przy danym X = x jest więc rozkładem

Gamma(α + x, λ + n). 

4.3.2 PRZYKŁAD (Model Dwumianowy/Beta). Załóżmy, że obserwujemy liczbę X sukcesów w n próbach Bernoulli’ego z nieznanym prawdopodobień-stwem sukcesu θ. Zmienna X ma rozkład dwumianowy Bin(n, θ). Wygodnie przyjąć, że rozkład a priori jest rozkładem Beta(α, β):

π(θ) = Γ(α + β)

Γ(α)Γ(β)θα−1(1 − θ)β−1, (0 < θ < 1).

Łączny rozkład zmiennych losowych Θ i X ma gęstość f (θ, x) = π(θ)fθ(x)

Rozkład brzegowy zmiennej X ma gęstość

Jest to uogólniony rozkład hipergeometryczny. Jak łatwo widać, πx(θ) = f (θ|x) = Γ(α + β + n)

Γ(α + x)Γ(β + n − x)θα+x−1(1 − θ)β+n−x−1.

Rozkład a posteriori jest więc rozkładem Beta(α + x, β + n − x). 

Warunkowa niezależność i dostateczność

Rozpatrzmy sytuację nieco ogólniejszą. Przypuśćmy, że nasze dane, czyli obserwacje X1, . . . , Xn stanowią próbkę losową z rozkładu Pθ. Dla ustalonej wartości parametru θ ∈ P, łączny rozkład prawdopodobieństwa zmiennych losowych X1, . . . , Xn ma n-wymiarową gęstość

fθ(x1, . . . , xn) =Y

i

fθ(xi). (∗)

Oczywiście, jeśli mamy do czynienia ze zmiennymi Xi typu dyskretnego, to lewa strona tego wzoru jest równa Pθ(X1 = x1, . . . , Xn = xn). Przestrzenią obserwacji jest teraz Xn, gdzie X jest zbiorem wartości pojedynczej zmien-nej. Model statystyczny sprowadza się zatem do podania rodziny rozkładów prawdopodobieństwa {Pθ : θ ∈ P} lub, co na jedno wychodzi, rodziny gę-stości {fθ : θ ∈ P} na przestrzeni przestrzeni obserwacji. Model bayesowski otrzymujemy, jeśli określimy ponadto gęstość π na przestrzeni parametrów.

4.3.3 Założenie. Rozpatrujemy układ zmiennych losowych Θ; X1, . . . , Xn

o łącznej gęstości prawdopodobieństwa

f (θ; x1, . . . , xn) = π(θ)Y

i

fθ(xi).

 Otrzymujemy w ten sposób rozkład prawdopodobieństwa P na przestrzeni probabilistycznej Ω = P × Xn, opisany przez (n + 1)-wymiarową gęstość.

Rozkład brzegowy próbki X1, . . . , Xn na przestrzeni Xn ma gęstość

f (x1, . . . , xn) = Z

π(θ)Y

i

fθ(xi)dθ. (∗∗)

Gęstość (∗∗) nie jest iloczynem jednowymiarowych gęstości brzegowych po-jedynczych obserwacji. Zmienne losowe X1, . . . , Xn w modelu bayesowskim przestają być niezależne. Wzór (∗) mówi tylko, że obserwacje X1, . . . , Xn są warunkowo niezależne, dla danego Θ = θ. Intuicyjnie, powód jest taki, że wszystkie obserwacje Xi„zależą od jednej i tej samej zmiennej losowej Θ”. W zastosowaniach ubezpieczeniowych może to znaczyć, powiedzmy, że zmienne Xi dotyczą jednego i tego samego klienta. Innymi słowy, podstawowe zało-żenie naszego modelu możemy sformułować tak:

• π jest gęstością rozkładu zmiennej losowej Θ;

• Dla ustalonego Θ = θ,

X1, . . . , Xn są warunkowo niezależnymi zmiennymi losowymi;

fθ jest warunkową gęstością każdej ze zmiennych Xi.

Wzór Bayesa ulega tylko nieznacznej modyfikacji i przyjmuje teraz postać

πx(θ) = f (θ|x1, . . . , xn) = π(θ)Q

ifθ(xi) f (x1, . . . , xn).

4.3.4 PRZYKŁAD (Model Poisson/Gamma, dostateczność). Rozważymy w istocie ten sam model co w Przykładzie 4.3.1, tylko uwzględnimy obserwacje dotyczące wielu lat. Niech X1, . . . , Xn będą liczbami szkód, zgłoszonych w kolejnych latach przez jednego klienta. Załóżmy, że te zmienne są próbką z rozkładu Poiss(θ) i rozkład a priori jest Gamma(α, λ). Obliczenie rozkładu a posteriori jest podobne jak w Przykładzie 4.3.1. Pokażemy jak upraszcza rachunki ignorowanie nieistotnych stałych normalizujących. Wprowadźmy taką konwencję: symbol „const” oznacza dowolne wyrażenie liczbowe, które nie zależy od parametru θ (ale może zależeć od obserwacji x1, . . . , xn). Przy każdym pojawieniu się ów „const” może oznaczać inną liczbę. Możemy teraz napisać

πx(θ) = f (θ|x1, . . . , xn) = const · f (θ; x1, . . . , xn)

= const · θα+Σixi−1e−θ(λ+n).

Nie trzeba znać stałej „const” w ostatniej linijce, żeby rozpoznać, że rozkład a posteriori jest równy Gamma(α +P

ixi, λ + n). 

Zauważmy, że obliczony w Przykładzie 4.3.4 rozkład a posteriori zależy od obserwacji x1, . . . , xn tylko poprzez ich sumę, s =P

ixi. Otrzymaliśmy ten sam wynik co poprzednio w Przykładzie 4.3.1. Informacja o parametrze θ zawarta w obserwacjach x1, . . . , xn jest taka sama jak informacja zawarta w ich sumie. Powiemy, że suma obserwacji jest w rozważanym wyżej modelu statystyką dostateczną. Ogólniejsza definicja jest następujaąca.

4.3.5 DEFINICJA. Rozważmy model bayesowski sformułowany w Założe-niu 4.3.3. Niech T = T (X1, . . . , Xn) będzie pewną funkcją obserwacji (czyli statystyką). Jeśli rozkład a posteriori zależy od obserwacji tylko poprzez war-tość t statystyki T , czyli

f (θ|x1, . . . , xn) = f (θ|t) to mówimy, że T jest statystyką dostateczną.

Podana tu bayesowska definicja dostateczności jest (niemal) równoważna z klasyczną definicją znaną z wykładu statystyki.

4.3.6 PRZYKŁAD (Model Normalny/Normalny). Niech zmienne X1, . . . , Xn będą wysokościami szkód w kolejnych latach dla tego samego klienta (lub

„ jednorodnej” grupy klientów, których z góry decydujemy się traktować jed-nakowo). Przyjmijmy, że jest to próbka z rozkładu normalnego N(θ, s2).

Gęstość prawdopodobieństwa pojedynczej obserwacji jest postaci fθ(x) = const · exp

Mamy w istocie do czynienia z dwoma parametrami θ i s2 opisującymi roz-kład prawdopodobieństwa. Załóżmy jednak, że s2 jest znane (to niezbyt realistyczne założenie zostanie później pominięte). Niech rozkład a priori nieznanego parametru θ będzie normalny N(m, a2), czyli

π(θ) = const · exp

Przypomnijmy, że w dalszym ciągu symbol „const” oznacza współczynnik proporcjonalności, który może zależeć od x1, . . . , xn i oczywiście od m, a2 i s2. Zgodnie z taką umową możemy napisać

πx(θ) = f (θ|x1, . . . , xn) = const · f (θ; x1, . . . , xn)

Oczywiście,x oznaczaP xi/n. Wykonaliśmy tu znaną ze szkoły średniej ope-rację sprowadzania trójmianu kwadratowego do postaci kanonicznej. Wyrazy wolne zostają „pochłonięte” przez zmieniającą się „stałą” const. Dodanie stałej do argumentu funkcji wykładniczej jest tym samym, co pomnożenie tej funkcji przez stałą. Widać już, że rozkład a posteriori jest normalny,

Nna2x + s2m

na2+ s2 , s2a2 na2+ s2

 .

Statystyką dostateczną jest średnia obserwacji, x (lub równoważnie, suma).

Interpretacja naszego modelu jest podobna jak w Przykładzie 4.3.1. Para-metr θ opisuje średnią wysokość szkód (na rok) zgłaszanych przez naszego klienta. Rozrzut liczby aktualnych szkód Xi wokół średniej θ opisuje warian-cja s2. Jeśli wyobrazimy sobie, że nasz klient jest „losowo wybranym przed-stawicielem” pewnej populacji, to musimy uznać θ za wielkość podlegającą wahaniom losowym, czyli za realizację zmiennej losowej Θ.. Jej zmienność

odzwierciedla wariancja a2. 

Zagadnienie predykcji

Zajmiemy się teraz ogólnym zadaniem przewidywania wartości zmiennej lo-sowej na podstawie obserwacji innych zmiennych losowych. Niech X1, . . . , Xn i Y będą zmiennymi losowymi o znanym łącznym rozkładzie prawdopodo-bieństwa P. Symbolem X oznaczymy wektor losowy (X1, . . . , Xn). Załóżmy, że zmienne X1, . . . , Xn odgrywają rolę obserwacji, to znaczy mamy dane ich realizacje Xi = xi. Zmienna Y jest „ukryta”, nieobserwowalna. Chodzi o to, żeby możliwie dobrze przewidzieć wartość Y na podstawie danych x1, . . . , xn. Innymi słowy, chcemy tak dobrać funkcję h : Rn → R, aby zmienna losowa

h(X) = h(X1, . . . , Xn)

najlepiej przybliżała Y . Oczywiście, przewidywanie musi być obarczone pew-nym losowym błędem. Będziemy się starali zminimalizować błąd średnio-kwadratowy, określony wzorem

MSE = E (Y − h(X))2.

Skrót MSE pochodzi od Mean Square Error. Od tej pory zakładamy, że zmienna losowa Y ma wariancję, czyli EY2 < ∞.

4.3.7 DEFINICJA. Zmienną losową ˆY = ˆh(X) nazywamy najlepszym predyktorem Y , jeśli

E Y −ˆh(X)2

≤ E Y − h(X)2

dla każdej funkcji h : R → R. W skrócie piszemy ˆY = BP(Y ).

BP jest skrótem angielskiego terminu Best Predictor. Oczywiście, nasza de-finicja ma nieco umowny charakter. Wybraliśmy za podstawowe kryterum MSE w dużej mierze dlatego, że jest to wygodne rachunkowo.

4.3.8 TWIERDZENIE. Najlepszym predyktorem zmiennej losowej Y na podstawie wektora obserwacji X jest warunkowa wartość oczekiwana:

BP(Y ) = E(Y |X).

Dla najlepszego predyktora, MSE = EVar(Y |X).

Dowód. Zauważmy, że

MSE = E (Y − h(X))2 = E Y − E(Y |X) + E(Y |X) − h(X)2

= E Y − E(Y |X)2

+ E E(Y |X) − h(X)2

+ 2E Y − E(Y |X)

E(Y |X) − h(X)

= E Y − E(Y |X)2

+ E E(Y |X) − h(X)2

. Wyraz z dwójką na początku znika, ponieważ znika warunkowa wartość ocze-kiwana: EE (Y − E(Y |X)) (E(Y |X) − h(X)) |X

= E (E(Y |X) − h(X)) · (E(Y |X) − E(Y |X)) = 0.

Widać, że MSE jest sumą dwóch nieujemnych składników. Pierwszy z nich jest równy EVar(Y |X) i nie zależy od wyboru funkcji h. Drugi składnik staje się zerem wtedy, gdy h(X) = E(Y |X).

Predykcja w modelu bayesowskim.

Rozbudujmy nieco model bayesowski, opisany przez Założenie 4.3.3. Oprócz zmiennych X1, . . . , Xn, zaobserwowanych w przeszłości, wyobraźmy sobie jeszcze jedną zmienną losową, powiedzmy Xn+1, która opisuje przyszłe szkody dla tego samego klienta (lub dla klienta z tej samej jednorodnej grupy). Za-kładamy, że dla danego Θ = θ, zmienna Xn+1 jest warunkowo niezależna od X1, . . . , Xn i ma też warunkowy rozkład o gęstości fθ. Nowa zmienna

„podlega tym samym prawom” co obserwacje dotyczące przeszłości, ale jest nieobserwowalna. Naszym podstawowym zadaniem jest przewidywanie Xn+1

na podstawie danych X1, . . . , Xn. Zacznijmy od prostego spostrzeżenia, które ułatwia intuicyjne zrozumienie naszego modelu. Z założenia o warunkowej niezależności wynika, że

f (xn+1|θ; x1, . . . , xn) = f (xn+1|θ). (∗) Jeśli znalibyśmy parametr strukturalny Θ to najlepszym predyktorem przy-szłych roszczeń Xn+1byłaby, zgodnie z Twierdzeniem 4.3.8, warunkowa war-tość oczekiwana

µ(Θ) = E(Xn+1|Θ).

Co więcej, obserwacje X1, . . . , Xn nie byłyby nam potrzebne do przewidywa-nia Xn+1 bo wobec (∗),

µ(Θ) = E(Xn+1|Θ, X1, . . . , Xn).

Niestety, nie znamy Θ i możemy tylko oszacować µ(Θ) na podstawie obser-wacji X1, . . . , Xn. Z Twierdzenia 4.3.8 wynika, że najlepszym predyktorem zmiennej losowej µ(Θ) jest wartość oczekiwana a posteriori:

BP (µ(Θ)) = E µ(Θ)|X1, . . . , Xn.

Gęstość a posteriori πx obliczamy ze wzoru Bayesa, więc E µ(Θ)|X1 = x1, . . . , Xn = xn =

Z

µ(θ)πx(θ)dθ

= R µ(θ)π(θ) Qifθ(xi)dθ R π(θ) Qifθ(xi)dθ .

4.3.9 Stwierdzenie. Najlepszy predyktor zmiennej losowej Xn+1 na podsta-wie obserwacji X1, . . . , Xn pokrywa się z najlepszym predyktorem zmiennej µ(Θ):

BP(Xn+1) = BP (µ(Θ)) .

Dowód. Niech X = (X1, . . . , Xn) oznacza wektor obserwacji. Na mocy (∗) mamy

E(Xn+1|X) = E E(Xn+1|Θ, X)|X

= E E(Xn+1|Θ)|X = E µ(Θ)|X.

Chociaż predyktory zmiennych Xn+1 i µ(Θ) są takie same, to oczywiście błędy predykcji są różne. Łatwo pokazać, że jeśli ˆµ(X) = E (µ(Θ)|X) trak-tujemy jako BP (µ(Θ)), to

MSE = E (µ(Θ) − ˆµ(X))2 = EVar (µ(Θ)|X) . Z kolei jeśli ˆµ(X) traktujemy jako BP (Xn+1), to

MSE = E (Xn+1− ˆµ(X))2 = EVar (µ(Θ)|X) + EVar(Xn+1|Θ).

Jak zwykle, X = (X1, . . . , Xn).

Zwróćmy uwagę na sens błędu średniokwadratowego w modelu bayesowskim.

Wartość oczekiwana, o której mowa w definicji MSE, oznacza średnią wzglę-dem łącznego rozkładu prawdopodobieństwa wszystkich rozważanych zmien-nych losowych. Należy pamiętać o tym, że przymiotnik „średni” odnosi się do obu etapów doświadczenia losowego. Innymi słowy, w naszych zastoso-waniach ubezpieczeniowych, minimalizujemy średni błąd predykcji w całej populacji klientów.

Zróbmy dygresję na temat terminologii. W „zwykłym” modelu ststystycznym mówi się o estymacji wielkości µ(θ), zależnej od nieznanego parametru θ. Jeśli estymatorem jest statystyka ˆµ(X) = ˆµ(X1, . . . , Xn) to funkcję ryzyka tego estymatora określamy wzorem

R(θ) = Eθ(µ(θ) − ˆµ(X))2.

Podejście bayesowskie pozwala mówić o średniej wartości ryzyka ER(Θ). To jest nic innego jak nasz błąd średniokwadratowy. Oczywiście, wartość ocze-kiwaną ryzyka oblicza się względem rozkładu a priori:

MSE = Z

R(θ)π(θ)dθ.

W tym kontekście, MSE nazywa się ryzykiem bayesowskim estymatora ˆ

µ(X). Jeśli ˆµ(X) = BP (µ(Θ)) to statystycy mówią, że ˆµ = ˆµ(X) jest estymatorem bayesowskim µ(θ).

4.3.10 PRZYKŁAD (Model Normalny/Normalny, predykcja). W Przykła-dzie 4.3.6 obliczyliśmy rozkład a posteriori. Estymatorem bayesowskim wiel-kości µ(θ) = θ jest wartość oczekiwana tego rozkładu,

θ =ˆ na2x + s2m na2+ s2 . Innymi słowy,

θ = zx + (1 − z)m,ˆ gdzie z = a2n a2n + s2.

Otrzymaliśmy ważny wzór, dobrze znany każdemu aktuariuszowi. Ten sam wzór wyprowadzimy później przy nieco innych założeniach.

Równie łatwo napisać wzór na błąd średniokwadratowy estymacji/predykcji.

Dla zadania estymacji parametru θ,

E Θ − zX + (1 − z)m2

= s2a2 na2+ s2. Jeśli rozważamy zadanie predykcji przyszłych szkód Xn+1, to

E Xn+1− zX + (1 − z)m2

= s2a2

na2+ s2 + s2.

4.3.11 PRZYKŁAD (Model Poisson/Gamma, predykcja). Rozważmy model zdefinioway w Przykładzie . Estymatorem bayesowskim wielkości µ(θ) = θ jest wartość oczekiwana zmiennej losowej rozkładzie Gamma(α + s, n + λ), bo jest to rozkład a posteriori :

θ =ˆ P

ixi+ α

n + λ . 

W dokumencie Teoria ryzyka w ubezpieczeniach (Stron 61-75)

Powiązane dokumenty