• Nie Znaleziono Wyników

3.3. Metoda zaawansowanego pomiaru ryzyka operacyjnego Delta- EVT

3.3.2. Metodologia oparta o Teorie Wartości Ekstremalnych (EVT)

Proces pomiaru strat niezależnych od czynników ryzyka spowodowanych rzadko występującymi zdarzeniami315

(których nie objęła metodologia Delta) jest przeprowadzany przy wykorzystaniu metody opartej o Teorię Wartości Ekstremalnych. Teoria Wartości Ekstremalnych (ang. Extreme Value Theory -EVT) pozwala opisać rozkłady zjawisk losowych obserwowanych bardzo rzadko, czyli takich, których prawdopodobieństwo pojawienia się jest znikome316

. Z matematycznego punktu widzenia możemy powiedzieć, ze w tym przypadku ryzyko operacyjne interpretujemy jako zdarzenie, które bierze wartość z ogona rozkładu, a Teoria Wartości Ekstremalnych zajmuje się estymacją ogonów rozkładów. W konsekwencji daje nam to możliwość estymacji wartości narazonej na ryzyko operacyjne (OpVaR) nawet dla bardzo małego kwantyla317. Teoria ma swoje korzenie w fizyce i

315

W literaturze przedmiotu można znaleźć różne klasyfikacje tego typu zdarzeń, jedną z nich jest podział na zdarzenia typu 1.Perfect storm (perfekcyjna burza) - niezwykła permutacja czynników sprawczych, które przez losowy ciąg wydarzeń występują razem i, w trudny wcześniej do przewidzenia sposób, powodują powstanie dużej straty, 2. Ethical meltdown (upadek moralny) -szeroki upadek wartości etycznych w jakimś obszarze biznesu, masowe oszustwa na dużą skalę 3. Infrastructure disaster (zniszczenie infrastruktury) - zniszczenie infrastruktury w dużym obszarze działalności, 4. Learning curve (krzywa nauczania)-poważne straty związane z wdrożeniem innowacji, nowej technologii czy nowego produktu. Por. Mc Connell P., A Perfect Storm – why are some Operational Risk Losses larger than others?, Continuity Central , 7/2006

316Matematyczne podstawy teorii EVT w kontekście zarządzania ryzykiem por. Embrechts, P., Kluppelberg, C. Mikosch, T., Modelling Extremal Events for Insurance and Finance. Berlin Springer, Berlin 1997, Embrechts, P., Extremes and Integrated Risk Management. Risk Books, Risk Waters Group, London 2000 natomiast ogólne wprowadzenie do teorii obszernie por. Coles, S., An introduction to statistical modeling of extreme values, Springer, London 2001

317

Alexander J. McNeil , Extreme Value Theory for Risk Managers, Departement Mathematik ETH Zentrum Zurich 1999. s.2

dotychczas była często wykorzystywana w branży ubezpieczeniowej318

. Podłożem Teorii Wartości Ekstremalnych jest twierdzenie Fishera – Tippeta319

. Pierwszym etapem jest budowa modelu odnoszącego się do strat przekraczających poziom wyznaczonego progu. Oczywiście analizę strat przewyższających próg należy rozpocząć od wyznaczenia jego wartości320

. Wykorzystanie w modelu danych o stratach musi uwzględniać rozkłady ich częstotliwości i dotkliwości. Dotkliwość strat, których wartość przekracza ustaloną wartość progu dopasowywana jest do uogólnionego rozkładu Pareto (ang. Generalized Pareto Distribution – GDP) (patrz Rysunek 3.15.). Nadmienić należy, że Teoria Wartości Ekstremalnych identyfikuje ekstrema także w inny sposób czego przykładem jest analiza wartości maksymalnych osiąganych w poszczególnych okresach dla których rozkładem granicznym dla maksimów blokowych jest uogólniony rozkład wartości ekstremalnych (ang. Generalized Extreme Value – GEV). (patrz rysunek 3.16.)321. Obydwa zaprezentowane rozkłady są atraktorami dla maksimów, w konsekwencji należy oczekiwać że będą dawać zbliżone rezultaty322. Metoda maksimów blokowych, której odzwierciedleniem jest rozkład GEV ma swoje źródła w hydrologii gdzie jest wykorzystywana do analizy danych charakteryzujących się sezonowością323

. W odniesieniu do ryzyka operacyjnego metoda ta polega uporządkowaniu malejąco strat z określonego przedziału czasowego w ten sposób, że pierwsza strata na liście oznacza stratę o największej dotkliwości, a ostatnia najmniejszą. Głównym celem działań w tym zakresie jest znalezienie takiej funkcji rozkładu maksimów, która nie będzie funkcją degenerowaną.

318 Reiss R. Estimating the tail index of the claim size distribution, Bleatter der DGVM Vol 18, Nr 1 April,1987, s.21

319

Twierdzenie Fishera Trippeta: Niech (Xn) będzie ciągiem niezależnych zmiennych losowych. Niech Mn = max (X……Xn). Jeżeli istnieją ciągi an > 0 i bn ∈ R standaryzujące zmienne losowe Mn i pewna niezdegenerowana dystrybuanta H taka, że:

Mn− bn an

d H

Wtedy H odnosi się do jednego z trzech standardowych rozkładów ekstremalnych : Frecheta, Weibulla, Gumbela. Poniższa jedno parametrowa reprezentacja, gdzie ξ jest parametrem kształtu

Hξ(x)= e− 1+ξx −1ξ gdy ξ ≠0

e−e−x gdyξ≠ 0

Odnosi się do tych trzech rozkładów dla x takich, że 1 + ξ x > 0. To uogólnienie znane jest jako uogólniony rozkład wartości ekstremalnych (GEV). Por. Fisher R., Tippet L., Limiting forms of the frequency distribution of

the largest or smallest member of a sample, Proceedings of the Cambridge Philosophical Society 1928,

s.180-190, Kellezi E., Gilli M, Extreme Value Theory for Tail-Related Risk Measures, Computational Finance 2000 conference, 31 May – 2 June 2000, London Business School, Kluwer Academic Publishers 2000 s.4, Zivot E., Wang J., Modeling Financial Time Series with S-Plus, Springer Verlag, New York 2003, s.131

320 sposób wyznaczenia wartości progu został zaprezentowany przy omawianiu metody czynnika Delta

321

Coleman R. Op risk modelling for extremes, Part 1, Operational Risk, December 2002, s.10

322 Matkowski P., Zarządzanie …, op.cit., s.237 323

Rysunek 3.15. Wartości przekraczające wartość progu dla których rozkładem granicznym jest rozkład GDP.

Źródło: opracowanie na podst. Kellezi E., Gilli M, Extreme Value …op.cit., s.4

Rysunek 3.16. Rozkład graniczny dla maksimów blokowych - rozkład GEV

Źródło: opracowanie na podst. Kellezi E., Gilli M, Extreme Value…op.cit., s.4

Z kolei częstotliwość występowania strat dopasowywana jest do rozkładu Poissona. Te dwa rozkłady strat (GPD dla dotkliwości i Poissona dla częstości) są łączone przy wykorzystaniu symulacji Monte Carlo w celu wygenerowania ostatecznego rozkładu dużych strat. Etapy

implementacji metodologii EVT zostały zaprezentowane na Rysunku 3.17. Rozkład dużych strat wykorzystywany jest wraz z rozkładem strat operacyjnych wygenerowanym przy użyciu metody Delta do pomiaru ryzyka operacyjnego.

Rysunek 3.17. Etapy implementacji metodologii EVT

Źródło: opracowanie własne

Model straty jest ogólnym pojęciem stosowanym w odniesieniu do statystycznego modelu szacowania strat. Generalnie jest to zestaw strat dopasowanych do jednego lub większej ilości parametrycznych rozkładów (odrębnych dla częstotliwości i dotkliwości), na podstawie, których przy wykorzystaniu symulacji Monte Carlo generowany jest ostateczny rozkład strat. Modele straty były używane od wielu lat w sektorze ubezpieczeniowym i ostatnio coraz częściej wykorzystywane są do pomiaru ryzyka operacyjnego. Model jedno-okresowy lub inaczej statyczny dotyczy rozkładu strat dotyczących pojedynczego okresu. Natomiast modele wielo-okresowe wymagają długoterminowej analizy danych i łączą rozkłady częstotliwości występowania z rozkładami dotkliwości strat by wygenerować za pomocą symulacji rozkład strat rozszerzający model statyczny324

. Modele straty wykorzystywane do pomiaru ryzyka operacyjnego to modele wielo-okresowe ponieważ tylko takie umożliwiają estymacje rzadko występujących dużych strat. Modele strat można sklasyfikować pod względem źródła pochodzenia danych o stratach. Tabela 3.11. zawiera charakterystykę ogólnych typów modeli strat w zależności od źródła danych o startach.

324

McNeil A., Estimating the Tails of Loss Severity Distributions using Extreme Value Theory, Department Mathematik ETH Zentrum Zurich.1999

1. zebranie danych o stratach przewyższających wartość progu wraz

z czasem wystąpienia poszczególnych strat 2. dopasowanie wartości (dotkliwości) strat do rozkładu GPD 3 dopasowanie częstotliwości występowania strat do rozkładu Poissona 4. wykorzystanie symulacji MC do wygenerowania rozkładu strat na podstawie rozkładów GDP i Poissona dla odpowiedniego horyzontu czasowego.

Tabela 3.11. Modele strat w zależności od źródła danych o startach

Nazwa modelu charakterystyka

Model oparty na stratach historycznych Faktyczne straty są dopasowane do parametrycznych rozkładów oddzielnie dla częstotliwości występowania i dotkliwości strat. Następnie ogólny rozkład strat generowany jest przy wykorzystaniu symulacji Monte Carlo.

Model oparty na stratach firm

zewnętrznych (benchmarking)

W tym przypadku dane o częstotliwości i dotkliwości strat pochodzą z raportów strat firm o podobnym profilu działalności (np. cohort group). Proces generowania strat przebiega analogicznie jak w wyżej opisanym przypadku jednak dodatkowo otrzymane w ten sposób dane o stratach dostosowane są do skali i charakterystyki firmy.

Model oparty na stratach subiektywnych Subiektywne podejście wykorzystuje szacunki ekspertów dotyczące częstotliwości i dotkliwości strat potencjalnie zagrażających firmie.

Model oparty scenariuszach Model bazujący na danych o stratach

pochodzących z analizy scenariuszy awaryjnych budowanych na podstawie danych historycznych, zewnętrznych i subiektywnych

Model oparty na stratach symulowanych Model bazuje na danych pochodzących z procesu symulacji, która jest prowadzona przy bardzo dużej ilości danych wejściowych by generować przykłady zdarzeń o bardzo małym prawdopodobieństwie wystąpienia. Źródło: opracowanie własne na podst. King J.L.: Operational Risk: Measurement …, op.cit., s.98-99

Modele straty mogą być również scharakteryzowane przez wykorzystywany rozkład parametryczny. Np. typowy wielo-okresowy model strat używa rozkładu Poissona dla częstości strat oraz uogólnionego rozkładu Pareto dla dotkliwości strat. Rozkłady Poissona są wykorzystywane w większości modeli strat dla częstotliwości strat, natomiast dla dotkliwości strat wykorzystywany jest szereg różnych rozkładów takich jak logarytmiczno- normalny, Weibulla, Gamma, Pareto i inne. Tradycyjne techniki statystyczne skupiają się pomiarze centralnej tendencji (np. średniej) i są nieadekwatne do estymacji dużych strat z ogona rozkładu325. Natomiast EVT służy do estymacji strat ekstremalnych ignorując przy tym główną część rozkładu strat.326

Przyporządkowanie strat do uogólnionego rozkładu Pareto

325

Chernobai A., Rachev S., Applying robust methods to operational risk modeling, Journal of Operational Risk, Vol. 1 Nr 1, Spring 2006, s.30

(dla dotkliwości strat) oraz do rozkładu Poissona (dla częstości występowania strat) oparte jest na trzech poniżej zaprezentowanych założeniach327

: 1. zdarzenia powodujące straty są niezależne,

2. liczba zdarzeń powodujących straty występujących w przedziale czasu ΔT jest niezależna od zdarzeń powodujących straty które wystąpiły w okresie

poprzedzającym analizowany przedział czasowy,

3. prawdopodobieństwo wystąpienia dokładnie w tym samym momencie dwóch zdarzeń powodujących straty wynosi zero.

Konsekwencją przyjętych założeń jest możliwość rozłącznego modelowania rozkładu częstości i dotkliwości strat. Każde zdarzenie powodujące stratę można scharakteryzować za pomocą dwóch cech. Pierwszą cechą jest mierzony w dniach czas wystąpienia zdarzenia (Ti), natomiast drugą jest dotkliwość straty (Si) mierzona w PLN. Budując model strat ze względu na częstość występowania należy uszeregować zdarzenia w kolejności ich występowania w taki sposób, żeby Ti < T i+1. Stąd odstęp pomiędzy poszczególnymi zdarzeniami powodującymi straty można opisać jako t i= T i+1 - Ti . Zgodnie z zaprezentowanymi założeniami liczba zdarzeń występujących w określonym przedziale czasowym (T) może zostać dostosowana do rozkładu Poissona. Rozkład ten nazywany jest również rozkładem zdarzeń rzadkich ponieważ wykorzystywany jest do estymacji zdarzeń o stosunkowo małym prawdopodobieństwie wystąpienia przy stosunkowo dużej próbie.

Funkcja prawdopodobieństwa w rozkładzie Poissona ma postać328

:

(3.24.) Pr 𝑥 =𝜆𝑒−𝑥

𝑥!

Dla rozkładu Poissona estymator największej wiarygodności λ jest określony jako średni okres czasu upływający pomiędzy poszczególnymi zdarzeniami przynoszącymi straty. Formuła estymacji λ dla rozkładu Poissona ma postać:

(3.25.) λ = 1 k − 1 (Ti+1− Ti) i<𝑘−1 i=0 −1 gdzie

k- liczba historycznych zdarzeń powodujących straty

Z kolei formuła estymacji λ dla wielo okresowego rozkładu Poissona wyrażana jest wzorem: (3.26.) 𝜆 = 𝑘𝑛𝑘 𝑘

𝑛 gdzie

k- liczba zdarzeń w okresie

nk- liczba okresów z k ilością zdarzeń n- liczba wszystkichokresów

327 Di Pierro M., Nandy A., Monte Carlo risk management, Computational Finance and its Applications, WIT Press,2006, s.384

Zgodność dopasowania rozkładu częstości występowania strat do rozkładu Poissona może zostać zbadana przy wykorzystaniu prostego testu statystycznego chi-kwadrat (χ2 chi-squared test). Test zgodności chi – kwadrat jest nieparametrycznym testem wykorzystywanym do weryfikacji hipotez nieparametrycznych. Test oparty na tej statystyce jest konstruowany według schematu zaprezentowanego na Rysunku 3.18.

Rysunek.3.18. Schemat przeprowadzania testu zgodności Chi-kwadrat

Źródło: opracowanie własne

Podstawą do konstrukcji miary zgodności rozkłady empirycznego z hipotetycznym jest różnica między liczebnościami zaobserwowanymi ni, a liczebnościami teoretycznymi npi. Dokładniej, do oceny zgodności rozkładu empirycznego z rozkładem Poissona stosuje się statystykę w postaci: (3.27.) 𝜒2 = 𝑛𝑘 − 𝑛𝑃𝑟(𝑘; 𝜆) 2 𝑛𝑃𝑟(𝑘; 𝜆) 𝑘 gdzie:

1. ustalenie hipotezy zerowej - mówiącej o tym, że zbiór danych empirycznych ma rozkład określony pewną dystrybuantą F0 (x):

H0:F(x)=F0(x)

2. ustalenie hipotezy alternatywnej: H1:F(x)≠ F0(x)

3.przedstawienie danych o stratach w postacie rozkładu empirycznego przez utworzenie rozłącznych klas wartości badanej zmiennejLiczebność w tej klasie będziemy oznaczać symbolem ni(i=1,2...r)

4. obliczenie prawdopodobieństwa pitego, że badana zmienna losowa przyjmie wartość z i- tej klasy

5. prawdziwośc H0 potwierdza liczebność w poszczególnych klasach wynosząca npi(i=1,2...r), gdzie n jest liczebnością próby

Pr(k;X) to prawdopodobieństwo wystąpienia k zdarzeń dla rozkładu Poissona

która przy założeniu prawdziwości hipotezy zerowej ma asymptotyczny rozkład 2 o

r k 1

stopniach swobody, gdzie r jest liczbą klas wartości zmiennej, natomiast k oznacza liczbę parametrów rozkładu, które zostały oszacowane na podstawie rozkładu empirycznego metodą największej wiarygodności . Jeżeli prawdziwa jest hipoteza zerowa, to oczywiście statystyka reprezentowana wzorem 3.29. nie powinna przyjmować dużych wartości. Obszar krytyczny jest określony przez następująca formułę:

(3.28.) 𝑃 𝜒2 ≥ 𝜒𝛼,𝑟−𝑘−12 = 𝛼

gdzie

 jest poziomem istotności,

2 ,r k 1   

  wartością krytyczną wyznaczoną z rozkładu 2 . Jeżeli wartość statystyki (10.9) z próby jest taka, że 2 2

,r k 1   

   , to oznacza to, że różnica między rozkładem empirycznym a Rozkładem Poissona329

jest statystycznie istotna i hipotezę zerową należy odrzucić.

W praktyce funkcjonują także inne testy zgodności dopasowania rozkładu do danych empirycznych wśród nich można wyróżnić:

 test Kolmogorova–Smirnova,

 test Andersona–Darlinga,

 test Smirnova–Craméra–VonMisesa330.

Modelowanie rozkładu dotkliwości strat przeprowadzane jest przy wykorzystaniu uogólnionego rozkładu Pareto. Techniką wykorzystywaną w procesie dostosowywania dotkliwości strat do GPD jest metoda POT (ang. peaks over threshold)331

. POT jest parametryczną metodą estymacji zakładającą, że dany jest szereg obserwacji (strat) pochodzących z nieznanej dystrybuanty „F” przy czym interesujące dla tej techniki są tylko wartości przekraczające wartość ustalonego progu „u”332

. Zgodnie z tymi założeniami warunkowy rozkład dotkliwości dużych strat ma postać333:

(3.39.) 𝐹𝑢 𝑦 = 𝑃 𝑋 − 𝑢 ≤ 𝑦 𝑋 > 𝑢

dla 0 ≤ y < x0 – u gdzie

329 tzn. między odpowiednimi liczebnościami ni oraz npi

330

Mignola G., Ugoccioni R., Sources of uncertainty in modeling operational risk losses, Journal of Operational Risk, Vol. 1 No 2, Summer 2006, s. 35, por. również Chernobai A., Rachev S., Fabozzi, F., Composite

goodness-of-fit tests for left-truncated loss samples. Technical Report, University of California, Santa Barbara,

2005

331

por. Chavez-Demoulin, V., Davison, A., Generalized additive models for sample extremes, Journal of the Royal Statistical Society, Series C, 2005, Chavez-Demoulin, V., Embrechts, P., Smooth Extremal Models in

Finance, The Journal of Risk and Insurance 71(2)/2004, s. 183-199 332 Këllezi E., Gilli M., Extreme Value …op.cit., s.5

y= x –u stanowi przekroczenie wartości progu x0 ≤ ∞ jest krańcową wartością dystrybuanty F.

Funkcja ta może przyjąć także inną postać, a mianowicie:

(3.30.)

𝐹𝑢 𝑦 =𝐹 𝑦 + 𝑢 − 𝐹(𝑢) 1 − 𝐹(𝑢)

Z uwagi na to, że większość zaobserwowanych strat zawiera się w przedziale od 0 do u, istnieje trudność przy wyznaczaniu dystrybuanty strat przekraczających wartość progu wynikająca z małej liczby dostępnych danych334

. Rozwiązaniem tego problemu może być wykorzystanie twierdzenia granicznego mówiącego, dla szerokiej klasy rozkładów można znaleźć funkcję taką, że335

:

(3.31.) lim

𝑢 𝑥0 𝑠𝑢𝑝

0≤𝑦<𝑥0−𝑢 𝐹𝑢 𝑦 − 𝐺ξ,β 𝑢 (𝑦) = 0

Wynika z tego, że jeżeli wartość ustalonego progu będzie progresywnie rosnąć to dystrybuanta wartości przekraczających wartość progu (Fu) przekształca się w uogólniony rozkład Pareto . Określony następującą formułą336

: (3.32.) 𝐹𝑢 𝑦 = 𝐺ξ,β(𝑦) gdzie 𝐺ξ,β 𝑦 = 1 − 1 + ξ y β −1 ξ 𝑗𝑒ż𝑒𝑙𝑖 ξ ≠ 0 1 − exp −𝑦 𝛽 𝑗𝑒ż𝑒𝑙𝑖 ξ = 0 dla 𝑦 ∈ 0, ∞ 𝑗𝑒ż𝑒𝑙𝑖 ξ ≥ 0 0, −𝛽 ξ 𝑗𝑒ż𝑒𝑙𝑖 ξ < 0

Parametr jest parametrem kształtu przesądzającym o grubości ogonów. Rozkład posiada grube ogony w każdym przypadku gdy ξ > 0337

. Dostosowanie strat do GDP może zostać przeprowadzone przy wykorzystaniu jednej z kilku technik338. Najpopularniejszym

334 Medova E. Extreme values … op.cit. s.12

335

Por. Balkema, A.A., De Haan L., (1974), Residual Life Time at Great Age, Annals of Probability, vol.2, Nr 5, 792–804.

336

Twierdzenie Pickandsa, mówiące, że dla odpowiednio dużego u dystrybuanta zmiennej X może być aproksymowana dystrybuanta postaci 𝐺ξ,β por. Pickands J., Statistical inference using extreme order statistics, Annals of Statictics , 3/1975, s. 119-131

337

Medova E. Extreme values …op. cit. s.12

podejściem jest stosowanie techniki największej wiarygodności339

(ang. log-likelihood) i to ona będzie wykorzystywana w prezentowanych modelach strat. Szacowanie parametrów rozkładu metodą największej wiarygodności zapewnia, że estymatory są asymptotycznie normalne i asymptotycznie efektywne. Wykorzystanie tej metody daje ponadto możliwość dokonania estymacji podziałowej 340

.

Na podstawie zaprezentowanych wzorów 3.30. i 3.32. można wyznaczyć poniższą zależność:

(3.33.) 𝐹 𝑥 = 1 − 𝐹 𝑢 𝐹𝑢 𝑥 + 𝐹(𝑢)

Podstawiając zaś za F(x) dystrybuantę uogólnionego rozkładu Pareto, a za F(u) jej estymowaną wartość (n-Nu)/n, gdzie n jest całkowitą ilością strat, a Nu liczbą obserwacji powyżej progu u, otrzymujemy zależność:

(3.34.) 𝐹 𝑥 =𝑁𝑢 𝑛 1 − 1 + ξ 𝛽(𝑥 − 𝑢) −1 ξ + 1 −𝑁𝑢 𝑛

Która po uproszczeniu przyjmuje postać:

(3.35.) 𝐹 𝑥 = 1 −𝑁𝑢 𝑛 1 + ξ 𝛽(𝑥 − 𝑢) −1 ξ gdzie:

n - liczba dostępnych danych o stratach Xn - n-ta wartość próbki ,

ξ - parametr kształtu , β - to parametr skali.

Wyznaczając na podstawie funkcji dystrybuanty kwanty rozkładu można wyznaczyć wartość VaR, która dla określonego poziomu istotności wyznaczana jest ze wzoru:

(3.36) 𝑉𝑎𝑅 = 𝑢 +𝛽 ξ 𝑛 𝑁𝑢𝑝 −ξ − 1

Istotnym zagadnieniem w zarządzaniu ryzykiem operacyjnym jest oszacowanie oczekiwanej wartości strat, jeżeli wartość VaR zostanie przekroczona. Miarą pozwalającą na wyznaczenie tej wartości jest Expected Shortfall definiowana następująco341

:

339

McNeil A., Estimating the tails of loss .. op.cit., s.125

340 Këllezi E., Gilli M., Extreme Value …op.cit., , s.6-7 341

Chavez-Demoulin V., Embrechts P., Advanced Extremal Models for Operational Risk, Department of Mathematics ETH-Zentrum, Zurich, June 27, 2004, s.6

(3.37.) 𝐸𝑆𝑝 = 𝐸 𝑋 𝑋 > 𝑉𝑎𝑅𝑝

Posługując się granicznym twierdzeniem o rozkładzie obserwacji ekstremalnych wartość ES można wyznaczyć ze wzoru342

: (3.38.) 𝐸𝑆 = 𝑉𝑎𝑅 1 − ξ+ 𝛽 − ξu 1 − ξ

Warto zwrócić uwagę, że jest to dotkliwość obliczona tylko dla rozkładu dużych strat, a nie dla rozkładu wszystkich strat.

Symulacja Monte Carlo

Jeżeli mamy dane dwa rozkłady strat i ich parametry wtedy ogólny rozkład strat generowany jest przy użyciu symulacji Monte Carlo w następujący sposób. Oznaczamy częstotliwość strat jako L (np. L α Poisson (λ)) i dotkliwość jako S (np. S α lognormal (μ,σ2

)) wtedy algorytm przedstawiony na Rysunku 3.19. może być wykorzystany do generowania ogólnego rozkładu strat i kwantyla.

Rysunek 3.19. Algorytm dla generowania rozkładu strat przy wykorzystaniu symulacji Monte Carlo przeprowadzany oddzielnie dla każdej klasy ryzyka operacyjnego

Źródło: opracowanie własne

342 McNeil A., Extreme Value Theory … op.cit. , s.6

10000 powtórzeń - generuje 10000 symulacji

Wylosowanie liczby rzeczywistej z otwartego

przedziału od 0 do 1

przyjęcie wytypowanej liczby

jako skumulowanego

prawdopodobieństwa w

rozkładzie częstotliwości strat i

określenie na podstawie

odwróconej dystrybuanty tego rozkładu określającej liczbę zdarzeń w ciągu danego okresu

Wylosowanie n liczb rzeczywistych z otwartego

przedziału od 0 do 1.

przyjęcie wytypowanych liczb jako skumulowanego prawdopodobieństwa w rozkładzie dotkliwości strat i

określenie na podstawie odwróconej dystrybuanty tego

rozkładu przy określonym prawdopodobieństwie

zsumowanie uzyskanych wartości i potraktowanie tej sumy jako elementu rozkładu

zagregowanych strat poniesionych w określonym

Poziom wartości narażonej na ryzyko operacyjne (OpVaR) dla wyznaczonego poziomu ufności (np. 99%) można wyznaczyć obliczając odpowiedni kwantyl rozkładu. Z technicznego punktu widzenia wyznaczenie wartości OpVaR polega na odnalezieniu na uszeregowanej rosnąco liście elementów rozkładu strat w danym okresie czasu343

pozycję o numerze równym zaokrąglonemu do liczby całkowitej iloczynowi przyjętego poziomu ufności oraz liczby elementów rozkładu344. Strata w wysokości 1000000 PLN odpowiadająca zadanemu poziomowi ufności pozwala na stwierdzenie, iż z prawdopodobieństwem 99% suma rocznych strat nie przekroczy poziomu 1000000 PLN co oznacza, że strata przewyższająca ten poziom może pojawić się przeciętnie raz na sto lat. Przykładowy histogram łącznego rozkładu strat wygenerowanego przy wykorzystaniu symulacji Monte

Carlo wraz

z wyznaczonym poziomem strat przy poziomie istotności 99% zaprezentowany został na Rysunku 3.4.6.

Rysunek 3.4.6. Histogram łącznego rozkładu strat wygenerowany przy wykorzystaniu symulacji Monte Carlo

Źródło: opracowanie własne na podst. Rudzki R., OpVaR – pomiar ryzyka operacyjnego w oparciu o koncepcję

Value at Risk, Warszawa, lipiec 2008, s.2

Model szacowania ryzyka Delta- EVT wymaga wykorzystania dwóch omówionych w poprzednim podrozdziale metod analitycznych, a mianowicie modelu czynnika Delta dla strat o małej wartości i stosunkowo dużej częstotliwości występowania oraz modelu opartego na teorii wartości ekstremalnych (EVT) dla strat dużej wartości. Dodatkowym składnikiem tego modelu jest „próg” (threshold) wskazujący maksymalny poziom strat estymowanych przy pomocy metodologii Delta. Straty przewyższające poziom progu estymowane są przy pomocy EVT.

Wykresy typowych skumulowanych rozkładów strat odrębnie dla strat estymowanych metodą Delta i dużych strat estymowanych metodą EVT przedstawione zostały na Rysunkach

343 najczęściej w okresie jednego roku

344

Rudzki R., OpVaR – pomiar ryzyka operacyjnego w oparciu o koncepcję Value at Risk, Warszawa, lipiec 2008,s.2 dostępny na www.artim.com

3.21. i 3.22. Wartość progu dla skumulowanego rozkładu wyznaczona jest przez wskaźnik