• Nie Znaleziono Wyników

WPŁYW ZDARZEŃ EKSTREMALNYCH NA WIELKOŚĆ RYZYKA OPERACYJNEGO BANKU SZACOWANEGO METODĄ LDA

N/A
N/A
Protected

Academic year: 2021

Share "WPŁYW ZDARZEŃ EKSTREMALNYCH NA WIELKOŚĆ RYZYKA OPERACYJNEGO BANKU SZACOWANEGO METODĄ LDA"

Copied!
21
0
0

Pełen tekst

(1)

ISSN 2083-8611 Nr 220 · 2015

Tomasz Szkutnik

Uniwersytet Ekonomiczny w Katowicach Wydział Zarządzania

Katedra Ekonometrii

tomasz.szkutnik@ue.katowice.pl

WPŁYW ZDARZEŃ EKSTREMALNYCH

NA WIELKOŚĆ RYZYKA OPERACYJNEGO BANKU SZACOWANEGO METODĄ LDA

Streszczenie: Tematyka artykułu związana jest z problemem kwantyfikacji ryzyka opera- cyjnego w banku na bazie modelu LDA. Badanie przeprowadzone w artykule ma na celu ocenę skali narażenia na ryzyko operacyjne przy wykorzystaniu teorii wartości ekstremal- nych w celu modelowania prawego ogona rozkładu dotkliwości strat. Artykuł porusza także problem dywersyfikacji ryzyka przy uwzględnieniu zależności pomiędzy różnymi przekrojami analitycznymi za pomocą funkcji copula. Podejście takie motywowane jest przeciwstawnymi propozycjami Komitetu Bazylejskiego ds. Nadzoru Finansowego pole- gającymi na sumowaniu indywidualnych wielkości VaR z poszczególnych przekrojów analitycznych. Wyniki prezentowane w pracy pozwalają na ocenę wpływu ekstremalnych zdarzeń na wielkość miary VaR szacowanej dla dwóch przekrojów analitycznych.

Słowa kluczowe: copula, EVT, ryzyko operacyjne, LDA.

Wprowadzenie

Tematyka badań związana jest z zagadnieniem ryzyka operacyjnego wystę- pującego w wielu dziedzinach otoczenia społeczno-gospodarczego. Ryzyko ope- racyjne w pracy zdefiniowane zostało zgodnie z ideą aktuarialną, tj. jako ryzyko powstania strat implikowanych przez wadliwy system organizacyjny podmiotu związany w szczególności z takimi elementami jak ludzie, procesy, systemy oraz zdarzenia zewnętrzne. Ryzyko operacyjne w zależności od definicji może także dotyczyć ryzyka prawnego związanego z kosztami przegranych procesów sądowych lub innych następstw wynikających z umów między stronami, skut-

(2)

ków niedotrzymania terminów realizacji projektów, czy innych zobowiązań wyni- kających z prawnej formy realizowanej działalności. System zarządzania ryzy- kiem nieuwzględniający zawodności instrukcji wewnętrznych mających zapew- nić pełną ochronę danych i informacji wewnętrznych o znaczeniu poufnym jest ściśle związany z ryzykiem określanym jako operacyjne. Jest tak dlatego, że wszel- kiego rodzaju ryzyko kojarzone jest w pierwszej kolejności z nieuchronnością pewnych procesów generujących straty i nieplanowane koszty.

Ryzyko operacyjne w wielu przypadkach oparte jest na koncepcji aktuarial- nej, w której pojęcie ryzyka związane jest z dwoma procesami generującymi straty, tj. procesem częstości oraz procesem dotkliwości strat. Instytucje ubez- pieczeniowe nie są jedynymi podmiotami korzystającymi z takiej definicji ryzy- ka operacyjnego. W bankowości, podobnie jak w instytucjach ubezpieczenio- wych, konieczność kwantyfikacji ryzyka finansowego, do którego zalicza się ryzyko operacyjne, wynika z regulacji ostrożnościowych organów nadzorczych.

Instytucje sektora finansowego nie są jedynymi podmiotami, dla których szaco- wanie ryzyka jest istotne z punktu widzenia stabilności i dobrych praktyk za- rządczych. W wielu przypadkach ryzyko operacyjne definiowane jest dla pod- miotów z sektora przedsiębiorstw produkcyjnych, jak również podmiotów należących do szeroko pojętej administracji państwowej. Procesy, które mogą składać się na zakres ryzyka operacyjnego, są z założenia niejednorodne i doty- czą wielu aspektów działalności. Bazując na definicji ryzyka operacyjnego wy- stępującego w bankowości, można stwierdzić, że scharakteryzowany schemat strata – ryzyko operacyjne jest w pełni komplementarny z określeniem ryzyka operacyjnego, które zaproponował Komitet Bazylejski ds. Nadzoru Bankowego.

W określeniu przyjętym przez Komitet Bazylejski ryzyko operacyjne jest ryzy- kiem straty spowodowanym przez różnorodne czynniki, wymienione w powyż- szej charakterystyce. Geneza pomiaru tego zjawiska może być utożsamiana z jedną z podstawowych funkcji w zarządzaniu, jaką jest kontrola środowiska wewnątrz organizacji, a nie tylko opisem zdarzeń o charakterze wewnętrznym lub zewnętrznym, które były w przeszłości powodem strat operacyjnych. W sytuacji, gdy ryzyko operacyjne rozumiane jest nie tylko w charakterze historycznych zdarzeń, ale także jako miara odzwierciedlająca kondycję banku, to organizacja z dobrym systemem kontroli wewnętrznej charakteryzuje się mniejszą ekspozy- cją na ten typ ryzyka niż organizacja, w której system kontroli jest na niskim poziomie. W historii bankowości można przytoczyć wiele zdarzeń o charakterze operacyjnym, których efektem były poważne, a niejednokrotnie katastrofalne straty dla banku. Dobrze znane problemy Barings Bank, Bankers Trust, Daiwa czy Allied Irish Bank, w których straty sięgały kilkuset milionów dolarów, były

(3)

nie tylko bezpośrednio spowodowane zdarzeniami operacyjnymi, ale to czynniki wewnętrzne, a w szczególności oszustwa dokonywane przez pracowników (rouge trading) przyczyniły się do rozmiaru strat operacyjnych [Matkowski, 2006, s. 37].

Instytucje nadzorcze poprzez regulacje, jakie wyznaczają, określają sposób i zakres działania instytucji finansowych. W celu ochrony zarówno konsumen- tów, jak i zapewnienia stabilności całego systemu finansowego, przyjęto rozwią- zania globalne. Jednym z takich rozwiązań było powołanie w 1975 roku Komi- tetu Bazylejskiego ds. Nadzoru Bankowego (w skrócie BCBS, ang. Basel Committee on Banking Supervision, dalej: Komitet Bazylejski), który wyznacza standardy dla działalności banków. Zarządzanie ryzykiem operacyjnym pojawiło się w dyrektywach Komitetu Bazylejskiego razem z Nową Umową Kapitałową w lipcu 2006 roku. W NUK wielkość wymogów kapitałowych uzależniona jest od charakteru prowadzonej przez bank działalności. Bank zobowiązany jest do utrzymania przynajmniej minimalnego poziomu kapitału na pokrycie ewentual- nych strat. Jak pokazują badania, ryzyko operacyjne odpowiedzialne jest za 30%-40% zmienności wyników finansowych banków, a na pozostałą wielkość składają się ryzyko kredytowe (50%-60%) i ryzyko rynkowe (10%-15%). Z punk- tu widzenia banku efektywne zarządzanie ryzykiem operacyjnym należy do kluczowych kompetencji.

Sposoby wyznaczania wymogów kapitałowych z tytułu ryzyka operacyjne- go w świetle obowiązujących regulacji pozwalają na określenie tej wielkości na podstawie trzech koncepcji:

1) metody wskaźnika podstawowego – BIA (ang. Basic Indicator Approach), 2) metody standardowej – TSA (ang. The Standardized Approach),

3) metody zaawansowanej – AMA (ang. Advanced Measurement Approach).

Regulacje ściśle określają sposoby kwantyfikacji tylko w dwóch pierwszych przypadkach. W podejściu zaawansowanym Komitet Bazylejski celowo pozosta- wił pewną dowolność w tworzeniu modeli, sygnalizując jedynie główne determi- nanty wpływające na wielkość wymogu kapitałowego. Podział ryzyka operacyj- nego według zaleceń BCBS wyróżnia osiem linii biznesowych i siedem rodzajów ryzyka. Układ ten tworzy 56 elementów (kategorii ryzyka), dla których zdaniem Komitetu Bazylejskiego należy oddzielnie szacować ryzyko operacyjne za pomo- cą metody AMA (podział ten nazywany jest także macierzą bazylejską).

(4)

1. Modelowanie rozkładu strat za pomocą metody LDA

W pracy został rozpatrzony problem wyznaczania wielkości ekspozycji na ryzyko operacyjne przy zastosowaniu jednej z metod zaawansowanych, wywo- dzącej się z metod aktuarialnych, jaką jest metoda rozkładu strat LDA (Loss Distribution Approach).

W metodzie LDA zagregowana strata S wyznaczana jest jako losowa su- ma poszczególnych strat, gdzie rozkład strat to N, a X to wielkość i-tej straty, dla i ∈ {1,2, . . ., N }, na zadanym przedziale czasowym ∆t, co można przed- stawić jako:

S = X = X + ⋯ + X

. (1)

Wielkość S przedstawia zagregowaną stratę dla jednej kategorii ryzyka, co w przypadku pełnej macierzy bazylejskiej (tj. przy 56 kategoriach ryzyka) oznacza potrzebę szacowania odrębnie wszystkich wielkości. Zagregowane wielkości S dla każdej z wyróżnionych kategorii ryzyka (w praktyce banki mogą stosować swoje wewnętrzne modele, dla których macierz kategorii ryzyka może być inna od tej zaproponowanej przez BCBS) muszą spełniać poniższe kryteria [Szkutnik, 2011a]:

1) warunkowo przy N = n zmienne losowe X , . . ., X są niezależnymi zmiennymi losowymi o takich samych rozkładach prawdopodobieństwa, 2) warunkowo przy N = n rozkład zmiennych losowych X , . . ., X jest nie-

zależny od n,

3) rozkład zmiennej losowej N nie zależy od wartości zmiennych X , . . ., X . Dystrybuantę dla zagregowanych strat danych wzorem (1) można zapisać jako:

F (s) = P(S ≤ s) = Σ P(N = n)F (s); s > 0

P(N = 0) ; s = 0 , (2) gdzie F jest dystrybuantą zmiennej losowej X, a F oznacza n-krotny splot rozkładu F z samym sobą, F (s) = P(Σ X ≤ s) [Chernobai, Rachev i Fa- bozzi, 2007, s. 223; Szkutnik, 2012b ].

Należy także nadmienić, że postać dystrybuanty F (s) dla rozkładu zagre- gowanego jest nieliniowa względem X i N. Fakt ten powoduje trudności z okre- śleniem jej analitycznej postaci i wymusza zastosowanie przybliżonych metod kwantyfikacji przy określaniu wybranych charakterystyk rozkładów, takich jak rekursywny algorytm Panjera, szybka transformata Fouriera czy metoda symula- cji Monte Carlo. Jednym z najprostszych rozwiązań jest zastosowanie symulacji

(5)

Monte Carlo. W przypadku wykorzystania symulacji Monte Carlo wielkości docelowe, tj. np. miara VaR, na podstawie której określana jest wielkość wymo- gów kapitałowych, wyznaczane są z empirycznego rozkładu zagregowanych wielkości powstałego na drodze symulacji. Precyzja oszacowania interesujących wielkości będzie wzrastała wraz ze wzrostem liczby przeprowadzanych symula- cji, co jest szczególnie istotne w przypadku rozpatrywania rozkładów gruboogo- nowych. Wyznaczona w ten sposób wielkość VaR dotyczy tylko jednej kategorii ryzyka. Rozwiązania Komitetu Bazylejskiego proponują w tym przypadku agre- gację za pomocą operatora sumowania. Sumowanie odpowiednich wielkości miar ryzyka dla różnych kategorii ryzyka zakłada doskonałą korelację pomiędzy tymi procesami. Założenie o doskonałej korelacji pomiędzy poszczególnymi procesami jest prawdziwe tylko w przypadku utrzymania własności koherentno- ści przez daną miarę ryzyka. Ponadto proste sumowanie wielkości ryzyka może prowadzić do znacznego przeszacowania wielkości łącznego ryzyka dla kilku procesów, stąd zachodzi konieczność uwzględnienia innych metod kwantyfikacji pozwalających na skorzystanie z efektu dywersyfikacji ryzyka [Szkutnik, 2012a].

Algorytm Monte Carlo do wyznaczania zagregowanego rozkładu strat dla rozważanej kategorii ryzyka wymaga przeprowadzenia kliku etapów procedury symulacyjnej, na którą składają się:

1) wyznaczenie losowej wartości z przyjętego procesu częstości strat, określają- cej liczbę zdarzeń operacyjnych na przestrzeni np. jednego roku,

2) wylosowana liczba zdarzeń z kroku 1 odpowiada liczbie symulowanych war- tości z przyjętego rozkładu dotkliwości strat dla określonego przedziału cza- sowego, np. jednego roku,

3) wyznaczenie wielkość straty w ciągu rozpatrywanego okresu jako sumy wielkości z kroku 2,

4) powtórzenie kroków od 1 do 3 wiele razy dla uzyskania możliwie wiarygod- nego rozkładu wielkości strat; wyznaczenie histogramu przedstawiającego zagregowany rozkład strat,

5) zagregowany empiryczny rozkład strat dla przyjętego przedziału czasu staje się podstawą wyznaczenia wartości VaR przy założonym poziomie ufności, 6) powyższe postępowanie należy przeprowadzić dla wszystkich rozpatrywa-

nych par linia biznesowa/czynnik ryzyka.

(6)

1.1. Szacowanie wielkości VaR na podstawie zagregowanego rozkładu strat

Wartość zagrożoną z tytułu ryzyka operacyjnego VaR można zdefiniować jako kwantyl odpowiedniego rzędu dla F (⋅) – dystrybuanty zagregowanych strat [Szkutnik, 2012b]:

VaR (S) = F (α) = inf l ∈ ℝ: F (l) ≥ α . (3) W przypadku zastosowania symulacji Monte Carlo będzie to wartość kwan- tyla empirycznego wyznaczonego dla dystrybuanty rozkładu zagregowanych strat. Do zasadniczych zalet miary VaR należą niewątpliwie łatwość estymacji (przy znajomości zagregowanego rozkładu zmiennej losowej) i prosta interpre- tacja, która informuje o najgorszej możliwej stracie, jaka może zajść przy zało- żonym poziomie ufności i w rozważanym przedziale czasu. Krytycy miary VaR postulują natomiast ograniczone zastosowanie i ostrożność w implementacji z uwagi na fakt, że nie jest to miara koherentna, ponieważ nie w każdym przypadku zachodzi relacja subaddytywności, tj. relacja postaci ρ(X + Y) ≤ ρ(X) + ρ(Y) [Szkutnik, 2011b].

1.2. Agregacja ryzyka

Zakładając idealną korelację pomiędzy kategoriami ryzyka (tzn. straty zajdą w tym samym momencie), wielkość VaR dla całego rozpatrywanego problemu (wszystkie ujęte w badaniu kategorie ryzyka) jest sumą wielkości VaR S dla poszczególnych kategorii (i-ta linii biznesowa, j-ty czynnik ryzyka). W ogólnym przypadku, rozważając wszystkie osiem linii biznesowych i siedem czynników ryzyka, można wspomnianą zależność przedstawić za pomocą sumy:

VaR = VaR S . (4)

Jeśli przyjmuje się założenie o występowaniu pewnego rodzaju zależności pomiędzy różnymi składnikami, można szacować wielkości ryzyka, korzystając z poznanych związków. Typy zależności, jakie mogą występować przy określa- niu łącznej wielkości strat za pomocą miary VaR, mogą być rozważane jako zależności wewnątrz poszczególnych kategorii ryzyka, jak i zależności pomię- dzy rozpatrywanymi kategoriami ryzyka. Taka liczba możliwych relacji w zna- czący sposób komplikuje całą analizę. Należy podkreślić, że charakter zależno-

(7)

ści pomiędzy kategoriami ryzyka, na jaką zwracają szczególną uwagę rekomen- dacje BCBS, to zależność pomiędzy zagregowanymi wielkościami strat dla po- szczególnych kategorii ryzyka [Chernobai i in., 2007, s.261].

Zależność pomiędzy zagregowanymi stratami odnosi się do wielkości dla poszczególnych kategorii ryzyka w rozpatrywanym przedziale czasu. Zależność dla danych zagregowanych wyraża łączny efekt zależności w dziedzinie częstości i w dziedzinie dotkliwości strat. W zagadnieniach ryzyka operacyjnego przyjmu- je się najczęściej, że zależność w dziedzinie częstości strat może być znacząca przy jednoczesnym założeniu, że zależność w dziedzinie dotkliwości strat jest niewielka [Chernobai i in., 2007, s.260]. Niemniej jednak warto wspomnieć, że nie zawsze silna zależność np. w dziedzinie częstości pomiędzy różnymi katego- riami ryzyka musi skutkować równie silną zależnością obserwowaną w zagre- gowanych rozkładach strat dla tych kategorii. Badania [Frachot i in., 2004, s. 5]

pokazują, że przy rozważaniu zależności tylko w dziedzinie częstości dla dwóch kategorii ryzyka związek nie musi się koniecznie przenosić w równym czy po- równywalnym stopniu na zależność w zagregowanych wielkościach strat. W ba- daniach, jakie są tam przeprowadzone, poddana została weryfikacji zależność (liniowa) pomiędzy dwoma częstościami zdarzeń N i N , przy jednoczesnym założeniu o braku zależności pomiędzy wielkościami pojedynczych strat. Auto- rzy pokazują, że nawet przy silnej korelacji liniowej pomiędzy częstościami zagregowane wielkości strat wykazują niewielką korelację liniową. Jest to w szcze- gólności prawdą, gdy straty operacyjne należą do grupy strat o wysokiej dotkli- wości (tzw. high severity). W tym przypadku brak zależności w dziedzinie do- tkliwości w zwyczajny sposób dominuje zależność w dziedzinie częstości.

Rozważana jednak w powyższym przypadku korelacja o charakterze linio- wym nie jest w stanie uchwycić wszystkich form zależności, z jakimi można się spotkać w praktyce. W przypadku stosowania współczynnika korelacji liniowej Pearsona decydującym założeniem, jakie musi być spełnione, jest założenie o wie- lowymiarowym rozkładzie normalnym. Jeśli nie jest to spełnione, to stosowanie współczynnika korelacji liniowej Pearsona jako miary zależności nie jest najlep- szym rozwiązaniem [Moosa, 2006, s. 170]. W sytuacji, gdy jest potrzeba rozwa- żenia zależności o charakterze nieliniowym, jednym z powszechnie stosowanych podejść jest zastosowanie funkcji copula. Funkcje copula są używane do połą- czenia dwóch lub więcej rozkładów w celu otrzymania wspólnego rozkładu charakteryzującego się określoną formą zależności pomiędzy rozważanymi zmiennymi losowymi.

(8)

1.3. Funkcje copula

Funkcje copula to wielowymiarowe dystrybuanty z jednostajnymi rozkła- dami brzegowymi na przedziale [0,1]. Jednym z podstawowych twierdzeń w teorii funkcji copula jest twierdzenie Sklara, na podstawie którego można zdefiniować zależność:

F(x , … , x ) = C F (x ), … , F (x ) . (5) Przy założeniu ciągłości funkcji F , … , F , funkcja C wyznaczona jest jed-

noznacznie, tj. istnieje jedyna taka funkcja copula spełniająca relację z twierdze- nia Sklara.

W celu wyznaczenia całkowitego ryzyka operacyjnego dla badanej instytu- cji finansowej zastosowano funkcję copula t-Studenta (oznaczoną , (⋅) ), przedstawioną jako:

C (u , … , u ) = , t (u ), … , t (u ) , (6)

gdzie wielkość , (x , … , x ) jest łączną dystrybuantą rozkładu t-Studenta z v stop- niami swobody i macierzą korelacji .

2. Badanie empiryczne

W badaniu zostały wykorzystane dane dotyczące strat operacyjnych pocho- dzące z pewnego banku, którego nazwa z powodów poufności danych została celowo ukryta. Analizą objęto dane z pięciu kolejnych lat. Na podstawie dostęp- nych danych wyróżniono dwie linie biznesowe, które będą modelowane według tej samej koncepcji, następnie wyniki będą agregowane z wykorzystaniem teorii funkcji copula.

Ze względu na wspomniany stopień poufności danych prezentowane wy- kresy w dalszej części pracy pozbawione są skali mogącej stanowić podstawę do poznania rozmiaru strat z tytułu ryzyka operacyjnego. Oszacowane parametry rozkładów dla procesów częstości i dotkliwości strat nie są prezentowane, pod- stawowe statystyki opisowe, wyniki odpowiednich testów dopasowania rozkła- dów prawdopodobieństwa do danych empirycznych również nie będą podane.

Niemniej jednak zastosowanie pewnych konkretnych i nazwanych w pracy roz- kładów prawdopodobieństwa świadczy o spełnieniu założeń odpowiednich testów statystycznych co do ich właściwego wyboru (poziom istotności we wszystkich testach przyjęto jako 0,05).

(9)

Badanie będzie polegało na przedstawieniu w pierwszej kolejności sposobu modelowania dla jednej wybranej linii biznesowej. Przedstawiona metodologia będzie się opierała na wykorzystaniu rozkładu GPD (Generalized Pareto Distri- bution, uogólniony rozkład Pareto) do modelowania prawego ogona rozkładu dotkliwości strat powyżej określonego progu u oraz rozkładu logarytmiczno- -normalnego dla pozostałych danych. Do wyboru progu u wykorzystano wykres średniego szeregu przekroczeń (jako metodę subiektywną) oraz metodę Gere- tensgarbe-Wernera jako inny sposób określania progu (traktowany jako metoda bardziej zobiektywizowana).

W dalszej kolejności zostaną przedstawione wyniki podsumowujące dla dwóch linii biznesowych jednocześnie. Informacje prezentowane w odpowied- nich tabelach pozwolą na ocenę efektu, jaki będzie wywierała zmiana sposobu modelowania prawego ogona rozkładu za pomocą rozkładu GPD. Ponadto zo- stanie uwzględniony możliwy do osiągnięcia efekt dywersyfikacji oparty na rozważeniu zależności na podstawie teorii copula w odniesieniu do prostego sumowania wielkości odpowiedniej miary ryzyka.

2.1. Modelowanie pojedynczej linii biznesowej 2.1.1. Proces częstości strat

Modelowanie procesu częstości strat może się opierać na przyjęciu jednego z dyskretnych rozkładów prawdopodobieństwa (w przypadku stacjonarności danych) lub założeniu, że proces strat będzie procesem stochastycznym (w przy- padku niestacjonarności danych). Procesy stochastyczne, które można zastoso- wać do modelowania częstości strat operacyjnych, muszą uwzględniać jego specyficzne własności. Procesem, który znajduje w takich przypadkach zasto- sowanie, jest proces Poissona z funkcją intensywności λ(t) określoną w sposób deterministyczny lub stochastyczny. W przypadku deterministycznej funkcji λ(t) funkcją tą może być np. wielomian określonego stopnia (w przypadku, gdy za- chodzi konieczność uwzględnienia w modelowaniu sezonowości lub zjawisk o charakterze cyklicznym) [Kuhl i Wilson, 2000]. Dla przypadku stochastyczne- go wielkość λ(t) może być modelowana rozkładem Poissona (w takim przypad- ku wyróżnia się model Coxa, tj. podwójny stochastyczny proces Poissona).

W celu oszacowania odpowiedniej funkcji prawdopodobieństwa dotyczącej częstości występowania zdarzeń okres pięcioletni został podzielony na miesiące.

Na tej podstawie uzyskano zagregowane wyniki dotyczące częstości wystąpienia

(10)

zjawisk w 60 następujących po sobie miesiącach. W omawianym przypadku do modelowania częstości występowania strat zastosowano rozkład ujemny dwu- mianowy. Wybór został dokonany na podstawie wyników testu χ (wyniki testu nie są publikowane) w porównaniu do rozkładu Poissona. Zrezygnowano z mo- delowania procesu stochastycznego, gdyż nie zaobserwowano zjawisk wskazu- jących na niestacjonarność danych.

2.1.2. Rozkład dotkliwości strat

Modelowanie rozkładu dotkliwości strat musi być w szczególności nasta- wione na modelowanie jego prawego ogona. Ekstremalne straty występują rzad- ko, jednak ich wpływ na całkowitą wielkość zagregowanego ryzyka dla danego przekroju analitycznego może być znaczący. Z uwagi na fakt, iż modelowanie jednym rozkładem prawdopodobieństwa może w niedostatecznym stopniu uwzględniać straty o największej dotkliwości dla banku, w tej części pracy pre- zentowany jest sposób modelowania, oddzielnie od pozostałej części rozkładu, jego prawego ogona (powyżej określonego progu u).

Modelowanie procesu dotkliwości zostało podzielone na modelowanie da- nych poniżej i powyżej danego progu u (gdzie ij oznaczają odpowiednio linię biznesową i czynnik ryzyka). W przypadku danych poniżej wartości progowych do modelowania został wybrany rozkład log-normalny, natomiast w przypadku danych przekraczających wielkość progową rozkład GPD. Powyższe ustalenia przedstawia następująca zależność [Di Clemente i Romano, 2004, s. 192]:

F,(x) =

Φ ( , )

( , ) 0 < < (i, j)

1 − ( , )

, 1 + ξ(i, j) ( , )( , ) ( , ) u(i, j) ≤ x , (7) gdzie wartość progowa u(i, j) jest początkową wielkością, dla której dane są mo-

delowane zgodnie z rozkładem GPD. Parametry μ, σ to parametry rozkładu loga- rytmiczno-normalnego, a parametry , β, ξ to parametry rozkładu GPD. W celu zapewnienia monotoniczności dystrybuanty F,(x) wielkość progowa zdefiniowa- na jest jako największa wartość x spełniająca relację [Szkutnik i Basiaga, 2013]:

Φ ( , )

( , ) < 1 − , (8)

gdzie wielkość N jest liczbą historycznych strat przekraczających wielkość u.

Rozkład dotkliwości strat ponad wartość u(i, j) jest zdefiniowany następująco:

(11)

F (x) = P(X − u ≤ x | X > ), x ≥ 0. (9) Modelowanie oddzielnie prawego ogona rozkładu za pomocą GPD, jak po- każe badanie, będzie bardziej efektywne, a straty o największej dotkliwości będą miały realny wpływ na wielkości ryzyka rozumianego jako wartość kwantyla odpowiedniego rzędu (zgodnie z koncepcją miary VaR).

Kluczowym elementem w rozdzielnym modelowaniu F,(x) jest wybór progu u(i, j), a co za tym idzie liczba zdarzeń powyżej niego. Jakość estymato- rów GPD uzależniona jest od liczby przekroczeń progu u(i, j) zgodnie z koncep- cją zawartą w teorii wartości ekstremalnych i twierdzeniach Pickandsa oraz Bal- kem-de-Haan [Embrechts i in., 1997, s. 168].

Dystrybuanta rozkładu GPD

GPDξ,σ,μ (x) = 1 − 1 + ξ σμ ξ,jeśli ξ ≠ 0 1 − exp −

σ ,jeśli ξ = 0

, (10)

gdzie x ∈ D(ξ, σ, μ)

D(ξ, σ, μ) = [0, ∞) dla ξ ≥ 0

[0, −σ ξ⁄ ] dla ξ < 0. (11)

Można również skorzystać z jego dwuparametrycznej wersji, przyjmując za μ = 0, zatem będziemy w tym przypadku oznaczać rozkład jako GPD, , co jest równoważne zapisowi GPD , , .

Szereg przekroczeń

Można zdefiniować dystrybuantę dla szeregu przekroczeń jako:

F (y) = P(X − u ≤ y | X > ) = P(Y ≤ y|X > )

y ≥ 0. (12)

Powyższa wielkość określa prawdopodobieństwo, że strata przekroczy próg u o wartość nie większą niż y, pod warunkiem, że próg ten zostanie przekroczony.

Jest to prawdopodobieństwo warunkowe.

Dystrybuantę w powyższym wzorze można zapisać jako [Embrecht i in., 1997, s. 354]:

F(u + y) = F(u)F (y). (13)

(12)

Daje to możliwość modelowania oddzielnie rozkładu F za pomocą F(u) i F (y). Zastosowanie rozkładu GPD do modelowania ogona pewnego rozkładu ma podstawy teoretyczne w twierdzeniu Balkema i de Haana oraz w twierdzeniu Pickandsa, które mówią, że dla pewnej klasy rozkładów właśnie rozkład GPD jest rozkładem granicznym [Embrecht i in., 1997, s. 168].

Oczywiście nie jest to zawsze prawdziwe, a nieznany rozkład F(⋅), którego ogon będzie modelowany za pomocą rozkładu GPD, musi należeć do rodziny rozkładów MDA. MDA to tzw. maksymalny obszar przyciągania uogólnionego rozkładu wartości ekstremalnych (czyli rozkładu GEV). Do rodziny tych rozkła- dów należą rozkłady: Pareto, Burra, loggamma, Cauchy’ego, t-Studenta, log- normalny oraz wiele innych [Embrecht i in., 1997, s. 158].

Właśnie dla rodziny rozkładów MDA twierdzenie Balkema, de Haana i Pic- kandsa mówi, że dla wystarczająco wysokiej wartości progowej u rozkład prze- kroczeń ponad tę wartość może być modelowany za pomocą rozkładu GPD.

Kluczowym w tym momencie staje się wybór wartości u, który będzie de- terminował modelowany ogon rozkładu. Przyjęcie zbyt dużej wartości progowej u będzie skutkowało zbyt małą liczbą przekroczeń i w konsekwencji wysoką wariancją estymatora. Z drugiej strony zbyt mała wartość u nie pozwoli na sko- rzystanie z rezultatu Pickandsa, Balkema i de Haana i estymatory parametrów będą obciążone.

Jak widać, wybór wartości progowej u będzie wyborem pomiędzy zwięk- szoną wariancją a obciążonością estymatorów.

Istnieje kilka metod wyboru optymalnej wartości u. Nie wszystkie dają identyczne wyniki i niekiedy metody są niejednoznaczne, a wybór może w dużej mierze zależeć od badacza, jednak nie jest to wybór do końca subiektywny. Wy- bór progu przekroczeń zostanie przedstawiony tylko dla jednego przekroju anali- tycznego. Dla drugiego przekroju analitycznego dokonano identycznych ra- chunków, określając wielkość progową. Ze względu na poufność danych zdecydowano się tu przedstawić idee postępowania tylko na jednym przykładzie.

Mean Excess Plot – wykres średnich przekroczeń

Wiedząc, że estymatorem funkcji średnich przekroczeń e(u) = E(X − u|X > ) jest [Embrecht, i in., 1997 s. 355]:

e (u) = 1

N (X − u)

( )

, (14)

(13)

w b c r w g o n m

R

g c m wyk boo cją rze wid gow obs nicz moż

Rys

go o cje mod

kres ogon stał

M mi docz wa u

erw N zon żna

s. 1.

Pr obs pow delo

s śr now łą, a Meto

iejsc zny u to wacj Na ry

nej s a by

Wy rzyj serw wyż owa

redn wyc

a dl oda ca, y du o w je z ys.

ska yło p

ykre jęta wacj żej aniu

niej ch je

la ro wy w uży wart zacz

1 z ali ( pop

es śr a na je b tej u. Z

j lic est ozk ybor któ roz tość zyn zam (prz praw

redn a ry będ wa Ze

czb wy kład ru w órym zrzu ć, d nają mies

zeds wie

nich ys. 1 dą m rtoś wz

by p ykre dów war m w ut w dla k się zcz staw

zlok

h pr 1 ar mod ści zglę

prze esem w z c

rtoś wyk war

któr ę od zony wio

kali

rzek rbitr delo

będ ędu

ekro m ro cien ści p kres rtośc rej dchy

y je no izow

krocz raln owa

dą n na

ocz osn nkim pro s je ci i cha ylać est w

wie wać

zeń nie ane nale a gr

zeń, nący mi gow est

i na arak ć

wyk elko ć w

ń wa za p eżał

rub , tj.

ym, ogo wej lini ależ kter kre ośc warto

artoś pom ły d boog

. M dla ona

u w iow ży j

r lin s śr ci ty ość

ść p moc do o gon

Mean a ro

mi w ty wy,

ą p niow redn ylko pro

pro cą r ogon now

n E ozkł pow ym dla om wy nich o d ogow

gow rozk

na r wy c

Exce ładó win m prz

pr miną wy h w o o wą

wa w kład

roz cha

ess ów nien zyp awe ąć w ykre wart

okre u,

wsk du G kła arak

Plo wy n dą padk

ej c w an esu tośc eślo stąd

kaz GPD adu kter

ot d ykła ążyć ku o częś nali u się ci p oneg

d sk

zuje D. W

i w ro

dla adni ć do opie ści izac ę ko prze

go kala

e mo Wsz wezm

ozkł roz iczy o ze

era wy ch.

ońc ekro mie a nie

ome zyst mą ładu

zkła ych era.

się ykre

Wa czy, ocze ejsc e je

ent tkie udz u d

adó h jes ę na esu arto , a eń w ca), est p

, od e ob ział dotk

ów st fu a wy bę ość kol w o tak pod

d kt bser ł w j kliw

gru funk ybo ędzi pro lejn ogra k b

ana

tóre rwa jeg wośc

u- k- o- ie o- ne

a- y a.

e- a- go

ci

(14)

strat, 10% największych strat stanowi ponad 60% ogółu łącznych strat dla ban- ku. Przy ustalaniu progu należy postępować tak, by wykres średnich odchyleń poniżej tej wartości był liniowy lub raczej zbliżony do liniowego (należy pod- kreślić, że jest to wybór subiektywny, a ocena liniowości nie opiera się na meto- dach statystycznych).

Metoda Geretensgarbe-Wernera

Subiektywny wybór progu oparty na wykresie średnich przekroczeń może nie znaleźć akceptacji w procesie decyzyjnym. Niekiedy preferowane są zauto- matyzowane procedury i metody, które pozwalają dokonać wyboru w sposób niezależny od badacza. Metoda Geretensgarbe-Wernera jest dużo bardziej jed- noznaczna w tym aspekcie, co zostało przedstawione przez Cebrian i innych [Cebrian, 2003, s. 24-25].

Idea tej metody opiera się na wyznaczeniu wartości różnic Δ pomiędzy ko- lejnymi statystykami pozycyjnymi X[ ]≤ ⋯ ≤ X[ ], gdzie:

Δ = X[ ]− X[ ], i = 1, … , n − 1. (15) Założenie mówi, że wielkości Δ pomiędzy wartościami ekstremalnymi bę- dą się znacząco odróżniać od wielkości Δ dla pozostałej części statystyk pozy- cyjnych. Zmiana zachowania ma w teorii być wykryta w dziedzinie pierwszych różnic szeregu przekroczeń. Punkt tej zmiany ma wyznaczyć wartość progową u.

W tym celu zostanie zastosowana tu sekwencyjna wersja testu Manna- -Kendalla. Dla każdego podciągu Δ , … , Δ , dla j = 2, … , n − 1 należy wyzna- czyć n − 2 statystyk, danych jako:

U= n , (16)

gdzie n określa dla każdego elementu Δ , i = 2, … , j liczbę wielkości Δ , … , Δ mniejszych niż Δ . Odpowiednio dalej zostaje wyznaczona wielkość znormalizowanych wartości U, zdefiniowanych jako:

U = U−j(j − 1) 4 j(j − 1)(2j + 5)

72

. (17)

Identyczną procedurę wyznaczenia wielkości danej powyższym wzorem przeprowadza się dla statystyki pozycyjnej postaci X[ ]≥ ⋯ ≥ X[ ].

(15)

W ten sposób otrzymywane są wielkości U (na wykresie oznaczone

„U_górne” dla ciągu malejącego oraz „U_dolne” dla ciągu rosnącego dla wiel- kości odpowiednich statystyk pozycyjnych).

Rys. 2. Wykres wartości testu Manna-Kendalla

Rys. 2 przedstawia wykresy wartości z testu Manna-Kendalla. Przecięcie dwóch wartości następuje w okolicach statystyki pozycyjnej o indeksie ≈ 600.

Wskazana wartość na podstawie tego wykresu jest bardzo zbliżona do wartości wskazanej na podstawie wykresu średnich przekroczeń. W powyższej części zostały zawarte szczegóły pozwalające zrozumieć ideę wykorzystania rozkładu GPD do modelowania ogona nieznanego rozkładu. Wszystkie dalsze informacje można znaleźć w pracach [Embrecht i in., 1997, Klugman i in., 2008] .

Aplikacja modelu

Przyjęto, że do modelowania prawego ogona rozkładu zostanie wykorzysta- nych ok. 15% wartości. Wartość odpowiadająca 15% przypadków jest to wartość podawana często w literaturze, ponadto z badania otrzymano wyniki na zbliżo- nym poziomie.

0 5 10 15 20 25

1 51 101 151 201 251 301 351 401 451 501 551 601 651 U_dolne U_górne

(16)

z d i p

R

d n b z o p n n n p o zost dop i ro pod

Rys

delo ny bard zagr o ki perc neg nyc nie prob ope

W tał z paso ozkł dano

s. 3.

N owa

z ta dzie reg ilka cen Za go d

h ro prz blem erac

W ce zam owa

ładu o tu

Dy Na ry

anie akim ej w

ow aset tyla ach dla d

ozk zed mu cyjn

elu mies anyc u G u sk

ystry ys.

e og m u wiar

any t tys a dl how dotk kład dstaw

i w nego

zap szcz ch GPD

kali

ybua 3 w gon uwz rygo y m

sięc la m wani kliw dów

wić wsk o w

prez zon roz D dl dla

anta wida a ro zglę odn mode

cy l miar ie o woś w wy

ć w kaza w ba

zent ny ry zkła

la o a wa

a em ać d ozk ędni ny. D

el m ub ry V ogon ści b yko wszy

anie anku

tow ysu adów

ogo arto

mpir dosk kładu ieni Dla móg

naw VaR

na był orzy ystk e ki u.

wan unek

w, t ona

ości

rycz kon u d iem a in

głby wet

).

roz ło tr ysta kich

ieru ia s k dy

tj. r roz i OX

zna nale dotk m w tere y n kil zkła rud anyc

h je unk

D D P

stop ystr

rozk zkła X z

oraz e, ja kliw warto

esuj nie

lka adu dne

ch d ego ku z

Dystr Dystr Praw

pnia rybu kład adu

e w

z dy ak z wośc ości jący dos mil na do do m

ce zmia

rybua rybua wy ogo

a, w uan

du (m wzgl

ystry zasto ci st

i ek ych szac lion a po uch mod ech.

an,

anta e anta t

on ro

w ja nty e

log mod

lędu

ybu oso trat.

kstr w cow nów odst hwy delo . St jak

empi teore ozkład

akim emp gary delo

u na

uant owan

. Ro rem

bad wyw w zł

taw ycen owa tąd kie

ryczn etyczn du –

m je piry ytm wan a po

ty do nie ozk maln dan wać ł (w wie j

nia ania

ko mo

na na –

Rozk

est yczn miczn neg ouf

opa roz kład nych niu w

wi w za jed , po a ca onie ożna

Rozk kład G

mo nej no- go p fnoś

asow zkła d do h uj wys ielk ależ dneg

onie ałoś eczn

a w

kład L GPD

odel ora -nor pow ść d

wany adu otkli jmu sok kośc żnoś go r ewa ści z noś wdro

LOGN

low az w

rma wyż dany

ych GP iwo uje kich

ci p ści o

rozk aż ż

zjaw ć g oży

N

wany wyk

alne żej w

ych

roz PD w ości

zja wa pono od kła żade wisk głęb yć w

y og kres ego war h).

zkła wpł str awis

arto oszo

wyb du en z ka n bsze w an

gon y d (oz rtoś

adów łynę rat m

sko ości one ybor par z ro nie ej e nali

n ro dystr

zn.

ści

w ęło mod w per ego ru w

ram ozp

był eksp izę

ozkł tryb Lo u).

na delo

spo rcen ryz wart metr

atry ł w plor

ryz ładu buan ogN Ni

mo owa osó nty zyk tośc rycz ywa w sta racj zyk

u, nt N)

ie

o- a- ób

li ka

ci z- a- a- ji ka

(17)

2.2. Agregacja danych na podstawie funkcji copula

Z uwagi na całościowy aspekt problemu, tj. określenie poziomu ryzyka operacyjnego dla banku – wyznaczono odpowiednie wielkości przy zastosowa- niu modelu LDA dla pojedynczych przekrojów analitycznych (według zaprezen- towanego we wcześniejszej części schematu) i późniejszym określeniu wielkości łącznej przy założeniu zależności dla zagregowanych danych, wychodząc od przyjętej do rozważań funkcji copula C .

W tabeli 1 przedstawiono wpływ przyjęcia prezentowanej metodologii (opartej na podziale zbioru dotkliwości na modelowanie powyżej u(i, j) rozkła- dem GPD) w odniesieniu do potencjalnej koncepcji opartej na modelowaniu roz- kładem logarytmiczno-normalnym całego zakresu danych. Tabela 1 przedstawia relatywne zmiany w odniesieniu do przejścia z kwantyla 0,99 na kwantyl 0,999.

Postępowanie takie ma pokazać, jak zmiana wartości percentyla dla zagregowane- go rozkładu strat wpływa na poziom ryzyka określonego jako VaR (w nawiasie przy mierze VaR znajduje się informacja o rodzaju przekroju analitycznego – indeks dolny (1, 2) oraz sposobie modelowania dotkliwości strat – indeks górny, odpowiednio oznaczenie GPD informuje, że modelowany był oddzielnie początek i środek rozkładu od prawego ogona, natomiast LN – że jako kompleksowy model dotkliwości przyjęty został rozkład logarytmiczno-normalny).

Tabela 1. Wpływ rzędu VaR na relatywne zmiany poziomu ocenianego ryzyka

VaR, (L ) VaR, (L )

VaR, (L ) VaR, (L )

VaR, (L ) VaR, (L )

VaR, (L ) VaR, (L )

Względne zmiany 126% 243% 335% 589%

Rozdzielnie dla wartości α = 0,99 oraz α = 0,999 porównany został wpływ rozkładu GPD w odniesieniu do rozkładu logarytmiczno-normalnego na zagregowaną wielkość ryzyka względem każdego z dwóch przekrojów anali- tycznych, co przedstawia tabela 2.

Tabela 2. Wpływ zmiany sposobu modelowania ogona rozkładu VaR, (L )

VaR, (L )

VaR, (L ) VaR, (L )

VaR , (L ) VaR, (L )

VaR, (L ) VaR, (L )

Względne zmiany 119% 228% 277% 505%

(18)

Tabela 3 przedstawia względny efekt dywersyfikacji uzyskany dzięki wy- korzystaniu funkcji copula-t (z wartością współczynnika korelacji oszacowaną na poziomie 0,44) w odniesieniu do rygorystycznej propozycji BCBS, zakłada- jącej doskonałą korelację zdarzeń (sumowanie wielkości VaR).

Tabela 3. Ocena względnego efektu dywersyfikacji VaR, (L )

VaR, (L )

VaR, (L ) VaR , (L )

VaR, (L ) VaR, (L )

VaR, (L ) VaR, (L ) Względne

zmiany 79,21% 86,19% 88,9% 93,6%

Najmniejsza korzyść z efektu dywersyfikacji zauważalna jest w przypadku mo- delowania danych przy uwzględnieniu ich gruboogonowego charakteru przekładają- cego się na zagregowany poziom ryzyka dla każdego z przekrojów analitycznych.

Podsumowanie

W badaniu została przedstawiona koncepcja modelowania ryzyka operacyj- nego w banku. Model ogólny zakłada dowolną liczbę przekrojów analitycznych, jakimi są konkretne pary linia biznesowa – czynnik ryzyka. Badanie opiera się na danych pochodzących z pewnej instytucji finansowej, dla której nie zostały podane takie wielkości jak: nazwa oraz określone wartości związane ze skalą jej działalności i identyfikacją procesów dotyczących strat, takich jak ich częstość oraz dotkliwość. W związku z powyższymi ograniczeniami badanie mogło po- kazywać tylko i wyłącznie względne zmiany prezentowanych konkurencyjnych rozwiązań. Z dostępnych danych wybrano okres pięciu kolejnych lat i zidentyfi- kowano tylko dwa zasadnicze przekroje analityczne. Dotyczyły one dwóch linii biznesowych i zaistniałych w tych liniach czynników ryzyka. Podział ten nie jest zgodny z podstawowymi wytycznymi BCBS, jednak jest dopuszczalny w ra- mach tworzenia wewnętrznego modelu w banku, polegającego na łączeniu od- powiednich zakresów działalności lub czynników ryzyka.

W pierwszej kolejności zostały zbudowane modele dla każdego z dwóch wyróżnionych przekrojów, nazwanych odpowiednio L1 i L2. Dla zakresów L1 i L2 stworzono odpowiednie modele według zaprezentowanej w pracy koncepcji modelowania. W szczególności dopasowano model dla częstości strat jako mo- del zgodny z rozkładem ujemnym dwumianowym.

(19)

W następnej kolejności dopasowano dla dziedziny dotkliwości odpowiednie modele oparte na wartości progowej wyznaczonej za pomocą funkcji szeregu przekroczeń oraz na podstawie metody Geretensgarbe-Wernera. Przedstawiono tylko sposób modelowania dla zakresu L1. Dla zakresu L2 sposób wyznaczania wartości progowej u i, j został realizowany w identyczny sposób (wyznaczając inną wartość progową – odpowiednią dla modelowanych danych).

W badaniu przeanalizowano różnice w zastosowaniu podejścia opartego na stosowanej często w praktyce koncepcji modelowania dotkliwości strat za po- mocą jednego rozkładu (tu został wyznaczony rozkład logarytmiczno-normalny jako rozkład referencyjny) w odniesieniu do dwóch wielkości miary VaR (na poziomie 0,99 oraz 0,999).

W dalszej kolejności określono zależność dla miesięcznych zagregowanych danych dotyczących wielkości strat jako funkcję copula-t z oszacowanym po- ziomem korelacji wynoszącym 0,44. Zastosowanie funkcji copula zostało przed- stawione w konfrontacji z założeniem o doskonałej korelacji pomiędzy zakresa- mi L1 i L2 (według koncepcji BCBS). Na podstawie przeprowadzonego badania można zanotować znaczący spadek wielkości ryzyka tylko w przypadkach, gdy przy określaniu zagregowanego rozkładu zostanie zastosowane rozwiązanie niemodelujące prawego ogona rozkładu dotkliwości strat, niezależnie od przyję- tego poziomu wielkości ryzyka, tj. poziomu 0,99 oraz 0,999. W przypadku za- stosowania koncepcji dokładnego modelowania ogona rozkładu dotkliwości, bazując na koncepcji teorii wartości ekstremalnych i aplikacji modelu GPD do modelowania prawego ogona rozkładu powyżej wartości u i, j , można zaob- serwować jedynie ok. 7-proc. spadek wartości ryzyka dla całego poziomu opera- cyjnego (dla wielkości VaR na poziomie 0,999). Wskazuje to na pewne ograni- czenia w zastosowaniu efektu dywersyfikacji w sytuacji, gdy zagregowany rozkład jest zdeterminowany przez gruby ogon rozkładu dotkliwości.

Literatura

BIS (2010), Recognising the risk-mitigating impact of insurance in operational risk modelling, http://www.bis.org/publ/bcbs181.htm, October 28.

BIS (2011), Principles for the Sound Management of Operational Risk – final document, http://www.bis.org/publ/bcbs195.htm, June 30.

BIS (2013), Principles for effective risk data aggregation and risk reporting, http://www.bis.org/publ/bcbs239.htm, January 9.

(20)

Cebrian A.C., Denuit M., Lambert P. (2003), Generalized Pareto fit to the society of actuaries large claims database, „North American Actuarial Journal”, No. 7/3.

Chernobai A.S., Rachev S.T., Fabozzi F.J. (2007), Operational risk: a guide to Basel II capital requirements, models, and analysis, John Wiley & Sons.

Di Clemente A., Romano C. (2004), A copula-extreme value theory approach for model- ling operational risk [w:] M. Cruz (ed.), Operational Risk Modelling and Analysis.

Theory and Practice, Risk Books, London.

Embrechts P., Klüppelberg C., Mikosch T. (1997), Modelling Extremal Events: For Insurance and Finance, Springer.

Frachot A., Roncalli T., Salomon E. (2004), The correlation problem in operational risk, http://mpra.ub.uni-muenchen.de/38052/

Klugman S.A., Panjer H.H., Willmot G.E. (2008), Loss Models: From Data to Deci- sions, Wiley.

Kuhl M.E., Wilson J.R. (2000), Least squares estimation of nonhomogeneous poisson processes, „Journal of Statistical Computation and Simulation”, No. 67(1).

Matkowski P. (2006), Zarządzanie ryzykiem operacyjnym, Oficyna Ekonomiczna, Kraków.

Moosa I. (2007), Operational Risk Management, Palgrave Macmillan, New York.

Szkutnik T. (2011a), Wpływ rozkładu dotkliwości strat operacyjnych na wielkość wymo- gu kapitałowego szacowanego w oparciu o metodę LDA, Studia Ekonomiczne, Ze- szyty Naukowe Uniwersytetu Ekonomicznego w Katowicach, nr 66.

Szkutnik T. (2011b), Zastosowanie wybranych funkcji łączących w kwantyfikacji ryzyka operacyjnego w oparciu o metodę LDA, Prace Naukowe Uniwersytetu Ekonomicz- nego we Wrocławiu, nr 183.

Szkutnik T. (2012a), Zastosowanie funkcji łączących w kwantyfikacji ryzyka operacyjnego, Studia Ekonomiczne, Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowi- cach, nr 93.

Szkutnik T. (2012b), Zastosowanie funkcji łączących w wyznaczaniu granic dla Value- at-Risk, Zeszyty Naukowe Uniwersytetu Ekonomicznego w Krakowie, nr 895.

Szkutnik T., Basiaga K. (2013), The application of Generalized Pareto Distribution and copula functions in the issue of operational risk, „Econometrics”, No. 39(1).

THE INFLUENCE OF EXTREME EVENTS UPON THE BANK OPERATIONAL RISK ESTIMATED BY MEANS OF LDA METHOD Summary: The subject of the article is related to quantification of operational risk in a bank on the basis of LDA model. The study carried out in the article aims at evaluation of the scale of operational risk with the use of theory of extreme values in modelling the right tail of loss severity distribution. The article deals also with the problem of risk diversification with the consideration of dependences among various analytical sections by means of copula functions. Such an approach is motivated by contrary suggestions of

(21)

Basel Commitee in terms of Financial Supervision which consist in summing up indi- vidual Values at Risk out of particular analytical sections. The conclusions presented in the article allow to evaluate the influence of extreme events on VaR estimated for two analytical sections.

Keywords: Copula, EVT, operational risk, LDA.

Cytaty

Powiązane dokumenty

Omówiono tak¿e wstêpnie program dalszych badañ pozwalaj¹cych lepiej charakteryzowaæ pracê uk³adu przygotowania nadawy

Załóżmy, że Flawiusz spostrzegł, że znajduje się na pozycji j, ale ma możliwość wybrania parametru eliminacji q, tak, że eliminowana jest co q-ta osoba.. Czy zawsze może

Na podstawie anali- zy dopuszczalnych stężeń dla kadmu ujętych w rozporządzeniu KE [2011] oraz rozporządzeniu Ministra Środowiska [2003] można stwierdzić, że stężenie tego

Traktat między Królestwem Belgii, Królestwem Danii, Republiką Federalną Nie- miec, Republiką Grecką, Królestwem Hiszpanii, Republiką Francuską, Irlan- dią,

danego roku opłacić za następny rok składkę tylko za obowiązkowe ubezpieczenie następstw nieszczęśliwych wypad­ ków i odpowiedzialności cywilnej (§ 5 ust.

— Wiek można uznać za jeden z czynników determinujących ocenę po- szczególnych wartości (różnica istotna statystycznie w przypadku oceny 11 war-

Pakowanie w modyfikowanej atmosferze gazów przeprowadzono w jednokom orowym urządzeniu A 300/16 produkcji firmy M utivac z mikserem stosując dwie mieszaniny

Wartose ich waha si~ od 1,0 przy calkowitym podobienstwie do 0,0 przy calkowitym braku podobienstwa mi~dzy dwiema probkami.. Przez pozytywne podobienstwo dwoch probek