Stanisław Heilpern
Uniwersytet Ekonomiczny we Wrocławiu Wydział Zarządzania, Informatyki i Finansów Katedra Statystyki
stanisław.heilpern@ue.wroc.pl
ZALEŻNOŚĆ – FAKTY I MITY
Streszczenie: Artykuł poświęcony jest wybranym zagadnieniom zależności zmiennych losowych, które można opisać za pomocą funkcji łączących (kopula). Opisano związek dwuwymiarowego rozkładu normalnego z gaussowską funkcją łączącą wraz z najczęściej stosowaną miarą zależności: współczynnikiem korelacji Pearsona. Wnioski odniesiono do przypadku wielowymiarowych rozkładów eliptycznych, w szczególności rozkładów nor- malnych. Zbadano także rozkład sumy zmiennych losowych pod względem najczęściej stosowanej miary ryzyka, jaką jest VaR. Pokazano, że największe wartości tej miary wcale nie muszą zachodzić dla ścisłej zależności ani dla niezależności.
Słowa kluczowe: wielowymiarowe rozkłady normalne, funkcje łączące.
Wprowadzenie
Obecnie coraz częściej w modelach związanych z finansami czy ubezpiecze- niami rozpatruje się zależne procesy czy zmienne losowe [Denuit, Genest, Marceau, 1999; Embrechts, McNeil, Straumann, 2001; McNeil, Frey, Embrechts, 2005;
Wang, 1999]. Praca poświęcona jest wybranym zagadnieniom dotyczącym zależ- ności zmiennych losowych. Przedstawiono w niej pewne fakty, które w pierw- szym momencie mogą się kłócić z intuicją, z pewnymi ustalonymi poglądami związanymi z wielowymiarowymi rozkładami zmiennych losowych. Fakty te dotyczą wielowymiarowego rozkładu normalnego oraz najczęściej stosowanych w praktyce miar zależności i ryzyka: współczynnika korelacji Pearsona i wartości narażonej na ryzyko VaR.
Strukturę zależności zmiennych losowych X1, …, Xn można opisać za po- mocą funkcji łączących (kopula). Funkcja łącząca C jest łącznikiem między dystrybuantami brzegowymi Fi(x) zmiennych Xi a dystrybuantą F(x1, …, xn) rozkładu łącznego [Heilpern, 2007; Nelsen, 1999]:
F(x1, …, xn) = C(F1(x1), …, Fn(xn)). (1)
Stanisław Heilpern 86
Funkcja łącząca nie zależy od rozkładów brzegowych. Jest ona dystrybuan- tą rozkładu łącznego na [0, 1]n, którego rozkłady brzegowe mają rozkład jedno- stajny. Gęstość f rozkładu łącznego określona jest wzorem:
( , … , ) = ( ), … , ( ) ( ) … ( ), gdzie c jest gęstością funkcji łączącej C, a fi gęstością zmiennej losowej Xi.
Niezależności odpowiada funkcja łącząca Π(u1, … , un) = u1·… ·un, a ścisłej do- datniej zależności (współmonotoniczności) funkcja M(u1, … , un) = min(u1,…, un).
Oznaczmy symbolem ℱ(F1, … , Fn) zbiór wszystkich dystrybuant łącznych o tych samych dystrybuantach brzegowych Fi. Jest to tzw. klasa Frecheta−Hoeffdinga. Dla każdej dystrybuanty F ∈ ℱ(F1, … , Fn) zachodzą tzw. nierówności Frecheta [Nel- sen, 1999]:
max{F1(x) + … + Fn(x) – n + 1, 0} ≤ F(x, y) ≤ min{F1(x), … , Fn(x)}.
Funkcja max{F1(x) + … + Fn(x) – n + 1, 0} dla n > 2 nie musi być dystrybuantą.
W przypadku dwuwymiarowym W(u, v) = max(u + v – 1, 0) jest funkcją łą- czącą odpowiadającą ścisłej, ujemnej zależności (przeciwmonotoniczności).
Zmienne losowe X i Y są współmonotoniczne, gdy Y = ( ( )) i przeciw- monotoniczne, gdy Y = (1 − ( )).
W pracy będziemy wykorzystywać gaussowską funkcję łączącą określoną wzorem:
( , … , ) = Φ( )(Φ ( ), … , Φ ( )),
gdzie Φ( ) dystrybuanta n-wymiarowego standardowego rozkładu normalnego o macierzy korelacji R, a Φ jest dystrybuantą jednowymiarowego, standardowe- go rozkładu normalnego.
Punkt 1 poświęcony jest dwuwymiarowemu rozkładowi normalnemu. Po- każemy, że jest on ściśle związany z gaussowską funkcją łączącą. Następnie omówimy najczęściej stosowaną miarę zależności: współczynnik korelacji Pear- sona. Pokażemy jego wady: zależność od rozkładów brzegowych, brak nie- zmienniczości względem rosnących przekształceń oraz fakt, że dla ustalonych rozkładów brzegowych nie muszą być osiągalne wszystkie możliwe wartości tego współczynnika. W przypadku wielowymiarowych rozkładów eliptycznych, np. normalnych, współczynnik korelacji Pearsona nie ma tych wad. Na zakoń- czenie badamy rozkład sumy zmiennych losowych pod względem najczęściej stosowanej miary ryzyka, jaką jest VaR. Pokażemy, że największe wartości tej miary wcale nie muszą zachodzić dla ścisłej zależności ani dla niezależności.
Niestety, z takim poglądem można się niekiedy spotkać na wystąpieniach konfe- rencyjnych czy w publikacjach związanych z analizą portfelową.
1
s
a
p r n n g z n r
R Ź
1. R
stan
a m
para rozk nie nym gow zale niż row
Rys.
Źród
Roz
W ndar
maci
D ame
Br kład mu m. Z wym eżno nor wego
. 1. W dło: O
zkł
W d rdow
erz
wuw etru
rze d n usi w
Zac mi j ośc rma o ro
Wyk Opra
ład
dalsz wy
z ko
wym r. W gow norm wyn chod jest ci za
alne ozkł
kres cowa
d no
zych roz
orela
mia Wyk we r maln nik dzi t op ada e w ładu
dwu anie
orm
h r zkła
( )
acji
arow kres roz ny.
ać, tak pisa ana wielo
u n
uwy wła
mal
rozw ad n
)( ,
i prz
wy, s gę zkła Ni że k je ana jes owy orm
ymia sne.
lny
waż norm
, ) zyjm
stan ęsto ady iest roz edyn
gau st za ymi maln
arow
y
żani maln
= muj
nda ości wie tety zkła
nie, uss a p iaro neg
wego Z
iach ny.
2 uje p
ardo teg elow y, z
ad ł , gd ow om owe go.
o roz Zależ
h bę Jeg
1
√1 post
owy o ro wym
fak łącz
dy ską mocą
e ro
zkład żno
ędz go g
1
− tać:
= roz ozkł mia ktu, zny stru ą fu
ą in ozkł
du n ość –
ziem gęsto
:
= zkła
ładu arow , że
jes uktu unkc nnyc łady
norm – fak
my j ość
exp
1 ad n
u dl weg e ro st w ura cją ch y. N
maln kty i
jed okr p −
1 norm
la r go r ozkł wielo
za łąc fun Naw
nego i mi
dyni reśl
−
. maln
= 0 rozk
łady owy ależn cząc nkcj wet
ity
ie r lona
− 2
ny z 0,6 p kład y b ym noś cą.
ji łą ist
rozp a jes
− 2 (1
zale prze du n brze miaro
ści W ączą totn
patr st w
−
eży w edst
norm egow
owy mię prz ący nie r
ryw wzor
+ )
wię tawi mal we ym ędz zyp ych, różn
ać rem
ęc je iony lneg są roz y r padk
, ot ne
dw m [W
,
edyn y je
go m nor zkła rozk ku trzy
od wuw
Wan
nie st n maj rma adem kład
gdy ymu
wie wym
ng, 1
od j na ry ją r alne m n dam y st ujem
elow miaro
199
jedn ys. 1 rów e w norm mi b
truk my
wym 8
owy 99]:
neg 1.
wnie wcal mal brze ktur inn mia 87
y,
go eż le l- e- ra ne a-
8
P a
R Ź
b 88
Prz a. N
o
g m
a ł
Rys.
Źród
b. P n zykł
Nie o st
gdz man
a 1A łącz
Ry
. 2. G dło: O
Prz nyc
ład ech tand
zie nn,
A(t) zne
ysu
Gęst Opra
ykł ch [N
d 1 stru dard
fun 200
jes go
unek
tość cowa
ład Nel
uktu dow
nkcj 01]
st in opi
k 2
ć roz anie
syn lsen
ura wym
je f :
ndy isan
prz
zkład wła
ngu n, 1
zal m ro
f(t)
ykat na je
zeds
du łą sne n
ularn 999
leżn ozk
,
ora
( ( ) tore
est
staw
ączn na po
neg 9].
noś kład ( ,
az g
) = ) = em z
wz F wia
nego odsta
go r ści z dzie , )
g(t)
=
= − zbio zore F(x, a gę
o z p awie
rozk Sta
zach nor
=
za
( ,
(
oru em:
y) sto
przyk e [Em
kład anis
hod rma
adan
; ,
, ; ,
u A.
= C ść t
kład mbrec
du ł sław
dząc alny +
ne s
)(
, )( Wt
Cf,g( tego
du 1a chts,
łącz w He
cej ym
są w
) − ( ) +
tedy (Φ(
o ro
a , Mc
zneg eilp
mię opi ( )
wzo
−2 3 +2
3 y d ( ), ozkł
cNeil
go ern
ędz isan )
oram
(
2 3 ( dystr
, Φ(
ładu
l, Str
o b zy d
na j
mi
, ;
( , ;
ryb ( ) u.
raum
brze dwo
jest (
[Em
, )
, )
buan ).
mann]
egow oma
fun )
mbr
( )
) ( nta
].
wyc a zm
nkcj ,
rech
), ), otr
ch r mien cją ł
hts,
zym
roz nny łącz
, M
man
zkła ymi
zącą
McN
nego
adac los ą po
Neil,
o ro
ch n sow osta
, St
ozk
norm wym
aci:
trau
kład
mal mi
u-
du
l-
Zależność – fakty i mity 89
Niech C(u, v) będzie funkcją łączącą będącą dystrybuantą rozkładu jed- nostajnego skupionego na brzegu kwadratu utworzonego przez wykresy linii v = u + 0,5 i v = –u + 0,5 dla 0 ≤ u ≤ 0,5 oraz v = u – 0,5 i v = –u + 1,5 dla 0,5 ≤ u ≤ 1 (rys. 3a). Wtedy rozkład łączny z dystrybuantą opisaną wzorem:
F(x, y) = C(Φ( ), Φ( ))
skupiony jest na krzywych określonych równaniem (rys. 3b):
|Φ( ) − 0,5| + |Φ( ) − 0,5| = 0,5.
Z drugiej strony, sama gaussowska funkcja łącząca nie wyznacza nam wielowymiarowego rozkładu normalnego. Wstawiając do wzoru (1) gaus- sowską funkcję łączącą oraz inne niż normalne brzegowe dystrybuanty, nie otrzymamy dystrybuanty wielowymiarowego rozkładu normalnego.
a) b)
Rys. 3. Krzywe, na których skupiona jest funkcja łącząca (a) oraz rozkład łączny (b) z przykładu 1b Źródło: Opracowanie własne na podstawie [Nelsen, 1999].
Przykład 2. Rozpatrzmy dwuwymiarowy rozkład o dystrybuancie:
( , ) = , ( ), ( ) ,
gdzie H(x) jest dystrybuantą rozkładu jednostajnego na odcinku [−3, 3]. Na rys. 4 przedstawiona jest gęstość f(x, y) tego rozkładu. Widzimy, że wykres ten istotnie różni się od wykresu gęstości dwuwymiarowego rozkładu normalnego (rys. 1).
W punktach (−3, −3) oraz (3, 3) graniczna wartość gęstości jest równa nieskoń- czoności.
Gęstość f(x, y) z przykładu 2 została wyznaczona z następującego wzoru:
( , ) = , ( ), ( ) ℎ( )ℎ( ),
0 1
0 1 -3
0 3
-3 0 3
9
g s
R
Ź
2
s
g n z P 90
gdz sow
Rys.
Źród
2. M
son
gdzi niem zale Przy
zie h wski
4. W w dło: O
Mia
N a r
ie c m s eżno
ykła h(x) iej f
Wyk wyz Opra
ary
Najc okr
cov(
tand ości adow
) gę fun
kres znac cowa
y za
zęś reśl
(X, dard i lin
wo ęsto nkcj
gęs zon anie
ależ
ciej lony
Y) = dow niow zac
ości i łą
stośc ej pr wła
żno
j st y w
= E wym wej.
chod ią r ączą
ci ro rzez sne.
ośc
toso wzor
E(XY m zm
Nie dzi
ozk ącej
ozkła z gau
ci
owa rem
Y) – mie e je zale
r kład
j
adu usso
aną m:
– EX enne est o eżn (Φ(
du j m Φ
łącz owsk
mi
XEY ej X on n ość (X),
Sta
edn oże ( )
zneg ką fu
iarą
( , Y jes X. N niezm ć [Em , Φ(
anis
nost emy ), Φ
go dw unkc
ą za
, ) st k Nale mie mbr (Y))
sław
tajn y ob ( )
wóch cję ł
ależ
) = kowa
eży enni rech ) =
w He
nego blic ) =
h ro ączą
żnoś cov
aria jed iczy hts, a
eilp
o n zyć
=
ozkła ącą
ści v(
ancj dnak
y ze Mc arcs
ern
na [−
ć ko
( )
( )
adów
jes ,
ą zm k pa e wz cNe sin
−3, orzy ( , ) (
w je
st w ),
mie ami zglę eil, S
(
3].
ysta ) ( )
dno
wspó
enny iętać ędu
Stra
, )
. N ając
.
stajn
ółcz
ych ć, ż na aum
) . atom c z z
nych
zyn
X i że je
rosn mann
mia zale
h o s
nnik
i Y, est nąc n, 20
ast eżno
struk
k ko
a sX on ce pr
001 gęs ośc
kturz
orel
X je jed rzek 1]:
stoś ci:
ze z
lacj
est o dyni kszt
ść g
zależ
ji P
odch ie m tałc
gaus
żnośc
Pear
hyle miar enia
s-
ci
r-
e- rą a.
Zależność – fakty i mity 91
Współczynnik korelacji Pearsona jest jedynie niezmienniczy ze względu na rosnące przekształcenia liniowe, tzn. dla a, c > 0 zachodzi zależność:
r(aX + b, cY + d) = r(X, Y).
Kowariancję można zapisać w języku funkcji łączących wzorem [Em- brechts, McNeil, Straumann, 2001]:
cov( , ) = ( ( ( ), ( ))
∞
∞
− Π( ( ), ( ))) .
Widzimy, że na wielkość kowariancji, jak i współczynnika korelacji Pearsona r wpływa nie tylko funkcja łącząca, ale i dystrybuanty rozkładów brzegowych. Nato- miast inne współczynniki korelacji: Kendalla τ i Spearmana ρ są jednoznacznie wy- znaczone przez funkcje łączące [Embrechts, McNeil, Straumann, 2001]:
( , ) = 4 ( , ) ( , ) − 1,
( , ) = 12 ( ( , ) − ) .
Należy też pamiętać, że gdy wariancje nie istnieją, to nie można wyznaczyć współczynnika korelacji Pearsona r. Ponadto dla ustalonych rozkładów brzego- wych X i Y nie wszystkie wartości współczynnika korelacji Pearsona r są osią- galne dla wszystkich możliwych rozkładów łącznych, czyli elementów rodziny ℱ(FX, FY). Mówi o tym poniższe twierdzenie pochodzące od Höffdinga i Frecheta.
Twierdzenie 1 [Embrechts, McNeil, Straumann, 2001]. Jeżeli X, Y są zmienny- mi losowymi o dowolnej strukturze zależności z dystrybuantami FX, FY oraz 0 < σX < ∞, 0 < σY < ∞, to:
a. Zbiór wszystkich możliwych wartości współczynnika korelacji Pearsona jest domkniętym przedziałem [rmin, rmax] oraz rmin < 0 < rmax.
b. Najmniejszą wartość współczynnika korelacji rmin otrzymujemy wtedy i tylko wtedy, gdy zmienne X, Y są przeciwmonotoniczne, a największą rmax dla współmonotonicznych.
c. rmin = –1 wtedy i tylko wtedy, gdy zmienne X, –Y mają rozkłady tego samego typu. Natomiast rmax = 1, gdy X, Y mają rozkłady tego samego typu.
d. Gdy sup{x: FX(x) < 1} = sup{x: FY(x) < 1} = ∞ oraz X, Y ≥ 0, to nigdy nie otrzymamy r = –1.
Stanisław Heilpern 92
Ekstremalne wartości współczynnika korelacji Pearsona występują jedynie, gdy zmienne są zależne liniowo, czyli Y = aX + b. Wartość r = 1 otrzymamy, gdy a > 0 oraz r = –1 gdy a < 0.
Przykład 3
a. Niech zmienne losowe X i Y mają rozkład wykładniczy o dystrybuantach FX(x) = 1 – e-ax oraz FY(y) = 1 – e-by, gdzie a, b > 0. Największą wartość współczynnika korelacji otrzymamy dla współmonotonicznych zmiennych losowych. Wtedy Y = X oraz r(XY) = 1. Natomiast gdy zmienne te są prze- ciwmonotoniczne, to Y = − (1 − ) oraz:
( ) = − (1 − )
∞
=12 − 6 . Współczynnik korelacji jest wtedy równy:
( , ) =
12 −6 − 1
1 = 1 −
6. Podsumowując, otrzymujemy:
rmin = 1 − ≈ −0,6449, rmax = 1.
b. Załóżmy teraz, że zmienne mają rozkład logarytmiczno-normalny: zmienna X z parametrami 0 i 1, a Y z parametrami 0 i σ > 0. Wtedy [Embrechts, McNeil, Straumann, 2001]:
rmin = r(eZ, e-σZ) =
( ) ,
gdzie zmienna losowa Z ma rozkład standardowy normalny oraz:
rmax = r(eZ, eσZ) =
( )
.
R Ź
w c N z σ W w w
3
z
w
g
Rys.
Źród
war czy Nat zale σ = Wy w a wsp
3. S
zale
wte
gdz
. 5. W dło: O
Z rtoś m w tom eży 1, ykre R ana półc
Sum
Zb eżno
edy
zie:
War Opra
tw ści w
war mias
od a d esy ozk alizi czyn
my
bad ośc
dys
rtośc cowa
wierd wsp rtoś t w d wa dla σ war kład ie p nni
y zm
dam ci za
stry
ci rm anie
dze półc ść d w pr
arto σ >
rtoś d lo
por k k
mie
my t adan
ybua
, (
A
min i r wła
enia czyn doln
rzy ości 3,5 ści ogar rtfel kore
enn
era na j
anta ) =
A(s)
rmax sne n
a 1d nni nej ypad
i pa 5 w tych rytm low elacj
nyc
z ro jest
a su
=
) =
dla na po
d w ka gra dku aram wspó
h g micz wej.
ji P
ch
ozk t fun
umy
( )
K(s {(u
róż odsta
wyni kor anic u ro met ółcz gran zno N Pear
los
kład nkc
y SC
s) = u1, …
Z
nych awie
ika, rela cy r ozkł tru zynn nic:
o-no ależ rson
sow
d sum cją ł
C ok
= {(
…, Zależ
h wa e [Em
, że acji rmin
ładu σ. M nik
rmin
orm ży na.
wyc
my łącz
SC kreś
(
(x1, un)
żno
arto mbrec
e w r = nie u lo Ma k ko
n i r maln wi
ch,
y zm ząc
= X ślon ),
…, :
ość –
ści p chts,
ob
= –1 e za oga aksy orela
rmax
ny w ęc
, w
mien ą C X1 + na j
… ,
, xn) (
– fak
para , Mc
bydw 1. D ależ arytm yma
acji
x zo wyk w
wyz
nny C. N + …
est (
): x ( )
kty i
amet cNeil
wu Dla ży o
mic alną i jes ostał
korz tym
nac
ych Niec
… + wz (
1 + ) +
i mi
tru σ l, Str
prz zm od w
czn ą w st z ły p zyst m
cza
los ch:
Xn, zore
)
…
… ity
σ raum
zyp mien war o-n warto
zaw prze tyw prz
ani
ow
, em
=
+ x +
mann,
padk nnyc rtoś norm
ość wsze edst wany
zypa
ie V
wych
[He
( )
xn ≤
, 200
kach ch o ci w maln otr e ró
taw y je adk
VaR
h X
eilp
≤ s}
(
01].
h n o ro wsp neg rzym
wn wion
est ku o
R
X1, …
pern (
, ) ≤
nie m ozkł półc go s
mam ny w
ne n czę ostr
…, X
n, 20 , …
≤ s}
moż ładz czyn sytu my w pr na ry ęsto
rożn
Xn,
011
… ,
}.
żna zie nni uacj y jed rzyb ys.
o w nie
gdy
1]:
), a ot
wy ków cja
dyn bliż 5.
fin st
y st trzy ykła w a isto nie,
żeni nans oso
truk 9
yma adni a i b
otni gd iu 0 sach owa
ktur 93
ać i- b.
ie dy
0.
h, ać
ra
Stanisław Heilpern 94
Dystrybuanta sumy zmiennych losowych jest ograniczona z dołu i z góry przez dystrybuanty Fmin i Fmax. Ich postać podana jest w twierdzeniu 2.
Twierdzenie 2 [Denuit, Genest, Marceau, 1999]. Niech X1, …, Xn będą dowol- nymi zmiennymi losowymi o strukturze zależności opisanej funkcją łączącą C.
Jeżeli FS,C(s) jest dystrybuantą ich sumy SC = X1 + … + Xn, to Fmin(s) ≤ FS,C(s) ≤ Fmax(s),
gdzie:
( ) = sup
∈Σ( )max ( ) − + 1, 0 ,
( ) = inf
∈Σ( )min ( ), 1 ,
oraz Σ(s) = {(x1, …, xn): x1 + … + xn = s} i ( ) = ( < ).
Ponadto, nie istnieje też funkcja łącząca C, taka że graniczne dystrybuanty Fmin i Fmax są dystrybuantami sumy SC, ale dla każdego x0 istnieje funkcja łącząca C0, taka że , ( ) = ( ). Podobnie jest dla ograniczenia Fmax.
Przejdźmy teraz do zbadania podstawowych miar ryzyka dotyczących sumy zależnych zmiennych losowych S. Taką miarę ryzyka będziemy oznaczać sym- bolem γ(S; C), gdzie C jest funkcją łączącą opisującą strukturę zależności zmiennych losowych Xi.
Koherentna miara ryzyka powinna spełniać cztery, pożądane w praktyce aksjomaty [McNeil, Frey, Embrechts, 2005]. Powinna być niezmiennicza względem transformacji, dodatnio jednorodna, monotoniczna i subaddytywna.
Ostatnia własność, subaddytywność: γ(X + Y) ≤ γ(X) + γ(Y) zachodzi dla każdej zmiennej X i Y, związana jest z dywersyfikacją ryzyka. Najczęściej stosowaną w praktyce miarą ryzyka jest wartość narażona na ryzyko (Value-at-Risk) VaRα(X). Jest to prosta miara ryzyka będąca kwantylem zmiennej X:
VaRα(X) = inf{x: FX(x) ≤ α}.
Nie jest ona jednak koherentną miarą ryzyka. Nie spełnia warunku subad- dytywności. Można też pokazać [McNeil, Frey, Embrechts, 2005], że dla współmonotonicznych zmiennych losowych jest ona addytywna:
VaRα(S; M) = VaRα(X1) + … + VaRα(Xn).
Zależność – fakty i mity 95
Miara VaRα nie jest subaddytywna. Istnieje więc funkcja łącząca C, taka że VaRα(S; C) > VaRα(X1) + … + VaRα(Xn), czyli zachodzi relacja:
VaRα(S; M) < VaRα(S; C).
Współmonotoniczne zmienne losowe wcale nie muszą więc dawać naj- większej wartości VaRα dla ich sumy.
W przypadku gdy zmienne X1, ..., Xn mają łączny rozkład eliptyczny, to miara VaRα jest koherentna [McNeil, Frey, Embrechts, 2005]. Wtedy VaRα(S; M) ≥
≥ VaRα(S; C) dla każdej struktury zależności. Podobna sytuacja zachodzi dla innej miary ryzyka: średniego niedoboru (expected shortfall) określonego wzorem:
ES ( ) = 1
1 − VaR ( )d . Dla ciągłych zmiennych losowych zachodzi zależność:
ESα( ) = E( | > VaRα( )).
Średni niedobór jest koherentną miarą ryzyka również addytywną dla współmonotonicznych zmiennych losowych [McNeil, Frey, Embrechts, 2005].
Tak więc współmonotoniczne zmienne gwarantują nam największą wartość tej miary ryzyka:
VaRα(S; C) ≤ VaRα(S; M).
Ponadto, wcale nie jest prawdą, że wartość miary VaRα jest zawsze większa dla zmiennych współmonotonicznych niż dla przecimonotonicznych czy nieza- leżnych. Zagadnienie to poruszają przykłady 4 oraz 5. Przedstawiają one dwie przeciwstawne sytuacje.
Przykład 4 [Heilpern, 2011]. Niech zmienne losowe X1 i X2 mają rozkład wy- kładniczy o dystrybuancie Fi(x) = 1 – e-x. Na rys. 6 przedstawione są wykresy dystrybuant sumy przeciwmonotonicznych, niezależnych i współmonotonicz- nych tych zmiennych losowych oraz dolnego ograniczenia Fmin(x).
9
R Ź
o m t
g
= r P o N b 96
Rys.
Źród
otrz mon to, ż
gdz
= rozk Prz o dy Nat bień
. 6. W dło: O
W zym noto że d
zie O kład zykł
ystr tom ństw
Wyk Opra
Widz muje oni dla
Cα ( dm du P ład rybu mias
w b
kresy cowa
zim emy czn wa
je ) mien
Par d 5 [
uan t ry lisk
y dy anie
my, y dl nych
rtoś Va st
= nną
reto [He ncie ys.
kich
ystry wła
że la z h. N ści aRα( fun . syt . eilp
Fi( 7b h 1.
ybua sne n
dl zmi Nato
α b (S, nkcj
tuac
ern (x) =
prz
ant s na po
la m enn om blisk
W) ją cję
n, 20
= 1 zeds
sumy odsta
mał nych
iast kich
< V łącz otr
011 1 −
staw
y zm awie
łych h w t dl h 1 VaR
ząc rzym
]. N
√ . wia
Sta
mien e [He
h w wspó a du otrz Rα(S cą,
muj
Nie W a te
anis
nnyc eilper
war ółm uży zym S, Π
dla jem
ch z Wykr
sam sław
ch lo rn, 2
rtoś mon ych muj Π) <
a k my d
zmi resy me
w He
osow 2011]
ci noto
wa em
< Va tóre dla
ienn y dy
dy eilp
wych ].
x n onic
arto my z aRα ej
roz
ne l ystry
stry ern
h o r
najw czny ości ależ
α(S, istn zkła
loso ybu ybu
rozkł
wię ych
x r żno M) niej adów
owe uant uant
ładz
ększ h, a rela ości ) <
e x w g
e X t pr ty d
zie w
zą naj cje i:
Va xα, grub
X1 i X rzed dla
wykł
wa jmn
są
aRα( tak boo
X2 m dsta
war
ładn
arto niej odw
(S, C kie ogo
maj awio rtoś
niczy
ść szą wro
Cα) że now
ją ro one ści
ych
dy ą dla
otne
,
wyc
ozk są pra
stry a pr e. O
,
ch,
kład na awd
ybu rze Ozn
( np.
d Pa rys dopo
uant ciw acz
) = . dl
aret s. 7a
odo ty w-
za
= la
to a.
o-
R Ź
w n b p n s w w
Rys.
Źród
wię nyc bua praw nie sze wro wię
. 7. W dło: O
W ększ ch, a anty
wie wię
dla otna ększ
Wyk Opra
W pr ze w
a na y n e ró ęks a α a ja za d
kresy cowa
rzyp war
ajm ieza wn sze
= ak dla w
y dy anie
pad rtoś mnie
ależ ne. W
niż 0,9 w wsp
ystry wła
dku ci d ejsz
żny War ż dl 97 o
prz półm
ybua sne n
gd dys ze d ych rtoś a w od d zypa mon
ant s na po
dy z tryb dla p i ści wspó
doln adk noto
sumy odsta
zmi bua prze
prz VaR ółm nej ku r oni
Z
y zm awie
ienn anty eciw zeci
Rα mon
gra roz czn
Zależ
mien e [He
ne X y ot
wm iwm
dla noto anic kła nych
żno
nnyc eilper
Xi m trzy mono
mon a prz onic
cy F adu
h zm ość –
a
b ch lo
rn, 2
maj ymu oton noto
zec czny
Fmi
wy mie
– fak
a)
b) osow 2011]
ją r ujem
nicz onic ciwm
ych
in(x) ykła enny
kty i
wych ].
rozk my
zny czny
mon h, je
) (p adn ych
i mi
h o r
kład dla ych.
ych noto edna patr nicz h los
ity
rozkł
d P a w . Dl h zm
oni ak rz r zego
sow
ładz
are wspó
la x mie czn aż rys.
o, g wyc
zie P
to, ółm x wi enny nych pon 7b gdz ch.
Paret
to mono
ięks ych h zm nad b). J zie
to
dla oton szy h lo
mie d dw Jest
wa a ka
nicz ych
oso enny wuk
t to artoś
ażd zny od wy ych krot o sy ść
ego ych
60 ych
h są tnie ytua Va
o x zm dys są ą zn mn acja aRα
9
naj mien stry ju nacz niej a od jes 97
j- n- y- uż
z- j- d- st
Stanisław Heilpern 98
Literatura
Denuit M., Genest C., Marceau E. (1999), Stochastic Bounds on Sums of Dependent Risks,
„Insurance: Mathematics and Economics”, No. 25, s. 85-104.
Embrechts P., McNeil A., Straumann D. (2001), Correlation and Dependence in Risk Management: Properties and Pitfalls [w:] Dempster M., Moffatt H.K. (eds.), Risk Management: Value at Risk and Beyond, Cambridge University Press, Cambridge.
Heilpern S. (2007), Funkcje łączące, Wydawnictwo AE, Wrocław.
Heilpern S. (2011), Aggregate Dependent Risk − Risk Measure Calculation, „Mathematical Economics”, No. 7(14), s. 93-110.
McNeil J.A., Frey R., Embrechts P. (2005), Quantitative Risk Management. Concepts, Techniques and Tools, Princeton University Press, Princeton.
Nelsen R.B. (1999), An Introduction to Copulas, Springer, New York.
Wang S.S. (1999), Aggregation of Correlated Risk Portfolios: Models & Algorithms, CAS Committee on Theory of Risk, Working Paper.
DEPENDENCE – FACTS AND MYTHS
Summary: The main aim of the article is to show chosen issues of random variables which can be described in the form of copula functions. In the first part the relationship between two-dimensional normal distribution with Gaussian copula function was shown together with the most common measure – Pearson correlation coefficient. Conclusions were referred to multivariate elliptical distributions, mainly to normal distributions with major focus on generally used risk measure – value at risk (VaR). It was shown that the highest values of this measure need not appear for close dependence as well as for independence.
Keywords: multivariate normal distribution, copula functions.