Kowariancja. Wspóªczynnik korelacji.
Funkcje wektorów losowych
Krótkie praktyczne przypomnienie poj¦¢ z rachunku prawdopodobie«stwa
Denicja 1 Kowariancj¡ zmiennych losowych X i Y nazywamy wyra»enie E(X − EX)(Y − EY )
(o ile odpowiednie warto±ci oczekiwane istniej¡) i oznaczamy: Cov(X, Y ).
Fakt 1 Zachodzi nast¦puj¡ca to»samo±¢:
Cov(X, Y ) = EXY − EX · EY.
Twierdzenie 1 (Wªasno±ci kowariancji) Dla zmiennych losowych X, Y i Z, dla których od- powiednie kowariancje istniej¡, oraz dla dowolnych a, b, c, d ∈ R mamy:
Cov(X, Y ) = Cov(Y, X),
Cov(X, a) = 0,
Cov(aX + b, cY + d) = ac · Cov(X, Y ).
Cov(X, X) = V ar(X),
Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z),
V ar(X + Y ) = V ar(X) + 2Cov(X, Y ) + V ar(Y ),
je±li zmienne losowe X i Y s¡ niezale»ne, to Cov(X, Y ) = 0.
W pewnym sensie o kowariancji mo»na my±le¢ jak o iloczynie skalarnym, gdzie zamiast wektorów mamy zmienne losowe.
Denicja 2 Wspóªczynnikiem korelacji zmiennych losowych X i Y nazywamy wyra»enie Cov(X, Y )
pV ar(X) · V ar(Y )
(o ile kowariancja i odpowiednie wariancje istniej¡ i V ar(X) · V ar(Y ) > 0) i oznaczamy:
Cor(X, Y ).
W literaturze na oznaczenie korelacji spotyka si¦ te» nast¦puj¡ce symbole: ρX,Y, rX,Y.
Twierdzenie 2 (Nierówno±¢ Schwarza) Dla dowolnych zmiennych losowych X i Y , dla któ- rych istniej¡ V ar(X) i V ar(Y ), istnieje równie» Cov(X, Y ) i
|Cov(X, Y )| ≤p
V ar(X) · V ar(Y ).
Równo±¢ w powy»szej nierówno±ci zachodzi wtedy i tylko wtedy, gdy dla pewnych a, b, c ∈ R takich
»e a2+ b2 > 0 mamy P (aX + bY = c) = 1 (tzn. gdy z prawdopodobie«stwem 1 zmienne losowe X i Y s¡ zwi¡zane liniow¡ zale»no±ci¡).
Twierdzenie 3 (Wªasno±ci wspóªczynnika korelacji) Dla dowolnych zmiennych losowych X i Y takich »e ich wariancje istniej¡ i V ar(X) · V ar(Y ) > 0 oraz dla dowolnych a, b, c, d ∈ R z zastrze»eniem, »e a 6= 0 6= c, mamy:
−1 ≤ Cor(X, Y ) ≤ 1,
Cor(X, Y ) = Cor(Y, X),
Cor(aX +b, cY +d) = sgn(ac)·Cor(X, Y ),
Cor(X, X) = 1,
Cor(X, Y ) = 0 wtedy i tylko wtedy, gdy Cov(X, Y ) = 0,
je±li zmienne losowe X i Y s¡ niezale»ne, to Cor(X, Y ) = 0.
O wspóªczynniku korelacji mo»na my±le¢ jak o cosinusie k¡ta pomi¦dzy wektorami w przestrzeni liniowej, której elementami s¡ zmienne losowe posiadaj¡ce wariancj¦.
Fakt 2 (Wniosek z twierdzenia o nierówno±ci Schwarza) Dla dowolnych zmiennych loso- wych X i Y takich »e ich wariancje istniej¡ i V ar(X)·V ar(Y ) > 0 mamy |Cor(X, Y )| = 1 wtedy i tylko wtedy, gdy dla pewnych a, b, c ∈ R takich »e a2+ b2 > 0 zachodzi P (aX + bY = c) = 1 (tzn. gdy z prawdopodobie«stwem 1 zmienne losowe X i Y s¡ zwi¡zane liniow¡ zale»no±ci¡).
Wobec powy»szego mo»na powiedzie¢, »e wspóªczynnik korelacji mierzy stopie« liniowej (!!!) zale»no±ci mi¦dzy zmiennymi losowymi.
Denicja 3 Mówimy, »e wektory losowe: X o warto±ciach w Rn i Y o warto±ciach w Rm s¡
niezale»ne, je±li dla dowolnych zbiorów B1 ∈ B(Rn) i B2 ∈ B(Rm) zachodzi
P (X ∈ B1, Y ∈ B2) = P ((X, Y) ∈ B1× B2) = P (X ∈ B1) · P (Y ∈ B2).
Fakt 3 Je±li wektory losowe: X o warto±ciach w Rn i Y o warto±ciach w Rm s¡ niezale»ne, za±
ϕ : Rn→ Rk i ψ : Rm → Rl s¡ funkcjami borelowskimi, to wektory losowe ϕ(X) i ψ(Y) równie»
s¡ niezale»ne.
Fakt 4 Je±li X jest ci¡gªym wektorem losowym o warto±ciach w Rni g¦sto±ci fX, ϕ: Rn→ R jest funkcj¡ borelowsk¡ i RRn|ϕ(x)| · fX(x)dx < ∞, to zmienna losowa ϕ(X) ma warto±¢ oczekiwan¡
i
Eϕ(X) = Z
Rn
ϕ(x) · fX(x) dx.
Fakt 5 Dla dowolnego wektora losowego X o warto±ciach w Rn, dowolnej funkcji borelowskiej ϕ : Rn→ R i dowolnego zbioru B ∈ B(R) mamy P (ϕ(X) ∈ B) = E1{ϕ(X)∈B}.
Wniosek 1 Dla dowolnego ci¡gªego wektora losowego X o warto±ciach w Rn, dowolnej funkcji borelowskiej ϕ: Rn→ R i dowolnego zbioru B ∈ B(R) mamy
P (ϕ(X) ∈ B) = Z
Rn
1{ϕ(x)∈B}· fX(x)dx.
Twierdzenie 4 Je±li X = (X, Y ) jest wektorem losowym z dystrybuant¡ FX(x) natomiast U = X + Y i V = X − Y , to
FU(u) = Z ∞
−∞
FX(u − v, v)dv, FV(v) = Z ∞
−∞
FX(u + v, u)du.
Je±li X jest ci¡gªym wektorem losowym z g¦sto±ci¡ fX(x), to fU(u) =
Z ∞
−∞
fX(u − v, v)dv, fV(v) = Z ∞
−∞
fX(u + v, u)du.