PiMS ćwiczenia 5
Współczynnik korelacji. Proste regresji.
Przykładowe rozwiązania zadań Zadanie 8. Dany jest teoretyczny rozkład zmiennej losowej (X, Y ) c)
E(X) =Pixi· pi.= 1 · 0.4 + 2 · 0.6 = 1.6
E(Y ) =Pjyj · p.j = (−1) · 0.2 + 0 · 0.2 + 1 · 0.3 + 2 · 0.3 = 0.7
E(X2) =Pixi2· pi.= 12· 0.4 + 22· 0.6 = 2.8
E(Y2) =Pjyj2· p.j = (−1)2· 0.2 + 02· 0.2 + 12 · 0.3 + 22· 0.3 = 1.7
D2(X) = E(X2) − (E(X))2 = 2.8 − (1.6)2 = 0.24, D(X) =qD2(X) = 0.49 D2(Y ) = E(Y2) − (E(Y ))2 = 1.7 − (0.7)2 = 1.21, D(Y ) =qD2(Y ) = 1.1.
E(X · Y ) =Pi,jxi· yj· pi,j = 1.3.
cov(X, Y ) = E(X · Y ) − E(X) · E(Y ) = 1.3 − 1.6 · 0.7 = 0.18
ρ(X,Y ) = cov(X, Y )
D(X) · D(Y ) = 0.18
0.49 ∗ 1.1 = 0.33
d)
a = cov(X,Y )D2(X) = 0.180.24 = 0.75
b = E(Y ) − a · E(X) = 0.7 − 0.75 · 1.6 = −0.5
czyli prosta regresji Y względem X jest postaci : Y = 0.75 · X − 0.5
Zadanie 11. Załóżmy, że dany jest rozkład empiryczny (z próby) zmiennej losowej (X, Y ) a)
Częstość z próby:
pi,j = nni,j dla każdego i, j
x =Pixi· pi. = (−2) · 0.4 + 2 · 0.6 = 0.4
y =Pjyj · p.j = (−2) · 0.3 + (−1) · 0.5 + 0 · 0.1 + 1 · 0.1 = −1
SX2 =Pi(xi− x)2· pi.= (−2 − 0.4)2· 0.4 + (2 − 0.4)2· 0.6 = 3.84, SX =
q
SX2 =√
3.84 = 1.96
SY2 =Pj(yj− y)2· p.j = (−2 − (−1))2· 0.3 + (−1 − (−1))2· 0.5 + (0 − (−1))2· 0.1 + (1 − (1))2· 0.1 = 0.8, SY =
q
SY2
=√
0.8 = 0.89.
X
i,j
xi· yj · pi,j− x · y = 0.4 − 0.4 · (−1) = 0.8
r =
P
i,jxi· yj· pi,j − x · y
SX · SY = 0.8
1.96 · 0.89 = 0.46
b)
a = r · SSY
X = 0.460.891.96 = 0.21
b = y − a · x = −1 − 0.21 · 0.4 = −1.08
czyli prosta regresji Y względem X jest postaci : Y = 0.21 · X − 1.08
c)
1. Stawiamy hipotezę
H0 : ρ(X,Y ) = 0 przeciw H1 : ρ(X,Y ) 6= 0.
2. Obliczamy wartość statystyki testowej:
T = r
√1 − r2 ·√
n − 2 = 0.46
√1 − 0.21 ·√ 98 =
T = r
√1 − r2 ·√
n − 2 = 0.46 1 − 0.21 ·√
98 = 5.12
3. Budujemy zbiór krytyczny:
W = (−∞; −t(α, n − 2)) ∪ (t(α, n − 2); +∞)
t(α, n − 2) = t(0.1; 98) = 1.66 (z tablicy 5: t(0.1; 40) = 1.68) Zatem: W = (−∞; −1.66) ∪ (1.66; +∞)
4. Podejmujemy decyzję: T ∈ W zatem odrzucamy H0, przyjmujemy H1, czyli na poziomie istotności α = 0.1 zmienne X i Y są istotnie statystycznie skorelowane (zależne liniowo). Ma sens przybliżanie zależności między X a Y funkcją liniową Y = a · X + b.