Wokół testu Studenta
1. Wprowadzenie
Rozkłady prawdopodobieństwa występujące w testowaniu hipotez dotyczących rozkładów normalnych Rozkład normalny N (µ, σ2), µ ∈ R, σ2> 0
gęstość:
f (x) = 1 σ√
2π e−(x−µ)22σ2
Niech a ∈ R \ {0}, b ∈ R, X ∼ N (µ, σ2), Y ∼ N (ν, τ2), µ, ν ∈ R, σ2, τ2 > 0 i niech zmienne losowe X i Y będą niezależne. Wówczas:
EX = µ,
V ar(X) = σ2,
X + b ∼ N(µ + b, σ2),
aX ∼ N(aµ, a2σ2),
X−µσ ∼ N (0, 1),
X + Y ∼ N(µ + ν, σ2+ τ2).
Rozkład N (0, 1) nazywamy standardowym rozkładem normalnym. Jego gęstość jest postaci:
f (x) = 1
√2π e−x22 .
Gęstość rozkładu N (0, 1) jest funkcją parzystą.
Niech ξ ∼ N (0, 1), µ ∈ R, σ2> 0. Wówczas σξ + µ ∼ N (µ, σ2).
Φ – dystrybuanta rozkładu N (0, 1)
∀ x ∈ R Φ(−x) = 1 − Φ(x) Φ−1 – funkcja kwantylowa rozkładu N (0, 1)
∀ p ∈ (0, 1) Φ−1(p) = −Φ−1(1 − p) Niech Φµ,σ2 oznacza dystrybuantę rozkładu N (µ, σ2), µ ∈ R, σ2> 0. Wówczas
∀ x ∈ R Φµ,σ2(x) = Φ x − µ σ
.
Niech Φ−1µ,σ2 oznacza funkcję kwantylową rozkładu N (µ, σ2), µ ∈ R, σ2> 0. Wówczas
∀ p ∈ (0, 1) Φ−1µ,σ2(p) = σΦ−1(p) + µ.
Rozkład chi-kwadrat z ν stopniami swobody χ2ν, ν ∈ N+
Niech ξ1, ξ2, . . . , ξν ∼ N (0, 1) będą niezależnymi zmiennymi losowymi. Wówczas ξ21+ ξ22+ . . . + ξ2ν∼ χ2ν.
Niech X ∼ χ2ν i Y ∼ χ2κ, ν, κ ∈ N+, będą niezależnymi zmiennymi losowymi. Wówczas
P (X ≥ 0) = 1,
EX = ν,
V ar(X) = 2ν,
X + Y ∼ χ2ν+κ.
χ2ν – dystrybuanta rozkładu χ2ν, (χ2ν)−1 – funkcja kwantylowa rozkładu χ2ν
Wzór na gęstość rozkładu chi-kwadrat przy zastosowaniu w nim funkcji γ Eulera zachowuje sens także dla niecałkowi- tej liczby stopni swobody, a zatem w oparciu o niego możemy zdefiniować rozkład chi-kwadrat z liczbą stopni swobody będącą dowolną liczbą dodatnią.
Rozkład Studenta z ν stopniami swobody tν, ν ∈ N+
Niech ξ0, ξ1, ξ2, . . . , ξν ∼ N (0, 1) będą niezależnymi zmiennymi losowymi. Wówczas ξ0
rξ12+ ξ22+ . . . + ξν2 ν
∼ tν.
Równoważne: niech ξ0∼ N (0, 1) i χ ∼ χ2ν będą niezależnymi zmiennymi losowymi. Wówczas ξ0
r χ ν
∼ tν.
Gęstość rozkładu tν jest funkcją parzystą.
Niech X ∼ tν. Wówczas EX = 0.
tν – dystrybuanta rozkładu tν
∀ x ∈ R tν(−x) = 1 − tν(x) t−1ν – funkcja kwantylowa rozkładu tν
∀ p ∈ (0, 1) t−1ν (p) = −t−1ν (1 − p) Niech Xn∼ tn, n ∈ N+. Wówczas Xn
−−−−→D
n→∞ N (0, 1).
Wzór na gęstość rozkładu Studenta przy zastosowaniu w nim funkcji γ Eulera zachowuje sens także dla niecałkowitej liczby stopni swobody, a zatem w oparciu o niego możemy zdefiniować rozkład Studenta z liczbą stopni swobody będącą dowolną liczbą dodatnią.
Rozkład Fishera-Snedecora z ν i κ stopniami swobody Fν,κ, ν, κ ∈ N+
Niech ξ1, ξ2, . . . , ξν, ζ1, ζ2, . . . , ζκ∼ N (0, 1) będą niezależnymi zmiennymi losowymi. Wówczas ξ12+ ξ22+ . . . + ξ2ν
ν
ζ12+ ζ22+ . . . + ζκ2 κ
∼ Fν,κ.
Równoważne: niech χ1∼ χ2ν i χ2∼ χ2κ będą niezależnymi zmiennymi losowymi. Wówczas χ1
χν2
κ
∼ Fν,κ.
Niech X ∼ Fν,κ. Wówczas
P (X ≥ 0) = 1,
1/X ∼ Fκ,ν.
Fν,κ – dystrybuanta rozkładu Fν,κ, Fν,κ−1 – funkcja kwantylowa rozkładu Fν,κ
∀ p ∈ (0, 1) Fν,κ−1(p) = 1 Fκ,ν−1(1 − p) Niech Xn∼ Fν,n, ν, n ∈ N+. Wówczas νXn
−−−−→D n→∞ χ2ν.
Twierdzenie Fishera. Niech X1, X2, . . . , Xn będzie próbą z rozkładu N (µ, σ2). Wówczas statystyki
X = 1 n
n
X
i=1
Xi i
n
X
i=1
(Xi− X)2
są niezależne. Ponadto
Pn
i=1(Xi− X)2
σ2 ∼ χ2n−1.
2. Test Studenta dla jednej próby
Niech X1, X2, . . . , Xn będzie próbą z rozkładu N (µ, σ2), przy czym µ ∈ R i σ2 > 0 uznajemy za nieznane.
Rozważamy następujący problem testowania hipotez:
H : µ = µ0 vs K : µ > µ0 lub
H : µ = µ0 vs K : µ < µ0
lub
H : µ = µ0 vs K : µ 6= µ0. Niech X = 1
n
n
X
i=1
Xi. Ze względu na to, że mamy EX = µ, test oprzemy na różnicy X − µ0:
jeśli różnica X − µ0 jest duża (znacznie większa od 0), to przemawia to za prawdziwością hipotezy µ > µ0,
jeśli różnica X − µ0 jest mała (znacznie mniejsza od 0), to przemawia to za prawdziwością hipotezy µ < µ0,
jeśli różnica X − µ0 jest duża lub mała (oddalona od 0), to przemawia to za prawdziwością hipotezy µ 6= µ0. Jako że X ∼ N (µ,σn2), to przy H zachodzi X ∼ N (µ0,σn2), a zatem
X − µ0
rσ2 n
∼ N (0, 1).
Ponieważ jednak nie znamy wartości σ2, spróbujemy zastąpić σ2 statystyką S2 = 1 n − 1
n
X
i=1
(Xi − X)2 czyli tzw.
wariancją próbkową nieobciążoną (jako że ES2= σ2). Rozważmy statystykę
W = S2
n σ2
n
=S2 σ2 =
1 n − 1
n
X
i=1
(Xi− X)2
σ2 =
n
X
i=1
(Xi− X)2 σ2 n − 1 .
Zgodnie z twierdzeniem Fishera licznik ostatniego wyrażenia jest zmienną losową o rozkładzie χ2n−1niezależną odX, zatem przy H
T =
X − µ0 rσ2
√ n
W = X − µ0
S
√n ∼ tn−1,
gdzie S =√
S2. W innej postaci:
T = X − µ0 v
u u t
n
X
i=1
(Xi− X)2
pn(n − 1).
H K Zbiór krytyczny p-wartość
µ = µ0 µ > µ0 (t−1n−1(1 − α), ∞) 1 − tn−1(T )
µ = µ0 µ < µ0 (−∞, t−1n−1(α)) = (−∞, −t−1n−1(1 − α)) tn−1(T )
µ = µ0 µ 6= µ0 (−∞, −t−1n−1(1 − α2)) ∪ (tn−1−1 (1 −α2), ∞) 2(1 − tn−1(|T |)) = 2 min(tn−1(T ), 1 − tn−1(T ))
3. Test Studenta dla par obserwacji
Niech XY1
1, XY2
2, . . . , XYn
n będzie próbą z ustalonego rozkładu, którego wartość oczekiwana istnieje. Niech Zi = Xi− Yi, i = 1, 2, . . . , n. Zakładamy, że Z1, Z2, . . . , Zn ∼ N (µ, σ2), przy czym przyjmujemy, że µ ∈ R i σ2 > 0 nie są znane.
Niech EX1 = µ1, EY1= µ2, przy czym zakładamy, że µ1, µ2 ∈ R nie są znane. Rozważamy następujący problem testowania hipotez:
H : µ1− µ2= µ0 vs K : µ1− µ2> µ0 lub
H : µ1− µ2= µ0 vs K : µ1− µ2< µ0
lub
H : µ1− µ2= µ0 vs K : µ1− µ26= µ0,
gdzie µ0 ∈ R jest ustaloną liczbą. Zauważmy, że µ1− µ2 = µ, a zatem rozważany problem testowania hipotez jest równoważmy problemowi
H : µ = µ0 vs K : µ > µ0
lub
H : µ = µ0 vs K : µ < µ0
lub
H : µ = µ0 vs K : µ 6= µ0
i może być rozwiązany za pomocą testu Studenta dla jednej próby Z1, Z2, . . . , Zn. Często rozważa się zagadnienie z µ0= 0. Wówczas rozważane hipotezy przyjmują postać:
H : µ1= µ2 vs K : µ1> µ2
lub
H : µ1= µ2 vs K : µ1< µ2 lub
H : µ1= µ2 vs K : µ16= µ2.
4. Test Studenta dla dwóch prób niezależnych
Niech będą dane dwie niezależne próby: X1, X2, . . . , Xn1z rozkładu N (µ1, σ2) i Y1, Y2, . . . , Yn2z rozkładu N (µ2, σ2), przy czym µ1, µ2∈ R i σ2 uznajemy za nieznane. Rozważamy następujący problem testowania hipotez:
H : µ1− µ2= µ0 vs K : µ1− µ2> µ0
lub
H : µ1− µ2= µ0 vs K : µ1− µ2< µ0 lub
H : µ1− µ2= µ0 vs K : µ1− µ26= µ0, gdzie µ0∈ R jest ustaloną liczbą. Niech
X = 1 n1
n1
X
i=1
Xi i Y = 1
n2
n2
X
j=1
Yj.
Ze względu na to, że EX = µ1i EY = µ2, a zatem E(X − Y ) = µ1− µ2, test oprzemy na statystyce X − Y − µ0:
jeśli statystyka X − Y − µ0 jest duża (znacznie większa od 0), to przemawia to za prawdziwością hipotezy µ1− µ2> µ0,
jeśli statystyka X − Y − µ0 jest mała (znacznie mniejsza od 0), to przemawia to za prawdziwością hipotezy µ1− µ2< µ0,
jeśli statystyka X − Y − µ0 jest duża lub mała (oddalona od 0), to przemawia to za prawdziwością hipotezy µ1− µ26= µ0.
Skoro X ∼ N (µ1,σn2
1) i Y ∼ N (µ2,σn2
2) to X − Y ∼ N (µ1− µ2,σn2
1 +σn2
2), a zatem przy H zachodzi X − Y ∼ N (µ0,σn2
1 +σn2
2), czyli
X − Y − µ0 s
σ2 1 n1 + 1
n2
∼ N (0, 1).
Ponieważ jednak nie znamy wartości σ2, spróbujemy zastąpić σ2statystyką
Sp2=
n1
X
i=1
(Xi− X)2+
n2
X
j=1
(Yj− Y )2 n1+ n2− 2
Niech
W = Sp2 1
n1
+ 1 n2
σ2 1 n1
+ 1 n2
= Sp2 σ2 =
n1
X
i=1
(Xi− X)2
σ2 +
n2
X
j=1
(Yj− Y )2 σ2 n1+ n2− 2 .
Ułamki w liczniku ostatniego wyrażenia są niezależnymi zmiennymi losowymi o rozkładach odpowiednio χ2n1−1 i χ2n2−1 (zgodnie z twierdzeniem Fishera), zatem ich suma jest zmienną losową o rozkładzie χ2n1+n2−2. Łatwo można stąd wywnioskować, że
EW = n1+ n2− 2
n1+ n2− 2 = 1 i V ar(W ) =2(n1+ n2− 2)
(n1+ n2− 2)2 = 2 n1+ n2− 2.
W szczególności z tego, że EW = 1, wynika, że ESp2= σ2, czyli że S2p jest nieobciążonym estymatorem σ2. Statystyka Sp2bywa nazywana wspólną wariancją próbkową (ang. pooled sample variance).
Zgodnie z twierdzeniem Fishera zmienna losowa W jest niezależna od zmiennych losowychX i Y , zatem przy H
T =
X − Y − µ0
s σ2 1
n1
+ 1 n2
√
W = X − Y − µ0
s Sp2 1
n1+ 1 n2
= X − Y − µ0 Sp
r 1 n1
+ 1 n2
∼ tn1+n2−2,
gdzie Sp=q
Sp2. W innej postaci:
T = X − Y − µ0
v u u u t
1 n1
+ 1 n2
n1
X
i=1
(Xi− X)2+
n2
X
j=1
(Yj− Y )2
√n1+ n2− 2.
H K Zbiór krytyczny p-wartość
µ1− µ2= µ0 µ1− µ2> µ0 (t−1n
1+n2−2(1 − α), ∞) 1 − tn1+n2−2(T ) µ1− µ2= µ0 µ1− µ2< µ0 (−∞, t−1n1+n2−2(α)) = (−∞, −t−1n1+n2−2(1 − α)) tn1+n2−2(T ) µ1− µ2= µ0 µ1− µ26= µ0 (−∞, −t−1n
1+n2−2(1 −α2)) ∪ (t−1n
1+n2−2(1 −α2), ∞) 2(1 − tn1+n2−2(|T |)) =
=2 min(tn1+n2−2(T ),1−tn1+n2−2(T ))
Często powyższy test stosuje się dla µ0= 0. Wówczas rozważane hipotezy przyjmują postać:
H : µ1= µ2 vs K : µ1> µ2 lub
H : µ1= µ2 vs K : µ1< µ2
lub
H : µ1= µ2 vs K : µ16= µ2.
5. Test Welcha
Niech będą dane dwie niezależne próby: X1, X2, . . . , Xn1z rozkładu N (µ1, σ21) i Y1, Y2, . . . , Yn2z rozkładu N (µ2, σ22), przy czym µ1, µ2∈ R i σ21, σ22> 0 uznajemy za nieznane. Rozważamy następujący problem testowania hipotez:
H : µ1− µ2= µ0 vs K : µ1− µ2> µ0 lub
H : µ1− µ2= µ0 vs K : µ1− µ2< µ0 lub
H : µ1− µ2= µ0 vs K : µ1− µ26= µ0,
gdzie µ0∈ R jest ustaloną liczbą. Tak postawiony problem testowania (tj. bez założenia, że σ12= σ22), nazywany jest problemem Behrensa-Fishera.
Niech
X = 1 n1
n1
X
i=1
Xi i Y = 1
n2
n2
X
j=1
Yj.
Tak jak przy teście Studenta dla dwóch prób nie zależnych, ze względu na to, że EX = µ1 i EY = µ2, a zatem E(X − Y ) = µ1− µ2, test oprzemy na statystyce X − Y − µ0:
jeśli statystyka X − Y − µ0 jest duża (znacznie większa od 0), to przemawia to za prawdziwością hipotezy µ1− µ2> µ0,
jeśli statystyka X − Y − µ0 jest mała (znacznie mniejsza od 0), to przemawia to za prawdziwością hipotezy µ1− µ2< µ0,
jeśli statystyka X − Y − µ0 jest duża lub mała (oddalona od 0), to przemawia to za prawdziwością hipotezy µ1− µ26= µ0.
Skoro X ∼ N (µ1,σn12
1) i Y ∼ N (µ2,σn22
2) to X − Y ∼ N (µ1− µ2,σn12
1 +σn22
2), a zatem przy H zachodzi X − Y ∼ N (µ0,σn12
1 +σn22
2), czyli
X − Y − µ0
s σ12 n1 +σ22
n2
∼ N (0, 1).
Ponieważ jednak nie znamy wartości σ12 i σ12, spróbujemy zastąpić σ12i σ22statystykami odpowiednio
S12= 1 n1− 1
n1
X
i=1
(Xi− X)2 i S22= 1 n2− 1
n2
X
j=1
(Yj− Y )2.
S12 jest nieobciążonym estymatorem σ12 i podobnie S12 jest nieobciążonym estymatorem σ21. Z twierdzenia Fishera wiemy, że σ12
1
Pn1
i=1(Xi− X)2∼ χ2n
1−1. W takim razie V ar S12 = V ar
σ12 n1− 1
Pn1
i=1(Xi− X)2 σ12
= σ14
(n1− 1)2V ar
Pn1
i=1(Xi− X)2 σ21
= σ14
(n1− 1)2· 2(n1− 1) = 2σ14 n1− 1. Podobnie σ12
2
Pn2
j=1(Yj− Y )2∼ χ2n2−1. W takim razie
V ar S22 = V ar σ22 n2− 1
Pn2
j=1(Yj− Y )2 σ22
!
= σ14
(n2− 1)2V ar Pn2
j=1(Yj− Y )2 σ22
!
= σ24
(n2− 1)2· 2(n2− 1) = 2σ24 n2− 1. Niech
W = S12 n1
+S22 n2
σ12 n1
+σ22 n2
.
Ze względu na to, że ES12= σ12 i ES22= σ22, widzimy, że EW = 1. Statystyki S12 i S22 są niezależne. Stąd
V ar(W ) = V ar S12 n1
+S22 n2
σ21 n1
+σ22 n2
= 1
n21V ar(S12) + 1
n22V ar(S22)
σ12 n1
+σ22 n2
2 =
1 n21 · 2σ41
n1− 1+ 1
n22 · 2σ24 n2− 1
σ21 n1
+σ22 n2
2 .
Rozkład statystyki W nie należy do rodziny rozkładów chi-kwadrat, jednak będziemy się starali przybliżyć ten roz- kład rozkładem z rodziny rozkładów chi-kwadrat. Niech ν∗ oznacza liczbę stopni swobody poszukiwanego rozkładu.
Wyznaczymy ją w oparciu o równanie V ar(W ) = ν2∗ (na podobieństwo rozważań w konstrukcji testu Studenta dla dwóch prób niezależnych). W takim razie
1
n21 · 2σ14 n1− 1 + 1
n22 · 2σ42 n2− 1
σ12 n1
+σ22 n2
2 = 2
ν∗, czyli ν∗ =
σ21 n1
+σ22 n2
2 1
n21 · σ14 n1− 1+ 1
n22 · σ42 n2− 1
.
Ostateczny wynik otrzymujemy, zastępując σ12 i σ22statystykami S12 i S22 odpowiednio:
ν∗=
S12 n1
+S22 n2
2 1
n21 · S14 n1− 1+ 1
n22 · S24 n2− 1
, czyli ν∗=
S21 n1
+S22 n2
2
S12 n1
2 n1− 1 +
S22 n2
2 n2− 1
.
Ostatnie równanie nosi nazwę równania Welcha-Satterthwaite’a, stąd i test, który konstruujemy bywa nazywany testem Welcha-Satterthwaite’a. Zmienna losowa W jest niezależna od zmiennych losowychX i Y , zatem statystyka
T =
X − Y − µ0
s σ12 n1 +σ22
n2
√W =X − Y − µ0
s S12 n1
+S22 n2
przy H ma w przybliżeniu rozkład tν∗. ν∗ możemy zastąpić przez [ν∗]. W innej postaci:
T = X − Y − µ0
s Pn1
i=1(Xi− X)2 n1(n1− 1) +
Pn2
j=1(Yj− Y )2 n2(n2− 1)
.
H K Zbiór krytyczny p-wartość
µ1− µ2= µ0 µ1− µ2> µ0 (t−1ν∗(1 − α), ∞) 1 − tν∗(T ) µ1− µ2= µ0 µ1− µ2< µ0 (−∞, t−1ν∗(α)) = (−∞, −t−1ν∗(1 − α)) tn−1(T ) µ1− µ2= µ0 µ1− µ26= µ0 (−∞, −t−1ν∗(1 − α2)) ∪ (t−1ν∗(1 −α2), ∞) 2(1 − tν∗(|T |)) =
= 2 min(tν∗(T ), 1 − tν∗(T ))
Często powyższy test stosuje się dla µ0= 0. Wówczas rozważane hipotezy przyjmują postać:
H : µ1= µ2 vs K : µ1> µ2
lub
H : µ1= µ2 vs K : µ1< µ2
lub
H : µ1= µ2 vs K : µ16= µ2.
6. Porównanie wariancji w dwóch próbach pochodzących z rozkładów normalnych
Niech będą dane dwie niezależne próby: X1, X2, . . . , Xn1z rozkładu N (µ1, σ21) i Y1, Y2, . . . , Yn2z rozkładu N (µ2, σ22), przy czym µ1, µ2∈ R i σ21, σ22> 0 uznajemy za nieznane. Rozważamy następujący problem testowania hipotez:
H : σ12/σ22= r vs K : σ12/σ22> r lub
H : σ12/σ22= r vs K : σ12/σ22< r lub
H : σ21/σ22= r vs K : σ12/σ226= r, gdzie r > 0 jest ustaloną liczbą.
Niech
X = 1 n1
n1
X
i=1
Xi, X = 1 n2
n2
X
j=1
Yj, S12= 1 n1− 1
n1
X
i=1
(Xi− X)2 i S22= 1 n2− 1
n2
X
j=1
(Yj− Y )2.
Ze względu na to, że ES12= σ12 i ES22= σ22, a zatem ES12/ES22= σ21/σ22, test oprzemy na statystyce T =1
r·S12 S22 :
jeśli statystyka T jest duża (znacznie większa od 1), to przemawia to za prawdziwością hipotezy σ21/σ22> r,
jeśli statystyka T jest mała (znacznie mniejsza od 1), to przemawia to za prawdziwością hipotezy σ12/σ22< r,
jeśli statystyka T jest duża lub mała (oddalona od 1), to przemawia to za prawdziwością hipotezy σ12/σ226= r.
Ponieważ
T = 1 n1− 1 ·
Pn1
i=1(Xi− X)2 σ12 1
n2− 1 · Pn2
j=1(Yj− Y )2 σ22
,
przy czym zgodnie z twierdzenie Fishera
Pn1
i=1(Xi−X)2
σ12 ∼ χ2n1−1 i
Pn2
j=1(Yj−Y )2
σ22 ∼ χ2n2−1 i statystyki te są niezależne, to przy H mamy T ∼ Fn1−1,n2−1. W innej postaci:
T = 1 r·
1 n1− 1
n1
X
i=1
(Xi− X)2 1
n2− 1
n2
X
j=1
(Yj− Y )2 ,
H K Zbiór krytyczny p-wartość
σ21/σ22= r σ21/σ22> r (Fn−1
1−1,n2−1(1 − α), ∞) 1 − Fn1−1,n2−1(T ) σ21/σ22= r σ21/σ22< r (−∞, Fn−1
1−1,n2−1(α)) Fn1−1,n2−1(T )
σ21/σ22= r σ21/σ226= r (−∞, Fn−11−1,n2−1(α2)) ∪ (Fn−11−1,n2−1(1 −α2), ∞) 2 min(Fn1−1,n2−1(T ), 1 − Fn1−1,n2−1(T ))
Często powyższy test stosuje się dla r = 1. Wówczas rozważane hipotezy przyjmują postać:
H : σ21= σ22 vs K : σ12> σ22 lub
H : σ21= σ22 vs K : σ12< σ22 lub
H : σ21= σ22 vs K : σ126= σ22.
Sytuacja, w której nie wszystkie obserwacje pochodzą z rozkładów o tej samej wariancji, nazywamy heteroskeda- stycznością danych (w przeciwieństwie do homoskedastyczności danych, gdy wszystkie obserwacje pochodzą z rozkła- dów o tej samej wariancji).
W praktyce zależności od dopasowania danych do rozkładów normalnych, postulowanego ilorazu wariancji i po- stulowanej różnicy wartości oczekiwanych w celu porównania wartości oczekiwanych dwóch rozkładów zaleca się prze- prowadzenie jednej z dwóch procedur:
przetestowanie równości wariancji w pierwszym kroku; jeśli brak podstaw do odrzucenia hipotezy o równości wariancji, wykonujemy test Studenta dla dwóch prób niezależnych, jeśli należy odrzucić hipotezę o równości wariancji, wykonujemy test Welcha,
wykonanie od razu testu Welcha bez uprzedniego testowania równości wariancji.
7. Funkcje w pakiecie R
Do przeprowadzenia testu Studenta dla jednej próby, testu Studenta dla par obserwacji, testu Studenta dla dwóch prób niezależnych i testu Welcha w R służy funkcja t.test.
Jeśli podamy tylko argument x, pozostawiając y=NULL, a zatem podamy tylko jedną próbę, wykona się test Studenta dla jednej próby.
Jeśli podamy argumenty x i y oraz paired = TRUE (domyślna wartość: paired = FALSE), wykona się test Stu- denta dla par obserwacji.
Jeśli podamy argumenty x i y oraz var.equal = TRUE (domyślna wartość: var.equal = FALSE), wykona się test Studenta dla dwóch prób niezależnych.
Jeśli podamy argumenty x i y oraz pozostawimy domyślną wartość var.equal = FALSE, wykona się test Welcha.
alternative = "two.sided" (na ogół wartość domyślna) oznacza alternatywę postaci µ1− µ26= µ0,
alternative = "greater" (równoważnie: alternative = "g") oznacza alternatywę postaci µ1− µ2> µ0,
alternative = "less" (równoważnie: alternative = "l") oznacza alternatywę postaci µ1− µ2< µ0.
W argumencie mu umieszczamy µ0.
W przypadku testów wymagających podania dwóch prób przy podaniu danych możemy posłużyć się także formułą postaci lhs~rhs, gdzie lhs określa wektor danych zaś rhs służy do podziału danych na dwie grupy.
Do przeprowadzenia testu dla wariancji służy funkcja var.test.
alternative = "two.sided" (na ogół wartość domyślna) oznacza alternatywę postaci σ12/σ226= r,
alternative = "greater" (równoważnie: alternative = "g") oznacza alternatywę postaci σ21/σ22> r,
alternative = "less" (równoważnie: alternative = "l") oznacza alternatywę postaci σ12/σ22< r.
W argumencie ratio umieszczamy r.
Przy podaniu danych możemy posłużyć się także formułą postaci lhs~rhs, gdzie lhs określa wektor danych zaś rhs służy do podziału danych na dwie grupy.