• Nie Znaleziono Wyników

4. Test Studenta dla dwóch prób niezależnych

N/A
N/A
Protected

Academic year: 2021

Share "4. Test Studenta dla dwóch prób niezależnych"

Copied!
9
0
0

Pełen tekst

(1)

Wokół testu Studenta

1. Wprowadzenie

Rozkłady prawdopodobieństwa występujące w testowaniu hipotez dotyczących rozkładów normalnych Rozkład normalny N (µ, σ2), µ ∈ R, σ2> 0

gęstość:

f (x) = 1 σ√

2π e(x−µ)22σ2

Niech a ∈ R \ {0}, b ∈ R, X ∼ N (µ, σ2), Y ∼ N (ν, τ2), µ, ν ∈ R, σ2, τ2 > 0 i niech zmienne losowe X i Y będą niezależne. Wówczas:

ˆ EX = µ,

ˆ V ar(X) = σ2,

ˆ X + b ∼ N(µ + b, σ2),

ˆ aX ∼ N(aµ, a2σ2),

ˆ X−µσ ∼ N (0, 1),

ˆ X + Y ∼ N(µ + ν, σ2+ τ2).

Rozkład N (0, 1) nazywamy standardowym rozkładem normalnym. Jego gęstość jest postaci:

f (x) = 1

√2π ex22 .

Gęstość rozkładu N (0, 1) jest funkcją parzystą.

Niech ξ ∼ N (0, 1), µ ∈ R, σ2> 0. Wówczas σξ + µ ∼ N (µ, σ2).

Φ – dystrybuanta rozkładu N (0, 1)

∀ x ∈ R Φ(−x) = 1 − Φ(x) Φ−1 – funkcja kwantylowa rozkładu N (0, 1)

∀ p ∈ (0, 1) Φ−1(p) = −Φ−1(1 − p) Niech Φµ,σ2 oznacza dystrybuantę rozkładu N (µ, σ2), µ ∈ R, σ2> 0. Wówczas

∀ x ∈ R Φµ,σ2(x) = Φ x − µ σ

 .

Niech Φ−1µ,σ2 oznacza funkcję kwantylową rozkładu N (µ, σ2), µ ∈ R, σ2> 0. Wówczas

∀ p ∈ (0, 1) Φ−1µ,σ2(p) = σΦ−1(p) + µ.

Rozkład chi-kwadrat z ν stopniami swobody χ2ν, ν ∈ N+

Niech ξ1, ξ2, . . . , ξν ∼ N (0, 1) będą niezależnymi zmiennymi losowymi. Wówczas ξ21+ ξ22+ . . . + ξ2ν∼ χ2ν.

Niech X ∼ χ2ν i Y ∼ χ2κ, ν, κ ∈ N+, będą niezależnymi zmiennymi losowymi. Wówczas

ˆ P (X ≥ 0) = 1,

ˆ EX = ν,

ˆ V ar(X) = 2ν,

ˆ X + Y ∼ χ2ν+κ.

(2)

χ2ν – dystrybuanta rozkładu χ2ν, (χ2ν)−1 – funkcja kwantylowa rozkładu χ2ν

Wzór na gęstość rozkładu chi-kwadrat przy zastosowaniu w nim funkcji γ Eulera zachowuje sens także dla niecałkowi- tej liczby stopni swobody, a zatem w oparciu o niego możemy zdefiniować rozkład chi-kwadrat z liczbą stopni swobody będącą dowolną liczbą dodatnią.

Rozkład Studenta z ν stopniami swobody tν, ν ∈ N+

Niech ξ0, ξ1, ξ2, . . . , ξν ∼ N (0, 1) będą niezależnymi zmiennymi losowymi. Wówczas ξ0

12+ ξ22+ . . . + ξν2 ν

∼ tν.

Równoważne: niech ξ0∼ N (0, 1) i χ ∼ χ2ν będą niezależnymi zmiennymi losowymi. Wówczas ξ0

r χ ν

∼ tν.

Gęstość rozkładu tν jest funkcją parzystą.

Niech X ∼ tν. Wówczas EX = 0.

tν – dystrybuanta rozkładu tν

∀ x ∈ R tν(−x) = 1 − tν(x) t−1ν – funkcja kwantylowa rozkładu tν

∀ p ∈ (0, 1) t−1ν (p) = −t−1ν (1 − p) Niech Xn∼ tn, n ∈ N+. Wówczas Xn

−−−−→D

n→∞ N (0, 1).

Wzór na gęstość rozkładu Studenta przy zastosowaniu w nim funkcji γ Eulera zachowuje sens także dla niecałkowitej liczby stopni swobody, a zatem w oparciu o niego możemy zdefiniować rozkład Studenta z liczbą stopni swobody będącą dowolną liczbą dodatnią.

Rozkład Fishera-Snedecora z ν i κ stopniami swobody Fν,κ, ν, κ ∈ N+

Niech ξ1, ξ2, . . . , ξν, ζ1, ζ2, . . . , ζκ∼ N (0, 1) będą niezależnymi zmiennymi losowymi. Wówczas ξ12+ ξ22+ . . . + ξ2ν

ν

ζ12+ ζ22+ . . . + ζκ2 κ

∼ Fν,κ.

Równoważne: niech χ1∼ χ2ν i χ2∼ χ2κ będą niezależnymi zmiennymi losowymi. Wówczas χ1

χν2

κ

∼ Fν,κ.

Niech X ∼ Fν,κ. Wówczas

ˆ P (X ≥ 0) = 1,

ˆ 1/X ∼ Fκ,ν.

Fν,κ – dystrybuanta rozkładu Fν,κ, Fν,κ−1 – funkcja kwantylowa rozkładu Fν,κ

∀ p ∈ (0, 1) Fν,κ−1(p) = 1 Fκ,ν−1(1 − p) Niech Xn∼ Fν,n, ν, n ∈ N+. Wówczas νXn

−−−−→D n→∞ χ2ν.

Twierdzenie Fishera. Niech X1, X2, . . . , Xn będzie próbą z rozkładu N (µ, σ2). Wówczas statystyki

X = 1 n

n

X

i=1

Xi i

n

X

i=1

(Xi− X)2

(3)

są niezależne. Ponadto

Pn

i=1(Xi− X)2

σ2 ∼ χ2n−1.

2. Test Studenta dla jednej próby

Niech X1, X2, . . . , Xn będzie próbą z rozkładu N (µ, σ2), przy czym µ ∈ R i σ2 > 0 uznajemy za nieznane.

Rozważamy następujący problem testowania hipotez:

H : µ = µ0 vs K : µ > µ0 lub

H : µ = µ0 vs K : µ < µ0

lub

H : µ = µ0 vs K : µ 6= µ0. Niech X = 1

n

n

X

i=1

Xi. Ze względu na to, że mamy EX = µ, test oprzemy na różnicy X − µ0:

ˆ jeśli różnica X − µ0 jest duża (znacznie większa od 0), to przemawia to za prawdziwością hipotezy µ > µ0,

ˆ jeśli różnica X − µ0 jest mała (znacznie mniejsza od 0), to przemawia to za prawdziwością hipotezy µ < µ0,

ˆ jeśli różnica X − µ0 jest duża lub mała (oddalona od 0), to przemawia to za prawdziwością hipotezy µ 6= µ0. Jako że X ∼ N (µ,σn2), to przy H zachodzi X ∼ N (µ0,σn2), a zatem

X − µ0

2 n

∼ N (0, 1).

Ponieważ jednak nie znamy wartości σ2, spróbujemy zastąpić σ2 statystyką S2 = 1 n − 1

n

X

i=1

(Xi − X)2 czyli tzw.

wariancją próbkową nieobciążoną (jako że ES2= σ2). Rozważmy statystykę

W = S2

n σ2

n

=S2 σ2 =

1 n − 1

n

X

i=1

(Xi− X)2

σ2 =

n

X

i=1

(Xi− X)2 σ2 n − 1 .

Zgodnie z twierdzeniem Fishera licznik ostatniego wyrażenia jest zmienną losową o rozkładzie χ2n−1niezależną odX, zatem przy H

T =

X − µ02

√ n

W = X − µ0

S

√n ∼ tn−1,

gdzie S =√

S2. W innej postaci:

T = X − µ0 v

u u t

n

X

i=1

(Xi− X)2

pn(n − 1).

H K Zbiór krytyczny p-wartość

µ = µ0 µ > µ0 (t−1n−1(1 − α), ∞) 1 − tn−1(T )

µ = µ0 µ < µ0 (−∞, t−1n−1(α)) = (−∞, −t−1n−1(1 − α)) tn−1(T )

µ = µ0 µ 6= µ0 (−∞, −t−1n−1(1 − α2)) ∪ (tn−1−1 (1 −α2), ∞) 2(1 − tn−1(|T |)) = 2 min(tn−1(T ), 1 − tn−1(T ))

(4)

3. Test Studenta dla par obserwacji

Niech XY1

1, XY2

2, . . . , XYn

n będzie próbą z ustalonego rozkładu, którego wartość oczekiwana istnieje. Niech Zi = Xi− Yi, i = 1, 2, . . . , n. Zakładamy, że Z1, Z2, . . . , Zn ∼ N (µ, σ2), przy czym przyjmujemy, że µ ∈ R i σ2 > 0 nie są znane.

Niech EX1 = µ1, EY1= µ2, przy czym zakładamy, że µ1, µ2 ∈ R nie są znane. Rozważamy następujący problem testowania hipotez:

H : µ1− µ2= µ0 vs K : µ1− µ2> µ0 lub

H : µ1− µ2= µ0 vs K : µ1− µ2< µ0

lub

H : µ1− µ2= µ0 vs K : µ1− µ26= µ0,

gdzie µ0 ∈ R jest ustaloną liczbą. Zauważmy, że µ1− µ2 = µ, a zatem rozważany problem testowania hipotez jest równoważmy problemowi

H : µ = µ0 vs K : µ > µ0

lub

H : µ = µ0 vs K : µ < µ0

lub

H : µ = µ0 vs K : µ 6= µ0

i może być rozwiązany za pomocą testu Studenta dla jednej próby Z1, Z2, . . . , Zn. Często rozważa się zagadnienie z µ0= 0. Wówczas rozważane hipotezy przyjmują postać:

H : µ1= µ2 vs K : µ1> µ2

lub

H : µ1= µ2 vs K : µ1< µ2 lub

H : µ1= µ2 vs K : µ16= µ2.

4. Test Studenta dla dwóch prób niezależnych

Niech będą dane dwie niezależne próby: X1, X2, . . . , Xn1z rozkładu N (µ1, σ2) i Y1, Y2, . . . , Yn2z rozkładu N (µ2, σ2), przy czym µ1, µ2∈ R i σ2 uznajemy za nieznane. Rozważamy następujący problem testowania hipotez:

H : µ1− µ2= µ0 vs K : µ1− µ2> µ0

lub

H : µ1− µ2= µ0 vs K : µ1− µ2< µ0 lub

H : µ1− µ2= µ0 vs K : µ1− µ26= µ0, gdzie µ0∈ R jest ustaloną liczbą. Niech

X = 1 n1

n1

X

i=1

Xi i Y = 1

n2

n2

X

j=1

Yj.

Ze względu na to, że EX = µ1i EY = µ2, a zatem E(X − Y ) = µ1− µ2, test oprzemy na statystyce X − Y − µ0:

ˆ jeśli statystyka X − Y − µ0 jest duża (znacznie większa od 0), to przemawia to za prawdziwością hipotezy µ1− µ2> µ0,

ˆ jeśli statystyka X − Y − µ0 jest mała (znacznie mniejsza od 0), to przemawia to za prawdziwością hipotezy µ1− µ2< µ0,

ˆ jeśli statystyka X − Y − µ0 jest duża lub mała (oddalona od 0), to przemawia to za prawdziwością hipotezy µ1− µ26= µ0.

(5)

Skoro X ∼ N (µ1,σn2

1) i Y ∼ N (µ2,σn2

2) to X − Y ∼ N (µ1− µ2,σn2

1 +σn2

2), a zatem przy H zachodzi X − Y ∼ N (µ0,σn2

1 +σn2

2), czyli

X − Y − µ0 s

σ2 1 n1 + 1

n2



∼ N (0, 1).

Ponieważ jednak nie znamy wartości σ2, spróbujemy zastąpić σ2statystyką

Sp2=

n1

X

i=1

(Xi− X)2+

n2

X

j=1

(Yj− Y )2 n1+ n2− 2

Niech

W = Sp2 1

n1

+ 1 n2



σ2 1 n1

+ 1 n2

 = Sp2 σ2 =

n1

X

i=1

(Xi− X)2

σ2 +

n2

X

j=1

(Yj− Y )2 σ2 n1+ n2− 2 .

Ułamki w liczniku ostatniego wyrażenia są niezależnymi zmiennymi losowymi o rozkładach odpowiednio χ2n1−1 i χ2n2−1 (zgodnie z twierdzeniem Fishera), zatem ich suma jest zmienną losową o rozkładzie χ2n1+n2−2. Łatwo można stąd wywnioskować, że

EW = n1+ n2− 2

n1+ n2− 2 = 1 i V ar(W ) =2(n1+ n2− 2)

(n1+ n2− 2)2 = 2 n1+ n2− 2.

W szczególności z tego, że EW = 1, wynika, że ESp2= σ2, czyli że S2p jest nieobciążonym estymatorem σ2. Statystyka Sp2bywa nazywana wspólną wariancją próbkową (ang. pooled sample variance).

Zgodnie z twierdzeniem Fishera zmienna losowa W jest niezależna od zmiennych losowychX i Y , zatem przy H

T =

X − Y − µ0

s σ2 1

n1

+ 1 n2



W = X − Y − µ0

s Sp2 1

n1+ 1 n2



= X − Y − µ0 Sp

r 1 n1

+ 1 n2

∼ tn1+n2−2,

gdzie Sp=q

Sp2. W innej postaci:

T = X − Y − µ0

v u u u t

 1 n1

+ 1 n2



n1

X

i=1

(Xi− X)2+

n2

X

j=1

(Yj− Y )2

√n1+ n2− 2.

H K Zbiór krytyczny p-wartość

µ1− µ2= µ0 µ1− µ2> µ0 (t−1n

1+n2−2(1 − α), ∞) 1 − tn1+n2−2(T ) µ1− µ2= µ0 µ1− µ2< µ0 (−∞, t−1n1+n2−2(α)) = (−∞, −t−1n1+n2−2(1 − α)) tn1+n2−2(T ) µ1− µ2= µ0 µ1− µ26= µ0 (−∞, −t−1n

1+n2−2(1 −α2)) ∪ (t−1n

1+n2−2(1 −α2), ∞) 2(1 − tn1+n2−2(|T |)) =

=2 min(tn1+n2−2(T ),1−tn1+n2−2(T ))

Często powyższy test stosuje się dla µ0= 0. Wówczas rozważane hipotezy przyjmują postać:

H : µ1= µ2 vs K : µ1> µ2 lub

H : µ1= µ2 vs K : µ1< µ2

lub

H : µ1= µ2 vs K : µ16= µ2.

(6)

5. Test Welcha

Niech będą dane dwie niezależne próby: X1, X2, . . . , Xn1z rozkładu N (µ1, σ21) i Y1, Y2, . . . , Yn2z rozkładu N (µ2, σ22), przy czym µ1, µ2∈ R i σ21, σ22> 0 uznajemy za nieznane. Rozważamy następujący problem testowania hipotez:

H : µ1− µ2= µ0 vs K : µ1− µ2> µ0 lub

H : µ1− µ2= µ0 vs K : µ1− µ2< µ0 lub

H : µ1− µ2= µ0 vs K : µ1− µ26= µ0,

gdzie µ0∈ R jest ustaloną liczbą. Tak postawiony problem testowania (tj. bez założenia, że σ12= σ22), nazywany jest problemem Behrensa-Fishera.

Niech

X = 1 n1

n1

X

i=1

Xi i Y = 1

n2

n2

X

j=1

Yj.

Tak jak przy teście Studenta dla dwóch prób nie zależnych, ze względu na to, że EX = µ1 i EY = µ2, a zatem E(X − Y ) = µ1− µ2, test oprzemy na statystyce X − Y − µ0:

ˆ jeśli statystyka X − Y − µ0 jest duża (znacznie większa od 0), to przemawia to za prawdziwością hipotezy µ1− µ2> µ0,

ˆ jeśli statystyka X − Y − µ0 jest mała (znacznie mniejsza od 0), to przemawia to za prawdziwością hipotezy µ1− µ2< µ0,

ˆ jeśli statystyka X − Y − µ0 jest duża lub mała (oddalona od 0), to przemawia to za prawdziwością hipotezy µ1− µ26= µ0.

Skoro X ∼ N (µ1,σn12

1) i Y ∼ N (µ2,σn22

2) to X − Y ∼ N (µ1− µ2,σn12

1 +σn22

2), a zatem przy H zachodzi X − Y ∼ N (µ0,σn12

1 +σn22

2), czyli

X − Y − µ0

s σ12 n122

n2

∼ N (0, 1).

Ponieważ jednak nie znamy wartości σ12 i σ12, spróbujemy zastąpić σ12i σ22statystykami odpowiednio

S12= 1 n1− 1

n1

X

i=1

(Xi− X)2 i S22= 1 n2− 1

n2

X

j=1

(Yj− Y )2.

S12 jest nieobciążonym estymatorem σ12 i podobnie S12 jest nieobciążonym estymatorem σ21. Z twierdzenia Fishera wiemy, że σ12

1

Pn1

i=1(Xi− X)2∼ χ2n

1−1. W takim razie V ar S12 = V ar

 σ12 n1− 1

Pn1

i=1(Xi− X)2 σ12



= σ14

(n1− 1)2V ar

 Pn1

i=1(Xi− X)2 σ21



= σ14

(n1− 1)2· 2(n1− 1) = 2σ14 n1− 1. Podobnie σ12

2

Pn2

j=1(Yj− Y )2∼ χ2n2−1. W takim razie

V ar S22 = V ar σ22 n2− 1

Pn2

j=1(Yj− Y )2 σ22

!

= σ14

(n2− 1)2V ar Pn2

j=1(Yj− Y )2 σ22

!

= σ24

(n2− 1)2· 2(n2− 1) = 2σ24 n2− 1. Niech

W = S12 n1

+S22 n2

σ12 n1

22 n2

.

(7)

Ze względu na to, że ES12= σ12 i ES22= σ22, widzimy, że EW = 1. Statystyki S12 i S22 są niezależne. Stąd

V ar(W ) = V ar S12 n1

+S22 n2

σ21 n1

22 n2

= 1

n21V ar(S12) + 1

n22V ar(S22)

 σ12 n1

22 n2

2 =

1 n21 · 2σ41

n1− 1+ 1

n22 · 2σ24 n2− 1

 σ21 n1

22 n2

2 .

Rozkład statystyki W nie należy do rodziny rozkładów chi-kwadrat, jednak będziemy się starali przybliżyć ten roz- kład rozkładem z rodziny rozkładów chi-kwadrat. Niech ν oznacza liczbę stopni swobody poszukiwanego rozkładu.

Wyznaczymy ją w oparciu o równanie V ar(W ) = ν2 (na podobieństwo rozważań w konstrukcji testu Studenta dla dwóch prób niezależnych). W takim razie

1

n21 · 2σ14 n1− 1 + 1

n22 · 2σ42 n2− 1

 σ12 n1

22 n2

2 = 2

ν, czyli ν =

 σ21 n1

22 n2

2 1

n21 · σ14 n1− 1+ 1

n22 · σ42 n2− 1

.

Ostateczny wynik otrzymujemy, zastępując σ12 i σ22statystykami S12 i S22 odpowiednio:

ν=

 S12 n1

+S22 n2

2 1

n21 · S14 n1− 1+ 1

n22 · S24 n2− 1

, czyli ν=

 S21 n1

+S22 n2

2

 S12 n1

2 n1− 1 +

 S22 n2

2 n2− 1

.

Ostatnie równanie nosi nazwę równania Welcha-Satterthwaite’a, stąd i test, który konstruujemy bywa nazywany testem Welcha-Satterthwaite’a. Zmienna losowa W jest niezależna od zmiennych losowychX i Y , zatem statystyka

T =

X − Y − µ0

s σ12 n122

n2

√W =X − Y − µ0

s S12 n1

+S22 n2

przy H ma w przybliżeniu rozkład tν. ν możemy zastąpić przez [ν]. W innej postaci:

T = X − Y − µ0

s Pn1

i=1(Xi− X)2 n1(n1− 1) +

Pn2

j=1(Yj− Y )2 n2(n2− 1)

.

H K Zbiór krytyczny p-wartość

µ1− µ2= µ0 µ1− µ2> µ0 (t−1ν(1 − α), ∞) 1 − tν(T ) µ1− µ2= µ0 µ1− µ2< µ0 (−∞, t−1ν(α)) = (−∞, −t−1ν(1 − α)) tn−1(T ) µ1− µ2= µ0 µ1− µ26= µ0 (−∞, −t−1ν(1 − α2)) ∪ (t−1ν(1 −α2), ∞) 2(1 − tν(|T |)) =

= 2 min(tν(T ), 1 − tν(T ))

Często powyższy test stosuje się dla µ0= 0. Wówczas rozważane hipotezy przyjmują postać:

H : µ1= µ2 vs K : µ1> µ2

lub

H : µ1= µ2 vs K : µ1< µ2

lub

H : µ1= µ2 vs K : µ16= µ2.

(8)

6. Porównanie wariancji w dwóch próbach pochodzących z rozkładów normalnych

Niech będą dane dwie niezależne próby: X1, X2, . . . , Xn1z rozkładu N (µ1, σ21) i Y1, Y2, . . . , Yn2z rozkładu N (µ2, σ22), przy czym µ1, µ2∈ R i σ21, σ22> 0 uznajemy za nieznane. Rozważamy następujący problem testowania hipotez:

H : σ1222= r vs K : σ1222> r lub

H : σ1222= r vs K : σ1222< r lub

H : σ2122= r vs K : σ12226= r, gdzie r > 0 jest ustaloną liczbą.

Niech

X = 1 n1

n1

X

i=1

Xi, X = 1 n2

n2

X

j=1

Yj, S12= 1 n1− 1

n1

X

i=1

(Xi− X)2 i S22= 1 n2− 1

n2

X

j=1

(Yj− Y )2.

Ze względu na to, że ES12= σ12 i ES22= σ22, a zatem ES12/ES22= σ2122, test oprzemy na statystyce T =1

r·S12 S22 :

ˆ jeśli statystyka T jest duża (znacznie większa od 1), to przemawia to za prawdziwością hipotezy σ2122> r,

ˆ jeśli statystyka T jest mała (znacznie mniejsza od 1), to przemawia to za prawdziwością hipotezy σ1222< r,

ˆ jeśli statystyka T jest duża lub mała (oddalona od 1), to przemawia to za prawdziwością hipotezy σ12226= r.

Ponieważ

T = 1 n1− 1 ·

Pn1

i=1(Xi− X)2 σ12 1

n2− 1 · Pn2

j=1(Yj− Y )2 σ22

,

przy czym zgodnie z twierdzenie Fishera

Pn1

i=1(Xi−X)2

σ12 ∼ χ2n1−1 i

Pn2

j=1(Yj−Y )2

σ22 ∼ χ2n2−1 i statystyki te są niezależne, to przy H mamy T ∼ Fn1−1,n2−1. W innej postaci:

T = 1 r·

1 n1− 1

n1

X

i=1

(Xi− X)2 1

n2− 1

n2

X

j=1

(Yj− Y )2 ,

H K Zbiór krytyczny p-wartość

σ2122= r σ2122> r (Fn−1

1−1,n2−1(1 − α), ∞) 1 − Fn1−1,n2−1(T ) σ2122= r σ2122< r (−∞, Fn−1

1−1,n2−1(α)) Fn1−1,n2−1(T )

σ2122= r σ21226= r (−∞, Fn−11−1,n2−1(α2)) ∪ (Fn−11−1,n2−1(1 −α2), ∞) 2 min(Fn1−1,n2−1(T ), 1 − Fn1−1,n2−1(T ))

Często powyższy test stosuje się dla r = 1. Wówczas rozważane hipotezy przyjmują postać:

H : σ21= σ22 vs K : σ12> σ22 lub

H : σ21= σ22 vs K : σ12< σ22 lub

H : σ21= σ22 vs K : σ126= σ22.

(9)

Sytuacja, w której nie wszystkie obserwacje pochodzą z rozkładów o tej samej wariancji, nazywamy heteroskeda- stycznością danych (w przeciwieństwie do homoskedastyczności danych, gdy wszystkie obserwacje pochodzą z rozkła- dów o tej samej wariancji).

W praktyce zależności od dopasowania danych do rozkładów normalnych, postulowanego ilorazu wariancji i po- stulowanej różnicy wartości oczekiwanych w celu porównania wartości oczekiwanych dwóch rozkładów zaleca się prze- prowadzenie jednej z dwóch procedur:

ˆ przetestowanie równości wariancji w pierwszym kroku; jeśli brak podstaw do odrzucenia hipotezy o równości wariancji, wykonujemy test Studenta dla dwóch prób niezależnych, jeśli należy odrzucić hipotezę o równości wariancji, wykonujemy test Welcha,

ˆ wykonanie od razu testu Welcha bez uprzedniego testowania równości wariancji.

7. Funkcje w pakiecie R

Do przeprowadzenia testu Studenta dla jednej próby, testu Studenta dla par obserwacji, testu Studenta dla dwóch prób niezależnych i testu Welcha w R służy funkcja t.test.

ˆ Jeśli podamy tylko argument x, pozostawiając y=NULL, a zatem podamy tylko jedną próbę, wykona się test Studenta dla jednej próby.

ˆ Jeśli podamy argumenty x i y oraz paired = TRUE (domyślna wartość: paired = FALSE), wykona się test Stu- denta dla par obserwacji.

ˆ Jeśli podamy argumenty x i y oraz var.equal = TRUE (domyślna wartość: var.equal = FALSE), wykona się test Studenta dla dwóch prób niezależnych.

ˆ Jeśli podamy argumenty x i y oraz pozostawimy domyślną wartość var.equal = FALSE, wykona się test Welcha.

ˆ alternative = "two.sided" (na ogół wartość domyślna) oznacza alternatywę postaci µ1− µ26= µ0,

ˆ alternative = "greater" (równoważnie: alternative = "g") oznacza alternatywę postaci µ1− µ2> µ0,

ˆ alternative = "less" (równoważnie: alternative = "l") oznacza alternatywę postaci µ1− µ2< µ0.

ˆ W argumencie mu umieszczamy µ0.

W przypadku testów wymagających podania dwóch prób przy podaniu danych możemy posłużyć się także formułą postaci lhs~rhs, gdzie lhs określa wektor danych zaś rhs służy do podziału danych na dwie grupy.

Do przeprowadzenia testu dla wariancji służy funkcja var.test.

ˆ alternative = "two.sided" (na ogół wartość domyślna) oznacza alternatywę postaci σ12226= r,

ˆ alternative = "greater" (równoważnie: alternative = "g") oznacza alternatywę postaci σ2122> r,

ˆ alternative = "less" (równoważnie: alternative = "l") oznacza alternatywę postaci σ1222< r.

ˆ W argumencie ratio umieszczamy r.

Przy podaniu danych możemy posłużyć się także formułą postaci lhs~rhs, gdzie lhs określa wektor danych zaś rhs służy do podziału danych na dwie grupy.

Cytaty

Powiązane dokumenty

porównywana z oczekiwaną (lub stanowiącą punkt odniesienia) średnią populacyjną (np.. Test t-studenta dla

Ponieważ zmienna TN (ma/nie ma) rozkład normalny, (możemy/nie możemy) wykorzystać test t-studenta dla pojedynczej próby aby porównać średnią wartość TN z

p0,05 średnia nie różni się istotnie od wartości odniesienia.. Test t-studenta dla

Jeśli dwie grupy obserwacji (które mają zostać porównane) zostały oparte na tej samej grupie obiektów zmierzonych dwukrotnie (np. przed i po zabiegu), to wówczas znaczna

Test t-studenta dla prób zależnych wykazał istotność/nieistotność różnic pomiędzy średnią liczebnością mikrozooplanktonu przed i po udrożnieniu starorzecza.

Jeśli p&lt;0.05 to pomiędzy jakimiś grupami istnieją statystycznie istotne różnice.

Ponieważ (jest spełniona / nie jest spełniona) normalność rozkładów zmiennych, do porównania agresywności chłopców i dziewczynek należy użyć (testu

Innymi słowy, nowy test sprawdza czy wektor estymowanych współczynników Fouriera jest istotnie różny od 0 i czy leży we właściwej cz¸eści przestrzeni