1 Wykład 6
Przykład 1.1 Podczas rozprawy s þ adowej, wykorzystuj þ ac zebrane dowody i zez- nania ´swiadków, s þ edzia musi odpowiedzie´c na pytanie: Czy prawd þ a jest, úze pod- s þ adny jest winien? Zadanie to moúzna przedstawi´c w j þ ezyku testowania hipotez:
H
0: Pods þ adny jest niewinny H
1: Pods þ adny jest winien
Decyzja, podejmowana przez s þ ad, polega na wyborze hipotezy, która jego zdaniem jest prawdziwa. S þ ad moúze jednak popełni´c jeden z dwóch moúzliwych bł þ edów:
H
0jest prawdziwa, a s þ ad twierdzi, úze H
1jest prawdziwa ( s þ ad skazał niewinnego)
lub teúz
H
1jest prawdziwa, a s þ ad twierdzi, úze H
0jest prawdziwa ( s þ ad uwolnił winnego)
Skutki tych bł þ edów s þ a róúzne. W prawodawstwie wielu krajów przyjmuje si þ e, úze pierwszy bł þ ad jest bardziej dotkliwy - s þ ady skazuj þ a gdy dysponuj þ a mocnymi ar- gumentami przeciw pods þ adnemu. Ten sposób post þ epowania nazywa si þ e zasad þ a domniemania niewinno´sci. ¥
Jeúzeli θ jest parametrem modelu statystycznego, układ dwóch hipotez moúze by´c sformułowany jako:
H
0: θ ∈ Θ
0H
1: θ ∈ Θ
1,
oraz Θ
0∩ Θ
1= ∅. W post þepowaniu, prowadz þacym do rozstrzygni þecia, która z tych dwóch hipotez jest prawdziwa, moúzemy popełni´c dwa bł þedy:
• bł þ ad pierwszego rodzaju:
twierdzimy, úze H
1jest prawdziwa gdy H
0jest prawdziwa
• bł þ ad drugiego rodzaju:
twierdzimy, úze H
0jest prawdziwa gdy H
1jest prawdziwa
Optymalne post þepowanie powinno prowadzi´c do zmniejszenia ryzyka popełnienia bł þedu. Niestety, nie moúzna unikn þ a´c popełnienia obu bł þedów jednocze´snie. Za- zwyczaj, przy próbie zminimalizowania bł þedu pierwszego rodzaju zwi þeksza sie szansa popełnienia bł þedu drugiego rodzaju. Podobnie jest z bł þedem drugiego rodzaju. Aby unikn þ a´c kłopotów post þepuje si þe w statystyce podobnie jak w orzecznictwie s þ adowym: obowi þ azuje zasada domniemania prawdziwo´sci hipotezy zerowej, cz þesto nazywan þ a zasad þ a konserwatyzmu.
Zasada domniemania prawdziwo´sci hipotezy zerowej oznacza, úze chcemy mie´c gwarancj þe, úze bł þ ad pierwszego rodzaju
1nie wyst þ api zbyt cz þesto. Musimy
1
a wi þec bł þ ad polegaj þ acy na tym, úze odzrucamy hipotez þe zerow þ a, gdy jest ona prawdziwa
wi þec okre´sli´c dopuszczaln þ a granic þe bł þedu I rodzaju. Spo´sród wszystkich znanych nam sposobów podj þecia decyzji odrzucenia hipotezy zerowej, spełniaj þ acych ten warunek, wybieramy ten, który daje najmniejszy bł þ ad II rodzaju. Jeúzeli jako hipotez þe zerow þ a wybierzemy stan wiedzy przed przeprowadzeniem eksperymentu to zasada domniemania prawdziwo´sci hipotezy zerowej oznacza, úze przyjmiemy nowe fakty
2jedynie wtedy, gdy jej odrzucenie b þedzie dobrze udokumentowane.
Podobnie, jak w post þepowaniu s þ adowym, gdzie odrzucenie hipotezy o niewin- no´sci musi by´c dobrze udokumentowane (w þ atpliwo´sci s þ a uwzgl þedniane z korzy´s- ci þ a dla oskarúzonego).
DeÞnicja 1.1 Hipotez þ e nazywamy prost þ a jeúzeli zbiór parametrów j þ a kre´slaj þ a- cych jest jednoelementowy. Hipoteza jest złoúzona jesli nie jest prosta.
Przykład 1.2 Rzucamy monet þ a i chcieliby´smy dowiedzie´c si þ e, czy moneta jest symetryczna czy niesymetryczna. Układ dwóch hipotez w tym przypadku byłby nast þ epuj þ acy:
H
0: θ = 1 2 , H
1: θ 6= 1
2
Hipoteza zerowa jest prosta, hipoteza konkurencyjna jest złoúzona. ¥
Przykład 1.3 Obserwujemy w do´swiadczeniu warto´sci pewnej zmiennej o dys- trybuancie F , pochodz þ acej z rodziny dystrybuant F. Chcemy rozstrzygn þ a´c, czy ma ona rozkład normalny.Układ dwóch hipotez w tym przypadku jest nast þ epu- j þ acy:
H
0: F ∈ N = {N (µ, σ) : µ ∈ R, σ ∈ (0, ∞]}
H
1: F ∈ F − N
W tym przykładzie zarówno hipoteza zerowa jak i konkurencyjna s þ a złoúzone. ¥ DeÞnicja 1.2 Hipoteza, w której zbiór parametrów jest podzbiorem R
knazywa si þ e hipotez þ a parametryczn þ a, w przeciwnym przypadku mówimy o hipotezie nieparame- trycznej. Dodatkowo, je´sli w hipotezie zerowej jest mowa o typie rozkładu, to mówimy o hipotezie zgodno´sci.
Hipotezy w przykładzie 1.2 s þ a parametryczne, natomiast w przykładzie 1.3 s þ a nieparametrycznymi hipotezami zgodno´sci.
Decyzja o wyborze hipotezy powinna by´c oparta na obserwacjach i musi wskazywa´c, jakie warunki musz þ a one spełnia´c aby moúzna było odrzuca´c hipotez þe zerow þ a. A wi þec reguła podj þecia decyzji oznacza wskazanie zbioru C ⊂ R
n, zwanego zbiorem krytycznym. Ustalenie zbioru krytycznego nazywa si þe teúz wyborem testu statystycznego. Gdy obserwacja X ∈ C to b þedziemy odrzuca´c hipotez þe zerow þ a
3. W przeciwnym przypadku hipotezy zerowej nie b þedziemy odrzuca´c. W post þepowaniu s þ adowym zbiór krytyczny oznaczałby okre´slenie, jakie dowody wystarcz þ a do udowodnienia winy oskarúzonemu.
Bł þ ad I rodzaju oznacza zdarzenie X ∈ C pod warunkiem, úze hipoteza zerowa jest prawdziwa. Miar þ a szansy zaj´scia tego zdarzenia jest jego praw- dopodobie´nstwo.
2
a wi þec odrzucimy hipotez þe zerow þ a
3
co oznacza przyj þecie hipotezy konkurencyjnej
DeÞnicja 1.3 Rozmiarem testu nazywamy prawdopodobie´ nstwo sup {P ( X ∈ C| θ) : θ ∈ Θ
0}
Rozmiar testu jest wi þec najwi þekszym prawdopodobie´ nstwem popełnienia bł þedu I rodzaju. Podobnie mogliby´smy okre´sli´c prawdopodobie´ nstwo bł þedu II rodzaju:
sup {P ( X / ∈ C| θ) : θ ∈ Θ
1}
Zasada domniemania prawdziwo´sci hipotezy zerowej oznacza, úze rozmiar testu nie przekroczy pewnej warto´sci α zwanej poziomem istotno´sci:
sup {P ( X ∈ C| θ) : θ ∈ Θ
0} ≤ α Mówimy wtedy, úze test jest na poziomie istotno´sci α.
W praktyce przyjmuje si þe dwa standardowe poziomy istotno´sci: α = 0.05 i α = 0.01.
Przykład 1.4 Rzucamy n = 5 razy monet þ a, w której prawdopodobie´ nstwo wyrzuce- nia orła wynosi θ. Chcemy rozstrzygn þ a´c hipotez þ e
H
0: θ = 1 2 przeciwko hipotezie
H
1: θ = 1 4
Niech X oznacza liczb þ e orłów uzyskanych w tych 5 rzutach.Jako zbiór krytyczny wybierzemy przedział C = [0, 2] . Rozmiar tego testu wynosi:
sup {P ( X ∈ C| θ) : θ ∈ Θ
0} = P µ
X ≤ 2| θ = 1 2
¶
= X
2i=0
µ 5 i
¶ µ 1 2
¶
5= 1
2 natomiast bł þ ad drugiego rodzaju wynosi
sup {P ( X / ∈ C| θ) : θ ∈ Θ
1} = P µ
X > 2| θ = 1 4
¶
=
1 − X
2 i=0µ 5 i
¶ µ 1 4
¶
iµ 3 4
¶
5−i= 53
512 ≈ .104
¥
Chcieliby´smy umie´c konstruowa´c moúzliwie najlepsze testy na zadanym poziomie ufno´sci. Słowo ”najlepszy” oznacza, úze w´sród wszystkich testów na zadanym poziomie ufno´sci ten test ma najmniejsze prawdopodobie´ nstwo bł þedu II rodzaju.
Zagadnienie to w szczególnym przypadku, rozwi þ azali w 1928,Jerzy Neyman i Egon Pearson
4.
Konstrukcja testów według Neymana i Pearsona opiera si þe na poj þeciu ilorazu wiarygodno´sci hipotez.
4
Jerzy Spława-Neyman (1984-1981), matematyk polski; Egon Sharpe Pearson (1895-1980)
matematyk angielski
DeÞnicja 1.4 Iloraz wiarygodno´sci hipotez H
0, H
1jest ilorazem L
x(H
0, H
1) = L
x(H
1)
L
x(H
0) gdzie
L
x(H) = sup {θ ∈ Θ
H: f
X( x| θ)}
oraz gdzie Θ
Hjest zbiorem parametrów opisuj þ acych hipotez þ e H a f
X( x| θ) jest g þ esto´sci þ a (rozkładem w przypadku zmiennej dyskretnej) cechy X w punkcie x.
Funkcj þ e L
x(H) nazywamy wiarygodno´sci þ a hipotezy H dla obserwacji x.
Iloraz wiarygodno´sci podaje, ile razy cz þe´sciej wyst þ apiłby wynik x gdyby prawdziwa była hipoteza H
1niúz gdyby prawdziwa była hipoteza H
0. Skłonni byliby´smy odrzuca´c hipotez þe H
0na rzecz hipotezy H
1na podstawie wyniku x gdyby iloraz wiarygodno´sci L
x(H
0, H
1) miał duúz þ a warto´s´c.
Przykład 1.5 (cd przykladu (1.4)) Iloraz wiarygodno´sci hipotez gdy uzyskamy x orłów w 5 rzutach wynosi:
L
x(H
0, H
1) = P ¡
X = x| θ =
14¢ P ¡
X = x| θ =
12¢ =
¡
5x
¢ ¡
14
¢
x¡
34
¢
5−x¡
5x
¢ ¡
12
¢
5= 243 32 3
−xWida´c, úze im mniejsza liczba wyrzuconych orłów, tym bardziej byliby´smy skłonni odrzuca´c hipotez þ e H
0na rzecz hipotezy H
1, co jest zgodne z nasz þ a intuicj þ a. Gdy, na przykład, w wyniku 5 rzutów wypadn þ a 2 orły, to iloraz wiarygodno´sci w tym przypadku wynosi
243
32 3
−2≈ .844
co sugeruje, úze hipoteza H
1jest słabsza od hipotezy H
1. ¥
B þedziemy rozwaúza´c zbiory krytyczne postaci C = {x : L
x(H
0, H
1) > k}.
Poniúzsze twierdzenie, znane pod nazw þ a lematu Neymana-Pearsona podaje kon- strukcj þe testów optymalnych, gdy testujemy prost þ a hipotez þe przeciwko prostej hipotezie alternatywnej.
Lemat 1.1 (Neymana - Pearsona) Niech H
0: f = f
0, H
1: f = f
1i f
0oraz f
1b þ ed þ a g þ esto´sciami prawdopodobie´ nstwa, ci þ agłymi i dodatnimi na tym samym zbiorze.
Wtedy w´sród wszystkich testów o rozmiarze nie przekraczaj þ acym α test o najmniejszym prawdopodobie´ nstwie bł þ edów II rodzaju dany jest wzorem:
C = {x : L
x(H
0, H
1) > k} , gdzie k spełnia warunek
α = P ( X ∈ C| H
0) = Z
C
f
0(x) dx
Dowód. Niech D b þedzie dowolnym testem na poziomie ≤ α . Oznacza to, úze
P ( X ∈ D| H
0) ≤ α.
Niech
φ
A(x)
def=
½ 1 gdy x ∈ A 0 gdy x / ∈ A Wtedy dla kaúzdego x
0 ≤ (φ
C(x) − φ
D(x)) (f
1(x) − kf
0(x)) oraz
0 ≤
Z
C
(φ
C(x) − φ
D(x)) (f
1(x) − kf
0(x)) dx =
= P ( X ∈ C| H
1) − P ( X ∈ D| H
1) − k (P ( X ∈ C| H
0) − P ( X ∈ D| H
0)) =
= P ( X ∈ C| H
1) − P ( X ∈ D| H
1) − k (α − P ( X ∈ D| H
0)) ≤
≤ P ( X ∈ C| H
1) − P ( X ∈ D| H
1)
T þe ostatni þ a nierówno´s´c moúzna zapisa´c w innej postaci:
P ( X / ∈ C| H
1) ≤ P ( X / ∈ D| H
1) co oznacza, úze test C ma mniejszy bł þ ad II rodzaju niúz test D.
Przykład 1.6 Niech X
T= (x
1, x
2, . . . , x
n) b þ edzie prób þ a prost þ a z rozkładu nor- malnego N (µ, σ) i odchylenie standardowe σ jest znane. Chcemy testowa´c hipotezy
H
0: µ = µ
0, H
1: µ = µ
1gdzie µ
1> µ
0. Z lematu Neymana - Pearsona wynika, úze obszar krytyczny musi by´c skonstruowany za pomoc þ a ilorazu wiarygodno´sci
L
x(H
0, H
1) =
¡ 2πσ
2¢
−n/2exp ³
− P
ni=1
(x
i− µ
1)
2/2σ
2´ (2πσ
2)
−n/2exp ³
− P
ni=1
(x
i− µ
0)
2/2σ
2´ =
= exp Ã
nX
i=1
³
(x
i− µ
0)
2− (x
i− µ
1)
2´ /2σ
2!
= exp ¡
n ¡
2x (µ
1− µ
0) + ¡ µ
20− µ
21¢¢ /2σ
2¢
Iloraz wiarygodno´sci jest rosn þ ac þ a funkcj þ a x tak wi þ ec rozwi þ azyranie nierówno´sci L
x(H
0, H
1) > k jest równowaúzne rozwi þ azaniu nierówno´sci x > k
∗. Tak wi þ ec b þ edziemy odrzuca´c hipotez þ e H
0gdy obserwacje X
T= (x
1, x
2, . . . , x
n) spełnia´c b þ ed þ a nierówno´s´c
x > k
∗gdzie stała k
∗jest rozwi þ azaniem równania P ( x > k
∗| H
0) = α
To ostatnie równanie da si þ e łatwo wyrazi´c przez dystrybuant þ e Φ standardowego rozkładu normalnego, gdyúz zmienna losowa
Z = X − µ
0σ/ √ n
ma standardowy rozkład normalny. Korzystaj þ ac z tego faktu, α = P ( x > k
∗| H
0) = P
µ X − µ
0σ/ √
n > k
∗− µ
0σ/ √ n
¯ ¯
¯ ¯ H
0¶
=
= 1 − Φ
µ k
∗− µ
0σ/ √ n
¶
Jeúzeli wprowadzimy oznaczenie z
αdef