• Nie Znaleziono Wyników

Testy zgodności typu chi-kwadrat dla hipotezy złożonej

N/A
N/A
Protected

Academic year: 2021

Share "Testy zgodności typu chi-kwadrat dla hipotezy złożonej"

Copied!
17
0
0

Pełen tekst

(1)

Anita Małoń (Wrocław)

Dagmara Ziółkowska (Wrocław)

Testy zgodności typu chi-kwadrat dla hipotezy złożonej

Streszczenie. Przeniesienie klasycznego testu zgodności chi-kwadrat na przypadek hi- potezy złożonej rodzi szereg problemów związanych z estymacją nieznanych parametrów.

Jeden ze sposobów ich wyeliminowania zaproponowali Dzhaparidze i Nikulin. Ważną za- letą ich pomysłu jest możliwość użycia dość dowolnych estymatorów. Celem tego arty- kułu jest popularyzacja wspomnianego rozwiązania i przedstawienie pełnego, a równocze- śnie elementarnego dowodu o rozkładzie asymptotycznym statystyki testowej. Dodatkowo w pracy zostanie pokazane, że prezentowany test jest elementem ogólnej klasy testów wy- nikowych, co przemawia za jego dobrymi własnościami. Ponadto zostanie przedstawiony przykład implementacji testu dla testowania zgodności w rodzinie z parametrami przesu- nięcia i skali.

Słowa kluczowe: test chi-kwadrat, hipoteza złożona, √

n-zgodny estymator, statystyka Dzhaparidze-Nikulina, test wynikowy.

1. Wstęp. Jednym z zagadnień wnioskowania statystycznego, które czę- sto wykorzystuje się w praktyce, jest testowanie zgodności rozkładu obser- wowanego z pewnąparametrycznąrodzinąrozkładów. Stosuje się go w ta- kich naukach jak: medycyna, ekonomia, bankowość, finanse oraz w wielu innych. Jest ono istotne, gdy potrzebujemy sprawdzić założenia dotyczące rozkładu pewnych danych. Dla przykładu, aby móc, przy pomocy uprosz- czonego wzoru na VaR (popularna miara ryzyka), obliczyć ryzykowność in- westycji w akcje jakiejś firmy musimy wiedzieć, że stopy zwrotu z tych akcji mająrozkład normalny. Aby to stwierdzić używa się testów zgodności.

Najstarszym, a równocześnie najbardziej popularnym testem zgodno- ści jest test chi-kwadrat Pearsona. Jego konstrukcja opiera się na podziale przestrzeni próby na rozłączne klasy oraz porównaniu empirycznych i teore- tycznych liczebności w tychże klasach. Określenie liczebności teoretycznych wiąże się z koniecznością estymacji nieznanych parametrów proponowanej rodziny. Jednąz metod estymacji, zachowującej klasycznąpostać statystyki Pearsona, zaproponował Fisher w 1924 roku. Jednakże prowadzi ona do istotnych trudności w jawnym wyznaczaniu estymatorów i jest uciążliwa

[109]

(2)

w praktyce. Natomiast próby pewnych uproszczeń w metodzie Fishera mogą prowadzić do błędnych wniosków. Tymczasem Dzhaparidze i Nikulin (1974) rozwinęli pomysł Fishera i zaproponowali rozwiązanie atrakcyjne dla prak- tyka.

W tym artykule chcemy przybliżyć i spopularyzować podejście Dzhapa- ridze–Nikulina. W rozdziałach 2, 3 przedstawimy pełny i elementarny dowód twierdzenia o rozkładzie asymptotycznym statystyki testowej (twierdzenie 1) oraz wykażemy, że twierdzenie Fishera jest jego szczególnym przypadkiem.

Te rozdziały sąkluczowe i zawierająistotę rozwią zania Dzhaparidze–Ni- kulina. Następne stanowiąuzupełnienie głównego nurtu naszych rozważań i mogąbyć czytane w dowolnej kolejności bądź w ogóle opuszczone. W roz- dziale 4 pokażemy, że test Dzhaparidze–Nikulina należy do ogólnej klasy testów wynikowych (ang. score tests), co tłumaczy m.in. dobre własności tych testów. Natomiast w rozdziale 5 wyprowadzimy wygodnądo obliczeń postać statystyki testowej dla rodziny z parametrem przesunięcia i skali.

2. Model,założenia i główne twierdzenie. Niech X

1

, X

2

, . . . , X

n

będąniezależnymi zmiennymi losowymi o jednakowym rozkładzie P przyj- mującymi wartości w pewnej przestrzeni mierzalnej ( X , F) oraz niech

P

0

= {P

β

: β = [β

1

, β

2

, . . . , β

q

]

T

∈ Γ}

będzie rodzinąrozkładów prawdopodobieństwa na ( X , F), gdzie Γ jest otwartym podzbiorem przestrzeni R

q

, a •

T

oznacza transpozycję.

Rozważmy weryfikację prawdziwości hipotezy H

00

orzekającej, że rozkład P należy do rodziny P

0

przy nieznanej wartości parametru β. Naśladując podejście Pearsona, prowadzące do konstrukcji statystyki testowej poprzez kategoryzację danych, rozważmy pewien ustalony podział przestrzeni X na rozłączne, mierzalne podzbiory A

1

, A

2

, . . . , A

m

, gdzie m > q + 1. Oznaczmy p

j

(β) = P

β

(X

1

∈ A

j

), j = 1, 2, . . . , m, oraz p(β) = [p

1

(β), p

2

(β), . . . , p

m

(β)]

T

odpowiadający im wektor prawdopodobieństw. Oczywiście, jeśli β ∈ Γ, to zachodzi

(1)



m j=1

p

j

(β) = 1.

Niech

P = 

p(β) = [p

1

(β), p

2

(β), . . . , p

m

(β)]

T

: β ∈ Γ 

oznacza rodzinę wektorów prawdopodobieństw wyznaczonych przez rodzinę

P

0

i wybór podzbiorów A

1

, A

2

, . . . , A

m

. Analogicznie przyjmijmy, że

p

j

= P (X

1

∈ A

j

), j = 1, 2, . . . , m, oraz p = [p

1

, p

2

, . . . , p

m

]

T

oznacza wektor

prawdopodobieństw nieznanego rozkładu P, z którego pochodząobserwacje.

(3)

W omawianym podejściu testowanie H

00

zastępuje się weryfikacjąhipotezy H

0

: p ∈ P przeciwko H

1

: p / ∈ P.

Oznaczmy przez N = [N

1

, N

2

, . . . , N

m

]

T

wektor liczebności empiry- cznych, gdzie N

j

jest liczbąobserwacji należą cych do zbioru A

j

dla j = 1, 2, . . . , m, tzn. N

j

= card{i : X

i

∈ A

j

, i = 1, 2, . . . , n}. Zauważmy, że



m

j=1

N

j

= n.

Klasyczna statystyka Pearsona ma postać

(2) S = ¯



m j=1

 N

j

− np

j

( ¯ β) 

2

np

j

( ¯ β) ,

gdzie ¯ β jest pewnym estymatorem nieznanego parametru β. Fisher (1924) udowodnił, że wybór estymatora ¯ β ma wpływ na rozkład asymptotyczny statystyki ¯ S. Wykazał też, że jeśli  β jest estymatorem największej wiaro- godności po zgrupowaniu danych, to odpowiadająca mu statystyka  S dana wzorem (2) ma rozkład asymptotyczny chi-kwadrat z m − q − 1 stopniami swobody. Dzhaparidze i Nikulin (1974), kosztem bardziej skomplikowanej postaci statystyki, zaproponowali ogólniejsze podejście opierające się na dość dowolnym estymatorze parametru β. Poniżej przedstawimy szczegółowo roz- wiązanie Dzhaparidze–Nikulina wykorzystując algebraiczne metody po czę- ści oparte na pomyśle Raynera i Besta (1989).

Do dalszych rozważań załóżmy, że rodzina P spełnia pewne warunki regularności. Wyrazimy je w języku wektora p(β). Załóżmy więc, że wektor p(β) spełnia dla każdego β ∈ Γ następujące warunki:

(A) p

j

(β) > 0 dla j = 1, 2, . . . , m;

(B) ∂p

j

(β)

∂β

u

, j = 1, 2, . . . , m, u = 1, 2, . . . , q, istniejąi sąciągłe ze względu na β;

(C) macierz B = B(β) =

 1

p

j

(β)

∂p

j

(β)

∂β

u

q×m

jest rzędu q.

Przez D = D(β) = diag[p

j

(β)] oznaczmy macierz diagonalną, w której na głównej przekątnej znajdują się prawdopodobieństwa p

j

(β) dla każdego j = 1, 2, . . . , m, oraz przez I

k

macierz jednostkowąrzędu k. Z kolei niech 1 oznacza m-wymiarowy wektor kolumnowy składający się z samych jedynek.

Przy tak wprowadzonych oznaczeniach łatwo zauważyć, że różniczkując względem β obie strony (1), otrzymujemy relację

(3) BD

−1/2

p(β) = BD

−1/2

D1 = 0.

Jest oczywiste, że estymator ¯ β nie może być całkiem dowolny i również

powinien mieć odpowiednio „dobre” własności. Poniższa definicja precyzuje

(4)

własność estymatora, która jest stosunkowo prosta do sprawdzenia i jest spełniona dla bardzo obszernej klasy estymatorów.

Definicja 1. Mówimy, że β = T (X

1

, X

2

, . . . , X

n

) jest √

n-zgodnym estymatorem parametru β, jeśli dla każdego β ∈ Γ cią g { √

n( β − β)} jest ograniczony według prawdopodobieństwa P

β

, czyli

∀β ∈ Γ ∀η > 0 ∃M = M(β, η) > 0 ∃n

0

= n

0

(β, η) ∀n ≥ n

0

P

β

√

n  β − β > M) ≤ η, gdzie  ·  oznacza normę euklidesowąw R

q

.

Poniższe twierdzenie stanowi główny wynik artykułu i zawiera istotę po- dejścia Dzhaparidze-Nikulina.

Twierdzenie 1. Niech β będzie √

n-zgodnym estymatorem parametru β, oraz niech spełnione będą założenia (A), (B), (C). Ponadto niech p = p( β), D = D( β), B = B( β) będą estymatorami odpowiednich wielkości. Wtedy przy prawdziwości hipotezy H

0

statystyka

(4) S =

N √ − n p n

T

D

−1

− D

−1/2

B

T

 B B

T



−1

B D

−1/2

N √ − n p n

ma asymptotyczny rozkład chi-kwadrat z m − 1 − q stopniami swobody.

Statystyka S dana wzorem (4) jest nazywana statystykąDzhaparidze- Nikulina i może być użyta jako statystyka testowa hipotezy H

0

. Jej zaletą jest to, że dopuszcza użycie dowolnego √

n-zgodnego estymatora, nie wyma- gając ograniczenia się do estymatorów szczególnej postaci, takich jak esty- matory największej wiarogodności czy największej wiarogodności po zgru- powaniu danych.

Dzhaparidze i Nikulin w pracy z 1974 roku podali dowód tezy twierdze- nia 1, tj. zbieżności S do rozkładu chi-kwadrat. Przyjęli oni jednak założenia typu Cramera, znacznie mocniejsze od warunków (A), (B), (C). Podobne twierdzenie znajduje się również w książce Greenwood i Nikulina (1996). Do- wód przedstawiony przez nich polega na użyciu rozwinięcia Taylora i rozwa- żaniach analitycznych związanych z szacowaniem reszty i wymianą β na β.

Natomiast dowód, który przedstawimy w następnym rozdziale stosuje me- tody algebraiczne i jest bardziej elementarny.

3. Dowód twierdzenia 1. Zanim przystąpimy do właściwego dowodu twierdzenia 1 przedstawimy kilka pomocniczych lematów oraz twierdzenie 2.

Dla u = 1, 2, . . . , q, β ∈ Γ, rozważmy wektory

∂log p(β)

∂β

u

=

 ∂log p

1

(β)

∂β

u

, ∂log p

2

(β)

∂β

u

, . . . , ∂log p

m

(β)

∂β

u



T

.

(5)

Macierz utworzona z wektorów ∂log p(β)

∂β

1

T

, ∂log p(β)

∂β

2

T

, . . . , ∂log p(β)

∂β

q

T

jest postaci BD

−1/2

. Zatem dzięki założeniom (A) i (C) ma rzą d q. Oznacza to, że powyższy układ wektorów jest dla każdego β liniowo niezależny w R

m

. Dla każdego ustalonego β ∈ Γ rozważmy iloczyn skalarny w przestrzeni R

m

określony wzorem v

T1

D(β)v

2

dla v

1

, v

2

∈ R

m

. Z (3) wynika, że

∂log p(β)

T

∂β

u

D(β)1 = 0 dla u = 1, 2, . . . , q, czyli że wektory ∂log p(β)

∂β

u

sąor- togonalne do wektora 1 w rozpatrywanym iloczynie skalarnym. Wybierzmy teraz m − 1 − q wektorów w

1

(β), w

2

(β), . . . , w

m−1−q

(β) przestrzeni R

m

, które sąortonormalne w powyższym iloczynie skalarnym, a ponadto sąor- togonalne do wektora 1 oraz do każdego z wektorów ∂log p(β)

∂β

u

. W ten sposób stanowiąone uzupełnienie układu wektorów

1, ∂log p(β)

∂β

1

, ∂log p(β)

∂β

2

, . . . , ∂log p(β)

∂β

q

do bazy przestrzeni R

m

. Oczywiste jest to, że wybór wektorów w

1

(β), w

2

(β), . . . , w

m−1−q

(β) nie jest jednoznaczny. Niech W = W(β) będzie macierzą wymiaru (m−1−q)×m, w której w

i

(β)

T

, i = 1, 2, . . . , m−1−q, są kolejnymi wierszami. Ze sposobu określenia wektorów w

1

(β), w

2

(β), . . . , w

m−1−q

(β) wynika szereg własności macierzy W(β), które zebrane sąw poniższym le- macie.

Lemat 1. Dla każdego β ∈ Γ spełnione są następujące relacje:

WDW

T

= I

m−1−q

, (5)

WD1 = Wp(β) = 0, (6)

WD

1/2

B

T

= WD



BD

−1/2



T

= 0.

(7)

Sposób doboru macierzy W oraz pomysł dowodu poniższego lematu 2 został zaczerpnięty z książki Raynera i Besta (1989), rozdz. 7. Lemat ten stanowić będzie istotny krok w dowodzie twierdzenia 2.

Lemat 2. Macierz W

T

W daje się wyrazić w postaci : (8) W

T

W = D

−1

− D

−1/2

B

T



BB

T



−1

BD

−1/2

− 11

T

.

Dowód. Dla każdego β rozważmy macierz W

= W

(β) wymiaru m ×m danąw postaci blokowej

W

=

 W

1

T

 BB

T



−1/2

BD

−1/2

 .

(6)

Wówczas korzystając z lematu 1 oraz z relacji (3) mamy W

DW

T

=

=

 W

1

T

 BB

T



−1/2

BD

−1/2

 D  W

T

1 D

−1/2

B

T



BB

T



−1/2



=

 

WDW

T

WD1 WD

1/2

B

T



BB

T



−1/2

1

T

D1 1

T

D

1/2

B

T



BB

T



−1/2

 BB

T



−1/2

BD

−1/2

DD

−1/2

B

T



BB

T



−1/2

 = I

m

.

W macierzy z ostatniej linii powyższych równości, ze względu na jej symetrię, zostały pominięte elementy pod przekątną. Z powyższej relacji wynika, że macierz W

jest nieosobliwa, a D = 

W



−1



W

T



−1

. Stąd D

−1

= W

T

W

= 

W

T

1 D

−1/2

B

T



BB

T



−1/2

 

 W

1

T

 BB

T



−1/2

BD

−1/2

= W

T

W + 11

T

+ D

−1/2

B

T



BB

T



−1

BD

−1/2

.

To kończy dowód.  

Zanim przedstawimy twierdzenie 2, udowodnimy jeszcze jeden lemat.

Lemat 3. Dla każdego β ∈ Γ wektor losowy N − np(β) √

n spełnia warunki : N − np(β) √

n

T

1 = 0, (9)

E

β

N − np(β) √ n

= 0, (10)

E

β

N − np(β) √ n

N − np(β) √ n

T

= D − p(β)p(β)

T

, (11)

gdzie E

β

oznacza wartość oczekiwaną względem rozkładu P

β

. Dowód. Mamy

N − np(β) √ n

T

1 = 1

√ n

 N

T

1 − np(β)

T

1 

= 1

√ n

 

m

j=1

N

j

− n



m j=1

p

j

(β)

 = 0,

co dowodzi (9).

(7)

Dla dowodu (10) i (11) zapiszmy wektor N − np(β) √

n jako sumę niezależ- nych wektorów losowych o tym samym rozkładzie

N − np(β) √

n = 1

√ n



n i=1

 

1

A1

(X

i

) − p

1

(β) 1

A2

(X

i

) − p

2

(β)

.. .

1

Am

(X

i

) − p

m

(β)

 

 ,

gdzie 1

A

( ·) jest funkcjącharakterystycznązbioru A.

Ponieważ E

β

1

Aj

(X

i

) = p

j

(β) dla wszystkich i, j, to własność (10) jest spełniona. Z kolei z niezależności zmiennych X

1

, X

2

, . . . , X

n

mamy

 E

β

N − np(β) √ n

N − np(β) √ n

T

rs

=

= E

β

(1

Ar

(X

1

) − p

r

(β)) (1

As

(X

1

) − p

s

(β)) = p

r

(β)δ

rs

− p

r

(β)p

s

(β), gdzie δ

rs

jest deltąKroneckera, a [ •]

rs

oznacza rs-ty element macierzy •. To

dowodzi równości (11).  

Udowodnimy teraz pomocnicze twierdzenie 2, które będzie punktem wyj- ścia do dowodu twierdzenia 1.

Twierdzenie 2. Jeśli spełnione są założenia (A), (B), (C), s. 111, to przy prawdziwości H

0

statystyka testowa

(12) S =

N − np(β) √ n

T



D

−1

− D

−1/2

B

T



BB

T



−1

BD

−1/2

 N − np(β) √ n

ma asymptotyczny rozkład chi-kwadrat z m − 1 − q stopniami swobody.

Dowód. Korzystając z lematu 3 oraz z wielowymiarowego centralnego twierdzenia granicznego (por. Billingsley 1987, str. 383) otrzymujemy

N − np(β) √ n

−→ N

D



0 , D − p(β)p(β)

T

 względem rozkładu P

β

. W konsekwencji mamy

W

N − np(β) √ n

−→ N

D



0 , W[D − p(β)p(β)

T

]W

T

 względem rozkładu P

β

. Z lematu 1 dostajemy

W 

D − p(β)p(β)

T



W

T

= WDW

T

− Wp(β)p(β)

T

W

T

= I

m−1−q

, więc

W

N − np(β) √ n

−→ N

D



0 , I

m−1−q



(8)

względem rozkładu P

β

. Kwadrat normy euklidesowej jest funkcjąciągłą , więc statystyka testowa

N − np(β) √ n

T

W

T

W

N − np(β) √ n

ma rozkład asymptotyczny chi-kwadrat z m − 1 − q stopniami swobody względem P

β

. Dzięki postaci macierzy W

T

W danej wzorem (8) oraz z wła-

sności (9) otrzymujemy (12).  

Udowodnione powyżej lematy i twierdzenie pozwalajądowieść prawdzi- wości twierdzenia 1.

Dowód twierdzenia 1. Niech β będzie √

n-zgodnym estymatorem parame- tru β oraz niech p = p( β). Korzystając z twierdzenia o różniczce mamy

p

j

( β) = p

j

(β) + ∂p

j

(β)

∂β

T

( β − β) + r

jn

(β), gdzie r

jn

(β)

|| β − β||

Pβ

−→ 0.

Zapisując powyższe równanie macierzowo i mnożąc obustronnie przez √ n dostajemy

(13) √

n( p − p(β)) = D

1/2

B

T

n( β − β) + √ nr

n

, gdzie r

n

= [r

1n

(β), r

2n

(β), . . . , r

mn

(β)]

T

.

Podstawiając do statystyki S, danej wzorem (12) estymator p

j

( β) otrzy- mujemy statystykę S

postaci:

S

=

N √ − n p n

T

Q

N √ − n p n

= S −

N − np(β) √ n

T

Q √

n ( p − p(β))

− √

n ( p − p(β))

T

Q

N − np(β) √

n − √

n ( p − p(β))

, gdzie Q = D

−1

− D

−1/2

B

T



BB

T



−1

BD

−1/2

.

Oznaczmy drugi składnik powyższej sumy jako S

1

, a trzeci jako S

2

. Rozważmy najpierw S

2

. Korzystając z (13) mamy

S

2

= √ n

 β − β 

T



BD

−1/2

− BD

−1/2

 N − np(β) √

n − √

n ( p − p(β))

+ √ nr

Tn

Q

N − np(β) √

n − √

n ( p − p(β))

.

Zauważmy, że w powyższej sumie pierwszy składnik zeruje się. Z definicji

√ n-zgodnego estymatora otrzymujemy, że wektor √

n ( p − p(β)) jest ogra-

niczony według prawdopodobieństwa P

β

. Podobnie z dowodu twierdzenia 2

(9)

mamy, że N − np(β) √

n jest ograniczony według prawdopodobieństwa P

β

. Ponieważ wyrażenie Q jest stałe i zachodzi √

nr

n

= √

n|| β − β|| r

n

|| β − β||

Pβ

−→ 0, to dostajemy S

2 Pβ

−→ 0. Analogicznie dowodzimy, że S

1 Pβ

−→ 0. W re- zultacie otrzymujemy S

− S −→ 0.

Pβ

Niech teraz D = D( β), B = B( β). Z ciągłości funkcji p

j

(β), ∂p

j

(β)

∂β oraz ze zgodności β otrzymujemy, że D, B sąestymatorami zgodnymi macierzy D i B odpowiednio. Podstawiając je do S

dostajemy statystykę

S =

N √ − n p n

T

D

−1

− D

−1/2

B

T

 B B

T



−1

B D

−1/2

N √ − n p n

. Niech

∆ = D

−1

− D

−1/2

B

T

 B B

T

 B D

−1/2

− D

−1

+ D

−1/2

B

T

 BB

T



BD

−1/2

. Z ciągłości operacji na macierzach wynika, że ∆ −→ 0. Stąd i z ograniczenia

Pβ

według P

β

wektora N √ − n p

n wynika S − S

=

N √ − n p n

T

N √ − n p n

−→ 0.

Pβ

Zatem S − S =  S − S

 +

 S

− S



P

−→ 0. Ponieważ z twierdzenia 2

β

wynika, że S −→ χ

D 2m−1−q

względem P

β

, gdzie χ

2m−1−q

jest zmiennąlosową o rozkładzie chi-kwadrat z m −1−q stopniami swobody, to teza twierdzenia 1

została wykazana.  

Z twierdzenia 1 wynika następujący wniosek.

Wniosek 1. Załóżmy, że wektor prawdopodobieństw p(β) spełnia (A), (B), (C). Niech β będzie pewnym √

n-zgodnym estymatorem parametru β i niech p = p( β), D = D( β), B = B( β) będą estymatorami odpowiednich wielkości. Jeśli

(14) B D

−1/2

N = 0,

to przy prawdziwości H

0

statystyka

(15) S =

N √ − n p n

T

D

−1

N √ − n p n

ma asymptotyczny rozkład chi-kwadrat z m − 1 − q stopniami swobody.

(10)

Dowód. Z (3) i (14) wynika, że

D

−1/2

B

T

 B B

T



−1

B D

−1/2

N √ − n p n

= 0.

Dzięki temu statystyka Dzhaparidze–Nikulina dana wzorem (4) redukuje się

do postaci (15).  

Mówimy, że estymator  β parametru β jest estymatorem największej wia- rogodności po zgrupowaniu danych, jeśli maksymalizuje logarytm funkcji wiarogodności po zgrupowaniu danych, tj. l(β) = const+ 

m

j=1

N

j

log p

j

(β).

Zauważmy, że prawdziwy jest następujący lemat.

Lemat 4. Jeśli (A), (B) są spełnione oraz estymator największej wiaro- godności po zgrupowaniu danych  β parametru β istnieje, to

(16) B   D

−1/2

N = 0,

gdzie  B = B(  β),  D = D(  β).

Dowód. Niech l(β) = const+ 

m

j=1

N

j

log p

j

(β) będzie logarytmem funk- cji wiarogodności po zgrupowaniu danych. Wtedy dzięki założeniom (A) i (B)

0 =

∂l

 β 



∂β

u

=



m j=1

N

j

∂log p

j

(  β)

∂β

u

=



m j=1

N

j

p

j

(  β)

−1

∂p

j

(  β)

∂β

u

=



m j=1

N

j

p

j

(  β)

−1/2

p

j

(  β)

−1/2

∂p

j

(  β)

∂β

u

dla u = 1, 2, . . . , q. Powyższa relacja w zapisie macierzowym oznacza rów-

ność (16).  

Z powyższego wniosku oraz lematu wynika, że przy pewnych założeniach statystyki Pearsona i Dzhaparidze–Nikulina sąsobie równe. Co więcej dzięki wnioskowi widzimy, że aby móc zastosować statystykę danąwzorem (15) nie jest konieczne wyznaczanie estymatora największej wiarogodności po zgrupowaniu danych, ale wystarczy by √ n−zgodny estymator miał wła- sność (14). Jest to łatwiejsze do sprawdzenia niż warunki istnienia estyma- tora  β.

4. S jako statystyka wynikowa. Ten i następny rozdział mającharak- ter uzupełniający w stosunku do trzech poprzednich i mogą być pominięte.

Jednakowoż stanowiąone interesujące i ważne dopełnienie dotychczasowych rozważań.

W tym rozdziale pokażemy, iż statystyka Dzhaparidze–Nikulina dana

wzorem (4) znajduje uzasadnienie w teorii testów wynikowych. Dla odpo-

(11)

wiednio zdefiniowanego problemu testowania S można zidentyfikować jako statystykę wynikową(ang. score statistic). Podobne twierdzenie można zna- leźć w książce Raynera i Besta (1989), jednak ich dowód zawiera błędy i jest dość zagmatwany.

Teorię oraz niezbędne pojęcia dotyczące statystyk wynikowych można znaleźć na przykład w książkach Cox i Hinkley (1974) oraz Sen i Singer (1993).

Zanurzmy badanąrodzinę P w pewnej szerszej rodzinie parametrycznej wektorów prawdopodobieństw

Π = 

π(θ, β) = [π

1

(θ, β), π

2

(θ, β), . . . , π

m

(θ, β)]: θ ∈ R

m−1−q

, β ∈ Γ  , gdzie Γ jest otwartym podzbiorem przestrzeni R

q

. Dla j = 1, . . . , m (17) π

j

= π

j

(θ, β) = C(θ, β) exp {

m−1−q



i=1

θ

i

w

ij

(β) }p

j

(β),

gdzie C(θ, β) jest stałą normującą, θ = [θ

1

, θ

2

, . . . , θ

m−1−q

]

T

jest wekto- rem parametrów rzeczywistych, β = [β

1

, β

2

, . . . , β

q

]

T

wektorem parametrów zakłócających, a w

ij

(β) dla i = 1, . . . , m − 1 − q oraz j = 1, . . . , m są elementami macierzy W = W(β) zdefiniowanej w rozdziale 3 przed sfor- mułowaniem lematu 1. Załóżmy ponadto, że dla wszystkich i, j, u oraz θ ∈ R

m−1−q

, β ∈ Γ istniejąpochodne ∂w

ij

(β)

∂β

u

.

Przypuśćmy, że niezależne obserwacje X

1

, X

2

, . . . , X

n

mająpo zgrupo- waniu wektor prawdopodobieństw p należący do rodziny Π. Wtedy testo- wanie H

0

: p ∈ P jest równoważne z testowaniem hipotezy parametrycznej H

0

: θ = 0, β ∈ Γ, dla której β jest parametrem zakłócającym. Oznaczmy przez l(θ, β) logarytm funkcji wiarogodności po zgrupowaniu danych, gdzie θ ∈ R

m−1−q

, β ∈ Γ. Funkcja ta wyraża się wzorem

l(θ, β) = const +



m j=1

N

j

log π

j

(θ, β).

Dla skrócenia zapisu będziemy pisać l zamiast l(θ, β).

Zanim wyznaczymy statystykę wynikowądla testowania H

0

w rodzinie Π, udowodnimy pomocniczy lemat.

Lemat 5. Prawdziwe są następujące relacje:

(18)



m j=1

∂π

j

(θ, β)

∂θ

r

= 0 ∀r = 1, 2, . . . , m − 1 − q, (19)



m j=1

∂π

j

(θ, β)

∂β

u

= 0 ∀u = 1, 2, . . . , q,

(12)

(20) ∂log C(θ, β)

∂θ

r

= −



m j=1

w

rj

(β)π

j

(θ, β) ∀r = 1, 2, . . . , m − 1 − q,

(21) ∂log C(θ, β)

∂β

u

θ=0

= 0 ∀u = 1, 2, . . . , q.

Dowód. Z oczywistej relacji 

m

j=1

π

j

(θ, β) = 1 wynika dowód równo- ści (18) i (19). W celu pokazania własności (20) zlogarytmujmy obustronnie (17), otrzymując

log π

j

(θ, β) = log C(θ, β) +

m−1−q



i=1

θ

i

w

ij

(β) + log p

j

(β).

Następnie różniczkując obustronnie to wyrażenie względem θ

r

, otrzymamy (22) ∂π

j

(θ, β)

∂θ

r

= π

j

(θ, β)

∂log C(θ, β)

∂θ

r

+ w

rj

(β)

. Sumując względem j oraz wykorzystując relację (18), dostajemy

0 = ∂log C(θ, β)

∂θ

r

+



m j=1

w

rj

(β)π

j

(θ, β) co dowodzi (20).

Dowód (21) wynika wprost z faktu, że C(θ, β) = 1 dla każdego β ∈ Γ

oraz θ = 0.  

Twierdzenie 3. Niech β będzie √

n-zgodnym estymatorem parametru β oraz niech będą spełnione założenia (A), (B ), (C ). Wtedy statystyka wyniko- wa dla testowania H

0

: θ = 0, β ∈ Γ, przeciw H

1

: θ = 0, β ∈ Γ, w rodzinie Π, jest postaci (4 ), czyli

S =

N √ − n p n

T



D

−1

− D

−1/2

B

T

 B B

T



−1

B D

−1/2

 N √ − n p n

, gdzie p = p( β), Σ = Σ( β), B = B( β), D = D( β) są estymatorami odpo- wiednich wielkości.

Dowód. W celu wyznaczenia wektora wynikowego dla rodziny Π zróż- niczkujmy l względem θ

r

i korzystając z (20) i (22), otrzymamy

∂l

∂θ

r

=



m j=1

N

j

∂ log C(θ, β)

∂θ

r

+ w

rj

(β)

=



m j=1

w

rj

(β) (N

j

− nπ

j

(θ, β)) .

Jeśli H

0

jest prawdziwa, tzn. π

j

(θ, β) = p

j

(β), to powyższa równość w za-

(13)

pisie macierzowym przyjmuje postać

˙l

θ

= ∂l

∂θ

θ=0

= W(N − np(β)).

Różniczkowanie l względem β

u

w punkcie θ = 0 oraz korzystając z (19), (21), dostajemy

∂l

∂β

u

θ=0

=



m j=1

∂ log p

j

(β)

∂β

u

N

j

=



m j=1

1 p

j

(β)

∂p

j

(β)

∂β

u

(N

j

− np

j

(β)).

W zapisie macierzowym daje to

˙l

β

= ∂l

∂β

θ=0

= BD

−1/2

(N − np(β)) . A zatem wektor wynikowy ma następującą postać (23) ˙l = 

(N − np(β))

T

W

T

(N − np(β))

T

D

−1/2

B

T



T

. Niech

K =



K

θθ

K

θβ

K

βθ

K

ββ

będzie macierząkowariancji, w postaci blokowej, unormowanego wektora wynikowego 1

√ n

 ˙l

θ

, ˙l

β



T

, dla testowania H

0

w rodzinie Π. Korzystając z wzorów (3), (5), (6), (7), i (11), otrzymujemy

K

θθ

= 1 n Cov

β

 ˙l

θ

, ˙l

θ



= WDW

T

− Wpp

T

W

T

= I

m−1−q

; K

θβ

= 1

n Cov

β

 ˙l

θ

, ˙l

β



= W 

D − pp

T



D

−1/2

B

T

= WD

1/2

B

T

= 0;

K

ββ

= 1 n Cov

β

 ˙l

β

, ˙l

β



= BD

−1/2

DD

−1/2

B

T

− BD

−1/2

pp

T

D

−1/2

B

T

= BB

T

,

gdzie Cov

β

oznacza kowariancję względem rozkładu P

β

. Zatem unormowana efektywna funkcja wynikowa ma postać

l

= 1

√ n

 ˙l

θ

− K

θβ

K

−1ββ

˙l

β



= 1

√ n ˙l

θ

= W N − np(β) √

n .

Z kolei macierz kowariancji wektora l

wyraża się wzorem Σ = K

θθ

− K

θβ

K

−1ββ

K

βθ

= I

m−1−q

.

Ogólna postać statystyki wynikowej to S(β) = l

∗T

Σ

−1

l

wyliczona w punk-

(14)

cie β. W naszym przypadku otrzymujemy S(β) =

N − np(β) √ n

T

W

T

W

N − np(β) √ n

.

Korzystając z postaci macierzy W

T

W danej wzorem (8) oraz z własno- ści (9), otrzymujemy

S(β) =

N − np(β) √ n

T



D

−1

− D

−1/2

B

T



BB

T



−1

BD

−1/2

 N − np(β) √ n

. A zatem

S( β) = S =

N √ − n p n

T



D

−1

− D

−1/2

B

T

 B B

T



−1

B D

−1/2

 N √ − n p n

, co pokrywa się z postacią(4) i kończy dowód.   Powyższe twierdzenie pokazuje, że statystyka testowa Dzhaparidze–Ni- kulina wpisuje się w teorię testów wynikowych. Dzięki temu możemy wnio- skować, że test oparty na niej jest lokalnie asymptotycznie optymalny dla alternatyw pochodzących z rodziny Π.

5. Przykład. Dla zilustrowania praktycznego zastosowania testu chi- kwadrat opartego na statystyce danej wzorem (4) rozważmy typowe zagad- nienie testowania zgodności w rodzinie z parametrami przesunięcia i skali, obejmujące w szczególności problem testowania normalności.

Niech f

0

będzie gęstościąprawdopodobieństwa, dodatniąna R, a F

0

odpowiadającą jej dystrybuantą. Rozważmy rodzinę rozkładów

P

0

=

!

P

µ,σ

: dP

µ,σ

dx = 1

σ f

0

x − µ σ

, µ ∈ R, σ ∈ R

+

"

i testowanie hipotezy H

00

: P ∈ P

0

. W tym przypadku parametr zakłócający β jest dwuwymiarowy i ma postać β = [µ, σ]

T

∈ Γ = R × (0, ∞). Przyj- mijmy, że podzbiory A

1

, A

2

, . . . , A

m

, m > 3, sąwyznaczone przez przedziały ( −∞, a

1

], (a

1

, a

2

], . . . , (a

m−1

, ∞), gdzie a

1

< a

2

< . . . < a

m−1

. Wówczas, utrzymując oznaczenia z rozdziałów 2, 3, mamy

(24) p

j

(µ, σ) = F

0

a

j

− µ σ

− F

0

a

j−1

− µ σ

, j = 2, 3, . . . , m − 1 oraz

(25) p

1

(µ, σ) = F

0

a

1

− µ σ

, p

m

(µ, σ) = 1 − F

0

a

m−1

− µ σ

.

(15)

W konsekwencji dla j = 2, 3, . . . , m − 1 otrzymujemy

∂p

j

(µ, σ)

∂µ = − 1 σ

# f

0

a

j

− µ σ

− f

0

a

j−1

− µ σ

$ ,

∂p

j

(µ, σ)

∂σ = − 1 σ

# a

j

− µ σ f

0

a

j

− µ σ

− a

j−1

− µ σ f

0

a

j−1

− µ σ

$ , oraz

∂p

1

(µ, σ)

∂µ = − 1 σ f

0

a

1

− µ σ

,

∂p

m

(µ, σ)

∂µ = − 1 σ

#

−f

0

a

m−1

− µ σ

$ ,

∂p

1

(µ, σ)

∂σ = − 1 σ

# a

1

− µ σ f

0

a

1

− µ σ

$ ,

∂p

m

(µ, σ)

∂σ = − 1 σ

#

− a

m−1

− µ σ f

0

a

m−1

− µ σ

$ . Niech X

1

, X

2

, . . . , X

n

będzie próbą, natomiast µ, σ ustalonymi √

n-zgod- nymi estymatorami parametrów µ, σ w rodzinie P

0

. Ponadto niech N = [N

1

, N

2

, . . . , N

m

]

T

będzie wektorem liczebności empirycznych w przyjętych klasach. Dla uproszczenia przyjmijmy b

j

= a

j

− µ

σ (j = 1, 2, . . . , m −1) oraz p

j

= p

j

( µ, σ) (j = 1, 2, . . . , m). Zdefiniujmy również następujące wektory w przestrzeni R

m

:

u =



N

1

− n p

1

n p

1

, N

2

− n p

2

n p

2

, . . . , N

m

− n p

m

n p

m

T

= D

−1/2

N √ − n p n

, (26)

v =

 f

0

(b

1

)

p

1

, f

0

(b

2

) − f

0

(b

1

) p

2

, . . . , −f

0

(b

m−1

) p

m

T

, (27)

w =



b

1

f

0

(b

1

)

p

1

, b

2

f

0

(b

2

) − b

1

f

0

(b

1

)

p

2

, . . . , −b

m−1

f

0

(b

m−1

) p

m

T

. (28)

Wówczas macierz B, wymiaru 2 × m, ma postać B = − 1 σ

# v w

$

. Stąd dosta- jemy

( B B

T

)

−1

= σ

2

v

2

w

2

− (v

T

w)

2

# w

2

−v

T

w

−v

T

w v

2

$ ,

gdzie  ·  oznacza normę euklidesowąw R

m

. Ponadto mamy, że B D

−1/2

N √ − n p

n =

# u

T

v u

T

w

$

. A zatem ostatecznie statystyka S dana wzo-

(16)

rem (4) daje się zapisać w następującej, wygodnej do obliczeń, postaci (29) S = u

2

− v

2

(w

T

u)

2

+ w

2

(v

T

u)

2

− 2(v

T

w)(v

T

u)(w

T

u)

v

2

w

2

− (v

T

w)

2

. Zauważmy, że u

2

ma tę samąpostać co klasyczna statystyka Pearsona dana wzorem (2).

Powyższy artykuł powstał na podstawie naszej pracy magisterskiej napi- sanej pod opiekądr hab. T. Inglota, któremu jesteśmy bardzo wdzięczne za wsparcie, liczne dyskusje oraz inspirujące komentarze. Serdecznie dzię- kujemy również prof. dr hab. T. Ledwinie za cenne uwagi oraz za pomoc w uzyskaniu niektórych potrzebnych artykułów.

Literatura cytowana

[1] P. Billingsley (1987), Prawdopodobieństwo i miara, PWN, Warszawa.

[2] D. R. Cox, D. V. Hinkley (1974), Theoretical Statistics, Chapman and Hall, London.

[3] K. O. Dzhaparidze, M. S. Nikulin (1974), On a modification of the standard statistic of Pearson, Theor. Prob. Appl., 19, 851–853.

[4] R. A. Fisher (1924), The conditions under which χ

2

measures the discrepancy be- tween observation and hypothesis, J. R. Statist. Soc. 87, 442–450.

[5] P.E. Greenwood, M.S. Nikulin (1996), A Guide to Chi-Squared Testing, Wiley, New York.

[6] K. Pearson (1900), On the criterion that a given system of deviation from the pro- bable in the case of a correlated system of variables is such that it can be reasonably supposed to have arisen from random sampling, Phil. Mag. 50(5), 157–172.

[7] J. C. W. Rayner, D. J. Best (1989), Smooth Tests of Goodness of Fit, Oxford Univ.

Press, New York.

[8] P. K. Sen, J. M. Singer (1993), Large Sample Methods in Statistics, Chapman and Hall, New York.

Anita Małoń

Uniwersytet Wrocławski

pl. Uniwersytecki 1, 50-137 Wrocław E-Mail: anita.malon@onet.eu

Dagmara Ziółkowska Uniwersytet Wrocławski

pl. Uniwersytecki 1, 50-137 Wrocław

E-Mail: dagmara.ziolkowska@wp.pl

(17)

Chi-square type goodness of fit tests for composite hypothesis

Abstract. Adapting the classical Pearson’s chi-square goodness-of-fit test for testing com- posite hypotheses brings serious problems with estimation of unknown parameters. An in- teresting solution which eliminates them was proposed by Dzhaparidze and Nikulin. The most important advantage of their solution is a possibility of using arbitrary estimators satisfying only a natural and weak condition. The aim of the present article is to popu- larize this solution. We provide a complete, short and, what is more elementary proof of the main theorem on asymptotic distribution of the test statistic. In addition, we prove that the constructed test belongs to a general class of score tests what advocates for its good properties. Finally, as an example, we give a typical implementation of the test to testing in location and scale family.

Key words: Chi-square test, composite hypothesis, √

n-consistent estimator, Dzhapa- ridze–Nikulina statistic, score test.

(wpłynęło 14 stycznia 2007 r.)

Cytaty

Powiązane dokumenty

In the paper the robustness of the test concerns the behaviour of the power function identified with its graph on the plane, and is measured by tire area of

Maximum a posteriori probability (MAP) Bayes Estimator.. Chi-squared goodness-of-fit test – reminder. General form of the test:.. here:

Stosowany zwł. dla próbek o liczebności do 30, kiedy jest lepszy niż test zgodności chi- kwadrat.. Test zgodności chi-kwadrat – postać testu. Ogólna

Zostały one otrzymane dzięki nowej nierówności dla ogonów rozkładu chi-kwadrat.. W literaturze można znaleźć niewiele prac na ten

Przyjmując poziom istotności 0,05 zweryfikować hipotezę, że prawdopodobieństwo wystą- pienia na tym terenie wypadku spowodowanego przez kierowcę w stanie nietrzeźwym jest

Test Chi-kwadrat – zadania do samodzielnego

One hundred people were interviewed outside a chocolate shop to nd out which avor of chocolate cream they preferred... Therefore, we reject the null

One hundred people were interviewed outside a chocolate shop to nd out which avor of chocolate cream they preferred... Therefore, we reject the null