Anita Małoń (Wrocław)
Dagmara Ziółkowska (Wrocław)
Testy zgodności typu chi-kwadrat dla hipotezy złożonej
Streszczenie. Przeniesienie klasycznego testu zgodności chi-kwadrat na przypadek hi- potezy złożonej rodzi szereg problemów związanych z estymacją nieznanych parametrów.
Jeden ze sposobów ich wyeliminowania zaproponowali Dzhaparidze i Nikulin. Ważną za- letą ich pomysłu jest możliwość użycia dość dowolnych estymatorów. Celem tego arty- kułu jest popularyzacja wspomnianego rozwiązania i przedstawienie pełnego, a równocze- śnie elementarnego dowodu o rozkładzie asymptotycznym statystyki testowej. Dodatkowo w pracy zostanie pokazane, że prezentowany test jest elementem ogólnej klasy testów wy- nikowych, co przemawia za jego dobrymi własnościami. Ponadto zostanie przedstawiony przykład implementacji testu dla testowania zgodności w rodzinie z parametrami przesu- nięcia i skali.
Słowa kluczowe: test chi-kwadrat, hipoteza złożona, √
n-zgodny estymator, statystyka Dzhaparidze-Nikulina, test wynikowy.
1. Wstęp. Jednym z zagadnień wnioskowania statystycznego, które czę- sto wykorzystuje się w praktyce, jest testowanie zgodności rozkładu obser- wowanego z pewnąparametrycznąrodzinąrozkładów. Stosuje się go w ta- kich naukach jak: medycyna, ekonomia, bankowość, finanse oraz w wielu innych. Jest ono istotne, gdy potrzebujemy sprawdzić założenia dotyczące rozkładu pewnych danych. Dla przykładu, aby móc, przy pomocy uprosz- czonego wzoru na VaR (popularna miara ryzyka), obliczyć ryzykowność in- westycji w akcje jakiejś firmy musimy wiedzieć, że stopy zwrotu z tych akcji mająrozkład normalny. Aby to stwierdzić używa się testów zgodności.
Najstarszym, a równocześnie najbardziej popularnym testem zgodno- ści jest test chi-kwadrat Pearsona. Jego konstrukcja opiera się na podziale przestrzeni próby na rozłączne klasy oraz porównaniu empirycznych i teore- tycznych liczebności w tychże klasach. Określenie liczebności teoretycznych wiąże się z koniecznością estymacji nieznanych parametrów proponowanej rodziny. Jednąz metod estymacji, zachowującej klasycznąpostać statystyki Pearsona, zaproponował Fisher w 1924 roku. Jednakże prowadzi ona do istotnych trudności w jawnym wyznaczaniu estymatorów i jest uciążliwa
[109]
w praktyce. Natomiast próby pewnych uproszczeń w metodzie Fishera mogą prowadzić do błędnych wniosków. Tymczasem Dzhaparidze i Nikulin (1974) rozwinęli pomysł Fishera i zaproponowali rozwiązanie atrakcyjne dla prak- tyka.
W tym artykule chcemy przybliżyć i spopularyzować podejście Dzhapa- ridze–Nikulina. W rozdziałach 2, 3 przedstawimy pełny i elementarny dowód twierdzenia o rozkładzie asymptotycznym statystyki testowej (twierdzenie 1) oraz wykażemy, że twierdzenie Fishera jest jego szczególnym przypadkiem.
Te rozdziały sąkluczowe i zawierająistotę rozwią zania Dzhaparidze–Ni- kulina. Następne stanowiąuzupełnienie głównego nurtu naszych rozważań i mogąbyć czytane w dowolnej kolejności bądź w ogóle opuszczone. W roz- dziale 4 pokażemy, że test Dzhaparidze–Nikulina należy do ogólnej klasy testów wynikowych (ang. score tests), co tłumaczy m.in. dobre własności tych testów. Natomiast w rozdziale 5 wyprowadzimy wygodnądo obliczeń postać statystyki testowej dla rodziny z parametrem przesunięcia i skali.
2. Model,założenia i główne twierdzenie. Niech X
1, X
2, . . . , X
nbędąniezależnymi zmiennymi losowymi o jednakowym rozkładzie P przyj- mującymi wartości w pewnej przestrzeni mierzalnej ( X , F) oraz niech
P
0= {P
β: β = [β
1, β
2, . . . , β
q]
T∈ Γ}
będzie rodzinąrozkładów prawdopodobieństwa na ( X , F), gdzie Γ jest otwartym podzbiorem przestrzeni R
q, a •
Toznacza transpozycję.
Rozważmy weryfikację prawdziwości hipotezy H
00orzekającej, że rozkład P należy do rodziny P
0przy nieznanej wartości parametru β. Naśladując podejście Pearsona, prowadzące do konstrukcji statystyki testowej poprzez kategoryzację danych, rozważmy pewien ustalony podział przestrzeni X na rozłączne, mierzalne podzbiory A
1, A
2, . . . , A
m, gdzie m > q + 1. Oznaczmy p
j(β) = P
β(X
1∈ A
j), j = 1, 2, . . . , m, oraz p(β) = [p
1(β), p
2(β), . . . , p
m(β)]
Todpowiadający im wektor prawdopodobieństw. Oczywiście, jeśli β ∈ Γ, to zachodzi
(1)
m j=1p
j(β) = 1.
Niech
P =
p(β) = [p
1(β), p
2(β), . . . , p
m(β)]
T: β ∈ Γ
oznacza rodzinę wektorów prawdopodobieństw wyznaczonych przez rodzinę
P
0i wybór podzbiorów A
1, A
2, . . . , A
m. Analogicznie przyjmijmy, że
p
j= P (X
1∈ A
j), j = 1, 2, . . . , m, oraz p = [p
1, p
2, . . . , p
m]
Toznacza wektor
prawdopodobieństw nieznanego rozkładu P, z którego pochodząobserwacje.
W omawianym podejściu testowanie H
00zastępuje się weryfikacjąhipotezy H
0: p ∈ P przeciwko H
1: p / ∈ P.
Oznaczmy przez N = [N
1, N
2, . . . , N
m]
Twektor liczebności empiry- cznych, gdzie N
jjest liczbąobserwacji należą cych do zbioru A
jdla j = 1, 2, . . . , m, tzn. N
j= card{i : X
i∈ A
j, i = 1, 2, . . . , n}. Zauważmy, że
mj=1
N
j= n.
Klasyczna statystyka Pearsona ma postać
(2) S = ¯
m j=1N
j− np
j( ¯ β)
2np
j( ¯ β) ,
gdzie ¯ β jest pewnym estymatorem nieznanego parametru β. Fisher (1924) udowodnił, że wybór estymatora ¯ β ma wpływ na rozkład asymptotyczny statystyki ¯ S. Wykazał też, że jeśli β jest estymatorem największej wiaro- godności po zgrupowaniu danych, to odpowiadająca mu statystyka S dana wzorem (2) ma rozkład asymptotyczny chi-kwadrat z m − q − 1 stopniami swobody. Dzhaparidze i Nikulin (1974), kosztem bardziej skomplikowanej postaci statystyki, zaproponowali ogólniejsze podejście opierające się na dość dowolnym estymatorze parametru β. Poniżej przedstawimy szczegółowo roz- wiązanie Dzhaparidze–Nikulina wykorzystując algebraiczne metody po czę- ści oparte na pomyśle Raynera i Besta (1989).
Do dalszych rozważań załóżmy, że rodzina P spełnia pewne warunki regularności. Wyrazimy je w języku wektora p(β). Załóżmy więc, że wektor p(β) spełnia dla każdego β ∈ Γ następujące warunki:
(A) p
j(β) > 0 dla j = 1, 2, . . . , m;
(B) ∂p
j(β)
∂β
u, j = 1, 2, . . . , m, u = 1, 2, . . . , q, istniejąi sąciągłe ze względu na β;
(C) macierz B = B(β) =
1
p
j(β)
∂p
j(β)
∂β
uq×m
jest rzędu q.
Przez D = D(β) = diag[p
j(β)] oznaczmy macierz diagonalną, w której na głównej przekątnej znajdują się prawdopodobieństwa p
j(β) dla każdego j = 1, 2, . . . , m, oraz przez I
kmacierz jednostkowąrzędu k. Z kolei niech 1 oznacza m-wymiarowy wektor kolumnowy składający się z samych jedynek.
Przy tak wprowadzonych oznaczeniach łatwo zauważyć, że różniczkując względem β obie strony (1), otrzymujemy relację
(3) BD
−1/2p(β) = BD
−1/2D1 = 0.
Jest oczywiste, że estymator ¯ β nie może być całkiem dowolny i również
powinien mieć odpowiednio „dobre” własności. Poniższa definicja precyzuje
własność estymatora, która jest stosunkowo prosta do sprawdzenia i jest spełniona dla bardzo obszernej klasy estymatorów.
Definicja 1. Mówimy, że β = T (X
1, X
2, . . . , X
n) jest √
n-zgodnym estymatorem parametru β, jeśli dla każdego β ∈ Γ cią g { √
n( β − β)} jest ograniczony według prawdopodobieństwa P
β, czyli
∀β ∈ Γ ∀η > 0 ∃M = M(β, η) > 0 ∃n
0= n
0(β, η) ∀n ≥ n
0P
β√
n β − β > M) ≤ η, gdzie · oznacza normę euklidesowąw R
q.
Poniższe twierdzenie stanowi główny wynik artykułu i zawiera istotę po- dejścia Dzhaparidze-Nikulina.
Twierdzenie 1. Niech β będzie √
n-zgodnym estymatorem parametru β, oraz niech spełnione będą założenia (A), (B), (C). Ponadto niech p = p( β), D = D( β), B = B( β) będą estymatorami odpowiednich wielkości. Wtedy przy prawdziwości hipotezy H
0statystyka
(4) S =
N √ − np n
T
D
−1− D
−1/2B
TB B
T −1B D
−1/2N √ − np n
ma asymptotyczny rozkład chi-kwadrat z m − 1 − q stopniami swobody.
Statystyka S dana wzorem (4) jest nazywana statystykąDzhaparidze- Nikulina i może być użyta jako statystyka testowa hipotezy H
0. Jej zaletą jest to, że dopuszcza użycie dowolnego √
n-zgodnego estymatora, nie wyma- gając ograniczenia się do estymatorów szczególnej postaci, takich jak esty- matory największej wiarogodności czy największej wiarogodności po zgru- powaniu danych.
Dzhaparidze i Nikulin w pracy z 1974 roku podali dowód tezy twierdze- nia 1, tj. zbieżności S do rozkładu chi-kwadrat. Przyjęli oni jednak założenia typu Cramera, znacznie mocniejsze od warunków (A), (B), (C). Podobne twierdzenie znajduje się również w książce Greenwood i Nikulina (1996). Do- wód przedstawiony przez nich polega na użyciu rozwinięcia Taylora i rozwa- żaniach analitycznych związanych z szacowaniem reszty i wymianą β na β.
Natomiast dowód, który przedstawimy w następnym rozdziale stosuje me- tody algebraiczne i jest bardziej elementarny.
3. Dowód twierdzenia 1. Zanim przystąpimy do właściwego dowodu twierdzenia 1 przedstawimy kilka pomocniczych lematów oraz twierdzenie 2.
Dla u = 1, 2, . . . , q, β ∈ Γ, rozważmy wektory
∂log p(β)
∂β
u=
∂log p
1(β)
∂β
u, ∂log p
2(β)
∂β
u, . . . , ∂log p
m(β)
∂β
u T.
Macierz utworzona z wektorów ∂log p(β)
∂β
1T
, ∂log p(β)
∂β
2T
, . . . , ∂log p(β)
∂β
qT
jest postaci BD
−1/2. Zatem dzięki założeniom (A) i (C) ma rzą d q. Oznacza to, że powyższy układ wektorów jest dla każdego β liniowo niezależny w R
m. Dla każdego ustalonego β ∈ Γ rozważmy iloczyn skalarny w przestrzeni R
mokreślony wzorem v
T1D(β)v
2dla v
1, v
2∈ R
m. Z (3) wynika, że
∂log p(β)
T∂β
uD(β)1 = 0 dla u = 1, 2, . . . , q, czyli że wektory ∂log p(β)
∂β
usąor- togonalne do wektora 1 w rozpatrywanym iloczynie skalarnym. Wybierzmy teraz m − 1 − q wektorów w
1(β), w
2(β), . . . , w
m−1−q(β) przestrzeni R
m, które sąortonormalne w powyższym iloczynie skalarnym, a ponadto sąor- togonalne do wektora 1 oraz do każdego z wektorów ∂log p(β)
∂β
u. W ten sposób stanowiąone uzupełnienie układu wektorów
1, ∂log p(β)
∂β
1, ∂log p(β)
∂β
2, . . . , ∂log p(β)
∂β
qdo bazy przestrzeni R
m. Oczywiste jest to, że wybór wektorów w
1(β), w
2(β), . . . , w
m−1−q(β) nie jest jednoznaczny. Niech W = W(β) będzie macierzą wymiaru (m−1−q)×m, w której w
i(β)
T, i = 1, 2, . . . , m−1−q, są kolejnymi wierszami. Ze sposobu określenia wektorów w
1(β), w
2(β), . . . , w
m−1−q(β) wynika szereg własności macierzy W(β), które zebrane sąw poniższym le- macie.
Lemat 1. Dla każdego β ∈ Γ spełnione są następujące relacje:
WDW
T= I
m−1−q, (5)
WD1 = Wp(β) = 0, (6)
WD
1/2B
T= WD
BD
−1/2 T= 0.
(7)
Sposób doboru macierzy W oraz pomysł dowodu poniższego lematu 2 został zaczerpnięty z książki Raynera i Besta (1989), rozdz. 7. Lemat ten stanowić będzie istotny krok w dowodzie twierdzenia 2.
Lemat 2. Macierz W
TW daje się wyrazić w postaci : (8) W
TW = D
−1− D
−1/2B
TBB
T−1BD
−1/2− 11
T.
Dowód. Dla każdego β rozważmy macierz W
∗= W
∗(β) wymiaru m ×m danąw postaci blokowej
W
∗=
W
1
TBB
T−1/2BD
−1/2
.
Wówczas korzystając z lematu 1 oraz z relacji (3) mamy W
∗DW
∗T=
=
W
1
TBB
T−1/2BD
−1/2
D W
T1 D
−1/2B
TBB
T−1/2=
WDW
TWD1 WD
1/2B
TBB
T−1/21
TD1 1
TD
1/2B
TBB
T−1/2BB
T−1/2BD
−1/2DD
−1/2B
TBB
T−1/2
= I
m.
W macierzy z ostatniej linii powyższych równości, ze względu na jej symetrię, zostały pominięte elementy pod przekątną. Z powyższej relacji wynika, że macierz W
∗jest nieosobliwa, a D =
W
∗−1W
∗T−1. Stąd D
−1= W
∗TW
∗=
W
T1 D
−1/2B
TBB
T−1/2
W
1
TBB
T−1/2BD
−1/2
= W
TW + 11
T+ D
−1/2B
TBB
T−1BD
−1/2.
To kończy dowód.
Zanim przedstawimy twierdzenie 2, udowodnimy jeszcze jeden lemat.
Lemat 3. Dla każdego β ∈ Γ wektor losowy N − np(β) √
n spełnia warunki : N − np(β) √
n
T1 = 0, (9)
E
βN − np(β) √ n
= 0, (10)
E
βN − np(β) √ n
N − np(β) √ n
T
= D − p(β)p(β)
T, (11)
gdzie E
βoznacza wartość oczekiwaną względem rozkładu P
β. Dowód. Mamy
N − np(β) √ n
T
1 = 1
√ n
N
T1 − np(β)
T1
= 1
√ n
mj=1
N
j− n
m j=1p
j(β)
= 0,
co dowodzi (9).
Dla dowodu (10) i (11) zapiszmy wektor N − np(β) √
n jako sumę niezależ- nych wektorów losowych o tym samym rozkładzie
N − np(β) √
n = 1
√ n
n i=1
1
A1(X
i) − p
1(β) 1
A2(X
i) − p
2(β)
.. .
1
Am(X
i) − p
m(β)
,
gdzie 1
A( ·) jest funkcjącharakterystycznązbioru A.
Ponieważ E
β1
Aj(X
i) = p
j(β) dla wszystkich i, j, to własność (10) jest spełniona. Z kolei z niezależności zmiennych X
1, X
2, . . . , X
nmamy
E
βN − np(β) √ n
N − np(β) √ n
T
rs
=
= E
β(1
Ar(X
1) − p
r(β)) (1
As(X
1) − p
s(β)) = p
r(β)δ
rs− p
r(β)p
s(β), gdzie δ
rsjest deltąKroneckera, a [ •]
rsoznacza rs-ty element macierzy •. To
dowodzi równości (11).
Udowodnimy teraz pomocnicze twierdzenie 2, które będzie punktem wyj- ścia do dowodu twierdzenia 1.
Twierdzenie 2. Jeśli spełnione są założenia (A), (B), (C), s. 111, to przy prawdziwości H
0statystyka testowa
(12) S =
N − np(β) √ n
T
D
−1− D
−1/2B
TBB
T−1BD
−1/2N − np(β) √ n
ma asymptotyczny rozkład chi-kwadrat z m − 1 − q stopniami swobody.
Dowód. Korzystając z lematu 3 oraz z wielowymiarowego centralnego twierdzenia granicznego (por. Billingsley 1987, str. 383) otrzymujemy
N − np(β) √ n
−→ N
D0 , D − p(β)p(β)
Twzględem rozkładu P
β. W konsekwencji mamy
W
N − np(β) √ n
−→ N
D0 , W[D − p(β)p(β)
T]W
Twzględem rozkładu P
β. Z lematu 1 dostajemy
W
D − p(β)p(β)
TW
T= WDW
T− Wp(β)p(β)
TW
T= I
m−1−q, więc
W
N − np(β) √ n
−→ N
D0 , I
m−1−qwzględem rozkładu P
β. Kwadrat normy euklidesowej jest funkcjąciągłą , więc statystyka testowa
N − np(β) √ n
T
W
TW
N − np(β) √ n
ma rozkład asymptotyczny chi-kwadrat z m − 1 − q stopniami swobody względem P
β. Dzięki postaci macierzy W
TW danej wzorem (8) oraz z wła-
sności (9) otrzymujemy (12).
Udowodnione powyżej lematy i twierdzenie pozwalajądowieść prawdzi- wości twierdzenia 1.
Dowód twierdzenia 1. Niech β będzie √
n-zgodnym estymatorem parame- tru β oraz niech p = p( β). Korzystając z twierdzenia o różniczce mamy
p
j( β) = p
j(β) + ∂p
j(β)
∂β
T
( β − β) + r
jn(β), gdzie r
jn(β)
|| β − β||
Pβ
−→ 0.
Zapisując powyższe równanie macierzowo i mnożąc obustronnie przez √ n dostajemy
(13) √
n(p − p(β)) = D
1/2B
T√
n( β − β) + √ nr
n, gdzie r
n= [r
1n(β), r
2n(β), . . . , r
mn(β)]
T.
Podstawiając do statystyki S, danej wzorem (12) estymator p
j( β) otrzy- mujemy statystykę S
∗postaci:
S
∗=
N √ − np n
T
Q
N √ − np n
= S −
N − np(β) √ n
T
Q √
n ( p − p(β))
− √
n (p − p(β))
TQ
N − np(β) √
n − √
n (p − p(β))
, gdzie Q = D
−1− D
−1/2B
TBB
T−1BD
−1/2.
Oznaczmy drugi składnik powyższej sumy jako S
1, a trzeci jako S
2. Rozważmy najpierw S
2. Korzystając z (13) mamy
S
2= √ n
β − β
TBD
−1/2− BD
−1/2N − np(β) √
n − √
n ( p − p(β))
+ √ nr
TnQ
N − np(β) √
n − √
n (p − p(β))
.
Zauważmy, że w powyższej sumie pierwszy składnik zeruje się. Z definicji
√ n-zgodnego estymatora otrzymujemy, że wektor √
n ( p − p(β)) jest ogra-
niczony według prawdopodobieństwa P
β. Podobnie z dowodu twierdzenia 2
mamy, że N − np(β) √
n jest ograniczony według prawdopodobieństwa P
β. Ponieważ wyrażenie Q jest stałe i zachodzi √
nr
n= √
n|| β − β|| r
n|| β − β||
Pβ
−→ 0, to dostajemy S
2 Pβ−→ 0. Analogicznie dowodzimy, że S
1 Pβ−→ 0. W re- zultacie otrzymujemy S
∗− S −→ 0.
PβNiech teraz D = D( β), B = B( β). Z ciągłości funkcji p
j(β), ∂p
j(β)
∂β oraz ze zgodności β otrzymujemy, że D, B sąestymatorami zgodnymi macierzy D i B odpowiednio. Podstawiając je do S
∗dostajemy statystykę
S =
N √ − np n
T
D
−1− D
−1/2B
TB B
T −1B D
−1/2N √ − np n
. Niech
∆ = D
−1− D
−1/2B
TB B
TB D
−1/2− D
−1+ D
−1/2B
TBB
TBD
−1/2. Z ciągłości operacji na macierzach wynika, że ∆ −→ 0. Stąd i z ograniczenia
Pβwedług P
βwektora N √ − np
n wynika S − S
∗=
N √ − np n
T
∆
N √ − np n
−→ 0.
PβZatem S − S = S − S
∗+
S
∗− S
P−→ 0. Ponieważ z twierdzenia 2
βwynika, że S −→ χ
D 2m−1−qwzględem P
β, gdzie χ
2m−1−qjest zmiennąlosową o rozkładzie chi-kwadrat z m −1−q stopniami swobody, to teza twierdzenia 1
została wykazana.
Z twierdzenia 1 wynika następujący wniosek.
Wniosek 1. Załóżmy, że wektor prawdopodobieństw p(β) spełnia (A), (B), (C). Niech β będzie pewnym √
n-zgodnym estymatorem parametru β i niech p = p( β), D = D( β), B = B( β) będą estymatorami odpowiednich wielkości. Jeśli
(14) B D
−1/2N = 0,
to przy prawdziwości H
0statystyka
(15) S =
N √ − np n
T
D
−1N √ − np n
ma asymptotyczny rozkład chi-kwadrat z m − 1 − q stopniami swobody.
Dowód. Z (3) i (14) wynika, że
D
−1/2B
TB B
T−1B D
−1/2N √ − np n
= 0.
Dzięki temu statystyka Dzhaparidze–Nikulina dana wzorem (4) redukuje się
do postaci (15).
Mówimy, że estymator β parametru β jest estymatorem największej wia- rogodności po zgrupowaniu danych, jeśli maksymalizuje logarytm funkcji wiarogodności po zgrupowaniu danych, tj. l(β) = const+
mj=1
N
jlog p
j(β).
Zauważmy, że prawdziwy jest następujący lemat.
Lemat 4. Jeśli (A), (B) są spełnione oraz estymator największej wiaro- godności po zgrupowaniu danych β parametru β istnieje, to
(16) B D
−1/2N = 0,
gdzie B = B( β), D = D( β).
Dowód. Niech l(β) = const+
mj=1
N
jlog p
j(β) będzie logarytmem funk- cji wiarogodności po zgrupowaniu danych. Wtedy dzięki założeniom (A) i (B)
0 =
∂l
β
∂β
u=
m j=1N
j∂log p
j( β)
∂β
u=
m j=1N
jp
j( β)
−1∂p
j( β)
∂β
u=
m j=1N
jp
j( β)
−1/2p
j( β)
−1/2∂p
j( β)
∂β
udla u = 1, 2, . . . , q. Powyższa relacja w zapisie macierzowym oznacza rów-
ność (16).
Z powyższego wniosku oraz lematu wynika, że przy pewnych założeniach statystyki Pearsona i Dzhaparidze–Nikulina sąsobie równe. Co więcej dzięki wnioskowi widzimy, że aby móc zastosować statystykę danąwzorem (15) nie jest konieczne wyznaczanie estymatora największej wiarogodności po zgrupowaniu danych, ale wystarczy by √ n−zgodny estymator miał wła- sność (14). Jest to łatwiejsze do sprawdzenia niż warunki istnienia estyma- tora β.
4. S jako statystyka wynikowa. Ten i następny rozdział mającharak- ter uzupełniający w stosunku do trzech poprzednich i mogą być pominięte.
Jednakowoż stanowiąone interesujące i ważne dopełnienie dotychczasowych rozważań.
W tym rozdziale pokażemy, iż statystyka Dzhaparidze–Nikulina dana
wzorem (4) znajduje uzasadnienie w teorii testów wynikowych. Dla odpo-
wiednio zdefiniowanego problemu testowania S można zidentyfikować jako statystykę wynikową(ang. score statistic). Podobne twierdzenie można zna- leźć w książce Raynera i Besta (1989), jednak ich dowód zawiera błędy i jest dość zagmatwany.
Teorię oraz niezbędne pojęcia dotyczące statystyk wynikowych można znaleźć na przykład w książkach Cox i Hinkley (1974) oraz Sen i Singer (1993).
Zanurzmy badanąrodzinę P w pewnej szerszej rodzinie parametrycznej wektorów prawdopodobieństw
Π =
π(θ, β) = [π
1(θ, β), π
2(θ, β), . . . , π
m(θ, β)]: θ ∈ R
m−1−q, β ∈ Γ , gdzie Γ jest otwartym podzbiorem przestrzeni R
q. Dla j = 1, . . . , m (17) π
j= π
j(θ, β) = C(θ, β) exp {
m−1−q
i=1
θ
iw
ij(β) }p
j(β),
gdzie C(θ, β) jest stałą normującą, θ = [θ
1, θ
2, . . . , θ
m−1−q]
Tjest wekto- rem parametrów rzeczywistych, β = [β
1, β
2, . . . , β
q]
Twektorem parametrów zakłócających, a w
ij(β) dla i = 1, . . . , m − 1 − q oraz j = 1, . . . , m są elementami macierzy W = W(β) zdefiniowanej w rozdziale 3 przed sfor- mułowaniem lematu 1. Załóżmy ponadto, że dla wszystkich i, j, u oraz θ ∈ R
m−1−q, β ∈ Γ istniejąpochodne ∂w
ij(β)
∂β
u.
Przypuśćmy, że niezależne obserwacje X
1, X
2, . . . , X
nmająpo zgrupo- waniu wektor prawdopodobieństw p należący do rodziny Π. Wtedy testo- wanie H
0: p ∈ P jest równoważne z testowaniem hipotezy parametrycznej H
∗0: θ = 0, β ∈ Γ, dla której β jest parametrem zakłócającym. Oznaczmy przez l(θ, β) logarytm funkcji wiarogodności po zgrupowaniu danych, gdzie θ ∈ R
m−1−q, β ∈ Γ. Funkcja ta wyraża się wzorem
l(θ, β) = const +
m j=1N
jlog π
j(θ, β).
Dla skrócenia zapisu będziemy pisać l zamiast l(θ, β).
Zanim wyznaczymy statystykę wynikowądla testowania H
∗0w rodzinie Π, udowodnimy pomocniczy lemat.
Lemat 5. Prawdziwe są następujące relacje:
(18)
m j=1∂π
j(θ, β)
∂θ
r= 0 ∀r = 1, 2, . . . , m − 1 − q, (19)
m j=1∂π
j(θ, β)
∂β
u= 0 ∀u = 1, 2, . . . , q,
(20) ∂log C(θ, β)
∂θ
r= −
m j=1w
rj(β)π
j(θ, β) ∀r = 1, 2, . . . , m − 1 − q,
(21) ∂log C(θ, β)
∂β
uθ=0
= 0 ∀u = 1, 2, . . . , q.
Dowód. Z oczywistej relacji
mj=1
π
j(θ, β) = 1 wynika dowód równo- ści (18) i (19). W celu pokazania własności (20) zlogarytmujmy obustronnie (17), otrzymując
log π
j(θ, β) = log C(θ, β) +
m−1−q
i=1
θ
iw
ij(β) + log p
j(β).
Następnie różniczkując obustronnie to wyrażenie względem θ
r, otrzymamy (22) ∂π
j(θ, β)
∂θ
r= π
j(θ, β)
∂log C(θ, β)
∂θ
r+ w
rj(β)
. Sumując względem j oraz wykorzystując relację (18), dostajemy
0 = ∂log C(θ, β)
∂θ
r+
m j=1w
rj(β)π
j(θ, β) co dowodzi (20).
Dowód (21) wynika wprost z faktu, że C(θ, β) = 1 dla każdego β ∈ Γ
oraz θ = 0.
Twierdzenie 3. Niech β będzie √
n-zgodnym estymatorem parametru β oraz niech będą spełnione założenia (A), (B ), (C ). Wtedy statystyka wyniko- wa dla testowania H
0∗: θ = 0, β ∈ Γ, przeciw H
∗1: θ = 0, β ∈ Γ, w rodzinie Π, jest postaci (4 ), czyli
S =
N √ − np n
T
D
−1− D
−1/2B
TB B
T−1B D
−1/2N √ − np n
, gdzie p = p( β), Σ = Σ( β), B = B( β), D = D( β) są estymatorami odpo- wiednich wielkości.
Dowód. W celu wyznaczenia wektora wynikowego dla rodziny Π zróż- niczkujmy l względem θ
ri korzystając z (20) i (22), otrzymamy
∂l
∂θ
r=
m j=1N
j∂ log C(θ, β)
∂θ
r+ w
rj(β)
=
m j=1w
rj(β) (N
j− nπ
j(θ, β)) .
Jeśli H
∗0jest prawdziwa, tzn. π
j(θ, β) = p
j(β), to powyższa równość w za-
pisie macierzowym przyjmuje postać
˙l
θ= ∂l
∂θ
θ=0
= W(N − np(β)).
Różniczkowanie l względem β
uw punkcie θ = 0 oraz korzystając z (19), (21), dostajemy
∂l
∂β
uθ=0
=
m j=1∂ log p
j(β)
∂β
uN
j=
m j=11 p
j(β)
∂p
j(β)
∂β
u(N
j− np
j(β)).
W zapisie macierzowym daje to
˙l
β= ∂l
∂β
θ=0