• Nie Znaleziono Wyników

WarszawaOdporna estymacja komponentów wariancyjnych

N/A
N/A
Protected

Academic year: 2021

Share "WarszawaOdporna estymacja komponentów wariancyjnych"

Copied!
21
0
0

Pełen tekst

(1)

Wo j c ie c h Zie l iń s k i

Warszawa

Odporna estymacja komponentów wariancyjnych

(Praca wpłynęła do Redakcji 1986.11.06)

Wstęp. Jednym z podstawowych zagadnień statystycznych w modelach liniowych jest estymacja nieznanych parametrów o\, ..., cr| rozkładu wektora losowego y takiego, że Cov y = 1 of gdzie Tt są pewnymi znanymi macierzami nieujemnie określonymi. Parametry te noszą nazwę komponen- tów wariancyjnych. Jako estymatory przyjmuje się formy kwadratowe wekto- ra y, kryteriami są zaś zwykle obciążenie oraz wariancja estymatora. Jeżeli wektor losowy y ma rozkład normalny, to teoria powyższego zagadnienia jest bardzo dobrze znana, a praktyka często sprowadza się do stosowania gotowych programów komputerowych. Ponieważ jednak model gaussowski jest modelem raczej wyidealizowanym i w praktycznych zastosowaniach rozkład obserwacji y może być inny niż normalny, stajemy przed pytaniem, na ile różne interesujące nas własności tych rutynowych postępowań statysty- cznych (estymatorów i testów) zmieniają się, gdy faktyczny rozkład odbiega od rozkładu normalnego.

To zagadnienie jest znane od dawna w statystyce i znane są również różne metody postępowania w takich sytuacjach. Na przykład, czasami stosuje się różne transformacje wektora y tak, żeby zmienne losowe uzyskane w wyniku tych transformacji miały rozkłady normalne i żeby można było wtedy skorzystać z rozwiązań dla modelu gaussowskiego. Czasami po prostu rezygnuje się z założeń o rozkładzie i korzysta z różnych metod nieparame- trycznych.

W niniejszej pracy podejmuję zagadnienie ilościowej oceny zmian róż- nych własności procedur statystycznych opracowanych dla modelu gaussow- skiego, gdy rozkład obserwacji różni się od tego rozkładu modelowego.

Uwagę koncentruję na problemie estymacji komponentów wariancyjnych, a za interesującą mnie własność estymatorów przyjmuję ich wariancję. Główne wyniki dotyczą konstrukcji kwadratowych, nieobciążonych estymatorów

2 - Matematyka Stosowana t. 31

(2)

komponentów wariancyjnych, niezmienniczych ze względu na pewną grupę przesunięć, których wariancja jest mało wrażliwa na odstępstwa od normal- ności. Jest to tzw. problem odporności estymatorów w sensie stabilności wariancji.

W podstawowym rozdziale 2 podaję definicję estymatora odpornego.

Podane są tam również warunki konieczne i dostateczne istnienia estymato- rów odpornych. Okazuje się, że w wielu sytuacjach istnieje nieskończenie wiele różnych estymatorów odpornych. Wykorzystuję to w ten sposób, że spośród nich wybieram estymator o minimalnej wariancji. Ponadto podaję tam charakteryzację modeli, w których niezmienniczy estymator nieobciążony o minimalnej wariancji w modelu normalnym jest zarazem estymatorem odpor- nym.Rozdział 3 poświęcony jest zastosowaniom wyników uzyskanych w roz- dziale 2. Znajduje się tam szczegółowe omówienie odpornej estymacji warian- cji w modelach z jednym komponentem wariancyjnym; jest rozważany szczegółowo model jednoczynnikowej analizy wariancji w układzie stałym i mieszanym, a w końcu podany jest przykład modelu, w którym estymator odporny o minimalnej wariancji jest inny niż estymator nieobciążony o minimalnej wariancji w modelu normalnym.

Ostatni rozdział zawiera kilka problemów otwartych, które są przedmio- tem moich badań.

W pierwszym rozdziale znajduje się krótki przegląd metod estymacji komponentów wariancyjnych w modelach normalnych. Nie poruszono tu jednak zagadnień, które nie są bezpośrednio związane z tematem niniejszej pracy, np. problem nieujemnej estymacji oraz estymacji bayesowskiej. Poda- no natomiast krótki przegląd dotychczasowych wyników związanych z za- gadnieniem estymacji odpornej.

Problemy stabilności procedur statystycznych opartych na estymatorach wariancji pojawiły się już w pracach Pearsona (1931), Boxa (1953) oraz Boxa i Andersena (1955). Obszerny przegląd literatury na ten temat można znaleźć u Nilrnberga (1982). Prezentowane w pracy podejście do zagadnień odpornej estymacji komponentów wariancyjnych po raz pierwszy zostało zastosowane do przypadku modeli z jednym komponentem wariancyjnym w pracy R.

Zielińskiego i W. Zielińskiego (1985). Tak zwane „podejście bezwspółrzędnio- we” w tym problemie po raz pierwszy zastosowano w pracy W. Zielińskiego (1986). Przykłady różnych modeli można znaleźć w pracy W. Zielińskiego (1985).

W niniejszej rozprawie w systematyczny sposób przedstawione są moje wyniki opublikowane w pracach: W. Zieliński (1985, 1986) oraz R. Zieliński i W. Zieliński (1985). Uzupełniam je wynikami na temat związku estymato- rów nieobciążonych o minimalnej wariancji w modelu normalnym z estyma- torami odpornymi (tw. 2.4) oraz szczegółową analizą odporności w modelu jednoczynnikowej analizy wariancji (rozdz. 3).

(3)

1. Zagadnienie estymacji komponentów wariancyjnych. Rozważamy model liniowy

(i-i) y = xp+e,

gdzie X jest znaną macierzą o wymiarach nxp, /? — wektorem w Rp, e — wektorem losowym o rozkładzie N(0,T(<j)), a = (erf, . . o*)', T(<j)

= j of T(, T( są znanymi macierzami nieujemnie określonymi (w dalszych rozdziałach struktura wektora e będzie dokładniej wyspecyfikowana). Niech f ,G = Y,?=if(7i b^zie liniową funkcją komponentów wariancyjnych. Zada-

nie polega na znalezieniu kwadratowego estymatora y'Ay dla tej funkcji.

W niniejszym krótkim przeglądzie zagadnień estymacji komponentów, wariancyjnych będą nas interesowały dwa kierunki. Pierwszy z nich to estymacja w modelach normalnych, drugi zaś to zagadnienie takiej estymacji w modelach normalnych, którą można przenieść również na przypadek modeli niegaussowskich, czyli zagadnienie estymacji odpornej na odstępstwa od normalności modelu.

1.1. Estymacja w modelach gaussowskich. Jedną z pierwszych prac doty- czących estymacji komponentów wariancyjnych jest praca Hendersona (1953). Podane tam trzy metody estymacji znane są jako metody Henderso- na. Polegają one na znalezieniu niezależnych zmiennych losowych y'Ay y, ..., y'AKy oraz rozwiązaniu względem o \ ,...,o \ układu równań powstałych przez przyrównanie wartości oczekiwanych do aktualnych obser- wacji: Ey’Aty = y' Aty, i = 1, ..., K. Otrzymane rozwiązania <xj, ..., di trak- tuje się jako estymatory odpowiednich komponentów wariancyjnych. Uzy- skane tą drogą estymatory są nieobciążone i cała uwaga koncentruje się wokół konstrukcji takich właśnie estymatorów. Ponieważ estymator nieob- ciążony nie jest wyznaczony jednoznacznie, powstał problem wyboru spośród nich estymatora optymalnego według jakiegoś dodatkowego kryterium. W 1971 roku Rao zaproponował jako kryterium normę \\A\\V = trAVAV, gdzie V jest pewną dodatnio określoną macierzą. Otrzymany tą drogą estymator nosi

nazwę MINQUE — minimum norm quadratic unbiased estimator. Okazuje się, że jeżeli V = Cov y, to MINQUE jest estymatorem nieobciążonym o mini- malnej wariancji. Wiele szczegółowych wyników uzyskanych przy tym po- dejściu do estymacji można znaleźć w pracach Searle (1971), Corbeil i Searle (1976), Kleffe (1977), Rao i Kleffe (1980), Humak (1984) oraz w najnowszej pracy przeglądowej Gnota (1986).

Ponieważ pewne transformacje wyjściowego modelu liniowego (1.1) nie zmieniają wartości komponentów wariancyjnych o\, ...,o \ i przestrzeni wartości oczekiwanych wektora y, wydaje się naturalnym ograniczenie klasy rozważanych estymatorów do estymatorów niezmienniczych na te transfor- macje. Dokładniej: jeżeli g jest dowolnym wektorem z przestrzeni generowa- nej przez kolumny macierzy X — oznaczamy tę przestrzeń przez ś?(X) — to

(4)

Cov {y + g) = Cov y i E(y + g) e@(X). W tej sytuacji naturalne wydaje się żądanie, aby estymator y' Ay spełniał warunek

(y + g)'A{y + g) = y'Ay \tge&{X).

Takie estymatory będziemy nazywać krótko estymatorami niezmienniczymi.

Ponieważ dla każdego get#(X) istnieje wektor p — Rp taki, że g = XP, więc estymator y' Ay jest niezmienniczy wtedy i tylko wtedy, gdy AX = 0.

Podstawowym zagadnieniem estymacji niezmienniczej jest znalezienie ma- ksymalnego niezmiennika, tzn. przekształcenia liniowego t = My eRs, s ^ n, spełniającego warunki:

(i) My = M{y+g) Vg ejt(X);

(ii) jeżeli Myt = My2, to yl - y 2e&(X).

W literaturze rozważane są różne przekształcenia M. Najczęściej przyjmuje się M = I — X X +, gdzie X + jest odwrotnością Moore’a-Penrose’a macierzy X. Przekształcenie to jest rzutem ortogonalnym na Jf(X) = {a eRP: Xa =

= 0]. W dalszym ciągu będziemy posługiwali się właśnie tą macierzą M. Inne maksymalne niezmienniki można znaleźć np. w pracach: Kleffe (1976) oraz Olsen i in. (1976).

Zagadnienie niezmienniczej i nieobciążonej estymacji funkcji liniowych komponentów wariancyjnych szczegółowo badał Seely (1971b). Charaktery- zację zbioru <8 funkcji komponentów wariancyjnych, które są nieobciążenie i niezmienniczo estymowalne, sformułował on w postaci następującego lematu:

Le m a t 1.1. Funkcja f o e # wtedy i tylko wtedy, gdy f et${G), gdzie G = (tvMTi MTj)iJ=1... *. .

Przy założeniu, że jedna z macierzy Tl9 ..., TK, powiedzmy TK = I, Seely podał także warunek konieczny i dostateczny na to, aby dla każdej funkcji f'o e 8 istniał estymator jednostajnie najlepszy i niezmienniczy, tzn. estymator o jednostajnie, względem o, minimalnej wariancji, która w modelu gaussow- skim wyraża się wzorem

(1.2) Vaxy'Ay = 2tr AT (o) AT (a).

Le m a t 1.2. Niech TK — I i niech fi = sp {M7j M, ..., MTKM). Dla każdej funkcji z 8 istnieje jednostajnie najlepszy estymator niezmienniczy wtedy i tylko

wtedy, gdy przestrzeń fi spełnia warunek:

Vefi=>V2efi. m

Podprzestrzeń fi spełniającą warunek podany w lemacie 1.2 Seely nazwał przestrzenią kwadratową.

1.2. Estymacja w modelach niegaussowskich i estymacja odporna. W przy- padku gdy rozkład modelowy nie jest rozkładem normalnym, w wariancji kwadratowego estymatora y' Ay pojawia się człon będący funkcją kurtozy

(5)

rozkładu modelowego (dokładna postać wariancji w modelu niegaussowskim podana jest w rozdziale 2, wzór 2.1). Zatem, wariancja estymatora optymal- nego w modelu normalnym zmienia się i powstaje pytanie, czy w modelu niegaussowskim estymator ten jest nadal estymatorem nieobciążonym o minimalnej wariancji, a jeżeli nie, to jak wygląda estymator optymalny w modelu niegaussowskim.

Problem charakteryzacji modeli, w których estymator optymalny przy założeniu normalności nie traci własności optymalności, gdy rozkład nie jest normalny, postawiony był przez Hsu (1938) i nosi nazwę problemu Hsu.

Zagadnieniem tym zajmowali się m.in. Attiqullah (1962a,b), Drygas i Hupet (1977), Drygas (1980), Kleffe (1975), Kleffe i Zólner (1978), Anderson i in.

(1984). Przegląd wyników można znaleźć np. w podręcznikach Seber (1977) i Rao (1982).

W modelach niegaussowskich, nie będących rozwiązaniami problemu Hsu, możliwe jest znalezienie estymatorów o mniejszej wariancji niż warian- cja estymatora optymalnego. Hirano (1973) oraz Singh i in. (1973) zapropo- nowali pewną modyfikację standardowego estymatora wariancji zależną od kurtozy rozkładu modelowego. Inną propozycją jest estymator typu „jackni- fe” (Arvesen i Schmitz (1970)).

Przykładem modelu będącego rozwiązaniem problemu Hsu jest model, w którym składowe yx, ..., y„ wektora y są niezależnymi zmiennymi losowymi o tym samym rozkładzie, powiedzmy F. Scheffe (1959) pokazał, że najlepszy estymator wariancji s2 = £(>’«• - y ) 2/(n - 1) ma, po odpowiednim unormowa- niu. rozkład asymptotycznie normalny /V(0,1 +y2 (F)/2), gdzie y2(F) =

= (Ą{F) — 3 jest kurtozą rozkładu F (/t,(F) oznacza i-ty moment cen- tralny tego rozkładu). W konsekwencji otrzymujemy na przykład, że asymp- totyczny rozmiar testu chi-kwadrat na poziomie istotności 0.05 dla hipotezy H: a2 = 1 zależy od kurtozy rozkładu F:

12 (F) -1 .5 - 1 0 1 7

rozmiar testu 9 x 10~5 .0006 .05 .11 .36

Podobne zachowanie się rozmiaru testu F Snedecora dla testowania hipotezy o równości dwóch wariancji zauważył Pearson (1931), natomiast Box (1953) oraz Box i Andersen (1955) obliczyli zmiany asymptotycznego rozmiaru testu Bartletta dla testowania hipotezy o równości k wariancji:

72 (F) k = 2 -X II <N o

2 .166 .718

0 .05 .05

- 1 .0056 .0004

(6)

W tej sytuacji wydaje się sensowne poszukiwanie takich estymatorów wariancji, których wariancja jest mało czuła na zmiany kurtozy rozkładu modelowego. Po raz pierwszy badanie zmian wariancji kwadratowego esty- matora wariancji, będących konsekwencją zmiany rozkładu modelowego, było przeprowadzone w pracy R. Zieliński i W. Zieliński (1985). Podano tam estymatory, których wariancja jest najbardziej stabilna przy zmianach rozkła- du w modelu z jednym komponentem wariancyjnym. Wyniki tej pracy przedstawione są w § 3.1. W niniejszej pracy problem poszukiwania estymato- rów o wariancji najbardziej stabilnej przy zmianach rozkładu zostanie roz- szerzony na liniowe funkcje komponentów wariancyjnych.

Inne podejście do odpornej estymacji wariancji prezentuje Huber (1981).

Interesuje się on estymacją odchylenia standardowego jako parametru skali w rozkładzie normalnym. W tym podejściu rozważa się problem estymacji parametru skali k rozkładu Fx(x) = F(x/k). Przypuśćmy, że zamiast rozkładu F mamy pewien rozkład z rodziny = [G: G = (1 —e)F + eH: H jest dowol- nym rozkładem] (jest to tak zwany model błędów grubych). Poszukuje się takich estymatorów parametru k, których asymptotyczne obciążenie lub/i asymptotyczna wariancja są małe dla wszystkich rozkładów z # £. Estymato- rów poszukuje się wśród M-estymatorów (estymatory typu największej wia- rogodności), L-estymatorów (liniowe kombinacje statystyk pozycyjnych) lub R-estymatorów (estymatory rangowe). Obszerny wykład na temat tego za- gadnienia można znaleźć w monografii Hubera (1981), szczegółowe wyniki zaś np. w pracach Schoemaker i Hettmansperger (1982) i Lax (1985). Rychlik (1986) podał estymatory parametru skali, których asymptotyczne obciążenie w sensie mediany jest najmniejsze dla wszystkich rozkładów z 0>t. To bardzo ogólne podejście do estymacji wariancji nie jest jednak przedmiotem moich zainteresowań w niniejszej pracy.

2. Odporna estymacja komponentów wariancyjnych.

2.1. Sformułowanie zagadnienia. Rozważamy model liniowy (1.1), gdzie e = Wi są znanymi macierzami o wymiarach n x n ( takimi, że WiWi' = Tf, & =(&!, ..., £•„.)', i - l , . . . , K , są wektorami losowymi takimi, że E£i = 0, EZi £ = of /„. oraz JEf, £'■ = 0 dla i ^ j.

Niech Fij będzie rozkładem zmiennej losowej takim, że kurtoza y2(Fij) = y2i 6 [y2i, y2i]. Oznaczmy przez F łączny rozkład zmiennych losowych (£i, ..., £k) na RN(N = £ n f). Niech ^ r = {Fy: yeT] będzie rodziną rozkła- dów indeksowaną parametrem yeT = [y2i, y2i] x •••-x[ 72?2x]- Załóżmy, że r jest zbiorem w R* zawierającym zero. Przy tych założeniach wariancja niezmienniczego estymatora y’ Ay ma postać:

(2.1) Var / Ąy = £ of y2i Ąą -I- 2tr A T {o)A T (o),K i = 1

gdzie Oi jest wektorem utworzonym z diagonalnych elementów macierzy

(7)

W(AWf, i = 1, K (a, = diag(WlAWi)). Zauważmy, że jeżeli F jest rozkła- dem normalnym, to (2.1) redukuje się do (1.2).

Dla zadanej funkcji f o poszukujemy takiego estymatora, którego wa- riancja zmienia się możliwie mało, gdy rozkład F przebiega zbiór T. Wzoru- jąc się na koncepcji odporności z pracy R. Zielińskiego (1983), zdefiniujemy dla danego estymatora y'Ay funkcję odporności

(2.2) rA(o) = sup Vary',4y— inf Var y'Ay = Fye&p Fye&r

K

= Z ( h i - Y 2 i ) ° t a'i “ i-

i= 1

De f in ic ja 2.1. Estymator y' Ay funkcji f'o nazywamy odpornym, jeżeli Ey'Ay = f'o oraz rA(o) ^ rB(o) dla wszystkich o oraz wszystkich B takich, że Ey'By =f'o.

W trzeciej części niniejszego rozdziału problem poszukiwania estymato- rów odpornych jest sprowadzony do problemu poszukiwania estymatorów nieobciążonych o „minimalnej wariancji” oraz są podane warunki istnienia estymatorów odpornych. Okazuje się, że w wielu modelach dla danej funkcji komponentów wariancyjnych istnieje nieskończenie wiele estymatorów od- pornych i spośród nich można wybrać estymator o minimalnej wariancji.

Zagadnienie istnienia estymatorów odpornych o minimalnej wariancji (które nazywam najlepszymi estymatorami odpornymi) rozważane jest w części czwartej. Część piąta poświęcona jest badaniu, kiedy estymator nieobciążony o minimalnej wariancji w modelu normalnym jest estymatorem odpornym.

Druga część bieżącego rozdziału ma charakter pomocniczy i zawiera wszyst- kie te fakty z ogólnej teorii modeli liniowych, które zostały wykorzystane w dalszej części pracy.

Ponieważ interesuje nas niezmiennicza estymacja komponentów warian- cyjnych, więc tam gdzie to będzie wygodniej, obok modelu wyjściowego

(2.3) y = * /) + £

i= 1 będziemy rozważać model zredukowany

(2.4) ( = 1 1 ^

i = 1

dla maksymalnego niezmiennika opisanego w § 1.1 t = My, gdzie J7£ = MWt oraz M = I — X X +.

Ponieważ estymator kwadratowy względem y jest niezmienniczy wtedy i tylko wtedy, gdy jest funkcją maksymalnego niezmiennika t, problem nie- zmienniczej i kwadratowej estymacji w modelu (2.3) redukuje się do proble- mu estymacji kwadratowej w modelu (2.4).

(8)

2.2. Definicje, oznaczenia i lematy. W latach siedemdziesiątych Seely i Zyskind (Seely (1970a, b), (1971), Seely i Zyskind (1971)) zauważyli, że problem kwadratowej estymacji komponentów wariancyjnych można spro- wadzić do pewnego problemu estymacji liniowej. Rozważali oni zmienną losową Z = yy' przyjmującą wartości w przestrzeni liniowej sJJf" macierzy symetrycznych stopnia n z iloczynem skalarnym (A, B) = trAB. Wówczas estymator kwadratowy y' Ay można zapisać jako estymator liniowy (A, Z).

Ogólnie: dla zmiennej losowej Z o wartościach w skończenie wymiarowej przestrzeni liniowej / z iloczynem skalarnym (•,•) zadanie polega na liniowej estymacji liniowej funkcji wartości oczekiwanej EZ. Prace Seely’ego i Zyskin- da dały początek tzw. podejściu bezwspółrzędniowemu (coordinate free app- roach), które to podejście jest stosowane w niniejszej pracy. W związku z tym wprowadzimy pewne definicje i lematy przydatne w dalszych rozważaniach.

Niech Z będzie zmienną losową o wartościach w skończenie wymiarowej przestrzeni / z iloczynem skalarnym (•,•). Niech Jf 0 będzie podprzestrzenią liniową przestrzeni Niech S' będzie przestrzenią liniową rozpiętą przez wartości oczekiwane zmiennej losowej Z oraz niech 0 będzie stożkiem wypukłym nieujemnie określonych i samosprzężonych operatorów liniowych działających z w (zazwyczaj przyjmuje się, że 0 jest stożkiem rozpię- tym przez operatory kowariancji CovZ). Dla danego Ae.^T niech g =

= (A, EZ) będzie funkcją liniową wartości oczekiwanej EZ. Poszukujemy estymatora funkcji g w klasie estymatorów liniowych (B, Z). Funkcję g bę- dziemy nazywali JT0-estymowalną, jeżeli istnieje BeJ f0 takie, że E(B, Z) =

= g. Estymator (B, Z), £ = Jf 0> funkcji g będziemy nazywali (.#0, ©)- najlepszym estymatorem funkcji g; jeżeli dla każdego C e Jf 0 takiego, że E(C, Z) = g mamy (B, rB) ^ (C, FC) dla wszystkich F e&. Estymator (B, Z) nazywamy (.y0, ©)-najlepszym, jeżeli jest on {■#0, <9)-najlepszym estymato- rem swojej wartości oczekiwanej. Zauważmy, że jeżeli © jest zbiorem opera- torów kowariancji wektora Z, to pojęcie (JT0, ©)-najlepszego estymatora jest równoważne pojęciu estymatora nieobciążonego o jednostajnie minimalnej wariancji.

Operator *P e© nazywamy operatorem maksymalnym w 0, jeżeli N{j¥) =

= H ^(F ), gdzie ^F(F) oznacza jądro operatora F. Jeżeli w zbiorze © istnieje operator dodatnio określony, to jest on operatorem maksymalnym. ree Istnienie operatora maksymalnego w każdym wypukłym zbiorze samosprzę- żonych operatorów nieujemnie określonych udowodnił LaMotte (1977).

Niech .vf o oraz .W\ będą dwiema podprzestrzeniami liniowymi przestrze- ni JT i niech = {/łeJT,-: (A, Z) jest estymatorem (Jf,-, <9)-najlepszym}, i = 0,1. Podamy kilka lematów charakteryzujących najlepsze estymatory.

Le m a t 2.1. Niech A e J f 0. Estymator {A, Z) jest ( J f 0> ©)-najlepszym wtedy i tylko wtedy, gdy fA eS‘+ dla każdego F e&.

(9)

Dowód. Jest to wersja znanego lematu Lehmanna-Scheffego (por. Gnot i in. (1980)). ■

Następujący lemat podaje charakteryzację modeli, w których dla wszyst- kich funkcji o‘estymowalnych istnieją estymatory najlepsze.

Le ma t 2.2. Dla każdej 0-estymowalnej funkcji istnieje ( 0)-najlepszy estymator wtedy i tylko wtedy, gdy

r (X '0n lF~1 (<f+ JT0)) <= (?+ dla wszystkich Te©.

Dowód. Lemat pochodzi z pracy Gnota i in. (1980), gdzie podano jego dowód. ■

Powyższy lemat odgrywa podstawową rolę w dalszych rozważaniach.

Następujący lemat podaje postać zbioru Mt, przy założeniu, że dla każdej )f-estymowalnej funkcji istnieje 0)-nąjlepszy estymator, i = 0,1.

Lem a t 2.3. Przypuśćmy, że warunki lematu 2.2 są spełnione dla .vf0 i . Wówczas Mx = .y fi^ p - l(<?+ .iff), i = 0,1.

Dowód. Na mocy lematu 2.1 mamy Mi = Jjfn f| T~l(S+ Jff). Rów- ność f| r ~ l (<*> + .tf]1) = .‘/f j-n'P"1 (ó + f) wynika z dowodu twierdze-res nia 3.1 w pracy Gnota i in. (1980). ■leO

Poniższy lemat podaje warunki przy których każdy ( <9)-najlepszy estymator jest jednocześnie (Jf0, 0)-naj lepszym, gdy .tf0 ę Jf j.

Le m a t 2.4. Jeżeli .‘/ć0 <= x, to Mx ^ M 0 wtedy i tylko wtedy, gdy Mi ę . r Q.

Dowód. Przypuśćmy, że Mx <^M0. Ponieważ na mocy lematu 2.2 M0 ę J f0, więc Mx ę= JT0. Niech teraz Mx ę J f0. Z lematu 2.2 Mx ę 1 {£+

-f .ITf), więc wobec założenia, że JT0 c mamy M0 £ T ~ l («f+ Jfo), czyli M1 ^ M r0n 'p - l (<f+X'£) = M0. •

Wyniki przedstawione w niniejszym paragrafie wykorzystuję w zagadnie- niach kwadratowej estymacji komponentów wariancyjnych w modelu (2.4) (niezmienniczej, kwadratowej estymacji w modelu (2.3)) w następujący spo- sób. Jako zmienną losową Z przyjmuję tt'. Wtedy .W jest przestrzenią SJJP macierzy symetrycznych stopnia n. Ponieważ Ett' = V{, gdzie V-x = (/, U\, więc S = sp (Lj, ..., VK}. Interesuje nas estymacja funkcji f u , czyli funkcji {A, Ett') = £ ufixAVi. Estymatory t'At przyjmują postać (A, tt').

2.3. Twierdzenie o istnieniu estymatorów odpornych. W niniejszym paragra- fie zajmujemy się problemem istnienia estymatorów odpornych w sensie definicji 2.1. Na mocy wzorów (2.1) i (2.2), macierz /4e$R" taka, że t'At jest

(10)

odpornym estymatorem funkcji /'er jest rozwiązaniem następującego zagad- nienia optymalizacyjnego:

znaleźć A e sJJt" minimalizującą, jednostajnie względem er, rA (<r) = Z (V2.- “ /= iK lid % óf,

przy warunku

Et'At = f'o , gdzie a, = diag(l/| = diag(W^' MAMWj).

Niech P będzie rzutem ortogonalnym na podprzestrzeń macierzy diago- nalnych, tzn. niech dla A = {au)ij =l...„

P(A) = an 0

0

Korzystając z własności śladu macierzy, możemy zapisać:

%ai =trP{U'i AUi)P{ U[ A U,) = tr U[ AU t P (U] AU f) =

= trAUi P(U'iAUi) Ul = (A, <M),

gdzie jest odwzorowaniem liniowym z 2J?" w zdefiniowanym wzorem

= U fPm A U ^V ',. Niech <P(a) = £ f„ , (y2l- y 2i) of*,. Wtedy

K

rA{<r) = Z (hi-lii)*** = (A> $(o)A).

i= 1

Poszukiwanie odpornego estymatora dla funkcji f'a w modelu (2.4) sprowa- dza się zatem do następującego problemu:

znaleźć macierz ,4e9Jł" taką, żex

(2.5) (A, <P((r)A) = min! dla wszystkich o, E t'A t= f'it.

Nas interesują warunki, przy których dla każdej funkcji estymowalnej w modelu (2.4) istnieje estymator odporny. Niech 0 = {$(0): o} ^ 0, i =

= 1, ..., K\.

Le m a t 2.5. W zbiorze 0 istnieje operator maksymalny.

Dowód. Zbiór 0 jest wypukły. Dla każdego mamy (A, (P(o) A) = Z (y2i-72i)<rt &i A),

i= i

a ponieważ (A, QA) = a^Oi ^ 0, więc każdy operator <P(tr) jest nieujemnie

(11)

określony. Dla dowolnych A ,B e s)W mamy (A, 0 tB) = t rAU iPiU ’iBUi) U\ =

= trPWiAUi) P{U[BU^ = trUi PiUlAUi) U[B =

= (<Pi A. B), i = 1...K.

czyli każdy operator <P e0 jest samosprzężony. Zatem na mocy cytowanego w § 2.2 wyniku LaMotta w 0 istnieje operator maksymalny. ■

Niech *F będzie operatorem maksymalnym w 0. Przyjmując J f0 = X w lemacie 2.2, otrzymujemy następujące twierdzenie.

Tw ie r d z e n ie 2.1. Dla każdej funkcji estymowalnej w modelu (2.4) istnieje estymator odporny wtedy i tylko wtedy, gdy

ó' dla wszystkich r E0. ■

2A. Twierdzenie o istnieniu najlepszych estymatorów odpornych. Twierdze- nie 2.1 podaje warunki konieczne i dostateczne, przy których dla każdej funkcji estymowalnej istnieje estymator odporny. Pojawia się pytanie, czy te estymatory odporne są określone jednoznacznie. Następujący lemat podaje rozwiązanie tego problemu.

Le m a t 2.6. Jeżeli dla pewnej funkcji estymowalnej istnieje estymator od- porny, to jest on wyznaczony jednoznacznie wtedy i tylko wtedy, gdy .i '('F)nÓ1 = JO].

Dowód. (Konieczność). Przypuśćmy, że istnieje niezerowy element X e .V i ^ n S '1. Niech (A, tt') będzie estymatorem odpornym. Wtedy E(A + X, tt') — E(A, tt') oraz (A + X, T(A + X)) = (A, TA) dla wszystkich T E0, czyli (A + X, tt') jest również estymatorem odpornym.

(Dostateczność). Niech (A, tt') oraz (B, tt') będą dwoma odpornymi estymatorami tej samej funkcji komponentów wariancyjnych. Zatem A —

— B e S 1. Ponieważ (A, tt') oraz (B, tt') są odporne, więc na mocy lematu 2.1 (z J f0 = Jf) mamy (A, T(A — B)) = (B, T(A — B)) = 0 dla każdego T e 0 . Stąd (A — B, T(A — B)) = 0 dla każdego T e0, czyli A —Be f| ^ ( O = ^{W). W konsekwencji A = B. ■

W niniejszym paragrafie rozważamy przypadek, gdy warunki lematu 2.6 nie są spełnione. Wówczas, jeżeli dla pewnej funkcji estymowalnej istnieje estymator odporny, to jest on określony niejednoznacznie. Spośród nich można wybrać estymator „najlepszy” według dodatkowego kryterium. Za kryterium przyjmujemy wariancję i najlepszym estymatorem odpornym nazy- wać będziemy estymator odporny o minimalnej wariancji.

Niech sśR oznacza podprzestrzeń liniową wszystkich estymatorów ódpor- nychv Niech y R ę ^ oznacza zbiór wszystkich odpornie estymowalnych

(12)

funkcji: f a e ^ R wtedy i tylko wtedy, gdy istnieje A e s ś R takie, że Et'At =

= f'o .

Niech f o e . Ponieważ dla wszystkich odpornych estymatorów funkcji /'er wielkość £ of (y2l- ~ jest taka sama, więc zgodnie ze wzorem (2.1)

najlepszy estymator odporny, jeżeli istnieje, ma postać t' At, gdzie A e sJJl" jest rozwiązaniem następującego problemu

\trAV(a)AV(oj = min! dla wszystkich er

< E t 'A t = f a

) Ae -/r .

Dla zadanej macierzy T niech I T będzie operatorem liniowym, odwzoro- wującym sJJi" w siebie, danym wzorem Zt A = TAT. Niech = {EV(a)\ of ^

^ 0, i = 1, ..., K j. Łatwo zauważyć, że — podobnie jak 0 — zbiór 1 jest wypukłym stożkiem samosprzężonych operatorów nieujemnie określonych.

Oznaczmy przez I operator maksymalny w / .

Następujące twierdzenie podaje warunki konieczne i dostateczne na to, aby dla każdej funkcji z r(iR istniał najlepszy estymator odporny.

Tw ie r d z e n ie 2.2. Dla każdej funkcji odpornie estymowalnej istnieje najlep- szy estymator odporny wtedy i tylko wtedy, gdy

r ( rVRr \ I ~1 (<*>+ n/^)) ę= + dla wszystkich r e i .

Dowód. Twierdzenie jest wersją lematu 2.2 z Jf 0 = .n/R oraz 0 = i . ■ W modelu (2.3) sformułowanym w § 2.1 często przyjmuje się, że WK = I (Tk = /). Wtedy interpretuje się jako wektor błędów losowych obserwacji y i oznacza standardowo przez e. Jeżeli WK = /, to twierdzenie 2.2 można zapisać w równoważnej postaci.

Tw ie r d z e n ie 2.3. Niech Q oznacza rzut ortogonalny na podprzestrzeń .v/R.

Dla każdej funkcji z WR istnieje najlepszy estymator odporny wtedy i tylko wtedy, gdy podprzestrzeń sp {QVt Q, ..., QVKQ) jest kwadratowa, gdzie V{ = MWj W/ M.

Dowód Twierdzenie to jest adaptacją lematu 1.2 do przypadku, w którym najlepszych estymatorów poszukujemy w zbiorze \y' Ay: A e .c/R} . ■ 2.5. Porównanie z estymatorem standardowym. Załóżmy, że w modelu (2.4) wektory i = 1, ..., K, mają rozkłady normalne, WK = I (VK = M), a prze- strzeń 6 = sp{F1, ..., VK) jest kwadratowa. Wówczas na mocy lematu 1.2 dla każdej estymowalnej funkcji komponentów wariancyjnych f o istnieje estymator najlepszy. Oznaczmy ten estymator przez t'A£t i nazwijmy go estymatorem standardowym. Można pokazać, że A£ e S dla każdej estymo- walnej funkcji f a (por. Gnot (1986)). Podane niżej twierdzenie orzeka, w jakich modelach dla każdej funkcji estymowalnej estymator standardowy jest

(13)

jednocześnie najlepszym estymatorem odpornym. Jest to szersza wersja lema- tu 4 z pracy W. Zielińskiego (1986).

Tw ie r d z e n ie 2.4. Niech WK = I i niech S będzie podprzestrzenią kwadrato- wą. Następujące warunki są równoważne:

(i) dla każdej funkcji estymowalnej w modelu (2.4) estymator standardowy jest najlepszym estymatorem odpornym;

(ii) /' ę ,c/R ;

(iii) <P( Vj e dla /, j = 1, ..., K.

Dowód. Dowodzimy równoważności warunków (i) oraz (ii) korzystając z lematów przedstawionych w § 2.2. Połóżmy tam Jf \ = s3Ji", 0 = ,<VR oraz 0 = i . Wówczas jest zbiorem estymatorów standardowych, jest zaś zbiorem najlepszych estymatorów odpornych. Na mocy lematu 2.4 mamy wtedy i tylko wtedy, gdy .Jj}x Ale na mocy lematu 2.3 i założenia WK = I mamy S x = S.

Dowodzimy (i) o (iii). Każdy estymator standardowy jest najlepszym estymatorem odpornym wtedy i tylko wtedy, gdy jest (sJJi", 0) — najlepszym dla 0 zdefiniowanego w § 2.3. Ponieważ = 6, z lematu 2.1 wynika, że (i) jest równoważny z warunkiem

<PAeó VAeS,V<Pe0.

Z definicji <P oraz S wynika, że powyższy warunek jest równoważny (iii). ■ 3. Zastosowania. W niniejszym rozdziale przedstawimy kilka przykładów zastosowań ogólnej teorii estymatorów odpornych z rozdziału 2. Model z jednym komponentem wariancyjnym (§ 3.1) jest klasycznym modelem linio-

wym z problemem estymacji wariancji błędu. Model jednoczynnikowej anali- zy wariancji (§ 3.2) stanowi punkt wyjścia dla wielu rozważań teoretycznych związanych z wnioskowaniem statystycznym, a zarazem jest jednym z modeli najpowszechniej stosowanych w praktyce przyrodniczej, technicznej i ekono- micznej. W paragrafie 3.3 przedstawiony jest model z dwoma komponentami wariancyjnymi, w którym standardowy estymator nieobciążony o minimalnej wariancji nie jest estymatorem odpornym.

3.1. Model z jednym komponentem wariancyjnym. Rozważamy model y = X f + ę, w którym ££ = 0, £££' = o2 In. Zadanie estymacji liniowej funk- cji wariancji sprowadza się teraz do estymacji wielkości c-a2 dla ceR.

Korzystając z wyników rozdziału 2 pokażemy, że w tym modelu istnieje najlepszy estymator odporny oraz znajdziemy explicite jego postać.

W rozważanym modelu przestrzeń rozpięta na wartościach oczekiwanych tt' dla t = My jest postaci 6 = \aM: aeR}. Zbiór określony w paragrafie 2.3 jest teraz generowany przez jeden operator postaci <PA = MP(MAM) M, który jest operatorem maksymalnym w 0. Warunek podany w twierdzeniu 2.1 jest oczywiście spełniony, zatem dla każdej funkcji estymowalnej (w tym

(14)

przypadku dla każdej funkcji postaci c-a2) istnieje estymator odporny.

Podprzestrzeń ^ zdefiniowana w paragrafie 2.4 ma postać 'V =

= {ZaM:aeR}, a operatorem maksymalnym w tym zbiorze jest 1 M.

Z postaci operatora I aM widać, że dla wszystkich a e R + zachodzi + ^ r)) — <^ + SĆr,

czyli dla każdej funkcji wariancji istnieje najlepszy estymator odporny.

W rozważanym modelu y = XP + £ można efektywnie wyznaczyć najlep- szy estymator odporny dla a2 (R. Zieliński i W. Zieliński (1985)). Funkcja odporności estymatora y' Ay przyjmuje w tym modelu postać rA{a)—

= (y2 — y2)(j4a'a, gdzie a = diagA. Zadanie polega na znalezieniu macierzy A minimalizującej rA((r) przy warunku niezmienniczości AX = 0 i warunku nieobciążoności tr^4 = 1. W istocie rzeczy, jest to zadanie znalezienia przekąt- nej a macierzy; polega ono na znalezieniu najkrótszego, w sensie normy euklidesowej, wektora w odpowiedniej rozmaitości liniowej. Jak wiadomo, zadanie takie ma zawsze rozwiązanie; oznaczmy to rozwiązanie przez a° =

= (a?, ..., a°y. Każda macierz A taka, że diag^l = a° oraz AX = 0, wy- znacza pewien estymator odporny wariancji.

Macierz AR najlepszego estymatora odpornego jest rozwiązaniem nastę- pującego zadania:

wyznaczyć macierz A e 9J1" taką, że f tr A2 = min!,

< AX = 0,

[tr^W^=af, i = 1, „., n,

gdzie = (<5?;i!)k,m=i, <5[,u) jest deltą Kroneckera (warunek ir A Wt = a? jest równoważny warunkowi au = af).

Rozwiązaniem tego zadania jest macierz (por. Rao (1982) § 1.6.3 (ii)) Ar {dij)ij=

gdzie afj = t Xpmipmpj, M = (m,v) = I - X X +, natomiast X = (At , ..., An) jest rozwiązaniem układu równań:

£ ż pm ? = a j \ n j = 1, n.

p= i

W ten sposób zadanie wyznaczenia najlepszego estymatora odpornego w konkretnym modelu y = Xfi + t, sprowadza się praktycznie do wyznaczenia macierzy M i rozwiązania powyższego układu równań względem X.

Na mocy twierdzenia 2.4, skonstruowany wyżej najlepszy estymator odporny jest estymatorem standardowym wtedy i tylko wtedy, gdy

* MP(M) M = aM dla pewnego asR. Warunek ten jest równoważny jednemu z dwóch następujących warunków:

(15)

(a) rząd M = 1 (tzn. rząd X = n— 1);

(b) rząd M > 1 oraz wszystkie niezerowe elementy przekątnej macierzy M są sobie równe.

3.2. Model jednoczynnikowej analizy wariancji. Model jednoczynnikowej analizy wariancji ma postać

yu = fi + oii + eu, j = 1, ..., n{, i = 1, ..., k,

gdzie fi jest „średnią ogólną”, a, jest „efektem i-tego poziomu czynnika”, yu jest ;'-tą obserwacją na i-tym poziomie czynnika, jest zaś błędem losowym związanym z tą obserwacją. Zakładamy, że Eeu = 0, Eefj = a2 oraz Eeu eml =

= 0 dla i # m lub j # /. Wyróżniamy dwie wersje tego modelu: model stały, w którym a, są nieznanymi parametrami, oraz model mieszany (zwany także modelem losowym), w którym af są zmiennymi losowymi takimi, że £a, = 0, Ecif = i 2, i = 1, ..., k, EotiOtj = 0 dla i # j oraz EoLiejm = 0 dla wszystkich i, j, m. Model stały jest modelem z jednym komponentem wariancyjnym, natomiast model mieszany jest modelem z dwoma komponentami wariancyj- nymi.

W dalszych rozważaniach o modelu jednoczynnikowej analizy wariancji będziemy używali następujących oznaczeń:

1„ — wektor złożony z n jedynek;

Jn = \ nYn — macierz złożona z samych jedynek;

A®B — iloczyn kroneckerowski macierzy A i B;

dla macierzy Alf ..., An, niech D(Ai) = A,

0

0 (por. LaMotte (1973)).

3.2.1. Model stały. W standardowym zapisie y = Xfi + e modelu stałego mamy X = (1N:D(1„.)), gdzie N = £«, oraz (A\B) oznacza macierz blokową o podmacierzach A i B.

Macierz M rzutu na Jf{X ) ma postać M In~ D I j r

Macierz standardowego estymatora wariancji a2 ma postać

As 1

N - k

Z warunku (b) (str. 24) wynika, że estymator standardowy jest odporny wtedy i tylko wtedy, gdy diag M = cIN dla pewnego c. Powyższy warunek jest spełniony wtedy i tylko wtedy, gdy = ... = nk, tzn. gdy model jest zrównoważony.

(16)

W ogólnym przypadku, korzystając z metody przedstawionej w paragra- fie 3.1, można wyznaczyć macierz AR najlepszego estymatora odpornego dla a2. Ma ona postać

Dla porównania wpływu kurtozy rozkładu składowych wektora błędu e na wariancję obu estymatorów y' Asy i y' ARy, można łatwo — na podstawie wzoru 2.1 — obliczyć, że

Wykres obu tych wielkości w przypadku modelu niezrównoważonego (n1 = 19, n2 = 3) przedstawiono na rysunku.

Większą stabilność wariancji estymatora odpornego uzyskano tu kosztem zwiększenia jego wariancji w wyjściowym modelu gaussowskim (y2 = 0).

3.2.2. Model mieszany. W standardowym zapisie (2.3) modelu miesza- nego mamy X = 1^, Wx = D( 1 ) oraz W2 = IN. Przy założeniu normalności LaMotte (1973, 1976) pokazał, że dla każdej funkcji komponentów warian- cyjnych (i2, a2) istnieje najlepszy estymator nieobciążony wtedy i tylko wtedy, gdy model jest zrównoważony. Te standardowe estymatory są wó- wczas kombinacjami liniowymi form kwadratowych y' M7j My oraz y' My, gdzie M = In — Jn/N, 7j = Wx W[ = Ik®Jr oraz r = N/k. Korzystając z twierdzenia 2.4, pokażemy, że każdy estymator standardowy jest estymato- rem odpornym.

Sprowadzając rozważany model do postaci (2.4), otrzymujemy

-2 0

Rys. 1

(17)

oraz

<? = s p |Ik®Jr- ^ J N,

Obrazem macierzy i e W przy przekształceniu <Pl jest

<Pl A = Al ®Jr - ^ (diag Al

gdzie Aj jest macierzą diagonalną z następującymi elementami X\, ..., A* na przekątnej:

pr r pr N r 2 N

4 = Z «i , j = ip — l)r + 1 u- 2t; I I i = ( p - l ) r + 1 7= 1 i , j= 1£ "ij.

p = 1, k.

Obrazem macierzy A e W przy przekształceniu <P2 jest

O 4- A 2

<P2A = Aj,——(diag Aj, <S) 1 N jv) H :rfNz2~^N>

gdzie As jest macierzą diagonalną z następującymi elementami Xj, X przekątnej:

2 N i N

Xp = a p p ~ T J ^ xr2 a i j ’ P =

^ j= 1 ij= 1

Dla macierzy Vt — M 7j M mamy

r2(N — W 4 = r2(N — 1)/N, p = 1, . . k, czyli A\ = ----—— -Ik;

N — r X] = (N -r)/N , p = 1, N, czyli Aj, = ~ ^ - I NN Zatem

^ =

0 2 Vi =

r2 (N — 1) N N - r

, I s ---</jy |£ ^.

N \ N N N 1 Dla macierzy V2 = M mamy

Ą = r ( N - r ) /N , p = 1, .• K czyli Al

^ = (N-1)/JV, p = l , .. .,N , czyli Aj,

r(N — r) N N — 1

N

3 — Matematyka Stosowana t. 31

a: w

(18)

Zatem

r(N — r) ( r

* 1 V2 = ^ Js M , N — 1 / 1 \

Otrzymaliśmy, że #, V}e<£' dla i,j = 1, 2, więc na mocy twierdzenia 2.4 estymator standardowy jest odporny.

3.3. Przykład modelu z As ^ AR. W tym paragrafie podany jest przykład modelu, w którym estymator standardowy nie jest estymatorem odpornym (por. W. Zieliński (1986)).

Niech y = Xp+W 1ę1 + W2 {2, gdzie X = j ° ° ° oraz fi = [fiu fi2J, natomiast ^ = [£11? f 12, £1 3]' i £ 2 = [£2 1, £2 2, £2 3, £2 4]' są wektorami losowymi takimi, że E£l =E£2 = Q, £^1^/1 = t2/ 3, £ £ 2 £ 2 = 0 - 2 -^4 oraz

££x £ 2 = 0. Macierze W*, W2 oraz odpowiednie macierze Tl5 T2 mają nastę- pującą postać:

W, =

1 0 0 0 1 0 0 0 1 0 1 0

T, =

10 0 0 0 10 1 0 0 1 0 0 1 0 1

w , = To = L

W tym modelu M = -

2

0 0 0 0

0 1 -1 0 0 -1 1 0

0 0 0 2

i po przekształceniu rozważanego

modelu do postaci (2.4) otrzymujemy

0 0 0 0

0 a —a b 0 —a a —b 0 b — b 2a

: a, beR

Przestrzeń liniowa sśR estymatorów odpornych ma postać

r

0 0 0 0

0 a — a b

0 — a a - b

0 b - b a

: a, beR

(19)

i łatwo widać, że inkluzja $ ę sśR nie zachodzi, czyli na mocy twierdzenia 2.4 estymator standardowy nie jest odporny. Macierze estymatorów naj- lepszego odpornego i standardowego funkcji f i t 2+f2<*2 mają postać:

0 0 0 0

1 0 k ~ k l (fi ~ k )

3 0 - k k - K /1- /2) _0 U f i - f i ) ~ f (/i ~ k) k

~0 0 0 0

1 0 k - k 2 ( fi~ f2)

4 o <1

fi - 2 ( f i - f 2) _0 2 ( /,- /,) - 2 { f i - k ) 2fi _ 4. Uwagi końcowe.

4.1. Efektywność estymatorów odpornych. Estymatory odporne mogą mieć

— w stosunku do estymatora standardowego — dużą wariancję w wyjścio- wym modelu gaussowskim. Mówimy wtedy o stracie efektywności estymato- ra na rzecz jego odporności. Powstaje problem konstrukcji estymatorów odpornych o z góry założonej efektywności. Formalnie można rozważać to jako zadanie (2.5) z dodatkowym warunkiem tr AV(a) AV(o) ^ c(<r), dla danego c(oj > 0. W konkretnym modelu, numeryczne wyznaczenie estymato- ra spełniającego te warunki, jeśli taki estymator istnieje, nie powinno przed- stawiać większych trudności, ale ogólne wyniki na ten temat nie są znane.

4.2. Nieujemna estymacja odporna. Może się zdarzyć, że odporne estyma- tory funkcji f'a, / > 0 przyjmują wartości ujemne. Dobrze znany problem nieujemnej estymacji komponentów wariancyjnych przenosi się wtedy na problem estymacji odpornej. Zagadnienie nieujemnej estymacji komponentów wariancyjnych ma już bardzo bogatą literaturę (por. np. Gnot (1986)), ale nie są mi znane rozwiązania, które mógłbym zastosować do nieujemnej estymacji odpornej.

4.3. Odporne testowanie hipotez o wariancji. Niech yx, ..., yn będą niezale- żnymi zmiennymi losowymi o jednakowym rozkładzie N(p, ó2). W rozdziale 1 cytowaliśmy wyniki Scheffego ilustrujące dużą wrażliwość rozmiaru testu chi-kwadrat dla hipotezy H: a2 = 1, na naruszenie założenia o normalności rozkładu. Z wyników przedstawionych w § 3.1 wynika, że standardowy estymator wariancji, na którym oparty jest ten test, jest estymatorem najod- porniejszym w klasie estymatorów kwadratowych. Zatem, ewentualne „uod- pornienie” testu można uzyskać tylko przez oparcie go na innych statysty- kach. Wstępne badania tego zagadnienia potwierdzają to przypuszczenie.

Problematyka ta wykracza jednak poza tematykę estymacji, więc uzyskane wyniki będą przedstawione w oddzielnej pracy.

(20)

Prace cytowane

R. D. A n d erson , H. V. H en d erson , F. P u k elsh eim , S. R. Searle, Best estimation of variance components from balanced data, with arbitrary kurtosis, Math. Operationsforsch.

Statist. Ser. Statist. 15 (1984), 163-176.

J. N. A rvesen, T. Sch m itz, Robust procedures for variance component problems using the jacknife, Biometrics 26 (1970), 677-686.

M. A tiq u lla h , The estimation of residual variance in quadratically balanced least square problems and the robustness of the F-test, Biometrika 49 (1962a), 83-91.

M. A tiq u lla h , On the effect of nonnormality on the estimation of components of variance, J. Roy.

Statist. Soc. Ser. B 24 (1962b), 140-147.

G. E. P. Box, Non-normality and tests of variances, Biometrika 40 (1953), 318-355.

G. E. P. Box, S. L. A ndersen, Permutation theory in the derivation of robust criteria and the study of departures from assumptions, J. Roy. Statist. Soc. Ser. B 17 (1955), 1-34.

R. R. C o rb eil, S. R. Searle, A comparison of variance component estimators, Biometrics 32 (1976), 779-792.

H. D rygas, Hsu’s theorem in variance component model, Banach Center Publ. 6 (1980), 95-108.

H. D rygas, G. Hu pet, A new proof of Hsu’s theorem in regression analysis — a coordinate free approach, Math. Operationsforsch. Statist. Ser. Statist. 8 (1977), 333-335.

S. G n ot, Kwadratowa estymacja komponentów wariancyjnych, Mat. Stos. 27 (1986), 97-147.

S. G n ot, W. K lo n eck i, R. Z m yślon y, Best unbiased linear estimation, a coordinate free approach, Probab. Math. Statist. 1 (1980), 1-13.

C. R. H en d erson , Estimation of variance and covariance components, Biometrics 9 (1953), 226- 252.

K. H iran o, Some properties of an estimator for the variance of a normal distribution, Ann. Inst.

Math. Statist. 25 (1973), 479-492.

P. H su, On the best quadratic estimate of variance, Statist. Res. Memoirs 2 (1938), 91-104.

P. H uber, Robust statistics, Wiley, New York 1981.

K. M. S. H um ak, Statistische Methoden der Modellbildung III, Akademie - Verlag, Berlin 1984.

J. K leffe, Optimal estimation of variance components — a survey, Sankhya 39 Ser. B (1977), 211-244.

J. K leffe, A note on MINQUE for normal models, Math. Operationsforsch. Statist. Ser. Statist. 7 (1976), 707-71.4.

J. K leffe, Optimal estimation of variance components — a survey, Sankhya 39 Ser. B (1977), 211-244.

J. K leffe, I. Z d lln er, On quadratic estimation of heteroscedastic variances, Math. Operations- forsch. Statist. 9 (1978), 27-44.

L. R. L aM otte, Quadratic estimation of variance components, Biometrics 29 (1973), 311-330.

L. R. L aM otte, Invariant quadratic estimators in the random, one-way AN OVA model, Biome- trics 32 (1976), 793-804.

L. R. L aM otte, A canonical form for the general linear model, Ann. Statist. 5 (1977), 787-789.

D. A. Lax, Robust estimators of scale: finite sample performance in long-tailed symmetric distributions, JASA 80 (1985), 736-741.

E. L ehm ann, H. Scheffe, Completness, similar regions, and unbiased estimation, part 1, Sankhya 10 (1950), 305-340.

G. N U rnberg G., BeitrUge zur Versuchsplanung fur die Schdtzung von Varianzkomponenten und Robustheitsuntersuchungen-zum Vergleich zweier Varianzen, Probleme der angewandten Stati- stik, Heft 6 (1982) Dummerstorf-Rostock.

A. O lsen , J. S eely, D. B irkes, Invariant quadratic unbiased estimation for two variance components, Ann. Statist. 5 (1976), 878-890.

E. S. P earson , The analysis of variance in cases of nonnormal variation, Biometrika 23 (1931), 114-135.

(21)

C. R. Rao, Estimation of variance and covariance components, J. Mult. Analysis 1 (1971), 257- 275.

C. R. Rao, Modele liniowe statystyki matematycznej, PWN, Warszawa 1982.

C. R. Rao, J. K leffe, Estimation of variance components, Handbok of Statistics 1 (1980), 1-40.

T. R ychlik, Asymptotycznie stabilne estymatory parametrów lokacyjnych, rozprawa doktorska, IMPAN, Warszawa 1986.

H. Scheffe, The analysis of variance, Wiley, New York, 1959.

L. H. Schoem ak er, T. P. H ettm an sp erger, Robust estimates and tests for the one- and two- sample scale models, Biometrika 69 (1982), 47-53.

S. R. Searle, Topics in variance component estimation, Biometrics 27 (1971), 1-76.

G. A. F. Seber, Linear regression analysis, Wiley, New York 1977.

J. Seely, Linear spaces and unbiased estimation, Ann. Math. Statist. 41 (1970a), 1725-1734.

J. Seely, Linear spaces and unbiased estimation — application to the mixed model, Ann. Math.

Statist. 41 (1970b), 1735-1748.

J. Seely, Quadratic subspaces and completness, Ann. Math. Statist. 42 (1971), 710-721.

J. Seely, G. Z ysk in d , Linear spaces and minimum variance unbiased estimation, Ann. Math.

Statist. 42 (1971), 691-703.

J. Singh, B. N. P andey, K. H irano, On the utilization of a known coefficient ofkurtosis on the estimation procedures of variance, Ann. Inst. Math. Statist. 25 (1973), 51 -55.

R. Z ieliń sk i, Robust statistical procedures: a general approach, in Stability Problems for Stochastic Models, Lecture Notes in Mathematics 982 (1983), Springer-Verlag.

R. Z ieliń sk i, W. Z ie liń sk i, O odpornym estymatorze wariancji w modelu liniowym, Mat. Stos.

26 (1985), 127-136.

W. Z ieliń sk i, O odporności standardowego estymatora wariancji w modelach liniowych, XV Colloquium Metodologiczne z Agrobiometrii (1985), 217-226.

W. Z ieliń sk i, On robust estimation of variance components, Probab. and Math. Statist. 7 (1986), w druku.

Cytaty

Powiązane dokumenty

Jako PRACĘ DOMOWĄ , bardzo proszę zrobić ćwiczenia znajdujące się w karcie pracy (PRESENT SIMPLE-ĆWICZENIA).. PRACĘ DOMOWĄ proszę przesłać na maila do PIĄTKU, 22.05.2020

Ludzie często zobowiązują się do czegoś, często też nie wywiązują się ze swoich zobowiązań i uważają, że nic takiego się nie stało.. Spróbujcie

wykonujecie 4x/3x PADNIJ / POWSTAŃ po czym znów rozwiązujecie kolejne pytanie itd.. Wygodniej gdy krzyżówka będzie wydrukowana, ale nie jest to. konieczne. Chętni do podzielenia

KONSULTACJE: Zapraszam do kontaktu przez messengera w każdy poniedziałek i czwartek od godziny 11.00 do 12.00 – Jerzy Sowa jr. Oczywiście stały kontakt przez dziennik

Istnieją także publiczne instytucje rynku pracy, z pomocy których można korzystać: urzędy pracy, Ochotnicze Hufce Pracy oraz niepubliczne, np.: agencje zatrudnienia,

W problemie estymacji parametrów w nieliniowych modelach regresji metodą najmniejszych kwadratów najczęściej wykorzystuje się metody Gaussa-Newtona i Levenberga-Marquardta oraz

Estymacja kosztów projektu stanowi sumę tych wszystkich składników powiększoną o marżę nakładaną przez producenta oprogramowania (oczywiście w wielu przypadkach

Zwrócono przy tym uwagę na stronę aplikacyjną formułowanych wyników, które w rezultacie pozwalają rozstrzyg- nąć o istnieniu estymatora LNMD dla układu wszystkich