MIECZYSŁAW KUCZYŃSKI (Lublin)
Analiza kowariancji w
układachz rozszczepionymi jednostkami eksperymentalnymi
(Praca przyjęta do druku 1.07.1978)
Wstęp. Układy eksperymentalne z rozszczepionymi jednostkami eksperymental- nymi (split-plot) zostały wprowadzone przez Yatesa ([17]). Są one szczególnie przydatne, gdy w doświadczeniu występują jednostki eksperymentalne różnych typów (niejednakowe) oraz przy dużej liczbie kombinacji poziomów badanych czynników. W rozważanym w pracy układzie z pojedynczo rozszczepionymi jednost- kami eksperymentalnymi wyróżniamy jednostki pierwszego rzędu (dla poziomów czynnika A) oraz jednostki drugiego rzędu (dla poziomów czynnika B). Poziomy czynnika A rozmieszczamy w układzie bloków kompletnie zrandomizowanych, a poziomy czynnika B rozlosowujemy wewnątrz poziomów czynnika A. Wielu autorów przeprowadzało dyskusje dotyczące modelu matematycznego w układzie split-plot. Efekty replikacji są traktowane jako zmienne losowe (Harter [3], Li i Klotz [8], Mendenhall [9], Federer [2]), albo jako parametry stałe (Chakrabarti [1]). Takahashi ([16]), Harter ([3]) i Chakrabarti ([l]) zakładają istnienie korelacji efektów błędów drugiego rzędu, gdy dotyczą one tych samych jednostek eksperymen- talnych pierwszego rzędu, a Mendenhall ( [9]) zakłada skorelowanie błędów pierw- szego rzędu, gdy dotyczą tych samych replikacji. Najbardziej ogólnym podejściem
do tego problemu jest założenie istnienia korelacji dla efektów błędów zarówno pierwszego jak i drugiego rzędu (Kempthorne [5], Niedokos [11], Mikos [10]).
Kempthorne ([5]) i Chakrabarti ([l]) pokazują (przy wykorzystaniu przekształceń
ortogonalnych), że estymatory efektów stałych i funkcje testowe dotyczące para- metrów modelu są identyczne zarówno przy założeniu istnienia korelacji efektów
błędów jak i przy błędach nieskorelowanych.
W niniejszej pracy rozważany jest model analizy kowariancji z wieloma zmiennymi
towarzyszącymi w układzie pojedynczo rozszczepionych jednostek eksperymentalnych ze skorelowanymi efektami błędów. Uwzględnione zostały dwa rodzaje współczyn
ników regresji (dla jednostek pierwszego i drugiego rzędu) zmiennej głównej względem
zmiennych towarzyszących. Rozważany jest model losowy (efekty czynników A i B
są zmiennymi losowymi) i modele mieszane (efekty A lub B stałe), przy czym w każ
dym przypadku efekty replikacji są traktowane jako zmienne losowe.
(691
70 M. K u c z y ń s k i
1. Modele liniowe. W doświadczeniach wykonywanych w układzie z pojedynczo rozszczepionymi jednostkami eksperymentalnymi badamy wpływ dwu czynników A i B na wartość zmiennej losowej Yuk. Poziomy czynnika A rozmieszczamy zgodnie z układem bloków kompletnie zrandomizowanych. Jednostki, na których uplasowano poziomy czynnika A, nazywamy jednostkami pierwszego rzędu lub podblokami. Każdy podblok dzielimy na jednostki drugiego rzędu, na których umieszczamy poziomy czynnika B.
Przyjmujemy następujący model matematyczny:
q
(l. l} YtJk =
~-t+ e,+
ctj+dij+{Jk+YJk+l:
[(zt. -:ZL)~11a+ (z~ 1 k -z~ 1 J~2hl
+etJkh= l
(i= 1,2, ... ,r; j= 1,2, ... ,a; k= 1,2, ... ,b), gdzie Yiik-zmienna losowa o rozkładzie normalnym; p~ średnia populacji (stały parametr); (!;, ct1, {Jk, YJk-efekty replikacji, czynnika A, czynnika B oraz interak- cyjne czynników AB, odpowiednio;
ztk-
obserwacja h-tej zmiennej towarzyszącej,t5111 , t52~a- współczynniki regresji zmiennej YtJk względem h-tej zmiennej towarzyszącej
dla jednostek pierwszego i drugiego rzędu odpowiednio; d11 , e11k - efekty błędów eksperymentalnych związanych z jednostkami pierwszego i drugiego rzędu;
r;j. =! L~Jk, ~ .. =a~ LL~jk·
k J k
Model (l. l) zapiszemy w notacji macierzowej:
(1.2) y = Jn~-t+XRp+X.ta+~d+XB~+X.tBY+X1Z81 +X2Z82+e, gdzie:
n= rab, y' = [yl.u,Yu2' ... ,Yrab], p'= fe"
e2, ... ,
er],a'= [ctl., ct2, ... , cta], d'= [du,d12' ... ,dra], ~' = [{31,{32, ... ,{Jb], Y' =
fru
,.r12' ... , Yab], 8~ = [~u, ~,2, ... , ~tq] dla i= l, 2, e' = [e111 , e112 , ... , erab], Z = [z1, z2, ... , ~], gdzie z' = [z~11, z~12, ... , Z~abl',l l
X1 =
b
(Ira®Eb)-fib
(lr®Eab),(1.3)
x2
= III-b
l (Ira®Eb)' XR = lr®Jab' XA = J/8>1a®Jb,xd
= lar®Jb, XB = JQr®lb, XAB = Jr®lab' (1.4)przy czym przez Jk oznaczamy k-wymiarowy, jedynkowy wektor kolumnowy, lk - k-wymiarową macierz jednostkową, EA: - k-wymiarową, kwadratową macierz
jedynkową, a przez ® oznaczamy iloczyn Kroneckera macierzy.
Zakładamy, że
e
1, d11 , e11k są zmiennymi losowymi o rozkładach normalnych.Ponadto zakładamy, że efekty błędów pierwszego rzędu d11 są skorelowane z tym samym współczynnikiem korelacji ro4, w przypadku gdy dotyczą tych samych rep li-
kacji, a nie są skorelowane, gdy dotyczą różnych replikacji. Podobnie zakładamy, że efekty błędów e lik są skorelowane ze współczynnikiem me gdy dotyczą tych samych replikacji i tych samych poziomów czynnika A, a różnych poziomów czynnika B.
Więc wektory losowe p, d, e mają następujące niezależne rozkłady normalne:
p-N(O, ail,.), d-N(O, Ed), e-N(O, Ee), gdzie macierze kowariancji Ed i Ee mają postać (por. Niedokos [11]):
Ed
=
mda~(I,.®Ea)+ (I-md)aJ I,.a, Ee = mea;(I,.a®Eb)+(I-we)a;In•Ponadto zakładamy, że macierz Z jest pełnego rzędu kolumnowego i rz(Z) =
= q < (r-l)(a-1) oraz
R[Jn:XR:XA:Xd:XB:XAB]nR[Z] = {0},
gdzie przez R[X] oznaczamy przestrzeń liniową rozpiętą na kolwnnach macierzy X, a [X: Y] jest macierzą blokową złożoną z podmacierzy X i Y.
Powyższe założenia dotyczyły wszystkich wariantów rozważanego w pracy modelu (1.1). Podamy teraz dodatkowe założenia dla poszczególnych czterech wariantów w zależności od tego czy efekty czynników A i B są parametrami stałymi, czy też
zmiennymi losowymi.
Modeli:
- w modelu tym przyjmujemy, że efekty rx1, {Jk i 'YJk są parametrami stałymi spełnia
jącymi warunki:
(1.5) J~« =O, J~~ =O, (Ia®J~)y =O, (J~®Ib)y = O.
Mode/2:
- efekty czynnika A traktujemy jako parametry stałe, a efekty czynnika B są zmien- nymi losowymi. Ponadto
(1.6) ~-N(O, ajlb), y-N(O, Ev), J~« =O, (J~®Ib)y =O, gdzie
Mode/3:
- efekty czynnika A są zmiennymi losowymi, a czynnika B parametrami stałymi, przy czym spełnione są warunki:
(1.7) gdzie
«-N(O, aJ.la), y-N(O, Ev), J~~ =O, (la®J~)y = O,
72 M. K u c z y ń s k i Mode/4:
- przyjmujemy, że efekty czynników A i B są zmiennymi loSowymi oraz że speł
nione są warunki:
(1.8) a-N(O, <dla), ~-N(O, ailb), y-N(O, oj81ab).
Oznaczając przez P[X] operator rzutujący ortogonalnie wektory z przestrzeni R"
na podprzestrzeń R [X] rozpiętą na kolumnach macierzy X zapiszemy postać orto- gonalnych operatorów rzutowych dla poszczególnych źródeł zmienności (por.
Ogasawara i Takahashi [12]):
PM = P[J"], PR = P[XR] -PM, (1.9) Pd = P[Xd] -P[XR] -P[XA]+PM,
P AB
=
P[XABl -P[XA] -P[Xs]+PM, gdzie:(1.10) P[XA] =
br
l (E,®la®Eb), P[XB] = -ar l (E,a®lb),Ps = P[XB] -PM,
Pe = 1"-P[XAB] -P[Xd]+P[XA],
P[XR] =
fiii
l (I,®Eab), P[Xd]=b
l (I,a®Eb), P[XAB] =-l r (E,®lab)•Operatory rzutowe dane wzorami (1.9) są parami ortogonalne i spełniają równość:
PM+PR+P A+Pd+PB+P AB+Pe = 1".
LEMAT 1.1. Macierze X1 i X2 występujące w modelu (1.2) możemy przedstawić
w postaci:
(1.11)
D o wód. Korzystając ze wzorów (1.3), (1.9) i (1.10) otrzymujemy:
Pd+P A = P[Xd] -P[XR] = XI' Pe+P AB+PB = 1"-P[Xd] =
x2.
TWIERDZENIE 1.1 (por. Mikos [10]). Macierze kowariancji Vr (t= l, 2, 3, 4) wektora obserwacji y możemy przedstawić w postaci:
(1.12)
gdzie odpowiednie operatory rzutowe dane są wzorami (1.9), a współczynniki w11
(i= M, R, A, d, B, AB, e) są zawarte w tablicy 1.1.
Z uwagi na ortogonalność operatorów rzutowych (1.9) otrzymujemy wzory na macierze odwrotne do macierzy kowariancji (1.12):
( 3) V1.1 t -1
=
--PM+-PR+-PA+ l l lWtM WrR WtA
Tablica 1.1. Współczynniki macierzy kowariancji
efekty czynnika A - stałe efekty czynnika A -losowe efekty B-stałe
l
efekty B -losowe efekty B-stałel
efekty B -losoweW1M = w2+abui+
+abwtfui
W4M = W1M+brul+
gdzie W2M = W1M+aruj W 3M = WtM + bruj +aru;+rcds
w2 = b(l-wd)u]+
+[l+ (b-l)we]O':
WtR = WtM W2R = W1M W3R = W1M W4R = WtM
Wu = w2 W2A = w2 + ruls W3..t = w2 +bru l W4A = w2+bru~+ru~8 - --Wtd = w2 Wu = w2 W3• = w2 w"'d = w2
W1s = /12 = (1-we)u; w28 = s 2+arui w3s = s 2 + ru~8 W4s = s2+arui+r0'1s WlAB = S2 W2AB = S2 + TO'~s w3AB = s2+ru1s W4AB = s2+ru1s
W~e = s2 W2e = s2 W3e = S2 w .. e = s2
oraz następujące równości:
\
(1.14) P,Vt
=
WttP1 dla i= R, A, d, B, AB, e.2. Estymacja efektów stałych. Modele omawiane w paragrafie l możemy przed-
stawić w ogólnej postaci:
(2.1)
gdzie u1 jest wektorem efektów stałych, uP -wektorem efektów losowych, X1 i XP są znanymi macierzami blokowymi odpowiadającymi określonym efektom zawartym odpowiednio w u1 i uP.
Równania normalne służące do wyznaczenia estymatorów
u
1 otrzymane metodą najmniejszych kwadratów są postaci (por. Searle [14D:(2.2) Xf
'v-tx " x'v-l
t luf=
f t Y dla t = l' 2, 3, 4,gdzie Vi"1 są określone wzorem (1.13). Estymatory uzyskane z układu (2.2) są naj- lepsze (z minimalną wariancją) w klasie liniowych, nieobciążonych estymatorów (por. Searle [15]).
Przy rozwiązywaniu układów równań (2.2) wykorzystujemy łatwe do wykazania
zależności:
(2.3) J' 11
v-1
t =_l_ J' '"WtM X, ..t
v-1 _
t - - -Wu 1 X' ..t+---a 1 ( 1 WtM Wu 1 ) J J'a,.,
74 M. K u c z y ń s k i
X, B
v-l
t · t: -· . =--WrB 1x'
B+--- Jb ,., 1 ( 1 1 ) J'b WtM WtB
(2.4) X' ABVt t = - -l X' AB+-b l ( l - - - - -l ) I (a®Jb )X' A+
WtAB WtA WtAB
(2.5)
gdzie
X:= [X1Z:X2Z].
Wzór (2.5) wynika bezpośrednio z lematu 1.1 i wzoru (1.13).
Dla modelu l (efekty czynników A i B są parametrami stałymi) rozwiązujemy układ (2.2) dla t = l oraz:
uj =
[,u:cx': ~,: y': &'], gdzie&' = [&~:&~].
Rozpisując układ (2.2) na równania dla poszczególnych wektorów parametrów (por. Kuczyński [6]) otrzymujemy rozwiązania:
(2.6) P, " =-n l J' n Y,
(2.7) ex " = br XAP A(y-Z&l l " 1),
(2.8) ~ " =- XBPB(y-Z&2), ar l l "
(2.9)
.Y= _!_x~BP
r AB(y-ZS2),"
(2.10) 8t = (Z'Pdz)-1Z'Pdy,
(2.11) Ś2 = (Z'PeZ)-1Z'PeY.
Dla modelu 2 (efekty czynnika A stałe, czynnika B -losowe) w układzie równań
(2.2) podstawiamy t = 2 oraz:
X,= [Jn:XAX:], oj= [p:cx':&'].
Postać estymatorów
/J,, ci.
orazSt.
określona jest w tym modelu wzorami (2.6), (2.7) i (2.10) odpowiednio, natomiast dla&
2 otrzymujemy:(2.12) 82
=
(Z'Gtz)-1Z'Gt y,gdzie
W modelu 3 (efekty A losowe, efekty B stałe) do układu (2.2) podstawiamy t= 3, X1
=
[J11:X8:Xz],u/=
[u:~':5'], skąd otrzymujemy postaćP,
daną wzorem (2.6) oraz:(2.13) (2.14) (2.15) gdzie
•A l l 1\
~ = -XaPB(y-Z52), ar S1
=
(Z'G2Z)_1Z'G2 y,8
2 = (Z'G3Z)-1Z'G3y,Dla modelu losowego w układzie równań (2.2) podstawiamy t= 4, X1
=
[J11:Xz],u;.=
[u:5'], skąd otrzymujemy wzór (2.6) dlaP,
oraz:(2.16)
8
1=
(Z'G4z)-1Z'G4y,(2.17) gdzie
l l ' l .
Gs
=
--Pe+--PB+ --PAB• W4e W4B W4ABEstymatory w modelach mieszanych i losowym określone wzorami (2.12)-(2.17)
zależą od parametrów macierzy kowariancji wektora obserwacji i są one najlepsze przy ustalonych wartościach tych parametrów (najlepsze w danym punkcie).
3. Estymacja komponentów wariancyjnych. Do wyznaczania estymatorów kom- ponentów wariancyjnych w rozważanych wariantach modelu (1.2) będą utyte średnie kwadraty następującej postaci:
(3.1)
gdzie i= l, 2, A, d, B, AB, e, oraz
Y1 = Y2 =q, 'VA = a-1, vd = (r-l)(a-1)-q, "B= b-1, 'VAB
=
(a-l)(b-1), Ye = a(r-l)(b-1)-q(3.2)
są stopniami swobody dla odpowiednich źródeł zmienności, a macierze Q, wyrażają
się wzorami:
(3.3) Q1 = P[P1Z] = P,Z(Z'P,Z)-1Z'P1 dla i = l, 2;
(3.4) Q, = P, -P[P,Z] dla i
=
d, e;(3.5) QA =p A -P[(P A.+Pd)Z]+P[PdZ] =p A -(P A+Pd)ZTAZ'(P A+P.,)+Q1,
76 M. Kuczyński gdzie
TA= [Z'(P A+Pd)Z]-1 ;
(3.6) Q,= P,-P[(P,+Pe)Z]+P[PeZ] = P,-(P,+Pe)ZT,Z'(P,+Pe)+Q2 dla i= B, AB,
gdzie
T, = [Z'(P,+Pe)Z]-1•
TwiERDZENIE 3.1. Macierze Qi dane wzorami (3.3)-(3.6) są idempotentne, ich iloczyny są macierzami zerowymi, a rzędy są określone wzorami (3.2).
D o w ó d. Z ortogonalności operatorów rzutowych (1.9) wynika, że dla macierzy (3.3)-(3.6) zachodzi
dla dla
i# j, i =j.
Ze względu na idempotentności rozważanych macierzy, ich rząd jest równy śladowi,
więc dla i = l, 2 otrzymujemy:
rz(Q1) = tr[P1Z(Z'P,z)-1Z'P1] = tr[(Z'P1Z)-1Z'P1Z] = q, rz(QA) = tr(PA)-tr[(PA+P4)ZTAZ'(PA+P4)]+tr(Q1) =
= tr(P A) - tr(Ią) + tr(Ią) = a -I ,
gdyż P A jest znanym operatorem z analizy wariancji, dla którego tr(P A) = a-1 (por. Mikos [lOD. Analogicznie wyznaczamy rzędy pozostałych macierzy.
Nieobciążone estymatory komponentów wariancyjnych otrzymamy rozwiązując układy równań, które powstają z przyrównania średnich kwadratów (3.1) do ich
wartości oczekiwanych. Do wyznaczania wartości oczekiwanych form kwadratowych stosujemy wzór:
(3.7) <C(y'Qy) = C(y') QC(y) + tr(Q:Ey).
Ze wzorów (1.4), (1.9), (1.11), (1.12), (1.14) oraz (3.4) i (3.7) wyznaczamy wartości oczekiwane form kwadratowych y'Qdy i y'Qey, które są jednakowe dla wszystkich
rozważanych w pracy wariantów modelu:
(3.8)
gdzie w2 = b(I-wd)o"J'+[1+(b-1)we]cr;, s2 = (l-we)a; (por. tablica 1.1). Więc
nieobciążone estymatory
w
2 is
2 mają postać:(3.9)
Z uwagi na przyjęte założenia o istnieniu korelacji efektów błędów, nie możemy
znaleźć oddzielnych ocen
'cri
ia-;,
a jedynie oceny ich kombinacji liniowych:(3.10) (1-we)a; = MSe, (1-w4)a]+wea; =
~-
(MSd-MSe)·Przy założeniu, że współczynniki korelacji wd i we są zerowe, wzory (3.10) dają postać
o-;
io-;.
Wyprowadzimy teraz postać estymatorów komponentów wariancyjnych a~, ai i O'~B w modelu 4 (efekty A losowe, efekty B losowe). Ze wzorów (1.12), (1.14), (3.5) i (3.6) otrzymujemy:
QAV4 = w2QA+(bra~+ra~B) [P A -(P A+Pd)ZTAZ'P A], QBV4
=
s2QB+ (arai+ra~B) [PB-(PB+Pe)ZTBZ'PB], QABV4=
s2QAB+ra~B[P AB-(P AB+Pe)ZTABZ'P AB].Z uwagi na twierdzenie 3.1, wzory (3.1), (3.2), (3.7) i zależności
8(y')Q1tf(y) =O dla i= A,B,AB wyznaczamy:
1!1(MS ) 2 ( 2 2 ) YB -mB 0 B =s
+
araB+ra-AB ,YB
gdzie
(3.11) m1 = tr(T,Z'P,Z) dla i = A, B, AB.
Dla q= l Uedna zmienna towarzysząca) wzór (3.11) możemy zapisać:
z'P,z
m1 = z'(P,+Pe)z dla i
=
B, AB,z'P A. z
mA.= z'(P A.+Pd)z ·
Przyrównując średnie kwadraty (3.1) do ich wartości oczekiwanych oraz uwzględ
niając wzory (3.9) otrzymujemy nieobciążone estymatory:
(3.12)
(3.13)
(3.14)
Analogicznie wyprowadzamy postać estymatorów komponentów wariancyjnych w modelach 2 i 3. W modelu 2 (efekty A stałe, efekty B losowe) uzyskujemy estymator
GlB
dany wzorem (3.12) oraz (3.15)78 M. K u c z y ń s k i
a dla modelu 3 (efekty A losowe, efekty B stałe) postać a~B określone jest W (3.12) i (3.16)
gdzie mA i mB dane są wzorem (3.11).
4. Weryfikacja hipotez. Do weryfikacji hipotez (4.4)-(4.8) dotyczących nieistot-
ności parametrów modelu (1.2) użyte zostaną średnie kwadraty określone wzorami (3.1) (por. Kaczmarek [4]). Dla modelu l (efekty A stałe, efekty B stałe) wartości
oczekiwane poszczególnych form kwadratowych są postaci (por. Kuczyński [6]):
(4.1) (4.2) gdzie
(4.3)
G(y'Q1y) = w2(vt+2A1) dla i= l, d, A, cS'(y'Qty) = s2(v1+2.A1) dla i= 2, e, B, AB,
AA
= 2 ~ 2 {brCl'Cl-a'X~P[(P
A+P4)Z]XAa}, AB= ~ 2 {ar~'~-~~x~P[(PB+Pe)Z]XB~},
AAB
=
2!
2{ry'y-y'X~BP[(P
AB+Pe)Z]XAB'Y}·TwiERDZENIE 4.1. Jeśli wektor obserwacji y ma rozkład normalny z wektorem
wartości oczekiwanych
8(y)
=
Jnft+ XAa+XB~+XABY+X1ZS1 +X2ZS2 i macierzą kowariancjivl
określoną wzorem (1.12), to formy kwadratowel 'Q l 'Q l 'Q
W2y dy, WTY AY, ~Y 2Y,
l 'Q l 'Q
Sly
BY,Sly
ABYl 'Q
Sly
eY,mają niezależne rozkłady chi-kwadrat ze stopniami swobody określonymi wzorami (3.2) oraz parametrami niecentrafności danymi wzorami (4.3).
D o wód.
Pokażemy, że
formykwadratowe~y'Q
w4 y
i~y'QAY mają rozkłady
wz
2 orazsą niezależne.
W tym celu wystarczypokazać, że
macierze~Q
w4
V 1 i~Q
w .... V 1są idempotentne oraz Q4V 1 QA
=
O (por. Rao [13]). Ze wzorów (1.14), (3.4) i (3.5) wynikabezpośrednio, że ~Q4V
w1
= Qd, __!2QAV1 w=
QA, QdV1QA=
w2QdQA,a z twierdzenia 3.1 wynika, ze Q11 i QA są idempotentne oraz QdQA = O. Parametry
niecentralności rozkładu
x
2 wyznaczamy ze wzorówld =
2 ~ 2
8(y')Qd8(y), l..t =2 ~ 2
8(y')Q..t8(y),co w konsekwencji daje wyniki określone w (4.3) (por. Kuczyński [6]). Stopnie swobody określono w twierdzeniu 3.1 jako rzędy odpowiednich macierzy Q1• W ana- logiczny sposób dowodzimy to twierdzenie dla pozostałych form kwadratowych.
W oparciu o wzory (4.1)-(4.3) oraz twierdzenie 4.1 tworzymy funkcje testowe słuZące do weryfikacji hipotez o nieistotnośĆi parametrów stałych modelu. Podajemy
postać hipotez i odpowiadające im funkcje testowe, które przy załozeniu prawdzi-
wości hipotez zerowych mają centralne rozkłady F-Snedecora.
(4.4) HA: 51 =O; FRl = MS!: MSd, (4.5) H~: 52 = O; FR1 = MS2: MSe,
(4.6) Hg: a= O; F~= MSA: MSd,
(4.7) Hg:
f3
=o; F3]= MSB: MSe, (4.8) H~B: Y= O; F~B = MSAB: MSe,gdzie średnie kwadraty MS i wraz z odpowiadającymi im stopniami swobody określone
są wzorami (3.1 ).
W pozostałych wariantach modelu (1.2) (efekty A lub B losowe) funkcje testowe dla hipotez H~, H~ oraz H~B: a~B = O są także określone odpowiednio wzorami (4.4), (4.5) i (4.8). Natomiast w modelu 2 (A stałe, B losowe) dlahipotezy HC: aj= O oraz w modelu 3 (A losowe, B stałe) przy testowaniu hipotezy H~:
a1
= O odpo- wiednie funkcje testowe dane są wzorami (4.7) i (4.6). W pozostałych przypadkach (H~: a= O w modelu 2, HC: {3 =O w modelu 3, Hg: a~= O i Hg: aj= O w mo- delu 4) funkcje testowe określone wzorami (4.6) i (4.7) mają centralne rozkładyx
2tylko przy warunku a~B
=
O.5. Przykład liczbowy. Dane liczbowe uzyskano z doświadczenia przeprowadzonego w Instytucie Uprawy Roli i Roślin Akademii Rolniczej w Lublinie. Badano zalezność oporów rozklinowania gleby piaskowej od sposobów uprawy i wielkości dawek odpadów krzemionkowych. Doświadczenie przeprowadzono w 8 replikacjach (blokach) przy zastosowaniu 2 sposobów uprawy (a= 2) oraz czterech dawek krzemionki (b= 4). Zmienną towarzyszącą była wilgotność gleby, przy czym zasto- sowano regresję kwadratową, więc macierz zmiennych towarzyszących ma postać Z
=
[z1 : z2] gdzie z2 jest kwadratem zmiennej z1 • Wyniki obliczeń uzyskano na e.m.c. Odra 1325. Problemy numeryczne omówionej teorii i szczegółową analizę średnich obiektowych omówiono w pracach Kuczyńskiego [6] i [7].W tablicy 5.2 F0 oznacza warteść 'obliczoną zmiennej F-Snedecora, a P(P > F0 ) oznacza prawdopodobieństwo uzyskania wartości większej od P0 • Jeśli P(F > P0) < IX, gdzie IX jest ustalonym poziomem istotności, to hipotezę zerową dotyczącą nieistotności odpowiednich efektów odrzucamy.
TabUca 5.1. Opory rozklinowania i wilgotność gleby
' l R
l
A B l 2 3 4 5 6
Y z Y z Y z Y z Y z Y ex
l 68.8 76.2 81.1 71.2 57.5 88.7
27.0 26.1 23.1 25.8 28.3 22.9
2 68.5 75.8 85.3 64.9 50.4 79.2
26.2 26.3 24.9 25.3 28.5 25.4
l 3 63.2 67.3 81.7 56.8 51.7 71.7
27.4 26.8 20.9 27.8 29.2 26.3
4 56.5 64.2 80.5 50.5 42.8 67.3
27.4 25.4 21.6 28.3 29.8 25.2
l 50.3 57.3 44.0 52.4 49.0 68.8
26.9 26.4 26.8 26.5 28.7 23.1
2 48.0 51.5 45.5 45.5 41.0 55.9
26.2 25.9 26.2 26.8 29.6 24.6
2
- - - -
3 45.8 50.6 46.6 43.9 40.7 62.9
27.3 26.4 26.8 26.9 28.4 22.4
l
- - - -
4 48.8 50.9 53.9 45.4 42.4 65.5
i 26.7 26.8 25.3 27.8 29.1 20.3
7
Y z
49.1 28.6 47.3
28.7 50.6
29.0 40.5
30.2 42.4
29.6 40.6
30.4 40.1
31.2 48.1
25.9
---8
Y z
70.2 25.8 69.3
26.2 64.1
27.2 68.3
25.3 55.1
26.4 48.3
27.1 47.6
27.0 - 50.4
27.1
00 o
Tablica 5.2. Wyniki analizy kowariancji
1 1
Źródło l
zmienności
1--- -- ---
Stopnie Średnie
swobody kwadraty po - -
---~ -~;;::;-1
0.0022
~l
!A
Błąd l B ABBłąd II Regresja I Regresja II
l 5 3 40 3
~ ....
2
1680.99 50.68 117.96 211.06 7.89 454.03 90.12
33.171 14.942 26.733 8.959 11.415
0.0000
l
l 0.0000i
0.0222 !'.
0.0001
--- Oceny parametrów:
(a) współczynniki regresji:
- dla jednostek pierwszego rzędu (czynnika A):
" "'
b11 = -24.455, ~12
=
0.375,- dla jednostek drugiego rzędu (czynnika B):
J21
= - 1.245,(b) efekty CZ}1lników:
Y11 = o.6ss,
Y21 = -o.6ss, p
= 57.163.&1 = 5.978~
P
2=
0.371,1'1.2
=
2.026, J':zz=
-2.026,a2
= -5.978, p~= -1.131,Yt3
= o.35s,YH
= -0.358,Prace c}towane
p.=
-2.846,r14 =
-3.072,i'z4 =
3.072,[1] M. C. C h akr a b ar t i, Mat/rematies o/ design and analysis o/ experiments, Asia Publishing Housc. Bombay 1962.
[2] W. T. F e d c re r, Sampbi1g, b/ocking, and model considerations for split plot and split block designs, -Biom. J. 19 (1977), str. 181-100.
[3] H. L. H ar t c r. On t/ze a11alysis o/ split plot e:xperimmts, Biometrics 17 (1961), str. 144-149.
[4) Z. K a c z m a re k, Wielozmiemta analiza kowarimrcji i je} niektóre zastosowania, Mat. Stos.
5 (1975), str. 139-156.
[5] O. K e m p t h o r n c, T/re des[glt and analysis vf e_tperiments, l';cw York 1952.
[6) M. K u c z y ń s k i, Estymacja parametrów i weryfikacja hipotez w mralizic kmrarianc_ii w n.lda- dzie z rozs::c:epionymi jedJtostkumi ekspe1yme1ttaląvmi, Szóste Colloquium Metodologiczne z Agro-Biometrii, PAN, Warszawa 1976, str. 10:!-1 i'),
[7] -, PrzeJ=ialy ufności w crnali:ie kowarimuji w uklad=i.? z rozszczepionymi ji!dMstkami ekspery- mentalnymi, Siódme Cdloquium Met,)dologkznc z Agro-Biomctrii, PAN, Warszawa 1977.
str. 283-297.
(8] S. L i, J. H. Klot z, Components of rarkmce estimation for the split-plot desigll, Technical Report 451 (1976), Dcr:1rtment of Statistics, Univi!r.:iity of Yisconsin.
82 M. K u c z y ń s k i
[9] W. M e n d e n h a II, Introduction to linear models and the design mtd analysis of experiments, Belmont, California, 1968.
[lO] H. M i kos, Modele matematyczne układów rozszczepionych jednostek ze skorelowanymi
błędami, Czwarte Colloquium Metodologiczne z Agro-Biometrii, PAN, Warszawa 1974, str. 57-78.
[ll] E. N i e d ok o s, On mathematical models of split-plot desigl!, Ann. UMCS, A 18 (1964), str. 123-136.
[12] M. O g a s a w a r a, M. T a k a h a s h i, Ortohogonality relation in the analysis o/ variance l, J. Science Hiroshima Univ. A 16 (1953), str. 457-470.
[13] C. R. R a o, Linear statistical inference and i ts applications, New York 1965.
[14] S. R. S car l e, Linear models, New York 1971.
[15] -, Topics in variance component estimation, Biometrics 27 (1971), str. 1-76.
[16] M. T ak a h a s h i, On analysis of variance for the sp/it-p/ot designs, J. Science Hiroshima Univ. A 19 (1955), str. 321-325.
(17] F. Y a t e s, Comp/ex experiments, J. Roy. Stat. Soc. Suppl. 2 (1935), str. 181-247.