• Nie Znaleziono Wyników

z rozszczepionymi jednostkami eksperymentalnymi

N/A
N/A
Protected

Academic year: 2021

Share "z rozszczepionymi jednostkami eksperymentalnymi "

Copied!
14
0
0

Pełen tekst

(1)

MIECZYSŁAW KUCZYŃSKI (Lublin)

Analiza kowariancji w

układach

z rozszczepionymi jednostkami eksperymentalnymi

(Praca przyjęta do druku 1.07.1978)

Wstęp. Układy eksperymentalne z rozszczepionymi jednostkami eksperymental- nymi (split-plot) zostały wprowadzone przez Yatesa ([17]). one szczególnie przydatne, gdy w doświadczeniu występują jednostki eksperymentalne różnych typów (niejednakowe) oraz przy dużej liczbie kombinacji poziomów badanych czynników. W rozważanym w pracy układzie z pojedynczo rozszczepionymi jednost- kami eksperymentalnymi wyróżniamy jednostki pierwszego rzędu (dla poziomów czynnika A) oraz jednostki drugiego rzędu (dla poziomów czynnika B). Poziomy czynnika A rozmieszczamy w układzie bloków kompletnie zrandomizowanych, a poziomy czynnika B rozlosowujemy wewnątrz poziomów czynnika A. Wielu autorów przeprowadzało dyskusje dotyczące modelu matematycznego w układzie split-plot. Efekty replikacji traktowane jako zmienne losowe (Harter [3], Li i Klotz [8], Mendenhall [9], Federer [2]), albo jako parametry stałe (Chakrabarti [1]). Takahashi ([16]), Harter ([3]) i Chakrabarti ([l]) zakładają istnienie korelacji efektów błędów drugiego rzędu, gdy dotyczą one tych samych jednostek eksperymen- talnych pierwszego rzędu, a Mendenhall ( [9]) zakłada skorelowanie błędów pierw- szego rzędu, gdy dotyczą tych samych replikacji. Najbardziej ogólnym podejściem

do tego problemu jest założenie istnienia korelacji dla efektów błędów zarówno pierwszego jak i drugiego rzędu (Kempthorne [5], Niedokos [11], Mikos [10]).

Kempthorne ([5]) i Chakrabarti ([l]) pokazują (przy wykorzystaniu przekształceń

ortogonalnych), że estymatory efektów stałych i funkcje testowe dotyczące para- metrów modelu identyczne zarówno przy założeniu istnienia korelacji efektów

błędów jak i przy błędach nieskorelowanych.

W niniejszej pracy rozważany jest model analizy kowariancji z wieloma zmiennymi

towarzyszącymi w układzie pojedynczo rozszczepionych jednostek eksperymentalnych ze skorelowanymi efektami błędów. Uwzględnione zostały dwa rodzaje współczyn­

ników regresji (dla jednostek pierwszego i drugiego rzędu) zmiennej głównej względem

zmiennych towarzyszących. Rozważany jest model losowy (efekty czynników A i B

zmiennymi losowymi) i modele mieszane (efekty A lub B stałe), przy czym w każ­

dym przypadku efekty replikacji traktowane jako zmienne losowe.

(691

(2)

70 M. K u c z y ń s k i

1. Modele liniowe. W doświadczeniach wykonywanych w układzie z pojedynczo rozszczepionymi jednostkami eksperymentalnymi badamy wpływ dwu czynników A i B na wartość zmiennej losowej Yuk. Poziomy czynnika A rozmieszczamy zgodnie z układem bloków kompletnie zrandomizowanych. Jednostki, na których uplasowano poziomy czynnika A, nazywamy jednostkami pierwszego rzędu lub podblokami. Każdy podblok dzielimy na jednostki drugiego rzędu, na których umieszczamy poziomy czynnika B.

Przyjmujemy następujący model matematyczny:

q

(l. l} YtJk =

~-t+ e,+

ctj+dij+{Jk+YJk+

l:

[(zt. -:ZL)

~11a+ (z~ 1 k -z~ 1 J~2hl

+etJk

h= l

(i= 1,2, ... ,r; j= 1,2, ... ,a; k= 1,2, ... ,b), gdzie Yiik-zmienna losowa o rozkładzie normalnym; p~ średnia populacji (stały parametr); (!;, ct1, {Jk, YJk-efekty replikacji, czynnika A, czynnika B oraz interak- cyjne czynników AB, odpowiednio;

ztk-

obserwacja h-tej zmiennej towarzyszącej,

t5111 , t52~a- współczynniki regresji zmiennej YtJk względem h-tej zmiennej towarzyszącej

dla jednostek pierwszego i drugiego rzędu odpowiednio; d11 , e11k - efekty błędów eksperymentalnych związanych z jednostkami pierwszego i drugiego rzędu;

r;j. =! L~Jk, ~ .. =a~ LL~jk·

k J k

Model (l. l) zapiszemy w notacji macierzowej:

(1.2) y = Jn~-t+XRp+X.ta+~d+XB~+X.tBY+X1Z81 +X2Z82+e, gdzie:

n= rab, y' = [yl.u,Yu2' ... ,Yrab], p'= fe"

e2, ... ,

er],

a'= [ctl., ct2, ... , cta], d'= [du,d12' ... ,dra], ~' = [{31,{32, ... ,{Jb], Y' =

fru

,.r12' ... , Yab], 8~ = [~u, ~,2, ... , ~tq] dla i= l, 2, e' = [e111 , e112 , ... , erab], Z = [z1, z2, ... , ~], gdzie z' = [z~11, z~12, ... , Z~abl',

l l

X1 =

b

(Ira®Eb)-

fib

(lr®Eab),

(1.3)

x2

= III-

b

l (Ira®Eb)' XR = lr®Jab' XA = J/8>1a®Jb,

xd

= lar®Jb, XB = JQr®lb, XAB = Jr®lab' (1.4)

przy czym przez Jk oznaczamy k-wymiarowy, jedynkowy wektor kolumnowy, lk - k-wymiarową macierz jednostkową, EA: - k-wymiarową, kwadratową macierz

jedynkową, a przez ® oznaczamy iloczyn Kroneckera macierzy.

Zakładamy, że

e

1, d11 , e11k zmiennymi losowymi o rozkładach normalnych.

Ponadto zakładamy, że efekty błędów pierwszego rzędu d11 skorelowane z tym samym współczynnikiem korelacji ro4, w przypadku gdy dotyczą tych samych rep li-

(3)

kacji, a nie skorelowane, gdy dotyczą różnych replikacji. Podobnie zakładamy, że efekty błędów e lik są skorelowane ze współczynnikiem me gdy dotyczą tych samych replikacji i tych samych poziomów czynnika A, a różnych poziomów czynnika B.

Więc wektory losowe p, d, e mają następujące niezależne rozkłady normalne:

p-N(O, ail,.), d-N(O, Ed), e-N(O, Ee), gdzie macierze kowariancji Ed i Ee mają postać (por. Niedokos [11]):

Ed

=

mda~(I,.®Ea)+ (I-md)aJ I,.a, Ee = mea;(I,.a®Eb)+(I-we)a;In•

Ponadto zakładamy, że macierz Z jest pełnego rzędu kolumnowego i rz(Z) =

= q < (r-l)(a-1) oraz

R[Jn:XR:XA:Xd:XB:XAB]nR[Z] = {0},

gdzie przez R[X] oznaczamy przestrzeń liniową rozpiętą na kolwnnach macierzy X, a [X: Y] jest macierzą blokową złożoną z podmacierzy X i Y.

Powyższe założenia dotyczyły wszystkich wariantów rozważanego w pracy modelu (1.1). Podamy teraz dodatkowe założenia dla poszczególnych czterech wariantów w zależności od tego czy efekty czynników A i B parametrami stałymi, czy też

zmiennymi losowymi.

Modeli:

- w modelu tym przyjmujemy, że efekty rx1, {Jk i 'YJk parametrami stałymi spełnia­

jącymi warunki:

(1.5) J~« =O, J~~ =O, (Ia®J~)y =O, (J~®Ib)y = O.

Mode/2:

- efekty czynnika A traktujemy jako parametry stałe, a efekty czynnika B zmien- nymi losowymi. Ponadto

(1.6) ~-N(O, ajlb), y-N(O, Ev), J~« =O, (J~®Ib)y =O, gdzie

Mode/3:

- efekty czynnika A zmiennymi losowymi, a czynnika B parametrami stałymi, przy czym spełnione są warunki:

(1.7) gdzie

«-N(O, aJ.la), y-N(O, Ev), J~~ =O, (la®J~)y = O,

(4)

72 M. K u c z y ń s k i Mode/4:

- przyjmujemy, że efekty czynników A i B zmiennymi loSowymi oraz że speł­

nione warunki:

(1.8) a-N(O, <dla), ~-N(O, ailb), y-N(O, oj81ab).

Oznaczając przez P[X] operator rzutujący ortogonalnie wektory z przestrzeni R"

na podprzestrzeń R [X] rozpiętą na kolumnach macierzy X zapiszemy postać orto- gonalnych operatorów rzutowych dla poszczególnych źródeł zmienności (por.

Ogasawara i Takahashi [12]):

PM = P[J"], PR = P[XR] -PM, (1.9) Pd = P[Xd] -P[XR] -P[XA]+PM,

P AB

=

P[XABl -P[XA] -P[Xs]+PM, gdzie:

(1.10) P[XA] =

br

l (E,®la®Eb), P[XB] = -ar l (E,a®lb),

Ps = P[XB] -PM,

Pe = 1"-P[XAB] -P[Xd]+P[XA],

P[XR] =

fiii

l (I,®Eab), P[Xd]

=b

l (I,a®Eb), P[XAB] =-l r (E,®lab)•

Operatory rzutowe dane wzorami (1.9) parami ortogonalne i spełniają równość:

PM+PR+P A+Pd+PB+P AB+Pe = 1".

LEMAT 1.1. Macierze X1 i X2 występujące w modelu (1.2) możemy przedstawić

w postaci:

(1.11)

D o wód. Korzystając ze wzorów (1.3), (1.9) i (1.10) otrzymujemy:

Pd+P A = P[Xd] -P[XR] = XI' Pe+P AB+PB = 1"-P[Xd] =

x2.

TWIERDZENIE 1.1 (por. Mikos [10]). Macierze kowariancji Vr (t= l, 2, 3, 4) wektora obserwacji y możemy przedstawić w postaci:

(1.12)

gdzie odpowiednie operatory rzutowe dane wzorami (1.9), a współczynniki w11

(i= M, R, A, d, B, AB, e) zawarte w tablicy 1.1.

Z uwagi na ortogonalność operatorów rzutowych (1.9) otrzymujemy wzory na macierze odwrotne do macierzy kowariancji (1.12):

( 3) V1.1 t -1

=

--PM+-PR+-PA+ l l l

WtM WrR WtA

(5)

Tablica 1.1. Współczynniki macierzy kowariancji

efekty czynnika A - stałe efekty czynnika A -losowe efekty B-stałe

l

efekty B -losowe efekty B-stałe

l

efekty B -losowe

W1M = w2+abui+

+abwtfui

W4M = W1M+brul+

gdzie W2M = W1M+aruj W 3M = WtM + bruj +aru;+rcds

w2 = b(l-wd)u]+

+[l+ (b-l)we]O':

WtR = WtM W2R = W1M W3R = W1M W4R = WtM

Wu = w2 W2A = w2 + ruls W3..t = w2 +bru l W4A = w2+bru~+ru~8 - --Wtd = w2 Wu = w2 W3• = w2 w"'d = w2

W1s = /12 = (1-we)u; w28 = s 2+arui w3s = s 2 + ru~8 W4s = s2+arui+r0'1s WlAB = S2 W2AB = S2 + TO'~s w3AB = s2+ru1s W4AB = s2+ru1s

W~e = s2 W2e = s2 W3e = S2 w .. e = s2

oraz następujące równości:

\

(1.14) P,Vt

=

WttP1 dla i= R, A, d, B, AB, e.

2. Estymacja efektów stałych. Modele omawiane w paragrafie l możemy przed-

stawić w ogólnej postaci:

(2.1)

gdzie u1 jest wektorem efektów stałych, uP -wektorem efektów losowych, X1 i XP znanymi macierzami blokowymi odpowiadającymi określonym efektom zawartym odpowiednio w u1 i uP.

Równania normalne służące do wyznaczenia estymatorów

u

1 otrzymane metodą najmniejszych kwadratów postaci (por. Searle [14D:

(2.2) Xf

'v-tx " x'v-l

t luf

=

f t Y dla t = l' 2, 3, 4,

gdzie Vi"1 są określone wzorem (1.13). Estymatory uzyskane z układu (2.2) naj- lepsze (z minimalną wariancją) w klasie liniowych, nieobciążonych estymatorów (por. Searle [15]).

Przy rozwiązywaniu układów równań (2.2) wykorzystujemy łatwe do wykazania

zależności:

(2.3) J' 11

v-1

t =_l_ J' '"

WtM X, ..t

v-1 _

t - - -Wu 1 X' ..t+---a 1 ( 1 WtM Wu 1 ) J J'

a,.,

(6)

74 M. K u c z y ń s k i

X, B

v-l

t · t: -· . =--WrB 1

x'

B+--- Jb ,., 1 ( 1 1 ) J'

b WtM WtB

(2.4) X' ABVt t = - -l X' AB+-b l ( l - - - - -l ) I (a®Jb )X' A+

WtAB WtA WtAB

(2.5)

gdzie

X:= [X1Z:X2Z].

Wzór (2.5) wynika bezpośrednio z lematu 1.1 i wzoru (1.13).

Dla modelu l (efekty czynników A i B parametrami stałymi) rozwiązujemy układ (2.2) dla t = l oraz:

uj =

[,u:cx': ~,: y': &'], gdzie

&' = [&~:&~].

Rozpisując układ (2.2) na równania dla poszczególnych wektorów parametrów (por. Kuczyński [6]) otrzymujemy rozwiązania:

(2.6) P, " =-n l J' n Y,

(2.7) ex " = br XAP A(y-Z&l l " 1),

(2.8) ~ " =- XBPB(y-Z&2), ar l l "

(2.9)

.Y= _!_x~BP

r AB(y-ZS2),

"

(2.10) 8t = (Z'Pdz)-1Z'Pdy,

(2.11) Ś2 = (Z'PeZ)-1Z'PeY.

Dla modelu 2 (efekty czynnika A stałe, czynnika B -losowe) w układzie równań

(2.2) podstawiamy t = 2 oraz:

X,= [Jn:XAX:], oj= [p:cx':&'].

Postać estymatorów

/J,, ci.

oraz

St.

określona jest w tym modelu wzorami (2.6), (2.7) i (2.10) odpowiednio, natomiast dla

&

2 otrzymujemy:

(2.12) 82

=

(Z'Gtz)-1Z'Gt y,

(7)

gdzie

W modelu 3 (efekty A losowe, efekty B stałe) do układu (2.2) podstawiamy t= 3, X1

=

[J11:X8:Xz],

u/=

[u:~':5'], skąd otrzymujemy postać

P,

daną wzorem (2.6) oraz:

(2.13) (2.14) (2.15) gdzie

•A l l 1\

~ = -XaPB(y-Z52), ar S1

=

(Z'G2Z)_1Z'G2 y,

8

2 = (Z'G3Z)-1Z'G3y,

Dla modelu losowego w układzie równań (2.2) podstawiamy t= 4, X1

=

[J11:Xz],

u;.=

[u:5'], skąd otrzymujemy wzór (2.6) dla

P,

oraz:

(2.16)

8

1

=

(Z'G4z)-1Z'G4y,

(2.17) gdzie

l l ' l .

Gs

=

--Pe+--PB+ --PAB• W4e W4B W4AB

Estymatory w modelach mieszanych i losowym określone wzorami (2.12)-(2.17)

zależą od parametrów macierzy kowariancji wektora obserwacji i one najlepsze przy ustalonych wartościach tych parametrów (najlepsze w danym punkcie).

3. Estymacja komponentów wariancyjnych. Do wyznaczania estymatorów kom- ponentów wariancyjnych w rozważanych wariantach modelu (1.2) będą utyte średnie kwadraty następującej postaci:

(3.1)

gdzie i= l, 2, A, d, B, AB, e, oraz

Y1 = Y2 =q, 'VA = a-1, vd = (r-l)(a-1)-q, "B= b-1, 'VAB

=

(a-l)(b-1), Ye = a(r-l)(b-1)-q

(3.2)

stopniami swobody dla odpowiednich źródeł zmienności, a macierze Q, wyrażają

się wzorami:

(3.3) Q1 = P[P1Z] = P,Z(Z'P,Z)-1Z'P1 dla i = l, 2;

(3.4) Q, = P, -P[P,Z] dla i

=

d, e;

(3.5) QA =p A -P[(P A.+Pd)Z]+P[PdZ] =p A -(P A+Pd)ZTAZ'(P A+P.,)+Q1,

(8)

76 M. Kuczyński gdzie

TA= [Z'(P A+Pd)Z]-1 ;

(3.6) Q,= P,-P[(P,+Pe)Z]+P[PeZ] = P,-(P,+Pe)ZT,Z'(P,+Pe)+Q2 dla i= B, AB,

gdzie

T, = [Z'(P,+Pe)Z]-1•

TwiERDZENIE 3.1. Macierze Qi dane wzorami (3.3)-(3.6) idempotentne, ich iloczyny macierzami zerowymi, a rzędy są określone wzorami (3.2).

D o w ó d. Z ortogonalności operatorów rzutowych (1.9) wynika, że dla macierzy (3.3)-(3.6) zachodzi

dla dla

i# j, i =j.

Ze względu na idempotentności rozważanych macierzy, ich rząd jest równy śladowi,

więc dla i = l, 2 otrzymujemy:

rz(Q1) = tr[P1Z(Z'P,z)-1Z'P1] = tr[(Z'P1Z)-1Z'P1Z] = q, rz(QA) = tr(PA)-tr[(PA+P4)ZTAZ'(PA+P4)]+tr(Q1) =

= tr(P A) - tr(Ią) + tr(Ią) = a -I ,

gdyż P A jest znanym operatorem z analizy wariancji, dla którego tr(P A) = a-1 (por. Mikos [lOD. Analogicznie wyznaczamy rzędy pozostałych macierzy.

Nieobciążone estymatory komponentów wariancyjnych otrzymamy rozwiązując układy równań, które powstają z przyrównania średnich kwadratów (3.1) do ich

wartości oczekiwanych. Do wyznaczania wartości oczekiwanych form kwadratowych stosujemy wzór:

(3.7) <C(y'Qy) = C(y') QC(y) + tr(Q:Ey).

Ze wzorów (1.4), (1.9), (1.11), (1.12), (1.14) oraz (3.4) i (3.7) wyznaczamy wartości oczekiwane form kwadratowych y'Qdy i y'Qey, które jednakowe dla wszystkich

rozważanych w pracy wariantów modelu:

(3.8)

gdzie w2 = b(I-wd)o"J'+[1+(b-1)we]cr;, s2 = (l-we)a; (por. tablica 1.1). Więc

nieobciążone estymatory

w

2 i

s

2 mają postać:

(3.9)

Z uwagi na przyjęte założenia o istnieniu korelacji efektów błędów, nie możemy

znaleźć oddzielnych ocen

'cri

i

a-;,

a jedynie oceny ich kombinacji liniowych:

(3.10) (1-we)a; = MSe, (1-w4)a]+wea; =

~-

(MSd-MSe)·

Przy założeniu, że współczynniki korelacji wd i we zerowe, wzory (3.10) dają postać

o-;

i

o-;.

(9)

Wyprowadzimy teraz postać estymatorów komponentów wariancyjnych a~, ai i O'~B w modelu 4 (efekty A losowe, efekty B losowe). Ze wzorów (1.12), (1.14), (3.5) i (3.6) otrzymujemy:

QAV4 = w2QA+(bra~+ra~B) [P A -(P A+Pd)ZTAZ'P A], QBV4

=

s2QB+ (arai+ra~B) [PB-(PB+Pe)ZTBZ'PB], QABV4

=

s2QAB+ra~B[P AB-(P AB+Pe)ZTABZ'P AB].

Z uwagi na twierdzenie 3.1, wzory (3.1), (3.2), (3.7) i zależności

8(y')Q1tf(y) =O dla i= A,B,AB wyznaczamy:

1!1(MS ) 2 ( 2 2 ) YB -mB 0 B =s

+

araB+ra-AB ,

YB

gdzie

(3.11) m1 = tr(T,Z'P,Z) dla i = A, B, AB.

Dla q= l Uedna zmienna towarzysząca) wzór (3.11) możemy zapisać:

z'P,z

m1 = z'(P,+Pe)z dla i

=

B, AB,

z'P A. z

mA.= z'(P A.+Pd)z ·

Przyrównując średnie kwadraty (3.1) do ich wartości oczekiwanych oraz uwzględ­

niając wzory (3.9) otrzymujemy nieobciążone estymatory:

(3.12)

(3.13)

(3.14)

Analogicznie wyprowadzamy postać estymatorów komponentów wariancyjnych w modelach 2 i 3. W modelu 2 (efekty A stałe, efekty B losowe) uzyskujemy estymator

GlB

dany wzorem (3.12) oraz (3.15)

(10)

78 M. K u c z y ń s k i

a dla modelu 3 (efekty A losowe, efekty B stałe) postać a~B określone jest W (3.12) i (3.16)

gdzie mA i mB dane wzorem (3.11).

4. Weryfikacja hipotez. Do weryfikacji hipotez (4.4)-(4.8) dotyczących nieistot-

ności parametrów modelu (1.2) użyte zostaną średnie kwadraty określone wzorami (3.1) (por. Kaczmarek [4]). Dla modelu l (efekty A stałe, efekty B stałe) wartości

oczekiwane poszczególnych form kwadratowych postaci (por. Kuczyński [6]):

(4.1) (4.2) gdzie

(4.3)

G(y'Q1y) = w2(vt+2A1) dla i= l, d, A, cS'(y'Qty) = s2(v1+2.A1) dla i= 2, e, B, AB,

AA

= 2 ~ 2 {brCl'Cl-a'X~P[(P

A+P4)Z]XAa}, AB

= ~ 2 {ar~'~-~~x~P[(PB+Pe)Z]XB~},

AAB

=

2

!

2

{ry'y-y'X~BP[(P

AB+Pe)Z]XAB'Y}·

TwiERDZENIE 4.1. Jeśli wektor obserwacji y ma rozkład normalny z wektorem

wartości oczekiwanych

8(y)

=

Jnft+ XAa+XB~+XABY+X1ZS1 +X2ZS2 i macierzą kowariancji

vl

określoną wzorem (1.12), to formy kwadratowe

l 'Q l 'Q l 'Q

W2y dy, WTY AY, ~Y 2Y,

l 'Q l 'Q

Sly

BY,

Sly

ABY

l 'Q

Sly

eY,

mają niezależne rozkłady chi-kwadrat ze stopniami swobody określonymi wzorami (3.2) oraz parametrami niecentrafności danymi wzorami (4.3).

D o wód.

Pokażemy, że

formy

kwadratowe~y'Q

w

4 y

i

~y'QAY mają rozkłady

w

z

2 oraz

są niezależne.

W tym celu wystarczy

pokazać, że

macierze

~Q

w

4

V 1 i

~Q

w .... V 1

idempotentne oraz Q4V 1 QA

=

O (por. Rao [13]). Ze wzorów (1.14), (3.4) i (3.5) wynika

bezpośrednio, że ~Q4V

w

1

= Qd, __!2QAV1 w

=

QA, QdV1QA

=

w2QdQA,

(11)

a z twierdzenia 3.1 wynika, ze Q11 i QA idempotentne oraz QdQA = O. Parametry

niecentralności rozkładu

x

2 wyznaczamy ze wzorów

ld =

2 ~ 2

8(y')Qd8(y), l..t =

2 ~ 2

8(y')Q..t8(y),

co w konsekwencji daje wyniki określone w (4.3) (por. Kuczyński [6]). Stopnie swobody określono w twierdzeniu 3.1 jako rzędy odpowiednich macierzy Q1• W ana- logiczny sposób dowodzimy to twierdzenie dla pozostałych form kwadratowych.

W oparciu o wzory (4.1)-(4.3) oraz twierdzenie 4.1 tworzymy funkcje testowe słuZące do weryfikacji hipotez o nieistotnośĆi parametrów stałych modelu. Podajemy

postać hipotez i odpowiadające im funkcje testowe, które przy załozeniu prawdzi-

wości hipotez zerowych mają centralne rozkłady F-Snedecora.

(4.4) HA: 51 =O; FRl = MS!: MSd, (4.5) H~: 52 = O; FR1 = MS2: MSe,

(4.6) Hg: a= O; F~= MSA: MSd,

(4.7) Hg:

f3

=o; F3]= MSB: MSe, (4.8) H~B: Y= O; F~B = MSAB: MSe,

gdzie średnie kwadraty MS i wraz z odpowiadającymi im stopniami swobody określone

wzorami (3.1 ).

W pozostałych wariantach modelu (1.2) (efekty A lub B losowe) funkcje testowe dla hipotez H~, H~ oraz H~B: a~B = O są także określone odpowiednio wzorami (4.4), (4.5) i (4.8). Natomiast w modelu 2 (A stałe, B losowe) dlahipotezy HC: aj= O oraz w modelu 3 (A losowe, B stałe) przy testowaniu hipotezy H~:

a1

= O odpo- wiednie funkcje testowe dane wzorami (4.7) i (4.6). W pozostałych przypadkach (H~: a= O w modelu 2, HC: {3 =O w modelu 3, Hg: a~= O i Hg: aj= O w mo- delu 4) funkcje testowe określone wzorami (4.6) i (4.7) mają centralne rozkłady

x

2

tylko przy warunku a~B

=

O.

5. Przykład liczbowy. Dane liczbowe uzyskano z doświadczenia przeprowadzonego w Instytucie Uprawy Roli i Roślin Akademii Rolniczej w Lublinie. Badano zalezność oporów rozklinowania gleby piaskowej od sposobów uprawy i wielkości dawek odpadów krzemionkowych. Doświadczenie przeprowadzono w 8 replikacjach (blokach) przy zastosowaniu 2 sposobów uprawy (a= 2) oraz czterech dawek krzemionki (b= 4). Zmienną towarzyszącą była wilgotność gleby, przy czym zasto- sowano regresję kwadratową, więc macierz zmiennych towarzyszących ma postać Z

=

[z1 : z2] gdzie z2 jest kwadratem zmiennej z1 • Wyniki obliczeń uzyskano na e.m.c. Odra 1325. Problemy numeryczne omówionej teorii i szczegółową analizę średnich obiektowych omówiono w pracach Kuczyńskiego [6] i [7].

W tablicy 5.2 F0 oznacza warteść 'obliczoną zmiennej F-Snedecora, a P(P > F0 ) oznacza prawdopodobieństwo uzyskania wartości większej od P0 • Jeśli P(F > P0) < IX, gdzie IX jest ustalonym poziomem istotności, to hipotezę zerową dotyczącą nieistotności odpowiednich efektów odrzucamy.

(12)

TabUca 5.1. Opory rozklinowania i wilgotność gleby

' l R

l

A B l 2 3 4 5 6

Y z Y z Y z Y z Y z Y ex

l 68.8 76.2 81.1 71.2 57.5 88.7

27.0 26.1 23.1 25.8 28.3 22.9

2 68.5 75.8 85.3 64.9 50.4 79.2

26.2 26.3 24.9 25.3 28.5 25.4

l 3 63.2 67.3 81.7 56.8 51.7 71.7

27.4 26.8 20.9 27.8 29.2 26.3

4 56.5 64.2 80.5 50.5 42.8 67.3

27.4 25.4 21.6 28.3 29.8 25.2

l 50.3 57.3 44.0 52.4 49.0 68.8

26.9 26.4 26.8 26.5 28.7 23.1

2 48.0 51.5 45.5 45.5 41.0 55.9

26.2 25.9 26.2 26.8 29.6 24.6

2

- - - -

3 45.8 50.6 46.6 43.9 40.7 62.9

27.3 26.4 26.8 26.9 28.4 22.4

l

- - - -

4 48.8 50.9 53.9 45.4 42.4 65.5

i 26.7 26.8 25.3 27.8 29.1 20.3

7

Y z

49.1 28.6 47.3

28.7 50.6

29.0 40.5

30.2 42.4

29.6 40.6

30.4 40.1

31.2 48.1

25.9

---8

Y z

70.2 25.8 69.3

26.2 64.1

27.2 68.3

25.3 55.1

26.4 48.3

27.1 47.6

27.0 - 50.4

27.1

00 o

(13)

Tablica 5.2. Wyniki analizy kowariancji

1 1

Źródło l

zmienności

1--- -- ---

Stopnie Średnie

swobody kwadraty po - -

---~ -~;;::;-1

0.0022

~l

!A

Błąd l B AB

Błąd II Regresja I Regresja II

l 5 3 40 3

~ ....

2

1680.99 50.68 117.96 211.06 7.89 454.03 90.12

33.171 14.942 26.733 8.959 11.415

0.0000

l

l 0.0000

i

0.0222 !'.

0.0001

--- Oceny parametrów:

(a) współczynniki regresji:

- dla jednostek pierwszego rzędu (czynnika A):

" "'

b11 = -24.455, ~12

=

0.375,

- dla jednostek drugiego rzędu (czynnika B):

J21

= - 1.245,

(b) efekty CZ}1lników:

Y11 = o.6ss,

Y21 = -o.6ss, p

= 57.163.

&1 = 5.978~

P

2

=

0.371,

1'1.2

=

2.026, J':zz

=

-2.026,

a2

= -5.978, p~= -1.131,

Yt3

= o.35s,

YH

= -0.358,

Prace c}towane

p.=

-2.846,

r14 =

-3.072,

i'z4 =

3.072,

[1] M. C. C h akr a b ar t i, Mat/rematies o/ design and analysis o/ experiments, Asia Publishing Housc. Bombay 1962.

[2] W. T. F e d c re r, Sampbi1g, b/ocking, and model considerations for split plot and split block designs, -Biom. J. 19 (1977), str. 181-100.

[3] H. L. H ar t c r. On t/ze a11alysis o/ split plot e:xperimmts, Biometrics 17 (1961), str. 144-149.

[4) Z. K a c z m a re k, Wielozmiemta analiza kowarimrcji i je} niektóre zastosowania, Mat. Stos.

5 (1975), str. 139-156.

[5] O. K e m p t h o r n c, T/re des[glt and analysis vf e_tperiments, l';cw York 1952.

[6) M. K u c z y ń s k i, Estymacja parametrów i weryfikacja hipotez w mralizic kmrarianc_ii w n.lda- dzie z rozs::c:epionymi jedJtostkumi ekspe1yme1ttaląvmi, Szóste Colloquium Metodologiczne z Agro-Biometrii, PAN, Warszawa 1976, str. 10:!-1 i'),

[7] -, PrzeJ=ialy ufności w crnali:ie kowarimuji w uklad=i.? z rozszczepionymi ji!dMstkami ekspery- mentalnymi, Siódme Cdloquium Met,)dologkznc z Agro-Biomctrii, PAN, Warszawa 1977.

str. 283-297.

(8] S. L i, J. H. Klot z, Components of rarkmce estimation for the split-plot desigll, Technical Report 451 (1976), Dcr:1rtment of Statistics, Univi!r.:iity of Yisconsin.

(14)

82 M. K u c z y ń s k i

[9] W. M e n d e n h a II, Introduction to linear models and the design mtd analysis of experiments, Belmont, California, 1968.

[lO] H. M i kos, Modele matematyczne układów rozszczepionych jednostek ze skorelowanymi

błędami, Czwarte Colloquium Metodologiczne z Agro-Biometrii, PAN, Warszawa 1974, str. 57-78.

[ll] E. N i e d ok o s, On mathematical models of split-plot desigl!, Ann. UMCS, A 18 (1964), str. 123-136.

[12] M. O g a s a w a r a, M. T a k a h a s h i, Ortohogonality relation in the analysis o/ variance l, J. Science Hiroshima Univ. A 16 (1953), str. 457-470.

[13] C. R. R a o, Linear statistical inference and i ts applications, New York 1965.

[14] S. R. S car l e, Linear models, New York 1971.

[15] -, Topics in variance component estimation, Biometrics 27 (1971), str. 1-76.

[16] M. T ak a h a s h i, On analysis of variance for the sp/it-p/ot designs, J. Science Hiroshima Univ. A 19 (1955), str. 321-325.

(17] F. Y a t e s, Comp/ex experiments, J. Roy. Stat. Soc. Suppl. 2 (1935), str. 181-247.

Cytaty

Powiązane dokumenty

Można udowodnid, że rozwiązanie ogólne równania (13) można zawsze uzyskad jako sumę dwóch składników: (i) ogólnego rozwiązania równania jednorodnego (czyli równania,

I Validity/provability in second-order classical propositional logic (known as the QBF problem) is P SPACE -complete.. I Provability in second-order intuitionistic propositional

Jeśli więc dwa samochody jadą obok siebie z taką samą prędkością chwilową, to samochód, którego kierowca mocniej naciska pedał gazu, przed chwilą jechał wolniej od

Wobec powyższego określ transmitancje poszczególnych zbiorników, transmitancję zastępczą całego układu, wyznacz odpowiedź transmitancji zastępczej na skok jed- nostkowy,

Na- stępnie zastosuj schemat ze zmodyfikowaną różnicą skończoną dla składnika konwekcyjnego i zaobserwuj różnice między wynikami. Wydział Matematyki i Nauk

Metoda ta określana jest często jako addytywna, gdyż jej istota sprowadza się do zwiększenia początkowej wartości momentu o iloczyn wartości siły i do- datkowego ugięcia e

Za pomocą kwerend można pobierać i tworzyć zestawienia danych które Cię aktualnie interesują.. Sortowanie polega na uporządkowanym układaniu

It is worth noting that in the first half of 1990 these two kilometers of the river provided the nesting place for more than 80% of the black-headed gull (Chroicocephalus ridibundus)