• Nie Znaleziono Wyników

Rozdział 6 ESTYMACJA STATYSTYCZNA

N/A
N/A
Protected

Academic year: 2021

Share "Rozdział 6 ESTYMACJA STATYSTYCZNA"

Copied!
26
0
0

Pełen tekst

(1)

© Stanisław Węglarczyk, XII 2005

Rozdział 6 ESTYMACJA STATYSTYCZNA

Podstawowym problemem teorii estymacji statystycznej jest znalezienie odpowie- dzi na pytanie typu „Ile wynosi wartość nieznanego parametru g populacji general- nej?”. Istnieją dwa zasadnicze sposoby takiej odpowiedzi:

(1) „g . ĝ”, gdzie ĝ jest liczbą obliczoną według pewnej metody estymacji. Metoda ta jest nazwana estymacją punktową, gdyż jako ocenę nieznanej wartości g podajemy jedną liczbę (odpowiada jej jeden punkt na osi rzeczywistej).

(2) „g zawarte jest w pewnym przedziale (ĝ*, ĝ*) z ufnością (1-")”. Jest to odpo- wiedź estymacji przedziałowej. Symbol (1-α) oznacza dodatnią liczbę mniejszą od jedności. Zwykle wynosi ona 0.95 lub 0.99 (bądź w procentach: 95% lub 99%) i jest miarą naszego przekonania, że poszukiwana wartość parametru g znajduje się w obli- czonym przedziale. Długość ĝ*- ĝ* przedziału (ĝ*, ĝ*) pełni rolę dokładności oceny wartości g, dlatego ten rodzaj estymacji uważany jest za lepszy od estymacji punk- towej, gdzie zwykle podaje się tylko obliczone przybliżenie ĝ nieznanej wartości g.

6.1 ESTYMATOR I JEGO WŁASNOŚCI

Niech g będzie nieznanym parametrem populacji generalnej X (tzn. pewną liczbą albo, rzadziej, pewną funkcją będącą charakterystyką zmiennej losowej X), którego wartość chcemy ocenić dysponując n-elementową realizacją (x1,x2,...,xn) próby lo- sowej (X1,X2,...,Xn) (w skrócie mówimy: dysponując n-elementową próbą losową (x1,x2,...,xn)). Do najczęściej poszukiwanych parametrów populacji należą wartość średnia EX (często oznaczana grecką literą µ), odchylenie standardowe DX (ozna- czane też σ) lub wariancja varX, współczynniki α i β regresji E(Y|x)= αx+β zmiennej Y względem X itp. Problem oceny (lub inaczej: estymacji, albo też: oszacowania) war- tości tego nieznanego parametru polega na znalezieniu takiej funkcji gn próby, aby obliczoną na jej podstawie wartość

(2)

© Stanisław Węglarczyk, XII 2005

1 2

ˆ n( , ,..., n)

g=g x x x (6.1)

można było przyjąć jako estymowaną (czyli przybliżoną) wartość nieznanego para- metru g. Ponieważ próba jest próbą losową, to wartość ĝ jest realizacją (zaobser- wowaną wartością) odpowiedniej zmiennej losowej (statystyki) Ĝ1):

1 2

ˆ n( , ,..., n)

G=g X X X (6.2)

o rozkładzie fĜ(x). Jeśli rozkład ten zależy od nieznanego parametru g: fĜ(x;g), to statystykę Ĝ nazywamy estymatorem parametru g. Łatwo można sobie wyobrazić, że statystyk zależnych od g może być wiele – wiele więc może być estymatorów para- metru g. Oznacza to, że na pytanie „ile wynosi wartość parametru g?” istnieje wiele odpowiedzi (okazuje się, że nieskończenie wiele); powinniśmy zatem wybrać spośród tych odpowiedzi tę, która jest w jakimś sensie najlepsza. Istnieje więc potrzeba określenia kryteriów jakości estymatora.

Takich kryteriów istnieje kilka. Najpowszechniejsze to zgodność, nieobciążoność i efektywność danego estymatora. Będą one omawiane kolejno.

6.1.1 Zgodność estymatora Ĝn parametru g

Ciąg {Ĝn} estymatorów parametru g jest zgodny, jeśli jest stochastycznie zbieżny do g, tzn. jeśli œ∈>0

(

ˆ

)

lim P n 1

n G g

→∞ − <∈ = (6.3)

Jeśli Ĝn jest wyrazem zgodnego ciągu {Ĝn} estymatorów parametru g, to mówimy, że Ĝ jest estymatorem zgodnym tego para- metru.

Zgodność estymatora jest żądaniem, aby w miarę zwiększania się liczebności próby rosło prawdopodobieństwo tego, że otrzymana wartość estymatora będzie się coraz mniej różnić od wartości nieznanego parametru (rys. 6.1).

Estymatorem zgodnym jest np.

statystyczna ocena prawdopodobieństwa P(A) = k/n, gdyż według twierdzenia Ber- noulliego (równanie ) jest ona stochastycznie zbieżna do rzeczywistej wartości P(A).

Podobnie rzecz ma się z dystrybuantą empiryczną (twierdzenie Gliwienki-Cantelliego,

1oznaczanej dalej również symbolem Ĝn

Rys. 6.1. Estymator Ĝn parametru g populacji generalnej jest zgodny, gdy jego rozkład zmie- rza do rozkładu jednopunktowego P(Ĝn=g)=1

(3)

© Stanisław Węglarczyk, XII 2005

rozdział 5.2.2) – jest ona więc estymatorem zgodnym dystrybuanty rzeczywistej FX(x). Tak samo jest też z momentami początkowymi Ak i centralnymi Mk z rozdziału 5.3.1, co oznacza, że wielkości X , S2 są zgodnymi estymatorami odpowiednio parametrów EX i varX.

6.1.2 Nieobciążoność estymatora Ĝn parametru g

Estymator Ĝ parametru g zbiorowości generalnej nazywamy nieobciążonym jeśli EGˆn =g (n=1, 2,...) (6.4) Jeśli równość nie zachodzi, estymator Ĝ

jest obciążony, a różnica E(Ĝn)-g nazywa się obciążeniem estymatora (rys. 6.2).

Warto zwrócić uwagę na pewną różnicę pomiędzy zgodnością a nieobciążonością estymatora: o ile zgodność jest własnością graniczną, spełnioną, gdy n zmierza do nieskończoności, to niebciążoność dotyczy każdej liczebności n próby.

Estymator nieobciążony może nie istnieć; może też istnieć wiele takich estymatorów. Możemy mieć również do czynienia z takim przypadkiem, że obciążoność estymatora zmierza do zera wraz ze wzrastającą liczebnością próby:

(

ˆ

)

lim E n =0

n G g

→∞ − (6.5)

Taki estymator nazywamy nieobciążonym asymptotycznie.

Przykład 6.1. Nieobciążoność estymatora X wartości oczekiwanej EX. Wielkość X jest estymatorem wartości oczekiwanej EX populacji X o średniej EX=µ. Niech będzie dana prosta n-elementowa próba losowa (X1, X2, ...,Xn). Mamy więc: EXi = µ, i=1, 2, ..., n.

Zobaczmy, czy jest obciążony, czy nie:

1 1 1

1 1 1

E E E

n n n

i i

i i i

X X X

n n n µ µ

= = =

 

= = =

∑ ∑

(6.6)

Równość powyższa jest prawdziwa dla każdego n: estymator X wartości oczekiwanej EX jest więc estymatorem nieobciążonym.

Rys. 6.2. Estymator Ĝ#n parametru g jest obciążony, estymator Ĝ*n jest nieobciążony

(4)

© Stanisław Węglarczyk, XII 2005

Przykład 6.2. Estymator obciążony i nieobciążony wariancji i odchylenia stan- dardowego. Weźmy pod uwagę estymator S2 wariancji σ2 populacji X o średniej EX=µ.

Niech będzie dana prosta n-elementowa próba losowa (X1, X2, ...,Xn). Mamy więc: EXi = µ, varXi = σ2, dla i=1, 2, ..., n oraz cov(Xi,Xj) = 0 dla i…j. Obliczmy S2:

2 2 2

1 1

2 2

1

2 2

1 1 1

2 2 2 2 2

1 1

1 1

( ) ( ) ( )

1 ( ) 2( ) ( ) ( )

1 2 1 1

( ) ( ) ( ) ( )

1 1

( ) 2( ) ( ) ( ) ( )

n n

i i

i i

n

i i

i

n n n

i i

i i i

n n

i i

i i

S X X X X

n n

X X X X

n

X X X X

n n n n

X X X X X

n n

µ µ

µ µ µ µ

µ µ µ µ

µ µ µ µ µ

= =

=

= = =

= =

 

= − = − + −

 

= − + − ⋅ − + −

= − + − − + −

= − − − + − = − − −

∑ ∑

∑ ∑ ∑

∑ ∑

(6.7)

Jesteśmy teraz przygotowani do obliczenia średniej E(S2):

2 2 2 2 2

1 1

2

2 2

1

1 1

E E ( ) ( ) E( ) E( )

1 1

var var

n n

i i

i i

n

i

S X X X X

n n

X X n

n n n

µ µ µ µ

σ σ σ

= =

=

 

= − − − = − − −

 

= − = − = −

∑ ∑

(6.8)

Tak więc estymator S2 wariancji σ2 jest esty- matorem obciążonym, a dokładnie asympto- tycznie nieobciążonym, gdyż przy n →∞ war- tość estymatora S2 → σ2. Obciążenie estymatora S2 wynosi 1/n. Aby uczynić go nieobciążonym, należy odjąć od niego obciążenie; wielkość

2 2

1

1 ( )

1

n i i

S X X

n =

= −

 (6.9)

jest już estymatorem nieobciążonym i jest ona zalecana do stosowania w przypadku małych prób. Jak pokazuje wykres na rys. 6.3, już dla

n=10 różnica pomiędzy estymatorami nie przekracza 5%.

6.1.3 Efektywność estymatora Ĝn parametru g

Ponieważ estymator Ĝ jest zmienną losową, posiada pewną wariancję, której wielkość wskazuje na wielkość rozrzutu wartości tego estymatora wokół prawdziwej wartości g (Ĝ powinien więc być estymatorem nieobciążonym). Im wariancja var(Ĝ) jest mniejsza, tym bardziej rozkład fĜ(x) jest skupiony wokół g, co oznacza, że obliczona na podstawie próby losowej wartość ĝ jest (przeciętnie!) bliższa poszuki- wanej wartości g. Musimy tutaj zdać sobie sprawę z tego, że przy ustalonej liczebności

Rys. 6.3. Stosunek estymatorów S2 i S2 (6.9) w zależności od liczności n próby losowej

2

2

S S

n

(5)

© Stanisław Węglarczyk, XII 2005

n próby nie możemy zmniejszać var(Ĝ) nieograniczenie, gdyż Ĝ jest statystyką, a więc funkcją próby losowej, a ta ostatnia zawiera zawsze pewną zmienność (można powiedzieć: pewien szum informacyjny) związaną ze swoim lokalnym charakterem, tzn. z faktem, że próba jest tylko częścią populacji.

Twierdzenie Rao-Craméra. Następujące twierdzenie, zwane nierównością Rao-Craméra, podaje wzór na minimalną wariancję estymatora:

2

ˆ 1 ˆ

var (var )

E ln ( , )

ozn

min

X

G G

n f x g

g

≥ =

 ∂ 

 

 

(6.10)

gdzie fX(x,g) jest funkcją gęstości cechy X populacji generalnej. Jeśli dla danego estymatora zachodzi w powyższym wzorze równość, to taki estymator nazywa się najefektywniejszym (lub: efektywnym);

gdy równość taka zachodzi dopiero w gra- nicy (przy n zmierzającym do nieskończo- ności), to estymator jest asymptotycznie najefektywniejszym (asymptotycznie efektywnym).

Stosowane są również terminy: efek- tywność (bezwzględna) eff estymatora Ĝ:

2

(var )ˆ 1

( )ˆ

var ˆ

E ln ( , ) var ˆ

min

X

eff G G

G n f x g G

g

= =

 ∂ 

 

∂ 

(6.11)

(eff(Ĝ),[0,1]) oraz efektywność względna e estymatora Ĝ' względem estymatora Ĝ":

var ˆ var ˆ e G

G

= ′

′′ (6.12)

Jeśli e<1, to Ĝ' jest efektywniejszy od Ĝ".

Przykład 6.3. Efektywność estymatora X wartości oczekiwanej EX w populacji normalnej N(µ,σ). Korzystając ze wzoru (6.11) zbadajmy efektywność estymatora X wartości oczeki- wanej EX, gdy dana jest prosta n-elementowa próba losowa (X1, X2, ...,Xn) pobrana z po- pulacji normalnej N(µ,σ). Mamy więc: EXi = µ, varXi = σ2, dla i=1, 2, ..., n oraz cov(Xi,Xj) = 0 dla i…j. Wariancja varX estymatora X wynosi

Rys. 6.4. Estymator o mniejszej wariancji jest efektywniejszy od estymatora o większej warian- cji

(6)

© Stanisław Węglarczyk, XII 2005

2

2 2

2 2

1 1 1

1 1 1

var var var

n n n

i i

i i i

X X X

n n n n

σ σ

= = =

 

=  = = =

∑ ∑

(6.13)

(wariancja sumy jest sumą wariancji ze względu na niezależność zmiennych Xi). Pozostała część prawej strony wyrażenia wydaje się trudniejsza do obliczenia, jednakże tak nie jest:

2 2

2

2 2

ln ( , ) 1 1 ( )

ln exp

2 2

1 ( )

ln ln 2 2

fX x x

x x

µ µ

µ µ σ π σ

µ µ

σ π

µ σ σ

  

∂ ∂ −

=  − 

∂ ∂   

 

∂ − −

= − − − =

∂  

(6.14)

Tak więc, druga część prawej strony wyrażenia ma postać końcową

2 2 2

2 4 2

ln ( , )

E fX x g E X n

n n n

g

µ σ

σ σ σ

∂   − 

=   = =

 

∂  

  (6.15)

Wstawiając do wzoru (6.11) znalezione wartości i dostajemy, że eff = 1. Estymator wartości oczekiwanej EX populacji normalnej jest więc najefektywniejszy.

Tabela 6.1. Własności niektórych estymatorów parametru σσσσ populacji

Populacja Para-

metr Estymator Własności Źródło

N(µ,σ), µ znane, σ

nieznane σ 2 2

1

1 ( )2

n i i

S X X

n =

=

eff = 1 zgodny,

asymptotycznie nieobciążony

Fisz [58]

N(µ,σ), µ i σ

nieznane σ2 2 2

1

1 ( )

1

n i i

S X X

n =

= −

 e = (n-1)/n < 1 Fisz

[58]

N(µ,σ), µ znane, σ

nieznane σ

1

1 | |

2

n i i

U X X

n π

=

=

?

?

e=1/(π-2) . 0.876

Fisz [58]

(7)

© Stanisław Węglarczyk, XII 2005

6.2 ESTYMACJA PUNKTOWA. METODA MOMENTÓW

Niech cecha X populacji generalnej ma rozkład o danej funkcji gęstości f(x;g1,g2,..., gp), przy czym parametry gi, i=1,2,...,p są nieznane. Rozważamy problem znalezienia wartości (estymatorów) ĝ1, ĝ2, ..., ĝp parametrów g1,g2,...,gp tego rozkładu.

Istnieje kilka metod estymacji parametrów: metoda momentów, największej wiarygodności, kwantyli, najmniejszych kwadratów, maksimum entropii i inne. Dalej omówione zostaną dwie pierwsze metody – najstarsza metoda momentów (MM) i chyba najczęściej stosowana metoda największej wiarygodności (MNW). Metoda najmniejszych kwadratów omówiona zostanie szczegółowo przy okazji estymacji parametrów regresji (w rozdziale 8.2).

6.2.1 Metoda momentów – opis metody

Podstawą tej metody jest założenie równości momentów początkowych "k (i/lub centralnych µl), obliczonych dla danego rozkładu, i odpowiednich momentów początkowych ak (i/lub centralnych ml) z próby, gdzie k i l są dowolnymi liczbami naturalnymi nie przekraczającymi p:

1 2

( , ,..., ) , 1, 2,...,

k g g gn bk k p

β = = (6.16)

gdzie βk oznacza αk dla niektórych k, a dla pozostałych k oznacza µk. Wielkość bk jest odpowiednim momentem z próby. Jeśli utworzymy układ p równań typu (6.16), to po jego rozwiązaniu dostaniemy wartości (estymatory) ĝ1, ĝ2, ..., ĝp poszukiwanych parametrów g1, g2,...,gp.

Przykład 6.4. Najczęstsza postać MM dla dwu parametrów. Niech funkcja rozkładu będzie dwuparametrową funkcją f(x;g1,g2) gęstości zmiennej losowej X. Równania (6.16) przyjmą postać układu dwu równań na dwie niewiadome g1 i g2:

1 2 1

1 2 2

E( | , ) var( | , )

X g g a X g g m

 =

 =

(6.17)

Jeśli uwzględnimy fakt, że a1 to po prostu wartość średnia z próby , a m2 to s2 (wariancja z próby) – otrzymamy równania estymacyjne MM dla dwuparametrowych funkcji rozkładu f(x;g1,g2):

1 2

2

1 2

E( | , ) var( | , )

X g g x X g g s

 =

 =

(6.18)

Można oczywiście używać momentów wyższych rzędów i zamiast (6.18) napisać na przykład tak:

(8)

© Stanisław Węglarczyk, XII 2005

( )

5 5

1 2

8 8

1 2

E( | , )

E ( ) | , ( )

X g g x

X X g g x x

 =



− = −

 (6.19)

jednakże nie jest to metoda zalecana, gdyż w miarę wzrostu rzędu momentu pogarsza się jakość (efektywność) estymatora. Jest to związane z faktem, że pojawienie się w próbie losowej wartości znacznie odbiegającej od pozostałych (co zawsze jest możliwe) wpływa na wartość obliczanego momentu tym bardziej, im większy jest rząd momentu. Ilustruje to następujący przykład.

Przykład 6.5. Wpływ wartości odsta- jącej na wartość momentu z próby.

Dane są dwie próby losowe, pierwsza 15-, druga 16-elementowa. Obie próby zawierają te same 15 liczb:

{5.141, 3.657, 2.658, 3.092, 9.294, 10.159, 10.423, 7.050, 11.090, 8.799,

8.204, 3.245, 4.422, 6.812, 2.750 }, druga zawiera dodatkowo liczbę 32.265 (zob. rys. 6.5). Dla obu prób obliczono te same momenty:

a1 =x , a2 = x2 i a3 = x2.

Jak pokazują liczby podane na rys. 6.5, im wyższy rząd obliczanego momentu, tym bardziej jest widoczny wpływ dodanej wartości odstającej.

Efektywność estymatorów MM. Estymatory znalezione MM są asymptotycznie efektywne, a ich efektywność jest zwykle mniejsza od jedności, szczególnie dla rozkładów asymetrycznych. Dlatego MM często bywa stosowana jako pierwsze przybliżenie estymacji. W przypadku rozkładów symetrycznych jest tak samo dobra jak większość innych metod.

6.2.2 Estymacja parametrów rozkładu normalnego

MM dla rozkładu normalnego. Rozkład normalny ma dwa parametry g1 = µ i g2 = σ. Jeśli uwzględnimy wzory z rozdziału 4.2.2, z których wynika, że

Rys. 6.5. Wpływ wartości odstającej na wartości kolejnych trzech pierwszych momentów z próby a1, a2 i a3. Liczby w nawiasach pokazują ile razy moment obliczony na podstawie próby w wartością odstającą jest większy od momentu obliczonego bez tej wartości.

(9)

© Stanisław Węglarczyk, XII 2005

2

E( ; , ) var ( ; , )

X X

µ σ µ µ σ σ

=

= (6.20)

to równania (6.18) przyjmą postać:

2 2

ˆ ˆ

MM

MM

x s µ σ

=

= (6.21)

która w tym przypadku podaje explicite, bez dodatkowych obliczeń, wartości poszukiwanych estymatorów.

Przykład 6.6. Rozkład normalny – metoda momentów. Z populacji normalnej N(µ,σ) wylosowano 30-elementową prostą

próbę losową Z30 = {3.23, 0.97, 8.52, 2.41, 4.43, 9.14, 8.07, 2.95, 8.06, 7.00, 1.57, 9.09, 0.26, 7.74, 4.45, 2.90, 3.87, 5.40, 4.14, 5.15, 7.67, 5.79, 6.46, 6.12, 7.15, 4.42, 7.19, 3.34, 0.17, 9.54}.

Zadanie. Znaleźć wartości µMM i σMM

parametrów µ i σ rozkładu oraz wykreślić dystrybuantę empiryczną Femp(x) i dystrybuantę rozkładu N(µMM, σMM).

Rozwiązanie. Korzystając z równań (6.21) i wartości xi, i=1,2,...,30 dostajemy, że µMM = 5.24, σMM = 2.67. Po uporządkowaniu rosnąco elementów próby możemy wykreślić dystrybuantę empiryczną, a korzystając z

tablic rozkładu N(0,1) – także dystrybuantę rozkładu N(µMM, σMM). Wyniki pokazane są na rys. 6.6.

6.2.3 Estymacja parametrów rozkładu logarytmiczno-normalnego

MM dla rozkładu logarytmiczno-normalnego. Wykorzystując układ równań (6.18) oraz wzory z rozdziału 4.2.3 na średnią i wariancję, dostajemy:

( ) (

2

)

2

2 2

E( ; , ) exp

2

var ( ; , ) exp 2 1

X x

X eσ s

µ σ µ σ

µ σ µ σ

 

=  + =

 

= + − =

(6.22)

Układ ten łatwo daje się rozwiązać algebraicznie. W wyniku otrzymujemy następujące estymatory parametrów µ i σ:

Rys. 6.6. Wynik estymacji MM parametrów roz- kładu normalnego na podstawie 30-elementowej próby losowej

(10)

© Stanisław Węglarczyk, XII 2005

2 2

2

ˆ ln 1 ˆ ln ˆ

2 s x x σ

µ σ

   

=  +  

   

 

= −

(6.23)

Przykład 6.7. Rozkład logarytmiczno-normalny – metoda momentów. Z populacji opisanej zmienną losową X wylosowano 30-elementową próbę losową Z30 , której elementy podano w tabeli obok. Zakładając, że próba ta pochodzi z populacji logarytmiczno- normalnej, znaleźć estymatory µˆMM i σˆMM tego rozkładu. Uzyskany wynik zilustrować wykreślając dystrybuanty: empiryczną Femp(x) i estymowaną FLN(x;µˆMM,σˆMM).

Rozwiązanie. Na podstawie próby losowej obliczamy wartość średnią i odchylenie standardowe: x = 8.012, s = 4.684. Wstawiając te wartości do układu równań dostajemy µˆMM= 1.934, σˆMM = 0.542. Wykorzystując tabele rozkładu normalnego lub korzystając z dostępnego programu komputerowego obliczamy wartości dystrybuanty FLN(x;

ˆMM

µ ,σˆMM). Wyniki zilustrowane są na rys. 6.7.

16.12 12.93 8.21 5.38 4.68 8.96 9.23 3.67 10.87 14.51 8.77 13.04 3.47 7.96 12.04 0.58 3.06 5.12 2.80 8.44 19.53 5.59 0.87 7.53 4.10 5.76 10.34 6.48 4.12 16.21

Rys. 6.7. Wynik estymacji MM parametrów rozkładu logarytmiczno-normalnego na podstawie 30-elementowej próby losowej

6.2.4 Estymacja parametrów rozkładu gamma (Pearsona, III typ)

MM dla rozkładu gamma (Pearsona, III typ). Dla tego rozkładu średnia i wariancja wyrażają się wzorami: E(X) = λ/α, var(X) = λ/α2, w związku z czym równania (6.18) metody momentów przyjmują postać:

2

2

x s

λ λ

α = α = (6.24)

skąd bez większego trudu dostajemy poszukiwane estymatory:

(11)

© Stanisław Węglarczyk, XII 2005

2

2

ˆ = ˆ ˆ

MM

MM MM

x s

x

x s

λ α λ

  

 

= =

(6.25)

Przykład 6.8. Rozkład gamma – metoda momentów.

Z populacji opisanej zmienną losową X wy- losowano 30-elementową próbę losową Z30 =

Zakładając, że próba ta pochodzi z populacji gamma znaleźć estymatory αˆMM i ˆ

λMM tego rozkładu. Uzyskany wynik zilustrować wy- kreślając dystrybuanty: empiryczną Femp(x) i estymowaną F'(x; αˆMM, ˆ

λMM ).

Rozwiązanie. Na podstawie próby losowej

obliczamy wartość średnią i odchylenie standardowe: x = 18.514 , s = 11.073. Wstawiając te wartości do (6.25) dostajemy αˆMM =0.151, ˆ

λMM=2.795. Wykorzystując tabele rozkładu gamma (Dodatek A) lub korzystając z dostępnego programu komputerowego obliczamy wartości dystrybuanty F'(x; αˆMM, ˆ

λMM ). Wyniki zilustrowane są na rys. 6.8.

6.3 ESTYMACJA PUNKTOWA. METODA NAJWIĘKSZEJ WIARYGODNOŚCI (MNW)

6.3.1 Metoda największej wiarygodności (MNW)

Funkcja wiarygodności. Jeśli dany jest rozkład prawdopodobieństwa ciągłej zmiennej losowej X w postaci funkcji gęstości f(x;g1,g2,...,gp) oraz prosta próba losowa (x1,x2,...,xn), to z definicji funkcją wiarygodności tego rozkładu nazywamy wyrażenie:

1 2

1

( ; , ,..., ),

def n

i p

i

L f x g g g p n

=

=

≤ (6.26)

Podobnie dla zmiennej losowej dyskretnej: jeśli dany jest rozkład prawdopodobieństwa dyskretnej zmiennej losowej X w postaci P(X=x;g1,g2,...,gp)

Rys. 6.8. Wynik estymacji MM parametrów roz- kładu gamma na podstawie 30-elementowej próby losowej

17.55 13.26 0.73 19.50 31.47 26.70 9.82 11.53 24.06 28.87 2.83 38.29 13.46 16.76 8.98 6.77 29.18 14.61 10.37 27.95 10.75 19.61 15.12 3.32 52.50 11.64 23.36 19.89 16.95 29.61

(12)

© Stanisław Węglarczyk, XII 2005

oraz prosta próba losowa (x1,x2,...,xn), to z definicji funkcją wiarygodności tego rozkładu nazywamy wyrażenie:

1 2

1

P( ; , ,..., ),

n

i p

i

L X x g g g p n

=

=

= ≤ (6.27)

Jak wynika z definicji (6.26) i (6.27) funkcja wiarygodności L jest funkcją p niezna- nych parametrów g1, g2, ..., gp oraz funkcją próby – jest więc statystyką.

Metoda największej wiarygodności (stosowane dalej skróty: metoda NW, MNW) estymacji parametrów danego rozkładu oparta jest na stwierdzeniu, że zaobserwowanie zbioru wartości (x1,x2,...,xn) jest najbardziej prawdopodobne, gdy

1 2

( ;i , ,..., p) max

L x g g g = (6.28)

co zwykle sprowadzane jest do układu równań:

0, 1, 2,...,

i

L i p

g

∂ = =

∂ (6.29)

Warunek można wyrazić nieco inaczej, w sposób, który pozwala uniknąć żmudnych obliczeń a daje takie same wartości estymatorów:

ln 0, 1, 2,...,

i

L i p

g

∂ = =

∂ (6.30)

Przykład 6.9. Porównanie kilku wartości funkcji wiarygodności lnL rozkładu normalnego dla danej próby losowej. Dana jest 10-elementowa próba losowa Z10

zawierająca wyniki pomiarów pewnej wielkości X:

Z10 = {0.000, 0.157, 4.305, 1.013, 1.365, 3.358, 1.593, 0.809, 1.861, 2.128}. Znaleźć i wykreślić funkcje gęstości rozkładu N(µ,σ) dla trzech par wartości parametrów (µ,σ): 1. (x, s), 2. (x-2, s), 3. (x, 2s) i dla każdej z nich obliczyć wartość lnL logarytmu funkcji wiarygodności.

Rozwiązanie. Wartość średnia i odchylenie standardowe s dla tej próby losowej wynoszą: x = 1.659, s = 1.280. Korzystając ze wzoru (??) na funkcję gęstości rozkładu normalnego znaleziono wartości tej funkcji dla równoodległych wartości zmiennej losowej i wykreślono przebieg tej funkcji dla kolejnych par parametrów (rys. 6.9).

Obliczono też wartości lnL: największą wartość

otrzymano dla pary (x, s). Uzasadnienie tego faktu znajduje się dalej w tekście.

Rys. 6.9. Zasada największej wiarygodności:

im lepiej funkcja wiarygodności L jest roz- pięta na próbie losowej, tym wartość L (i lnL) jest wyższa

(13)

© Stanisław Węglarczyk, XII 2005

Własności estymatorów MNW. Estymatory znalezione metodą NW mają następujące zalety [??]: :

(i) są co najmniej asymptotycznie nieobciążone,

(ii) jeśli istnieje estymator najefektywniejszy danego parametru, to jest to estymator, który można znaleźć używając MNW,

(iii) można je stosować również do prób zależnych (nieprostych). Jest to zaleta, która powoduje, że w niektórych przypadkach zamiast MM musimy stosować MNW.

Poniżej przedstawiono przykłady estymacji parametrów metodą największej wiarygodności dla tych samych rozkładów jak w przypadku metody momentów, tj.

rozkładów: normalnego, logarytmiczno-normalnego i gamma.

6.3.2 Estymacja MNW parametrów rozkładu normalnego Wartość funkcji lnL dla rozkładu normalnego wynosi:

2

1 1

2 2

2 2

1 1

1 1

ln ln ( ; , ) ln exp

2 2

1 1

ln ln 2 ( ) ln ln 2 ( )

2 2

n n

i

N i

i i

n n

i i

i i

L f x x

x n n x

µ σ µ

σ π σ

σ π µ σ π µ

σ σ

= =

= =

  − 

   

= =  −   

 

 

  

 

 

 

= − − − − = − − −  − 

∑ ∑

∑ ∑

(6.31)

Obliczymy pochodną tego wyrażenia po µ i przyrównajmy do zera:

2 2

1

2 1

ln 1

ln ln 2 ( )

2

2 ( ) 0

2

n i i n

i i

L n n x

x

σ π µ

µ µ σ

σ µ

=

=

∂ ∂  

 

= − − −  − 

∂ ∂  

= − =

(6.32)

skąd niemal natychmiast mamy, że µˆMNW= x .

Podobnie, aby dostać estymator ˆσ parametru σ obliczymy pochodną lnL po σ i przyrównajmy do zera:

2 2

1

2 2 2

3 3

1 1

ln 1

ln ln 2 ( )

2

2 1

( ) ( ) 0

2

n i i

n n

i i

i i

L n n x

n n

x x

n

σ π µ

σ σ σ

µ σ µ

σ σ σ

=

= =

∂ ∂  

= − − − − 

∂ ∂  

−  

= − − − = −  − − =

 

∑ ∑

(6.33)

Jeśli zamiast µ podstawimy znalezioną wyżej wartość µˆMNW= x , to dostaniemy ˆMNW2

σ = s2 i możemy napisać końcowy wynik estymacji MNW parametrów rozkładu normalnego:

(14)

© Stanisław Węglarczyk, XII 2005

2 2

ˆ ˆ

MNW

MNW

x s µ

σ

=

= (6.34)

Wzory powyższe są identyczne z wzorami otrzymanymi metodą momentów – a więc w przypadku rozkładu normalnego obie metody, MM i MNW, dają takie same estymatory parametrów µ i σ tego rozkładu.

6.3.3 Rozkład logarytmiczno-normalny

Dla tego rozkładu wartość logarytmu lnL funkcji wiarygodności L wynosi:

2

1 1

2 2

1

2 2

1 1

ln

1 1

ln ln ( ; , ) ln exp

2 2

ln ln ln 2 1 (ln )

2

ln ln ln 2 1 ( )

2

n n

i LN i

i i i

n

i i

i

n n

i i

i i

L f x x

x

x x

x n n x

µ σ µ

σ π σ

σ π µ

σ

σ π µ

σ

= =

=

= =

  − 

   

= =  −   

 

 

  

 

 

= − − − − − 

= − − − − −

∑ ∑

∑ ∑

(6.35)

Porównując do zera pochodne wyrażenia po µ oraz σ dostajemy po kilku przekształ- ceniach

2 2

ln

ˆ ln

ˆ

MNW

MNW X

x s µ

σ

=

= (6.36)

gdzie sln X2 jest skrótowym zapisem formuły

( )

2

2 ln

1

1 ln ln

n

X i

i

s x x

n =

=

(6.37)

W tym przypadku estymatory MNW parametrów rozkładu nie są równe estymatorom MM (równania (6.23)).

(15)

© Stanisław Węglarczyk, XII 2005

Przykład 6.10. Porównanie MM i MNW dla rozkładu logarytmiczno-normalnego.

Dla tej samej próby losowej jak z przykładu 6.7, znaleziono estymatory NW rozkładu lognormal- nego:

µ σ

MM: 1.934 0.542 MNW: 1.850 0.782

Na rys. 6.10 wykreślono dystrybuanty roz- kładu lognormalnego dla obu zestawów parametrów. Różnice |FLN(x;µˆMM,σˆMM) - FLN(x;µˆMNW,σˆMNW)| nie są małe: dochodzą do 0.1 (czyli 10%).

Rys. 6.10. Dystrybuanty: empiryczna, roz- kładu lognormalnego z parametrami znale- zionymi MM (6.23) (gruba linia ciągła) i z parametrami znalezionymi MNW (6.36) (cienka linia ciągła)

6.3.4 Rozkład gamma (Pearsona, III typ)

Funkcja wiarygodności lnL dla rozkładu gamma ma postać:

[ ]

1

1 1

1

ln ln ( ; , ) ln

( ) ln ln ( ) ( 1) ln ln ln ( ) ( 1)ln

i

n n

x

i i

i i

n

i i

i

L f x x e

x x

n n n x x

λ

α

α λ

α λ λ

λ α λ λ α

λ α λ λ α

Γ

= =

=

 

= =  

Γ 

= − − Γ − − −

= − − Γ − − −

∑ ∑

(6.38)

Różniczkując to równanie (6.38) względem α oraz λ otrzymujemy następujący układ równań:

0

ln ( ) ln 0

x

x λ

α

λ ψ λ

− =

− + =

(6.39)

(16)

© Stanisław Węglarczyk, XII 2005

gdzie

ln ( ) ( )

def d d ψ λ λ

λ

= Γ (6.40)

jest tak zwaną funkcją ψ (psi) Eulera.

Funkcja ta nie da się wyrazić w prosty algebraiczny sposób, jej tabelaryczne wartości można znaleźć w np. w podręczniku Kaczmarka [15] czy Anto- niewicza [37]. Rys. 6.11 zawiera wykres tej funkcji dla wartości 80[0.25, 5.00].

Obliczając teraz " z pierwszego z równań (6.39), mamy:

x

α =λ (6.41)

Podstawiając tę wartość do drugiego równania dostaniemy równanie na poszukiwaną wartość 8:

lnλ ψ λ− ( )=Aλ (6.42) gdzie

ln ln

Aλ = xx (6.43)

jest znaną na podstawie próby wartością. Równania (6.42) nie da się rozwiązać analitycznie – trzeba je rozwiązywać numerycznie. Zamieszczona poniżej tabela 6.1 pozwala dla danego Aλ, 0.020 # Aλ # 0.499, odczytać wartość estymatora 8.

Rys. 6.11. Wykres funkcji psi Eulera, ψ (8)

ψ( )λ

λ

(17)

© Stanisław Węglarczyk, XII 2005

Tabela 6.1. Wartości 888 rozkładu gamma dla 0.020 #8 ## #Aλλλλ## 0.499 ##

Aλ 0 1 2 3 4 5 6 7 8 9 Aλ

0.02 25.17 23.98 22.89 21.90 21.00 20.17 19.40 18.68 18.02 17.41 0.02 0.03 16.83 16.29 15.79 15.32 14.87 14.45 14.05 13.68 13.32 12.99 0.03 0.04 12.66 12.36 12.07 11.79 11.53 11.28 11.03 10.80 10.58 10.37 0.04 0.05 10.16 9.967 9.779 9.597 9.423 9.254 9.092 8.935 8.784 8.638 0.05 0.06 8.496 8.360 8.228 8.100 7.975 7.856 7.739 7.625 7.515 7.409 0.06 0.07 7.306 7.205 7.107 7.012 6.919 6.829 6.741 6.656 6.572 6.491 0.07 0.08 6.412 6.335 6.260 6.186 6.115 6.044 5.976 5.909 5.844 5.780 0.08 0.09 5.717 5.656 5.596 5.538 5.481 5.424 5.369 5.316 5.263 5.211 0.09 0.10 5.161 5.111 5.062 5.015 4.969 4.922 4.878 4.834 4.790 4.747 0.10 0.11 4.705 4.665 4.625 4.585 4.546 4.508 4.470 4.433 4.397 4.361 0.11 0.12 4.326 4.292 4.258 4.225 4.192 4.159 4.128 4.097 4.065 4.035 0.12 0.13 4.005 3.976 3.947 3.918 3.890 3.862 3.835 3.808 3.782 3.756 0.13 0.14 3.730 3.704 3.679 3.655 3.630 3.607 3.583 3.559 3.537 3.514 0.14 0.15 3.491 3.469 3.447 3.426 3.405 3.383 3.363 3.342 3.322 3.302 0.15 0.16 3.283 3.263 3.244 3.225 3.205 3.187 3.169 3.151 3.133 3.115 0.16 0.17 3.098 3.080 3.064 3.047 3.030 3.013 2.997 2.981 2.965 2.949 0.17 0.18 2.934 2.919 2.903 2.888 2.873 2.858 2.844 2.829 2.815 2.801 0.18 0.19 2.787 2.773 2.759 2.746 2.732 2.719 2.706 2.693 2.681 2.668 0.19 0.20 2.655 2.642 2.630 2.618 2.606 2.594 2.581 2.570 2.559 2.546 0.20 0.21 2.535 2.524 2.513 2.501 2.491 2.479 2.468 2.458 2.447 2.436 0.21 0.22 2.427 2.416 2.406 2.395 2.385 2.375 2.365 2.356 2.346 2.337 0.22 0.23 2.327 2.317 2.308 2.299 2.289 2.280 2.272 2.262 2.253 2.244 0.23 0.24 2.236 2.227 2.218 2.210 2.201 2.193 2.185 2.176 2.168 2.160 0.24 0.25 2.152 2.143 2.136 2.128 2.120 2.112 2.105 2.097 2.089 2.082 0.25 0.26 2.074 2.067 2.060 2.052 2.045 2.037 2.031 2.024 2.016 2.009 0.26 0.27 2.002 1.995 1.989 1.982 1.975 1.969 1.962 1.955 1.949 1.942 0.27 0.28 1.936 1.929 1.923 1.917 1.910 1.904 1.898 1.892 1.886 1.880 0.28 0.29 1.873 1.867 1.862 1.856 1.850 1.844 1.838 1.832 1.827 1.822 0.29 0.30 1.815 1.810 1.805 1.799 1.793 1.788 1.783 1.777 1.772 1.767 0.30 0.31 1.761 1.756 1.751 1.745 1.741 1.735 1.730 1.725 1.720 1.715 0.31 0.32 1.710 1.706 1.700 1.696 1.691 1.686 1.681 1.677 1.672 1.667 0.32 0.33 1.662 1.657 1.653 1.648 1.644 1.639 1.635 1.631 1.626 1.622 0.33 0.34 1.617 1.612 1.609 1.604 1.600 1.596 1.591 1.587 1.583 1.579 0.34 0.35 1.574 1.571 1.567 1.562 1.558 1.554 1.550 1.546 1.542 1.538 0.35 0.36 1.535 1.530 1.526 1.522 1.519 1.515 1.511 1.507 1.503 1.500 0.36 0.37 1.497 1.493 1.489 1.485 1.481 1.478 1.474 1.471 1.468 1.464 0.37 0.38 1.460 1.457 1.453 1.449 1.446 1.442 1.439 1.436 1.432 1.429 0.38 0.39 1.426 1.423 1.419 1.416 1.413 1.410 1.406 1.403 1.400 1.397 0.39 0.40 1.393 1.390 1.387 1.384 1.381 1.377 1.374 1.371 1.368 1.365 0.40 0.41 1.362 1.359 1.356 1.353 1.350 1.347 1.344 1.341 1.338 1.335 0.41 0.42 1.333 1.330 1.327 1.324 1.321 1.318 1.315 1.313 1.310 1.307 0.42 0.43 1.304 1.302 1.299 1.296 1.293 1.291 1.288 1.285 1.283 1.280 0.43 0.44 1.277 1.275 1.272 1.269 1.267 1.264 1.262 1.259 1.257 1.254 0.44 0.45 1.252 1.249 1.246 1.244 1.241 1.239 1.237 1.234 1.232 1.229 0.45 0.46 1.227 1.224 1.222 1.220 1.217 1.215 1.212 1.210 1.208 1.205 0.46 0.47 1.203 1.201 1.199 1.196 1.194 1.192 1.189 1.187 1.185 1.183 0.47 0.48 1.180 1.178 1.176 1.174 1.172 1.169 1.167 1.165 1.163 1.161 0.48 0.49 1.159 1.157 1.154 1.152 1.150 1.148 1.146 1.144 1.142 1.140 0.49

Aλ 0 1 2 3 4 5 6 7 8 9 Aλ

(18)

© Stanisław Węglarczyk, XII 2005

PRZYKŁAD: jeśli Aλ = 0.052, to z wiersza 0.05 (kolumna 2) odczytujemy wartość λ= 9.779. Równanie daje wtedy wartość α

Inne rozwiązanie równania na λ. Możliwe jest jednak przybliżone analitycz- ne rozwiązanie analizowanego równania (6.42). Antoniewicz [37] podaje rozwinięcie funkcji ψ(λ) :

2 4

1 1 1

ψ( ) ln ...

2 12 120

x x

x x x

= − − + − (6.44)

Jeśli pozostawimy tylko trzy pierwsze wyrazy i wstawimy otrzymane przybliżenie do (6.42), to otrzymamy równanie kwadrato-

we na 1/λ:

2

1 1

12 2 Aλ 0

λ + λ = (6.45)

skąd, z wystarczającą dla potrzeb prak- tycznych dokładnością, łatwo dostajemy jednoznaczny wynik:

1 1 4 3 4

A A

λ

λ

λ

+ +

= (6.46)

Rys. 6.12 uzasadnia wizualnie przyjętą aproksymację .

Przykład 6.11. Porównanie MM i MNW dla rozkładu gamma. Dla tej samej próby losowej jak z przykładu 6.8, znaleziono estymatory NW:

metoda αˆ λˆ

1. MM (6.25) 0.151 2.795 2. MNW (6.42) 0.117 2.161 3. MNW (6.46) 0.117 2.164

Na rys. 6.13 wykreślono dystrybuanty rozkładu gamma dla trzech zestawów pa- rametrów.

Rys. 6.12. Porównanie funkcji ψ(λ) dokładnej (linia ciągła gruba) i przybliżonej (6.44) (linia cienka przerywana)

Rys. 6.13. Dystrybuanty: empiryczna, rozkładu gamma z parametrami znalezionymi MM (gruba linia ciągła) (6.25), z parametrami znalezionymi MNW z dokładnym rozwiązaniem równania (6.42) (cienka linia ciągła) i MNW przybliżone (wykorzystane równanie (6.46)) (prostokąty).

ψ( )λ

λ

(19)

© Stanisław Węglarczyk, XII 2005

Różnice pomiędzy estymowanymi dystrybuantami są niewielkie. Estymatory obu wariantów MNW parametrów α i λ dają bardzo zbliżone wartości i wykreślone na rys.

6.13 dystrybuanty praktycznie nie są do odróżnienia.

6.4 ESTYMACJA PRZEDZIAŁOWA – PRZEDZIAŁ UFNOŚCI

W przypadku estymacji przedziałowej odpowiedź na pytanie o wartość niezna- nego parametru g populacji generalnej dawana jest inaczej niż w przypadku estymacji punktowej. Poszukuje się mianowicie pewnej metody (Ĝ*, Ĝ*) – tzw. przedziału ufności – "produkowania" przedziałów (ĝ*, ĝ*), która z zadanym wysokim prawdopodobieństwem (1-") (a więc z wysoką częstością), z reguły większym od 90%, zapewnia „sukces”, tj. pokrycie parametru g przez przeciętny przedział (ĝ*, ĝ*).

Następnie za pomocą tej metody wyznacza się jeden taki przedział (ĝ*, ĝ*). Jest on realizacją losowego przedziału (Ĝ*, Ĝ*) i zarazem oceną wartości nieznanego parametru g, podaną jako przedział. Znaleziony przedział (ĝ*, ĝ*) nie musi zawierać oszacowywanej wartości g, ponieważ jednak zastosowana metoda zapewnia sukces w wysokim procencie, ufamy, że i tym razem sukces ten wystąpił i obliczony przedział (ĝ*, ĝ*) zawiera wartość g.

6.4.1 Określenie metody

Formalnie przedział ufności jest zdefiniowany wzorem

(

ˆ* ˆ*

)

P (G G, )∋g = −1 α (6.47)

Symbol ∋ należy tutaj czytać "pokrywa" lub "zawiera". Mniej tajemniczo, ale też i mniej spójnie z podaną informacją, można napisać tak:

(

ˆ* ˆ*

)

P G <g <G = −1 α (6.48)

Wartość 1-α – tzw. poziom ufności – jest zadana i z reguły wynosi 95 lub 99%.

Oznacza ona prawdopodobieństwo pokrycia parametru g przez przedział (Ĝ*, Ĝ*).

Zmienne losowe Ĝ* i Ĝ* nie zależą od g.

Wyrazimy stosunek pomiędzy g, (ĝ*, ĝ*) i (Ĝ*, Ĝ*) w sposób nieco obrazowy. Niech na osi x leży w ustalonym (ale poza tym nieznanym) miejscu parametr g (jest on liczbą). Tworzymy pewną metodę (Ĝ*, Ĝ*) rzutu odcinkiem (o stałej albo zmiennej długości) na oś x tak, aby średnio w 99 rzutach na 100 (1-α=0.99) odcinek pokrył nieznaną wartość g. Następnie wykorzystujemy tę metodę jeden raz otrzymując jeden konkretny przedział (ĝ*, ĝ*). Otrzymany przedział oczywiście albo zawiera, albo też nie zawiera parametru g – tego nigdy nie wiemy – ale możemy mieć duży stopień pewności, że jednak zawiera, gdyż tak specyficznie skonstruowana była nasza metoda.

(20)

© Stanisław Węglarczyk, XII 2005

Wyrażając to samo w języku statystyki powiemy, że przedział ufności (ĝ*, ĝ*) zawiera parametr g na poziomie ufności 99%. Informację tę możemy sformułować jeszcze inaczej (jakkolwiek mniej precyzyjnie): na poziomie ufności 99%

g=gˆ± ∆ g (6.49)

gdzie

(

* *

)

ˆ 1 ˆ ˆ

g=2 g +g (6.50)

jest środkiem obliczonego przedziału, a

(

* *

)

1 ˆ ˆ g 2 g g

∆ = − (6.51)

– długością przedziału ufności.

6.4.2 Konstrukcja przedziału ufności

Technika konstrukcji przedziału ufności dla nieznanej wartości g danego parametru g cechy X badanej populacji może być przedstawiona następująco.

1. Znajdujemy pewną statystykę U – funkcję estymatora Ĝ i parametru g, U(Ĝ,g), której rozkład (albo dokładny, albo asymptotyczny) jest znany.

2. Następnie ustalamy poziom ufności 1-α, czyli zakładamy, że

(

1 2

)

P u <U <u = −1 α (6.52)

3. Równanie to zawiera dwie niewiadome: u1 i u2, u1<u2, (zob. rys. 6.14), toteż, aby mogło być roz- wiązane, należy postawić dodatkowy warunek. Ma on zwykle (możliwe są więc inne przedziały ufnoś- ci) postać:

(

1

) (

2

)

P P

U u U u α2

≤ = ≥ = (6.53)

(równość pól w obu ogonach rozkładu). Łącząc wzory (6.52) i (6.53) i używając dystrybuanty FU(u) zmiennej U dostaniemy osobne warunki na kwan- tyle u1 i u2:

( )

1 1

( )

2

U U 2

F u F u α

= − = (6.54)

których wartości możemy odczytać z odpowiednich tablic rozkładu FU(u) (albo obliczyć).

u fUHuL

PHu1<U<u2L=1−α αê2 1−α αê2

u1 u2

Rys. 6.14. Realizacja (u1, u2) prze- działu ufności

(21)

© Stanisław Węglarczyk, XII 2005

4. Dalej przekształcamy nierówność

1 ( , )ˆ 2

u <U G g <u (6.55)

tak, aby otrzymać jej równoważną postać

*

ˆ*( ) ˆ ( )

G u′ <g<G u′′ (6.56)

gdzie u' i u" są wartościami u1, u2 lub u2, u1, która to kolejność zależy od postaci funkcji U(Ĝ,g) (p.

rys. 6.15). Dopóki do wzoru nie podstawiliśmy obliczonych na podstawie próby wartości , dopóty przedział (Ĝ*, Ĝ*) jest zmienną losową, a 1-" – prawdopodobieństwem; po podstawieniu ĝ (i ewentualnie wartości innych statystyk zawartych we wzorze U(Ĝ,g)) przedział (Ĝ*, Ĝ*) przyjmuje jedną ze swoich możliwych wartości, mianowicie (ĝ*, ĝ*), a wartość 1-α jest poziomem ufności – miarą naszego zaufania, że obliczony przedział zawiera parametr g. Teraz wartość 1-α nie jest prawdopodobieństwem.

Aby pojęcie przedziału ufności uczynić bar- dziej wyrazistym, przeanalizujmy dwa przykłady – jeden ze stałym co do długości przedziałem ufności, drugi z przedziałem o losowej długości.

6.4.3 Przedział ufności dla wartości oczekiwanej EX w populacji N(µ,σ), σ znane

Dana jest populacja, której cecha X ma rozkład normalny N(µ,σ) (populacja normalna) i parametr σ ma znaną wartość. Chcemy zbudować (1-α)100% przedział ufności dla nieznanej wartości oczekiwanej EX (mówiąc językiem potocznym: chcemy znaleźć wartość nieznanego parametru wraz z oceną niepewności tego oszacowania).

Ponieważ populacja jest normalna, to EX=µ. Statystyka

U X µ n

σ

= − (6.57)

jest funkcją zarówno parametru µ jak i jego estymatora – nadaje się więc do budowania przedziału ufności dla µ. Jak wiemy (??) U ma rozkład N(0,1). Jeżeli ustalimy poziom ufności 1-α, to równania (6.54) przyjmą teraz postać

Rys. 6.15. Dwie możliwości związku pomiędzy statystyką U a granicami przedziału ufności

Cytaty

Powiązane dokumenty

Estymatorem efektywnym parametru θ nazwiemy estymator nieobciążony o najmniejszej wariancji.. Jaki powinien być

3. Każdego dnia pan Iksiński wypija pewną ilość kawy: zero, jedną, dwie lub trzy filiżanki. Szansa na to, że nie wypije żadnej kawy jest taka sama jak szansa, że wypije

Wiadomo, że biurka I rodzaju cieszą się dwukrotnie większym powodzeniem (tzn. prawdopodobieństwo tego, że klient kupujący biurko zdecyduje się na biurko I rodzaju wynosi 2/3)..

Jaka jest szansa, że na pewnym piętrze wysiądą 3 osoby, na innym 2 i na dwóch piętrach

Rzucamy dwa razy symetryczną, sześcienną kostką, której jedna ściana ma jedno oczko, dwie mają dwa oczka i trzy ściany mają po trzy oczka.. Oblicz prawdopodobieństwo, że

Z uwagi jednak na fakt, że w łodziach próbujących pokonać Morze Śródziemne znajdują się obok Erytrejczyków, Sudańczyków i Somalijczyków również Gambijczycy, Senegalczycy

5. Losujemy jedną kulę, a następnie wrzucamy ją ponownie do urny dorzucając dodatkowo k kul białych, jeśli była to kula biała lub k kul czarnych, jeśli była czarna.

Kwestia wynagrodzeń w ochronie zdrowia nie była uregulowana w ciągu ostatnich kilku lat i są duże żądania ze strony rezydentów, stażystów, lekarzy, żeby się tym zająć..