Statystyka Matematyczna
Anna Janicka
wykład V, 21.03.2016
WŁASNOŚCI ESTYMATORÓW, CZ. I
Plan na dzisiaj
1. Podstawowe własności estymatorów:
obciążenie estymatora estymatory nieobciążone
2. Mierniki jakości: porównywanie estymatorów
ryzyko estymatora
nieporównywalne estymatory
estymator nieobciążony o minimalnej wariancji
3. Informacja Fishera
Własności estymatorów
Czy nie robimy za dużych błędów? Czy estymujemy to, co chcemy?
ma przybliżać θ .
Ogólniej: ma przbliżać g( θ ).
Chcemy: mały błąd przybliżenia. Ale
błąd jest zmienną losową (dane są losowe)
→ możemy badać wartość oczekiwaną błędu błąd zależy od nieznanego θ .
→ trudno...
θ ˆ
)
ˆ X (
g
Obciążenie estymatora
Jeśli statystyka jest estymatorem θ : obciążenie estymatora to
Jeśli statystyka jest estymatorem g( θ ):
obciążenie estymatora to
Estymator / jest nieobciążony, jeśli
inne oznaczenia, np:
) ˆ X (
θ
) ( )
ˆ ( ))
( )
ˆ ( ( )
( θ E
θg X g θ E
θg X g θ
b = − = −
θ θ
θ θ
θ ) =
θ( ˆ ( ) − ) =
θˆ ( ) −
( E X E X
b
) ˆ X ( g
) ˆ X ( ) g
ˆ X ( θ
Θ
∈
∀
= θ
θ ) 0 dla (
b
ˆ) (g Bθ
Przypomnienie z wykładu 3: model normalny
Model normalny: X
1, X
2, ..., X
nsą próbką z rozkładu N( µ , σ
2). µ , σ nieznane.
Tw. W modelu normalnym, statystyki i S
2są niezależnymi zmiennymi
losowymi, t. że
W szczególności:
X ) ,
(
~ N
2 nX µ
σ) 1 (
~
21 2
2
χ −
−
S n
n σ
) 1 2 (
Var oraz
,
, 2 42 2
,
= = −
S n S
E
µ σσ
µ σσ
X n X
E
µ,σ= µ , oraz Var
µ,σ= σ
2Obciążenie estymatora – Przykład 1
W modelu normalnym:
Estymator jest nieobciążonym estymatorem µ :
Podobnie, jest nieobciążonym estymatorem µ :
Estymator jest obciążony:
obciążenie:
= X
µ ˆ
µ µ
µ
µ σ µ σσ
µ
X = E X = E ∑
=X = n =
E
n ni i
n
1 1
1 ,
, ,
ˆ ( )
1
ˆ
1= X
µ
µ
µ
µ σσ
µ,
ˆ
1( X ) = E
,X
1= E
5 ˆ
2=
µ
2 dla
np.
5
5 )
(
ˆ
2 ,,σ
µ =
µ σ= ≠ µ µ =
µ
X E
E
µ µ ) = 5 − (
b
dowolnym, o nieznanym
µ
:Obciążenie estymatora – Przykład 1 cd.
Estymator jest obciążonym estymatorem σ
2:
Zaś estymator jest nieobciążonym estymatorem σ
2:
∑
=−
=
ni i
n
X X
S
11 2
2
( )
ˆ
(
2 2 2)
2 21
2 2
, 1
1 1 2
, 2
,
2
2
)
( )
(
) (
) (
) ˆ (
σ σ
µ σ
µ
σ σσ µ σ
µ σ
µ
≠
−
= +
− +
=
−
=
−
= ∑
=∑
n n n
n i n
i i
n
n n
X n X
E X
X E
X S
E
∑
=−
−
=
ni i
n
X X
S
12 1
2 1
) (
(
2 2 2)
11(
2)
21 1
2 2
1 , 1 1
2 1
1 ,
2 ,
) 1 (
) (
) (
) (
) (
) (
2
σ σ
µ σ
µ
σσ µ σ
µ σ
µ
=
−
= +
− +
=
−
=
−
=
−
−
= −
−
∑ ∑
n n
n
X n X
E X
X E
X S
E
n n n
n i n
i i
n
analogicznie: nie tylko dla modelu normalnego
Obciążenie estymatora – Przykład 1 cd (2)
Obciążenie estymatora to
gdy n → ∞, obciążenie dąży do 0, a więc ten estymator też jest OK dla dużych prób
∑
=−
=
ni i
n
X X
S
11 2
2
( )
ˆ
b n
2
)
( σ
σ = −
dla dowolnego rozkładu mającego wariancję
Asymptotyczna nieobciążoność
Estymator parametru g( θ ) jest asymptotycznie noeobciążony, jeśli
0 )
( lim
: =
Θ
∈
∀ θ
→∞b θ
n
)
ˆ X (
g
Jak porównywać estymatory?
Chcemy minimalizować błąd
estymatora; estymator, który mniej się myli jest lepszy.
Błąd może być na + albo na -, stąd standardowo patrzy się na kwadrat błędu (średni kwadrat odchylenia
estymatora od wartości estymowanej)
Ryzyko estymatora (ryzyko kwadratowe)
Jeśli statystyka jest estymatorem θ : ryzyko estymatora to funkcja
Jeśli statystyka jest estymatorem g( θ ):
ryzyko estymatora to funkcja
My rozważać będziemy tylko ryzyko kwadratowe (błąd średniokwadratowy). Możliwe też inne (np. z modułem)
) ˆ X (
θ
))
2( )
ˆ ( ( ˆ )
,
( θ g E
θg X g θ
R = −
)
2) ˆ (
( ˆ )
,
( θ θ = E
θθ X − θ
R
) ˆ X ( g
) ˆ X (
θ
)
ˆ X (
g
Własności ryzyka kwadratowego
Mamy:
A zatem dla estymatorów nieobciążonych ryzyko to wariancja estymatora
ˆ ) ( Var )
( ˆ )
,
( g b
2g
R θ = θ +
Ryzyko estymatora – Przykład 1
Model: X
1, X
2, ..., X
nsą próbką z rozkładu o średniej µ , wariancji σ
2. µ , σ nieznane.
Ryzyko estymatora (nieobc.):
Ryzyko estymatora (nieobc.):
Ryzyko estymatora (obc.):
= X
µ ˆ
X n Var
X E
X R
2 ,
2
,
( )
) ,
,
( σ
µ σ
µ =
µ σ− =
µ σ=
1
ˆ
1= X
µ
5 ˆ
2=
µ
2 1
, 2
1 ,
1
) ( )
, ,
( µ σ X = E
µ σX − µ = Var
µ σX = σ
R
2 2
,
( 5 ) ( 5 )
) 5 , ,
( µ σ = E
µ σ− µ = − µ
R
Ryzyko estymatora – Przykład 1 cd.
Ryzyko estymatora
Ryzyko estymatora S ˆ
2=
n1∑
ni=1( X
i− X )
2∑
=−
−
=
ni i
n
X X
S
12 1
2 1
) (
1 ) 2
( )
, , (
4 2
, 2
2 2
, 2
= −
=
−
= E S Var S n
S
R σ
σ σ
µ
µ σ µ σ4 2
4 2
2 2
4
2 ,
2 2
2 2
, 2
1 2
1 2
) 1 (
) ˆ (
ˆ ) ( ˆ )
, , (
σ σ σ
σ σ
σ
µ
µ σ µ σn n n
n n n
S Var
b S
E S
R
= −
− + −
=
+
=
−
=
ˆ ) , , ( )
, ,
( S
2R S
2R µ σ > µ σ
w modelu dowolnym:
analogicznie, tylko inne wzory
Ryzyko i obciążenie estymatora – Przykład 2.
Model Poissona: X
1, X
2, ..., X
nsą próbką z rozkładu Poissona z nieznanym
parametrem θ .
NW
= ... = X
θ ˆ
0 )
( θ = b
X n X
X
R
ni i
n
θ =
θ=
θ∑
=1= θ
Var
1Var )
,
(
Porównywanie estymatorów
Estymator jest lepszy od , jeśli
oraz
a zatem: jeden estymator jest lepszy od drugiego tylko jeśli cały wykres funkcji ryzyka jednego leży pod
wykresem drugiego; jeśli wykresy się krzyżują, to estymatory są nieporównywalne
) ˆ
1( X
g g ˆ
2( X )
ˆ ) , ( ˆ )
, (
R θ g
1R θ g
2θ ∈ Θ ≤
∀
ˆ ) , ( ˆ )
, (
R θ g
1R θ g
2θ ∈ Θ <
∃
Porównywanie estymatorów – cd.
Z uwagi na to, że bardzo wiele
estymatorów jest nieporównywalnych,
porównywanie byle czego nie ma sensu;
trzeba się ograniczyć do pewnej klasy estymatorów.
Jeśli porównujemy dwa estymatory
nieobciążone, to lepszy będzie ten, który
ma mniejszą wariancję.
Porównanie estymatorów – Przykład 1.
W modelu dowolnym:
Spośród estymatorów
lepszy jest (dla n>1) estymator Estymatory są nieporównywalne, tak samo jak estymatory
Spośród estymatorów lepszy jest
1
ˆ
1oraz
ˆ = X µ = X
µ
µ ˆ 5
ˆ oraz
ˆ = µ
2=
µ X
5 ˆ
oraz
ˆ
1=
1µ
2=
µ X
2 2
oraz S ˆ S
ˆ
2S
Estymator nieobciążony o minimalnej wariancji
Ograniczamy poszukiwania/porównania do estymatorów nieobciążonych. W tej klasie często da się znaleźć estymator najlepszy:
Statystyka g*(X) jest estymatorem
nieobciążonym o minimalnej wariancji dla g( θ ), jeśli
g*(X) jest nieobciążonym estymatorem g( θ ), dla każdego nieobciążonego estymatora
dla θ ∈Θ
) ˆ X ( g
) ˆ (
) (
* X Var g X g
Var
θ≤
θJak stwierdzić, że estymator ma minimalną wariancję?
W ogólności nie da się dowolnie zmniejszać wariancji estymatorów nieobciążonych – dla wielu modeli probabilistycznych istnieje pewna
granica zmniejszania wariancji. Zależy ona od konkretnego rozkładu i od
wielkości próby.
Informacja Fishera
Jeśli model statystyczny z obs. X
1, X
2, ..., X
ni p-stwem f
θspełnia warunki regularności, tzn.:
1. Θ jest przedziałem otwartym 1-wymiarowym.
2. Nośnik rozkładu {x: f
θ(x)>0} nie zależy od θ .
3. Istnieje pochodna .
to można zdefiniować Informację Fishera zawartą w obserwacjach X
1, X
2, ..., X
n:
nie zakładamy tu niezależności X1, X2, ..., Xn θ
θ
d df
( ln (
1,
2,..., ) )
2)
(
dd nn
E f X X X
I θ =
θ θ θInformacja Fishera – co oznacza
Miara tego, jak wiele może powiedzieć próba wielkości n (uśredniona) o
wartości nieznanego parametru θ .
Np. jeśli funkcja gęstości wokół θ jest
płaska, to informacja zawarta w (jednej) obserwacji nie będzie pozwalała
różnicować naszych przewidywań co do
θ . Jeśli jednak funkcja gęstości wokół θ
nie jest płaska, to info o wynikach wnosi
wiele.
Informacja Fishera – cd.
Wzory dla różnych przypadków:
jeśli rozkład ciągły
jeśli rozkład dyskretny
jeśli f
θdwukrotnie różniczkowalna
dx x
x f
I f
dx df
n
( )
) ) (
(
) 2 (
θ θ
θθ
θ ∫
=
X
∑
∈
=
X x
d x dP
n
P x
x
I P ( )
) ) (
(
) 2 (
θ θ
θθ
θ
( ln ( , ,..., ) )
)
(
2 1 22
d n d
n
E f X X X
I θ = −
θ θ θInformacja Fishera – cd. (2)
Jeśli próba składa się z niezależnych zmiennych losowych o identycznych rozkładach, to wówczas z uwagi na
multiplikatywność prawdopodobieństwa oraz własności logarytmu
I1(
θ
) jest informacją Fishera zawartą w pojedynczej obserwacji) (
)
( θ nI
1θ
I
n=
Informacja Fishera – przykład
Rozkład wykładniczy exp(λ)
1 2