Wªasno±ci estymatorów: obci¡»enie, ryzyko, zgodno±¢
Niech X = (X1, . . . , Xn) b¦dzie prób¡ losow¡ na przestrzeni próbkowej Xn, za± {Pθ : θ ∈ Θ}b¦dzie rodzin¡ rozkªadów prawdopodobie«stwa na Xn.
Denicja 1. Estymator ˆg(X) wielko±ci g(θ) jest nieobci¡»ony, je»eli dla ka»dego θ ∈ Θ Eθˆg(X) = g(θ).
Denicja 2. Je»eli statystyka ˆg(X) jest estymatorem g(θ), to wielko±¢
b(θ) = Eθ(ˆg(X) − g(θ)), θ ∈ Θ nazywamy obci¡»eniem tego estymatora.
Denicja 3. Ryzykiem ±redniokwadratowym estymatora ˆg(X) wielko±ci g(θ) nazywamy funkcj¦ postaci
R(θ) = Eθ(ˆg(X) − g(θ))2, θ ∈ Θ.
Fakt 1. R(θ) = V arθˆg(X) + b(θ)2.
Fakt 2. Je»eli estymator ˆg(X) wielko±ci g(θ) jest nieobci¡»ony, to R(θ) = V arθˆg(X).
Denicja 4. Mówimy, »e estymator g1(X)jest lepszy ni» g2(X), je»eli dla ka»dego θ ∈ Θ R1(θ) ≤ R2(θ)
i dla pewnego θ ∈ Θ mamy R1(θ) < R2(θ).
Denicja 5. Estymator ˆg(X) wielko±ci g(θ) jest zgodny, je»eli
∀θ∈Θ g(X) −→ˆ Pθ g(θ), n → ∞, czyli dla ka»dego θ ∈ Θ mamy
∀>0 Pθ(|ˆg(X) − g(θ)| ≥ )−→ 0 .n→∞
Denicja 6. Estymator ˆg(X) wielko±ci g(θ) jest mocno zgodny, je»eli
∀θ∈Θ g(X) −→ˆ p.w.g(θ), n → ∞, czyli dla ka»dego θ ∈ Θ mamy
Pθ
n→∞lim g(X) = g(θ)ˆ
= 1.
Twierdzenie (Mocne Prawo Wielkich Liczb). Niech X1, X2, . . . b¦dzie ci¡giem pa- rami niezale»nych zmiennych losowych o jednakowym rozkªadzie. Je»eli E|X1| < ∞,
to X1+ . . . + Xn
n
n→∞−→ EX1, P-prawie wsz¦dzie.