Egzamin: Statystyka I, 11 września 2017
1. Policz macierz informacji Fishera dla rozkładu Gamma(α, 1/σ), czyli rozkładu o gęstości f (x) = Γ(α)−1σ−αxα−1e−x/σ, x > 0.
2. Mamy dwie niezależne próbki X1, ..., Xn∼ Ex(θx) oraz Y1, ..., Ym∼ Ex(θy). Udowodnij, że test ilorazu wiarygodności dla hipotezy H0 : θx= θy przeciw H1: θx 6= θy jest równoważny testowi T (Sx, Sy) < c, gdzie T = −|Sx/(Sx+ Sy) − 1/2|, Sx= X1+ ... + Xn, Sy= Y1+ ... + Ym. Testy T1 i T2 są równoważne, jeśli istnieje ściśle rosnąca funkcja ϕ taka, że dla każdego c {T1 > c} = {T2> ϕ(c)}.
3. Niech X będzie pojedyńczą obserwacją z rozkładu potęgowego o gęstości fθ(x) = θxθ−1I(0 < x < 1),
gdzie θ jest nieznanym parametrem. Testujemy H0: θ = 2 przeciw H1: θ > 2.
(a) Wyznacz test jednostajnie najmocniejszy na poziomie 1 − α = 0.95.
(b) Policz, dla jakich θ moc tego testu jest większa niż 0.9.
4. Niech X1, ..., Xn będzie próbą prostą z rozkładu o dystrybuancie Fα(x) = (1 + exp(−x))−1/α, dla α > 0.
(a) Znajdź estymator największej wiarygodności ˆα parametru α.
(b) Policz błąd średniokwadratowy ˆα.
(c) Policz ograniczenie Cramera-Rao dla estymacji α.
Wskazówka: Jeśli fη(x) = exp(ηT (x) − κ(η))h(x), to EηT (X) = ˙κ(η) oraz varηT (X) = ¨κ(η).
5. Rozważmy model liniowy y = Xβ + ε, gdzie X jest macierzą n × p, p < n pełnego rzędu oraz ε ∼ N (0, σ2I).
(a) Policz E|| ˆβ||2. (b) Policz ˆβλ= argminβ
||y − Xβ||2+ λ||β||2
dla pewnego λ > 0.
6. W modelu regresji logistycznej zakłada się, że obserwujemy niezależne zmienne Y1, Y2, . . . , Yn, gdzie Yi∼ Bin(1, pi) dla i = 1, . . . , n. Przy czym
log
pi
1 − pi
= β1Xi,1+ · · · + βpXi,p.
(a) Przypuśćmy, że prawdopodobieństwo bycia blondynem zależy do koloru oczu (niebieski,zielony, piwny). Zbuduj model regresji logistycznej odpowiadający tym przypuszczeniom.
(b) Dla losowej próbki osób Y1, Y2, . . . , Yn znajdź statystykę dostateczną dla modelu z pod- punktu a), o tym samym wymiarze co przestrzeń nieznanych parametrów.
(c) Wyznacz estymatory największej wiarygodności nieznanych parametrów w modelu logistycz- nym z podpunktu a) na podstawie obserwacji Y1, Y2, . . . , Yn.
1