• Nie Znaleziono Wyników

Parametry rozkładu: nadzieja matematyczna, momenty i korelacja

Funkcja g˛esto´sci i funkcja dystrybucji prawdopodobie´nstwa daj ˛a si˛e scharakteryzowa´c za pomoc ˛a ró˙znych parametrów, pozwalaj ˛acych na ustalenie ich własno´sci. Jednym z takich parametrów jest poj˛ecie warto´sci ´sredniej zmiennej losowej, które w statystyce znane jest tak˙ze pod takimi okre´sleniami jak warto´s´c oczekiwana, nadzieja matematyczna, warto´s´c przeci˛etna. 

3.7.1 Warto´s´c oczekiwana

Warto´s´c oczekiwana E[˜x] (je´sli istnieje), definiowana jest jako pewna typowa warto´s´c µx zmiennej losowej ˜x, obliczona z wszystkich mo˙zliwych warto´sci zmiennej ˜x. Typowa w tym znaczeniu, ˙ze w danym zjawisku losowym powinni´smy si˛e spodziewa´c rezultatu bliskiego wła´snie tej warto´sci.

W przypadku zmiennej dyskretnej obliczamy j ˛a jako sum˛e wszystkich mo˙zliwych war-to´sci xizmiennej ˜x, pomno˙zonych przez odpowiadaj ˛ace im prawdopodobie´nstwa P [xi]

E[˜x] = µx =

n

X

i=1

xiP [xi] (3.32)

Wyra˙zenie (3.32) pozwala na ustalenie gdzie ma korzenie nazwa warto´s´c ´srednia zmiennej

˜

x. Mianowicie, je´sli mamy n mo˙zliwych warto´sci xi zmiennej ˜x, o jednakowych prawdo-podobie´nstwach P [xi] = 1/n, wówczas warto´s´c oczekiwana µxjest identyczna ze ´sredni ˛a arytmetyczn ˛a warto´sci xi . Je´sli prawdopodobie´nstwa P [xi] nie s ˛a sobie równe, równanie (3.32) prowadzi do poj˛ecia ´sredniej arytmetycznej wa˙zonej. Wagi poszczególnych warto´sci xis ˛a w takim przypadku proporcjonalne do odpowiadaj ˛acych im prawdopodobie´nstw. Dla zmiennej losowej ci ˛agłej ˜x o ci ˛agłej funkcji g˛esto´sci f (x), warto´s´c oczekiwana dana jest za pomoc ˛a całki

E[˜x] = Z

−∞

xf (x)dx (3.33)

Definicj˛e (3.33) mo˙zna uogólni´c np. na przypadek, w którym interesuje nas warto´s´c oczeki-wana pewnej funkcji g(˜x) zmiennej losowej ˜x, o funkcji g˛esto´sci f (x). Wówczas mamy

E[g(˜x)] = Z

−∞

g(˜x)f (x)dx (3.34)

Definicj˛e (3.34) mo˙zna rozszerzy´c na przypadek dwóch i wi˛ekszej liczby zmiennych losowych. Je´sli dla wektora dwuwymiarowego ˜x = [˜x1, ˜x2]T o rozkładzie ł ˛acznym danym ci ˛agł ˛a funkcj ˛a f (x1, x1), dana jest funkcja g(˜x1, ˜x2), to jej warto´sci ˛a oczekiwan ˛a jest całka podwójna

E[g(˜x1, ˜x2)] = Z

−∞

Z

−∞

g(˜x1, ˜x2)f (x1, x2)dx1dx2 (3.35)

3.7 Parametry rozkładu: nadzieja matematyczna, momenty i korelacja 47

Dla przypadku n wymiarowego b˛edzie, E[g(˜x1, . . . , ˜xn)] =

Z

−∞

. . . Z

−∞

g(˜x1, . . . , ˜xn)f (x1, . . . , xn)dx1. . . dxn (3.36)

Operator warto´sci oczekiwanej jest operatorem liniowym, st ˛ad jego działanie podlega pew-nym po˙zyteczpew-nym prawom, które podajemy bez dowodów:

E[c] = c c = const (3.37)

E[c˜x]) = cE[˜x] c = const (3.38)

E[E[˜x]] = E[˜x] (3.39)

E[(˜x + ˜y)] = E[˜x] + E[˜y] (3.40)

E[˜x˜y] = E[˜x]E[˜y] (˜x i ˜y niezalezne) (3.41)

E[˜x2] 6= (E[˜x])2) (w ogolnosci) (3.42)

Przykład.

Je˙zeli ˜x, ˜y, ˜z s ˛a niezale˙znymi zmiennymi stochastycznymi wyst˛epuj ˛acymi w funkcji postaci

˜

w = 3˜x + 5˜y ˜z − 2

to jaka jest warto´s´c oczekiwana zmiennej ˜w, je´sli znane s ˛a warto´sci ´srednie µx, µy, µz? Rozwi ˛azanie.Do warto´sci oczekiwanej E[ ˜w] stosujemy własno´sci (3.39)–(3.42)

E[ ˜w] = µw = E[3˜x + 5˜y ˜z − 2] = 3µx+ 5µyµz− 2

3.7.2 Wariancja

Niech funkcja g(˜x) jest zdefiniowana nast˛epuj ˛aco:

g(˜x) = (˜x − E[˜x])2= (˜x − µx)2 (3.43)

Warto´s´c oczekiwana tej funkcji nazywana jest wariancj ˛azmiennej losowej ˜x var(˜x) = σx2= E[g(˜x)] = E[(˜x − E[˜x])2] =

Z

−∞

(x − µx)2f (x)dx (3.44)

gdzie f (x) jest ci ˛agł ˛a funkcj ˛a g˛esto´sci zmiennej ˜x.

Pierwiastek kwadratowy wariancji nazywany jest odchyleniem standardowym. Oby-dwa parametry s ˛a miar ˛a dyspresji (rozrzutu) zmiennej losowej, co zreszt ˛a łatwo zauwa˙zy´c przygl ˛adaj ˛ac si˛e równaniom (3.43), (3.44) — funkcja, której warto´s´c oczekiwan ˛a obliczamy zale˙zy od zmiennej losowej mierz ˛acej odległo´s´c zmiennej ˜x od pewnej warto´sci ustalonej µx.

Korzystaj ˛ac z podanych wcze´sniej praw, mo˙zna pokaza´c, ˙ze wariancj˛e da si˛e obliczy´c

W przypadku zmiennej stochastycznej wielowymiarowej po˙zytecznymi parametrami s ˛a nie tylko warto´sci ´srednie i miary dyspersji zmiennych. Dla takiej zmiennej wa˙znymi parame-trami s ˛a jeszcze kowariancja i korelacja.

Niech ˜x i ˜y b˛ed ˛a zmiennymi losowymi o ł ˛acznym rozkładzie f (x, y), oraz niech b˛edzie okre´slona funkcja

h(˜x, ˜y) = (˜x − E[˜x])(˜y − E[˜y]) = (˜x − µx)(˜y − µy) Kowariancjami˛edzy ˜x i ˜y to warto´s´c oczekiwana funkcji h(˜x, ˜y)

cov(˜x, ˜y) = σxy = E[h(˜x, ˜y)] = E[(˜x − µx)(˜y − µy)] (3.46) co w przypadku zmiennych losowych ci ˛agłych oznacza wyra˙zenie

σxy =

Wariancja zmiennej losowej wyra˙za jej zmienno´s´c w stosunku do warto´sci oczekiwanej, kowariancja opisuje współzmienno´s´c dwóch zmiennych losowych. Odzwierciedla wza-jemne zwi ˛azki pomi˛edzy nimi, albo jak mówimy odzwierciedla wzajemn ˛a korelacj˛e. Miar ˛a korelacji jest współczynnik korelacji ρ okre´slony formuł ˛a

ρxy = σxy gdzie σx, σys ˛a odchyleniani standardowymi brzegowych rozkładów zmiennych ˜x i ˜y.

Korelacja opisuje wzajemn ˛a współzale˙zno´s´c zmiennych losowych. Trzeba jednak wy-ra´znie odró˙zni´c ten typ współzale˙zno´sci od statystycznej zale˙zno´sci b ˛ad´z niezale˙zno´sci, okre´slonej za pomoc ˛a koncepcji rozkładu warunkowego (patrz równania (3.30), (3.31)).

Korelacja i statystyczna zale˙zno´s´c to nie to samo, mimo i˙z oba poj˛ecia bywaj ˛a u˙zywane jako synonimy.

Mo˙zna pokaza´c, ˙ze kowariancja (korelacja) zawsze wynosi zero gdy zmienne losowe ˜x i ˜y s ˛a statystycznie niezale˙zne. Zgodnie z (3.47) i (3.28) b˛edzie

σxy =

3.7 Parametry rozkładu: nadzieja matematyczna, momenty i korelacja 49

Odwrotna własno´s´c w ogólnym przypadku nie jest prawdziwa. Zerowa kowariancja nie musi poci ˛aga´c niezale˙zno´sci statystycznej.

Jednak warto zapami˛eta´c, ˙ze dla wielowymiarowego rozkładu normalnego prawdopo-dobie´nstwa, zerowa kowariancja (brak korelacji) jest warunkiem wystarczaj ˛acym dla nieza-le˙zno´sci statystycznej.

3.7.4 Momenty

Koncepcja warto´sci oczekiwanej i kowariancji s ˛a szczególnymi przypadkami koncepcji ogólniejszych tzw. momentów statystycznych. I tak warto´s´c oczekiwana funkcji g(˜x) = (˜x − c)k, gdzie c jest stał ˛a, zwana jest momentem statystycznym rz˛edu k zmiennej losowej

˜

x wzgl˛edem c, co piszemy w postaci

mk(˜x) = E[(˜x − c)k] (3.50)

gdzie k oznacza rz ˛ad momentu.

W przypadku dyskretnej zmiennej losowej wykorzystuj ˛ac definicj˛e (3.32) warto´sci ocze-kiwanej, dla c = 0 b˛edziemy mieli

¯

mk(˜x) = E[˜xk] =

n

X

i=1

xkiP [xi] (3.51)

a dla zmiennej losowej ci ˛agłej zdefiniowanej wyra˙zeniem (3.33), b˛edzie

¯

mk(˜x) = E[˜xk] = Z

−∞

xkf (x)dx (3.52)

Klasa momentów okre´slona wzorem (3.50) nosi miano momentów centralnych. Momenty okre´slone formułami (3.51) i (3.52) nazywane s ˛a momentami zwykłymi.

W grupie momentów centralnych szczególnie wa˙zne znaczenie praktyczne maj ˛a te mo-menty, dla których stała c wynosi

c = µx= E[˜x]

czyli, momenty centralne definiowane s ˛a jako warto´sci oczekiwane pot˛eg ró˙znicy zmiennej

˜

x i jej warto´sci ´sredniej

mk(˜x) = E[(˜x − E[˜x])k] (3.53)

Widzimy, ˙ze równanie (3.43) jest szczególnym przypadkiem równania (3.53) dla k = 2.

Wariancja σ2xzmiennej losowej ˜x jest identyczna z momentem centralnym rz˛edu 2, bowiem σx2 = m2(˜x).

Momenty zmiennej losowej ˜x odzwierciedlaj ˛a ró˙zne własno´sci jej funkcji rozkładu.

Je´sli funkcja rozkładu prawdopodobie´nstwa jest symetryczna wzgl˛edem pierwszego zwyk-łego momentu ¯m1(˜x) = E[˜x] = µx, wówczas dla tej zmiennej losowej znikaj ˛a wszystkie centralne momenty nieparzystego rz˛edu, tzn. mk = 0 gdy k jest nieparzyste. Z drugiej

strony, je´sli nieparzyste momenty centralne nie równaj ˛a si˛e zeru, ich warto´sci odzwiercied-laj ˛a stopie´n asymetrii lub uko´sno´sci funkcji rozkładu. Zatem trzeci moment centralny jest miar ˛a asymetrii rozkładu. W zastosowaniach praktycznych wykorzystywana jest wielko´s´c zwana sko´sno´sci ˛a rozkładu(współczynnikiem asymetrii) obliczana jako

γ1= m3(˜x)

m1.52 (˜x) = m3(˜x)

σ3(˜x) (3.54)

Dla rozkładu, w którym po prawej stronie maksimum mamy wi˛ecej prawdopodobie´nstwa ni˙z po stronie lewej, sko´snos´c ma warto´s´c dodatni ˛a.

Czwarty moment centralny wykorzystywany jest jako miara spłaszczenia γ2 rozkładu γ2= m4(˜x)

m22(˜x)− 3 = m4(˜x)

σ4(˜x) − 3 (3.55)

Zamiast spłaszczenia mo˙zemy napotka´c inne okre´slenia jak kurtoza (wyd˛ecie), eksces.

Liczba 3 wyst˛epuj ˛aca w definicji (3.55), w przypadku rozkładu Gaussa prowadzi do zerowej warto´sci kurtozy. Inne rozkłady, bardziej płaskie od rozkładu Gaussa maj ˛a spłaszczenie ujemne, tzw. rozkłady platykurtyczne. Te z kurtoz ˛a dodatni ˛a nazywamy leptokurtycznymi (za lit. [5].

Definicje momentów mo˙zna rozci ˛agn ˛a´c na przypadki zmiennej wielowymiarowej. Niech (˜x, ˜y) b˛edzie dwuwymiarowym wektorem losowym. Warto´s´c oczekiwana pewnej ogólnej funkcji g(˜xl, ˜yk) nazywana jest momentem rz˛edu (l+k). Odpowiadaj ˛acy zmiennym (˜x, ˜y) moment centralny rz˛edu (l + k) dany jest jako wyra˙zenie

mlk(˜x, ˜y) = E

Dla dwuwymiarowej funkcji rozkładu, mamy do dyspozycji trzy momenty centralne rz˛edu drugiego. Niech ¯m10i ¯m01b˛ed ˛a pierwszymi zwykłymi momentami (warto´sci ´sred-nie) zmiennych ˜x i ˜y, odpowiednio. Wówczas momenty centralne rz˛edu drugiego tych zmiennych s ˛a postaci:

m20 = E[(˜x − ¯m10)2] = E[(˜x − µx)2] = σ2x

m02 = E[(˜y − ¯m01)2] = E[(˜y − µy)2] = σ2y (3.57) m11 = E[(˜x − ¯m10)(˜y − ¯m01)] = E[(˜x − µx)(˜y − µy)] = σxy

Momenty te graj ˛a szczególn ˛a rol˛e w statystycznych metodach opracowania obserwacji.

W przypadku n-wymiarowego wektora losowego ˜x, momenty centralne drugiego rz˛edu mo˙zna tworzy´c bior ˛ac wszystkie kombinacje pomi˛edzy składowymi wektora. Zbiór wszys-tkich momentów wygodnie jest uj ˛a´c w formie macierzy zwanej macierz ˛a momentów cen-tralnych drugiego rz˛edu lub macierz ˛a warinacjii kowariancji. Macierz ta ma posta´c

Mxx =

Powiązane dokumenty