Funkcja g˛esto´sci i funkcja dystrybucji prawdopodobie´nstwa daj ˛a si˛e scharakteryzowa´c za pomoc ˛a ró˙znych parametrów, pozwalaj ˛acych na ustalenie ich własno´sci. Jednym z takich parametrów jest poj˛ecie warto´sci ´sredniej zmiennej losowej, które w statystyce znane jest tak˙ze pod takimi okre´sleniami jak warto´s´c oczekiwana, nadzieja matematyczna, warto´s´c przeci˛etna.
3.7.1 Warto´s´c oczekiwana
Warto´s´c oczekiwana E[˜x] (je´sli istnieje), definiowana jest jako pewna typowa warto´s´c µx zmiennej losowej ˜x, obliczona z wszystkich mo˙zliwych warto´sci zmiennej ˜x. Typowa w tym znaczeniu, ˙ze w danym zjawisku losowym powinni´smy si˛e spodziewa´c rezultatu bliskiego wła´snie tej warto´sci.
W przypadku zmiennej dyskretnej obliczamy j ˛a jako sum˛e wszystkich mo˙zliwych war-to´sci xizmiennej ˜x, pomno˙zonych przez odpowiadaj ˛ace im prawdopodobie´nstwa P [xi]
E[˜x] = µx =
n
X
i=1
xiP [xi] (3.32)
Wyra˙zenie (3.32) pozwala na ustalenie gdzie ma korzenie nazwa warto´s´c ´srednia zmiennej
˜
x. Mianowicie, je´sli mamy n mo˙zliwych warto´sci xi zmiennej ˜x, o jednakowych prawdo-podobie´nstwach P [xi] = 1/n, wówczas warto´s´c oczekiwana µxjest identyczna ze ´sredni ˛a arytmetyczn ˛a warto´sci xi . Je´sli prawdopodobie´nstwa P [xi] nie s ˛a sobie równe, równanie (3.32) prowadzi do poj˛ecia ´sredniej arytmetycznej wa˙zonej. Wagi poszczególnych warto´sci xis ˛a w takim przypadku proporcjonalne do odpowiadaj ˛acych im prawdopodobie´nstw. Dla zmiennej losowej ci ˛agłej ˜x o ci ˛agłej funkcji g˛esto´sci f (x), warto´s´c oczekiwana dana jest za pomoc ˛a całki
E[˜x] = Z ∞
−∞
xf (x)dx (3.33)
Definicj˛e (3.33) mo˙zna uogólni´c np. na przypadek, w którym interesuje nas warto´s´c oczeki-wana pewnej funkcji g(˜x) zmiennej losowej ˜x, o funkcji g˛esto´sci f (x). Wówczas mamy
E[g(˜x)] = Z ∞
−∞
g(˜x)f (x)dx (3.34)
Definicj˛e (3.34) mo˙zna rozszerzy´c na przypadek dwóch i wi˛ekszej liczby zmiennych losowych. Je´sli dla wektora dwuwymiarowego ˜x = [˜x1, ˜x2]T o rozkładzie ł ˛acznym danym ci ˛agł ˛a funkcj ˛a f (x1, x1), dana jest funkcja g(˜x1, ˜x2), to jej warto´sci ˛a oczekiwan ˛a jest całka podwójna
E[g(˜x1, ˜x2)] = Z ∞
−∞
Z ∞
−∞
g(˜x1, ˜x2)f (x1, x2)dx1dx2 (3.35)
3.7 Parametry rozkładu: nadzieja matematyczna, momenty i korelacja 47
Dla przypadku n wymiarowego b˛edzie, E[g(˜x1, . . . , ˜xn)] =
Z ∞
−∞
. . . Z ∞
−∞
g(˜x1, . . . , ˜xn)f (x1, . . . , xn)dx1. . . dxn (3.36)
Operator warto´sci oczekiwanej jest operatorem liniowym, st ˛ad jego działanie podlega pew-nym po˙zyteczpew-nym prawom, które podajemy bez dowodów:
E[c] = c c = const (3.37)
E[c˜x]) = cE[˜x] c = const (3.38)
E[E[˜x]] = E[˜x] (3.39)
E[(˜x + ˜y)] = E[˜x] + E[˜y] (3.40)
E[˜x˜y] = E[˜x]E[˜y] (˜x i ˜y niezalezne) (3.41)
E[˜x2] 6= (E[˜x])2) (w ogolnosci) (3.42)
Przykład.
Je˙zeli ˜x, ˜y, ˜z s ˛a niezale˙znymi zmiennymi stochastycznymi wyst˛epuj ˛acymi w funkcji postaci
˜
w = 3˜x + 5˜y ˜z − 2
to jaka jest warto´s´c oczekiwana zmiennej ˜w, je´sli znane s ˛a warto´sci ´srednie µx, µy, µz? Rozwi ˛azanie.Do warto´sci oczekiwanej E[ ˜w] stosujemy własno´sci (3.39)–(3.42)
E[ ˜w] = µw = E[3˜x + 5˜y ˜z − 2] = 3µx+ 5µyµz− 2
3.7.2 Wariancja
Niech funkcja g(˜x) jest zdefiniowana nast˛epuj ˛aco:
g(˜x) = (˜x − E[˜x])2= (˜x − µx)2 (3.43)
Warto´s´c oczekiwana tej funkcji nazywana jest wariancj ˛azmiennej losowej ˜x var(˜x) = σx2= E[g(˜x)] = E[(˜x − E[˜x])2] =
Z ∞
−∞
(x − µx)2f (x)dx (3.44)
gdzie f (x) jest ci ˛agł ˛a funkcj ˛a g˛esto´sci zmiennej ˜x.
Pierwiastek kwadratowy wariancji nazywany jest odchyleniem standardowym. Oby-dwa parametry s ˛a miar ˛a dyspresji (rozrzutu) zmiennej losowej, co zreszt ˛a łatwo zauwa˙zy´c przygl ˛adaj ˛ac si˛e równaniom (3.43), (3.44) — funkcja, której warto´s´c oczekiwan ˛a obliczamy zale˙zy od zmiennej losowej mierz ˛acej odległo´s´c zmiennej ˜x od pewnej warto´sci ustalonej µx.
Korzystaj ˛ac z podanych wcze´sniej praw, mo˙zna pokaza´c, ˙ze wariancj˛e da si˛e obliczy´c
W przypadku zmiennej stochastycznej wielowymiarowej po˙zytecznymi parametrami s ˛a nie tylko warto´sci ´srednie i miary dyspersji zmiennych. Dla takiej zmiennej wa˙znymi parame-trami s ˛a jeszcze kowariancja i korelacja.
Niech ˜x i ˜y b˛ed ˛a zmiennymi losowymi o ł ˛acznym rozkładzie f (x, y), oraz niech b˛edzie okre´slona funkcja
h(˜x, ˜y) = (˜x − E[˜x])(˜y − E[˜y]) = (˜x − µx)(˜y − µy) Kowariancjami˛edzy ˜x i ˜y to warto´s´c oczekiwana funkcji h(˜x, ˜y)
cov(˜x, ˜y) = σxy = E[h(˜x, ˜y)] = E[(˜x − µx)(˜y − µy)] (3.46) co w przypadku zmiennych losowych ci ˛agłych oznacza wyra˙zenie
σxy =
Wariancja zmiennej losowej wyra˙za jej zmienno´s´c w stosunku do warto´sci oczekiwanej, kowariancja opisuje współzmienno´s´c dwóch zmiennych losowych. Odzwierciedla wza-jemne zwi ˛azki pomi˛edzy nimi, albo jak mówimy odzwierciedla wzajemn ˛a korelacj˛e. Miar ˛a korelacji jest współczynnik korelacji ρ okre´slony formuł ˛a
ρxy = σxy gdzie σx, σys ˛a odchyleniani standardowymi brzegowych rozkładów zmiennych ˜x i ˜y.
Korelacja opisuje wzajemn ˛a współzale˙zno´s´c zmiennych losowych. Trzeba jednak wy-ra´znie odró˙zni´c ten typ współzale˙zno´sci od statystycznej zale˙zno´sci b ˛ad´z niezale˙zno´sci, okre´slonej za pomoc ˛a koncepcji rozkładu warunkowego (patrz równania (3.30), (3.31)).
Korelacja i statystyczna zale˙zno´s´c to nie to samo, mimo i˙z oba poj˛ecia bywaj ˛a u˙zywane jako synonimy.
Mo˙zna pokaza´c, ˙ze kowariancja (korelacja) zawsze wynosi zero gdy zmienne losowe ˜x i ˜y s ˛a statystycznie niezale˙zne. Zgodnie z (3.47) i (3.28) b˛edzie
σxy =
3.7 Parametry rozkładu: nadzieja matematyczna, momenty i korelacja 49
Odwrotna własno´s´c w ogólnym przypadku nie jest prawdziwa. Zerowa kowariancja nie musi poci ˛aga´c niezale˙zno´sci statystycznej.
Jednak warto zapami˛eta´c, ˙ze dla wielowymiarowego rozkładu normalnego prawdopo-dobie´nstwa, zerowa kowariancja (brak korelacji) jest warunkiem wystarczaj ˛acym dla nieza-le˙zno´sci statystycznej.
3.7.4 Momenty
Koncepcja warto´sci oczekiwanej i kowariancji s ˛a szczególnymi przypadkami koncepcji ogólniejszych tzw. momentów statystycznych. I tak warto´s´c oczekiwana funkcji g(˜x) = (˜x − c)k, gdzie c jest stał ˛a, zwana jest momentem statystycznym rz˛edu k zmiennej losowej
˜
x wzgl˛edem c, co piszemy w postaci
mk(˜x) = E[(˜x − c)k] (3.50)
gdzie k oznacza rz ˛ad momentu.
W przypadku dyskretnej zmiennej losowej wykorzystuj ˛ac definicj˛e (3.32) warto´sci ocze-kiwanej, dla c = 0 b˛edziemy mieli
¯
mk(˜x) = E[˜xk] =
n
X
i=1
xkiP [xi] (3.51)
a dla zmiennej losowej ci ˛agłej zdefiniowanej wyra˙zeniem (3.33), b˛edzie
¯
mk(˜x) = E[˜xk] = Z ∞
−∞
xkf (x)dx (3.52)
Klasa momentów okre´slona wzorem (3.50) nosi miano momentów centralnych. Momenty okre´slone formułami (3.51) i (3.52) nazywane s ˛a momentami zwykłymi.
W grupie momentów centralnych szczególnie wa˙zne znaczenie praktyczne maj ˛a te mo-menty, dla których stała c wynosi
c = µx= E[˜x]
czyli, momenty centralne definiowane s ˛a jako warto´sci oczekiwane pot˛eg ró˙znicy zmiennej
˜
x i jej warto´sci ´sredniej
mk(˜x) = E[(˜x − E[˜x])k] (3.53)
Widzimy, ˙ze równanie (3.43) jest szczególnym przypadkiem równania (3.53) dla k = 2.
Wariancja σ2xzmiennej losowej ˜x jest identyczna z momentem centralnym rz˛edu 2, bowiem σx2 = m2(˜x).
Momenty zmiennej losowej ˜x odzwierciedlaj ˛a ró˙zne własno´sci jej funkcji rozkładu.
Je´sli funkcja rozkładu prawdopodobie´nstwa jest symetryczna wzgl˛edem pierwszego zwyk-łego momentu ¯m1(˜x) = E[˜x] = µx, wówczas dla tej zmiennej losowej znikaj ˛a wszystkie centralne momenty nieparzystego rz˛edu, tzn. mk = 0 gdy k jest nieparzyste. Z drugiej
strony, je´sli nieparzyste momenty centralne nie równaj ˛a si˛e zeru, ich warto´sci odzwiercied-laj ˛a stopie´n asymetrii lub uko´sno´sci funkcji rozkładu. Zatem trzeci moment centralny jest miar ˛a asymetrii rozkładu. W zastosowaniach praktycznych wykorzystywana jest wielko´s´c zwana sko´sno´sci ˛a rozkładu(współczynnikiem asymetrii) obliczana jako
γ1= m3(˜x)
m1.52 (˜x) = m3(˜x)
σ3(˜x) (3.54)
Dla rozkładu, w którym po prawej stronie maksimum mamy wi˛ecej prawdopodobie´nstwa ni˙z po stronie lewej, sko´snos´c ma warto´s´c dodatni ˛a.
Czwarty moment centralny wykorzystywany jest jako miara spłaszczenia γ2 rozkładu γ2= m4(˜x)
m22(˜x)− 3 = m4(˜x)
σ4(˜x) − 3 (3.55)
Zamiast spłaszczenia mo˙zemy napotka´c inne okre´slenia jak kurtoza (wyd˛ecie), eksces.
Liczba 3 wyst˛epuj ˛aca w definicji (3.55), w przypadku rozkładu Gaussa prowadzi do zerowej warto´sci kurtozy. Inne rozkłady, bardziej płaskie od rozkładu Gaussa maj ˛a spłaszczenie ujemne, tzw. rozkłady platykurtyczne. Te z kurtoz ˛a dodatni ˛a nazywamy leptokurtycznymi (za lit. [5].
Definicje momentów mo˙zna rozci ˛agn ˛a´c na przypadki zmiennej wielowymiarowej. Niech (˜x, ˜y) b˛edzie dwuwymiarowym wektorem losowym. Warto´s´c oczekiwana pewnej ogólnej funkcji g(˜xl, ˜yk) nazywana jest momentem rz˛edu (l+k). Odpowiadaj ˛acy zmiennym (˜x, ˜y) moment centralny rz˛edu (l + k) dany jest jako wyra˙zenie
mlk(˜x, ˜y) = E
Dla dwuwymiarowej funkcji rozkładu, mamy do dyspozycji trzy momenty centralne rz˛edu drugiego. Niech ¯m10i ¯m01b˛ed ˛a pierwszymi zwykłymi momentami (warto´sci ´sred-nie) zmiennych ˜x i ˜y, odpowiednio. Wówczas momenty centralne rz˛edu drugiego tych zmiennych s ˛a postaci:
m20 = E[(˜x − ¯m10)2] = E[(˜x − µx)2] = σ2x
m02 = E[(˜y − ¯m01)2] = E[(˜y − µy)2] = σ2y (3.57) m11 = E[(˜x − ¯m10)(˜y − ¯m01)] = E[(˜x − µx)(˜y − µy)] = σxy
Momenty te graj ˛a szczególn ˛a rol˛e w statystycznych metodach opracowania obserwacji.
W przypadku n-wymiarowego wektora losowego ˜x, momenty centralne drugiego rz˛edu mo˙zna tworzy´c bior ˛ac wszystkie kombinacje pomi˛edzy składowymi wektora. Zbiór wszys-tkich momentów wygodnie jest uj ˛a´c w formie macierzy zwanej macierz ˛a momentów cen-tralnych drugiego rz˛edu lub macierz ˛a warinacjii kowariancji. Macierz ta ma posta´c
Mxx =