Definicja
Niech X będzie zmienną losową dyskretną o rozkładzie P(X = xi) = pi, i = 1, 2, . . . Wartością oczekiwaną zmiennej
losowej X nazywamy liczbę
E X =X i xipi, o ile X i |xi|pi < ∞. Jeżeli P
i|xi|pi = ∞, to mówimy, że zmienna losowa X nie ma wartości oczekiwanej.
Przykład (wartość oczekiwana w rozkładzie dwumianowym)
Ile wynosi E X w rozkładzie dwumianowym?
Przykład (wartość oczekiwana w rozkładzie geometrycznym)
Ile wynosi E X w rozkładzie geometrycznym z parametrem p = 1/2?
Definicja
Niech X będzie zmienną losową ciągłą o gęstości f (x). Wartością oczekiwaną zmiennej losowej X nazywamy liczbę
E X = Z ∞ −∞ xf(x)dx, o ile Z ∞ −∞ |x|f (x)dx < ∞.
Przykład (wartość oczekiwana w rozkładzie jednostajnym)
Theorem
Niech g : Rn→ R będzie funkcją borelowską, a X zmienną losową
o wartościach w Rn. Wtedy: E(g (X )) =
Z
Załóżmy, że istnieją wartości oczekiwane E X oraz E Y . Wtedy 1 Jeśli X 0, to E X 0. 2 | E X | < E |X |. 3 Dla a, b ∈ R E(aX + bY ) = a E X + b E Y . 4 Jeżeli X Y na Ω, to E X E Y
Wartość oczekiwana jest szczególnym przypadkiem grupy parametrów, które nazywamy momentami.
Definicja
Liczbę
mk = E(Xk)
nazywamy momentem zwykłym rzędu k zmiennej losowej X . Liczbę
βk = E(|X |k)
Theorem
Jeśli moment zwykły rzędu s zmiennej losowej X jest skończony, to wszystkie momenty zwykłe rzędu r < s są również skończone.
Wartość oczekiwana jest jedną z charakterystyk liczbowych zmiennych losowych zwanych parametrami położenia. Mówi ona z grubsza, gdzie są skupione wartości przyjmowane przez zmienną losową. Odpowiada za średnią wartość przyjmowaną przez zmienną losową. Istnieją również inne parametry położenia.
Definicja
Wartość x spełniającą nierówności P(X ¬ x) p, P(X x) 1 − p,
dla 0 < p < 1 nazywamy kwantylem rzędu p zmiennej losowej X i oznaczamy przez xp.
Równoważnie możemy zapisać
p− P(X = x) ¬ F (x) ¬ p.
Zatem jeśli X jest zmienną losową absolutnie ciągłą, to kwantylem rzędu p zmiennej losowej X jest wartość xp spełniająca równość
F(xp) = p.
Warto jeszcze podkreślić, że kwantyl może nie być zdefiniowany jednoznacznie. W przypadku jednak gdy dystrybuanta jest rosnąca jest wyznaczony jednoznacznie.
Definicja
Kwantyl rzędu 1/2 nazywamy medianą, kwantyl rzędu 1/4 i 3/4 nazywamy odpowiednio dolnym i górnym kwartylem. Dla zmiennej losowej X oznaczmy odpowiednio Me(X ), Q1(X ) i Q3(X ).
Przykład (M1)
Ile wynosi mediana w rozkładzie jednostajnym na odcinku [a, b]?
Przykład (M2)
Ile wynosi mediana w rozkładzie o funkcji gęstości postaci: f(x) = k
xk+1I[1,∞)(x), gdzie k > 0 jest rzeczywistym parametrem?
Definicja
Dominantą (modą) zmiennej losowej X nazywamy:
W przypadku zmiennej losowej dyskretnej – wartość, której odpowiada największe prawdopodobieństwo.
W przypadku zmiennej losowej ciągłej – wartość dla której gęstość przyjmuje maksimum lokalne.
Podobnie jak kwantyle dominanta może nie być wyznaczona jednoznacznie. W przypadku gdy zmienna losowa X ma dokładnie jedną wartość modalną jej rozkład nazywamy jednomodalny, w przeciwnym razie mówimy o rozkładach wielomodalnych.
Przykład (D1)
Ile wynosi dominanta w rozkładzie jednostajnym na odcinku [a, b]?
Przykład (D2)
Ile wynosi dominanta w rozkładzie o funkcji gęstości postaci f(x) = k
xk+1I[1,∞)(x), gdzie k > 0 jest rzeczywistym parametrem?
Kolejną grupę parametrów zmiennej losowej stanowią parametry rozproszenia.
Definicja
Liczbę
Var(X ) = E([X − E X ]2)
nazywamy wariancją zmiennej losowej X , jeżeli wartość oczekiwana po prawej stronie istnieje. Liczbę σx =p
Var(X ) nazywamy odchyleniem standardowym zmiennej losowej X .
Uwaga
Wniosek
Var(X ) = E X2
− E2 X.
Theorem
Dla dowolnych liczb a oraz b zachodzi wzór
Var(aX + b) = a2Var(X ).
Theorem
Jeżeli X oraz Y są niezależnymi zmiennymi losowymi to zachodzi wzór
Wariancja jest miarą rozrzutu wartości zmiennej losowej X wokół jej wartości oczekiwanej E X . Zauważmy, że jeżeli X jest zmienną losową dyskretną, to Var(X ) = ∞ X k=1 [xk − E X ]2P(X = xk).
Jeżeli natomiast X jest zmienną losową absolutnie ciągłą, to Var(X ) =
Z ∞
−∞
[x − E X ]2fX(x)dx, gdzie fX(x) jest gęstością zmiennej losowej X .
Theorem
Jeśli X jest zmienną losową dla której E X2
< ∞, to istnieje
Var(X ).
Przykład (W1)
Ile wynosi wariancja w rozkładzie dwumianowym?
Przykład (W2)
Definicja
Zmienna losowa X , dla której Var(X ) = 1 nazywa się zmienną losową unormowaną.
Definicja
Zmienna losowa X , dla której E X = 0 i Var(X ) = 1 nazywa się zmienną losową standaryzowaną.
Przykład (standaryzacja)
Czy zmienna losowa
Y = pX − E X
Var(X ),
Definicja
Dla każdego naturalnego k liczbę
µk = E(X − E X )k
nazywamy momentem centralnym rzędu k zmiennej losowej X . Zauważmy, że wariancja jest momentem centralnym rzędu drugiego.
Momenty wyższych rzędów wykorzystywane są do mierzenia asymetrii (skośności) oraz stopnia koncentracji wokół średniej.
Definicja
Wielkość
α3 =
E(X − E X )3 Var3/2(X ) nazywamy współczynnikiem asymetrii.
Definicja
Wielkość
α4 =
E(X − E X )4 Var2(X ) − 3 nazywamy współczynnikiem spłaszczenia (kurtozą).
Definicja
Liczbę
Cov(X , Y ) = E[(X − E X )(Y − E Y )] nazywamy kowariancją zmiennych losowych X i Y .
Zauważmy, że kowariancja jest momentem centralnym rzędu 1 + 1, czyli µ11.
Uwaga
Cov(X , Y ) = E XY − E X E Y . Jeżeli istnieją odpowiednie wariancje, to istnieje również kowariancja.
Uwaga
Cov(X , X ) = Var(X ), Cov(X , Y ) = Cov(Y , X ),
Var(X + Y ) = Var(X ) + Var(Y ) + 2 Cov(X , Y ), Cov(a + X , Y ) = Cov(X , Y ),
Jeżeli Cov(X , Y ) 6= 0, to zmienne losowe X i Y są zależne. Jako ilościową charakterystykę stopnia tej zależności wykorzystuje się współczynnik korelacji.
Definicja
Liczbę
ρ(X , Y ) = p Cov(X , Y )
Var(X ) Var(Y ) nazywamy współczynnikiem korelacji.
Theorem
Dla każdej z dwóch zmiennych losowych X i Y , dla których
0 < Var(X ), Var(Y ) < ∞ 1 −1 ¬ ρ(X , Y ) ¬ 1,
2 |ρ(X , Y ) = 1| wtedy i tylko wtedy, gdy istnieją takie liczby a6= 0 i b, że P(Y = aX + b) = 1. Jeżeli ρ(X , Y ) = 1, to
a> 0 i jeżeli ρ(X , Y ) = −1, to a < 0.
Uwaga
Jeżeli zmienne losowe X i Y są niezależne, to Cov(X , Y ) = 0 i zmienne te są nieskorelowane. Z nieskorelowania zmiennych
losowych X i Y nie wynika jednak ich niezależność. Jest to prawdą jedynie dla dwuwymiarowego rozkładu normalnego.
Dla wektora losowego odpowiednikiem wariancji jest macierz kowariancji.
Definicja
Jeśli Var(Xi) < ∞ dla każdego i = 1, 2, . . . , n, to macierz Σ = [σij]n
i,j=1, gdzie σij = Cov(Xi, Xj) nazywamy macierzą kowariancji wektora losowego XXX = (X1, X2, . . . Xn).
Theorem
Przykład
Dana jest gęstość dwuwymiarowej zmiennej losowej (X , Y ) f(x, y ) =
(
24x2
y(1 − x) dla 0 ¬ x ¬ 1, 0 ¬ y ¬ 1
0 w pozostałych przypadkach.
Wyznaczyć kowariancję oraz współczynnik korelacji pomiędzy zmiennymi losowymi X oraz Y .
Zajmiemy się teraz związkiem między liczbą wykonywanych doświadczeń, a faktycznym prawdopodobieństwem wystąpienia zdarzenia, którego te doświadczenia dotyczą. Takie zależności będą opisywać prawa wielkich liczb. Najwcześniejsza postać prawa wielkich liczb to prawo Bernoulliego sformułowane przez Jakoba Bernoulliego w książce Ars Conjectandi (1713). Orzeka ono:
„Z prawdopodobieństwem dowolnie bliskim 1 można się spodziewać, iż przy dostatecznie wielkiej liczbie prób częstość danego zdarzenia losowego będzie się dowolnie mało różniła od jego prawdopodobieństwa.”
Theorem (Mocne prawo wielkich liczb)
Niech (Xn) będzie ciągiem niezależnych zmiennych losowych o tym
samym rozkładzie z ze skończoną wartością oczekiwaną µ. Jeżeli
Sn= X1+ X2+ · · · + Xn, to Sn n 1 − → µ.
Rozumiemy to tak: zdarzenie polegające na tym że ciąg Snn nie jest zbieżny do µ ma prawdopodobieństwo równe zeru.
Niech (Xn) będzie ciągiem niezależnych zmiennych losowych o tym
samym rozkładzie z wartością oczekiwaną µ oraz wariancją
0 < σ2 < ∞. Jeżeli Sn= X1+ X2+ · · · + Xn, to Sn− E(Sn) p Var(Sn) D −→ X ∼ N(0, 1).
Twierdzenie to gwarantuje, że pod pewnymi założeniami, suma dużej ilości niezależnych zmiennych losowych ma w przybliżeniu rozkład normalny.
Przykład (CTG)