• Nie Znaleziono Wyników

Jeżeli | x | p = ∞ ,tomówimy,żezmiennalosowa X niemawartościoczekiwanej. P | x | p < ∞ . X oile E X = x p , X X nazywamyliczbę P ( X = x )= p , i = 1 , 2 ,... Wartościąoczekiwanązmiennejlosowej Niech X będziezmiennąlosowądyskretnąorozkładzie Definicja

N/A
N/A
Protected

Academic year: 2021

Share "Jeżeli | x | p = ∞ ,tomówimy,żezmiennalosowa X niemawartościoczekiwanej. P | x | p < ∞ . X oile E X = x p , X X nazywamyliczbę P ( X = x )= p , i = 1 , 2 ,... Wartościąoczekiwanązmiennejlosowej Niech X będziezmiennąlosowądyskretnąorozkładzie Definicja"

Copied!
30
0
0

Pełen tekst

(1)

Definicja

Niech X będzie zmienną losową dyskretną o rozkładzie P(X = xi) = pi, i = 1, 2, . . . Wartością oczekiwaną zmiennej

losowej X nazywamy liczbę

E X =X i xipi, o ile X i |xi|pi < ∞. Jeżeli P

i|xi|pi = ∞, to mówimy, że zmienna losowa X nie ma wartości oczekiwanej.

(2)

Przykład (wartość oczekiwana w rozkładzie dwumianowym)

Ile wynosi E X w rozkładzie dwumianowym?

Przykład (wartość oczekiwana w rozkładzie geometrycznym)

Ile wynosi E X w rozkładzie geometrycznym z parametrem p = 1/2?

(3)

Definicja

Niech X będzie zmienną losową ciągłą o gęstości f (x). Wartością oczekiwaną zmiennej losowej X nazywamy liczbę

E X = Z −∞ xf(x)dx, o ile Z −∞ |x|f (x)dx < ∞.

(4)

Przykład (wartość oczekiwana w rozkładzie jednostajnym)

(5)

Theorem

Niech g : Rn→ R będzie funkcją borelowską, a X zmienną losową

o wartościach w Rn. Wtedy: E(g (X )) =

Z

(6)

Załóżmy, że istnieją wartości oczekiwane E X oraz E Y . Wtedy 1 Jeśli X ­ 0, to E X ­ 0. 2 | E X | < E |X |. 3 Dla a, b ∈ R E(aX + bY ) = a E X + b E Y . 4 Jeżeli X ­ Y na Ω, to E X ­ E Y

(7)

Wartość oczekiwana jest szczególnym przypadkiem grupy parametrów, które nazywamy momentami.

Definicja

Liczbę

mk = E(Xk)

nazywamy momentem zwykłym rzędu k zmiennej losowej X . Liczbę

βk = E(|X |k)

(8)

Theorem

Jeśli moment zwykły rzędu s zmiennej losowej X jest skończony, to wszystkie momenty zwykłe rzędu r < s są również skończone.

(9)

Wartość oczekiwana jest jedną z charakterystyk liczbowych zmiennych losowych zwanych parametrami położenia. Mówi ona z grubsza, gdzie są skupione wartości przyjmowane przez zmienną losową. Odpowiada za średnią wartość przyjmowaną przez zmienną losową. Istnieją również inne parametry położenia.

Definicja

Wartość x spełniającą nierówności P(X ¬ x) ­ p, P(X ­ x) ­ 1 − p,

dla 0 < p < 1 nazywamy kwantylem rzędu p zmiennej losowej X i oznaczamy przez xp.

(10)

Równoważnie możemy zapisać

p− P(X = x) ¬ F (x) ¬ p.

Zatem jeśli X jest zmienną losową absolutnie ciągłą, to kwantylem rzędu p zmiennej losowej X jest wartość xp spełniająca równość

F(xp) = p.

Warto jeszcze podkreślić, że kwantyl może nie być zdefiniowany jednoznacznie. W przypadku jednak gdy dystrybuanta jest rosnąca jest wyznaczony jednoznacznie.

(11)

Definicja

Kwantyl rzędu 1/2 nazywamy medianą, kwantyl rzędu 1/4 i 3/4 nazywamy odpowiednio dolnym i górnym kwartylem. Dla zmiennej losowej X oznaczmy odpowiednio Me(X ), Q1(X ) i Q3(X ).

(12)

Przykład (M1)

Ile wynosi mediana w rozkładzie jednostajnym na odcinku [a, b]?

Przykład (M2)

Ile wynosi mediana w rozkładzie o funkcji gęstości postaci: f(x) = k

xk+1I[1,∞)(x), gdzie k > 0 jest rzeczywistym parametrem?

(13)

Definicja

Dominantą (modą) zmiennej losowej X nazywamy:

W przypadku zmiennej losowej dyskretnej – wartość, której odpowiada największe prawdopodobieństwo.

W przypadku zmiennej losowej ciągłej – wartość dla której gęstość przyjmuje maksimum lokalne.

Podobnie jak kwantyle dominanta może nie być wyznaczona jednoznacznie. W przypadku gdy zmienna losowa X ma dokładnie jedną wartość modalną jej rozkład nazywamy jednomodalny, w przeciwnym razie mówimy o rozkładach wielomodalnych.

(14)

Przykład (D1)

Ile wynosi dominanta w rozkładzie jednostajnym na odcinku [a, b]?

Przykład (D2)

Ile wynosi dominanta w rozkładzie o funkcji gęstości postaci f(x) = k

xk+1I[1,∞)(x), gdzie k > 0 jest rzeczywistym parametrem?

(15)

Kolejną grupę parametrów zmiennej losowej stanowią parametry rozproszenia.

Definicja

Liczbę

Var(X ) = E([X − E X ]2)

nazywamy wariancją zmiennej losowej X , jeżeli wartość oczekiwana po prawej stronie istnieje. Liczbę σx =p

Var(X ) nazywamy odchyleniem standardowym zmiennej losowej X .

Uwaga

(16)

Wniosek

Var(X ) = E X2

− E2 X.

Theorem

Dla dowolnych liczb a oraz b zachodzi wzór

Var(aX + b) = a2Var(X ).

Theorem

Jeżeli X oraz Y są niezależnymi zmiennymi losowymi to zachodzi wzór

(17)

Wariancja jest miarą rozrzutu wartości zmiennej losowej X wokół jej wartości oczekiwanej E X . Zauważmy, że jeżeli X jest zmienną losową dyskretną, to Var(X ) = X k=1 [xk − E X ]2P(X = xk).

Jeżeli natomiast X jest zmienną losową absolutnie ciągłą, to Var(X ) =

Z

−∞

[x − E X ]2fX(x)dx, gdzie fX(x) jest gęstością zmiennej losowej X .

(18)

Theorem

Jeśli X jest zmienną losową dla której E X2

< ∞, to istnieje

Var(X ).

Przykład (W1)

Ile wynosi wariancja w rozkładzie dwumianowym?

Przykład (W2)

(19)

Definicja

Zmienna losowa X , dla której Var(X ) = 1 nazywa się zmienną losową unormowaną.

Definicja

Zmienna losowa X , dla której E X = 0 i Var(X ) = 1 nazywa się zmienną losową standaryzowaną.

Przykład (standaryzacja)

Czy zmienna losowa

Y = pX − E X

Var(X ),

(20)

Definicja

Dla każdego naturalnego k liczbę

µk = E(X − E X )k

nazywamy momentem centralnym rzędu k zmiennej losowej X . Zauważmy, że wariancja jest momentem centralnym rzędu drugiego.

(21)

Momenty wyższych rzędów wykorzystywane są do mierzenia asymetrii (skośności) oraz stopnia koncentracji wokół średniej.

Definicja

Wielkość

α3 =

E(X − E X )3 Var3/2(X ) nazywamy współczynnikiem asymetrii.

Definicja

Wielkość

α4 =

E(X − E X )4 Var2(X ) − 3 nazywamy współczynnikiem spłaszczenia (kurtozą).

(22)

Definicja

Liczbę

Cov(X , Y ) = E[(X − E X )(Y − E Y )] nazywamy kowariancją zmiennych losowych X i Y .

Zauważmy, że kowariancja jest momentem centralnym rzędu 1 + 1, czyli µ11.

Uwaga

Cov(X , Y ) = E XY − E X E Y . Jeżeli istnieją odpowiednie wariancje, to istnieje również kowariancja.

(23)

Uwaga

Cov(X , X ) = Var(X ), Cov(X , Y ) = Cov(Y , X ),

Var(X + Y ) = Var(X ) + Var(Y ) + 2 Cov(X , Y ), Cov(a + X , Y ) = Cov(X , Y ),

(24)

Jeżeli Cov(X , Y ) 6= 0, to zmienne losowe X i Y są zależne. Jako ilościową charakterystykę stopnia tej zależności wykorzystuje się współczynnik korelacji.

Definicja

Liczbę

ρ(X , Y ) = p Cov(X , Y )

Var(X ) Var(Y ) nazywamy współczynnikiem korelacji.

(25)

Theorem

Dla każdej z dwóch zmiennych losowych X i Y , dla których

0 < Var(X ), Var(Y ) < ∞ 1 −1 ¬ ρ(X , Y ) ¬ 1,

2 |ρ(X , Y ) = 1| wtedy i tylko wtedy, gdy istnieją takie liczby a6= 0 i b, że P(Y = aX + b) = 1. Jeżeli ρ(X , Y ) = 1, to

a> 0 i jeżeli ρ(X , Y ) = −1, to a < 0.

Uwaga

Jeżeli zmienne losowe X i Y są niezależne, to Cov(X , Y ) = 0 i zmienne te są nieskorelowane. Z nieskorelowania zmiennych

losowych X i Y nie wynika jednak ich niezależność. Jest to prawdą jedynie dla dwuwymiarowego rozkładu normalnego.

(26)

Dla wektora losowego odpowiednikiem wariancji jest macierz kowariancji.

Definicja

Jeśli Var(Xi) < ∞ dla każdego i = 1, 2, . . . , n, to macierz Σ = [σij]n

i,j=1, gdzie σij = Cov(Xi, Xj) nazywamy macierzą kowariancji wektora losowego XXX = (X1, X2, . . . Xn).

Theorem

(27)

Przykład

Dana jest gęstość dwuwymiarowej zmiennej losowej (X , Y ) f(x, y ) =

(

24x2

y(1 − x) dla 0 ¬ x ¬ 1, 0 ¬ y ¬ 1

0 w pozostałych przypadkach.

Wyznaczyć kowariancję oraz współczynnik korelacji pomiędzy zmiennymi losowymi X oraz Y .

(28)

Zajmiemy się teraz związkiem między liczbą wykonywanych doświadczeń, a faktycznym prawdopodobieństwem wystąpienia zdarzenia, którego te doświadczenia dotyczą. Takie zależności będą opisywać prawa wielkich liczb. Najwcześniejsza postać prawa wielkich liczb to prawo Bernoulliego sformułowane przez Jakoba Bernoulliego w książce Ars Conjectandi (1713). Orzeka ono:

„Z prawdopodobieństwem dowolnie bliskim 1 można się spodziewać, iż przy dostatecznie wielkiej liczbie prób częstość danego zdarzenia losowego będzie się dowolnie mało różniła od jego prawdopodobieństwa.”

(29)

Theorem (Mocne prawo wielkich liczb)

Niech (Xn) będzie ciągiem niezależnych zmiennych losowych o tym

samym rozkładzie z ze skończoną wartością oczekiwaną µ. Jeżeli

Sn= X1+ X2+ · · · + Xn, to Sn n 1 → µ.

Rozumiemy to tak: zdarzenie polegające na tym że ciąg Snn nie jest zbieżny do µ ma prawdopodobieństwo równe zeru.

(30)

Niech (Xn) będzie ciągiem niezależnych zmiennych losowych o tym

samym rozkładzie z wartością oczekiwaną µ oraz wariancją

0 < σ2 < ∞. Jeżeli Sn= X1+ X2+ · · · + Xn, to Sn− E(Sn) p Var(Sn) D −→ X ∼ N(0, 1).

Twierdzenie to gwarantuje, że pod pewnymi założeniami, suma dużej ilości niezależnych zmiennych losowych ma w przybliżeniu rozkład normalny.

Przykład (CTG)

Cytaty

Powiązane dokumenty

Zaznacz P, jeśli odpowiedź jest poprawna lub F, jeśli fałszywa. Nazwa fraszka wywodzi się z

Do jakiego tekstu z zakresu lektur konkursowych odwołuje się podmiot liryczny poniższego wiersza.. Uzasadnij

Oczy mieli, lecz byli jak ślepcy. Słysząc, nie słyszeli. b) Odwołując się do fragmentu Prometeusza, wyjaśnij przenośny sens sformułowania: Oczy mieli, lecz byli jak

Udowodnij, że piosenka Cała Polska czyta dzieciom doskonale wpisuje się w przesłanie kampanii.. Swoją wypowiedź poprzyj odpowiednim cytatem

Schematy przedstawiają właściwości ciał lub modele różnych zjawisk odbywających się na poziomie cząsteczkowym. Jaka jest to odległość w terenie?.. Miejsce

Jeżeli jego objawy nasilają się, należy zgłosić się do lekarza zajmującego się schorzeniami skóry, czyli.. bezpłciowo

Paliła się jasnym płomieniem pod wielkim kotłem do warzenia piwa i choinka wzdychała głęboko, każde westchnienie brzmiało niby krótki wystrzał i zwabiło dzieci bawiące się na

Wskaż co najmniej trzy cechy wspólne narratorów książek Ewy Nowak Yellow Bahama w prążki i Melchiora Wańkowicza Szczenięce lata oraz po trzy, decydujące o