• Nie Znaleziono Wyników

Wariacje bez powt´ orze´ n. Za l´o˙zmy, i˙z mamy zbi´ or n- elementowy A. W´owczas liczba k-elementowych r´ o˙znowarto´sciowych ci ag´ow o wyrazach ze zbioru A wynosi ֒ n · (n − 1) · . . . · (n − k + 1) = n!/(n − k)!, o ile k ≤ n, i 0 je´sli k > n.

N/A
N/A
Protected

Academic year: 2021

Share "Wariacje bez powt´ orze´ n. Za l´o˙zmy, i˙z mamy zbi´ or n- elementowy A. W´owczas liczba k-elementowych r´ o˙znowarto´sciowych ci ag´ow o wyrazach ze zbioru A wynosi ֒ n · (n − 1) · . . . · (n − k + 1) = n!/(n − k)!, o ile k ≤ n, i 0 je´sli k > n."

Copied!
68
0
0

Pełen tekst

(1)

1. Podstawowe schematy kombinatoryczne

Wariacje z powt´ orzeniami. Za l´o˙zmy, i˙z mamy zbi´ or n- elementowy A. W´owczas liczba k-elementowych ci ag´ow o wyrazach ze zbioru A wynosi n ֒ · n · . . . · n = n k .

Wariacje bez powt´ orze´ n. Za l´o˙zmy, i˙z mamy zbi´ or n- elementowy A. W´owczas liczba k-elementowych r´ o˙znowarto´sciowych ci ag´ow o wyrazach ze zbioru A wynosi ֒ n · (n − 1) · . . . · (n − k + 1) = n!/(n − k)!, o ile k ≤ n, i 0 je´sli k > n.

Permutacje. S a to wariacje n-elementowe zbioru n-elementowego: inaczej, s ֒ a ֒ to ustawienia element´ ow zbioru w ci ag. Ich liczba wynosi n!. ֒

Kombinacje. Za l´o˙zmy, ˙ze mamy zbi´ or n-elementowy A. W´owczas liczba k- elementowych podzbior´ ow zbioru A wynosi n k 

, gdzie

n k



= ( n!

k!(n−k)! je´sli 0 ≤ k ≤ n,

0 w p.p.

2. Rys historyczny Motywacje:

- gry hazardowe,

- zjawiska masowe (statystyki urodze´ n i zgon´ ow).

- aksjomatyka Ko lmogorowa, 1933 r.

3. Przyk lady prostych modeli probabilistycznych: dyskretnych i ci ag lych ֒

Przypu´s´cmy, ˙ze wykonujemy eksperyment losowy. Powstaje natychmiast pyta- nie: w jaki spos´ ob opisa´c go matematycznie?

Przede wszystkim, na pewno mo˙zemy m´owi´c o jego potencjalnych wynikach:

zdarzenia elementarne to mo˙zliwe wyniki tego eksperymentu. Zbi´or wszystkich zdarze´ n elementarnych oznaczamy liter a Ω. Zdarzenie elementarne oznaczamy li- ֒ ter a ω. ֒

1. Rzut monet a: mo˙zliwe dwa wyniki: Ω = ֒ {O, R}. |Ω| = 2.

2. Rzut kostk a: mo˙zliwe sze´s´c wynik´ ֒ ow: Ω = {1, 2, 3, 4, 5, 6}. |Ω| = 6.

3. Rzut dwiema kostkami, patrzymy na sum e oczek: Ω = ֒ {2, 3, . . . , 12}. Za- uwa˙zmy, ˙ze, intuicyjnie, wyniki nie s a jednakowo prawdopodobne. Suma 2 zdarza ֒ si e tylko gdy wypad ly dwie 1; a np. suma 7 zdarza si ֒ e, gdy wypadnie 3 i 4, 4 i 3, 2 ֒ i 5, itp. |Ω| = 11.

4. Z talii kart losujemy 5 kart. Wynikiem jest pi ecioelementowa kombinacja ֒ zbioru kart; zatem Ω to zbi´ or pi ecioelementowych podzbior´ ֒ ow zbioru 52-elementowego.

|Ω| = 52 5

 .

5. Rzucamy ig l e na st´ ֒ o l i mierzymy k at jaki tworzy z wybran ֒ a kraw ֒ edzi ֒ a sto lu. ֒ Wynik to liczba z przedzia lu [0, 2π). Ω = [0, 2π). Jest to przyk lad ci ag lego ֒ do´swiadczenia losowego.

4. σ-cia la

Zdarzenia. Cz esto nie interesuje nas konkretny wynik ω, ale to, czy nale˙zy ֒

on do wcze´sniej ustalonego podzbioru A zbioru Ω. Takie podzbiory A nazywamy

zdarzeniami.

(2)

Przyk lad: Przy rzucie kostk a, mo˙ze nas np. interesowa´c A = ֒ {1, 3, 5} - zdarze- nie polegaj ace na tym, ˙ze wypad la nieparzysta liczba oczek. ֒

Je´sli ω - wynik, A - zdarzenie, to:

- je´sli ω ∈ A, to m´owimy, ˙ze zasz lo A b ad´z ˙ze ω sprzyja A. ֒

- je´sli ω / ∈ A, to m´owimy, ˙ze nie zasz lo A, b ad´z ˙ze zasz lo zdarzenie przeciwne, ֒

zdefiniowane jako A = Ω \ A. A nazywamy te˙z dope lnieniem zbioru A.

Na przyk lad, przy jednokrotnym rzucie kostk a mo˙ze interesowa´c nas wypadni ֒ ecie ֒ nieparzystej liczby oczek, b ad´z w przyk ladzie z tali ֒ a kart, mo˙ze nas interesowa´c zda- ֒ rzenie: ,,wylosowali´smy co najmniej 2 asy”.

Szczeg´ olne zdarzenia, interpretacje dzia la´ n/relacji na zdarzeniach:

Ω - zdarzenie pewne,

∅ - zdarzenie niemo˙zliwe,

A ∩ B - zasz ly oba zdarzenia A, B,

A ∩ B = ∅ - zdarzenia si e wykluczaj ֒ a (s ֒ a roz l ֒ aczne), ֒ A ∪ B - zasz lo A lub B,

A - nie zasz lo A,

A \ B = A ∩ B - zasz lo A i nie zasz lo B, A ⊆ B - A poci aga za sob ֒ a B. ֒

Przypu´s´cmy, ˙ze mamy Ω i chcemy zdefiniowa´c sensown a klas ֒ e zdarze´ ֒ n (cokolwiek to znaczy). Naturalny pomys l: rozwa˙za´c 2 - wszystkie mo˙zliwe podzbiory; czasem jednak ta klasa jest zbyt du˙za i nie da si e na niej dobrze pracowa´c. ֒

Rozs adna klasa zdarze´ ֒ n powinna by´c zamkni eta na branie sumy, iloczynu i zda- ֒ rzenia przeciwnego. To prowadzi do poj ecia cia la oraz σ-cia la. ֒

Definicja 1. Rodzin e ֒ F podzbior´ow Ω nazywamy σ-cia lem, je´sli (i) ∅ ∈ F,

(ii) A ∈ F ⇒ A ∈ F, (iii) A 1 , A 2 , . . . ∈ F ⇒

[ ∞ n=1

A n ∈ F.

5. Intuicja wiod aca do okre´ ֒ slenia prawdopodobie´ nstwa - cz esto´ ֒ s´ c zdarze´ n

Rozwa˙zmy nast epuj ֒ acy przyk lad. Je´sli rzucamy (t ֒ a sam ֒ a) monet ֒ a wiele razy, to ֒ oczekujemy (i rzeczywi´scie tak bywa), ˙ze orze l pojawi si e w przybli˙zeniu w po lowie ֒ przypadk´ow. Tak wi ec ,,cz ֒ esto´sciowo”, prawdopodobie´ ֒ nstwo wypadni ecia or la to ֒ 1/2. Teraz og´olniej: za l´o˙zmy, ˙ze wykonujemy eksperyment, w kt´ orym zbi´ or zdarze´ n elementarnych to Ω oraz A jest zdarzeniem. Za l´o˙zmy, ˙ze powtarzamy ekperyment n razy i definiujemy

ρ n (A) = liczba zaj´s´c A

n .

Liczb e t ֒ e nazywamy cz ֒ esto´sci ֒ a zdarzenia A. Gdy n jest du˙ze, spodziewamy si ֒ e, ֒

˙ze ρ n (A) powinno z grubsza m´owi´c o prawdopodobie´ nstwie A.

(3)

Sp´ ojrzmy na w lasno´sci ρ n : jak latwo sprawdzi´c, (i) 0 ≤ ρ n (A) ≤ 1,

(ii) ρ n (Ω) = 1,

(iii) A ∩ B = ∅ ⇒ ρ n (A ∪ B) = ρ n (A) + ρ n (B).

Ponadto, zauwa˙zmy, i˙z ρ n (A) = 1 − ρ n (A ). Naturalnym pomys lem jest okre´sli´c prawdopodobie´ nstwo A jako lim n→∞ ρ n (A). K lopot: nie wiemy, czy ta granica istnieje.

Mo˙ze wi ec spr´ ֒ obujmy z drugiej strony: zdefiniujmy prawdopodobie´ nstwo jako abstrakcyjn a funkcj ֒ e, kt´ ֒ ora ma wszystkie w lasno´sci (i) – (iii).

6. Aksjomatyka Ko lmogorowa

Niech (Ω, F) - ustalone. W´owczas funkcj e P : ֒ F → [0, 1] nazywamy prawdopo- dobie´ nstwem, je´sli

(i) 0 ≤ P(A) ≤ 1, (ii) P(Ω) = 1,

(iii) je´sli A 1 , A 2 , . . . ∈ F s a parami roz l ֒ aczne, to ֒ P

[ ∞ n=1

A n

!

= X ∞ n=1

P(A n ).

Tr´ojk e (Ω, ֒ F, P) nazywamy przestrzeni a probabilistyczn ֒ a. ֒ 7. Przyk lady

1. Rzut symetryczn a monet ֒ a: Ω = ֒ {O, R}, F = 2 = {{O}, {R}, Ω, ∅}, P( {O}) = 1/2, P({R}) = 1/2, P(Ω) = 1, P(∅) = 0.

2. Rzut niesymetryczn a monet ֒ a: Ω = ֒ {O, R}, F = 2 , P( {O}) = p, P({R}) = 1 − p, P(Ω) = 1, P(∅) = 0. Tutaj p jest pewn a ustalon ֒ a liczb ֒ a z przedzia lu [0, 1]. ֒

3. Rzut kostk a: Ω = ֒ {1, 2, 3, 4, 5, 6}, F = 2 , P(A) = |A|/6.

4. Schemat klasyczny (prawdopodobie´ nstwo klasyczne). Za l´o˙zmy, ˙ze Ω jest zbiorem sko´ nczonym, F = 2 i wszystkie zdarzenia elementarne s a jednakowo ֒ prawdopodobne. W´ owczas, jak latwo sprawdzi´c, dla A ∈ F,

P(A) = |A|

|Ω| .

5. Z talii 52 kart losujemy jednocze´snie pi e´c kart. Jakie jest prawdopodo- ֒ bie´ nstwo, ˙ze wylosujemy cztery asy?

Jak ju˙z wiemy, Ω to pi ecioelementowe kombinacje zbioru talii kart. Intuicja ֒ podpowiada, i˙z zdarzenia elementarne s a r´ownoprawdopdobne, a wi ֒ ec sensownym ֒ prawdopodobie´ nstwem na Ω jest prawdopodobie´ nstwo klasyczne.

Niech A - te podbiory, w kt´ orych s a cztery asy: ֒

A = {{A♣, A♦, A♥, A♠, ∗} : ∗ − jedna z pozosta lych 48 kart}.

Takich podzbior´ ow jest 48. A wi ec ֒ |A| = 48, |Ω| = 52 5

 .

(4)

6. Za l´o˙zmy, ˙ze Ω = {ω 1 , ω 2 , . . . , ω n , . . . } - zbi´or co najwy˙zej przeliczalny oraz p 1 , p 2 , . . . - liczby nieujemne o sumie 1. W´ owczas mo˙zemy okre´sli´c F = 2 oraz P({ω i }) = p i , i = 1, 2, . . .. W´ owczas, dla A ∈ F,

P(A) = X

i

1 A (ω i )p i ,

gdzie 1 A to funkcja wska´znikowa (charakterystyczna) b ad´z indykator zbioru A, zde- ֒ finiowany wzorem

1 A (x) =

( 1 je´sli x ∈ A, 0 je´sli x / ∈ A.

7. Prawdopodobie´ nstwo geometryczne. W wielu sytuacjach, kt´ orymi b e- ֒ dziemy si e zajmowa´c, do´swiadczenie losowe ma charakter ci ֒ ag ly. Najprostszym ֒ przyk ladem jest losowanie punktu z otwartego zbioru Ω, le˙z acego na prostej (lub ֒ na p laszczy´znie, czy og´olniej w przestrzeni R n ) i maj acego sko´ ֒ nczon a d lugo´s´c (pole ֒ powierzchni, miar e). Zbiorem takim mo˙ze by´c np. odcinek, ko lo, kwadrat, kula, ֒ sze´scian. Zgodnie z intuicj a naturalnie jest przyj ֒ a´c, i˙z prawdopodobie´ ֒ nstwo zda- rzenia A ⊆ Ω jest proporcjonalne do jego miary, czyli

P(A) = |A|

|Ω| ,

gdzie | · | oznacza miar e zbioru. Pojawia si ֒ e tu pewien techniczny problem, mia- ֒ nowicie jak zdefiniowa´c σ-cia lo F? Okazuje si e, ˙ze nie mo˙zna w naturalny spos´ob ֒

okre´sli´c d lugo´sci, pola powierzchni, czy obj eto´sci na wszystkich podzbiorach Ω, nie ֒ mo˙zemy wi ec przyj ֒ a´c ֒ F = 2 i musimy si e ograniczy´c do mniejszego σ-cia la. Z ֒ regu ly w takich sytuacjach rozpatruje si e tzw. σ-cia lo borelowskie ֒ B(Ω), zdefinio- wane jako najmniejsze σ-cia lo zawieraj ace wszystkie zbiory otwarte w Ω. ֒

Na przyk lad, losowanie punktu z ko la Ω o promieniu r mo˙zna opisa´c przy pomocy przestrzeni probabilistycznej (Ω, B(Ω), P), gdzie dla A ∈ B(Ω),

P(A) = |A|

πr 2 .

W podobny spos´ ob mo˙zemy r´ownie˙z opisa´c losowanie punktu np. z okr egu czy ֒ sfery.

8. Podstawowe w lasno´ sci prawdopodobie´ nstwa

Poni˙zej sformu lujemy kilka podstawowych fakt´ow dotycz acych prawdopodobie´ ֒ nstwa.

Przyjmujemy, ˙ze (Ω, F, P) jest ustalon a przestrzeni ֒ a probabilistyczn ֒ a. ֒

(5)

Twierdzenie 1. Niech A, B, A 1 , A 2 , . . . ∈ F. W´owczas (i) P( ∅) = 0.

(ii) Je´sli A 1 , A 2 , . . . , A n s a parami roz l ֒ aczne, to ֒ P

[ n i=1

A i

!

= X n

i=1

P(A i ).

(iii) P(A ) = 1 − P(A).

(iv) Je´sli A ⊆ B, to P(B \ A) = P(B) − P(A).

(v) Je´sli A ⊆ B, to P(A) ≤ P(B).

(vi) P(A ∪ B) = P(A) + P(B) − P(A ∩ B).

(vii) P [ ∞ i=1

A i

!

≤ X ∞

i=1

P(A i ).

Twierdzenie 2 (Wz´or w l acze´ ֒ n i wy l acze´ ֒ n). Je´sli A 1 , A 2 , . . . , A n ∈ F, to P(A 1 ∪ A 2 ∪ . . . ∪ A n ) =

X n i=1

P(A i ) − X

i<j

P(A i ∩ A j ) + . . . + ( −1) n+1 P(A 1 ∩ A 2 ∩ . . . ∩ A n ).

Definicja 2. Za l´ o˙zmy, ˙ze A 1 , A 2 , . . . jest ci agiem zdarze´ ֒ n. M´ owimy, ˙ze ci ag ten ֒ jest wst epuj ֒ acy, je´sli ֒

A 1 ⊆ A 2 ⊆ A 3 ⊆ . . . oraz ˙ze jest zst epuj ֒ acy, je´sli ֒

A 1 ⊇ A 2 ⊇ A 3 ⊇ . . . .

Twierdzenie 3 (Regu la ci ag lo´sci). Za l´ ֒ o˙zmy, ˙ze (A n ) n=1 jest ci agiem zdarze´ ֒ n.

(i) Je´sli ci ag ten jest wst ֒ epuj ֒ acy, to ֒

n→∞ lim P(A n ) = P [ ∞ n=1

A n

! . (ii) Je´sli ci ag ten jest zst ֒ epuj ֒ acy, to ֒

n→∞ lim P(A n ) = P

\ ∞ n=1

A n

! .

9. Prawdopodobie´ nstwo warunkowe

W praktyce z regu ly jeste´smy zainteresowani nie tyle pojedynczym zdarzeniem, co kilkoma zdarzeniami i ich wzajemnymi zwi azkami. ֒

Przyk lady:

1. Na podstawie ankiety przeprowadzonej na pewnym zbiorze klient´ ow (oznaczmy

go liter a Ω) firma fonograficzna posiada dane na temat ich gust´ow muzycznych. ֒

Przypu´s´cmy, ˙ze kierownictwo jest zainteresowane pytaniem jak cz esto fani jazzu ֒

lubi a tak˙ze muzyk ֒ e klasyczn ֒ a. Je´sli przez J oznaczymy zbi´ ֒ or tych ankietowanych,

(6)

kt´ orzy s a fanami jazzu, a przez K zbi´ ֒ or tych ankietowanych, kt´ orzy s a fanami ֒ muzyki klasycznej, interesuj aca nas cz ֒ esto´s´c jest r´owna ֒

|J ∩ K|

|J| = |J ∩ K|/|Ω|

|J|/|Ω| .

Zauwa˙zmy, ˙ze wyra˙zenia w liczniku i mianowniku to cz esto´sci poszczeg´olnych zbior´ ֒ ow liczone wzgl edem ca lego zbioru Ω. ֒

2. Przypu´s´cmy, ˙ze suma oczek przy dw´ och rzutach kostk a wynosi 4. Nie znamy ֒ jednak wynik´ ow poszczeg´ olnych rzut´ow. Jaka jest szansa zdarzenia A = {przy pierwszym rzucie wypad ly dwa oczka } ?

Informacja kt´ or a posiadamy oznacza, ˙ze zasz lo zdarzenie B = ֒ {(1, 3), (2, 2), (3, 1)}.

Intuicja podpowiada nam, ˙ze ka˙zde z trzech sprzyjaj acych mu zdarze´ ֒ n elementar- nych powinno by´c tak samo prawdopodobne, a zatem szukane prawdopodobie´ nstwo powinno wynosi´c 1/3 (dw´ojce przy pierwszym rzucie sprzyja tylko jedno zdarzenie elementarne z B). Podobnie spodziewamy si e, ˙ze wszystkie zdarzenia elementarne ֒ na przestrzeni

Ω = n

(a, b) : a, b ∈ {1, 2, 3, 4, 5, 6} o ,

opisuj acej dwa rzuty kostk ֒ a, s ֒ a jednakowo prawdopodobne. Zatem naturalnym ֒ modelem dla naszego do´swiadczenia jest (Ω, 2 , P), gdzie P jest prawdopodobie´n- stwem klasycznym

P(C) = |C|

36 , dla C ⊆ Ω.

Zauwa˙zmy teraz, ˙ze

1

3 = 1/36

3/36 = P(A ∩ B) P(B) .

Powy˙zsze przyk lady motywuj a nast ֒ epuj ֒ ac ֒ a definicj ֒ e. ֒

Definicja 3. Niech A, B b ed ֒ a dwoma zdarzeniami, przy czym P(B) > 0. W´owczas ֒ prawdopodobie´ nstwem warunkowym zdarzenia A pod warunkiem zdarzenia B nazy- wamy liczb e ֒

P(A |B) = P(A ∩ B) P(B) .

Uwaga: Pisz ac P(A ֒ |B) milcz aco zak ladamy, ˙ze P(B) > 0. ֒

Przy ustalonym zbiorze B, prawdopodobie´ nstwo warunkowe P(A|B) jako funkcja zbioru A ∈ F spe lnia aksjomaty Ko lmogorowa. W konsekwencji posiada wi ec ֒

wszystkie w lasno´sci prawdopodobie´ nstwa wprowadzone w paragrafie 8.

Twierdzenie 4 (Wz´or la´ ncuchowy). Dla dowolnych zdarze´ n A 1 , . . . , A n , spe lniaj acych ֒ warunek

P(A 1 ∩ A 2 ∩ . . . ∩ A n−1 ) > 0, zachodzi

P(A 1 ∩A 2 ∩. . .∩A n ) = P(A 1 )P(A 2 |A 1 )P(A 3 |A 1 ∩A 2 ) · · · P(A n |A 1 ∩A 2 ∩. . .∩A n−1 ).

(7)

Przyk lad: Losujemy po kolei trzy karty bez zwracania. Jakie jest prawdopo- dobie´ nstwo, ˙ze wylosujemy trzy asy?

Niech A i , i = 1, 2, 3, oznacza prawdopodobie´ nstwo, ˙ze i-t a wylosowan ֒ a kart ֒ a jest ֒ as. Wiemy, ˙ze P(A 1 ) = 4/52. Je´sli pierwsz a wylosowana kart ֒ a jest as, to przed ֒ drugim losowaniem w talii znajduj a si ֒ e trzy asy. Poniewa˙z tym razem losujemy ֒ spo´sr´ od 51 kart, mamy

P(A 2 |A 1 ) = 3 51 . Analogicznie

P(A 3 |A 1 ∩ A 2 ) = 2 50 . Stosuj ac Twierdzenie 4, otrzymujemy ֒

P(wylosujemy trzy asy) = P(A 1 ∩ A 2 ∩ A 3 ) = 4 52 · 3

51 · 2 50 .

W wielu zagadanieniach modele probabilistyczne s a zadane poprzez specyfikacj ֒ e ֒ prawdopodobie´ nstw warunkowych interesuj acych nas zdarze´ ֒ n pod warunkiem in- nych zdarze´ n, kt´ orych prawdopodobie´ nstwa znamy. W takich sytuacjach przydatny jest tzw. wz´ or na prawdopodobie´ nstwo ca lkowite. Zanim go sformu lujemy, wpro- wad´zmy nast epuj ֒ ac ֒ a definicj ֒ e. ֒

Definicja 4. Rozbiciem przestrzeni Ω nazywamy dowoln a rodzin ֒ e zdarze´ ֒ n {H i } i∈I , tak a ˙ze H ֒ i ∩ H j = ∅ dla i 6= j oraz S

i∈I H i = Ω. Je´sli zbi´ or indeksuj acy I jest ֒ sko´ nczony (odp. przeliczalny), to rozbicie nazywamy sko´ nczonym (odp. przeliczal- nym).

Twierdzenie 5 (Wz´or na prawdopodobie´ nstwo ca lkowite). Dla dowolnego sko´ n- czonego rozbicia {H 1 , H 2 , . . . , H n } zbioru Ω na zbiory o dodatnim prawdopodobie´n- stwie i dowolnego zdarzenia A zachodzi r´ owno´s´c

P(A) = X n i=1

P(A|H i )P(H i ).

Analogiczny wz´ or zachodzi tak˙ze dla rozbicia na przeliczaln a liczb ֒ e zdarze´ ֒ n o dodat- nim prawdopodobie´ nstwie.

Przyk lad: Egzamin ustny przeprowadzany jest przez pan´ow Dobrego i Z lego.

Egzamin u pana Dobrego zdaje 90% student´ ow, a u pana Z lego zaledwie 10%.

Jakie jest prawdopodobie´ nstwo, ˙ze student zda egzamin je´sli prawdopodobie´ nstwo,

˙ze trafi do pana Dobrego wynosi 2/3?

Niech D, Z oznaczaj a zdarzenia, ˙ze student trafi l odpowiednio do pana Dobrego ֒ lub Z lego, za´s OK zdarzenie, ˙ze student zda egzamin. Mamy P(D) = 2/3, P(Z) = 1/3 oraz P(OK|D) = 9/10, P(OK|Z) = 1/10. Zatem

P(OK) = P(OK|D)P(D) + P(OK|Z)P(Z) = 9 10 · 2

3 + 1 10 · 1

3 = 19 30 .

Kolejne twierdzenie, blisko zwi azane ze wzorem na prawdopodobie´ ֒ nstwo ca lkowite,

jest bardzo wa˙zne w zastosowaniach.

(8)

Twierdzenie 6 (Wz´or Bayesa). Niech {H i } i∈I b edzie przeliczalnym rozbiciem Ω ֒ na zdarzenia o dodatnich prawdopodobie´ nstwach. W´ owczas, dla dowolnego zdarze- nia A o dodatnim prawdopodobie´ nstwie, zachodzi

P(H j |A) = P(A |H j )P(H j ) P

i∈I P(A|H i )P(H i ) .

Przyk lad: Samochody sprzedawane przez pewn a firm ֒ e pochodz ֒ a z dw´ ֒ och fa- bryk: A (40%) oraz B (60%). Co dwudziesty samoch´ od z fabryki A zawiera wad e ֒ fabryczn a. To samo dotyczy co dziesi ֒ atego samochodu z fabryki B. Klient ku- ֒ puje samoch´ od, kt´ ory okazuje si e by´c wadliwy. Jakie jest prawdopodobie´ ֒ nstwo, ˙ze pochodzi z fabryki A?

Z warunk´ ow zadania otrzymujemy, ˙ze P(samoch´od wadliwy |A) = 1

20 , P(samoch´od wadliwy |B) = 1 10 , P(A) = 4

10 , P(B) = 6 10 ,

gdzie A, B oznaczaj a zdarzenia, ˙ze samoch´ ֒ od pochodzi z fabryki odpowiednio A, B.

Z wzoru Bayesa otrzymujemy

P(A |samoch´od wadliwy) = P(samoch´od wadliwy |A)P(A)

P(samoch´od wadliwy |A)P(A) + P(samoch´od wadliwy|B)P(B)

= 1/20 · 4/10

1/20 · 4/10 + 1/10 · 6/10 = 1 4 . 10. Niezale˙zno´ s´ c zdarze´ n Przypu´s´cmy, ˙ze zdarzenia A, B spe lniaj a warunek ֒

P(B |A) = P(B).

(1)

Oznacza to, ˙ze dodatkowa wiedza, ˙ze zasz lo zdarzenie A, nie wp lywa na prawdo- podobie´ nstwo zdarzenia B. Mo˙zna wi ec powiedzie´c, ˙ze zdarzenie B jest niezale˙zne ֒ od zdarzenia A. Powy˙zszy warunek zapisuje si e r´ownowa˙znie jako ֒

P(A ∩ B) = P(A)P(B).

(2)

W szczeg´olno´sci widzimy, ˙ze je´sli (1) zachodzi oraz P(B) > 0, to P(A |B) = P(A),

czyli r´ownie˙z zdarzenie A nie zale˙zy od zdarzenia B. Zapis (2) ma t e zalet ֒ e, ˙ze ֒ lepiej ni˙z (1) obrazuje symetri e sytuacji, dodatkowo ma sens tak˙ze dla zdarze´ ֒ n o zerowym prawdopodobie´ nstwie. Naturalne jest wi ec przyj ֒ a´c nast ֒ epuj ֒ ac ֒ a definicj ֒ e. ֒ Definicja 5. Zdarzenia A, B nazywamy niezale˙znymi, je´sli

P(A ∩ B) = P(A)P(B).

Przyk lady:

1. Rzucamy kostk a. Rozpatrzmy zdarzenia: A - wypad la parzysta liczba oczek, ֒

B - liczba wyrzuconych oczek jest mniejsza ni˙z 5, C - liczba wyrzuconych oczek

(9)

jest mniejsza ni˙z 6. Oczywi´scie P(A) = 1/2, P(B) = 2/3, P(C) = 5/6. Zdarzenia A i B s a niezale˙zne natomiast zdarzenia A i C nie s ֒ a niezale˙zne. Rzeczywi´scie ֒

P(A ∩ B) = P(wypad ly 2 lub 4 oczka) = 1

3 = P(A)P(B), P(A ∩ C) = P(A ∩ B) = 1

3 6= P(A)P(C).

2. W ramach nagrody firma wykupi la dla pracownik´ow dwa rodzaje wycieczek, w g´ ory i nad morze. W´sr´ od 12 pracownik´ow rozdzielono w spos´ ob losowy 8 wycieczek nad morze, z czego dwie w lipcu, a sze´s´c w sierpniu oraz cztery wycieczki w g´ ory, jedn a w lipcu i trzy w sierpniu. Niech M oznacza zdarzenie, ˙ze ustalony pracownik ֒ wylosuje wycieczk e nad morze, za´s L - zdarzenie, ˙ze ten sam pracownik wylosuje ֒ termin lipcowy. Mamy P(M ) = 8/12, P(L) = 3/12 oraz P(M ∩L) = 2/12. Poniewa˙z 8/12 · 3/12 = 2/12, zdarzenia M i L s a niezale˙zne. ֒

3. Losujemy jedn a kart ֒ e z talii. Zdarzenie A, polegaj ֒ ace na wylosowaniu karty ֒ starszej ni˙z walet i zdarzenie B, polegaj ace na wylosowaniu karty w kolorze trefl s ֒ a ֒ niezale˙zne. Rzeczywi´scie, P(A) = 12/52 (wylosowana karta musi byc dam a, kr´ ֒ olem lub asem w jednym z czterech mo˙zliwych kolor´ ow), P(B) = 1/4 oraz P(A ∩ B) = P(wylosowano dam e, kr´ ֒ ola lub asa trefl) = 3/52 = P(A)P(B).

Pytanie: Co si e zmieni gdy do talii dodamy jednego jokera (przyjmujemy, ˙ze ֒ joker nie ma ˙zadnego koloru)?

4. Rzucamy dwa razy monet a. Niech O ֒ i oznacza zdarzenie, ˙ze w i-tym rzu- cie wypad l orze l. Intuicyjnie uwa˙zamy te zdarzenia za niezale˙zne (przynajmniej zak ladaj ac, ˙ze osoba rzucaj ֒ aca monet ֒ a nie oszukuje). W klasycznym modelu proba- ֒ bilistycznym dla monety symetrycznej, gdy prawdopodobie´ nstwo ka˙zdej z czterech sekwencji (O, O), (O, R), (R, O), (R, R) wynosi 1/4, latwo sprawdzi´c (por. z po- przednim przyk ladem), ˙ze rzeczywi´scie tak jest (P(O 1 ∩ O 2 ) = P(O 1 )P(O 2 )).

Zastan´ owmy si e wi ֒ ec jak zdefiniowa´c prawdopodobie´ ֒ nstwo P na zbiorze Ω = {(O, O), (O, R), (R, O), (R, R)},

tak aby prawdopodobie´ nstwo wyrzucenia or la wynosi lo p (zar´owno w pierwszym, jak i drugim rzucie), a zdarzenia O 1 , O 2 nadal by ly niezale˙zne. Musimy w tym celu ustali´c cztery liczby p (O,O) , p (O,R) , p (R,R) , p (R,R) . Chcemy aby

P( {(O, O), (O, R)}) = P({(O, O), (R, O)}) = p oraz P( {(O, O)}) = p 2 ,

sk ad dostajemy r´ownania ֒

p (O,O) + p (O,R) = p (O,O) + p (R,O) = p, p (O,O) = p 2 .

Zatem p (R,O) = p (R,O) = p(1 − p). Poniewa˙z p (O,O) + p (O,R) + p (R,O) + p (R,R) = 1, ostatecznie dostajemy

p (O,O) = p 2 ,

p (O,R) = p (R,O) = p(1 − p),

p (R,R) = (1 − p) 2 .

(10)

Mo˙zna r´ownie˙z m´owi´c o niezale˙zno´sci wi ekszej liczby zdarze´ ֒ n. Definicja okazuje si e jednak bardziej skomplikowana. ֒

Definicja 6. Zdarzenia A 1 , A 2 , . . . , A n nazywamy niezale˙znymi, je´sli dla dowol- nych wska´znik´ ow 1 ≤ i 1 < i 2 < . . . < i k ≤ n, k = 2, 3, . . . , n, zachodzi r´owno´s´c

P(A i

1

∩ A i

2

∩ . . . ∩ A i

k

) = P(A i

1

) · P(A i

2

) · . . . · P(A i

k

).

(3)

Przyk lady:

1. Losujemy liczb e od 1 do 90. Rozwa˙zmy zdarzenia A - wylosowana liczba jest ֒ podzielna przez 2, B - wylosowana liczba jest podzielna przez 3, C - wylosowana liczba jest podzielna przez 5. W´ owczas, jak latwo sprawdzi´c

P(A) = 1

2 , P(B) = 1/3, P(C) = 1/5 oraz

P(A ∩ B) = 1

6 = P(A)P(B), P(A ∩ C) = 1

10 = P(A)P(C), P(B ∩ C) = 1

15 = P(B)P(C), P(A ∩ B ∩ C) = 1

30 = P(A)P(B)P(C).

Zdarzenia A, B, C s a zatem niezale˙zne. ֒

2. Mo˙zna si e zastanawia´c, czy powy˙zej musieli´smy sprawdza´c prawdopodobie´ ֒ n- stwa wszystkich czterech iloczyn´ow zbior´ ow. Okazuje si e, ˙ze tak, co ilustruje ֒ nast epuj ֒ acy przyk lad. ֒

Trzech wsp´o llokator´ow (Bartek, Czarek i Darek) decyduje si e odda´c butelki do ֒ skupu. Zadanie wymaga udzia lu dw´ och os´ ob. Przygotowuj a wi ֒ ec cztery losy ֒ {Bartek, Czarek, Darek, Za tydzie´n}, aby zadecydowa´c czy dw´och z nich zda bu- telki, a wylosowany zostanie w domu, czy te˙z od lo˙z a problem na przysz ly tydzie´ ֒ n.

Rozwa˙zmy zdarzenia

B = {Bartek, Za tydzie´n} - Bartek zostanie w domu, C = {Czarek, Za tydzie´n} - Czarek zostanie w domu, D = {Darek, Za tydzie´n} - Darek zostanie w domu.

Prawdopodobie´ nstwo ka˙zdego ze zdarze´ n B, C, D wynosi 1/2. Ponadto P(B ∩ C) = 1

4 = P(B)P(C), P(B ∩ D) = 1

4 = P(B)P(D), P(C ∩ D) = 1

4 = P(C)P(D).

Zatem ka˙zde dwa spo´sr´ od zdarze´ n B, C, D s a niezale˙zne (w takiej sytuacji m´owimy, ֒

˙ze zdarzenia B, C, D s a niezale˙zne parami). Zdarzenia B, C, D nie s ֒ a jednak nieza- ֒ le˙zne, gdy˙z

P(B ∩ C ∩ D) = P({Za tydzie´n}) = 1 4 6= 1

8 = P(B)P(C)P(D).

Twierdzenie 7. Rozwa˙zmy zdarzenia A 1 , A 2 , . . . , A n i oznaczmy A 0 i = A i , A 1 i =

A i . W´ owczas nast epuj ֒ ace warunki s ֒ a r´ ֒ ownowa˙zne:

(11)

(i) zdarzenia A 1 , A 2 , . . . , A n s a niezale˙zne, ֒

(ii) dla ka˙zdego ci agu ε ֒ 1 , . . . , ε n , gdzie ε i ∈ {0, 1} (i = 1, . . . , n), zdarzenia B 1 = A ε 1

1

, . . . , B n = A ε n

n

, s a niezale˙zne, ֒

(iii) dla ka˙zdego ci agu ε ֒ 1 , . . . , ε n , gdzie ε i ∈ {0, 1} (i = 1, . . . , n), zachodzi P(A ε 1

1

∩ . . . ∩ A ε n

n

) = P(A ε 1

1

) · . . . · P(A ε n

n

).

W szczeg´olno´sci, z powy˙zszego twierdzenia wynika, ˙ze je´sli zdarzenia A, B s a ֒ niezale˙zne, to niezale˙zne s a tak˙ze zdarzenia A ֒ , B . Fakt ten pozwala upro´sci´c nieco rachunki w przyk ladzie 4 powy˙zej.

11. Schemat Bernoulliego

Definicja 7. Schematem Bernoulliego nazywamy ci ag niezale˙znych powt´ ֒ orze´ n tego samego do´swiadczenia, w kt´ orym s a mo˙zliwe dwa wyniki: jeden z nich nazywamy ֒ sukcesem (i prawdopodobie´ nstwo jego zaj´scia oznaczamy przez p), a drugie - pora˙zk a ֒ (jego prawdopodobie´ nstwo wynosi q = 1 − p). Pojedyncze do´swiadczenie nazywamy pr´ ob a Bernoulliego. ֒

Schemat Bernoulliego jest jednoznacznie okre´slony przez podanie liczby pr´ob (oznaczanej dalej liter a n) i prawdopodobie´ ֒ nstwa sukcesu p. Mo˙zna te˙z rozpa- trywa´c schematy Bernoulliego z niesko´ nczon a liczb ֒ a pr´ob. ֒

Przyk lady:

1. Rzucamy 10 razy prawid low a monet ֒ a. Pr´ob ֒ a Bernoulliego jest pojedynczy ֒ rzut monet a, jako sukces przyjmujemy wyrzucenie or la. Mamy n = 10, p = 1/2. ֒

2. Rzucamy 5 razy prawid low a kostk ֒ a. Pr´ ֒ ob a Bernoulliego jest pojedynczy rzut ֒ kostk a, jako sukces przyjmujemy wyrzucenie co najwy˙zej 2 oczek. Mamy n = 5, ֒ p = 1/3.

3. Z urny, w kt´ orej znajduje si e 5 bia lych i 4 czarne kule, losujemy 20 razy ze ֒ zwracaniem po 2 kule. Pr´ ob a Bernoulliego jest pojedyncze losowanie dw´ ֒ och kul, jako sukces bierzemy wylosowanie dw´ och bia lych kul. Mamy n = 20, p = 5 2 

/ 9 2  . Latwo poda´c przestrze´ n probabilistyczn a modeluj ֒ ac ֒ a schemat Bernoulliego sk la- ֒ daj acego si ֒ e z n pr´ob i prawdopodobie´ ֒ nstwie sukcesu p. Mianowicie,

Ω = {(a 1 , a 2 , . . . , a n ) : a i ∈ {0, 1}, i = 1, 2 . . . , n},

gdzie a i = 1 (odp., a i = 0) interpretujemy jako sukces (odp., pora˙zk e) w i-tej pr´obie, ֒ i = 1, 2, . . . , n. Ponadto, bierzemy F = 2 . Aby okre´sli´c prawdopodobie´ nstwo na (Ω, F), wystarczy okre´sli´c je na zdarzeniach jednoelementowych (patrz przyk lad 6 ze strony 4). K ladziemy

P( {(a 1 , a 2 , . . . , a n ) }) = p P

ni=1

a

i

(1 − p) n− P

ni=1

a

n

.

St ad latwo wynika, i˙z prawdopodobie´ ֒ nstwo uzyskania dok ladnie k sukces´ ow w schemacie Bernoulliego sk ladaj acego si ֒ e z n pr´ob wynosi ֒

n k



p k (1 − p) n−k . Przyk lady:

1. Rzucamy 10 razy kostk a. Jakie jest prawdopodobie´ ֒ nstwo tego, ˙ze sz´ostka

wypadnie raz lub dwa razy?

(12)

Mamy tu do czynienia ze schematem Bernoulliego sk ladaj acego si ֒ e z 10 pr´ob. ֒ Pr´ob a Bernoulliego jest pojedynczy rzut kostk ֒ a, a sukcesem jest wyrzucenie 6 oczek; ֒ zatem p = 1/6. Wobec tego

P(sz´ostka wypadnie raz lub dwa razy) = P(jeden sukces) + P(dwa sukcesy)

= 10 1

  1 6

 1  5 6

 9

+ 10 2

  1 6

 2  5 6

 8

. 2. Dany jest schemat Bernoulliego sk ladaj acy si ֒ e z n pr´ob, o prawdopodo- ֒ bie´ nstwie sukcesu p. Jaka jest najbardziej prawdopodobna liczba sukces´ ow?

Oznaczmy

p k = P(mamy dok ladnie k sukces´ow) = n k



p k (1 − p) k . Mamy

p k+1

p k

=

n k+1

 p k+1 (1 − p) n−(k+1)

n k

 p k (1 − p) n−k = (n − k)p (k + 1)(1 − p) .

Powy˙zsze wyra˙zenie jest wi eksze ni˙z 1 wtedy i tylko wtedy, gdy k < (n + 1)p ֒ − 1;

jest za´s mniejsze ni˙z 1 wtedy i tylko wtedy, gdy k > (n + 1)p − 1. Innymi s lowy, do momentu k = (n + 1)p liczby p k rosn a, a potem malej ֒ a. Daje to nast ֒ epuj ֒ ac ֒ a ֒ odpowied´z. Je´sli (n + 1)p jest liczb a ca lkowit ֒ a, to dwie liczby sukces´ ֒ ow s a najbar- ֒ dziej prawdopodobne: (n + 1)p − 1 oraz (n + 1)p. Je´sli za´s (n + 1)p nie jest liczb a ֒

ca lkowit a, to najbardziej prawdopodobn ֒ a liczb ֒ a sukces´ ֒ ow jest ⌊(n + 1)p⌋.

W przypadku, gdy liczba pr´ob w schemacie Bernoulliego jest du˙za, obliczanie prawdopodobie´ nstwa danej liczby sukces´ ow jest k lopotliwe. W przypadku gdy np jest ,,umiarkowane”, dobre przybli˙zenie takiego prawdopodobie´ nstwa daje nast e- ֒ puj ace twierdzenie. ֒

Twierdzenie 8 (Poissona). Je´sli p n ∈ [0, 1], lim n→∞ np n = λ > 0, to dla k = 0, 1, 2, . . . ,

n→∞ lim

n k



p k n (1 − p n ) n−k = λ k k! e −λ .

Powstaje naturalne pytanie, na ile powy˙zsze przybli˙zenie jest ,,dobre”. Odpo- wied´z jest zawarta w nast epuj ֒ acym twierdzeniu. ֒

Twierdzenie 9 (Oszacowanie b l edu w przybli˙zeniu poissonowskim). Niech S ֒ n

oznacza liczb e sukces´ ֒ ow w schemacie Bernoulliego sk ladaj acym si ֒ e z n pr´ ֒ ob i praw- dopodobie´ nstwie sukcesu p. Oznaczmy λ = np. Dla dowolnego A ⊂ {0, 1, 2, . . .},

P(S n ∈ A) − X

k∈A

λ k k! e −λ

≤ λ 2

n . Przyk lady:

1. W urnie znajduje si e 999 czarnych i 1 bia la kula. Wyznaczy´c przybli˙zone ֒ prawdopodobie´ nstwo tego, ˙ze losuj ac 500 razy ze zwracaniem wylosujemy 2 razy ֒ bia l a kul ֒ e. ֒

Mamy tu do czynienia ze schematem 500 pr´ob Bernoulliego (z kt´ orych ka˙zda to

pojedyncze losowanie z urny), o prawdopodobie´ nstwie sukcesu p = 1/1000. Liczba

pr´ob n = 500 jest du˙za, λ = np = 1/2 jest umiarkowane, a wi ec na mocy twierdzenia ֒

(13)

Poissona, szukane prawdopodobie´ nstwo jest w przybli˙zeniu r´owne (1/2) 2!

2

e −1/2 = 0, 076 . . . . Ponadto, jak wida´c z powy˙zszego twierdzenia, b l ad oszacowania jest ֒ niewi ekszy ni˙z λ ֒ 2 /n = 1/2000 = 0, 005.

2. Artyku l liczy 10 5 znak´ow. Podczas wprowadzania artyku lu do komputera, prawdopodobie´ nstwo i˙z dany znak zostanie wpisany b l ednie wynosi 0, 0001. Jakie ֒ jest prawdopodobie´ nstwo, ˙ze w artykule s a co najmniej 2 b l ֒ edy? ֒

Widzimy, i˙z mamy do czynienia ze schematem Bernoulliego sk ladaj acym si ֒ e z ֒ n = 10 5 pr´ob (k-ta z nich odpowiada wprowadzeniu k-tego znaku artyku lu). Praw- dopodobie´ nstwo sukcesu (wprowadzenia znaku b l ednie) wynosi p = 0, 0001. Mamy, ֒ i˙z n jest du˙ze, a λ = np = 10 jest umiarkowane; st ad mo˙zemy u˙zywa´c twierdzenia ֒ Poissona. Latwiej jest pracowa´c ze zdarzeniem przeciwnym do rozwa˙zanego: w artykule jest co najwy˙zej 1 b l ad. Prawdopodobie´ ֒ nstwo tego zdarzenia wynosi w przybli˙zeniu

10 0

0! e −10 + 10 1

1! e −10 = 11e −10 = 0, 0005 . . . ,

a wi ec rozwa˙zane w przyk ladzie prawdopodobie´ ֒ nstwo wynosi oko lo 0, 9995. B l ad ֒ przybli˙zenia szacuje si e przez λ ֒ 2 /n = 0, 001.

3. Z przedzia lu [0, 2] wybieramy losowo 100 punkt´ow. Jakie jest prawdopodo- bie´ nstwo tego, ˙ze co najmniej jeden z nich b edzie nale˙za l do odcinka [0, 1/4]? ֒

Mamy schemat n = 100 pr´ob Bernoulliego z prawdopodobie´ nstwem sukcesu (wpadni ecie losowanego punktu do [0, 1/4]) wynosz ֒ acym p = 1/8. Mamy λ = np = ֒ 12, 5 i zdarzenie przeciwne do badanego ma w przybli˙zeniu prawdopodobie´ nstwo e −12,5 = 0, 000004 . . .. B l ad przybli˙zenia szacuje si ֒ e przez λ ֒ 2 /n = 1, 5625. Wida´c wi ec, ˙ze otrzymany wynik jest bezwarto´sciowy. Jest tak dlatego, i˙z λ, w por´ownaniu ֒ do n, nie jest ,,umiarkowane”.

12. Zmienne losowe jednowymiarowe

Jak ju˙z wiemy, matematycznym opisem do´swiadczenia losowego jest przestrze´ n probabilistyczna (Ω, F, P). Cz esto jednak nie interesuje nas konkretny wynik ω ֒ ∈ Ω, ale pewne charakterystyki liczbowe wyniku. Na przyk lad, przy rzucie dwoma kost- kami mo˙ze nas interesowa´c suma oczek; przy niesko´ nczonym ci agu rzut´ow monet ֒ a ֒ mo˙ze nas interesowa´c numer losowania, w kt´ orym orze l pojawi l si e po raz pierw- ֒ szy, itp. Innymi s lowy, cz esto obiektem naszych zainteresowa´ ֒ n jest pewna funkcja X okre´slona na Ω, przyjmuj aca warto´sci rzeczywiste. Przy badaniu takiej funkcji, ֒ naturalnym pytaniem jest np. pytanie o prawdopodobie´ nstwo tego, ˙ze X ≤ a (por.

powy˙zsze przyk lady). W szczeg´olno´sci oznacza to, i˙z ,,X nie przekracza a” jest zdarzeniem, tzn.

X −1 (( −∞, a]) = {ω ∈ Ω : X(ω) ≤ a} ∈ F.

Prowadzi to do nast epuj ֒ acego poj ֒ ecia. ֒

Definicja 8. Funkcj e X : Ω ֒ → R nazywamy zmienn a losow ֒ a o warto´sciach w R, ֒ je´sli dla dowolnego a ∈ R zbi´or X −1 (( −∞, a]) jest zdarzeniem, czyli X −1 (( −∞, a]) ∈ F.

Uwaga: Gdy Ω jest zbiorem co najwy˙zej przeliczalnym i F = 2 , to ka˙zda funkcja X : Ω → R jest zmienn a losow ֒ a. ֒

Przyk lady:

(14)

1. Rzucamy dwa razy monet a, X - liczba wyrzuconych or l´ow. Mamy Ω = ֒ {(O, O), (O, R), (R, O), (R, R)} i X((O, O)) = 2, X((O, R)) = X((R, O)) = 1, X((R, R)) = 0.

2. Rzucamy dwa razy kostk a, X - suma oczek. Mamy Ω = ֒ {(a, b) : a, b ∈ {1, 2, 3, 4, 5, 6}}, X((a, b)) = a + b.

3. Z odcinka [0, 3] wybieramy punkt, X - jego odleg lo´s´c od najbli˙zszej liczby ca lkowitej. W´ owczas Ω = [0, 3] i dla ω ∈ Ω,

X(ω) =

 

 

 

 

ω je´sli ω ∈ [0, 1/2],

|ω − 1| je´sli ω ∈ (1/2, 3/2],

|ω − 2| je´sli ω ∈ (3/2, 5/2], 3 − ω je´sli ω ∈ (5/2, 3].

Na zmiennych losowych (okre´slonych na tej samej przestrzeni probabilistycznej) mo˙zna wykonywa´c wszelkie (rozs adne...) dzia lania: dodawanie, odejmowanie, mno- ֒

˙zenie, dzielenie (o ile nie dzielimy przez 0) i jako wynik otrzymujemy nowe zmienne losowe. Ponadto, je´sli X jest zmienn a losow ֒ a, a f : R ֒ → R jest funkcj a bore- ֒

lowsk a, to f (X) te˙z jest zmienn ֒ a losow ֒ a. Np., je´sli X, Y s ֒ a zmiennymi losowymi, ֒ to Z 1 = sin X, Z 2 = 3 sin X + Y 2 , Z 3 = Y

2

X +1 tak˙ze s a zmiennymi losowymi. ֒

Przechodzimy teraz do poj ecia rozk ladu zmiennej losowej. Zacznijmy od kilku ֒ przyk lad´ ow.

1. Rzucamy trzy razy symetryczn a monet ֒ a. Niech X oznacza liczb ֒ e wyrzuconych ֒ or l´ow. Korzystaj ac ze schematu Bernoulliego obliczamy, i˙z ֒

P(X = 0) = 1

8 , P(X = 1) = 3

8 , P(X = 2) = 3

8 , P(X = 3) = 1 8 .

Widzimy wi ec, ˙ze 0 oraz 3 s ֒ a przyjmowane z prawdopodobie´ ֒ nstwem 1/8, a 1 i 2 - z prawdopodobie´ nstwem 3/8. Wida´c, ˙ze dostajemy pewien rozk lad prawdopodo- bie´ nstwa na prostej.

Niech teraz Y - liczba wyrzuconych reszek. W´ owczas tak samo: 0 oraz 3 s a ֒ przyjmowane przez zmienn a Y z prawdopodobie´ ֒ nstwem 1/8, a 1 i 2 - z prawdopo- dobie´ nstwem 3/8. Tak wi ec dostajemy to samo prawdopodobie´ ֒ nstwo na prostej.

2. Z ko la o promieniu 1 losujemy punkt. Niech X oznacza odleg lo´s´c tego punktu od ´srodka ko la. W´ owczas X przyjmuje warto´sci z przedzia lu [0, 1]. Dla a ∈ [0, 1]

mamy

P(X ∈ [0, a]) = πa 2 π = a 2 ,

a wi ec potrafimy ,,mierzy´c wielko´s´c” przedzia l´ow [0, a]. Okazuje si ֒ e, i˙z podan ֒ a ֒ funkcj e mo˙zna rozszerzy´c do prawdopodobie´ ֒ nstwa okre´slonego na prostej. Zale˙zy ono oczywi´scie od zmiennej X.

Z powy˙zszych dw´ och przyk lad´ ow wida´c, i˙z przy ustalonej zmiennej losowej X, prawdopodobie´ nstwo z wyj´sciowej przestrzeni probabilistycznej daje si e ,,przetrans- ֒ portowa´c” do prawdopodobie´ nstwa µ X na (R, B(R)). Prowadzi to do poj ecia ֒

rozk ladu zmiennej losowej.

(15)

Definicja 9. Rozk ladem zmiennej losowej rzeczywistej X nazywamy prawdopodo- bie´ nstwo µ X na (R, B(R)), dane wzorem

µ X (A) = P(X ∈ A).

Uwaga: Istniej a r´o˙zne zmienne losowe maj ֒ ace ten sam rozk lad. Por. przyk lad ֒ 1 powy˙zej.

Przyk lady:

1. Rzucamy raz kostk a. Niech X oznacza liczb ֒ e oczek. W´ ֒ owczas µ X jest takim prawdopodobie´ nstwem skoncentrowanym na zbiorze {1, 2, 3, 4, 5, 6}, ˙ze

µ X ( {k}) = 1 6 . Tak wi ec, dla A ֒ ∈ B(R),

µ X (A) = 1 6

X 6 k=1

1 A (k).

2. Powy˙zszy rozk lad jest przyk ladem rozk ladu dyskretnego. Rozk lad na prostej rzeczywistej nazwiemy dyskretnym, je´sli istnieje co najwy˙zej przeliczalny zbi´ or S taki, ˙ze µ(S) = 1. Rozk lad taki jest jednoznacznie wyznaczony przez masy (praw- dopodobie´ nstwa) punkt´ow nal e˙z ֒ acych do S (´sci´slej, jednoelementowych podzbior´ ֒ ow S): istotnie, dla dowolnego A ∈ B(R),

µ(A) = X

k∈A

µ( {k}).

3. Rozk lad Bernoulliego B(n, p). Jest to rozk lad zmiennej losowej X okre´slonej jako liczba sukces´ ow w schemacie Bernoulliego sk ladaj acego si ֒ e z n pr´ob o prawdo- ֒ podobie´ nstwie sukcesu p. Dany jest on poprzez

µ( {k}) = n k



p k (1 − p) n−k , k = 0, 1, 2, . . . , n.

4. Rozk lad geometryczny z parametrem p ∈ (0, 1), ozn. Geom(p). Jest to rozk lad zmiennej losowej X okre´slonej jako numer pr´oby, w kt´ orej sukces pojawi l si e po raz pierwszy. Jest to rozk lad skoncentrowany na zbiorze ֒ {1, 2, . . . , ∞}.

Ponadto, mamy

µ X ( {k}) = (1 − p) k−1 p, k = 1, 2, . . . oraz

µ X ( {∞}) = 1 − X ∞ k=1

µ X ( {k}) = 0.

Czasami rozk ladem geometrzycznym nazywamy rozk lad zmiennej Y = X − 1, okre´slony przez

µ Y ( {k}) = (1 − p) k p, k = 0, 1, 2, . . . .

5. Rozk lad Poissona z parametrem λ > 0, ozn. Pois(λ). Jest to taki rozk lad skoncentrowany na liczbach ca lkowitych nieujemnych, ˙ze

µ( {k}) = λ k k! e −λ .

Jak wiadomo z twierdzenia Poissona, jest to rozk lad graniczny, b ed ֒ acy granic ֒ a ֒

rozk lad´ ow Bernoulliego.

(16)

6. Przyk lad rozk ladu ci ag lego: rozk lad jednostajny na odcinku [a, b], ozn. ֒ U(a, b).

Za l´o˙zmy, ˙ze losujemy liczb e X z odcinka [a, b]. W´ ֒ owczas, z prawdopodobie´ nstwa geometrycznego, mamy, dla przedzia lu [c, d] ⊂ [a, b],

µ X ([c, d]) = P(X ∈ [c, d]) = |[c, d]|

|[a, b]| = d − c b − a =

Z d c

1 b − a dx =

Z

[c,d]

1 b − a dx.

Og´ olniej, je´sli A jest borelowskim podzbiorem [a, b], to µ X (A) = P(X ∈ A) = |A|

|[a, b]| = 1 b − a |A| =

Z

A

1 b − a dx.

Jeszcze og´olniej, gdy A ⊂ R, to bierzemy µ X (A) = µ X (A ∩ [a, b]).

7. Inny przyk lad rozk ladu ci ag lego. Za l´o˙zmy, ˙ze rzucamy monet ֒ a, dla kt´ ֒ orej prawdopodobie´ nstwo wypadni ecia or la wynosi 1/3. Dalej, je´sli wypadnie orze l, to ֒ losujemy punkt X z odcinka [ −2, 0), natomiast gdy wypadnie reszka - losujemy punkt X z odcinka [0, 3]. Argumentuj ac jak w poprzednim przyk ladzie mamy, i˙z ֒ dla borelowskiego podzbioru [0, 3],

µ X (A) = P(X ∈ A) = Z

A

2 3 · 1

3 − 0 dx, a dla borelowskiego podzbioru A odcinka [ −2, 0),

µ X (A) = Z

A

1

3 · 1

0 − (−2) dx.

Og´ olnie, gdy A jest podzbiorem borelowskim prostej, to µ X (A) =

Z

A

g(x)dx, gdzie

g(x) =

 

 

1

6 je´sli x ∈ [−2, 0),

2

9 je´sli x ∈ [0, 3],

0 w pozosta lych przypadkach.

Powy˙zsze dwa przyk lady to przyk lady rozk lad´ ow z g esto´sci ֒ a b ֒ ad´z rozk lad´ ֒ ow ci ag lych. ֒

Definicja 10. Zmienna losowa X ma rozk lad ci ag ly, je´sli istnieje taka funkcja ֒ g : R → R + , ˙ze dla dowolnego zbioru A ∈ B(R),

µ X (A) = P(X ∈ A) = Z

A

g(x)dx.

W´ owczas funkcj e g nazywamy g ֒ esto´sci ֒ a rozk ladu zmiennej X b ֒ ad´z g ֒ esto´sci ֒ a zmien- ֒ nej X.

Uwaga: G esto´s´c jednoznacznie wyznacza rozk lad. ֒ Przyk lady - ci ag dalszy: ֒

8. Przyk lad 6 mo˙zemy wi ec zapisa´c nast ֒ epuj ֒ aco: rozk lad jednostajny ֒ U(a, b) to rozk lad z g esto´sci ֒ a ֒

g(x) = 1

b − a 1 [a,b] (x).

(17)

9. Rozk lad wyk ladniczy z parametrem λ > 0, ozn. Exp(λ). Jest to rozk lad z g esto´sci ֒ a ֒

g(x) = λe −λx 1 [0,∞) (x).

10. Standardowy rozk lad normalny, ozn. N (0, 1). Jest to rozk lad o g esto´sci ֒

g(x) = 1

√ 2π e −x

2

/2 .

Og´ olniej, dla a ∈ R oraz σ > 0 definiujemy rozk lad normalny o parametrach a, σ 2 (ozn. N (a, σ 2 )) jako rozk lad o g esto´sci ֒

g a,σ

2

(x) = 1

√ 2πσ exp 

− (x − a) 22

 .

Dodatkowo dla σ = 0, definiujemy N (a, 0) jako rozk lad jednopunktowy δ a (tzw.

delta Diraca w a), zadany wzorem δ a (A) = 1 A (a) =

( 1 gdy a ∈ A 0 w p.p.

Jak widzimy N (a, σ 2 ) jest rozk ladem ci ag lym dla σ > 0 i dyskretnym dla σ = 0. ֒ Uwaga: Rozk lady normalne nale˙z a do najwa˙zniejszych rozk lad´ ֒ ow w rachunku prawdopodobie´ nstwa. Pojawiaj a si ֒ e one niezwykle cz ֒ esto w zastosowaniach, ze ֒ wzgl edu na fakt, ˙ze wiele wyst ֒ epuj ֒ acych w przyrodzie wielko´sci ma rozk lad w przy- ֒ bli˙zeniu normalny. Wykres g esto´sci rozk ladu normalnego ci ֒ ag lego to charaktery- ֒ styczna krzywa o kszta lcie ,,dzwonu”, znana chocia˙zby z opracowa´ n popularnych, gdzie ilustruje np. rozk lad wzrostu, wagi, ilorazu inteligencji czy innych cech w po- pulacji. W dalszej cz e´sci wyk ladu poznamy tzw. Centralne Twierdzenie Graniczne, ֒ kt´ ore stanowi matematyczne wyja´snienie faktu pojawiania si e g ֒ esto´sci normalnej w ֒ tak wielu, cz esto do´s´c odleg lych problemach. ֒

13. Dystrybuanta zmiennej losowej

Jak ju˙z wspomniano w poprzednim rozdziale, z regu ly jeste´smy zainteresowani zdarzeniami typu {ω ∈ Ω: X(ω) ≤ a} = {X ≤ a}, gdzie X jest zmienn a losow ֒ a, za´s ֒ a – liczb a rzeczywist ֒ a. Zdarzenia tego typu maj ֒ a podstawowe znaczenie dla bada- ֒ nia zmiennych losowych, w szczeg´olno´sci, jak zobaczymy nieco p´ o´zniej, znajomo´s´c prawdopodobie´ nstwa P(X ≤ a) dla wszystkich a ∈ R wyznacza jednoznacznie rozk lad zmiennej. Dlatego te˙z wprowadza si e nast ֒ epuj ֒ ac ֒ a definicj ֒ e. ֒

Definicja 11. Dystrybuant a zmiennej losowej X : Ω ֒ → R nazywamy funkcj e ֒

F X : R → [0, 1] dan a wzorem ֒

F X (t) = P(X ≤ t).

Uwaga: Dystrybuanta zale˙zy jedynie od rozk ladu zmiennej losowej X, a zatem jest sens m´owi´c o dystrybuancie rozk ladu (a nie zmiennej).

Przyk lady

1. Dystrybuanta zmiennej X o rozk ladzie δ a (czyli przyjmuj acej z prawdopodo- ֒ bie´ nstwem 1 warto´s´c a) jest dana wzorem

F X (t) =

( 0 dla t < a

1 dla t ≥ a.

(18)

2. Dystrybuanta zmiennej dwupunktowej, przyjmuj acej warto´sci 1, ֒ −1, ka˙zd a z ֒

prawdopodobie´ nstwem 1/2 jest funkcja

F (t) =

 

 

0 dla t ∈ (−∞, −1) 1/2 dla t ∈ [−1, 1) 1 dla t ∈ [1, ∞).

3. Je´sli Y jest zmienn a o rozk ladzie wykladniczym z parametrem 1, czyli o ֒ g esto´sci g ֒ Y (t) = e −t 1 [0,∞) (t), to

F Y (t) = P(Y ≤ t) = Z t

−∞

g(x)dx = [ −e −x 1 [0,∞) (x)] x=t x=−∞ = (1 − e −t )1 [0,∞) (t).

Powy˙zsze przyk lady sugeruj a, ˙ze dystrybuantami zmiennych losowych mog ֒ a by´c ֒ tylko funkcje szczeg´olnego typu. M´ owi o tym poni˙zsze twierdzenie.

Twierdzenie 10. Dystrybuanta F X zmiennej losowej X ma nast epuj ֒ ace w lasno´sci: ֒ (i) F X jest niemalej aca, ֒

(ii) lim t→∞ F X (t) = 1, lim t→−∞ F X (t) = 0, (iii) F X jest prawostronie ciag la.

Uwaga Czasami w literaturze, szczeg´olnie tej nieco starszej, definiuje si e dys- ֒ trybuant e wzorem F ֒ X (t) = P(X < t) (czyli u˙zywaj ac ostrej nier´owno´sci). Tak ֒ zdefiniowana dystrybuanta posiada w lasno´sci (i), (ii), ale wlasno´s´c (iii) zostaje zast apiona warunkiem lewostronnej ci ֒ ag lo´sci. ֒

Okazuje si e, ˙ze powy˙zsze twierdzenie mo˙zna odwr´oci´c, mianowicie ka˙zda funkcja ֒ spe lniaj aca warunki (i)–(iii) jest dystrybuant ֒ a pewnej zmiennej losowej. ֒

Twierdzenie 11. Je´sli funkcja F : R → R spe lnia warunki (i)–(iii), to istnieje przestrze´ n probabilistyczna (Ω, F, P) oraz zmienna losowa X : Ω → R, taka ˙ze F jest dystrybuant a X. Co wi ֒ ecej rozk lad zmiennej X jest wyznaczony jednoznacznie. ֒ Zatem w dystrybuancie zmiennej X ,,zakodowane” s a wszystkie informacje o jej ֒ rozk ladzie, w szczeg´olno´sci powinni´smy m´oc odczyta´c z niej czy zmienna X ma g esto´s´c albo czy X jest zmienn ֒ a dyskretn ֒ a. ֒

Przyk lad: Rozwa˙zmy dyskretn a zmienn ֒ a losow ֒ a, przyjmuj ֒ ac ֒ a warto´sci t ֒ 1 <

t 2 < . . . < t n , przy czym P(X = t i ) = p i (zak ladamy ˙ze zmienna nie przyjmuje

˙zadnych innych warto´sci, czyli P n

i=1 p i = 1). W´ owczas dla t < t 1 mamy F X (t) = 0, dla t ≥ t n mamy F X (t) = 1, za´s dla t ∈ [t j , t j+1 ) zachodzi F X (t) = P j

i=1 p i . W szczeg´olno´sci widzimy, ˙ze F X jest ci ag la poza punktami t ֒ i oraz posiada granice lewostronne dla ka˙zdego t ∈ R. Oznaczmy F X (t −) = lim x→t− F X (x). Mamy

F X (t i ) − F X (t i −) = p i = P(X = t i ), oraz dla t / ∈ {t 1 , t 2 , . . . , t n },

F X (t) − F X (t −) = 0 = P(X = t).

Okazuje si e, ˙ze jest to og´olny fakt. ֒

Twierdzenie 12. Je´sli F X jest dystrybuant a zmiennej losowej X, to dla t ֒ ∈ R zachodzi

F X (t −) = P(X < t)

(19)

oraz

F X (t) − F X (t −) = P(X = t).

W szczeg´ olno´sci, je´sli F X jest ci ag la w punkcie t, to P(X = t) = 0. ֒

W przypadku rozk lad´ ow ciag lych, dystrybuanta mo˙ze by´c u˙zyta do znalezienia g esto´sci. ֒

Przyk lad: Niech X b edzie zmienn ֒ a o rozk ladzie Exp(1), czyli z g ֒ esto´sci ֒ a g(x) = ֒ e −x 1 [0,∞) (x). W´ owczas dla t ∈ R mamy

F X (t) = (1 − e −t )1 [0,∞) (t).

Zauwa˙zmy, ˙ze dla t 6= 0 mamy F X (t) = g(t). Nie jest to jednak prawd a dla ֒ t = 0, gdy˙z F X (t) nie jest r´o˙zniczkowalna w zerze.

W og´olno´sci mamy nast epuj ֒ ace twierdzenie, kt´ ֒ ore w wielu sytuacjach pozwala obliczy´c g esto´s´c zmiennej losowej, gdy znana jest jej dystrybuanta. ֒

Twierdzenie 13. Niech F b edzie dystrybuant ֒ a zmiennej losowej X. ֒

1. Je´sli F nie jest ci agla, to X nie ma rozk ladu ci ֒ ag lego (tzn. nie ma g ֒ esto´sci). ֒ 2. Za l´ o˙zmy, ˙ze F jest funkcj a ci ֒ ag l ֒ a. Je´sli F jest r´ ֒ o˙zniczkowalna poza sko´ nczonym zbiorem punkt´ ow, to funkcja

g(t) =

( F (t) je´sli F (t) istnieje, 0 w p.p.,

jest g esto´sci ֒ a zmiennej X. ֒ Przyk lady:

1. Rozwa˙zmy zmienn a losow ֒ a X o dystrybuancie ֒

F (t) =

 

 

0 dla t ∈ (−∞, 0), 2t dla t ∈ [0, 1/2), 1 dla t ∈ [1/2, ∞).

Funkcja F jest r´o˙zniczkowalna wsz edzie poza punktami t = 0 i t = 1/2. Ponadto ֒ F (t) = 0 dla t ∈ (−∞, 0) ∪ (1/2, ∞) oraz F (t) = 2 dla t ∈ (1, 1/2). Zatem funkcja

g(t) = 2 · 1 (0,1/2) (t) jest g esto´sci ֒ a zmiennej X. ֒

2. Nale˙zy podkre´sli´c, ˙ze istniej a rozk lady, kt´ ֒ ore nie s a ani ci ֒ ag le ani dyskretne. ֒ Przyk ladowo rozk lad µ, dany wzorem

µ(A) = 1

2 |A ∩ (0, 1)| + 1 2 1 A (3).

Dystrybuanta tego rozk ladu to

F (t) =

 

 

 

 

0 dla t ∈ (−∞, 0),

t

2 dla t ∈ [0, 1),

1

2 dla t ∈ [1, 3), 1 dla t ∈ [3, ∞)

Jak latwo sprawdzi´c korzystaj ac ze wzoru na prawdopodobie´ ֒ nstwo ca lkowite, roz-

k lad µ opisuje do´swiadczenie: ,,rzucamy symetryczn a monet ֒ a; je´sli wypadnie orze l ֒

(20)

zwracamy jako wynik 3, w przeciwnym wypadku jako wynik zwracamy liczb e wy- ֒ losowan a z przedzia lu (0, 1)”. ֒

Jak wiemy, je˙zeli X jest zmienn a losow ֒ a, a ϕ funkcj ֒ a borelowsk ֒ a, to Y = ϕ(X) ֒ te˙z jest zmienn a losow ֒ a. Nast ֒ epne twierdzenia dotycz ֒ a zale˙zno´sci mi ֒ edzy g ֒ esto´sci ֒ a ֒ zmiennej X oraz zmiennej Y , gdy funkcja ϕ jest dostatecznie regularna.

Twierdzenie 14. Je˙zeli X jest zmienn a losow ֒ a o g ֒ esto´sci f oraz X przyjmuje ֒ warto´sci w przedziale (a, b), za´s funkcja ϕ : (a, b) → R jest klasy C 1 i ϕ (x) 6= 0 dla x ∈ (a, b), to zmienna losowa Y = ϕ(X) ma rozk lad ci ag ly o g ֒ esto´sci ֒

g(y) = f (h(y)) |h (y) |1 ϕ((a,b)) (y), gdzie h(s) = ϕ −1 (s).

Przyk lad: Zmienna X ma rozk lad jednostajny na odcinku (0, 4). Znale´z´c rozk lad zmiennej Y = √

X.

U˙zywaj ac notacji z twierdzenia, mamy a = 0, b = 4, f (x) = ֒ 1 4 1 (0,4) (x) oraz ϕ(x) = √ x. Zatem h(x) = x 2 , ϕ((a, b)) = (0, 2). G esto´s´c Y dana jest wzorem ֒

g(y) = 1

4 1 (0,4) (y 2 ) · 2y · 1 (0,2) (y) = 1

2 y1 (0,2) (y).

Rozwa˙zania dotycz ace g ֒ esto´sci i dystrybuanty zako´ ֒ nczymy definicj a tzw. kwan- ֒ tyli, kt´ ore odgrywaj a istotn ֒ a rol ֒ e w statystyce. ֒

Definicja 12. Niech X b edzie zmienn ֒ a losow ֒ a, za´s p ֒ ∈ [0, 1]. Kwantylem rz edu p ֒

zmiennej X nazywamy dowoln a liczb ֒ e x ֒ p , tak a ˙ze ֒ P(X ≤ x p ) = F X (x p ) ≥ p oraz

P(X ≥ x p ) ≥ 1 − p.

Kwantyl rz edu 1/2 nazywamy tak˙ze median ֒ a. ֒ Przyk lady:

1. Je´sli X jest zmienn a przyjmuj ֒ ac ֒ a dwie warto´sci 1, ֒ −1, ka˙zd a z prawdopo- ֒

dobie´ nstwem 1/2, to dowolna liczba z przedzia lu [ −1, 1] jest median a zmiennej X. ֒

Dla p ∈ (0, 1/2) zmienna X ma jeden kwantyl r´owny −1 za´s dla p ∈ (1/2, 1), jeden kwantyl, r´owny 1. Kwantylami rz edu 0 s ֒ a wszystkie liczby z przedzia lu ( ֒ −∞, −1]

za´s kwantylami rz edu 1, liczby z przedzia lu [1, ֒ ∞).

2. Standardowa zmienna normalna ma jedn a median ֒ e r´own ֒ a 0. Podobnie, dla ֒ dowolnego p ∈ (0, 1), zmienna ta ma dok ladnie jeden kwantyl rz edu p, wyznaczony ֒

przez r´owno´s´c

√ 1 2π

Z x

p

−∞

e −x

2

/2 dx = p.

14. Parametry rozk lad´ ow

14.1. Warto´ s´ c oczekiwana. Zacznijmy od nast epuj ֒ acego przyk ladu. ֒

Przyk lad. Za l´o˙zmy, i˙z kto´s proponuje nam nast epuj ֒ ac ֒ a gr ֒ e: rzucamy raz ֒

kostk a, i je´sli wypadnie 1 oczko, to dostajemy 100 z l, natomiast w przeciwnym ֒

razie musimy zap laci´c 30 z l. Czy w tak a gr ֒ e op laca si ֒ e gra´c? Czy na d lu˙zsz ֒ a met ֒ e ֒

wygrywamy?

(21)

Je´sli zagramy n razy w powy˙zsz a gr ֒ e, to jedynka wypada ´srednio w n/6 wypad- ֒ kach, a wi ec nasza wygrana po n grach to ´srednio ֒

n

6 · 100 − 5n

6 · 30 = − 50n 6 < 0,

a wi ec nie powinni´smy gra´c. Dodatkowo, je´sli X jest nasz ֒ a wygran ֒ a w pojedynczej ֒ grze, to spodziewamy si e, i˙z ´srednia X wynosi ֒

1

6 · 100 + 5

6 · (−30) = − 50 6 < 0.

Prowadzi to do nast epuj ֒ acej definicji. ֒

Definicja 13. Za l´ o˙zmy, ˙ze X jest zmienn a losow ֒ a o rozk ladzie dyskretnym, skon- ֒ centrowanym na zbiorze S ⊂ R i niech p x = P(X = x) dla x ∈ S. M´owimy, ˙ze warto´s´c oczekiwana zmiennej losowej X jest sko´ nczona (b ad´z ˙ze zmienna losowa X ֒ jest ca lkowalna), je´sli P

x∈S |x|p x < ∞. W´owczas okre´slamy warto´s´c oczekiwan a ֒

zmiennej X jako

EX = X

x∈S

xp x . Uwagi:

1. Warto´s´c oczekiwana zmiennej losowej to, intuicyjnie, jej ´srednia warto´s´c.

Czasami, zamiast ,,warto´s´c oczekiwana X” b edziemy m´owi´c ,,´srednia X”. ֒

2. Je´sli zbi´ or warto´sci zmiennej X jest sko´ nczony, to warto´s´c oczekiwana zmien- nej X jest sko´ nczona - sumy pojawiaj ace si ֒ e w definicji zawieraj ֒ a sko´ ֒ nczon a liczb ֒ e ֒ sk ladnik´ow.

3. Warto´s´c oczekiwana zmiennej losowej zale˙zy tylko od rozk ladu tej zmiennej.

Przyk lady:

1. Je´sli X jest sta la: P(X = a) = 1 dla pewnego a ∈ R, to EX = a · 1 = a.

2. Rzucamy raz kostk a. Niech X oznacza liczb ֒ e wyrzuconych oczek. W´owczas ֒ P(X = k) = 1/6 dla k = 1, 2, . . . , 6 i

EX = 1 · 1 6 + 2 · 1

6 + . . . + 6 · 1 6 = 3 1

2 .

3. Za l´o˙zmy, ˙ze zmienna X ma rozk lad Bernoulliego z parametrami n, p. W´owczas EX =

X n k=0

kP(X = k) = X n k=0

k n k



p k (1 − p) n−k

=np X n k=1

n − 1 k − 1



p k−1 (1 − p) n−k = np.

4. Za l´o˙zmy, ˙ze zmienna losowa X ma rozk lad na {1, 2, . . .} dany przez P(X = k) = 1

k(k + 1) , k = 1, 2, . . . . W´owczas warto´s´c oczekiwana X nie istnieje: mamy

X ∞ k=1

kP(X = k) = X ∞ k=1

1

k + 1 = ∞.

(22)

5. Za l´o˙zmy, ˙ze zmienna losowa X ma rozk lad na liczbach ca lkowitych r´o˙znych od 0, zadany przez

P(X = k) = 1

2 |k|(|k| + 1) , k ∈ Z, k 6= 0.

W´ owczas X nie jest ca lkowalna: mamy X

k6=0

|k|P(X = k) = X

k6=0

1

2( |k| + 1) = ∞.

Przejd´zmy teraz do zmiennych losowych o rozk ladach ci ag lych. ֒

Definicja 14. Za l´ o˙zmy, ˙ze zmienna losowa X ma rozk lad z g esto´sci ֒ a g. Je´sli ֒ Z

R |x|g(x)dx < ∞,

to m´ owimy, ˙ze warto´s´c oczekiwana X istnieje (b ad´z ˙ze zmienna losowa X jest ֒ ca lkowalna). Definiujemy w´ owczas warto´s´c oczekiwan a X jako ֒

EX = Z

R

xg(x)dx.

Uwaga: Warto´s´c oczekiwana zale˙zy tylko od rozk ladu zmiennej X.

Uwaga: Je´sli zmienna losowa X jest ograniczona, tzn. z prawdopodobie´ nstwem 1 przyjmuje warto´sci z pewnego ograniczonego przedzia lu (a, b), to istnieje jej warto´s´c oczekiwana: istotnie,

Z

R

|x|g(x)dx ≤ Z

R

max {|a|, |b|}g(x)dx = max{|a|, |b|}.

Oznaczenie: Czasami, zamiast m´owi´c ,,X jest ca lkowaln a zmienn ֒ a losow ֒ a”, ֒ b edziemy pisa´c ,,E|X| < ∞”. ֒

Przyk lady:

1. Za l´o˙zmy, ˙ze X ma rozk lad jednostajny na odcinku (a, b). W´owczas, jak wynika z powy˙zszej uwagi, X jest ca lkowalna. Ponadto

EX = Z

R

xg(x)dx = Z b

a

x 1

b − a dx = a + b 2 . 2. Za l´o˙zmy, ˙ze X ma rozk lad N (0, 1). W´owczas

Z

R |x| 1

√ 2π exp( −x 2 /2)dx = 2

√ 2π Z ∞

0

x exp( −x 2 /2)dx = 2

√ 2π ( −e −x

2

/2 ) | 0 = 2

√ 2π , a wi ec warto´s´c oczekiwana X jest sko´ ֒ nczona. Wynosi ona

Z

R

x 1

√ 2π exp( −x 2 /2)dx = 0.

Twierdzenie 15 (W lasno´sci warto´sci oczekiwanej). Za l´ o˙zmy, ˙ze X i Y s a ca lko- ֒ walnymi zmiennymi losowymi.

(i) Je´sli X ≥ 0, to EX ≥ 0.

(ii) Je´sli X ≤ Y , to EX ≤ EY .

(iii) Mamy EX ≤ E|X|.

(23)

(iv) Warto´s´c oczekiwana jest operatorem liniowym: je´sli a, b ∈ R, to zmienna aX + bY jest zmienn a ca lkowaln ֒ a i ֒

E(aX + bY ) = aEX + bEY.

(v) Je´sli X = 1 A , to EX = P(A).

Uwaga: W lasno´s´c (iv) uog´ olnia si e, poprzez prost ֒ a indukcj ֒ e, do nast ֒ epuj ֒ acej: ֒ je´sli X 1 , X 2 , . . . , X n s a ca lkowalnymi zmiennymi losowymi i a ֒ 1 , a 2 , . . . , a n ∈ R, to zmienna a 1 X 1 + a 2 X 2 + . . . + a n X n te˙z jest zmienn a ca lkowaln ֒ a i ֒

E(a 1 X 1 + a 2 X 2 + . . . + a n X n ) = a 1 EX 1 + a 2 EX 2 + . . . + a n EX n . W szczeg´olno´sci,

E(X 1 + X 2 + . . . + X n ) = EX 1 + EX 2 + . . . + EX n . Przyk lady:

1. Rzucamy 100 razy kostk a i niech X oznacza sum ֒ e wyrzuconych oczek. ֒ W´ owczas obliczenie warto´sci oczekiwanej X z definicji jest praktycznie niemo˙zliwe - wymaga to wyznaczenia rozk ladu zmiennej X. Ale je´sli zauwa˙zymy, ˙ze X = X 1 + X 2 + . . . + X 100 , gdzie X i to liczba oczek w i-tym rzucie, to mamy, i˙z

EX = EX 1 + EX 2 + . . . + EX 100 = 100 · 3 1 2 = 350.

2. W urnie znajduje si e 5 bia lych i 10 czarnych kul. Losujemy ze zwracaniem 50 ֒ razy po jednej kuli. Niech X oznacza liczb e losowa´ ֒ n, w kt´ orych wyci agni ֒ eto bia l ֒ a ֒ kul e. Tak jak wy˙zej, wyznaczenie warto´sci oczekiwanej X bezpo´srednio z definicji ֒ jest nies lychanie ˙zmudne. Je´sli natomiast okre´slimy

X = X 1 + X 2 + . . . + X 50 , gdzie

X i = 1 {w i-tym losowaniu wyci agni

֒

eto bia l

֒

a kul

֒

e}

֒

=

( 1 je´sli w i-tym losowaniu wyci agni ֒ eto bia l ֒ a kul ֒ e, ֒ 0 je´sli w i-tym losowaniu wyci agni ֒ eto czarn ֒ a kul ֒ e, ֒ to mamy

EX = EX 1 + EX 2 + . . . + EX 50 = 50 · P(wyci agni ֒ eto bia l ֒ a kul ֒ e) = ֒ 50 3 . Przejd´zmy teraz do sytuacji, gdy chcemy obliczy´c warto´s´c oczekiwan a funkcji ֒ pewnej zmiennej losowej.

Twierdzenie 16. Za l´ o˙zmy, ˙ze φ : R → R jest pewn a funkcj ֒ a borelowsk ֒ a. ֒

(i) Za l´ o˙zmy, ˙ze X ma rozk lad dyskretny na zbiorze S i p x = P(X = x) dla x ∈ S. W´owczas zmienna losowa φ(X) jest ca lkowalna wtedy i tylko wtedy, gdy P

x∈S |φ(x)|p x < ∞; warto´s´c oczekiwana φ(X) wynosi wtedy Eφ(X) = X

x∈S

φ(x)p x .

(ii) Za l´ o˙zmy, ˙ze X ma rozk lad ci ag ly z g ֒ esto´sci ֒ a g. W´ ֒ owczas zmienna losowa φ(X) jest ca lkowalna wtedy i tylko wtedy, gdy R

R |φ(x)|g(x)dx < ∞; warto´s´c ocze- kiwana wynosi w´ owczas

Eφ(X) = Z

R

φ(x)g(x)dx.

Cytaty

Powiązane dokumenty

Dla tego produktu obowiązkowe jest zawarcie umowy ubezpieczenia AC oraz Bezpieczny Kredyt lub GAP a także zawarcie umowy odkupu przez dealera.. Przedstawione parametry nie

W związku z tym, że działka znajduje się wśród pól, przy gruntowej drodze, gminne służby ra- czej nie pojawiają się na tym terenie.. W takim wypadku dopóki ktoś nie zgłosi

Dotacja celowa na realizację zadania inwestycyjnego &#34;Cyfryzacja Sali kinowej Kina &#34;Mewa&#34; w Budzyniu. Dotacja celowa na realizację zadania inwestycyjnego

Ceny mogą ulec zmianom bez uprzedniego zawiadomienia w przypadku zmian cen przez producenta, zmian podatkowych, przepisów celnych lub innych przyczyn.. Wyposażenie seryjne i

planistyczne dla 40 ha gruntów w centrum Góry Kalwarii. U chwałę w sprawie przystąpienia do uchwalenia mpzp dla liczącego około 40 ha obszaru w centralnej części miasta,

Drogi oddechowe : Na podstawie dostępnych danych, kryteria klasyfikacji nie są spełnione. Działanie uczulające na drogi oddechowe/skórę Ten rodzaj działania nie

Nie tylko piękne dzielnice… Zanim na początku 1970 roku trafiłem z klasowym kolegą (sy- nem podpułkownika LWP) na nowiutkie i ciągle się rozbudowujące Osiedle Tysiąclecia, zanim

- dotację w wysokości 12.230,00 zł w ramach Programu Wieloletniego „Narodowy Program Rozwoju Czytelnictwa” z Biblioteki Narodowej - Zakup nowości wydawniczych do Bibliotek