1. Podstawowe schematy kombinatoryczne
Wariacje z powt´orzeniami. ZaÃl´o˙zmy, i˙z mamy zbi´or n elementowy A. W´owczas liczba k-elementowych ciag´ow o wyrazach ze zbioru A wynosi n · n · . . . · n = n, k.
Wariacje bez powt´orze´n. ZaÃl´o˙zmy, i˙z mamy zbi´or n elementowy A. W´owczas liczba k-elementowych r´o˙znowarto´sciowych ciag´ow o wyrazach ze zbioru A wynosi, n · (n − 1) · . . . · (n − k + 1) = n!/(n − k)!, o ile k ≤ n, i 0 je´sli k > n.
Permutacje. Sa to wariacje n-elementowe zbioru n-elementowego: inaczej, s, a, to ustawienia element´ow zbioru w ciag. Ich liczba wynosi n!.,
Kombinacje. ZaÃl´o˙zmy, ˙ze mamy zbi´or n elementowy A. W´owczas liczba k- elementowych podzbior´ow zbioru A wynosi¡n
k
¢, gdzie µn
k
¶
= ( n!
k!(n−k)! je´sli k ≤ n,
0 w p.p.
2. Rys historyczny Motywacje:
- gry hazardowe,
- zjawiska masowe (statystyki urodze´n i zgon´ow).
- aksjomatyka KoÃlmogorowa, 1933 r.
3. PrzykÃlady prostych modeli probabilistycznych: dyskretnych i ciagÃlych,
Przypu´s´cmy, ˙ze wykonujemy eksperyment losowy. Powstaje natychmiast pyta- nie: w jaki spos´ob opisa´c go matematycznie?
Przede wszystkim, na pewno mo˙zemy m´owi´c o jego potencjalnych wynikach:
zdarzenia elementarne to mo˙zliwe wyniki tego eksperymentu. Zbi´or wszystkich zdarze´n elementarnych oznaczamy litera Ω. Zdarzenie elementarne oznaczamy li-, tera ω.,
1. Rzut moneta: mo˙zliwe dwa wyniki: Ω = {O, R}. |Ω| = 2.,
2. Rzut kostka: mo˙zliwe sze´s´c wynik´ow: Ω = {1, 2, 3, 4, 5, 6}. |Ω| = 6.,
3. Rzut dwiema kostkami, patrzymy na sume oczek: Ω = {2, 3, . . . , 12}. Za-, uwa˙zmy, ˙ze, intuicyjnie, wyniki nie sa jednakowo prawdopodobne. Suma 2 zdarza, sie tylko gdy wypadÃly dwie 1; a np. suma 7 zdarza si, e, gdy wypadnie 3 i 4, 4 i 3, 2, i 6, itp. |Ω| = 11.
4. Z talii kart losujemy 5 kart. Wynikiem jest 5-cioelementowa kombinacja zbioru kart; zatem Ω to zbi´or piecioelementowych podzbior´ow zbioru 52-elementowego.,
|Ω| =¡52
5
¢.
5. Rzucamy igÃle na st´oÃl i mierzymy k, at jaki tworzy z wybran, a kraw, edzi, a stoÃlu., Wynik to liczba z przedziaÃlu [0, 2π). Ω = [0, 2π). Jest to przykÃlad ciagÃlego, do´swiadczenia losowego.
4. σ-ciaÃla
Zdarzenia. Czesto nie interesuje nas konkretny wynik ω, ale to, czy nale˙zy, on do wcze´sniej ustalonego podzbioru A zbioru Ω. Takie podzbiory A nazywamy zdarzeniami.
PrzykÃlad: Przy rzucie kostka, mo˙ze nas np. interesowa´c A = {1, 3, 5} - zdarze-, nie polegajace na tym, ˙ze wypadÃla nieparzysta liczba oczek.,
Je´sli ω - wynik, A - zdarzenie, to:
- je´sli ω ∈ A, to m´owimy, ˙ze zaszÃlo A bad´z ˙ze ω sprzyja A.,
- je´sli ω /∈ A, to m´owimy, ˙ze nie zaszÃlo A, bad´z ˙ze zaszÃlo zdarzenie przeciwne,, zdefiniowane jako A0 = Ω \ A. A0 nazywamy te˙z dopeÃlnieniem zbioru A.
Mp., w przykÃladzie z kostka mo˙ze interesowa´c nas wyrzucenie nieparzystej liczby, oczek, bad´z w przykÃladzie z tali, a kart, mo˙ze nas interesowa´c zdarzenie: ,,wyloso-, wali´smy co najmniej 2 asy”.
Szczeg´olne zdarzenia, interpretacje dziaÃla´n/relacji na zdarzeniach:
Ω - zdarzenie pewne,
∅ - zdarzenie niemo˙zliwe,
A ∩ B - zaszÃly oba zdarzenia A, B,
A ∩ B = ∅ - zdarzenia sie wykluczaj, a (s, a rozÃl, aczne),, A ∪ B - zaszÃlo A lub B,
A0 - nie zaszÃlo A,
A \ B = A ∩ B0 - zaszÃlo A i nie zaszÃlo B, A ⊆ B - A pociaga za sob, a B.,
Przypu´s´cmy, ˙ze mamy Ω i chcemy zdefiniowa´c sensowna klas, e zdarze´, n (cokolwiek to znaczy). Naturalny pomysÃl: rozwa˙za´c 2Ω- wszystkie mo˙zliwe podzbiory; czasem jednak ta klasa jest zbyt du˙za i nie da sie na niej dobrze pracowa´c.,
Rozsadna klasa zdarze´, n powinna by´c zamknieta na branie sumy, iloczynu i zda-, rzenia przeciwnego. To prowadzi do pojecia ciaÃla oraz σ-ciaÃla.,
Definicja 1. Rodzine F podzbior´ow Ω nazywamy σ-ciaÃlem, je´sli, (i) ∅ ∈ F,
(ii) A ∈ F ⇒ A0∈ F, (iii) A1, A2, . . . ∈ F ⇒
[∞ n=1
An∈ F.
5. Intuicja wiodaca do okre´slenia prawdopodobie´, nstwa - czesto´s´, c zdarze´n
We´zmy przykÃlad z moneta. Je´sli rzucamy (t, e sam, a) monet, a wiele razy, to ocze-, kujemy (i rzeczywi´scie tak bywa), ˙ze orzeÃl pojawi sie w przybli˙zeniu w poÃlowie, przypadk´ow. Tak wiec ,,cz, esto´sciowo”, prawdopodobie´, nstwo wypadniecia orÃla to, 1/2. Teraz og´olniej: zaÃl´o˙zmy, ˙ze wykonujemy eksperyment, w kt´orym zbi´or zdarze´n elementarnych to Ω oraz A jest zdarzeniem. ZaÃl´o˙zmy, ˙ze powtarzamy ekperyment n razy i definiujemy
ρn(A) = liczba zaj´s´c A
n .
Nazywamy te liczb, e cz, esto´sci, a zdarzenia A. Gdy n jest du˙ze, spodziewamy si, e,,
˙ze ρn(A) powinno z grubsza m´owi´c o prawdopodobie´nstwie A.
Sp´ojrzmy na wÃlasno´sci ρn:
(i) 0 ≤ ρn(A) ≤ 1, (ii) ρn(Ω) = 1,
(iii) A ∩ B = ∅ ⇒ ρn(A ∪ B) = ρn(A) + ρn(B).
Uwaga: Po˙zyteczna wÃlasno´s´c: ρn(A) = 1 − ρn(A0).
ChciaÃloby sie teraz okre´sli´c prawdopodobie´, nstwo A jako limn→∞ρn(A). KÃlopot:
nie wiemy, czy granica istnieje.
Mo˙ze wiec z drugiej strony: zdefiniowa´c prawdopodobie´, nstwo jako funkcje, kt´ora, ma wszystkie wÃlasno´sci (i) – (iii).
6. Aksjomatyka KoÃlmogorowa
Niech (Ω, F) - ustalone. W´owczas funkcje P : F → [0, 1] nazywamy prawdopo-, dobie´nstwem, je´sli
(i) 0 ≤ P(A) ≤ 1, (ii) P(Ω) = 1,
(iii) je´sli A1, A2, . . . ∈ F sa parami rozÃl, aczne, to, P
̰ [
n=1
An
!
= X∞ n=1
P(An).
Tr´ojke (Ω, F, P) nazywamy przestrzeni, a probabilistyczn, a., 7. PrzykÃlady
1. Rzut symetryczna monet, a: Ω = {O, R}, F = 2, Ω = {{O}, {R}, Ω, ∅}, P({O}) = 1/2, P({R}) = 1/2, P(Ω) = 1, P(∅) = 0.
2. Rzut niesymetryczna monet, a: Ω = {O, R}, F = 2, Ω, P({O}) = p, P({R}) = 1 − p, P(Ω) = 1, P(∅) = 0. Tutaj p jest pewna ustalon, a liczb, a z przedziaÃlu [0, 1].,
3. Rzut kostka: Ω = {1, 2, 3, 4, 5, 6}, F = 2, Ω, P(A) = |A|/6.
4. Schemat klasyczny (prawdopodobie´nstwo klasyczne). ZaÃl´o˙zmy, ˙ze Ω jest zbiorem sko´nczonym, F = 2Ωi wszystkie zdarzenia elementarne sa jednakowo, prawdopodobne. W´owczas, jak Ãlatwo sprawdzi´c, dla A ∈ F,
P(A) = |A|
|Ω|.
5. Z talii 52 kart losujemy jednocze´snie pie´c kart. Jakie jest prawdopodo-, bie´nstwo, ˙ze wylosujemy cztery asy?
Jak ju˙z wiemy, Ω to piecioelementowe kombinacje zbioru talii kart. Intuicja, podpowiada, i˙z zdarzenia elementarne sa r´ownoprawdopdobne, a wi, ec sensownym, prawdopodobie´nstwem na Ω jest prawdopodobie´nstwo klasyczne.
Niech A - te podbiory, w kt´orych sa cztery asy:,
A = {{A♣, A♦, A♥, A♠, ∗} : ∗ − jedna z pozostaÃlych 48 kart}.
Takich podzbior´ow jest 48. A wiec |A| = 48, |Ω| =, ¡52
5
¢.
6. ZaÃl´o˙zmy, ˙ze Ω = {ω1, ω2, . . . , ωn, . . .} - zbi´or co najwy˙zej przeliczalny oraz p1, p2, . . . - liczby nieujemne o sumie 1. W´owczas mo˙zemy okre´sli´c F = 2Ω oraz
P({wi}) = pi, i = 1, 2, . . .. W´owczas, dla A ∈ F,
P(A) =X
i
1A(wi)pi,
gdzie 1Ato funkcja wska´znikowa (charakterystyczna) bad´z indykator zbioru A, dany, przez
1A(x) =
(1 je´sli x ∈ A, 0 je´sli x /∈ A.
7. Prawdopodobie´nstwo geometryczne. W wielu sytuacjach, kt´orymi bedziemy, sie zajmowa´c, do´swiadczenie losowe ma charakter ci, agÃly. Najprostszym przykÃladem, jest losowanie punktu ze zbioru Ω, le˙zacego na prostej (lub na pÃlaszczy´znie, czy, og´olniej w przestrzeni Rn) i majacego sko´, nczona dÃlugo´s´c (pole powierzchni, miar, e)., Zbiorem takim mo˙ze by´c np. odcinek, koÃlo, kwadrat, kula, sze´scian. Zgodnie z intuicja naturalnie jest przyj, a´c, i˙z prawdopodobie´, nstwo zdarzenia A ⊆ Ω jest pro- porcjonalne do jego miary, czyli
P(A) = |A|
|Ω|,
gdzie | · | oznacza miare zbioru. Pojawia si, e tu pewien techniczny problem, mia-, nowicie jak zdefiniowa´c σ-ciaÃlo F? Okazuje sie, ˙ze nie mo˙zna w naturalny spos´ob, okre´slic dÃlugo´sci, pola powierzchni, czy objeto´sci na wszystkich podzbiorach Ω, nie, mo˙zemy wiec przyj, a´c F = 2, Ω i musimy sie ograniczy´c do mniejszego σ-ciaÃla. Z, reguÃly w takich sytuacjach rozpatruje sie tzw. σ-ciaÃlo borelowskie B(Ω), zdefinio-, wane jako najmniejsze σ-ciaÃlo zawierajace wszystkie zbiory otwarte w Ω. Tak, np., losowanie punktu z koÃla Ω o promieniu r, mo˙zna opisa´c przy pomocy przestrzeni probabilistycznej (Ω, B(Ω), P), gdzie dla A ∈ B(Ω),
P(A) = |A|
πr2.
W podobny spos´ob mo˙zemy r´ownie˙z opisa´c losowanie punktu np. z okregu czy, sfery.
8. Podstawowe wÃlasno´sci prawdopodobie´nstwa
Poni˙zej sformuÃlujemy kilka podstawowych fakt´ow dotyczacych prawdopodobie´, nstwa.
Przyjmujemy, ˙ze (Ω, F, P) jest ustalona przestrzeni, a probabilistyczn, a.,
Twierdzenie 1. Niech A, B,, A1, A2, . . . ∈ F. W´owczas (i) P(∅) = 0.
(ii) Je´sli A1, A2, . . . , An sa parami rozÃl, aczne, to, P
à n [
i=1
Ai
!
= Xn
i=1
P(Ai).
(iii) P(A0) = 1 − P(A).
(iv) je´sli A ⊆ B, to P(B \ A) = P(B) − P(A), (v) je´sli A ⊆ B, to P(A) ≤ P(B).
(vi) P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
(vii) P ̰
[
i=1
Ai
!
≤ X∞
i=1
P(Ai).
Dow´od. Ile starczy czasu. ¤
Twierdzenie 2 (Wz´or wÃlacze´, n i wyÃlacze´, n). Je´sli A1, A2, . . . , An sa zdarzeniami,, to
P(A1∪ A2∪ . . . ∪ An) = Xn i=1
P(Ai) −X
i<j
P(Ai∩ Aj) + . . . + (−1)n+1P(A1∩ A2∩ . . . ∩ An).
Definicja 2. ZaÃl´o˙zmy, ˙ze A1, A2, . . . jest ciagiem zdarze´, n. M´owimy, ˙ze ciag ten, jest wstepuj, acy, je´sli,
A1⊆ A2⊆ A3⊆ . . . oraz ˙ze jest zstepuj, acy, je´sli,
A1⊇ A2⊇ A3⊇ . . . .
Twierdzenie 3 (ReguÃla ciagÃlo´sci). ZaÃl´o˙zmy, ˙ze (A, n)∞n=1 jest ciagiem zdarze´, n.
(i) Je´sli ciag ten jest wst, epuj, acy, to,
n→∞lim P(An) = P Ã∞
[
n=1
An
! . (ii) Je´sli ciag ten jest zst, epuj, acy, to,
n→∞lim P(An) = P Ã∞
\
n=1
An
! .
9. Prawdopodobie´nstwo warunkowe
W praktyce z reguÃly jeste´smy zainteresowani nie tyle pojedynczym zdarzeniem, co kilkoma zdarzeniami i ich wzajemnymi zwiazkami.,
PrzykÃlady 1. Na podstawie ankiety przeprowadzonej na pewnym zbiorze klient´ow (oznaczmy go litera Ω) firma fonograficzna posiada dane na temat ich gust´ow mu-, zycznych. Przypu´s´cmy, ˙ze kierownictwo jest zainteresowane pytaniem jak czesto,
fani jazzu lubia tak˙ze muzyk, e klasyczn, a. Je´sli przez J oznaczymy zbi´or tych an-, kietowanych, kt´orzy sa fanami jazzu, a przez K zbi´or tych ankietowanych, kt´orzy, sa fanami muzyki klasycznej, interesuj, aca nas cz, esto´s´c jest r´owna,
|J ∩ K|
|J| =|J ∩ K|/|Ω|
|J|/|Ω| .
Zauwa˙zmy, ˙ze wyra˙zenia w liczniku i mianowniku to czesto´sci poszczeg´olnych zbior´ow, liczone wzgledem caÃlego zbioru Ω.,
2. Przypu´s´cmy, ˙ze suma oczek przy dw´och rzutach kostka wynosi 4. Nie znamy, jednak wynik´ow poszczeg´olnych rzut´ow. Jaka jest szansa, ˙ze przy pierwszym rzucie wypadÃly dwa oczka (zdarzenie A)?
Informacja, kt´ora posiadamy oznacza, ˙ze zaszÃlo zdarzenie B = {(1, 3), (2, 2), (3, 1)}., Intuicja podpowiada nam, ˙ze ka˙zde z trzech sprzyjajacych mu zdarze´, n elementar- nych powinno by´c tak samo prawdopodobne, a zatem szukane prawdopodobie´nstwo powinno wynosi´c 1/3 (dw´ojce przy pierwszym rzucie sprzyja tylko jedno zdarzenie elementarne z B). Podobnie uwa˙zamy, ˙ze wszystkie zdarzenia elementarne na prze- strzeni
Ω = n
(a, b) : a, b ∈ {1, 2, 3, 4, 5, 6}
o ,
opisujacej dwa rzuty kostk, a, s, a jednakowo prawdopodobne. Zatem naturalnym mo-, delem dla naszego do´swiadczenia jest (Ω, 2Ω, P), gdzie P jest prawdopodobie´nstwem klasycznym
P(C) = |C|
36, dla C ⊆ Ω.
Zauwa˙zmy teraz, ˙ze
1
3 =1/36
3/36 = P(A ∩ B) P(B) .
Powy˙zsze przykÃlady motywuja nast, epuj, ac, a definicj, e,
Definicja 3. Niech A, B bed, a dwoma zdarzeniami, przy czym P(B) > 0. Praw-, dopodobie´nstwem warunkowym zdarzenia A pod warunkiem zdarzenia B nazywamy liczbe,
P(A|B) = P(A ∩ B) P(B) .
Uwaga Piszac P(A|B) milcz, aco zakÃladamy, ˙ze P(B) > 0.,
Przy ustalonym zbiorze B, prawdopodobie´nstwo warunkowe P(A|B) jako funkcja zbioru A ∈ F speÃlnia aksjomaty KoÃlmogorowa. W konsekwencji posiada wiec, wszystkie wÃlasno´sci prawdopodobie´nstwa wprowadzone w paragrafie 8.
Twierdzenie 4 (Wz´or Ãla´ncuchowy). Dla dowolnych zdarze´n A1, . . . , An, speÃlniajacych, warunek
P(A1∩ A2∩ . . . ∩ An−1) > 0, zachodzi
P(A1∩A2∩. . .∩An) = P(A1)P(A2|A1)P(A3|A1∩A2) · · · P(An|A1∩A2∩. . .∩An−1).
PrzykÃlad Losujemy po kolei trzy karty bez zwracania. Jakie jest prawdopodo- bie´nstwo, ˙ze wylosujemy trzy asy?
Niech Ai, i = 1, 2, 3, oznacza prawdopodobie´nstwo, ˙ze i-ta wylosowan, a kart, a jest, as. Wiemy, ˙ze P(A1) = 4/52. Je´sli pierwsza wylosowana kart, a jest as, to przed, drugim losowaniem w talii znajduja si, e trzy asy. Poniewa˙z tym razem losujemy, spo´sr´od 51 kart, mamy
P(A2|A1) = 3 51. Analogicznie
P(A3|A1∩ A2) = 2 50. Stosujac Twierdzenie 4, otrzymujemy,
P(wylosujemy trzy asy) = P(A1∩ A2∩ A3) = 4 52· 3
51· 2 50
Modele probabilistyczne sa cz, esto zadane poprzez specyfikacj, e prawdopodobie´, nstw warunkowych interesujacych nas zdarze´, n pod warunkiem innych zdarze´n, kt´orych prawdopodobie´nstwa znamy. W takich sytuacjach przydatny jest tzw. wz´or na prawdopodobie´nstwo caÃlkowite. Zanim go sformuÃlujemy, wprowad´zmy nastepuj, ac, a, definicje.,
Definicja 4. Rozbiciem przestrzeni Ω nazywamy dowolna rodzin, e zdarze´, n {Hi}i∈I, taka ˙ze H, i∩ Hj = ∅ dla i 6= j orazS
i∈IHi= Ω.
Je´sli zbi´or indeksujacy I jest sko´, nczony (odp. przeliczalny) to rozbicie nazywamy sko´nczonym (odp. przeliczalnym).
Twierdzenie 5 (Wz´or na prawdopodobie´nstwo caÃlkowite). Dla dowolnego sko´nczonego rozbicia {H1, H2, . . . , Hn} zbioru Ω na zbiory o dodatnim prawdopodobie´nstwie i do- wolnego zdarzenia A,
P(A) = Xn i=1
P(A|Hi)P(Hi).
Analogiczny wz´or zachodzi tak˙ze dla rozbicia na przeliczalna liczb, e zdarze´, n o dodat- nim prawdopodobie´nstwie.
PrzykÃlad Egzamin ustny przeprowadzany jest przez pan´ow Dobrego i ZÃlego.
Egzamin u pana Dobrego zdaje 90% student´ow, a u pana ZÃlego zaledwie 10%.
Jakie jest prawdopodobie´nstwo, ˙ze student zda egzamin je´sli prawdopodobie´nstwo,
˙ze trafi do pana Dobrego wynosi 2/3?
Niech D, Z oznaczaja zdarzenia, ˙ze student trafiÃl odpowiednio do pana Dobrego, lub ZÃlego, za´s OK zdarzenie, ˙ze student zda egzamin. Mamy P(D) = 2/3, P(Z) = 1/3 oraz P(OK|D) = 9/10, P(OK|Z) = 1/10. Zatem
P(OK) = P(OK|D)P(D) + P(OK|Z)P(Z) = 9 10 ·2
3+ 1 10·1
3 =19 30.
Kolejne twierdzenie, blisko zwiazane ze wzorem na prawdopodobie´, nstwo caÃlkowite, jest bardzo wa˙zne w zastosowaniach.
Twierdzenie 6 (Wz´or Bayesa). Niech {Hi}i∈I bedzie przeliczalnym rozbiciem Ω, na zdarzenia o dodatnich prawdopodobie´nstwach. W´owczas, dla dowolnego zdarze- nia A o dodatnim prawdopodobie´nstwie, zachodzi
P(Hj|A) = P(A|Hj)P(Hj) P
i∈IP(A|Hi)P(Hi)
PrzykÃlad Samochody sprzedawane przez pewna firm, e pochodz, a z dw´och fa-, bryk, A (40%) oraz B (60%). Co dwudziesty samoch´od z fabryki A zawiera wade, fabryczna. To samo dotyczy co dziesi, atego samochodu z fabryki B. Klient ku-, puje samoch´od, kt´ory okazuje sie by´c wadliwy. Jakie jest prawdopodobie´, nstwo, ˙ze pochodzi z fabryki A?
Z warunk´ow zadania otrzymujemy, ˙ze P(samoch´od wadliwy|A) = 1
20, P(samoch´od wadliwy|B) = 1 10 P(A) = 4
10, P(B) = 6 10,
gdzie A, B oznaczaja oczywi´scie zdarzenia, ˙ze samoch´od pochodzi z fabryki odpo-, wiednio A, B. Z wzoru Bayesa otrzymujemy
P(A|samoch´od wadliwy) = P(samoch´od wadliwy|A)P(A)
P(samoch´od wadliwy|A)P(A) + P(samoch´od wadliwy|B)P(B)
= 1/20 · 4/10
1/20 · 4/10 + 1/10 · 6/10 = 1 4.
10. Niezale˙zno´s´c zdarze´n Przypu´s´cmy, ˙ze zdarzenia A, B speÃlniaja warunek,
P(B|A) = P(B).
(1)
Oznacza to, ˙ze dodatkowa wiedza, ˙ze zaszÃlo zdarzenie A, nie wpÃlywa na prawdo- podobie´nstwo zdarzenia B. Mo˙zna wiec powiedzie´c, ˙ze zdarzenie B jest niezale˙zne, od zdarzenia A. Powy˙zszy warunek zapisuje sie r´ownowa˙znie jako,
P(A ∩ B) = P(A)P(B).
(2)
W szczeg´olno´sci widzimy, ˙ze je´sli (1) zachodzi oraz P(B) > 0, to P(A|B) = P(A),
czyli r´ownie˙z zdarzenie A nie zale˙zy od zdarzenia B. Zapis (2) ma te zalet, e, ˙ze, lepiej ni˙z (1) obrazuje symetrie sytuacji, dodatkowo ma sens tak˙ze dla zdarze´, n o zerowym prawdopodobie´nstwie. Naturalne jest wiec przyj, a´c nast, epuj, ac, a definicj, e., Definicja 5. Zdarzenia A, B nazywamy niezale˙znymi je´sli
P(A ∩ B) = P(A)P(B).
PrzykÃlady 1. Rzucamy kostka. Rozpatrzmy zdarzenia: A - wypadÃla parzysta, liczba oczek, B - liczba wyrzuconych oczek jest mniejsza ni˙z 5, C - liczba wyrzuco- nych oczek jest mniejsza ni˙z 6. Oczywi´scie P(A) = 1/2, P(B) = 2/3, P(C) = 5/6.
Zdarzenia A i B sa niezale˙zne natomiast zdarzenia A i C nie s, a niezale˙zne. Rze-, czywi´scie
P(A ∩ B) = P(wypadÃly 2 lub 4 oczka) = 1
3 = P(A)P(B), P(A ∩ C) = P(A ∩ B) =1
3 6= P(A)P(C).
2. W ramach nagrody firma wykupiÃla dla pracownik´ow dwa rodzaje wycieczek, w g´ory i nad morze. W´sr´od 12 pracownik´ow rozdzielono w spos´ob losowy 8 wycieczek nad morze, z czego dwie w lipcu, a sze´s´c w sierpniu oraz cztery wycieczki w g´ory, jedna w lipcu i trzy w sierpniu. Niech M oznacza zdarzenie, ˙ze ustalony pracownik, wylosuje wycieczke nad morze, za´s L - zdarzenie, ˙ze ten sam pracownik wylosuje, termin lipcowy. Mamy P(M ) = 8/12, p(L) = 3/12 oraz P(M ∩L) = 2/12. Poniewa˙z 8/12 · 3/12 = 2/12, zdarzenia M i L sa niezale˙zne.,
3. Losujemy jedna kart, e z talii. Zdarzenie A, polegaj, ace na wylosowaniu karty, starszej ni˙z walet i zdarzenie B, polegajace na wylosowaniu karty w kolorze trefl s, a, niezale˙zne. Rzeczywi´scie, P(A) = 12/52 (wylosowana karta musi byc dama, kr´olem, lub asem w jednym z czterech mo˙zliwych kolor´ow), P(B) = 1/4 oraz P(A ∩ B) = P(wylosowano dame, kr´ola lub asa trefl) = 3/52 = P(A)P(B).,
Pytanie Co sie zmieni gdy do talii dodamy jednego jokera (przyjmujemy, ˙ze, joker nie ma ˙zadnego koloru)?
4. Rzucamy dwa razy moneta. Niech O, i oznacza zdarzenie, ˙ze w i-tym rzu- cie wypadÃl orzeÃl. Intuicyjnie uwa˙zamy te zdarzenia za niezale˙zne (przynajmniej zakÃladajac, ˙ze osoba rzucaj, aca monet, a nie oszukuje). W klasycznym modelu pro-, babilistycznym dla monety symetrycznej, gdy prawdopodobie´nstwo ka˙zdej z czte- rech sekwencji (O, O), (O, R), (R, O), (R, R) wynosi 1/4, Ãlatwo sprawdzi´c (por. z poprzednim przykÃladem), ˙ze rzeczywi´scie tak jest (P(O1∩ O2) = P(O1)P(O2)).
Zastan´owmy sie wi, ec jak zdefiniowa´c prawdopodobie´, nstwo P na zbiorze Ω = {(O, O), (O, R), (R, O), (R, R)},
tak aby prawdopodobie´nstwo wyrzucenia orÃla wynosiÃlo p (zar´owno w pierwszym, jak i drugim rzucie), a zdarzenia O1, O2nadal byÃly niezale˙zne. Musimy w tym celu ustali´c cztery liczby p(O,O), p(O,R), p(R,R), p(R,R). Chcemy aby
P({(O, O), (O, R)}) = P({(O, O), (R, O)}) = p oraz P({(O, O)}) = p2,
skad dostajemy r´ownania,
p(O,O)+ p(O,R)= p(O,O)+ p(R,O)= p p(O,O)= p2.
Zatem p(R,O)= p(R,O) = p(1 − p). Poniewa˙z p(O,O)+ p(O,R)+ p(R,O)+ p(R,R)= 1, ostatecznie dostajemy
p(O,O)= p2
p(O,R)= p(R,O) = p(1 − p) p(R,R)= (1 − p)2
Mo˙zna r´ownie˙z m´owi´c o niezale˙zno´sci wiekszej liczby zdarze´, n. Definicja okazuje sie jednak bardziej skomplikowana.,
Definicja 6. Zdarzenia A1, . . . , An nazywamy niezale˙znymi, je´sli P(Ai1∩ Ai2∩ . . . ∩ Aik) = P(Ai1) · P(Ai2) · . . . · P(Aik), (3)
dla dowolnych wska´znik´ow 1 ≤ i1< i2< . . . < ik ≤ n, k = 2, 3, . . . , n.
PrzykÃlady
1. Losujemy liczbe od 1 do 90. Rozwa˙zmy zdarzenia A - wylosowana liczba jest, podzielna przez 2, B - wylosowana liczba jest podzielna przez 3, C - wylosowana liczba jest podzielna przez 5. W´owczas, jak Ãlatwo sprawdzi´c
P(A) =1
2, P(B) = 1/3, P(C) = 1/5 oraz
P(A ∩ B) = 1
6 = P(A)P(B) P(A ∩ C) = 1
10 = P(A)P(C) P(B ∩ C) = 1
15 = P(B)P(C) P(A ∩ B ∩ C) = 1
30 = P(A)P(B)P(C).
Zdarzenia A, B, C sa zatem niezale˙zne.,
2. Mo˙zna sie zastanawia´c, czy powy˙zej musieli´smy sprawdza´c prawdopodo-, bie´nstwa wszystkich czterech iloczyn´ow zbior´ow. Okazuje sie, ˙ze tak, co ilustruje, nastepuj, acy przykÃlad.,
Trzech wsp´oÃllokator´ow (Bartek, Czarek i Darek) decyduje sie odda´c butelki do, skupu. Zadanie wymaga udziaÃlu dw´och os´ob. Przygotowuja wi, ec cztery losy, {Bartek, Czarek, Darek, Za tydzie´n}, aby zadecydowa´c czy dw´och z nich zda bu- telki, a wylosowany zostanie w domu, czy te˙z odÃlo˙za problem na przyszÃly tydzie´, n.
Rozwa˙zmy zdarzenia
B = {Bartek, Za tydzie´n} - Bartek zostanie w domu C = {Czarek, Za tydzie´n} - Czarek zostanie w domu D = {Darek, Za tydzie´n} - Darek zostanie w domu.
Zauwa˙zmy, ˙ze prawdopodobie´nstwo ka˙zdego ze zdarze´n B, C, D wynosi 1/2. Po- nadto
P(B ∩ C) = 1
4 = P(B)P(C) P(B ∩ D) = 1
4 = P(B)P(D) P(C ∩ D) =1
4 = P(C)P(D).
Zatem ka˙zde dwa spo´sr´od zdarze´n B, C, D sa niezale˙zne. Zdarzenia A, B, C nie s, a, jednak niezale˙zne, gdy˙z
P(B ∩ C ∩ D) = P({Za tydzie´n}) = 1 4 6= 1
8 = P(B)P(C)P(D).
W takiej sytuacji m´owimy, ˙ze zdarzenia B, C, D sa niezale˙zne parami.,
Twierdzenie 7. Rozwa˙zmy zdarzenia A1, A2, . . . , An i oznaczmy A0i = Ai, A1i = A0i. W´owczas nastepuj, ace warunki s, a r´ownowa˙zne,,
(i) zdarzenia A1, . . . , An sa niezale˙zne,,
(ii) dla ka˙zdego ciagu ε, 1, . . . , εn, gdzie εi ∈ {0, 1} (i = 1, . . . , n), zdarzenia B1= Aε11, . . . , Bn= Aεnn, sa niezale˙zne,,
(iii) dla ka˙zdego ciagu ε, 1, . . . , εn, gdzie εi∈ {0, 1} (i = 1, . . . , n), zachodzi P(Aε11∩ . . . ∩ Aεnn) = P(Aε11) · . . . · P(Aεnn)
W szczeg´olno´sci, z powy˙zszego twierdzenia wynika, ˙ze je´sli zdarzenia A, B sa, niezale˙zne, to niezale˙zne sa tak˙ze zdarzenia A, 0, B0. Fakt ten pozwala upro´sci´c nieco rachunki w przykÃladzie 4 powy˙zej.
11. Schemat Bernoulliego
Definicja 7. Schematem Bernoulliego nazywamy ciag niezale˙znych powt´orze´, n tego samego do´swiadczenia, w kt´orym sa mo˙zliwe dwa wyniki: jeden z nich nazywamy, sukcesem (i prawdopodobie´nstwo jego zaj´scia oznaczamy przez p), a drugie - pora˙zka, (jego prawdopodobie´nstwo wynosi q = 1 − p). Pojedyncze do´swiadczenie nazywamy pr´oba Bernoulliego.,
Schemat Bernoulliego jest jednoznacznie okre´slony przez podanie liczby pr´ob (oznaczanej dalej litera n) i prawdopodobie´, nstwa sukcesu p. Mo˙zna te˙z rozpa- trywa´c schematy Bernoulliego z niesko´nczona liczb, a pr´ob.,
PrzykÃlady:
1. Rzucamy 10 razy prawidÃlowa monet, a. Pr´ob, a Bernoulliego jest pojedynczy, rzut moneta, jako sukces przyjmujemy wyrzucenie orÃla. Mamy n = 10, p = 1/2.,
2. Rzucamy 5 razy prawidÃlowa kostk, a. Pr´ob, a Bernoulliego jest pojedynczy rzut, kostka, jako sukces przyjmujemy wyrzucenie co najwy˙zej 2 oczek. Mamy n = 5,, p = 1/3.
3. Z urny, w kt´orej znajduje sie 5 biaÃlych i 4 czarne kule, losujemy 20 razy ze, zwracaniem po 2 kule. Pr´oba Bernoulliego jest pojedyncze losowanie dw´och kul,, jako sukces bierzemy wylosowanie dw´och biaÃlych kul. Mamy n = 20, p =¡5
2
¢/¡9
2
¢.
ÃLatwo jest poda´c przestrze´n probabilistyczna modeluj, ac, a schemat Bernoulliego, skÃladajacego si, e z n pr´ob i prawdopodobie´, nstwie sukcesu p. Mianowicie,
Ω = {(a1, a2, . . . , an) : ai∈ {0, 1}, i = 1, 2 . . . , n},
gdzie ai = 1 (odp., ai = 0) interpretujemy jako sukces (odp., pora˙zke) w i-tej pr´obie,, i = 1, 2, . . . , n. Ponadto, bierzemy F = 2Ω. Aby okre´sli´c prawdopodobie´nstwo na (Ω, F), wystarczy okre´sli´c je na zdarzeniach jednoelementowych (patrz przykÃlad 6 ze strony 3). KÃladziemy
P({(a1, a2, . . . , an)}) = pPni=1ai(1 − p)n−Pni=1an.
Stad Ãlatwo wynika, i˙z prawdopodobie´, nstwo uzyskania dokÃladnie k sukces´ow w schemacie Bernoulliego skÃladajacego si, e z n pr´ob wynosi,
µn k
¶
pk(1 − p)n−k. PrzykÃlady:
1. Rzucamy 10 razy kostka. Jakie jest prawdopodobie´, nstwo tego, ˙ze sz´ostka wypadnie raz lub dwa razy?
Mamy tu do czynienia ze schematem Bernoulliego skÃladajacego si, e z 10 pr´ob., Pr´oba Bernoulliego jest pojedynczy rzut kostk, a, a sukcesem jest wyrzucenie 6 oczek;, zatem p = 1/6. Wobec tego
P(sz´ostka wypadnie raz lub dwa razy) = P(jeden sukces) + P(dwa sukcesy)
= µ10
1
¶ µ1 6
¶1µ 5 6
¶9 +
µ10 2
¶ µ1 6
¶2µ 5 6
¶8 . 2. Dany jest schemat Bernoulliego skÃladajacy si, e z n pr´ob, o prawdopodo-, bie´nstwie sukcesu p. Jaka jest najbardziej prawdopodobna liczba sukces´ow?
Oznaczmy
pk = P(mamy dokÃladnie k sukces´ow) = µn
k
¶
pk(1 − p)k. Mamy
pk+1
pk
=
¡ n
k+1
¢pk+1(1 − p)n−(k+1)
¡n
k
¢pk(1 − p)n−k = (n − k)p (k + 1)(1 − p).
Powy˙zsze wyra˙zenie jest wieksze ni˙z 1 wtedy i tylko wtedy, gdy k < (n + 1)p − 1;, jest za´s mniejsze ni˙z 1 wtedy i tylko wtedy, gdy k > (n + 1)p − 1. Innymi sÃlowy, do momentu k = (n + 1)p liczby pk rosna, a potem malej, a. Daje to nast, epuj, ac, a, odpowied´z. Je´sli (n + 1)p jest liczba caÃlkowit, a, to dwie liczby sukces´ow s, a najbar-, dziej prawdopodobne: (n + 1)p − 1 oraz (n + 1)p. Je´sli za´s (n + 1)p nie jest liczba, caÃlkowita, to najbardziej prawdopodobn, a liczb, a sukces´ow jest b(n + 1)pc.,
W przypadku, gdy liczba pr´ob w schemacie Bernoulliego jest du˙za, oblicza- nie prawdopodobie´nstwa danej liczby sukces´ow jest kÃlopotliwe. W przypadku gdy np jest ,,umiarkowane”, dobre przybli˙zenie takiego prawdopodobie´nstwa daje nastepuj, ace twierdzenie.,
Twierdzenie 8 (Poissona). Je´sli pn ∈ [0, 1], limn→∞npn = λ > 0, to dla k = 0, 1, 2, . . . ,
n→∞lim µn
k
¶
pkn(1 − pn)n−k=λk k!e−λ.
Powstaje naturalne pytanie, na ile powy˙zsze przybli˙zenie jest ,,dobre”. Odpo- wied´z jest zawarta w nastepuj, acym twierdzeniu.,
Twierdzenie 9 (Oszacowanie bÃledu w przybli˙zeniu poissonowskim). Niech S, n
oznacza liczbe sukces´ow w schemacie Bernoulliego skÃladaj, acego si, e z n pr´ob i praw-, dopodobie´nstwie sukcesu p. Oznaczmy λ = np. Dla dowolnego zbioru A ⊂ {0, 1, 2, . . .},
¯¯
¯¯
¯P(Sn∈ A) −X
k∈A
λk k!e−λ
¯¯
¯¯
¯≤ λ2 n. PrzykÃlady:
1. W urnie znajduje sie 999 czarnych i 1 biaÃla kula. Wyznaczy´c przybli˙zone, prawdopodobie´nstwo tego, ˙ze losujac 500 razy ze zwracaniem wylosujemy 2 razy, biaÃla kul, e.,
Mamy tu do czynienia ze schematem 500 pr´ob Bernoulliego (z kt´orych ka˙zda to pojedyncze losowanie z urny), o prawdopodobie´nstwie sukcesu p = 1/1000. Liczba
pr´ob n = 500 jest du˙za, λ = np = 1/2 jest umiarkowane, a wiec na mocy twierdzenia, Poissona, szukane prawdopodobie´nstwo jest w przybli˙zeniu r´owne (1/2)2! 2e−1/2 = 0, 076 . . . . Ponadto, jak wida´c z powy˙zszego twierdzenia, bÃlad oszacowania jest, niewiekszy ni˙z λ, 2/n = 1/2000 = 0, 002.
2. ArtykuÃl liczy 105 znak´ow. Podczas wprowadzania artykuÃlu do komputera, prawdopodobie´nstwo i˙z dany znak zostanie wpisany bÃlednie wynosi 0, 0001. Jakie, jest prawdopodobie´nstwo, ˙ze w artykule sa co najmniej 2 bÃl, edy?,
Widzimy, i˙z mamy do czynienia ze schematem Bernoulliego skÃladajacego si, e z, n = 105pr´ob (k-ta z nich odpowiada wprowadzeniu k-tego znaku artykuÃlu). Praw- dopodobie´nstwo sukcesu (wprowadzenia znaku bÃlednie) wynosi p = 0, 0001. Mamy,, i˙z n jest du˙ze, a λ = np = 10 jest umiarkowane; stad mo˙zemy u˙zywa´c twierdzenia, Poissona. ÃLatwiej jest pracowa´c ze zdarzeniem przeciwnym do rozwa˙zanego: w artykule jest co najwy˙zej 1 bÃlad. Prawdopodobie´, nstwo tego zdarzenia wynosi w przybli˙zeniu
100
0! e−10+101
1! e−10= 11e−10= 0, 0005 . . . ,
a wiec rozwa˙zane w przykÃladzie prawdopodobie´, nstwo wynosi okoÃlo 0, 9995. BÃlad, przybli˙zenia szacuje sie przez λ, 2/n = 0, 001.
3. Z przedziaÃlu [0, 2] wybieramy losowo 100 punkt´ow. Jakie jest prawdopodo- bie´nstwo tego, ˙ze co najmniej jeden z nich bedzie nale˙zaÃl do odcinka [0, 1/4]?,
Mamy schemat n = 100 pr´ob Bernoulliego z prawdopodobie´nstwem sukcesu (wpadniecie losowanego punktu do [0, 1/4]) wynosz, acym p = 1/8. Mamy λ = np =, 12, 5 i zdarzenie przeciwne do badanego ma w przybli˙zeniu prawdopodobie´nstwo e−12,5 = 0, 000004 . . .. BÃlad przybli˙zenia szacuje si, e przez λ, 2/n = 1, 5625. Wida´c wiec, ˙ze otrzymany wynik jest bezwarto´sciowy. Jest tak dlatego, i˙z λ, w por´ownaniu, do n, nie jest ,,umiarkowane”.
12. Zmienne losowe jednowymiarowe
Jak ju˙z wiemy, matematycznym opisem do´swiadczenia losowego jest przestrze´n probabilistyczna (Ω, F, P). Czesto jednak nie interesuje nas konkretny wynik ω ∈ Ω,, ale pewne charakterystyki liczbowe wyniku. Np., przy rzucie dwoma kostkami mo˙ze nas interesowa´c suma oczek; przy niesko´nczonym ciagu rzut´ow monet, a mo˙ze nas, interesowa´c numer losowania, w kt´orym orzeÃl pojawiÃl sie po raz pierwszy, itp. In-, nymi sÃlowy, czesto obiektem naszych zainteresowa´, n jest pewna funkcja X okre´slona na Ω, przyjmujaca warto´sci rzeczywiste. Przy badaniu takiej funkcji, naturalnym, pytaniem jest np. pytanie o prawdopodobie´nstwo tego, ˙ze X ≤ a (por. powy˙zsze przykÃlady). W szczeg´olno´sci oznacza to, i˙z ,,X nie przekracza a” jest zdarzeniem, tzn.
X−1((−∞, a]) = {ω ∈ Ω : X(ω) ≤ a} ∈ F.
Prowadzi to do nastepuj, acego poj, ecia.,
Definicja 8. Funkcje X : Ω → R nazywamy zmienn, a losow, a o warto´sciach w R,, je´sli dla dowolnego a ∈ R zbi´or X−1((−∞, a]) jest zdarzeniem, czyli X−1((−∞, a]) ∈ F.
Uwaga: Gdy Ω jest zbiorem co najwy˙zej przeliczalnym i F = 2Ω, to ka˙zda funkcja X : Ω → R jest zmienna losow, a.,
PrzykÃlady:
1. Rzucamy dwa razy kostka, X - liczba wyrzuconych orÃl´ow. Mamy Ω =, {(O, O), (O, R), (R, O), (R, R)} i X((O, O)) = 2, X((O, R)) = X((R, O)) = 1, X((R, R)) = 0.
2. Rzucamy dwa razy kostka, X - suma oczek. Mamy Ω = {(a, b) : a, b ∈, {1, 2, 3, 4, 5, 6}}, X((a, b)) = a + b.
3. Z odcinka [0, 3] wybieramy punkt, X - jego odlegÃlo´s´c od najbli˙zszej liczby caÃlkowitej. W´owczas Ω = [0, 3] i dla ω ∈ Ω,
X(ω) =
ω je´sli ω ∈ [0, 1/2],
|ω − 1| je´sli ω ∈ (1/2, 3/2],
|ω − 2| je´sli ω ∈ (3/2, 5/2], 3 − ω je´sli ω ∈ (5/2, 3].
Na zmiennych losowych (okre´slonych na tej samej przestrzeni probabilistycz- nej) mo˙zna wykonywa´c wszelkie (rozsadne...) dziaÃlania: dodawanie, odejmowanie,, mno˙zenie, dzielenie (o ile nie dzielimy przez 0) i jako wynik otrzymujemy nowe zmienne losowe. Ponadto, je´sli X jest zmienna losow, a, a f : R → R jest funkcj, a, borelowska, to f (X) te˙z jest zmienn, a losow, a. Np., je´sli X, Y s, a zmiennymi loso-, wymi, to Z1= sin X, Z2= 3 sin X + Y2, Z3=YX2+1 tak˙ze sa zmiennymi losowymi., Przechodzimy teraz do pojecia rozkÃladu zmiennej losowej. Zacznijmy od kilku, przykÃlad´ow.
1. Rzucamy trzy razy symetryczna monet, a. Niech X oznacza liczb, e wyrzuconych, orÃl´ow. Korzystajac ze schematu Bernoulliego obliczamy, i˙z,
P(X = 0) = 1
8, P(X = 1) =3
8, P(X = 2) = 3
8, P(X = 3) = 1 8.
Widzimy wiec, ˙ze 0 oraz 3 s, a przyjmowane z prawdopodobie´, nstwem 1/8, a 1 i 2 - z prawdopodobie´nstwem 3/8. Wida´c, ˙ze dostajemy pewien rozkÃlad prawdopodo- bie´nstwa na prostej.
Niech teraz Y - liczba wyrzuconych reszek. W´owczas tak samo: 0 oraz 3 sa, przyjmowane przez zmienna Y z prawdopodobie´, nstwem 1/8, a 1 i 2 - z prawdopo- dobie´nstwem 3/8. Tak wiec dostajemy to samo prawdopodobie´, nstwo na prostej.
2. Z koÃla o promieniu 1 losujemy punkt. Niech X oznacza odlegÃlo´s´c tego punktu od ´srodka koÃla. W´owczas X przyjmuje warto´sci z przedziaÃlu [0, 1]. Dla a ∈ [0, 1]
mamy
P(X ∈ [0, a]) =πa2 π = a2,
a wiec potrafimy ,,mierzy´c wielko´s´c” przedziaÃl´ow [0, a]. Okazuje si, e, i˙z podan, a, funkcje mo˙zna rozszerzy´c do prawdopodobie´, nstwa okre´slonego na prostej. Zale˙zy ono oczywi´scie od zmiennej X.
Z powy˙zszych dw´och przykÃlad´ow wida´c, i˙z przy ustalonej zmiennej losowej X, prawdopodobie´nstwo z wyj´sciowej przestrzeni probabilistycznej daje sie ,,przetrans-, portowa´c” do prawdopodobie´nstwa µX na (R, B(R)). Prowadzi to do pojecia, rozkÃladu zmiennej losowej.
Definicja 9. RozkÃladem zmiennej losowej rzeczywistej X nazywamy prawdopodo- bie´nstwo µX na (R, B(R)), dane wzorem
µX(A) = P(X ∈ A).
Uwaga: Istnieja r´o˙zne zmienne losowe maj, ace ten sam rozkÃlad. Por. przykÃlad, 1 powy˙zej.
PrzykÃlady:
1. Rzucamy raz kostka. niech X oznacza liczb, e oczek. W´owczas µ, X jest to prawdopodobie´nstwo skoncentrowane na zbiorze {1, 2, 3, 4, 5, 6}, takie, ˙ze
µX({k}) = 1 6. Tak wiec, dla A ∈ B(R),,
µX(A) = 1 6
X6 k=1
1A(k).
2. Powy˙zszy rozkÃlad jest przykÃladem rozkÃladu dyskretnego. RozkÃlad na prostej rzeczywistej nazwiemy dyskretnym, je´sli istnieje co najwy˙zej przeliczalny zbi´or S taki, ˙ze µ(S) = 1. RozkÃlad taki jest jednoznacznie wyznaczony przez masy (praw- dopodobie´nstwa) punkt´ow nale˙z, acych do S (´sci´slej, jednoelementowych podzbior´ow, S): istotnie, dla dowolnego A ∈ B(R),
µ(A) =X
k∈A
µ({k}).
3. RozkÃlad Bernoulliego B(n, p). Jest to rozkÃlad zmiennej losowej X okre´slonej jako liczba sukces´ow w schemacie Bernoulliego skÃladajacego si, e z n pr´ob o prawdo-, podobie´nstwie sukcesu p. Dany jest on poprzez
µ({k}) = µn
k
¶
pk(1 − p)n−k, k = 0, 1, 2, . . . , n.
4. RozkÃlad geometryczny z parametrem p ∈ (0, 1), ozn. Geom(p). Jest to rozkÃlad zmiennej losowej X okre´slonej jako numer pr´oby, w kt´orej sukces pojawiÃl sie po raz pierwszy. Jest to rozkÃlad skoncentrowany na zbiorze {1, 2, . . . , ∞}., Ponadto, mamy
µX({k}) = (1 − p)k−1p, k = 1, 2, . . . oraz
µX({∞}) = 1 − X∞ k=1
µX({k}) = 0.
Czasami rozkÃladem geometrzycznym nazywamy rozkÃlad zmiennej Y = X − 1, okre´slony przez
µY({k}) = (1 − p)kp, k = 0, 1, 2, . . . .
5. RozkÃlad Poissona z parametrem λ > 0, ozn. Pois(λ). Jest to taki rozkÃlad skoncentrowany na liczbach caÃlkowitych nieujemnych, ˙ze
µ({k}) = λk k!e−λ.
Jak wiadomo z twierdzenia Poissona, jest to rozkÃlad graniczny, bed, acy granic, a, rozkÃlad´ow Bernoulliego.
6. PrzykÃlad rozkÃladu ciagÃlego: rozkÃlad jednostajny na odcinku [a, b], ozn. U(a, b)., ZaÃl´o˙zmy, ˙ze losujemy liczbe X z odcinka [a, b]. W´owczas, z prawdopodobie´, nstwa
geometrycznego, mamy, dla przedziaÃlu [c, d] ⊂ [a, b], µX([c, d]) = P(X ∈ [c, d]) = |[c, d]|
|[a, b]| =d − c b − a =
Z d
c
1 b − adx =
Z
[c,d]
1 b − adx.
Og´olniej, je´sli A jest borelowskim podzbiorem [a, b], to µX(A) = P(X ∈ A) = |A|
|[a, b]| = 1 b − a|A| =
Z
A
1 b − adx.
Jeszcze og´olniej, gdy A ⊂ R, to bierzemy µX(A) = µX(A ∩ [a, b]).
7. Inny przykÃlad rozkÃladu ciagÃlego. ZaÃl´o˙zmy, ˙ze rzucamy monet, a, dla kt´orej, prawdopodobie´nstwo wypadniecia orÃla wynosi 1/3. Dalej, je´sli wypadnie orzeÃl, to, losujemy punkt X z odcinka [−2, 0), natomiast gdy wypadnie reszka - losujemy punkt X z odcinka [0, 3]. Argumentujac jak w poprzednim przykÃladzie mamy, i˙z, dla borelowskiego podzbioru [−1, 0),
µX(A) = P(X ∈ A) = Z
A
2 3· 1
3 − 0dx, a dla borelowskiego podzbioru A odcinka [−2, 0),
µX(A) = Z
A
1
3 · 1
0 − (−2)dx.
Og´olnie, gdy A jest podzbiorem borelowskim prostej, to µX(A) =
Z
A
g(x)dx, gdzie
g(x) =
1
6 je´sli x ∈ [−2, 0),
2
9 je´sli x ∈ [0, 3],
0 w pozostaÃlych przypadkach.
Powy˙zsze dwa przykÃlady to przykÃlady rozkÃlad´ow z gesto´sci, a b, ad´z rozkÃlad´ow, ciagÃlych.,
Definicja 10. Zmienna losowa X ma rozkÃlad ciagÃly, je´sli istnieje taka funkcja, g : R → R+, ˙ze dla dowolnego zbioru A ∈ B(R),
µX(A) = P(X ∈ A) = Z
A
g(x)dx.
W´owczas funkcje g nazywamy g, esto´sci, a rozkÃladu zmiennej X b, ad´z g, esto´sci, a zmien-, nej X.
Uwaga: Gesto´s´c jednoznacznie wyznacza rozkÃlad., PrzykÃlady - c.d.
8. PrzykÃlad 6 mo˙zemy wiec zapisa´c nast, epuj, aco: rozkÃlad jednostajny U(a, b) to, rozkÃLad z gesto´sci, a,
g(x) = 1
b − a1[a,b](x).
9. RozkÃlad wykÃladniczy z parametrem λ > 0, ozn. Exp(λ). Jest to rozkÃlad z gesto´sci, a,
g(x) = λe−λx1[0,∞)(x).
10. Standardowy rozkÃlad normalny, ozn. N (0, 1). Jest to rozkÃlad o gesto´sci, g(x) = 1
√2πe−x2/2.
Og´olniej, dla a ∈ R oraz σ > 0 definiujemy rozkÃlad normalny o parametrach a, σ2 (ozn. N (a, σ2)) jako rozkÃlad o gesto´sci,
ga,σ2(x) = 1
√2πσexp
³
−(x − a)2 2σ2
´ .
Dodatkowo dla σ = 0, definiujemy N (a, 0) jako rozkÃlad jednopunktowy δa (tzw.
delta Diraca w a), zadany wzorem
δa(A) = 1A(a) = (
1 gdy a ∈ A 0 w p.p.
Jak widzimy N (a, σ2) jest rozkÃladem ciagÃlym dla σ > 0 i dyskretnym dla σ = 0., Uwaga RozkÃlady normalne nale˙za do najwa˙zniejszych rozkÃlad´ow w rachunku, prawdopodobie´nstwa. Pojawiaja si, e one niezwykle cz, esto w zastosowaniach, ze, wzgledu na fakt, ˙ze wiele wyst, epuj, acych w przyrodzie wielko´sci ma rozkÃlad w przy-, bli˙zeniu normalny. Wykres gesto´sci rozkÃladu normalnego ci, agÃlego to charaktery-, styczna krzywa o ksztaÃlcie ,,dzwonu”, znana chocia˙zby z opracowa´n popularnych, gdzie ilustruje np. rozkÃlad wzrostu, wagi, ilorazu inteligencji czy innych cech w po- pulacji. W dalszej cze´sci wykÃladu poznamy tzw. Centralne twierdzenie graniczne,, kt´ore stanowi matematyczne wyja´snienie faktu pojawiania sie g, esto´sci normalnej w, tak wielu, czesto do´s´c odlegÃlych problemach.,
13. Dystrybuanta zmiennej losowej
Jak ju˙z wspomniano w poprzednim rozdziale, z reguÃly jeste´smy zainteresowani zdarzeniami typu {ω ∈ Ω : X(ω) ≤ a} = {X ≤ a}, gdzie X jest zmienna losow, a, za´s, a – liczba rzeczywist, a. Zdarzenia tego typu maj, a podstawowe znaczenie dla bada-, nia zmiennych losowych, w szczeg´olno´sci, jak zobaczymy nieco p´o´zniej, znajomo´s´c prawdopodobie´nstwa P(X ≤ a) dla wszystkich a ∈ R wyznacza jednoznacznie rozkÃlad zmiennej. Dlatego te˙z wprowadza sie nast, epuj, ac, a definicj, e.,
Definicja 11. Dystrybuanta zmiennej losowej X : Ω → R nazywamy funkcj, e F, X: R → [0, 1], dana wzorem,
FX(t) = P(X ≤ t).
Uwaga. Poniewa˙z dystrybuanta zale˙zy jedynie od rozkÃladu zmiennej losowej X, czasami m´owimy o dystrybuancie rozkÃladu (a nie zmiennej).
PrzykÃlady
1. Dystrybuanta zmiennej X o rozkÃladzie δa (czyli przyjmujacej z prawdopodo-, bie´nstwem 1 warto´s´c a) jest dana wzorem
FX(t) =
(0 dla t < a 1 dla t ≥ a.
2. Dystrybuanta zmiennej dwupunktowej, przyjmujacej warto´sci 1, −1, ka˙zd, a z, prawdopodobie´nstwem 1/2 jest funkcja
F (t) =
0 dla t ∈ (−∞, −1) 1/2 dla t ∈ [−1, 1) 1 dla t ∈ [1, ∞).
3. Je´sli Y jest zmienna o rozkÃladzie wykladniczym z parametrem 1, czyli o, gesto´sci g, Y(t) = e−t1[0,∞)(t), to
FX(t) = P(Y ≤ t) = Z t
−∞
g(x)dx = [e−x1[0,∞)(x)]x=tx=−∞= (1 − e−t)1[0,∞)(t).
Powy˙zsze przykÃlady sugeruja, ˙ze dystrybuantami zmiennych losowych mog, a by´c, tylko funkcje szczeg´olnego typu. M´owi o tym poni˙zsze twierdzenie.
Twierdzenie 10. Dystrybuanta FXzmiennej losowej X ma nastepuj, ace wÃlasno´sci:, (i) FX jest niemalejaca,,
(ii) limt→∞FX(t) = 1, limt→−∞FX(t) = 0, (iii) FX jest prawostronie ciagÃla.
Uwaga Czasami w literaturze, szczeg´olnie tej nieco starszej, definiuje sie dys-, trybuante wzorem F, X(t) = P(X < t) (czyli u˙zywajac ostrej nier´owno´sci). Tak, zdefiniowana dystrybuanta posiada wÃlasno´sci (i), (ii), ale wlasno´s´c (iii) zostaje zastapiona warunkiem lewostronnej ci, agÃlo´sci.,
Okazuje sie, ˙ze powy˙zsze twierdzenie mo˙zna odwr´oci´c, mianowicie ka˙zda funkcja, speÃlniajaca warunki (i)–(iii) jest dystrybuant, a pewnej zmiennej losowej.,
Twierdzenie 11. Je´sli funkcja F : R → R speÃlnia warunki (i)–(iii), to istnieje przestrze´n probabilistyczna (Ω, F, P) oraz zmienna losowa X : Ω → R, taka ˙ze F jest dystrybuanta X. Co wi, ecej rozkÃlad zmiennej X jest wyznaczony jednoznacznie., Zatem w dystrybuancie zmiennej X ,,zakodowane” sa wszystkie informacje o jej, rozkÃladzie, w szczeg´olno´sci powinni´smy m´oc odczyta´c z niej czy zmienna X ma gesto´s´c albo czy X jest zmienn, a dyskretn, a.,
PrzykÃlad
Rozwa˙zmy dyskretna zmienn, a losow, a, przyjmuj, ac, a warto´sci t, 1 < t2< . . . < tn, przy czym P(X = ti) = pi (zakÃladamy ˙ze zmienna nie przyjmuje ˙zadnych innych warto´sci, czyliPn
i=1pi = 1). W´owczas dla t < t1, FX(t) = 0, dla t ≥ tn, FX(t) = 1, za´s dla t ∈ [t1, ti+1], FX(t) =Pi
i=1pi.
W szczeg´olno´sci widzimy, ˙ze FXjest ciagÃla poza punktami t, ioraz posiada granice lewostronne dla ka˙zdego t ∈ R. Oznaczmy FX(t−) = limx→t−FX(t). Mamy
FX(ti) − FX(ti−) = pi= P(X = ti), oraz dla t /∈ {t1, t2, . . . , tn},
FX(t) − FX(ti) = 0 = P(X = t).
Okazuje sie, ˙ze jest to og´olny fakt.,
Twierdzenie 12. Je´sli FX jest dystrybuanta zmiennej losowej X, to dla t ∈ R, zachodzi
FX(t−) = P(X < t)