Matematyka Dyskretna
Andrzej Szepietowski
Rozdział 1
Rachunek prawdopodobie ´nstwa
1.1
Przestrze ´n zdarze ´n elementarnych
Podstawowym poj¸eciem rachunku prawdopodobie ´nstwa jest przestrze´n zdarze´n
elemen-tarnych, któr¸a najcz¸e´sciej b¸edziemy oznacza´c przezΩ. W tej ksi¸a˙zce ograniczymy si¸e
do przypadków, gdyΩ jest zbiorem sko ´nczonym. Dzi¸eki temu nasze rozwa˙zania b˛ed ˛a prostsze.
Elementy przestrzeniΩ nazywamy zdarzeniami elementarnymi.
Przykład 1.1 Przypu´s´cmy, ˙ze rzucamy monet¸a. Przestrze´n zdarze´n elementarnych mo˙ze
by´c wtedy okre´slona jakoΩ ={O, R}, gdzie O oznacza wypadni¸ecie orła, a R reszki.
Przykład 1.2 W przypadku dwukrotnego rzutu monet ˛a przestrze´n zdarze´n elementarnych mo˙ze by´c okre´slona jakoΩ = {OO, OR, RO, RR}, gdzie OO oznacza, ˙ze dwa razy
wypadł orzeł;OR, ˙ze za pierwszym razem wypadł orzeł, a za drugiem reszka; RO, ˙ze za
pierwszym razem reszka, a za drugim orzeł; aRR, ˙ze dwa razy wypadła reszka.
Przykład 1.3 Przypu´s´cmy, ˙ze mamy urn¸e z pi˛ecioma ponumerowanymi kulami, i ˙ze kule
o numerach2 i 4 s¸a białe, a kule o numerach 1, 3 i 5 s¸a czarne. Przestrze´n zdarze´n
elementarnych mo˙ze by´c zdefiniowana jakoΩ ={1, 2, 3, 4, 5}.
Przykład 1.4 Przypu´s´cmy, ˙ze mamy urn¸e jak w poprzednim punkcie i ˙ze losujemy dwie
kule z tej urny. Przestrzeni¸a zdarze´n elementarnych mo˙ze tu by´c zbiór dwuelementowych podzbiorów zbioru kul
Ω ={{1, 2}, {1, 3}, {1, 4}, {1, 5}, {2, 3}, {2, 4}, {2, 5}, {3, 4}, {3, 5}, {4, 5}}.
1.1.1
Zdarzenia
Dowolny podzbiorA przestrzeni zdarze ´n elementarnych Ω nazywamy zdarzeniem.
Pa-mi˛etajmy, ˙ze rozwa˙zamy tylko sko ´nczone przestrzenie zdarze ´n elementranych. W przy-padku, gdyΩ jest zbiorem niesko ´nczonym, konieczna jest inna definicja zdarzenia. Tak
wi˛ec zdarzenia s ˛a elementami zbioru2Ωwszystkich podzbiorów zbioruΩ, jest ich 2|Ω|. Cały zbiórΩ nazywamy zdarzeniem pewnym, a zbiór pusty∅ zdarzeniem niemo˙zliwym.
Zdarzenia rozł¸aczne,A∩ B = ∅, nazywamy wykluczaj¸acymi si¸e. Zdarzenie A0 = Ω
− A
nazywamy zdarzeniem przeciwnym do zdarzeniaA.
Przykład 1.5 W przykładzie 1.2, z dwukrotnym rzutem monet ˛a,Ω ={OO, OR, RO, RR},
mamy16 = 24 zdarze´n. Zbiór
{OO, OR} jest zdarzeniem polegaj¸acym na tym, ˙ze za
pierwszym razem wypadł orzeł. Zbiór{OO, OR, RO}, ˙ze orzeł wypadł przynajmniej je-den raz.
Przykład 1.6 W przykładzie 1.3, z kulami, zbiór{2, 4} oznacza zdarzenie, ˙ze
wylosowa-no kul¸e biał¸a, a zbiór{1, 2, 3}, ˙ze wylosowano kul˛e o numerze mniejszym od 4.
Przykład 1.7 W przykładzie 1.4, z losowaniem dwóch kul, zbiór{{2, 4}} oznacza
zda-rzenie, ˙ze wylosowano dwie kule białe, a zbiór{{1, 3}, {3, 5}, {3, 5}}, ˙ze wylosowano dwie kule czarne.
1.1.2
Przykłady przestrzeni zdarze´
n elementarnych
Podamy teraz inne przykłady przestrzeni zdarze ´n elementarnych.
Przykład 1.8 Zbiór wszystkich czteroelementowych ci¸agów z warto´sciamiO lub R jako
przestrze´n dla czterokrotnego rzutu monet ˛a. Zdarzenie, ˙ze za pierwszym i trzecim razem wypadł orły to{OOOO, OOOR, OROO, OROR}, a zdarzenie, ˙ze za pierwszym i trze-cim razem wypadło to samo to
{OOOO, OOOR, OROO, OROR, RORO, RORR, RRRO, RRRR}.
Przykład 1.9 Zbiór wszystkichn elementowych ci¸agów z warto´sciami O lub R jako
prze-strze´n dlan krotnego rzutu monet ˛a. Podobnie jak w poprzednim przykładzie mo˙zemy roz-patrywa´c zdarzenie, ˙ze za pierwszym i trzecim razem wypadł orzeł lub zdarzenie, ˙ze za pierwszym i trzecim razem wypadło to samo.
Przykład 1.10 NiechG = (V, E) b˛edzie wybranym ustalonym grafem z|V | = n
wierz-chołkami i|E| = m kraw˛edziami. Jako przestrze´n zdarze´n elementarnych we´zmy zbiór wszystkich kolorowa´n dwoma kolorami wierzchołków grafuG. Przestrze´n zdarze´n
ele-mentarnych jest zbiorem wszystkich funkcji ze zbioru wierzchołkówV w zbiór{1, 2},
czy-liΩ ={1, 2}V. Przykładem zdarzenia jest zbiór kolorowa´n, w których ko´nce wybranej z
góry kraw˛edzie ={u, v} ∈ E maj ˛a ró˙zne kolory
{f ∈ Ω | f(u) 6= f(v)}.
Przykład 1.11 Zbiór wszystkich funkcji ze zbioruA w zbiór B, czyli Ω = BA.
Przykła-dem zdarzenia jest zbiór funkcji, które maj ˛a tak ˛a sam ˛a warto´s´c dla dwóch z góry wybra-nych punktówa, b∈ A, czyli {f ∈ Ω | f(a) = f(b)}.
Przykład 1.12 Mamy ustalony zbiórV . Przestrze´n zdarze´n elementarnych to wszystkie
grafy ze zbiorem wierzchołkówV . Zdarzeniem jest zbiór grafów, w których dwa z góry
1.2. Prawdopodobie ´nstwo 5
Przykład 1.13 Zbiór liter lub słów wyst¸epuj¸acych w jakim´s tek´scie, ksi¸a˙zce lub li´scie. Przykład 1.14 Grupa studencka. Zdarzeniem jest zbiór studentów, którzy otrzymali
oce-n ˛a bardzo dobr ˛a z egzaminu.
Przykład 1.15 Wyborcy. Zdarzeniem s ˛a wyborcy, którzy nie brali udziału w ostatnich wyborach.
1.2
Prawdopodobie ´nstwo
Definicja 1.16 Prawdopodobie´nstwo, lub rozkład prawdopodobie´nstwa, jest funkcj¸a
P : 2Ω
→ R
okre´slon¸a na zbiorze zdarze´n (w naszym przypadku na zbiorze wszystkich podzbiorówΩ).
Ka˙zdemu zdarzeniuA ⊆ Ω przypisujemy liczb¸e rzeczywist¸a P (A), jego
prawdopodo-bie´nstwo. Funkcja ta musi spełnia´c warunki:
Aksjomaty prawdopodobie ´nstwa
A1) Dla ka˙zdegoA⊆ Ω, P (A) ≥ 0,
A2) P (Ω) = 1,
A3) je˙zeli zdarzeniaA i B s¸a rozł¸aczne, to P (A∪ B) = P (A) + P (B).
Zbiór zdarze ´n elementarnychΩ wraz z okre´slonym na nim prawdopodobie ´nstwem b¸edziemy
nazywa´c przestrzeni¸a probabilistyczn¸a. W przypadku, gdy przestrze ´n zdarze´n elemen-tarnych jest zbiorem sko ´nczonym, wystarczy okre´sli´c prawdopodobie ´nstwa dla zdarze ´n elementarnych. Musz¸a by´c tylko spełnione dwa warunki:
A4) P (ω)≥ 0, dla ka˙zdego ω ∈ Ω,
A5) P
ω∈ΩP (ω) = 1,
Prawdopodobie ´nstwo dowolnego zdarzeniaA jest wtedy równe
P (A) = X
ω∈A
P (ω).
Łatwo mo˙zna sprawdzi´c, ˙ze tak zdefiniowane prawdopodobie ´nstwo spełnia aksjomaty definicji 1.16.
Przykład 1.17 Dla dwukrotnego rzutu monet ˛a (przykład 1.2) mo˙zemy okre´sli´c takie samo prawdopodobie´nstwo dla wszystkich zdarze´n elementarnych
P (OO) = 0.25, P (OR) = 0.25, P (RO) = 0.25, P (RR) = 0.25.
Ale oczywi´scie funkcja prawdopodobie´nstwa mo˙ze by´c dowoln¸a funkcj¸a spełniaj¸ac¸a wa-runki A4 i A5. Na przykład
P (OO) = 0.27, P (OR) = 0.24, P (RO) = 0, 25, P (RR) = 0, 24
lub
1.2.1
Klasyczna definicja prawdopodobie ´
nstwa, rozkład jednostajny
W przypadku, gdy przestrze ´n zdarze´n elementarnych jest zbiorem sko ´nczonym najcz¸e´sciej przyjmuje si¸e, ˙ze funkcja prawdopodobie ´nstwa przypisuje, ka˙zdemu zdarzeniu elemen-tarnemu tak¸a sam¸a warto´s´c. Mamy wtedy do czynienia z klasyczn¸a definicj¸a prawdopo-dobie´nstwa lub rozkładem jednostajnym.
Definicja 1.18 Rozkład prawdopodobie´nstwa, w którym ka˙zde zdarzenie elementarneω∈ Ω ma takie samo prawdopodobie´nstwo P (ω) =|Ω|1 nazywamy rozkładem jednostajnym.
W dalszej cz˛e´sci ksi ˛a˙zki b˛edziemy najcz˛e´sciej zakłada´c, ˙ze mamy jednostajny rozkład prawdopodobie ´nstwa. W razie odst˛epstwa b˛edziemy to specjalnie zaznacza´c.
Przykład 1.19 (kontynuacja przykładów 1.3 oraz 1.6 z losowaniem jednej kuli)
Prawdo-podobie´nsto zdarzenia, ˙ze wylosowano kul¸e biał¸a wynosi 25.
Przykład 1.20 (kontynuacja przykładów 1.4 oraz 1.7 z losowaniem pary kul).
Prawdo-podobie´nstwo ˙ze wylosowano par˛e kul białych wynosi 101, a prawdopodobie´nstwo ˙ze wy-losowano par˛e kul czarnych wynosi 103.
Przykład 1.21 (kontynuacja przykładu 1.8 z czterokrotnym rzutem monet ˛a). Je˙zeli zało-˙zymy rozkład jednostajny, to prawdopodobie´nstwo ˙ze za pierwszym i trzecim razem wy-padł orzeł wynosi 14, a prawdopodobie´nstwo, ˙ze za pierwszym i trzecim razem wypadnie to samo wynosi 12.
Podobnie w przypadku, gdyn krotnie rzucamy monet ˛an > 3 (przykład 1.9).
Prze-strze´n zdarz¸e elementarnych zawiera2n ci¸agów, z czego2n−2 sprzyja zdarzeniu, ˙ze za
pierwszym i trzecim razem wypadnie orzeł, a2n−1sprzyja zdarzeniu, ˙ze za pierwszym i trzecim razem jest to samo. Tak wi¸ec otrzymamy takie same prawdopodobie´nstwa jak w przypadku czterokrotnego rzutu monet ˛a.
Przykład 1.22 Powró´cmy do przypadku kolorowania dwoma kolorami wierzchołków
gra-fuG = (V, E) z|V | = n wierzchołkami (przykład 1.10). Prawdopodobie´nstwo, ˙ze ko´nce
wybranej z góry kraw˛edzie = {u, v} ∈ E maj ˛a ró˙zne kolory wynosi 12. Rzeczywi´scie, wszystkich kolorowa´n jest2n. Kolorowa´n, w któtychu i v maj¸a kolor biały, jest 2n−2(na
tyle sposobów mo˙zna pokolorowa´c pozostałen− 2 wierzchołków). Tyle samo jest
kolo-rowa´n, w którychu i v maj ˛a kolor czarny. Tak wi˛ec w połowie kolorowa´nu i v maj ˛a taki sam kolor, a w połowie maj ˛a ró˙zne kolory.
1.2.2
Własno´
sci prawdopodobie ´
nstwa
W nast¸epuj¸acym twierdzeniu zebrano kilka prostych wniosków wynikaj¸acych z aksjoma-tów prawdopodobie ´nstwa.
Twierdzenie 1.23 a) P (∅) = 0.
b) Je˙zeliA⊆ B, to P (A) ≤ P (B) oraz P (B − A) = P (B) − P (A).
1.3. Prawdopodobie ´nstwo warunkowe 7
d) P (A∪ B) ≤ P (A) + P (B).
Dowód:
a)Z aksjomatu A3 mamyP (∅) = P (∅ ∪ ∅) = P (∅) + P (∅), a 0 jest jedyn¸a liczb¸a
spełniaj¸ac¸a równo´s´cx = x + x.
b)Je˙zeliA ⊆ B, to B = (B − A) ∪ A oraz (B − A) ∩ A = ∅, a wi¸ec z aksjomatu A3 P (B) = P (B− A) + P (A) ≥ P (A).
c)MamyA∪ B = A ∪ (B − (A ∩ B)) oraz A ∩ (B − (A ∩ B)) = ∅, a wi¸ec z aksjomatu
A3P (A∪ B) = P (A) + P (B − (A ∩ B)), a poniewa˙z A ∩ B ⊆ B, z wniosku 1.23b
mamyP (B− (A ∩ B)) = P (B) − P (A ∩ B).
d)wynika bezpo´srednio zc). 2
Twierdzenie 1.24 NiechA1, . . . , An b¸edzie rodzin¸a parami rozł¸acznych zdarze´n (Ai∩
Aj=∅ dla ka˙zdej pary indeksów i < j). Wtedy
P n [ i=1 Ai = n X i=1 P (Ai)
Dowód przez indukcj¸e: Dlan = 1 twierdzenie zachodzi w sposób trywialny. Załó˙zmy,
˙ze twierdzenie jest prawdziwe dla dowolnej rodzinyn zbiorów. Rozpatrzmy
P n+1 [ i=1 Ai = P n [ i=1 Ai∪ An+1. Poniewa˙z Sn
i=1Ai ∩ An+1 =∅, z aksjomatu A3 i z zało˙zenia indukcyjnego wynika
P n+1 [ i=1 Ai = P n [ i=1 Ai + P (An+1) = n X i=1 P (Ai) + P (An+1) = n+1 X i=1 P (Ai). 2
1.3
Prawdopodobie ´nstwo warunkowe
Definicja 1.25 Prawdopodobie´nstwo warunkowe zaj´scia zdarzeniaA pod warunkiem, ˙ze
zaszło zdarzenieB oznaczane przez P (A|B) okre´slamy jako P (A|B) = P (A∩ B)
P (B) .
Ma to sens tylko wtedy gdyP (B) > 0.
Mo˙zemy powiedzie´c, ˙ze jest to prawdopodobie ´nstwo zaj´scia zdarzeniaA w sytuacji, gdy
mamy pewno´s´c, ˙ze zaszło zdarzenieB. Przy klasycznej definicji, gdy prawdopodobie
´n-stwo oznacza cz¸esto´s´c wyst¸apienia, to prawdopodobie ´n´n-stwoP (A|B) oznacza jaka cz¸e´s´c
Przykład 1.26 Niech w urnie b˛edzie sze´s´c kul o numerach od 1 do 6, i niech kule o
numerach parzystych b˛ed ˛a białe, a kule o numerach nieparzystych czarne. Przypu´s´c-my, ˙ze losujemy jedn ˛a kul˛e. Jako przestrze´n zdarze´n elementarnych wybieramy zbiór
Ω ={1, 2, 3, 4, 5, 6} z jednostajnym rozkładem prawdopodobie´nstwa. Rozwa˙zmy
zdarze-nieA ={1, 2} polegaj ˛ace na wylosowaniu kuli o numerze mniejszym od 3 oraz zdarzenie B ={2, 4, 6} polegaj ˛ace na wylosowaniu kuli białej. Prawdopodobie´nstwo P (A|B)
zaj-´scia zdarzeniaA pod warunkiem, ˙ze zaszło zdarzenie A wynosi P (A|B) = P (A∩B)P (B) =
1 6 :
1 2=
1
3. Mówi ˛ac inaczej, w´sród białych kul 1
3ma numer mniejszy od 3.
Zauwa˙zmy, ˙ze P (A|B) = P (A), czyli 1
3 kul ma numer mniejszy od 3 zarówno w
całym zbiorzeΩ jak i w´sród białych kul. Mo˙zemy wi˛ec powiedzie´c, ˙ze zaj´scie zdarzenia A nie zale˙zy od tego, czy zaszło zdarzenie B, czy nie.
Zauwa˙zmy, ˙ze tak˙ze zdarzenieB nie zale˙zy od zdarzenia A, poniewa˙z P (B|A) = P (B) = 1
2.
To co zauwa˙zyli´smy w powy˙zszym przykładzie jest ogóln ˛a prawidłowo´sci ˛a. Mianowicie, je˙zeliA i B s¸a zdarzeniami o niezerowych prawdopodobie ´nstwach i P (A) = P (A|B)
(zdarzenieA jest niezale˙zne od B), to P (B) = P (B|A) (zdarzenie B jest niezale˙zne od A). Rzeczywi´scie P (A|B) = P (A) poci¸aga P (A ∩ B) = P (A) · P (B), a to poci¸aga
P (B) = P (A∩ B)
P (A) = P (B|A).
Czyli relacja niezale˙zno´sci zbiorów jest symetryczna. Zwykle jednak u˙zywa si˛e troch˛e innej definicji niezale˙zno´sci.
1.4
Zdarzenia niezale˙zne
Definicja 1.27 ZdarzeniaA i B s¸a niezale˙zne, je˙zeli P (A∩ B) = P (A) · P (B).
Zauwa˙zmy, ˙ze je˙zeliP (A) = 0 lub P (B) = 0, to poniewa˙z A∩ B ⊂ A oraz A ∩ B ⊂ B,
na podstawie twierdzenia 1.23, mamyP (A∩B) = 0, czyli zdarzenia A i B s ˛aniezale˙zne.
Wniosek 1.28 P (A∩ B) = P (A|B) · P (B).
Definicja 1.29 ZdarzeniaA1, . . . , An, s¸a:
• parami niezale˙zne, je˙zeli ka˙zde dwa zdarzenia s¸a niezale˙zne, to znaczy gdy P (Ai∩
Aj) = P (Ai)· P (Aj) dla ka˙zdej pary i < j.
• niezale˙zne, je˙zeli dla ka˙zdego podzbioru I ⊆ {1, . . . , n} mamy
P \ i∈I Ai = Y i∈I P (Ai).
1.5. Prawdopodobie ´nstwo całkowite 9
Przykład 1.30 (Kontynuacja przykładu 1.2, z dwukrotnym rzutem monet ˛a). Niech A1
b¸edzie zdarzeniem, ˙ze za pierwszym razem wypadł orzeł,A2, ˙ze za drugim razem wypadł
orzeł, aA3, ˙ze w obu rzutach wypadło to samo. Mamy
P (A1) = P (A2) = P (A3) = 1 2 P (A1∩ A2) = P (A1∩ A3) = P (A2∩ A3) = P (A1∩ A2∩ A3) = 1 4.
Jak wida´c zdarzenia te s¸a parami niezale˙zne, poniewa˙z dla ka˙zdej pary indeksów1≤ i < j ≤ 3 mamy P (Ai∩ Aj) = P (Ai)· P (Aj) = 14. Ale zdarzenia te nie s¸a niezale˙zne,
poniewa˙z
1
4 = P (A1∩ A2∩ A3)6= P (A1)· P (A2)· P (A3) = 1 8.
Przykład 1.31 W przypadkun krotnego rzutu monet ˛a, niech Ai oznacza, ˙ze za i-tym
razem wypadł orzeł. Wtedy zdarzeniaA1, . . . , Ans¸a niezale˙zne. Łatwo sprawdzi´c, ˙ze
• dla ka˙zdego i, P (Ai) = 12,
• dla ka˙zdej pary i < j, P (Ai∩ Aj) = 14
• dla ka˙zdej trójki i < j < k, P (Ai∩ Aj∩ Ak) =18,
• i ogólnie, dla ka˙zdego podzbioru zbioru indeksów I ⊆ {1, . . . , n} mamy
P \ i∈I Ai = 1 2 |I|
1.5
Prawdopodobie ´nstwo całkowite
Twierdzenie 1.32 (wzór na prawdopodobie ´nstwo całkowite.) NiechA1, . . . , An ⊆ Ω,
b¸ed¸a zdarzeniami takimi, ˙ze:
• P (Ai) > 0, dla ka˙zdego 1≤ i ≤ n,
• Ai∩ Aj=∅, dla 1 ≤ i < j ≤ n (zdarzenia s¸a parami rozł¸aczne),
• S
1≤i≤nAi= Ω (zdarzenia daj¸a w sumie cał¸a przestrze´n).
Wtedy prawdopodobie´nstwo dowolnego zdarzeniaB⊆ Ω wynosi P (B) =
n
X
i=1
Dowód: Mamy B = B∩ Ω = B ∩ [ 1≤i≤n Ai= [ 1≤i≤n (B∩ Ai).
Ponadto(B∩ Ai)∩ (B ∩ Aj) =∅ dla i 6= j, wi¸ec na mocy twierdzenia 1.24 mamy
P (B) =
n
X
i=1
P (B∩ Ai).
Z wniosku 1.28 mamyP (B∩ Ai) = P (B|Ai)· P (Ai); co daje tez¸e twierdzenia. 2 W przypadku dwóch zdarze ´n uzupełniaj¸acych si¸eA i A0 = Ω− A wzór z twierdze-nia 1.32 wygl¸ada nast¸epuj¸aco:
P (B) = P (B|A) · P (A) + P (B|A0)
· P (A0). (1.1)
Przykład 1.33 Wyobra´zmy sobie dwie urny z kulami. W pierwszej urnie mamy kule o
nu-merach 1,2, w drugiej kule o nunu-merach 3,4,5. Zakładamy, ˙ze kule o nunu-merach parzystych s ˛a białe, a kule o numerach nieparzystych s ˛a czarne. Rzucamy monet¸a. Je˙zeli wypadnie orzeł, to losujemy kul¸e z pierwszej urny, je˙zeli reszka, to losujemy z drugiej urny.
Jakie jest prawdopodobie´nstwo, ˙ze wylosujemy kul¸e biał¸a? NiechB oznacza
wyloso-wanie kuli białej, aA wypadni¸ecie orła na monecie, wtedy A0 oznacza, ˙ze na monecie
wypadła reszka. MamyP (A) = P (A0) =1 2 oraz
P (B|A) = 12— jest to prawdopodobie´nstwo wylosowania kuli białej pod warunkiem, ˙ze wypadł orzeł i losowali´smy z pierwszej urny.
P (B|A0) = 1
3 — jest to prawdopodobie´nstwo wylosowania kuli białej pod
warun-kiem, ˙ze wypadła reszka i losowali´smy z drugiej urny.
Rysunek 1.1: Prawdopodobie ´nstwo całkowite
O 1 2 1 1 2 2 1 2 R 1 2 3 1 3 4 1 3 5 1 3
Korzystaj¸ac teraz ze wzoru (1.1) mamy
P (B) = 1 2· 1 2+ 1 3· 1 2= 5 12.
1.5. Prawdopodobie ´nstwo całkowite 11
Rozwi ˛azanie tego zadania mo˙zna przedstawi´c za pomoc ˛a drzewa (rysunek 1.1). Na po-cz ˛atku jeste´smy w korzeniu drzewa. Dwaj synowie korzenia odpowiadaj ˛a dwóm wynikom rzutu monet ˛a. Jak wypadnie orzeł, to idziemy w lewo do wierzchołkaO, jak wypadnie
reszka, to idziemy w prawo do wierzchołkaR. Etykiety przy kraw˛edziach oznaczaj ˛a praw-dopodobie´nsta z jakimi te kraw˛edzie s ˛a wybierane. Synowie wierzchołkaO odpowiadaj ˛a wynikom losowania kul pod warunkiem, ˙ze na monecie wypadł orzeł i losujemy z pierw-szej urny. Etykiety przy kraw˛edziach oznaczaj ˛a prawdopodobie´nsta warunkowe z jakimi te kraw˛edzie s ˛a wybierane. Podobnie synowie wierzchołkaR odpowiadaj ˛a wynikom lo-sowania kul pod warunkiem, ˙ze na monecie wypadła reszka i losujemy z drugiej urny.
Ka˙zdy li´s´c w drzewie odpowiada jakiemu´s wynikowi ko´ncowemu (wylosowaniu kon-kretnej kuli). Prawdopodobie´nsto, ˙ze b˛edzie taki wynik jest równe iloczynowi etykiet na drodze prowadz ˛acej od korzenia do tego li´scia. Prawdopodobie´nstwo wylosowania kuli białej (z parzystym numerem) jest równe
1 2· 1 2+ 1 2· 1 3= 5 12.
Przykład 1.34 Wyobra´zmy sobie, ˙ze mamy jedn ˛a urn˛e z trzema kulami o numerach2, 3
i4 oraz ˙ze kule o numerach 2 i 4 s ˛a białe, a kula3 jest czarna. Przypu´s´cmy, ˙ze pierwsza
osoba wylosowała jedn¸a kul¸e i schowała j¸a. Jakie jest prawdopodobie´nstwo, ˙ze druga osoba wylosuje kul¸e biał¸a?
Rysunek 1.2: B 2 3 BB 1 2 BC 1 2 C 1 3 CB 1 CC 0
Rozwi ˛azanie tego zadania jest przedstawione na drzewie z rysunku 1.2. Synowie ko-rzenia odpowiadaj ˛a wynikowi losowania pierwszej osoby. Losuje ona kul˛e biał ˛a, wierz-chołekB, z prawdopodobie´nstwem 2
3, a kul˛e czarn ˛a, wierzchołekC, z
prawdopodobie´n-stwem13. Synowie wierzchołkaB odpowiadaj ˛a losowaniom drugiego gracza pod warun-kiem, ˙ze pierwszy gracz wylosował kułe biał ˛a. W tej sytuacji drugi gracz wylosuje kul˛e biał ˛a, wierzchołekBB, lub czarn ˛a, wierzchołekBC, obie z prawdopodobie´nstwem
wa-runkowym12. EtykietaBB oznacza, ˙ze obaj gracze wylosowali kule białe, a etykieta BC
oznacza, ˙ze pierwszy gracz wylosował kul˛e biał ˛a, a drugi kul˛e czarn ˛a. Synowie wierz-chołkaC odpowiadaj ˛a losowaniom drugiego gracza pod warunkiem, ˙ze pierwszy gracz
wylosował kułe czarn ˛a. Teraz drugi gracz wylosuje kul˛e biał ˛a, wierzchołekCB, z
prawdo-podobie´nstwem warunkowym1, a kul˛e czarn ˛a, wierzchołekCC, z prawdopodobie´nstwem 0. Prawdopodobie´nstwo wylosowania kuli białej przez drug ˛a osob˛e wynosi
2 3· 1 2+ 1 3· 1 = 2 3.
Zauwa˙zmy, ˙ze prawdopodobie´nstwo, ˙ze po drugim losowaniu w urnie zostanie biała kula jest równe 2 3· 1 2+ 1 3· 1 = 2 3.
Jak wida´c prawdopodobie´nstwo wylosowania białej kuli jest takie samo dla pierwszego, drugiego i trzeciego losuj¸acego.
1.6
Schemat dwumianowy (Bernouliego)
W schemacie dwumianowym (Bernouliego) mamy seri˛e n do´swiadcze´n losowych (na
przykład rzutów monet ˛a). W ka˙zdym do´swiadczeniu mo˙zliwe s ˛a dwa wyniki: sukces (wy-padni˛ecie orła) lub pora˙zka (wypadnie´cie reszki). Wyniki do´swiadcze´n s ˛a niezale˙zne i w ka˙zdym mamy takie samo prawdopodobie ´nstwo sukcesu równep.
1.6.1
Rzut symetryczn ˛
a monet ˛
a
Rozpatrzmy trzykrotny rzut symetryczn ˛a monet ˛a. Rysunek 1.3 ilustruje jak w tym
przy-Rysunek 1.3: Trzykrotny rzut symetryczn ˛a monet ˛a
O 1 2 OO 1 2 OOO 1 2 OOR 1 2 OR 1 2 ORO 1 2 ORR 1 2 R 1 2 RO 1 2 ROO 1 2 ROR 1 2 OR 1 2 RRO 1 2 RRR 1 2
1.6. Schemat dwumianowy (Bernouliego) 13
padku rozkłada si˛e prawdopodobie ´nstwo. W korzeniu rzucamy pierwszy raz monet ˛a, je-˙zeli wypadnie orzeł, to idziemy do wierzchołkaO, je˙zeli reszka, to do R. W wierzchołku O rzucamy drugi raz, id ˛ac albo doOO lub do OR. Etykieta OO oznacza, ˙ze w obu rzutach
wypadł orzeł, a etykietaOR oznacza, ˙ze za pierwszym razem wypadł orzeł, a za drugim
reszka. Podobnie w wierzchołkuR. Poniewa˙z drugi rzut jest niezale˙zny od pierwszego,
etykiety na kraw˛edziach wychodz ˛acych zO s ˛a takie same jak na kraw˛edziach wycho-dz ˛acych zR. Kraw˛edzie wychodz ˛ace z wierzchołków z dwoma etykietami odpowiadaj ˛a trzeciemu rzutowi. Tak˙ze tutaj etykiety kraw˛edzi wychodz ˛acych z wierzchołków s ˛a takie same, poniewa˙z trzeci rzut jest niezale˙zny od dwóch pierwszych.
Li´scie odpowiadaj ˛a wynikom trzech rzutów. Wyst˛epuj ˛a tutaj wszystkie 8 ci ˛agów dłu-go´sci 3. Ka˙zdy z nich jest przyjmowane z prawdopodobie ´nstwem18. Otrzymali´smy wi˛ec jednostajny rozkład prawdopodobie ´nstwa na zbiorze
Ω ={OOO, OOR, ORO, ORR, ROO, ROR, RRO, RRR}.
Podobnie, przyn krotnym rzucie monet ˛a, je˙zeli rzuty s ˛a niezale˙zne i w ka˙zdym rzucie prawdopodobie ´nstwa wypadni˛ecia orła i reszki wynosz ˛a 12, 12, otrzymamy jednostajny rozkład na zbiorze wszystkich ci ˛agów długo´scin z elementami O i R.
1.6.2
Kolorowanie wierzchołków grafu
Rysunek 1.4: Trójk ˛at
a
b c
Przypu´s´cmy, ˙ze mamy graf z trzema wierzchołkamia, b i c poł ˛aczonymi w trójk ˛at (rysunek 1.4) i ˙ze wierzchołki kolorujemy po kolei niezale˙znie na biało lub czarno z paw-dopodobie ´nstwami12,12. Tak˙ze to do´swiadczenie mo˙zna zilustrowa´c za pomoc ˛a drzewa z rysunku 1.3. W korzeniu wybieramy kolor dla wierzchołkaa, je˙zeli biały, to idziemy do
wierzchołkaO, je˙zeli czarny, to do R. W wierzchołku O wybieramy kolor dla
wierzchoł-kab, id ˛ac albo doOO lub do OR. Etykieta OO oznacza, ˙ze oba wierzchołki a i b s ˛a białe, a etykietaOR oznacza, ˙ze wierzchołek jest biały, a wierzchołek b czarny. Podobnie w
wierzchołkuR. Kraw˛edzie wychodz ˛ace z wierzchołków z dwoma kolorami odpowiadaj ˛a kolorowaniom wierzchołkac. Tak˙ze tutaj etykiety kraw˛edzi wychodz ˛acych z wierzchoł-ków s ˛a takie same, poniewa˙z wybór koloru dlac jest niezale˙zny od wyboru kolorów dla a i b. Li´scie odpowiadaj ˛a ostatecznym kolorowaniom trzech wierzchołków. Wyst˛epuje tutaj wszystkie 8 kolorowa ´n. Ka˙zdy z nich jest przyjmowane z prawdopodobie ´nstwem 1
8. Otrzymali´smy wi˛ec jednostajny rozkład prawdopodobie ´nstwa na zbiorze wszystkich kolorowa´n.
Podobnie, koloruj ˛ac po kolei niezale˙znien wierzchołków, na biało lub czarno z
praw-dopodobie ´nstwami 12, 12, otrzymamy jednostajny rozkład na zbiorze wszystkich mo˙zli-wych kolorowa ´n.
1.6.3
Trzykrotny rzut niesymetryczn ˛
a monet ˛
a
Rozpatrzmy teraz trzykrotny rzut niesymetryczn ˛a monet ˛a, gdy prawdopobie ´nstwo wy-padni˛ecia orła wynosip, a prawdopobie ´nstwo wypadni˛ecia reszki wynosi q = 1− p.
Nadal zakładamay, ˙ze wyniki poszczególnych rzutów s ˛a od siebie niezale˙zne.
Rysunek 1.5: Trzykrotny rzut niesymetryczn ˛a monet ˛a
O p OO p OOO p OOR q OR q ORO p ORR q R q RO p ROO p ROR q OR q RRO p RRR q
Rysunek 1.5 ilustruje jak rozkłada si˛e prawdopodobie ´nstwo w takim przypadku. Ety-kiety wierzchołków maj ˛a takie same znaczenie jak w przypadku rzutu symetryczn ˛a mo-net ˛a, Zmieniły si˛e tylko etykiety kraw˛edzi. Kraw˛edzie odpowiadaj ˛ace wypadni˛eciu orła maj ˛a etykiet˛ep, a odpowiadaj ˛ace reszce etykiet˛eq.
Otrzymali´smy teraz inny rozkład prawdopodobie ´nstwa na zbiorzeΩ.
ω OOO OOR ORO ORR ROO ROR RRO RRR
P (ω) p3 p2q p2q pq2 p2q pq2 pq2 q3
Zauwa˙zmy, ˙ze prawdopodobie ´nsto, ˙ze za pierwszym (drugim lub trzecim) razem wy-padnie orzeł wynosi
p3+ p2q + p2q + pq2= p(p2+ 2pq + q2) = p,
a prawdopodobie ´nsto, ˙ze za pierwszym (drugim lub trzecim) razem wypadnie reszka wy-nosi
1.7. Zmienna losowa 15
1.6.4
Ogólny schemat — n krotny rzut niesymetryczn ˛
a monet ˛
a
Ogólnie w schemacie dwumianowym mamy seri˛en niezale˙znych do´swiadcze´n. W
ka˙z-dym do´swiadczeniu prawdopodobie ´nstwo sukcesu wynosip, a prawdopodobie ´nstwo
po-ra˙zkiq = 1− p. Bez straty ogólno´sci mo˙zemy nasze rozwa˙zania ograniczy´c do n
krot-nego rzutu niesymetryczn ˛a monet ˛a. Zakładamy, ˙ze rzuty s ˛a niezale˙zne i w ka˙zdym rzucie prawdopodobie ´nstwa wypadni˛ecia orła wynosip, a reszki q. Otrzymamy wtedy rozkład
na zbiorze wszystkich ci ˛agów długo´scin z elementami O i R, w którym
prawdopodo-bie´nstwo ci ˛aguω∈ Ω jest równe
pkqn−k, gdziek oznacza liczb˛e symboli O w ci ˛aguω.
Zauwa˙zmy, ˙ze ci ˛agów zk orłami jest nk, wi˛ec je˙zeli pogrupujemy te
prawdopodo-bie´nstwa według liczby orłów i zsumujemy, to zgodnie ze wzorem na dwumian Newtona, otrzymamy n X k=0 n k pkqn−k= (p + q)n= 1n = 1.
Je˙zeli rozwa˙zymy tylko ci ˛agi zO na pierwszej (lub na dowolnej i tej) pozycji, to znowu
mo˙zemy je pogrupowa´c według liczby symboliO. Dla ka˙zdego k od 0 do n− 1, ci ˛agów
zk + 1 symbolami O jest n−1k (trzeba wybra´c k pozycji spo´sród n − 1, na których b˛ed ˛a
orły). Je˙zeli pogrupujemy te prawdopodobie ´nstwa według liczby orłów i zsumujemy, to otrzymamy prawdopodobie ´nstwo wypadni˛ecia orła za pierwszym (lub dowolnymi tym
razem) równe n−1 X k=0 n − 1 k pk+1qn−1−k= p· n−1 X k=0 n − 1 k pkqn−1−k = p(p + q)n−1= p.
Podobnie, je˙zeli rozwa˙zymy ci ˛agi zR na pierwszej (lub na dowolnej i tej) pozycji, to
znowu mo˙zemy je pogrupowa´c według liczby symboliO. Dla ka˙zdego k od 0 do n− 1
ci ˛agów zk symbolami O jest n−1k , wi˛ec je˙zeli pogrupujemy te prawdopodobie ´nstwa
według liczby orłów to, zgodnie ze wzorem na dwumian Newtona, otrzymamy n−1 X k=0 n − 1 k pkqn−k = q · n−1 X k=0 n − 1 k pkqn−1−k = q(p + q)n−1= q.
1.7
Zmienna losowa
Definicja 1.35 Zmienna losowaX jest to dowolna funkcja z przestrzeni zdarze´n
elemen-tarnychΩ w zbiór liczb rzeczywistych R.
Trzeba tutaj przypomnie´c, ˙ze w tej ksi ˛a˙zce rozwa˙zamy tylko sko ´nczone przestrzenie zda-rze´n elementarnych. W przypadku, gdyΩ jest zbiorem niesko ´nczonym definicja zmiennej
Przykład 1.36 Rozwa˙zmy trzykrotny rzut symetryczn ˛a monet ˛a,
Ω ={OOO, OOR, ORO, ORR, ROO, ROR, RRO, RRR}.
Zmienna losowaX oznacza ile razy wypadł orzeł. Jej warto´sci podane s ˛a w nast˛epuj ˛acej tabeli:
ω OOO OOR ORO ORR ROO ROR RRO RRR
X(ω) 3 2 2 1 2 1 1 0
Maj¸ac zmienn¸a losow¸aX i dowoln ˛a liczb¸e rzeczywist¸ax definiujemy zdarzenie X = x jako
(X = x) ={ω ∈ Ω | X(ω) = x}.
Zauwa˙zmy, ˙ze je˙zeli liczbax nie nale˙zy do zbioru warto´sci X(Ω) zmiennej X, to
zdarze-nie(X = x) jest zdarzeniem niemo˙zliwym.
Przykład 1.37 Dla zmiennej losowejX z przykładu 1.36 mamy: (X = 0) ={RRR},
(X = 1) ={0RR, ROR, RRO}, (X = 2) ={OOR, ORO, OOR}, (X = 3) ={OOO},
Je˙zelix6= 0, 1, 2, 3, to (X = x) = ∅.
1.7.1
G˛esto´
s´
c rozkładu prawdopodobie´
nstwa zmiennej losowej
Definicja 1.38 Funkcj¸e
f (x) = P (X = x)
nazywamy funkcj¸a g¸esto´sci (rozkładu) prawdopodobie´nstwa zmiennej losowejX.
Przykład 1.39 (Kontynuacja przykładu 1.36) Je˙zeli zało˙zymy, ˙ze ka˙zde zdarzenie
elemen-tarne jest równo prawdopodobne, to zmienna losowaX posiada rozkład
x 0 1 2 3
f (x) 1/8 3/8 3/8 1/8
Poniewa˙z, jak zało˙zyli´smyΩ jest zbiorem sko´nczonym, to zbiór warto´sci X(Ω) zmiennej X te˙z jest sko´nczony. Dla x /∈ X(Ω) mamy f(x) = P (X = x) = P (∅) = 0. Tak wi¸ec
funkcja g¸esto´sci przyjmuje warto´sci niezerowe tylko dla sko ´nczenie wielu argumentów. Zauwa˙zmy, ˙ze je˙zelix16= x2, to zdarzenia(X = x1) i (X = x2) wykluczaj¸a si¸e. Lemat 1.40 Je˙zelif jest funkcj¸a g¸esto´sci zmiennej losowej X, to
1.7. Zmienna losowa 17
• P
xf (x) = 1.
Sum¸eP
xf (x) rozumiemy jako sko´nczon¸a sum¸e po zbiorze warto´sci zmiennej X, czyli
P xf (x) = P x∈X(Ω)f (x) Dowód. X x∈X(Ω) f (x) = X x∈X(Ω) P (X = x) = X x∈X(Ω) X X(ω)=x P (ω).
Zauwa˙zmy, ˙ze ostatnia podwójna suma jest sum¸a po wszystkich elementachω ∈ Ω
po-grupowanych według warto´sci zmiennejX. Mamy wi¸ec X x f (x) = X ω∈Ω P (ω) = 1. 2
W dalszej cz¸e´sci przedstawiaj¸ac funkcj¸e g¸esto´sci zmiennej losowejX b¸edziemy
roz-wa˙za´c tylko tex, dla których f (x) > 0.
Maj¸ac funkcj¸e g¸esto´sci rozkładu zmiennejX mo˙zemy okre´sla´c prawdopodobie´nstwa
zdarze´n opisywanych za pomoc¸a zmiennejX.
Przykład 1.41 Dla zmiennej losowejX z przykładu 1.38. mamy
P (X < 2) = P (X = 0 lub X = 1) = P (X = 0) + P (X = 1) = 1 8+ 3 8= 1 2,
pami¸etajmy, ˙ze zdarzeniaX = 0 oraz X = 1 s¸a rozł¸aczne.
1.7.2
Przykłady zmiennych losowych
Przykład 1.42 Przypu´s´cmy, ˙ze mamy urn¸e z czteroma ponumerowanymi kulami{1, 2, 3, 4},
i ˙ze kule o numerach parzystych s¸a białe, a kule o numerach nieparzystych czarne. Losu-jemy dwie kule bez zwracania. Jako przestrze´n zdarze´n elementarnych wybieramy zbiór dwuelementowych podzbiorów zbioru kul
Ω ={{1, 2}, {1, 3}, {1, 4}, {2, 3}, {2, 4}, {3, 4}}
z jednostajnym rozkładem prawdopodobie´nstwa.
Niech zmienna losowaX oznacza liczb˛e białych kul w wylosowanej parze. Jej
warto-´sci podane s ˛a w nast˛epuj ˛acej tabeli:
ω {1, 2} {1, 3} {1, 4} {2, 3} {2, 4} {3, 4}
X(ω) 1 0 1 1 2 1
G˛esto´s´c rozkładu prawdopodobie´nstwa zawiera tabela
x 0 1 2
Przykład 1.43 Rozwa˙zmy zmienn ˛a losow ˛aX oznaczaj ˛ac ˛a liczb˛e ró˙znobarwnych kraw˛e-dzi w kolorowaniu wierzchołków dowolnego grafuG = (V, E) (przykład 1.10).
Przestrze-ni ˛a zdarze´n losowych to zbiórΩ ={1, 2}V wszystkich funkcji ze zbioru wierzchołkówV
w zbiór{1, 2} dwóch kolorów. Dla ka˙zdego kolorowania ω ∈ Ω warto´s´c X(ω) oznacza ile kraw˛edzi ma ko´nce w ró˙znych kolorach w kolorowaniuω.
W szczególnym przypadku, gdy grafG = (V, E) jest trójk ˛atem (rysunek 1.4) z wierz-chołkamiV ={a, b, c} i kraw˛edziami E = {{a, b}, {a, c}, {b, c}}. Mamy 8 jednakowo
prawdopodobnych kolorowa´n (porównaj podrozdział 1.6.2).
Ω ={OOO, OOR, ORO, ORR, ROO, ROR, RRO, RRR}.
Przypominamy, ˙ze na przykład,ROO oznacza, ˙ze wierzchołek a jest pokolorowany na
czarno, a wierzchołkib i c na biało. Łatwo zauwa˙zy´c, ˙ze zmienna X przyjmuje warto´s´c 0
dla dwóch kolorowa´nOOO oraz RRR. Dla wszystkich innych kolorowa´n X przyjmuje
warto´s´c2. Wi˛ec jej rozkład ma posta´c
x 0 2
f (x) 28 68
1.7.3
Rozkład jednopunktowy
Z rozkładem jednopunktowym mamy do czynienia, wtedy gdy całe prawdopodobie ´nstwo jest skupione w jednym punkcie. Mówi ˛ac inaczej zmienna losowaX ma rozkład
jedno-punktowy, je˙zeli dla jekiego´sm
P (X = m) = 1.
Poniewa˙zP
xP (X = x) = 1, to P (X = x) = 0 dla ka˙zdego x6= m.
1.7.4
Rozkład zero-jedynkowy
Zmienna losowaX ma rozkład zero-jedynkowy, je˙zeli prawdopodobie ´nstwo jest
skupio-ne tylko w dwóch punktach 0 i 1. G¸esto´s´c rozkładu prawdopodobie ´nstwa ma wtedy posta´c
x 0 1
f (x) q p
dla pewnych dodatnichp, q spełniaj¸acych warunek p + q = 1.
1.8
Ł ˛
aczny rozkład prawdopodobie´nstwa
Mo˙ze si˛e zda˙zy´c, ˙ze na tej samej przestrzeni zdarze ´n elementarnych mamy okre´slone dwie lub wi˛ecej zmiennych losowych.
1.8. Ł ˛aczny rozkład prawdopodobie ´nstwa 19
Przykład 1.44 Rozwa˙zmy losowanie jednej kuli z urny zawieraj¸acej siedem
ponumero-wanych kul.Ω ={1, 2, 3, 4, 5, 6, 7}. Niech zmienna losowa X2bedzie zdefiniowana jako
X2(ω) = ω mod 2,
a zmienna losowaX3jako
X3(ω) = ω mod 3.
(X2(ω) jest reszt¸a z dzielenia numeru kuli przez 2, a X3(ω) reszt¸a z dzielenia przez 3).
Warto´sci tych dwóch zmiennych zebrane s¸a w tabeli.
ω 1 2 3 4 5 6 7
X2(ω) 1 0 1 0 1 0 1
X3(ω) 1 2 0 1 2 0 1
1.8.1
G˛esto´
s´
c ł ˛
acznego rozkładu
W przypadku dwóch zmiennych losowychX i Y okre´slonych na tej samej przestrzeni
zdarze´n elementarnychΩ mamy tak zwany ł¸aczny rozkład prawdopodobie ´nstwa, którego
g¸esto´s´c jest okre´slona jako
f (x, y) = P (X = x i Y = y).
(X = x i Y = y) jest innym zapisem zdarzenia (X = x)∩ (Y = y).
Przykład 1.45 Dla zmiennychX2iX3z przykładu 1.44 g˛esto´s´c ł¸acznego rozkładu
praw-dopodobie´nstwa przedstawiona jest w tabeli:
X3
0 1 2
X2 0 1/7 1/7 1/7
1 1/7 2/7 1/7
Mo˙zemy teraz oblicza´c prawdopodobie´nstwa zdarze´n opisywanych przez te zmienne. Na przykład P (X2= X3) = P (X2= 0 i X3= 0 lub X2= 1 i X3= 1) = P (X2= 0 i X3= 0) + P (X2= 1 i X3= 1) = 1/7 + 2/7 = 3/7 lub P (X2< X3) = P (X2= 0 i X3= 1 lub X2= 0 i X3= 2 lub X2= 1 i X3= 2) = = 1/7 + 1/7 + 1/7 = 3/7
Łatwo mo˙zna zauwa˙zy´c, ˙ze sumuj¸ac wiersze tabeli ł ˛acznego rozkładu mo˙zna otrzyma´c g¸esto´s´c rozkładu zmiennejX2, a sumuj¸ac kolumny g¸esto´s´c rozkładuX3.
X3
0 1 2
X2 0 1/7 1/7 1/7 3/7
1 1/7 2/7 1/7 4/7
2/7 3/7 2/7
Przykład 1.46 Rozwa˙zmy dwie zmienne losoweX1iX2okre´slone na przestrzeni
Ω ={OO, OR, RO, RR}
opisuj ˛acej wyniki dwukrotnego rzutu monet ˛a.
Zmienna X1 przyjmuje warto´s´c 1, je˙zeli za pierwszym razem wypadnie orzeł, oraz
warto´s´c 0, je˙zeli za pierwszym razem wypadnie reszka. Podobnie zmienna X2 opisuje
wynik drugiego rzutu. Warto´sci tych dwóch zmiennych zebrane s¸a w tabeli.
ω OO OR RO RR
X1(ω) 1 1 0 0
X2(ω) 1 0 1 0
Ł ˛aczny rozkład prawdopodobie´nstwa przedstawiony jest w tabeli:
X2
0 1
X1 0 1/4 1/4
1 1/4 1/4
1.9
Niezale˙zno´s´c zmiennych losowych
Definicja 1.47 Zmienny losowe X i Y s¸a niezale˙zne je˙zeli dla ka˙zdej pary liczb x, y
mamy
P (X = x i Y = y) = P (X = x)· P (Y = y)
lub inaczej, gdy
fXY(x, y) = fX(x)· fY(y),
gdziefXY oznacza g¸esto´s´c rozkładu ł¸acznego, fX g¸esto´s´c zmiennejX, a fY g¸esto´s´c
zmiennejY .
Przykład 1.48 Zmienne losoweX1iX2z przykładu 1.46 s ˛a niezale˙zne, a zmienne
loso-weX2iX3z przykładu 1.45 nie s¸a niezale˙zne.
Oczywi´scie mo˙ze by´c wi¸ecej zmiennych losowych okre´slonych na jednej przestrzeni Dla trzech zmiennych losowychX, Y , Z g˛esto´s´c ł¸acznego rozkładu prawdopodobie
´n-stwa, zdefiniowana jest jako
f (x, y, z) = P (X = x i Y = y i Z = z).
W ogólnym przypadkun zmiennych losowych X1, . . . , Xng˛esto´sc ich ł¸acznego rozkładu okre´slona jest jako
1.9. Niezale˙zno´s´c zmiennych losowych 21
Definicja 1.49 Zmienne losoweX, Y , Z s¸a niezale˙zne je˙zeli dla ka˙zdej trójki liczb x, y i z mamy
f (x, y, z) = P (X = x)· P (Y = y) · P (Z = z).
Podobnie mamy w przypadkun zmiennych losowych
Definicja 1.50 Zmienne losoweX1, . . . , Xn s¸a niezale˙zne je˙zeli dla ka˙zdejn-tki liczb
x1, . . . , xn zachodzi P n \ i=1 (Xi= xi) = n Y i=1 P (Xi= xi), czyli f (x1, . . . , xn) = n Y i=1 fi(xi),
gdzief oznacza g˛esto´s´c rozkładu ł ˛acznego, afig˛esto´s´c rozkładu zmiennejXi.
Przykład 1.51 Rozwa˙zmyn krotny rzut symetryczn ˛a monet ˛a. Przestrze´n zdarze´n elemen-tarnych zawiera ci ˛agi długo´scin o elementach ze zbioru{O, R} i ka˙zdy ci ˛ag jest równie prawdopodobny. Dla ka˙zdegoi od 1 do n okre´slmy zmienn ˛a losow ˛aXi:
Xi(ω) =
1, je˙zeli za i-tym razem wypadł orzeł 0, je˙zeli za i-tym razem wypadła reszka
ZmienneX1, . . . , Xns¸a niezale˙zne. Prze´sled´zmy to dlan = 3 (patrz podrozdział 1.6.1).
Dla ka˙zdej trójki liczbx1,x2,x3zdarzenie
(X1= x1 i X2= x2 i X3= x3)
zawiera tylko jeden ci ˛ag. Na przykład zdarzenie
(X1= 1 i X2= 0 i X3= 0) ={ORR}.
Czyli dla ka˙zdej trójkix1,x2,x3prawdopodobie´nstwo
P (X1= x1 i X2= x2 i X3= x3) =
1 8.
Z drugiej strony, dla ka˙zdegoi∈ {1, 2, 3} mamy P (Xi= xi) = 12, czyli
P (X1= x1 i X2= x2 i X3= x3) = P (X1= x1)· P (X2= x2)· P (X3= x3).
ZmienneX1, . . . , Xns¸a niezale˙zne tak˙ze w przypadku rzutu niesymetryczn ˛a monet ˛a.
Znowu poka˙zemy to dlan = 3. W ogólnym przypadku dowód jest podobny. Tak jak dla
rzutu symetryczn ˛a monet ˛a dla ka˙zdej trójki liczbx1,x2,x3zdarzenie
(X1= x1 i X2= x2 i X3= x3)
zawiera tylko jeden ci ˛ag. Jego prawdopodobie´nstwo
gdziek oznacza liczb˛e jedynek w ci ˛agu(x1, x2, x3).
Z drugiej strony zdarzenie(Xi = 1) zawiera wszystkie ci ˛agi, które nai-tej pozycji
maj ˛aO. W podrozdziale 1.6.3 pokazano, ˙ze prawdopodobie´nstwo takiego zdarzenia
wy-nosip. Podobnie (Xi = 0) zawiera wszystkie ci ˛agi, które nai-tej pozycji maj ˛aR, a jego
prawdopodobie´nstwo wynosiq. Tak wi˛ec
P (X1= x1 i X2= x2 i X3= x3) = P (X1= x1)· P (X2= x2)· P (X3= x3).
1.9.1
Własno´
s´
c niezale˙znych zmiennych losowych
Poka˙zemy teraz, ˙ze je˙zeli zmienne losoweX i Y s¸a niezale˙zne, to niezale˙zne s¸a te˙z
zmien-neX− a i Y − b. Dokładniej
Lemat 1.52 Niech X i Y b¸ed¸a niezale˙znymi zmiennymi losowymi, a a i b dowolnymi
liczbami rzeczywistymi. Wtedy zmienneX− a i Y − b s ˛a niezale˙zne.
Dowód: NiechX1 = X− a oraz Y1 = Y − b. Zaywa˙zmy, ˙ze X1(ω) = x1 wtedy i tylko wtedy, gdyX(ω) = a + x1, czyli zdarzenieX1= x1pokrywa si˛e ze zdarzeniem
X = a + x1. Podobnie zdarzenieY1= y1pokrywa si˛e ze zdarzeniemY = a + y1. Mamy wi˛ec
P (X1= x1 i Y1= y1) = P (X = a + x1 i Y = b + y1) =
P (X = a + x1)· P (Y = b + y1) = P (X1= x1)· P (Y1= y1).
´Srodkowa równo´s´c wynika z niezale˙zno´sci zmiennych X i Y . 2 Powy˙zszy lemat mo˙zna uogólni´c
Lemat 1.53 Je˙zeli zmienne losoweX i Y s¸a niezale˙zne, to dla dowolnych funkcji g i h,
zmienneg◦ X i h ◦ Y te˙z s¸a niezale˙zne.
Dowód tego lematu pozostawiamy czytelnikowi.
1.10
Rozkład dwumianowy — Bernoulliego
Przypomnijmy sobie schemat dwumianowy z seri ˛an do´swiadcze´n (rzutów monet ˛a) i z prawdopodobie ´nstwem sukcesu (wypadni˛ecia orła) w pojedy ´nczym do´swiadczeniu rów-nymp (podrozdział 1.6.4) Przestrze ´n zdarze´n elementarnych jest zbiorem wszystkich ci ˛ a-gów długo´scin z elementami O i R, w którym prawdopodobie ´nstwo ci ˛aguω ∈ Ω jest
równe
pkqn−k, gdziek oznacza liczb˛e symboli O w ci ˛aguω.
Niech zmienna losowa X oznacza liczb˛e sukcesów (orłow) w serii. Mówimy, ˙ze
zmienna losowaX posiada rozkład dwumianowy (Bernouliego) z parametrami:
długo-´sci ˛a seriin i prawdopodobie´nstwem sukcesu p. Zmienna losowa X przyjmuje warto´sci k
od0 do n. Prawdopodobie´nstwo, ˙ze zmienna X posiada warto´s´c k wynosi P (x = k) =n
k
1.11. Warto´s´c oczekiwana, ´srednia 23
Przykładem zminnej losowej z rozkładem dwumianowym jest zmienna opisana w przykładzie 1.36, która okre´sla liczb˛e orłów w serii 3 rzutów.
Dlan = 4 rozkład zmiennej X wygl ˛ada nast˛epuj ˛aco:
x 0 1 2 3 4
f (x) q4 4pq3 6p2q2 4p3q p4 Zauwa˙zmy, ˙ze zmienna losowaX jest sum ˛a zmiennych
X(ω) =
n
X
i=1
Xi(ω),
gdzie, dla ka˙zdegoi zmienna Xioznacza wyniki tego rzutu i jest równa
Xi(ω) =
1, je˙zeli za i-tym razem wypadł orzeł 0, je˙zeli za i-tym razem wypadła reszka
Rzeczywi´scie, dla ka˙zdego ci ˛aguω sumaPn
i=1Xi(ω) jest równa liczbie indeksów i ∈
{1, . . . , n}, dla których Xi(ω) = 1, czyli liczbie pozycji, na których w ci ˛aguω stoi orzeł.
1.11
Warto´s´c oczekiwana, ´srednia
Definicja 1.54 Warto´s´c oczekiwana (´srednia) zniennej losowejX to liczba
E(X) =X
ω∈Ω
X(ω)· P (ω).
Przykład 1.55 Dla zmiennej losowejX z przykładu 1.36 warto´s´c oczekiwana wynosi E(X) = 1
8(3 + 2 + 2 + 1 + 2 + 1 + 1 + 0) = 12
8 = 1.5
Je˙zeli zmienna posiada jednostajny rozkład prawdopodobie ´nstwa, to jej warto´s´c ocze-kiwana jest zwykł¸a ´sredni¸a arytmetyczn¸a jej warto´sci.
E(X) = X ω∈Ω X(ω)· 1 |Ω| = 1 |Ω| · X ω∈Ω X(ω).
W ogólnym przypadku warto´s´c oczekiwana jest nazywana ´sredni¸a wa˙zon¸a.
Je˙zeli mamy rozkład zmiennej losowej, to warto´s´c oczekiwan ˛a obliczamy według wzoru.
Lemat 1.56
E(X) = X
x∈X(Ω)
Dowód: Je˙zeli pogrupujemy wyrazy sumyP
ω∈ΩX(ω)·P (ω) według warto´sci zmiennej
X, to otrzymamy E(X) =X ω∈Ω X(ω)· P (ω) = X x∈X(Ω) x X X(ω)=x P (ω) = X x∈X(Ω) x· P (X = x).
Przykład 1.57 Przypu´s´cmy, ˙ze mamy informacj¸e, ˙ze w jakiej´s grupie studenckiej połowa
studentów otrzymała ocen¸e 5 z matematyki dyskretnej, jedna trzecia otrzymała ocen¸e 4, a jedna szósta ocen¸e 3. Jaka jest ´srednia ocena w tej grupie? Przyjmujemy, ˙ze grupa jest przestrzeni¸a losow¸a, a zmienna losowaX jest ocen¸a studenta. Wtedy warto´s´c oczekiwana
zmiennejX wynosi
E(X) = 5·12+ 4·13+ 3· 16= 26 6 = 4
1 3.
jest ´sredni¸a ocen¸a w tej grupie.
1.11.1
Własno´
sci warto´
sci oczekiwanej
W poni˙zszym twierdzeniu zebrano podstawowe własno´sci warto´sci oczekiwanej. Twierdzenie 1.58 a) E(X + Y ) = E(X) + E(Y ).
b) Je˙zelia jest liczb¸a rzeczywist¸a, to E(a· X) = a · E(X).
c) Je˙zeli zmienneX i Y s¸a niezale˙zne, to E(X· Y ) = E(X) · E(Y ).
d) Je˙zeliX ≥ 0, to E(X) ≥ 0. Dowód: a) E(X + Y ) = X ω∈Ω (X + Y )(ω)· P (ω) = X ω∈Ω (X(ω) + Y (ω))· P (ω) = X ω∈Ω X(ω)· P (ω) +X ω∈Ω Y (ω)· P (ω) = E(X) + E(Y ). b) E(a·X) =X ω∈Ω (a·X)(ω)·P (ω) = X ω∈Ω a·X(ω)·P (ω) = a·X ω∈Ω X(ω)·P (ω) = a·E(X). c) E(X· Y ) =X ω∈Ω XY (ω)P (ω).
Pogrupujmy składniki sumy według warto´sci zmiennychX i Y . E(X· Y ) =X x X y x· y · X X(ω)=x Y(ω)=y P (ω) =
1.11. Warto´s´c oczekiwana, ´srednia 25 X x X y x· y · P (X = x i Y = y) =X x X y x· y · P (X = x) · P (Y = y) = X x x· P (X = x) · X y
y· P (Y = y) = E(X) · E(Y ).
d)Je˙zeli dla ka˙zdegoω, X(ω)≥ 0, toP
ω∈ΩX(ω)· P (ω) ≥ 0. 2
Punkt a) powy˙zszego twierdzenia mo˙zna uogólni´c (za pomoc ˛a indukcji) na sumen
zmiennych.
Twierdzenie 1.59 Warto´s´c oczekiwana sumyk zmiennych X1, . . . , Xkjest równa
E( k X i=1 Xi) = k X i=1 E(Xi).
1.11.2
Warto´
s´
c oczekiwana rozkładu jednopunktowego
Warto´s´c oczekiwana zmiennejX z rozkładem jednopunktowym wynosi E(X) = m.
Z definicji warto´sci oczekiwanej wynika nast˛epuj ˛acy fakt:
Lemat 1.60 Je˙zeli jaka´s zmiennaX przyjmuje warto´sci nieujemne i E(X) = 0, to ma
ona rozkład jednopunktowy.
Zało˙zenie, ˙ze zmiennaX przyjmuje tylko warto´sci nieujemne jest istotne we
wnio-sku 1.60. Pokazuje to nast¸epuj¸acy przykład.
Przykład 1.61 Zmienna losowaZ z funkcj¸a g¸esto´sci:
zi -1 1
f (zi) 12 12
ma warto´s´c oczekiwan¸aE(Z) = 0.
1.11.3
Warto´
s´
c oczekiwana rozkładu zero-jedynkowego
Warto´s´c oczekiwana zmiennejX z rozkładem zero-jedynkowym wynosi E(X) = 0q + 1p = p
1.11.4
Warto´
s´
c oczekiwana rozkładu dwumianowego
Twierdzenie 1.62 Warto´s´c oczekiwana zmiennej losowejX maj¸acej rozkład
dwumiano-wy z długo´sci ˛a seriin i prawdopodobie´nstwem sukcesu p wynosi E(X) = np.
Dowód: Jak zauwa˙zyli´smy w podrozdziale 1.10 zmiennaX jest sum ˛a n zmienych o
rozkładzie zero-jedynkowymX =Pn
i=1Xi. Warto´s´c oczekiwana, ka˙zdej ze zmiennych
1.11.5
Warto´
s´
c oczekiwana liczby ró˙znokolorowych kraw˛edzi
Policzymy teraz warto´s´c oczekiwan ˛a zmiennejX okre´slaj ˛acej liczb˛e ró˙znokolorowych kraw˛edzi w grafieG = (V, E) z n =|V | wierzchołkami (przykład 1.43). W tym celu dla
ka˙zdej kraw¸edzie ={u, v} ∈ EGokre´slmy zmienn¸a losow¸aXew nast¸epuj¸acy sposób:
Xe(ω) =
1, je˙zeli w kolorowaniu ω oba ko´nce kraw¸edzi e
maj¸a ró˙zne kolory,
0, w przeciwnym przypadku.
W przykładzie 1.22 pokazano, ˙ze prawdopodobie ´nstwo tego, ˙ze dowolna kraw˛ed´z ma ko´nce w ró˙znych kolorach wynosi 12, czyliE(Xe) = 12.
Zauwa˙zmy teraz, ˙ze
X = X
e∈EG
Xe. Rzeczywi´scie dla dowolnego kolorowaniaω suma X =P
e∈EGXe(ω) jest równa liczbie kraw˛edzi; dla którychXe(ω) = 1, czyli liczbie kraw˛edzi z róznymi kolorami na ko ´ncach. Tak wi˛ec mamy
E(X) = X
e∈EG
E(Xe) =m
2.
E(X), czyli ´srednia liczba ró˙znokolorowych kraw¸edzi w kolorowaniu mo˙ze by´c
obliczo-na bez u˙zywania terminologii rachunku prawdopodobie ´nstwa. Policzmy ile we wszyst-kich kolorowaniach jest ró˙znokolorowych kraw¸edzi. Z jednej strony jest to
X
ω∈Ω
(liczba ró˙znokolorowych kraw¸edzi w kolorowaniu ω).
Z drugiej strony
X
e∈EG
(liczba kolorowa´n, w których kraw¸ed´z e jest ró˙znokolorowa) = X
e∈EG
2n−1= m·2n−1.
Przedostatnia równo´s´c wynika z tego, ˙ze liczba kolorowa ´n, w któryche jest
ró˙znoko-lorowa wynosi2n−1(połowa wszystkich). ´Srednia liczba ró˙znokolorowych kraw¸edzi w kolorowaniu wynosi wi¸ec
m· 2n−1
2n =
m 2.
1.11.6
Własno´
sci warto´
sci oczekiwanej c.d.
Cz˛esto wykorzystywana własno´s´c warto´sci oczekiwanej mówi, ˙ze zawsze istnieje przy-najmniej jedna warto´s´c mniejsza od lub równa warto´sci ´sredniej oraz warto´s´c wi¸eksza od lub równa ´sredniej.
Lemat 1.63 Dla ka˙zdej zmiennej losowejX istnieje zdarzenie elementarne ω∈ Ω takie,
˙zeP (ω) > 0 oraz X(ω)≥ E(X).
1.12. Nierówno´s´c Markowa 27
Dowód: Udowodnimy tylko pierwsz¸a cz¸e´s´c twierdzenia, drug¸a mo˙zna udowodni´c w po-dobny sposób. Przypu´s´cmy, ˙ze dla ka˙zdegoω ∈ Ω z dodatnim prawdopodobie´nstwem
mamyX(ω) < E(X). Ale to prowadzi do sprzeczno´sci
E(X) =X ω∈Ω X(ω)· P (ω) < X ω∈Ω E(X)· P (ω) = E(X)X ω∈Ω P (ω) = E(X). 2
Przykład 1.64 Wierzchołki dowolnego grafu mo˙zna pokolorowa´c dwoma kolarami
(bia-łym i czarnym) w taki sposób, ˙ze przynajmniej połowa kraw¸edzi ma swoje ko´nce w ró˙z-nych kolorach. NiechX oznacza liczb˛e ró˙znokolorowych kraw˛edzi w grafie. W
podroz-dziale 1.11.5 pokazano, ˙ze warto´s´c oczekiwana zmiennejX wynosi m
2, czyli musi istnie´c
kolorowanie z co najmniej połow ˛a ró˙znokolorowych kraw˛edzi.
1.12
Nierówno´s´c Markowa
Twierdzenie 1.65 (Nierówno´s´c Markowa) Je˙zeli zmienna losowaX przyjmuje waret´sci
nieujemne, to dla dowolnej liczby rzeczywistejd > 0 P (X≥ d) ≤ E(X) d . Dowód: E(X) =X x x· P (X = x) =X x≥d x· P (X = x) +X x<d x· P (X = x) ≥ X x≥d x· P (X = x) ≥X x≥d d· P (X = x) = dX x≥d P (X = x) = d· P (X ≥ d),
czyliE(X)≥ d · P (X ≥ d). Po podzieleniu tej nierówno´sci stronami przez d
otrzymu-jemy tez˛e twierdzenia. 2
Zauwa˙zmy, ˙ze nierówno´s´c Markowa jest u˙zyteczna tylko kiedyd > E(X). Je˙zeli
bowiemd≤ E(X), to mamy trywialne oszacowanie P (X ≥ d) ≤ 1 ≤ E(X)d .
Przykład 1.66 Nierówno´s´c Markowa wyra˙za do´s´c prosty fakt. Przypu´s´cmy, ˙zeX okre´sla
liczb¸e pieni¸edzy posiadan¸a przez studenta. Je˙zeli warto´s´c ´srednia zmiennejX wynosi 100
złotych, to tylko połowa studentów mo˙ze mie´c 200 lub wi¸ecej złotych. Przypu´s´cmy bowiem ˙ze0.5 + cz¸e´s´c studentów posiada 200 (lub wi¸ecej) złotych. Wtedy udział tej bogatej
cz¸e´sci studentów w ´sredniej wynosi co najmniej200· (0.5 + ) = 100 + 200 · > 100, i
warto´s´c ´srednia nie mo˙ze wynosi´c 100 złotych, je˙zeli zmiennaX nie przyjmuje warto´sci
Przykład 1.67 Niech zmienna losowaX posiada rozkład dwumianowy z długo´sci ˛a serii
n = 1000 oraz prawdopodobie´nstwem sukcesu p = 12. Spróbujmy oszacowa´c prawdo-podobie´nstwoP (X ≥ 600). Warto´s´c oczekiwana E(X) = np = 500. Z nierówno´sci
Markowa otrzymamy oszacowanie
P (X ≥ 600) ≤500600 =5 6.
Oszacowanie to jest bardzo grube. Zauwa˙zmy, ˙zeP (X ≥ 500) = 1
2, poniewa˙z rozkład
jest symetrycznyP (X = k) = P (X = 1000− k) dla ka˙zdego k.
1.13
Wariancja
Definicja 1.68 Wariancj¸a zmiennej losowejX o warto´sci oczekiwanej E(X) = mX
nazywamy liczb¸e
V ar(X) = E((X− mX)2)
WariancjaV ar(X) jest miar¸a tego jak bardzo warto´sci zmiennej X s¸a oddalone od
´sred-niej. Im wi¸eksze rozrzucenie warto´sci tym wi¸eksza wariancja. W poni˙zszym twierdzeniu zebrano podstawowe własno´sci wariancji
Twierdzenie 1.69 a) V ar(X)≥ 0.
b) V ar(X) = E(X2)− m2 X
c) V ar(aX) = a2V ar(X).
d) Je˙zeli zmienneX i Y s¸a niezale˙zne, to V ar(X + Y ) = V ar(X) + V ar(Y ).
e) Je˙zeli zmienneX1, . . . , Xks¸a parami niezale˙zne, to
V ar k X i=1 Xi = k X i=1 V ar(Xi) Dowód:
a)wynika z faktu, ˙ze zmienna(X− mX)2przyjmuje tylko nieujemne warto´sci,
b)V ar(X) = E((X− mX)2) = E(X2− 2mX· X + m2X) = E(X2)− 2mXE(X) +
m2
X= E(X2)− 2m2X+ m2X= E(X2)− m2X
c)V ar(aX) = E(aX− E(aX))2= E(a2(X
− EX)2) = a2V ar(X).
d)Pami˛etajmy, ˙zeE(X + Y ) = mX+ mY. Mamy
(X+Y−E(X+Y ))2= (X−mX+Y−mY)2= (X−mX)2+(y−mY)2+2(X−mX)(Y−mY) czyli
1.13. Wariancja 29
Przedstatnia równo´s´c wynika z faktu, ˙ze na podstawie lematu 1.52 zmienneX−mXoraz
Y − mY s ˛a niezale˙zne, a ostatnia równo´s´c z faktu, ˙zeE(X− mX) = mX− mX= 0.
e)Podobnie jak w przypadku d) korzystaj ˛ac z faktu, ˙ze k X i=1 Xi− k X i=1 mXi 2 = k X i=1 (Xi− mXi) 2+ 2 k X i=1 k X j=i+1 (Xi− mXi)(Xj− mXj)
oraz z faktu, ˙ze zmienneX1− mX1, .... ,Xk− mXks ˛a parami niezale˙zne. 2
1.13.1
Wariancja rozkładu jednopunktowego
Wariancja zmiennej losowejX z rozkładem jednopunktowym wynosi V ar(X) = E(X2)− (E(X))2= m2− m2= 0.
Ale i na odwrót
Lemat 1.70 Je˙zeliV ar(X) = 0, to zmienna losowa X posiada rozkład jednopunktowy.
Dowód: Poniewa˙zV ar(X) = E((X− mX)2) = 0, to z lematu 1.60 wynika, ˙ze 1 =
P (X− mX = 0) = P (X = mX). 2
1.13.2
Wariancja rozkładu zero-jedynkowego
Je˙zeliX ma rozkład zero-jedynkowy to jego wariancvja wynosi
V ar(X) = E(X2)− (E(X))2= p− p2= p(1− p) = pq.
1.13.3
Wariancja rozkładu dwumianowego
Je˙zeli zmienna losowaX ma rozkład dwumianowy, to jest sum ˛aX = Pn
i=1Xi nieza-le˙znych zmiennychXi o rozkładach zero-jedynkowych. Wariancja ka˙zdej zmiennejXi wynosiV ar(Xi) = pq. Wariancja ich sumy wynosi npq, mamy wi¸ec.
Twierdzenie 1.71 Wariancja zmiennej losowejX z rozkładem dwumianowym z
długo-´sci ˛a seriin i prawdopodobie´nstwem sukcesu p wynosi V ar(X) = npq.
1.13.4
Wariancja liczby ró˙znokolorowych kraw˛edzi
Obliczmy variancj˛e zmiennej losowejX oznaczaj ˛acej liczb˛e kraw˛edzi dwukolorowych w kolorawaniu grafuG (patrz podrozdział 1.11.5). Najpierw zauwa˙zmy, ˙ze zmienne losowe Xes ˛a parami niezale˙zne. Dokładniej, je˙zelie1ie2s ˛a dwoma ró˙znymi kraw˛edziami grafu
G, to zmienne Xe1iXe2 s ˛a niezale˙zne. Nieche1 ={u1, v1} i e2={u2, v2}. Poniewa˙z kraw˛edzie s ˛a ró˙zne, to mog ˛a mie´c tylko jeden wspólny koniec. Załó˙zmy, ˙ze wierzchołek
v2 ∈ e/ 1. W przykładzie 1.6.2 pokazali´smy, ˙ze jednostajny rozkład pokolorowa ´n otrzy-mamy koloruj ˛ac po kolei wierzchołki niezale˙znie i ze stałym prawdopodobie ´nstwem: 12 dla koloru białego i12 dla czarnego. Mo˙zemy oczywi´scie zało˙zy´c, ˙ze wierzchołekv2jest kolorawny ostatni. Łatwo teraz zauwa˙zy´c, ˙ze przy jednym wyborze koloru dlav2mamy
Xe1 = Xe2, a przy drugimXe1 6= Xe2. Ł ˛aczny rozkład przwdopodobie ´nstwa zmiennych
Xe1iXe2wygl ˛ada wi˛ec nast˛epuj ˛aco:
Xe2
0 1
Xe1 0 1/4 1/4
1 1/4 1/4
czyli zmienne te s ˛a niezałe˙zne.
Dla ka˙zdej kraw˛edzie mamy V ar(Xe) = 14 i na podstawie twierdzenia 1.69e mamy
V ar(X) = m 4.
Zauwa˙zmy, ˙ze cały komplet zmiennychXedla wszystkich kraw˛edzi grafu nie musi by´c niezale˙zny. Na przykład, je˙zeli trzy kraw˛edziee1,e2ie3tworz ˛a trójk ˛at, to zmienne
Xe1,Xe2, Xe3 nie s ˛a niezale˙zne. Rzeczywi´scie, je˙zeli Xe1(ω) = Xe2(ω) = 0, to w kolorowaniuω ko´nce obu kraw˛edzi e1ie2maja taki sam kolor, ale wtedy, tak˙ze ko ´nce kraw˛edzie3s ˛a w tym samym kolorze iXe3(ω) = 0.
1.14
Nierówno´s´c Czebyszewa
Twierdzenie 1.72 (Nierówno´s´c Czebyszewa) Dla zmiennej losowejX z warto´sci¸a oczekiwan¸a E(X) = mXoraz liczby rzeczywistej > 0 mamy
P (|X − mX| ≥ ) ≤
V ar(X) 2 . Dowód: Rozwa˙zmy zmienn¸a losow¸aY = X− mX. Poniewa˙z
|Y (ω)| ≥ ⇔ Y2(ω)
≥ 2, to
P (|Y | ≥ ) = P (Y2≥ 2).
Stosuj¸ac nierówno´s´c Markowa dla zmiennejY2mamy
P (|Y | ≥ ) = P (Y2≥ 2)≤E(Y
2)
2 ale
E(Y2) = E((X− mX)2) = V ar(X)
1.15. Kra ´nce rozkładu dwumianowego 31
Przykład 1.73 (Kontynuacja przykładu 1.67). Dla zmienneja losowej X z rozkładem
dwumianowy z parametramin = 1000 oraz p = 12 spróbujmy oszacowa´c prawdo-podobie´nstwoP (X ≥ 600). Warto´s´c oczekiwana E(X) = np = 500, a wariancja V ar(X) = npq = 250. Z symetrii rozkładu wynika, ˙ze
P (X≥ 600) = 1
2P (|x − 500| ≥ 100)
i z nierówno´sci Czebyszewa otrzymamy
P (X ≥ 600) ≤1 2· 250 10000= 1 80 = 0.0125.
1.15
Kra ´nce rozkładu dwumianowego
Dla zmiennej losowejX z rozkładem dwumianowym istniej ˛a oszacowania, które w nie-których przypadkach s ˛a lepsze od nierówno´sci Czebyszewa.
Twierdzenie 1.74 (Nierówno´sci Chernoff’a) Niech zmienna losowaX posiada rozkład
dwumianowy z długo´sci ˛a seriin i prawdopodobie´nstwem sukcesu p. Oznaczmy warto´s´c
oczekiwan¸a tego rozkładu przezm = np. Wtedy dla dowolnej liczby rzeczywistej , 0≤ ≤ 1, mamy
P (X ≥ (1 + )m) ≤ e−2m/3
oraz
P (X ≤ (1 − )m) ≤ e−2m/2
Przykład 1.75 Je˙zeli zastosujemy pierwsz ˛a nierówno´s´c Chernoffa do przykładu 1.73, to otrzymamy oszacowanie
P (X≥ 600) = P (X ≥ (1 +15)500)≤ e−20/3
≤ 7861
Je˙zeli skorzystamy z symetrii rozkładu i z drugiej nierówno´s´c Chernoffa, to otrzymamy du˙zo lepsze oszacowanie
P (X ≥ 600) = P (X ≤ 400) ≤ P (X ≤ (1 −15)500)≤ e−10
≤ 220271
1.16
Problem dnia urodzin
Przypu´s´cmy, ˙ze na przyj˛eciu jestk osób. Wtedy prawdopodobie ´nstwo, ˙ze nowo przybyła
osoba ma urodziny tego samego dnia, co jaka´s z osób ju˙z obecnych jest nie wi˛eksze ni˙z k
365. Tak wi˛ec,k musi by´c wi˛eksze ni˙z 365
2 , aby prawdopodobie ´nstwo to przekroczyło 1 2. Zastanówmy si¸e teraz ile osób musi znajdowa´c si¸e w pokoju, aby była du˙za szansa (wi˛eksza od12), ˙ze dwie osoby maj¸a urodziny tego samego dnia.
Dla prostoty przyjmujemy, ˙ze problem dnia urodzin jest równowa˙znu problemowi wylosowania ci¸aguk liczb u1, . . . , uk, ka˙zda spo´sród n = 365 mo˙zliwo´sci, tak aby wyst¸apiło w nim jakie´s powtórzenie.
Oznaczmy przezBkzdarzenie przeciwne, ˙ze wszystkie wylosowane liczby s¸a ró˙zne. Je˙zeli zało˙zymy, ˙ze wszystkie ci¸agi s¸a równo prawdopodobne, to prawdopodobie ´nstwo, ˙ze otrzymamy ci¸ag ró˙znowarto´sciowy wynosi
P (Bk) = n(n− 1) · · · (n − k + 1) nk = 1· ( n− 1 n )· ( n− 2 n )· · · ( n− k + 1 n ) = = 1· (1 − 1 n)· (1 − 2 n)· · · (1 − k− 1 n ).
Skorzystamy teraz z nierówno´sci1 + x≤ ex
P (Bk)≤ e−1e−2· · · e−(k−1)= e− Pk−1
i=1i=
= e−k(k−1)/2n≤ e−(k−1)(k−1)/2n= e−(k−1)2/2n. Prawdopodobie ´nstwo to jest mniejsze od 12 wtedy gdy(k− 1)2
≥ 2n ln 2, a to zachodzi
wtedy gdyk≥ 1 +√2 ln 2√n. Dla n = 365, zachodzi to dla k≥ 24.
Tak wi¸ec je´sli w pokoju znajduj¸a si¸e co najmniej 24 osoby, to z prawdopodobie ´nstwem wi¸ekszym od 12dwie spo´sród nich maj¸a urodziny w tym samym dniu.
1.17
Algorytmy probabilistyczne
Algorytmy probabilistyczne to algorytmy, które w trakcie obliczenia dokonuj ˛a losowych wyborów. Prze´sledzimy teraz kilka prostych przykładów.
1.17.1
Algorytm z jednostronnym bł˛edem
Wyobra˙zmy sobie, ˙ze mamy urny z kulami. Urny s ˛a dwojakiego rodzaju. Urny pierwszego rodzaju zawieraj ˛a wył ˛acznie kule białe. W urnach drugiego rodzaju s ˛a kule białe i czarne po połowie. Celem algorytmu jest rozpoznanie jakiego rodzaju jest dana urna. Zakładamy przy tym, ˙ze nie mo˙zemy obejrze´c wszystkich kul z urny.
Nasz pierwszy algorytm polega na wylosowaniu jednej kuli z danej urny. Je˙zeli wy-losowana kula jest biała, to orzekamy, ˙ze urna jest pierwszego rodzaju, a je˙zeli kula jest czarna, to orzekamy, ˙ze urna jest drugiego rodzaju.
Je˙zeli urna naprawd˛e jest pierwszego rodzaju, to nasz algorytm na pewno, z prawdo-podobie´nstwem równym 1 da poprawn ˛a odpowied´z. Je˙zeli natomiast urna jest drugiego rodzaju, to poprawn ˛a odpowied´z uzyskamy z prawdopodobie ´nstwem równym12.
Prawdopodobie ´nswto bł˛edu mo˙zna zmniejszy´c powtarzaj ˛ac losowanie kilka razy. Drugi algorytm składa si˛e zt rund. W ka˙zdej rundzie losujemy jedn ˛a kul˛e i po obej-rzeniu zwracamy j ˛a spowrotem do urny. Je˙zeli w które´s rundzie wylosowano kul˛e czarn ˛a, to algorytm orzeka, ˙ze urna jest drugiego rodzaju. Je˙zeli we wszystkich losowaniach wy-padła kula biała, to algorytm orzeka, ˙ze urna jest pierwszego rodzaju. Je˙zeli urna jest pierwszego rodzaju, to drugi algorytm na pewno da poprawn ˛a odpowied´z. Je˙zeli urna jest drugiego rodzaju, to bł ˛ad popełnimy wtedy, gdyt razy z rz˛edu wylosujemy kul˛e biał ˛a. Zakładaj ˛ac, ˙ze losowania kul s ˛a niezale˙zne, prawdopodobie ´nstwo bł˛edu wynosi 21t.
Z sytuacj ˛a podobn ˛a do rozpoznawania urn mamy cz˛esto do czynienia w algorytmach probabilistycznych. Poka˙zemy teraz jeden z nich.
1.17. Algorytmy probabilistyczne 33
Przykład 1.76 Przypu´s´cmy, ˙ze mamy trzy wielomianyP (x), Q(x) i R(x) i mamy
spraw-dzi´c, czyR(x) = P (x)· Q(x), zachodzi dla ka˙zdego rzeczywistego x. Załó˙zmy, ˙ze P (x) i Q(x) s ˛a stopnian, a R(x) jest stopnia 2n.
Jednym ze sposobów jest pomno˙zenie wielomianówP (x) i Q(x) i porównanie
współ-czynników iloczynu z wielomianemR(x). Ta metoda wymaga około n2mno˙ze´n. Przed-stawimy teraz szybszy algorytm probabilistyczny sprawdzaj ˛acy, czy dwa wielomiany s ˛a dobrze wymno˙zone.
Algorytm probabilistyczny sprawdzaj ˛acy mno˙zenie wielomianów.
Dane wej´sciowe: trzy wielomiany:P (x), Q(x) oraz R(x).
Dane wyj´sciowe: odpowied´z TAK, je˙zeli wielomianyP (x)· Q(x) oraz R(x) s ˛a równe; odpowied´z NIE, je˙zeli wielomianyP (x)· Q(x) oraz R(x) nie s ˛a równe.
• losuj liczb˛e naturaln ˛a x0z przedziału od0 do 4n,
• oblicz waro´sci u0= P (x0), v0= Q(x0) oraz w0= R(x0).
• porównaj w0z iloczynemu0· v0. Je˙zeliw06= u0· v0, to orzekaj, ˙zeP (x)· Q(x) 6=
R(x). Je˙zeli w0= u0· v0, to orzekaj, ˙zeP (x)· Q(x) = R(x).
W rozdziale pierszym pokazano, ˙ze warto´s´c wielomianuP (x) stopnia n w punkcie x0
mo˙zna obliczy´c w czasie proporcjonalnym don.
Je˙zeli równo´s´cP (x)· Q(x) = R(x) jest to˙zsamo´sci ˛a, to dla ka˙zdej wylosowanej warto´scix0otrzymamyP (x0)· Q(x0) = R(x0), czyli nasz algorytm udzieli poprawnej
odpowiedzi z prawdopodobie´nstwem równym 1. Je˙zeliP (x)· Q(x) = R(x) nie jest
to˙z-samo´sci ˛a, to wielomianW (x) = P (x)· Q(x) − R(x) nie jest to˙zsamo´sciowo równy 0,
i algorytm mo˙ze wylosowa´cx0, które jest pierwiastkiem wielomianuW (x), i da´c bł˛edn ˛a
odpowied´z. Ale jak pokazano w rozdziale pierwszym wielomian stopnia2n nie ma wi˛ecej
ni˙z2n pierwiastków, wi˛ec prawdopodobie´nstwo bł˛edu jest nie wi˛eksze ni˙z 12.
1.17.2
Algorytmy z bł˛edem obustronnym
W przykładach z poprzedniego podrozdziału tylko jedna z odpowiedzi typu TAK/NIE mo˙ze by´c udzielana bł˛ednie. Czasami mamy do czynienia z sytuacj ˛a kiedy bł˛edy s ˛a mo˙z-liwe w obu przypadkach.
Przykład 1.77 Wyobra˙zmy sobie teraz, ˙ze oba rodzaje urn zawieraj ˛a kule białe i czar-ne. Urny pierwszego rodzaju zawieraj ˛a 23 kul białych i 13 kul czarnych, a urny drugiego rodzaju zawieraj ˛a13kul białych i23 kul czarnych.
Jak poprzednio algorytm losuje jedn ˛a kul˛e i orzeka ˙ze urna jest pierwszego rodzaju, je˙zeli wylosuje kul˛e biała, oraz orzeka, ˙ze urna jest drugiego rodzaju, je˙zeli wylosuje ku-l˛e czarn ˛a. Algorytm mo˙ze teraz popełni´c bł ˛ad w obu przypadkach. Pradwopodobie´nstwo złej odpowiedzi wynosi 13. Aby zmniejszy´c prawdopodobie´nstwo bł˛edu losujemy ze zwra-caniemt razy. Je˙zeli wi˛ecej było kul białych, to algorytm orzeka, ˙ze urna jest pierwszego