• Nie Znaleziono Wyników

Rozdzial 04 - Rachunek prawdopodobieństwa

N/A
N/A
Protected

Academic year: 2021

Share "Rozdzial 04 - Rachunek prawdopodobieństwa"

Copied!
38
0
0

Pełen tekst

(1)

Matematyka Dyskretna

Andrzej Szepietowski

(2)
(3)

Rozdział 1

Rachunek prawdopodobie ´nstwa

1.1

Przestrze ´n zdarze ´n elementarnych

Podstawowym poj¸eciem rachunku prawdopodobie ´nstwa jest przestrze´n zdarze´n

elemen-tarnych, któr¸a najcz¸e´sciej b¸edziemy oznacza´c przezΩ. W tej ksi¸a˙zce ograniczymy si¸e

do przypadków, gdyΩ jest zbiorem sko ´nczonym. Dzi¸eki temu nasze rozwa˙zania b˛ed ˛a prostsze.

Elementy przestrzeniΩ nazywamy zdarzeniami elementarnymi.

Przykład 1.1 Przypu´s´cmy, ˙ze rzucamy monet¸a. Przestrze´n zdarze´n elementarnych mo˙ze

by´c wtedy okre´slona jakoΩ ={O, R}, gdzie O oznacza wypadni¸ecie orła, a R reszki.

Przykład 1.2 W przypadku dwukrotnego rzutu monet ˛a przestrze´n zdarze´n elementarnych mo˙ze by´c okre´slona jakoΩ = {OO, OR, RO, RR}, gdzie OO oznacza, ˙ze dwa razy

wypadł orzeł;OR, ˙ze za pierwszym razem wypadł orzeł, a za drugiem reszka; RO, ˙ze za

pierwszym razem reszka, a za drugim orzeł; aRR, ˙ze dwa razy wypadła reszka.

Przykład 1.3 Przypu´s´cmy, ˙ze mamy urn¸e z pi˛ecioma ponumerowanymi kulami, i ˙ze kule

o numerach2 i 4 s¸a białe, a kule o numerach 1, 3 i 5 s¸a czarne. Przestrze´n zdarze´n

elementarnych mo˙ze by´c zdefiniowana jakoΩ ={1, 2, 3, 4, 5}.

Przykład 1.4 Przypu´s´cmy, ˙ze mamy urn¸e jak w poprzednim punkcie i ˙ze losujemy dwie

kule z tej urny. Przestrzeni¸a zdarze´n elementarnych mo˙ze tu by´c zbiór dwuelementowych podzbiorów zbioru kul

Ω ={{1, 2}, {1, 3}, {1, 4}, {1, 5}, {2, 3}, {2, 4}, {2, 5}, {3, 4}, {3, 5}, {4, 5}}.

1.1.1

Zdarzenia

Dowolny podzbiorA przestrzeni zdarze ´n elementarnych Ω nazywamy zdarzeniem.

Pa-mi˛etajmy, ˙ze rozwa˙zamy tylko sko ´nczone przestrzenie zdarze ´n elementranych. W przy-padku, gdyΩ jest zbiorem niesko ´nczonym, konieczna jest inna definicja zdarzenia. Tak

(4)

wi˛ec zdarzenia s ˛a elementami zbioru2Ωwszystkich podzbiorów zbioruΩ, jest ich 2|Ω|. Cały zbiórΩ nazywamy zdarzeniem pewnym, a zbiór pusty∅ zdarzeniem niemo˙zliwym.

Zdarzenia rozł¸aczne,A∩ B = ∅, nazywamy wykluczaj¸acymi si¸e. Zdarzenie A0 = Ω

− A

nazywamy zdarzeniem przeciwnym do zdarzeniaA.

Przykład 1.5 W przykładzie 1.2, z dwukrotnym rzutem monet ˛a,Ω ={OO, OR, RO, RR},

mamy16 = 24 zdarze´n. Zbiór

{OO, OR} jest zdarzeniem polegaj¸acym na tym, ˙ze za

pierwszym razem wypadł orzeł. Zbiór{OO, OR, RO}, ˙ze orzeł wypadł przynajmniej je-den raz.

Przykład 1.6 W przykładzie 1.3, z kulami, zbiór{2, 4} oznacza zdarzenie, ˙ze

wylosowa-no kul¸e biał¸a, a zbiór{1, 2, 3}, ˙ze wylosowano kul˛e o numerze mniejszym od 4.

Przykład 1.7 W przykładzie 1.4, z losowaniem dwóch kul, zbiór{{2, 4}} oznacza

zda-rzenie, ˙ze wylosowano dwie kule białe, a zbiór{{1, 3}, {3, 5}, {3, 5}}, ˙ze wylosowano dwie kule czarne.

1.1.2

Przykłady przestrzeni zdarze´

n elementarnych

Podamy teraz inne przykłady przestrzeni zdarze ´n elementarnych.

Przykład 1.8 Zbiór wszystkich czteroelementowych ci¸agów z warto´sciamiO lub R jako

przestrze´n dla czterokrotnego rzutu monet ˛a. Zdarzenie, ˙ze za pierwszym i trzecim razem wypadł orły to{OOOO, OOOR, OROO, OROR}, a zdarzenie, ˙ze za pierwszym i trze-cim razem wypadło to samo to

{OOOO, OOOR, OROO, OROR, RORO, RORR, RRRO, RRRR}.

Przykład 1.9 Zbiór wszystkichn elementowych ci¸agów z warto´sciami O lub R jako

prze-strze´n dlan krotnego rzutu monet ˛a. Podobnie jak w poprzednim przykładzie mo˙zemy roz-patrywa´c zdarzenie, ˙ze za pierwszym i trzecim razem wypadł orzeł lub zdarzenie, ˙ze za pierwszym i trzecim razem wypadło to samo.

Przykład 1.10 NiechG = (V, E) b˛edzie wybranym ustalonym grafem z|V | = n

wierz-chołkami i|E| = m kraw˛edziami. Jako przestrze´n zdarze´n elementarnych we´zmy zbiór wszystkich kolorowa´n dwoma kolorami wierzchołków grafuG. Przestrze´n zdarze´n

ele-mentarnych jest zbiorem wszystkich funkcji ze zbioru wierzchołkówV w zbiór{1, 2},

czy-liΩ ={1, 2}V. Przykładem zdarzenia jest zbiór kolorowa´n, w których ko´nce wybranej z

góry kraw˛edzie ={u, v} ∈ E maj ˛a ró˙zne kolory

{f ∈ Ω | f(u) 6= f(v)}.

Przykład 1.11 Zbiór wszystkich funkcji ze zbioruA w zbiór B, czyli Ω = BA.

Przykła-dem zdarzenia jest zbiór funkcji, które maj ˛a tak ˛a sam ˛a warto´s´c dla dwóch z góry wybra-nych punktówa, b∈ A, czyli {f ∈ Ω | f(a) = f(b)}.

Przykład 1.12 Mamy ustalony zbiórV . Przestrze´n zdarze´n elementarnych to wszystkie

grafy ze zbiorem wierzchołkówV . Zdarzeniem jest zbiór grafów, w których dwa z góry

(5)

1.2. Prawdopodobie ´nstwo 5

Przykład 1.13 Zbiór liter lub słów wyst¸epuj¸acych w jakim´s tek´scie, ksi¸a˙zce lub li´scie. Przykład 1.14 Grupa studencka. Zdarzeniem jest zbiór studentów, którzy otrzymali

oce-n ˛a bardzo dobr ˛a z egzaminu.

Przykład 1.15 Wyborcy. Zdarzeniem s ˛a wyborcy, którzy nie brali udziału w ostatnich wyborach.

1.2

Prawdopodobie ´nstwo

Definicja 1.16 Prawdopodobie´nstwo, lub rozkład prawdopodobie´nstwa, jest funkcj¸a

P : 2Ω

→ R

okre´slon¸a na zbiorze zdarze´n (w naszym przypadku na zbiorze wszystkich podzbiorówΩ).

Ka˙zdemu zdarzeniuA ⊆ Ω przypisujemy liczb¸e rzeczywist¸a P (A), jego

prawdopodo-bie´nstwo. Funkcja ta musi spełnia´c warunki:

Aksjomaty prawdopodobie ´nstwa

A1) Dla ka˙zdegoA⊆ Ω, P (A) ≥ 0,

A2) P (Ω) = 1,

A3) je˙zeli zdarzeniaA i B s¸a rozł¸aczne, to P (A∪ B) = P (A) + P (B).

Zbiór zdarze ´n elementarnychΩ wraz z okre´slonym na nim prawdopodobie ´nstwem b¸edziemy

nazywa´c przestrzeni¸a probabilistyczn¸a. W przypadku, gdy przestrze ´n zdarze´n elemen-tarnych jest zbiorem sko ´nczonym, wystarczy okre´sli´c prawdopodobie ´nstwa dla zdarze ´n elementarnych. Musz¸a by´c tylko spełnione dwa warunki:

A4) P (ω)≥ 0, dla ka˙zdego ω ∈ Ω,

A5) P

ω∈ΩP (ω) = 1,

Prawdopodobie ´nstwo dowolnego zdarzeniaA jest wtedy równe

P (A) = X

ω∈A

P (ω).

Łatwo mo˙zna sprawdzi´c, ˙ze tak zdefiniowane prawdopodobie ´nstwo spełnia aksjomaty definicji 1.16.

Przykład 1.17 Dla dwukrotnego rzutu monet ˛a (przykład 1.2) mo˙zemy okre´sli´c takie samo prawdopodobie´nstwo dla wszystkich zdarze´n elementarnych

P (OO) = 0.25, P (OR) = 0.25, P (RO) = 0.25, P (RR) = 0.25.

Ale oczywi´scie funkcja prawdopodobie´nstwa mo˙ze by´c dowoln¸a funkcj¸a spełniaj¸ac¸a wa-runki A4 i A5. Na przykład

P (OO) = 0.27, P (OR) = 0.24, P (RO) = 0, 25, P (RR) = 0, 24

lub

(6)

1.2.1

Klasyczna definicja prawdopodobie ´

nstwa, rozkład jednostajny

W przypadku, gdy przestrze ´n zdarze´n elementarnych jest zbiorem sko ´nczonym najcz¸e´sciej przyjmuje si¸e, ˙ze funkcja prawdopodobie ´nstwa przypisuje, ka˙zdemu zdarzeniu elemen-tarnemu tak¸a sam¸a warto´s´c. Mamy wtedy do czynienia z klasyczn¸a definicj¸a prawdopo-dobie´nstwa lub rozkładem jednostajnym.

Definicja 1.18 Rozkład prawdopodobie´nstwa, w którym ka˙zde zdarzenie elementarneω∈ Ω ma takie samo prawdopodobie´nstwo P (ω) =|Ω|1 nazywamy rozkładem jednostajnym.

W dalszej cz˛e´sci ksi ˛a˙zki b˛edziemy najcz˛e´sciej zakłada´c, ˙ze mamy jednostajny rozkład prawdopodobie ´nstwa. W razie odst˛epstwa b˛edziemy to specjalnie zaznacza´c.

Przykład 1.19 (kontynuacja przykładów 1.3 oraz 1.6 z losowaniem jednej kuli)

Prawdo-podobie´nsto zdarzenia, ˙ze wylosowano kul¸e biał¸a wynosi 25.

Przykład 1.20 (kontynuacja przykładów 1.4 oraz 1.7 z losowaniem pary kul).

Prawdo-podobie´nstwo ˙ze wylosowano par˛e kul białych wynosi 101, a prawdopodobie´nstwo ˙ze wy-losowano par˛e kul czarnych wynosi 103.

Przykład 1.21 (kontynuacja przykładu 1.8 z czterokrotnym rzutem monet ˛a). Je˙zeli zało-˙zymy rozkład jednostajny, to prawdopodobie´nstwo ˙ze za pierwszym i trzecim razem wy-padł orzeł wynosi 14, a prawdopodobie´nstwo, ˙ze za pierwszym i trzecim razem wypadnie to samo wynosi 12.

Podobnie w przypadku, gdyn krotnie rzucamy monet ˛an > 3 (przykład 1.9).

Prze-strze´n zdarz¸e elementarnych zawiera2n ci¸agów, z czego2n−2 sprzyja zdarzeniu, ˙ze za

pierwszym i trzecim razem wypadnie orzeł, a2n−1sprzyja zdarzeniu, ˙ze za pierwszym i trzecim razem jest to samo. Tak wi¸ec otrzymamy takie same prawdopodobie´nstwa jak w przypadku czterokrotnego rzutu monet ˛a.

Przykład 1.22 Powró´cmy do przypadku kolorowania dwoma kolorami wierzchołków

gra-fuG = (V, E) z|V | = n wierzchołkami (przykład 1.10). Prawdopodobie´nstwo, ˙ze ko´nce

wybranej z góry kraw˛edzie = {u, v} ∈ E maj ˛a ró˙zne kolory wynosi 12. Rzeczywi´scie, wszystkich kolorowa´n jest2n. Kolorowa´n, w któtychu i v maj¸a kolor biały, jest 2n−2(na

tyle sposobów mo˙zna pokolorowa´c pozostałen− 2 wierzchołków). Tyle samo jest

kolo-rowa´n, w którychu i v maj ˛a kolor czarny. Tak wi˛ec w połowie kolorowa´nu i v maj ˛a taki sam kolor, a w połowie maj ˛a ró˙zne kolory.

1.2.2

Własno´

sci prawdopodobie ´

nstwa

W nast¸epuj¸acym twierdzeniu zebrano kilka prostych wniosków wynikaj¸acych z aksjoma-tów prawdopodobie ´nstwa.

Twierdzenie 1.23 a) P (∅) = 0.

b) Je˙zeliA⊆ B, to P (A) ≤ P (B) oraz P (B − A) = P (B) − P (A).

(7)

1.3. Prawdopodobie ´nstwo warunkowe 7

d) P (A∪ B) ≤ P (A) + P (B).

Dowód:

a)Z aksjomatu A3 mamyP (∅) = P (∅ ∪ ∅) = P (∅) + P (∅), a 0 jest jedyn¸a liczb¸a

spełniaj¸ac¸a równo´s´cx = x + x.

b)Je˙zeliA ⊆ B, to B = (B − A) ∪ A oraz (B − A) ∩ A = ∅, a wi¸ec z aksjomatu A3 P (B) = P (B− A) + P (A) ≥ P (A).

c)MamyA∪ B = A ∪ (B − (A ∩ B)) oraz A ∩ (B − (A ∩ B)) = ∅, a wi¸ec z aksjomatu

A3P (A∪ B) = P (A) + P (B − (A ∩ B)), a poniewa˙z A ∩ B ⊆ B, z wniosku 1.23b

mamyP (B− (A ∩ B)) = P (B) − P (A ∩ B).

d)wynika bezpo´srednio zc). 2

Twierdzenie 1.24 NiechA1, . . . , An b¸edzie rodzin¸a parami rozł¸acznych zdarze´n (Ai∩

Aj=∅ dla ka˙zdej pary indeksów i < j). Wtedy

P n [ i=1 Ai = n X i=1 P (Ai)

Dowód przez indukcj¸e: Dlan = 1 twierdzenie zachodzi w sposób trywialny. Załó˙zmy,

˙ze twierdzenie jest prawdziwe dla dowolnej rodzinyn zbiorów. Rozpatrzmy

P n+1 [ i=1 Ai = P n [ i=1 Ai∪ An+1. Poniewa˙z Sn

i=1Ai ∩ An+1 =∅, z aksjomatu A3 i z zało˙zenia indukcyjnego wynika

P n+1 [ i=1 Ai = P n [ i=1 Ai + P (An+1) = n X i=1 P (Ai) + P (An+1) = n+1 X i=1 P (Ai). 2

1.3

Prawdopodobie ´nstwo warunkowe

Definicja 1.25 Prawdopodobie´nstwo warunkowe zaj´scia zdarzeniaA pod warunkiem, ˙ze

zaszło zdarzenieB oznaczane przez P (A|B) okre´slamy jako P (A|B) = P (A∩ B)

P (B) .

Ma to sens tylko wtedy gdyP (B) > 0.

Mo˙zemy powiedzie´c, ˙ze jest to prawdopodobie ´nstwo zaj´scia zdarzeniaA w sytuacji, gdy

mamy pewno´s´c, ˙ze zaszło zdarzenieB. Przy klasycznej definicji, gdy prawdopodobie

´n-stwo oznacza cz¸esto´s´c wyst¸apienia, to prawdopodobie ´n´n-stwoP (A|B) oznacza jaka cz¸e´s´c

(8)

Przykład 1.26 Niech w urnie b˛edzie sze´s´c kul o numerach od 1 do 6, i niech kule o

numerach parzystych b˛ed ˛a białe, a kule o numerach nieparzystych czarne. Przypu´s´c-my, ˙ze losujemy jedn ˛a kul˛e. Jako przestrze´n zdarze´n elementarnych wybieramy zbiór

Ω ={1, 2, 3, 4, 5, 6} z jednostajnym rozkładem prawdopodobie´nstwa. Rozwa˙zmy

zdarze-nieA ={1, 2} polegaj ˛ace na wylosowaniu kuli o numerze mniejszym od 3 oraz zdarzenie B ={2, 4, 6} polegaj ˛ace na wylosowaniu kuli białej. Prawdopodobie´nstwo P (A|B)

zaj-´scia zdarzeniaA pod warunkiem, ˙ze zaszło zdarzenie A wynosi P (A|B) = P (A∩B)P (B) =

1 6 :

1 2=

1

3. Mówi ˛ac inaczej, w´sród białych kul 1

3ma numer mniejszy od 3.

Zauwa˙zmy, ˙ze P (A|B) = P (A), czyli 1

3 kul ma numer mniejszy od 3 zarówno w

całym zbiorzeΩ jak i w´sród białych kul. Mo˙zemy wi˛ec powiedzie´c, ˙ze zaj´scie zdarzenia A nie zale˙zy od tego, czy zaszło zdarzenie B, czy nie.

Zauwa˙zmy, ˙ze tak˙ze zdarzenieB nie zale˙zy od zdarzenia A, poniewa˙z P (B|A) = P (B) = 1

2.

To co zauwa˙zyli´smy w powy˙zszym przykładzie jest ogóln ˛a prawidłowo´sci ˛a. Mianowicie, je˙zeliA i B s¸a zdarzeniami o niezerowych prawdopodobie ´nstwach i P (A) = P (A|B)

(zdarzenieA jest niezale˙zne od B), to P (B) = P (B|A) (zdarzenie B jest niezale˙zne od A). Rzeczywi´scie P (A|B) = P (A) poci¸aga P (A ∩ B) = P (A) · P (B), a to poci¸aga

P (B) = P (A∩ B)

P (A) = P (B|A).

Czyli relacja niezale˙zno´sci zbiorów jest symetryczna. Zwykle jednak u˙zywa si˛e troch˛e innej definicji niezale˙zno´sci.

1.4

Zdarzenia niezale˙zne

Definicja 1.27 ZdarzeniaA i B s¸a niezale˙zne, je˙zeli P (A∩ B) = P (A) · P (B).

Zauwa˙zmy, ˙ze je˙zeliP (A) = 0 lub P (B) = 0, to poniewa˙z A∩ B ⊂ A oraz A ∩ B ⊂ B,

na podstawie twierdzenia 1.23, mamyP (A∩B) = 0, czyli zdarzenia A i B s ˛aniezale˙zne.

Wniosek 1.28 P (A∩ B) = P (A|B) · P (B).

Definicja 1.29 ZdarzeniaA1, . . . , An, s¸a:

• parami niezale˙zne, je˙zeli ka˙zde dwa zdarzenia s¸a niezale˙zne, to znaczy gdy P (Ai∩

Aj) = P (Ai)· P (Aj) dla ka˙zdej pary i < j.

• niezale˙zne, je˙zeli dla ka˙zdego podzbioru I ⊆ {1, . . . , n} mamy

P \ i∈I Ai = Y i∈I P (Ai).

(9)

1.5. Prawdopodobie ´nstwo całkowite 9

Przykład 1.30 (Kontynuacja przykładu 1.2, z dwukrotnym rzutem monet ˛a). Niech A1

b¸edzie zdarzeniem, ˙ze za pierwszym razem wypadł orzeł,A2, ˙ze za drugim razem wypadł

orzeł, aA3, ˙ze w obu rzutach wypadło to samo. Mamy

P (A1) = P (A2) = P (A3) = 1 2 P (A1∩ A2) = P (A1∩ A3) = P (A2∩ A3) = P (A1∩ A2∩ A3) = 1 4.

Jak wida´c zdarzenia te s¸a parami niezale˙zne, poniewa˙z dla ka˙zdej pary indeksów1≤ i < j ≤ 3 mamy P (Ai∩ Aj) = P (Ai)· P (Aj) = 14. Ale zdarzenia te nie s¸a niezale˙zne,

poniewa˙z

1

4 = P (A1∩ A2∩ A3)6= P (A1)· P (A2)· P (A3) = 1 8.

Przykład 1.31 W przypadkun krotnego rzutu monet ˛a, niech Ai oznacza, ˙ze za i-tym

razem wypadł orzeł. Wtedy zdarzeniaA1, . . . , Ans¸a niezale˙zne. Łatwo sprawdzi´c, ˙ze

• dla ka˙zdego i, P (Ai) = 12,

• dla ka˙zdej pary i < j, P (Ai∩ Aj) = 14

• dla ka˙zdej trójki i < j < k, P (Ai∩ Aj∩ Ak) =18,

• i ogólnie, dla ka˙zdego podzbioru zbioru indeksów I ⊆ {1, . . . , n} mamy

P \ i∈I Ai =  1 2 |I|

1.5

Prawdopodobie ´nstwo całkowite

Twierdzenie 1.32 (wzór na prawdopodobie ´nstwo całkowite.) NiechA1, . . . , An ⊆ Ω,

b¸ed¸a zdarzeniami takimi, ˙ze:

• P (Ai) > 0, dla ka˙zdego 1≤ i ≤ n,

• Ai∩ Aj=∅, dla 1 ≤ i < j ≤ n (zdarzenia s¸a parami rozł¸aczne),

• S

1≤i≤nAi= Ω (zdarzenia daj¸a w sumie cał¸a przestrze´n).

Wtedy prawdopodobie´nstwo dowolnego zdarzeniaB⊆ Ω wynosi P (B) =

n

X

i=1

(10)

Dowód: Mamy B = B∩ Ω = B ∩ [ 1≤i≤n Ai= [ 1≤i≤n (B∩ Ai).

Ponadto(B∩ Ai)∩ (B ∩ Aj) =∅ dla i 6= j, wi¸ec na mocy twierdzenia 1.24 mamy

P (B) =

n

X

i=1

P (B∩ Ai).

Z wniosku 1.28 mamyP (B∩ Ai) = P (B|Ai)· P (Ai); co daje tez¸e twierdzenia. 2 W przypadku dwóch zdarze ´n uzupełniaj¸acych si¸eA i A0 = Ω− A wzór z twierdze-nia 1.32 wygl¸ada nast¸epuj¸aco:

P (B) = P (B|A) · P (A) + P (B|A0)

· P (A0). (1.1)

Przykład 1.33 Wyobra´zmy sobie dwie urny z kulami. W pierwszej urnie mamy kule o

nu-merach 1,2, w drugiej kule o nunu-merach 3,4,5. Zakładamy, ˙ze kule o nunu-merach parzystych s ˛a białe, a kule o numerach nieparzystych s ˛a czarne. Rzucamy monet¸a. Je˙zeli wypadnie orzeł, to losujemy kul¸e z pierwszej urny, je˙zeli reszka, to losujemy z drugiej urny.

Jakie jest prawdopodobie´nstwo, ˙ze wylosujemy kul¸e biał¸a? NiechB oznacza

wyloso-wanie kuli białej, aA wypadni¸ecie orła na monecie, wtedy A0 oznacza, ˙ze na monecie

wypadła reszka. MamyP (A) = P (A0) =1 2 oraz

P (B|A) = 12— jest to prawdopodobie´nstwo wylosowania kuli białej pod warunkiem, ˙ze wypadł orzeł i losowali´smy z pierwszej urny.

P (B|A0) = 1

3 — jest to prawdopodobie´nstwo wylosowania kuli białej pod

warun-kiem, ˙ze wypadła reszka i losowali´smy z drugiej urny.

Rysunek 1.1: Prawdopodobie ´nstwo całkowite

O 1 2 1 1 2 2 1 2 R 1 2 3 1 3 4 1 3 5 1 3

Korzystaj¸ac teraz ze wzoru (1.1) mamy

P (B) = 1 2· 1 2+ 1 3· 1 2= 5 12.

(11)

1.5. Prawdopodobie ´nstwo całkowite 11

Rozwi ˛azanie tego zadania mo˙zna przedstawi´c za pomoc ˛a drzewa (rysunek 1.1). Na po-cz ˛atku jeste´smy w korzeniu drzewa. Dwaj synowie korzenia odpowiadaj ˛a dwóm wynikom rzutu monet ˛a. Jak wypadnie orzeł, to idziemy w lewo do wierzchołkaO, jak wypadnie

reszka, to idziemy w prawo do wierzchołkaR. Etykiety przy kraw˛edziach oznaczaj ˛a praw-dopodobie´nsta z jakimi te kraw˛edzie s ˛a wybierane. Synowie wierzchołkaO odpowiadaj ˛a wynikom losowania kul pod warunkiem, ˙ze na monecie wypadł orzeł i losujemy z pierw-szej urny. Etykiety przy kraw˛edziach oznaczaj ˛a prawdopodobie´nsta warunkowe z jakimi te kraw˛edzie s ˛a wybierane. Podobnie synowie wierzchołkaR odpowiadaj ˛a wynikom lo-sowania kul pod warunkiem, ˙ze na monecie wypadła reszka i losujemy z drugiej urny.

Ka˙zdy li´s´c w drzewie odpowiada jakiemu´s wynikowi ko´ncowemu (wylosowaniu kon-kretnej kuli). Prawdopodobie´nsto, ˙ze b˛edzie taki wynik jest równe iloczynowi etykiet na drodze prowadz ˛acej od korzenia do tego li´scia. Prawdopodobie´nstwo wylosowania kuli białej (z parzystym numerem) jest równe

1 2· 1 2+ 1 2· 1 3= 5 12.

Przykład 1.34 Wyobra´zmy sobie, ˙ze mamy jedn ˛a urn˛e z trzema kulami o numerach2, 3

i4 oraz ˙ze kule o numerach 2 i 4 s ˛a białe, a kula3 jest czarna. Przypu´s´cmy, ˙ze pierwsza

osoba wylosowała jedn¸a kul¸e i schowała j¸a. Jakie jest prawdopodobie´nstwo, ˙ze druga osoba wylosuje kul¸e biał¸a?

Rysunek 1.2: B 2 3 BB 1 2 BC 1 2 C 1 3 CB 1 CC 0

Rozwi ˛azanie tego zadania jest przedstawione na drzewie z rysunku 1.2. Synowie ko-rzenia odpowiadaj ˛a wynikowi losowania pierwszej osoby. Losuje ona kul˛e biał ˛a, wierz-chołekB, z prawdopodobie´nstwem 2

3, a kul˛e czarn ˛a, wierzchołekC, z

prawdopodobie´n-stwem13. Synowie wierzchołkaB odpowiadaj ˛a losowaniom drugiego gracza pod warun-kiem, ˙ze pierwszy gracz wylosował kułe biał ˛a. W tej sytuacji drugi gracz wylosuje kul˛e biał ˛a, wierzchołekBB, lub czarn ˛a, wierzchołekBC, obie z prawdopodobie´nstwem

wa-runkowym12. EtykietaBB oznacza, ˙ze obaj gracze wylosowali kule białe, a etykieta BC

oznacza, ˙ze pierwszy gracz wylosował kul˛e biał ˛a, a drugi kul˛e czarn ˛a. Synowie wierz-chołkaC odpowiadaj ˛a losowaniom drugiego gracza pod warunkiem, ˙ze pierwszy gracz

(12)

wylosował kułe czarn ˛a. Teraz drugi gracz wylosuje kul˛e biał ˛a, wierzchołekCB, z

prawdo-podobie´nstwem warunkowym1, a kul˛e czarn ˛a, wierzchołekCC, z prawdopodobie´nstwem 0. Prawdopodobie´nstwo wylosowania kuli białej przez drug ˛a osob˛e wynosi

2 3· 1 2+ 1 3· 1 = 2 3.

Zauwa˙zmy, ˙ze prawdopodobie´nstwo, ˙ze po drugim losowaniu w urnie zostanie biała kula jest równe 2 3· 1 2+ 1 3· 1 = 2 3.

Jak wida´c prawdopodobie´nstwo wylosowania białej kuli jest takie samo dla pierwszego, drugiego i trzeciego losuj¸acego.

1.6

Schemat dwumianowy (Bernouliego)

W schemacie dwumianowym (Bernouliego) mamy seri˛e n do´swiadcze´n losowych (na

przykład rzutów monet ˛a). W ka˙zdym do´swiadczeniu mo˙zliwe s ˛a dwa wyniki: sukces (wy-padni˛ecie orła) lub pora˙zka (wypadnie´cie reszki). Wyniki do´swiadcze´n s ˛a niezale˙zne i w ka˙zdym mamy takie samo prawdopodobie ´nstwo sukcesu równep.

1.6.1

Rzut symetryczn ˛

a monet ˛

a

Rozpatrzmy trzykrotny rzut symetryczn ˛a monet ˛a. Rysunek 1.3 ilustruje jak w tym

przy-Rysunek 1.3: Trzykrotny rzut symetryczn ˛a monet ˛a

O 1 2 OO 1 2 OOO 1 2 OOR 1 2 OR 1 2 ORO 1 2 ORR 1 2 R 1 2 RO 1 2 ROO 1 2 ROR 1 2 OR 1 2 RRO 1 2 RRR 1 2

(13)

1.6. Schemat dwumianowy (Bernouliego) 13

padku rozkłada si˛e prawdopodobie ´nstwo. W korzeniu rzucamy pierwszy raz monet ˛a, je-˙zeli wypadnie orzeł, to idziemy do wierzchołkaO, je˙zeli reszka, to do R. W wierzchołku O rzucamy drugi raz, id ˛ac albo doOO lub do OR. Etykieta OO oznacza, ˙ze w obu rzutach

wypadł orzeł, a etykietaOR oznacza, ˙ze za pierwszym razem wypadł orzeł, a za drugim

reszka. Podobnie w wierzchołkuR. Poniewa˙z drugi rzut jest niezale˙zny od pierwszego,

etykiety na kraw˛edziach wychodz ˛acych zO s ˛a takie same jak na kraw˛edziach wycho-dz ˛acych zR. Kraw˛edzie wychodz ˛ace z wierzchołków z dwoma etykietami odpowiadaj ˛a trzeciemu rzutowi. Tak˙ze tutaj etykiety kraw˛edzi wychodz ˛acych z wierzchołków s ˛a takie same, poniewa˙z trzeci rzut jest niezale˙zny od dwóch pierwszych.

Li´scie odpowiadaj ˛a wynikom trzech rzutów. Wyst˛epuj ˛a tutaj wszystkie 8 ci ˛agów dłu-go´sci 3. Ka˙zdy z nich jest przyjmowane z prawdopodobie ´nstwem18. Otrzymali´smy wi˛ec jednostajny rozkład prawdopodobie ´nstwa na zbiorze

Ω ={OOO, OOR, ORO, ORR, ROO, ROR, RRO, RRR}.

Podobnie, przyn krotnym rzucie monet ˛a, je˙zeli rzuty s ˛a niezale˙zne i w ka˙zdym rzucie prawdopodobie ´nstwa wypadni˛ecia orła i reszki wynosz ˛a 12, 12, otrzymamy jednostajny rozkład na zbiorze wszystkich ci ˛agów długo´scin z elementami O i R.

1.6.2

Kolorowanie wierzchołków grafu

Rysunek 1.4: Trójk ˛at

a

b c

Przypu´s´cmy, ˙ze mamy graf z trzema wierzchołkamia, b i c poł ˛aczonymi w trójk ˛at (rysunek 1.4) i ˙ze wierzchołki kolorujemy po kolei niezale˙znie na biało lub czarno z paw-dopodobie ´nstwami12,12. Tak˙ze to do´swiadczenie mo˙zna zilustrowa´c za pomoc ˛a drzewa z rysunku 1.3. W korzeniu wybieramy kolor dla wierzchołkaa, je˙zeli biały, to idziemy do

wierzchołkaO, je˙zeli czarny, to do R. W wierzchołku O wybieramy kolor dla

wierzchoł-kab, id ˛ac albo doOO lub do OR. Etykieta OO oznacza, ˙ze oba wierzchołki a i b s ˛a białe, a etykietaOR oznacza, ˙ze wierzchołek jest biały, a wierzchołek b czarny. Podobnie w

wierzchołkuR. Kraw˛edzie wychodz ˛ace z wierzchołków z dwoma kolorami odpowiadaj ˛a kolorowaniom wierzchołkac. Tak˙ze tutaj etykiety kraw˛edzi wychodz ˛acych z wierzchoł-ków s ˛a takie same, poniewa˙z wybór koloru dlac jest niezale˙zny od wyboru kolorów dla a i b. Li´scie odpowiadaj ˛a ostatecznym kolorowaniom trzech wierzchołków. Wyst˛epuje tutaj wszystkie 8 kolorowa ´n. Ka˙zdy z nich jest przyjmowane z prawdopodobie ´nstwem 1

8. Otrzymali´smy wi˛ec jednostajny rozkład prawdopodobie ´nstwa na zbiorze wszystkich kolorowa´n.

(14)

Podobnie, koloruj ˛ac po kolei niezale˙znien wierzchołków, na biało lub czarno z

praw-dopodobie ´nstwami 12, 12, otrzymamy jednostajny rozkład na zbiorze wszystkich mo˙zli-wych kolorowa ´n.

1.6.3

Trzykrotny rzut niesymetryczn ˛

a monet ˛

a

Rozpatrzmy teraz trzykrotny rzut niesymetryczn ˛a monet ˛a, gdy prawdopobie ´nstwo wy-padni˛ecia orła wynosip, a prawdopobie ´nstwo wypadni˛ecia reszki wynosi q = 1− p.

Nadal zakładamay, ˙ze wyniki poszczególnych rzutów s ˛a od siebie niezale˙zne.

Rysunek 1.5: Trzykrotny rzut niesymetryczn ˛a monet ˛a

O p OO p OOO p OOR q OR q ORO p ORR q R q RO p ROO p ROR q OR q RRO p RRR q

Rysunek 1.5 ilustruje jak rozkłada si˛e prawdopodobie ´nstwo w takim przypadku. Ety-kiety wierzchołków maj ˛a takie same znaczenie jak w przypadku rzutu symetryczn ˛a mo-net ˛a, Zmieniły si˛e tylko etykiety kraw˛edzi. Kraw˛edzie odpowiadaj ˛ace wypadni˛eciu orła maj ˛a etykiet˛ep, a odpowiadaj ˛ace reszce etykiet˛eq.

Otrzymali´smy teraz inny rozkład prawdopodobie ´nstwa na zbiorzeΩ.

ω OOO OOR ORO ORR ROO ROR RRO RRR

P (ω) p3 p2q p2q pq2 p2q pq2 pq2 q3

Zauwa˙zmy, ˙ze prawdopodobie ´nsto, ˙ze za pierwszym (drugim lub trzecim) razem wy-padnie orzeł wynosi

p3+ p2q + p2q + pq2= p(p2+ 2pq + q2) = p,

a prawdopodobie ´nsto, ˙ze za pierwszym (drugim lub trzecim) razem wypadnie reszka wy-nosi

(15)

1.7. Zmienna losowa 15

1.6.4

Ogólny schemat — n krotny rzut niesymetryczn ˛

a monet ˛

a

Ogólnie w schemacie dwumianowym mamy seri˛en niezale˙znych do´swiadcze´n. W

ka˙z-dym do´swiadczeniu prawdopodobie ´nstwo sukcesu wynosip, a prawdopodobie ´nstwo

po-ra˙zkiq = 1− p. Bez straty ogólno´sci mo˙zemy nasze rozwa˙zania ograniczy´c do n

krot-nego rzutu niesymetryczn ˛a monet ˛a. Zakładamy, ˙ze rzuty s ˛a niezale˙zne i w ka˙zdym rzucie prawdopodobie ´nstwa wypadni˛ecia orła wynosip, a reszki q. Otrzymamy wtedy rozkład

na zbiorze wszystkich ci ˛agów długo´scin z elementami O i R, w którym

prawdopodo-bie´nstwo ci ˛aguω∈ Ω jest równe

pkqn−k, gdziek oznacza liczb˛e symboli O w ci ˛aguω.

Zauwa˙zmy, ˙ze ci ˛agów zk orłami jest nk, wi˛ec je˙zeli pogrupujemy te

prawdopodo-bie´nstwa według liczby orłów i zsumujemy, to zgodnie ze wzorem na dwumian Newtona, otrzymamy n X k=0 n k  pkqn−k= (p + q)n= 1n = 1.

Je˙zeli rozwa˙zymy tylko ci ˛agi zO na pierwszej (lub na dowolnej i tej) pozycji, to znowu

mo˙zemy je pogrupowa´c według liczby symboliO. Dla ka˙zdego k od 0 do n− 1, ci ˛agów

zk + 1 symbolami O jest n−1k  (trzeba wybra´c k pozycji spo´sród n − 1, na których b˛ed ˛a

orły). Je˙zeli pogrupujemy te prawdopodobie ´nstwa według liczby orłów i zsumujemy, to otrzymamy prawdopodobie ´nstwo wypadni˛ecia orła za pierwszym (lub dowolnymi tym

razem) równe n−1 X k=0 n − 1 k  pk+1qn−1−k= p· n−1 X k=0 n − 1 k  pkqn−1−k = p(p + q)n−1= p.

Podobnie, je˙zeli rozwa˙zymy ci ˛agi zR na pierwszej (lub na dowolnej i tej) pozycji, to

znowu mo˙zemy je pogrupowa´c według liczby symboliO. Dla ka˙zdego k od 0 do n− 1

ci ˛agów zk symbolami O jest n−1k , wi˛ec je˙zeli pogrupujemy te prawdopodobie ´nstwa

według liczby orłów to, zgodnie ze wzorem na dwumian Newtona, otrzymamy n−1 X k=0 n − 1 k  pkqn−k = q · n−1 X k=0 n − 1 k  pkqn−1−k = q(p + q)n−1= q.

1.7

Zmienna losowa

Definicja 1.35 Zmienna losowaX jest to dowolna funkcja z przestrzeni zdarze´n

elemen-tarnychΩ w zbiór liczb rzeczywistych R.

Trzeba tutaj przypomnie´c, ˙ze w tej ksi ˛a˙zce rozwa˙zamy tylko sko ´nczone przestrzenie zda-rze´n elementarnych. W przypadku, gdyΩ jest zbiorem niesko ´nczonym definicja zmiennej

(16)

Przykład 1.36 Rozwa˙zmy trzykrotny rzut symetryczn ˛a monet ˛a,

Ω ={OOO, OOR, ORO, ORR, ROO, ROR, RRO, RRR}.

Zmienna losowaX oznacza ile razy wypadł orzeł. Jej warto´sci podane s ˛a w nast˛epuj ˛acej tabeli:

ω OOO OOR ORO ORR ROO ROR RRO RRR

X(ω) 3 2 2 1 2 1 1 0

Maj¸ac zmienn¸a losow¸aX i dowoln ˛a liczb¸e rzeczywist¸ax definiujemy zdarzenie X = x jako

(X = x) ={ω ∈ Ω | X(ω) = x}.

Zauwa˙zmy, ˙ze je˙zeli liczbax nie nale˙zy do zbioru warto´sci X(Ω) zmiennej X, to

zdarze-nie(X = x) jest zdarzeniem niemo˙zliwym.

Przykład 1.37 Dla zmiennej losowejX z przykładu 1.36 mamy: (X = 0) ={RRR},

(X = 1) ={0RR, ROR, RRO}, (X = 2) ={OOR, ORO, OOR}, (X = 3) ={OOO},

Je˙zelix6= 0, 1, 2, 3, to (X = x) = ∅.

1.7.1

G˛esto´

c rozkładu prawdopodobie´

nstwa zmiennej losowej

Definicja 1.38 Funkcj¸e

f (x) = P (X = x)

nazywamy funkcj¸a g¸esto´sci (rozkładu) prawdopodobie´nstwa zmiennej losowejX.

Przykład 1.39 (Kontynuacja przykładu 1.36) Je˙zeli zało˙zymy, ˙ze ka˙zde zdarzenie

elemen-tarne jest równo prawdopodobne, to zmienna losowaX posiada rozkład

x 0 1 2 3

f (x) 1/8 3/8 3/8 1/8

Poniewa˙z, jak zało˙zyli´smyΩ jest zbiorem sko´nczonym, to zbiór warto´sci X(Ω) zmiennej X te˙z jest sko´nczony. Dla x /∈ X(Ω) mamy f(x) = P (X = x) = P (∅) = 0. Tak wi¸ec

funkcja g¸esto´sci przyjmuje warto´sci niezerowe tylko dla sko ´nczenie wielu argumentów. Zauwa˙zmy, ˙ze je˙zelix16= x2, to zdarzenia(X = x1) i (X = x2) wykluczaj¸a si¸e. Lemat 1.40 Je˙zelif jest funkcj¸a g¸esto´sci zmiennej losowej X, to

(17)

1.7. Zmienna losowa 17

• P

xf (x) = 1.

Sum¸eP

xf (x) rozumiemy jako sko´nczon¸a sum¸e po zbiorze warto´sci zmiennej X, czyli

P xf (x) = P x∈X(Ω)f (x) Dowód. X x∈X(Ω) f (x) = X x∈X(Ω) P (X = x) = X x∈X(Ω) X X(ω)=x P (ω).

Zauwa˙zmy, ˙ze ostatnia podwójna suma jest sum¸a po wszystkich elementachω ∈ Ω

po-grupowanych według warto´sci zmiennejX. Mamy wi¸ec X x f (x) = X ω∈Ω P (ω) = 1. 2

W dalszej cz¸e´sci przedstawiaj¸ac funkcj¸e g¸esto´sci zmiennej losowejX b¸edziemy

roz-wa˙za´c tylko tex, dla których f (x) > 0.

Maj¸ac funkcj¸e g¸esto´sci rozkładu zmiennejX mo˙zemy okre´sla´c prawdopodobie´nstwa

zdarze´n opisywanych za pomoc¸a zmiennejX.

Przykład 1.41 Dla zmiennej losowejX z przykładu 1.38. mamy

P (X < 2) = P (X = 0 lub X = 1) = P (X = 0) + P (X = 1) = 1 8+ 3 8= 1 2,

pami¸etajmy, ˙ze zdarzeniaX = 0 oraz X = 1 s¸a rozł¸aczne.

1.7.2

Przykłady zmiennych losowych

Przykład 1.42 Przypu´s´cmy, ˙ze mamy urn¸e z czteroma ponumerowanymi kulami{1, 2, 3, 4},

i ˙ze kule o numerach parzystych s¸a białe, a kule o numerach nieparzystych czarne. Losu-jemy dwie kule bez zwracania. Jako przestrze´n zdarze´n elementarnych wybieramy zbiór dwuelementowych podzbiorów zbioru kul

Ω ={{1, 2}, {1, 3}, {1, 4}, {2, 3}, {2, 4}, {3, 4}}

z jednostajnym rozkładem prawdopodobie´nstwa.

Niech zmienna losowaX oznacza liczb˛e białych kul w wylosowanej parze. Jej

warto-´sci podane s ˛a w nast˛epuj ˛acej tabeli:

ω {1, 2} {1, 3} {1, 4} {2, 3} {2, 4} {3, 4}

X(ω) 1 0 1 1 2 1

G˛esto´s´c rozkładu prawdopodobie´nstwa zawiera tabela

x 0 1 2

(18)

Przykład 1.43 Rozwa˙zmy zmienn ˛a losow ˛aX oznaczaj ˛ac ˛a liczb˛e ró˙znobarwnych kraw˛e-dzi w kolorowaniu wierzchołków dowolnego grafuG = (V, E) (przykład 1.10).

Przestrze-ni ˛a zdarze´n losowych to zbiórΩ ={1, 2}V wszystkich funkcji ze zbioru wierzchołkówV

w zbiór{1, 2} dwóch kolorów. Dla ka˙zdego kolorowania ω ∈ Ω warto´s´c X(ω) oznacza ile kraw˛edzi ma ko´nce w ró˙znych kolorach w kolorowaniuω.

W szczególnym przypadku, gdy grafG = (V, E) jest trójk ˛atem (rysunek 1.4) z wierz-chołkamiV ={a, b, c} i kraw˛edziami E = {{a, b}, {a, c}, {b, c}}. Mamy 8 jednakowo

prawdopodobnych kolorowa´n (porównaj podrozdział 1.6.2).

Ω ={OOO, OOR, ORO, ORR, ROO, ROR, RRO, RRR}.

Przypominamy, ˙ze na przykład,ROO oznacza, ˙ze wierzchołek a jest pokolorowany na

czarno, a wierzchołkib i c na biało. Łatwo zauwa˙zy´c, ˙ze zmienna X przyjmuje warto´s´c 0

dla dwóch kolorowa´nOOO oraz RRR. Dla wszystkich innych kolorowa´n X przyjmuje

warto´s´c2. Wi˛ec jej rozkład ma posta´c

x 0 2

f (x) 28 68

1.7.3

Rozkład jednopunktowy

Z rozkładem jednopunktowym mamy do czynienia, wtedy gdy całe prawdopodobie ´nstwo jest skupione w jednym punkcie. Mówi ˛ac inaczej zmienna losowaX ma rozkład

jedno-punktowy, je˙zeli dla jekiego´sm

P (X = m) = 1.

Poniewa˙zP

xP (X = x) = 1, to P (X = x) = 0 dla ka˙zdego x6= m.

1.7.4

Rozkład zero-jedynkowy

Zmienna losowaX ma rozkład zero-jedynkowy, je˙zeli prawdopodobie ´nstwo jest

skupio-ne tylko w dwóch punktach 0 i 1. G¸esto´s´c rozkładu prawdopodobie ´nstwa ma wtedy posta´c

x 0 1

f (x) q p

dla pewnych dodatnichp, q spełniaj¸acych warunek p + q = 1.

1.8

Ł ˛

aczny rozkład prawdopodobie´nstwa

Mo˙ze si˛e zda˙zy´c, ˙ze na tej samej przestrzeni zdarze ´n elementarnych mamy okre´slone dwie lub wi˛ecej zmiennych losowych.

(19)

1.8. Ł ˛aczny rozkład prawdopodobie ´nstwa 19

Przykład 1.44 Rozwa˙zmy losowanie jednej kuli z urny zawieraj¸acej siedem

ponumero-wanych kul.Ω ={1, 2, 3, 4, 5, 6, 7}. Niech zmienna losowa X2bedzie zdefiniowana jako

X2(ω) = ω mod 2,

a zmienna losowaX3jako

X3(ω) = ω mod 3.

(X2(ω) jest reszt¸a z dzielenia numeru kuli przez 2, a X3(ω) reszt¸a z dzielenia przez 3).

Warto´sci tych dwóch zmiennych zebrane s¸a w tabeli.

ω 1 2 3 4 5 6 7

X2(ω) 1 0 1 0 1 0 1

X3(ω) 1 2 0 1 2 0 1

1.8.1

G˛esto´

c ł ˛

acznego rozkładu

W przypadku dwóch zmiennych losowychX i Y okre´slonych na tej samej przestrzeni

zdarze´n elementarnychΩ mamy tak zwany ł¸aczny rozkład prawdopodobie ´nstwa, którego

g¸esto´s´c jest okre´slona jako

f (x, y) = P (X = x i Y = y).

(X = x i Y = y) jest innym zapisem zdarzenia (X = x)∩ (Y = y).

Przykład 1.45 Dla zmiennychX2iX3z przykładu 1.44 g˛esto´s´c ł¸acznego rozkładu

praw-dopodobie´nstwa przedstawiona jest w tabeli:

X3

0 1 2

X2 0 1/7 1/7 1/7

1 1/7 2/7 1/7

Mo˙zemy teraz oblicza´c prawdopodobie´nstwa zdarze´n opisywanych przez te zmienne. Na przykład P (X2= X3) = P (X2= 0 i X3= 0 lub X2= 1 i X3= 1) = P (X2= 0 i X3= 0) + P (X2= 1 i X3= 1) = 1/7 + 2/7 = 3/7 lub P (X2< X3) = P (X2= 0 i X3= 1 lub X2= 0 i X3= 2 lub X2= 1 i X3= 2) = = 1/7 + 1/7 + 1/7 = 3/7

Łatwo mo˙zna zauwa˙zy´c, ˙ze sumuj¸ac wiersze tabeli ł ˛acznego rozkładu mo˙zna otrzyma´c g¸esto´s´c rozkładu zmiennejX2, a sumuj¸ac kolumny g¸esto´s´c rozkładuX3.

(20)

X3

0 1 2

X2 0 1/7 1/7 1/7 3/7

1 1/7 2/7 1/7 4/7

2/7 3/7 2/7

Przykład 1.46 Rozwa˙zmy dwie zmienne losoweX1iX2okre´slone na przestrzeni

Ω ={OO, OR, RO, RR}

opisuj ˛acej wyniki dwukrotnego rzutu monet ˛a.

Zmienna X1 przyjmuje warto´s´c 1, je˙zeli za pierwszym razem wypadnie orzeł, oraz

warto´s´c 0, je˙zeli za pierwszym razem wypadnie reszka. Podobnie zmienna X2 opisuje

wynik drugiego rzutu. Warto´sci tych dwóch zmiennych zebrane s¸a w tabeli.

ω OO OR RO RR

X1(ω) 1 1 0 0

X2(ω) 1 0 1 0

Ł ˛aczny rozkład prawdopodobie´nstwa przedstawiony jest w tabeli:

X2

0 1

X1 0 1/4 1/4

1 1/4 1/4

1.9

Niezale˙zno´s´c zmiennych losowych

Definicja 1.47 Zmienny losowe X i Y s¸a niezale˙zne je˙zeli dla ka˙zdej pary liczb x, y

mamy

P (X = x i Y = y) = P (X = x)· P (Y = y)

lub inaczej, gdy

fXY(x, y) = fX(x)· fY(y),

gdziefXY oznacza g¸esto´s´c rozkładu ł¸acznego, fX g¸esto´s´c zmiennejX, a fY g¸esto´s´c

zmiennejY .

Przykład 1.48 Zmienne losoweX1iX2z przykładu 1.46 s ˛a niezale˙zne, a zmienne

loso-weX2iX3z przykładu 1.45 nie s¸a niezale˙zne.

Oczywi´scie mo˙ze by´c wi¸ecej zmiennych losowych okre´slonych na jednej przestrzeni Dla trzech zmiennych losowychX, Y , Z g˛esto´s´c ł¸acznego rozkładu prawdopodobie

´n-stwa, zdefiniowana jest jako

f (x, y, z) = P (X = x i Y = y i Z = z).

W ogólnym przypadkun zmiennych losowych X1, . . . , Xng˛esto´sc ich ł¸acznego rozkładu okre´slona jest jako

(21)

1.9. Niezale˙zno´s´c zmiennych losowych 21

Definicja 1.49 Zmienne losoweX, Y , Z s¸a niezale˙zne je˙zeli dla ka˙zdej trójki liczb x, y i z mamy

f (x, y, z) = P (X = x)· P (Y = y) · P (Z = z).

Podobnie mamy w przypadkun zmiennych losowych

Definicja 1.50 Zmienne losoweX1, . . . , Xn s¸a niezale˙zne je˙zeli dla ka˙zdejn-tki liczb

x1, . . . , xn zachodzi P n \ i=1 (Xi= xi) = n Y i=1 P (Xi= xi), czyli f (x1, . . . , xn) = n Y i=1 fi(xi),

gdzief oznacza g˛esto´s´c rozkładu ł ˛acznego, afig˛esto´s´c rozkładu zmiennejXi.

Przykład 1.51 Rozwa˙zmyn krotny rzut symetryczn ˛a monet ˛a. Przestrze´n zdarze´n elemen-tarnych zawiera ci ˛agi długo´scin o elementach ze zbioru{O, R} i ka˙zdy ci ˛ag jest równie prawdopodobny. Dla ka˙zdegoi od 1 do n okre´slmy zmienn ˛a losow ˛aXi:

Xi(ω) =



1, je˙zeli za i-tym razem wypadł orzeł 0, je˙zeli za i-tym razem wypadła reszka

ZmienneX1, . . . , Xns¸a niezale˙zne. Prze´sled´zmy to dlan = 3 (patrz podrozdział 1.6.1).

Dla ka˙zdej trójki liczbx1,x2,x3zdarzenie

(X1= x1 i X2= x2 i X3= x3)

zawiera tylko jeden ci ˛ag. Na przykład zdarzenie

(X1= 1 i X2= 0 i X3= 0) ={ORR}.

Czyli dla ka˙zdej trójkix1,x2,x3prawdopodobie´nstwo

P (X1= x1 i X2= x2 i X3= x3) =

1 8.

Z drugiej strony, dla ka˙zdegoi∈ {1, 2, 3} mamy P (Xi= xi) = 12, czyli

P (X1= x1 i X2= x2 i X3= x3) = P (X1= x1)· P (X2= x2)· P (X3= x3).

ZmienneX1, . . . , Xns¸a niezale˙zne tak˙ze w przypadku rzutu niesymetryczn ˛a monet ˛a.

Znowu poka˙zemy to dlan = 3. W ogólnym przypadku dowód jest podobny. Tak jak dla

rzutu symetryczn ˛a monet ˛a dla ka˙zdej trójki liczbx1,x2,x3zdarzenie

(X1= x1 i X2= x2 i X3= x3)

zawiera tylko jeden ci ˛ag. Jego prawdopodobie´nstwo

(22)

gdziek oznacza liczb˛e jedynek w ci ˛agu(x1, x2, x3).

Z drugiej strony zdarzenie(Xi = 1) zawiera wszystkie ci ˛agi, które nai-tej pozycji

maj ˛aO. W podrozdziale 1.6.3 pokazano, ˙ze prawdopodobie´nstwo takiego zdarzenia

wy-nosip. Podobnie (Xi = 0) zawiera wszystkie ci ˛agi, które nai-tej pozycji maj ˛aR, a jego

prawdopodobie´nstwo wynosiq. Tak wi˛ec

P (X1= x1 i X2= x2 i X3= x3) = P (X1= x1)· P (X2= x2)· P (X3= x3).

1.9.1

Własno´

c niezale˙znych zmiennych losowych

Poka˙zemy teraz, ˙ze je˙zeli zmienne losoweX i Y s¸a niezale˙zne, to niezale˙zne s¸a te˙z

zmien-neX− a i Y − b. Dokładniej

Lemat 1.52 Niech X i Y b¸ed¸a niezale˙znymi zmiennymi losowymi, a a i b dowolnymi

liczbami rzeczywistymi. Wtedy zmienneX− a i Y − b s ˛a niezale˙zne.

Dowód: NiechX1 = X− a oraz Y1 = Y − b. Zaywa˙zmy, ˙ze X1(ω) = x1 wtedy i tylko wtedy, gdyX(ω) = a + x1, czyli zdarzenieX1= x1pokrywa si˛e ze zdarzeniem

X = a + x1. Podobnie zdarzenieY1= y1pokrywa si˛e ze zdarzeniemY = a + y1. Mamy wi˛ec

P (X1= x1 i Y1= y1) = P (X = a + x1 i Y = b + y1) =

P (X = a + x1)· P (Y = b + y1) = P (X1= x1)· P (Y1= y1).

´Srodkowa równo´s´c wynika z niezale˙zno´sci zmiennych X i Y . 2 Powy˙zszy lemat mo˙zna uogólni´c

Lemat 1.53 Je˙zeli zmienne losoweX i Y s¸a niezale˙zne, to dla dowolnych funkcji g i h,

zmienneg◦ X i h ◦ Y te˙z s¸a niezale˙zne.

Dowód tego lematu pozostawiamy czytelnikowi.

1.10

Rozkład dwumianowy — Bernoulliego

Przypomnijmy sobie schemat dwumianowy z seri ˛an do´swiadcze´n (rzutów monet ˛a) i z prawdopodobie ´nstwem sukcesu (wypadni˛ecia orła) w pojedy ´nczym do´swiadczeniu rów-nymp (podrozdział 1.6.4) Przestrze ´n zdarze´n elementarnych jest zbiorem wszystkich ci ˛ a-gów długo´scin z elementami O i R, w którym prawdopodobie ´nstwo ci ˛aguω ∈ Ω jest

równe

pkqn−k, gdziek oznacza liczb˛e symboli O w ci ˛aguω.

Niech zmienna losowa X oznacza liczb˛e sukcesów (orłow) w serii. Mówimy, ˙ze

zmienna losowaX posiada rozkład dwumianowy (Bernouliego) z parametrami:

długo-´sci ˛a seriin i prawdopodobie´nstwem sukcesu p. Zmienna losowa X przyjmuje warto´sci k

od0 do n. Prawdopodobie´nstwo, ˙ze zmienna X posiada warto´s´c k wynosi P (x = k) =n

k 

(23)

1.11. Warto´s´c oczekiwana, ´srednia 23

Przykładem zminnej losowej z rozkładem dwumianowym jest zmienna opisana w przykładzie 1.36, która okre´sla liczb˛e orłów w serii 3 rzutów.

Dlan = 4 rozkład zmiennej X wygl ˛ada nast˛epuj ˛aco:

x 0 1 2 3 4

f (x) q4 4pq3 6p2q2 4p3q p4 Zauwa˙zmy, ˙ze zmienna losowaX jest sum ˛a zmiennych

X(ω) =

n

X

i=1

Xi(ω),

gdzie, dla ka˙zdegoi zmienna Xioznacza wyniki tego rzutu i jest równa

Xi(ω) =



1, je˙zeli za i-tym razem wypadł orzeł 0, je˙zeli za i-tym razem wypadła reszka

Rzeczywi´scie, dla ka˙zdego ci ˛aguω sumaPn

i=1Xi(ω) jest równa liczbie indeksów i ∈

{1, . . . , n}, dla których Xi(ω) = 1, czyli liczbie pozycji, na których w ci ˛aguω stoi orzeł.

1.11

Warto´s´c oczekiwana, ´srednia

Definicja 1.54 Warto´s´c oczekiwana (´srednia) zniennej losowejX to liczba

E(X) =X

ω∈Ω

X(ω)· P (ω).

Przykład 1.55 Dla zmiennej losowejX z przykładu 1.36 warto´s´c oczekiwana wynosi E(X) = 1

8(3 + 2 + 2 + 1 + 2 + 1 + 1 + 0) = 12

8 = 1.5

Je˙zeli zmienna posiada jednostajny rozkład prawdopodobie ´nstwa, to jej warto´s´c ocze-kiwana jest zwykł¸a ´sredni¸a arytmetyczn¸a jej warto´sci.

E(X) = X ω∈Ω X(ω)· 1 |Ω| = 1 |Ω| · X ω∈Ω X(ω).

W ogólnym przypadku warto´s´c oczekiwana jest nazywana ´sredni¸a wa˙zon¸a.

Je˙zeli mamy rozkład zmiennej losowej, to warto´s´c oczekiwan ˛a obliczamy według wzoru.

Lemat 1.56

E(X) = X

x∈X(Ω)

(24)

Dowód: Je˙zeli pogrupujemy wyrazy sumyP

ω∈ΩX(ω)·P (ω) według warto´sci zmiennej

X, to otrzymamy E(X) =X ω∈Ω X(ω)· P (ω) = X x∈X(Ω) x X X(ω)=x P (ω) = X x∈X(Ω) x· P (X = x).

Przykład 1.57 Przypu´s´cmy, ˙ze mamy informacj¸e, ˙ze w jakiej´s grupie studenckiej połowa

studentów otrzymała ocen¸e 5 z matematyki dyskretnej, jedna trzecia otrzymała ocen¸e 4, a jedna szósta ocen¸e 3. Jaka jest ´srednia ocena w tej grupie? Przyjmujemy, ˙ze grupa jest przestrzeni¸a losow¸a, a zmienna losowaX jest ocen¸a studenta. Wtedy warto´s´c oczekiwana

zmiennejX wynosi

E(X) = 5·12+ 4·13+ 3· 16= 26 6 = 4

1 3.

jest ´sredni¸a ocen¸a w tej grupie.

1.11.1

Własno´

sci warto´

sci oczekiwanej

W poni˙zszym twierdzeniu zebrano podstawowe własno´sci warto´sci oczekiwanej. Twierdzenie 1.58 a) E(X + Y ) = E(X) + E(Y ).

b) Je˙zelia jest liczb¸a rzeczywist¸a, to E(a· X) = a · E(X).

c) Je˙zeli zmienneX i Y s¸a niezale˙zne, to E(X· Y ) = E(X) · E(Y ).

d) Je˙zeliX ≥ 0, to E(X) ≥ 0. Dowód: a) E(X + Y ) = X ω∈Ω (X + Y )(ω)· P (ω) = X ω∈Ω (X(ω) + Y (ω))· P (ω) = X ω∈Ω X(ω)· P (ω) +X ω∈Ω Y (ω)· P (ω) = E(X) + E(Y ). b) E(a·X) =X ω∈Ω (a·X)(ω)·P (ω) = X ω∈Ω a·X(ω)·P (ω) = a·X ω∈Ω X(ω)·P (ω) = a·E(X). c) E(X· Y ) =X ω∈Ω XY (ω)P (ω).

Pogrupujmy składniki sumy według warto´sci zmiennychX i Y . E(X· Y ) =X x X y x· y · X X(ω)=x Y(ω)=y P (ω) =

(25)

1.11. Warto´s´c oczekiwana, ´srednia 25 X x X y x· y · P (X = x i Y = y) =X x X y x· y · P (X = x) · P (Y = y) = X x x· P (X = x) · X y

y· P (Y = y) = E(X) · E(Y ).

d)Je˙zeli dla ka˙zdegoω, X(ω)≥ 0, toP

ω∈ΩX(ω)· P (ω) ≥ 0. 2

Punkt a) powy˙zszego twierdzenia mo˙zna uogólni´c (za pomoc ˛a indukcji) na sumen

zmiennych.

Twierdzenie 1.59 Warto´s´c oczekiwana sumyk zmiennych X1, . . . , Xkjest równa

E( k X i=1 Xi) = k X i=1 E(Xi).

1.11.2

Warto´

c oczekiwana rozkładu jednopunktowego

Warto´s´c oczekiwana zmiennejX z rozkładem jednopunktowym wynosi E(X) = m.

Z definicji warto´sci oczekiwanej wynika nast˛epuj ˛acy fakt:

Lemat 1.60 Je˙zeli jaka´s zmiennaX przyjmuje warto´sci nieujemne i E(X) = 0, to ma

ona rozkład jednopunktowy.

Zało˙zenie, ˙ze zmiennaX przyjmuje tylko warto´sci nieujemne jest istotne we

wnio-sku 1.60. Pokazuje to nast¸epuj¸acy przykład.

Przykład 1.61 Zmienna losowaZ z funkcj¸a g¸esto´sci:

zi -1 1

f (zi) 12 12

ma warto´s´c oczekiwan¸aE(Z) = 0.

1.11.3

Warto´

c oczekiwana rozkładu zero-jedynkowego

Warto´s´c oczekiwana zmiennejX z rozkładem zero-jedynkowym wynosi E(X) = 0q + 1p = p

1.11.4

Warto´

c oczekiwana rozkładu dwumianowego

Twierdzenie 1.62 Warto´s´c oczekiwana zmiennej losowejX maj¸acej rozkład

dwumiano-wy z długo´sci ˛a seriin i prawdopodobie´nstwem sukcesu p wynosi E(X) = np.

Dowód: Jak zauwa˙zyli´smy w podrozdziale 1.10 zmiennaX jest sum ˛a n zmienych o

rozkładzie zero-jedynkowymX =Pn

i=1Xi. Warto´s´c oczekiwana, ka˙zdej ze zmiennych

(26)

1.11.5

Warto´

c oczekiwana liczby ró˙znokolorowych kraw˛edzi

Policzymy teraz warto´s´c oczekiwan ˛a zmiennejX okre´slaj ˛acej liczb˛e ró˙znokolorowych kraw˛edzi w grafieG = (V, E) z n =|V | wierzchołkami (przykład 1.43). W tym celu dla

ka˙zdej kraw¸edzie ={u, v} ∈ EGokre´slmy zmienn¸a losow¸aXew nast¸epuj¸acy sposób:

Xe(ω) =

 

1, je˙zeli w kolorowaniu ω oba ko´nce kraw¸edzi e

maj¸a ró˙zne kolory,

0, w przeciwnym przypadku.

W przykładzie 1.22 pokazano, ˙ze prawdopodobie ´nstwo tego, ˙ze dowolna kraw˛ed´z ma ko´nce w ró˙znych kolorach wynosi 12, czyliE(Xe) = 12.

Zauwa˙zmy teraz, ˙ze

X = X

e∈EG

Xe. Rzeczywi´scie dla dowolnego kolorowaniaω suma X =P

e∈EGXe(ω) jest równa liczbie kraw˛edzi; dla którychXe(ω) = 1, czyli liczbie kraw˛edzi z róznymi kolorami na ko ´ncach. Tak wi˛ec mamy

E(X) = X

e∈EG

E(Xe) =m

2.

E(X), czyli ´srednia liczba ró˙znokolorowych kraw¸edzi w kolorowaniu mo˙ze by´c

obliczo-na bez u˙zywania terminologii rachunku prawdopodobie ´nstwa. Policzmy ile we wszyst-kich kolorowaniach jest ró˙znokolorowych kraw¸edzi. Z jednej strony jest to

X

ω∈Ω

(liczba ró˙znokolorowych kraw¸edzi w kolorowaniu ω).

Z drugiej strony

X

e∈EG

(liczba kolorowa´n, w których kraw¸ed´z e jest ró˙znokolorowa) = X

e∈EG

2n−1= m·2n−1.

Przedostatnia równo´s´c wynika z tego, ˙ze liczba kolorowa ´n, w któryche jest

ró˙znoko-lorowa wynosi2n−1(połowa wszystkich). ´Srednia liczba ró˙znokolorowych kraw¸edzi w kolorowaniu wynosi wi¸ec

m· 2n−1

2n =

m 2.

1.11.6

Własno´

sci warto´

sci oczekiwanej c.d.

Cz˛esto wykorzystywana własno´s´c warto´sci oczekiwanej mówi, ˙ze zawsze istnieje przy-najmniej jedna warto´s´c mniejsza od lub równa warto´sci ´sredniej oraz warto´s´c wi¸eksza od lub równa ´sredniej.

Lemat 1.63 Dla ka˙zdej zmiennej losowejX istnieje zdarzenie elementarne ω∈ Ω takie,

˙zeP (ω) > 0 oraz X(ω)≥ E(X).

(27)

1.12. Nierówno´s´c Markowa 27

Dowód: Udowodnimy tylko pierwsz¸a cz¸e´s´c twierdzenia, drug¸a mo˙zna udowodni´c w po-dobny sposób. Przypu´s´cmy, ˙ze dla ka˙zdegoω ∈ Ω z dodatnim prawdopodobie´nstwem

mamyX(ω) < E(X). Ale to prowadzi do sprzeczno´sci

E(X) =X ω∈Ω X(ω)· P (ω) < X ω∈Ω E(X)· P (ω) = E(X)X ω∈Ω P (ω) = E(X). 2

Przykład 1.64 Wierzchołki dowolnego grafu mo˙zna pokolorowa´c dwoma kolarami

(bia-łym i czarnym) w taki sposób, ˙ze przynajmniej połowa kraw¸edzi ma swoje ko´nce w ró˙z-nych kolorach. NiechX oznacza liczb˛e ró˙znokolorowych kraw˛edzi w grafie. W

podroz-dziale 1.11.5 pokazano, ˙ze warto´s´c oczekiwana zmiennejX wynosi m

2, czyli musi istnie´c

kolorowanie z co najmniej połow ˛a ró˙znokolorowych kraw˛edzi.

1.12

Nierówno´s´c Markowa

Twierdzenie 1.65 (Nierówno´s´c Markowa) Je˙zeli zmienna losowaX przyjmuje waret´sci

nieujemne, to dla dowolnej liczby rzeczywistejd > 0 P (X≥ d) ≤ E(X) d . Dowód: E(X) =X x x· P (X = x) =X x≥d x· P (X = x) +X x<d x· P (X = x) ≥ X x≥d x· P (X = x) ≥X x≥d d· P (X = x) = dX x≥d P (X = x) = d· P (X ≥ d),

czyliE(X)≥ d · P (X ≥ d). Po podzieleniu tej nierówno´sci stronami przez d

otrzymu-jemy tez˛e twierdzenia. 2

Zauwa˙zmy, ˙ze nierówno´s´c Markowa jest u˙zyteczna tylko kiedyd > E(X). Je˙zeli

bowiemd≤ E(X), to mamy trywialne oszacowanie P (X ≥ d) ≤ 1 ≤ E(X)d .

Przykład 1.66 Nierówno´s´c Markowa wyra˙za do´s´c prosty fakt. Przypu´s´cmy, ˙zeX okre´sla

liczb¸e pieni¸edzy posiadan¸a przez studenta. Je˙zeli warto´s´c ´srednia zmiennejX wynosi 100

złotych, to tylko połowa studentów mo˙ze mie´c 200 lub wi¸ecej złotych. Przypu´s´cmy bowiem ˙ze0.5 +  cz¸e´s´c studentów posiada 200 (lub wi¸ecej) złotych. Wtedy udział tej bogatej

cz¸e´sci studentów w ´sredniej wynosi co najmniej200· (0.5 + ) = 100 + 200 ·  > 100, i

warto´s´c ´srednia nie mo˙ze wynosi´c 100 złotych, je˙zeli zmiennaX nie przyjmuje warto´sci

(28)

Przykład 1.67 Niech zmienna losowaX posiada rozkład dwumianowy z długo´sci ˛a serii

n = 1000 oraz prawdopodobie´nstwem sukcesu p = 12. Spróbujmy oszacowa´c prawdo-podobie´nstwoP (X ≥ 600). Warto´s´c oczekiwana E(X) = np = 500. Z nierówno´sci

Markowa otrzymamy oszacowanie

P (X ≥ 600) ≤500600 =5 6.

Oszacowanie to jest bardzo grube. Zauwa˙zmy, ˙zeP (X ≥ 500) = 1

2, poniewa˙z rozkład

jest symetrycznyP (X = k) = P (X = 1000− k) dla ka˙zdego k.

1.13

Wariancja

Definicja 1.68 Wariancj¸a zmiennej losowejX o warto´sci oczekiwanej E(X) = mX

nazywamy liczb¸e

V ar(X) = E((X− mX)2)

WariancjaV ar(X) jest miar¸a tego jak bardzo warto´sci zmiennej X s¸a oddalone od

´sred-niej. Im wi¸eksze rozrzucenie warto´sci tym wi¸eksza wariancja. W poni˙zszym twierdzeniu zebrano podstawowe własno´sci wariancji

Twierdzenie 1.69 a) V ar(X)≥ 0.

b) V ar(X) = E(X2)− m2 X

c) V ar(aX) = a2V ar(X).

d) Je˙zeli zmienneX i Y s¸a niezale˙zne, to V ar(X + Y ) = V ar(X) + V ar(Y ).

e) Je˙zeli zmienneX1, . . . , Xks¸a parami niezale˙zne, to

V ar k X i=1 Xi = k X i=1 V ar(Xi) Dowód:

a)wynika z faktu, ˙ze zmienna(X− mX)2przyjmuje tylko nieujemne warto´sci,

b)V ar(X) = E((X− mX)2) = E(X2− 2mX· X + m2X) = E(X2)− 2mXE(X) +

m2

X= E(X2)− 2m2X+ m2X= E(X2)− m2X

c)V ar(aX) = E(aX− E(aX))2= E(a2(X

− EX)2) = a2V ar(X).

d)Pami˛etajmy, ˙zeE(X + Y ) = mX+ mY. Mamy

(X+Y−E(X+Y ))2= (X−mX+Y−mY)2= (X−mX)2+(y−mY)2+2(X−mX)(Y−mY) czyli

(29)

1.13. Wariancja 29

Przedstatnia równo´s´c wynika z faktu, ˙ze na podstawie lematu 1.52 zmienneX−mXoraz

Y − mY s ˛a niezale˙zne, a ostatnia równo´s´c z faktu, ˙zeE(X− mX) = mX− mX= 0.

e)Podobnie jak w przypadku d) korzystaj ˛ac z faktu, ˙ze k X i=1 Xi− k X i=1 mXi 2 = k X i=1 (Xi− mXi) 2+ 2 k X i=1 k X j=i+1 (Xi− mXi)(Xj− mXj)

oraz z faktu, ˙ze zmienneX1− mX1, .... ,Xk− mXks ˛a parami niezale˙zne. 2

1.13.1

Wariancja rozkładu jednopunktowego

Wariancja zmiennej losowejX z rozkładem jednopunktowym wynosi V ar(X) = E(X2)− (E(X))2= m2− m2= 0.

Ale i na odwrót

Lemat 1.70 Je˙zeliV ar(X) = 0, to zmienna losowa X posiada rozkład jednopunktowy.

Dowód: Poniewa˙zV ar(X) = E((X− mX)2) = 0, to z lematu 1.60 wynika, ˙ze 1 =

P (X− mX = 0) = P (X = mX). 2

1.13.2

Wariancja rozkładu zero-jedynkowego

Je˙zeliX ma rozkład zero-jedynkowy to jego wariancvja wynosi

V ar(X) = E(X2)− (E(X))2= p− p2= p(1− p) = pq.

1.13.3

Wariancja rozkładu dwumianowego

Je˙zeli zmienna losowaX ma rozkład dwumianowy, to jest sum ˛aX = Pn

i=1Xi nieza-le˙znych zmiennychXi o rozkładach zero-jedynkowych. Wariancja ka˙zdej zmiennejXi wynosiV ar(Xi) = pq. Wariancja ich sumy wynosi npq, mamy wi¸ec.

Twierdzenie 1.71 Wariancja zmiennej losowejX z rozkładem dwumianowym z

długo-´sci ˛a seriin i prawdopodobie´nstwem sukcesu p wynosi V ar(X) = npq.

1.13.4

Wariancja liczby ró˙znokolorowych kraw˛edzi

Obliczmy variancj˛e zmiennej losowejX oznaczaj ˛acej liczb˛e kraw˛edzi dwukolorowych w kolorawaniu grafuG (patrz podrozdział 1.11.5). Najpierw zauwa˙zmy, ˙ze zmienne losowe Xes ˛a parami niezale˙zne. Dokładniej, je˙zelie1ie2s ˛a dwoma ró˙znymi kraw˛edziami grafu

G, to zmienne Xe1iXe2 s ˛a niezale˙zne. Nieche1 ={u1, v1} i e2={u2, v2}. Poniewa˙z kraw˛edzie s ˛a ró˙zne, to mog ˛a mie´c tylko jeden wspólny koniec. Załó˙zmy, ˙ze wierzchołek

(30)

v2 ∈ e/ 1. W przykładzie 1.6.2 pokazali´smy, ˙ze jednostajny rozkład pokolorowa ´n otrzy-mamy koloruj ˛ac po kolei wierzchołki niezale˙znie i ze stałym prawdopodobie ´nstwem: 12 dla koloru białego i12 dla czarnego. Mo˙zemy oczywi´scie zało˙zy´c, ˙ze wierzchołekv2jest kolorawny ostatni. Łatwo teraz zauwa˙zy´c, ˙ze przy jednym wyborze koloru dlav2mamy

Xe1 = Xe2, a przy drugimXe1 6= Xe2. Ł ˛aczny rozkład przwdopodobie ´nstwa zmiennych

Xe1iXe2wygl ˛ada wi˛ec nast˛epuj ˛aco:

Xe2

0 1

Xe1 0 1/4 1/4

1 1/4 1/4

czyli zmienne te s ˛a niezałe˙zne.

Dla ka˙zdej kraw˛edzie mamy V ar(Xe) = 14 i na podstawie twierdzenia 1.69e mamy

V ar(X) = m 4.

Zauwa˙zmy, ˙ze cały komplet zmiennychXedla wszystkich kraw˛edzi grafu nie musi by´c niezale˙zny. Na przykład, je˙zeli trzy kraw˛edziee1,e2ie3tworz ˛a trójk ˛at, to zmienne

Xe1,Xe2, Xe3 nie s ˛a niezale˙zne. Rzeczywi´scie, je˙zeli Xe1(ω) = Xe2(ω) = 0, to w kolorowaniuω ko´nce obu kraw˛edzi e1ie2maja taki sam kolor, ale wtedy, tak˙ze ko ´nce kraw˛edzie3s ˛a w tym samym kolorze iXe3(ω) = 0.

1.14

Nierówno´s´c Czebyszewa

Twierdzenie 1.72 (Nierówno´s´c Czebyszewa) Dla zmiennej losowejX z warto´sci¸a oczekiwan¸a E(X) = mXoraz liczby rzeczywistej > 0 mamy

P (|X − mX| ≥ ) ≤

V ar(X) 2 . Dowód: Rozwa˙zmy zmienn¸a losow¸aY = X− mX. Poniewa˙z

|Y (ω)| ≥  ⇔ Y2(ω)

≥ 2, to

P (|Y | ≥ ) = P (Y2≥ 2).

Stosuj¸ac nierówno´s´c Markowa dla zmiennejY2mamy

P (|Y | ≥ ) = P (Y2≥ 2)E(Y

2)

2 ale

E(Y2) = E((X− mX)2) = V ar(X)

(31)

1.15. Kra ´nce rozkładu dwumianowego 31

Przykład 1.73 (Kontynuacja przykładu 1.67). Dla zmienneja losowej X z rozkładem

dwumianowy z parametramin = 1000 oraz p = 12 spróbujmy oszacowa´c prawdo-podobie´nstwoP (X ≥ 600). Warto´s´c oczekiwana E(X) = np = 500, a wariancja V ar(X) = npq = 250. Z symetrii rozkładu wynika, ˙ze

P (X≥ 600) = 1

2P (|x − 500| ≥ 100)

i z nierówno´sci Czebyszewa otrzymamy

P (X ≥ 600) ≤1 2· 250 10000= 1 80 = 0.0125.

1.15

Kra ´nce rozkładu dwumianowego

Dla zmiennej losowejX z rozkładem dwumianowym istniej ˛a oszacowania, które w nie-których przypadkach s ˛a lepsze od nierówno´sci Czebyszewa.

Twierdzenie 1.74 (Nierówno´sci Chernoff’a) Niech zmienna losowaX posiada rozkład

dwumianowy z długo´sci ˛a seriin i prawdopodobie´nstwem sukcesu p. Oznaczmy warto´s´c

oczekiwan¸a tego rozkładu przezm = np. Wtedy dla dowolnej liczby rzeczywistej , 0 ≤ 1, mamy

P (X ≥ (1 + )m) ≤ e−2m/3

oraz

P (X ≤ (1 − )m) ≤ e−2m/2

Przykład 1.75 Je˙zeli zastosujemy pierwsz ˛a nierówno´s´c Chernoffa do przykładu 1.73, to otrzymamy oszacowanie

P (X≥ 600) = P (X ≥ (1 +15)500)≤ e−20/3

7861

Je˙zeli skorzystamy z symetrii rozkładu i z drugiej nierówno´s´c Chernoffa, to otrzymamy du˙zo lepsze oszacowanie

P (X ≥ 600) = P (X ≤ 400) ≤ P (X ≤ (1 −15)500)≤ e−10

220271

1.16

Problem dnia urodzin

Przypu´s´cmy, ˙ze na przyj˛eciu jestk osób. Wtedy prawdopodobie ´nstwo, ˙ze nowo przybyła

osoba ma urodziny tego samego dnia, co jaka´s z osób ju˙z obecnych jest nie wi˛eksze ni˙z k

365. Tak wi˛ec,k musi by´c wi˛eksze ni˙z 365

2 , aby prawdopodobie ´nstwo to przekroczyło 1 2. Zastanówmy si¸e teraz ile osób musi znajdowa´c si¸e w pokoju, aby była du˙za szansa (wi˛eksza od12), ˙ze dwie osoby maj¸a urodziny tego samego dnia.

Dla prostoty przyjmujemy, ˙ze problem dnia urodzin jest równowa˙znu problemowi wylosowania ci¸aguk liczb u1, . . . , uk, ka˙zda spo´sród n = 365 mo˙zliwo´sci, tak aby wyst¸apiło w nim jakie´s powtórzenie.

(32)

Oznaczmy przezBkzdarzenie przeciwne, ˙ze wszystkie wylosowane liczby s¸a ró˙zne. Je˙zeli zało˙zymy, ˙ze wszystkie ci¸agi s¸a równo prawdopodobne, to prawdopodobie ´nstwo, ˙ze otrzymamy ci¸ag ró˙znowarto´sciowy wynosi

P (Bk) = n(n− 1) · · · (n − k + 1) nk = 1· ( n− 1 n )· ( n− 2 n )· · · ( n− k + 1 n ) = = 1· (1 − 1 n)· (1 − 2 n)· · · (1 − k− 1 n ).

Skorzystamy teraz z nierówno´sci1 + x≤ ex

P (Bk)≤ e−1e−2· · · e−(k−1)= e− Pk−1

i=1i=

= e−k(k−1)/2n≤ e−(k−1)(k−1)/2n= e−(k−1)2/2n. Prawdopodobie ´nstwo to jest mniejsze od 12 wtedy gdy(k− 1)2

≥ 2n ln 2, a to zachodzi

wtedy gdyk≥ 1 +√2 ln 2√n. Dla n = 365, zachodzi to dla k≥ 24.

Tak wi¸ec je´sli w pokoju znajduj¸a si¸e co najmniej 24 osoby, to z prawdopodobie ´nstwem wi¸ekszym od 12dwie spo´sród nich maj¸a urodziny w tym samym dniu.

1.17

Algorytmy probabilistyczne

Algorytmy probabilistyczne to algorytmy, które w trakcie obliczenia dokonuj ˛a losowych wyborów. Prze´sledzimy teraz kilka prostych przykładów.

1.17.1

Algorytm z jednostronnym bł˛edem

Wyobra˙zmy sobie, ˙ze mamy urny z kulami. Urny s ˛a dwojakiego rodzaju. Urny pierwszego rodzaju zawieraj ˛a wył ˛acznie kule białe. W urnach drugiego rodzaju s ˛a kule białe i czarne po połowie. Celem algorytmu jest rozpoznanie jakiego rodzaju jest dana urna. Zakładamy przy tym, ˙ze nie mo˙zemy obejrze´c wszystkich kul z urny.

Nasz pierwszy algorytm polega na wylosowaniu jednej kuli z danej urny. Je˙zeli wy-losowana kula jest biała, to orzekamy, ˙ze urna jest pierwszego rodzaju, a je˙zeli kula jest czarna, to orzekamy, ˙ze urna jest drugiego rodzaju.

Je˙zeli urna naprawd˛e jest pierwszego rodzaju, to nasz algorytm na pewno, z prawdo-podobie´nstwem równym 1 da poprawn ˛a odpowied´z. Je˙zeli natomiast urna jest drugiego rodzaju, to poprawn ˛a odpowied´z uzyskamy z prawdopodobie ´nstwem równym12.

Prawdopodobie ´nswto bł˛edu mo˙zna zmniejszy´c powtarzaj ˛ac losowanie kilka razy. Drugi algorytm składa si˛e zt rund. W ka˙zdej rundzie losujemy jedn ˛a kul˛e i po obej-rzeniu zwracamy j ˛a spowrotem do urny. Je˙zeli w które´s rundzie wylosowano kul˛e czarn ˛a, to algorytm orzeka, ˙ze urna jest drugiego rodzaju. Je˙zeli we wszystkich losowaniach wy-padła kula biała, to algorytm orzeka, ˙ze urna jest pierwszego rodzaju. Je˙zeli urna jest pierwszego rodzaju, to drugi algorytm na pewno da poprawn ˛a odpowied´z. Je˙zeli urna jest drugiego rodzaju, to bł ˛ad popełnimy wtedy, gdyt razy z rz˛edu wylosujemy kul˛e biał ˛a. Zakładaj ˛ac, ˙ze losowania kul s ˛a niezale˙zne, prawdopodobie ´nstwo bł˛edu wynosi 21t.

Z sytuacj ˛a podobn ˛a do rozpoznawania urn mamy cz˛esto do czynienia w algorytmach probabilistycznych. Poka˙zemy teraz jeden z nich.

(33)

1.17. Algorytmy probabilistyczne 33

Przykład 1.76 Przypu´s´cmy, ˙ze mamy trzy wielomianyP (x), Q(x) i R(x) i mamy

spraw-dzi´c, czyR(x) = P (x)· Q(x), zachodzi dla ka˙zdego rzeczywistego x. Załó˙zmy, ˙ze P (x) i Q(x) s ˛a stopnian, a R(x) jest stopnia 2n.

Jednym ze sposobów jest pomno˙zenie wielomianówP (x) i Q(x) i porównanie

współ-czynników iloczynu z wielomianemR(x). Ta metoda wymaga około n2mno˙ze´n. Przed-stawimy teraz szybszy algorytm probabilistyczny sprawdzaj ˛acy, czy dwa wielomiany s ˛a dobrze wymno˙zone.

Algorytm probabilistyczny sprawdzaj ˛acy mno˙zenie wielomianów.

Dane wej´sciowe: trzy wielomiany:P (x), Q(x) oraz R(x).

Dane wyj´sciowe: odpowied´z TAK, je˙zeli wielomianyP (x)· Q(x) oraz R(x) s ˛a równe; odpowied´z NIE, je˙zeli wielomianyP (x)· Q(x) oraz R(x) nie s ˛a równe.

• losuj liczb˛e naturaln ˛a x0z przedziału od0 do 4n,

• oblicz waro´sci u0= P (x0), v0= Q(x0) oraz w0= R(x0).

• porównaj w0z iloczynemu0· v0. Je˙zeliw06= u0· v0, to orzekaj, ˙zeP (x)· Q(x) 6=

R(x). Je˙zeli w0= u0· v0, to orzekaj, ˙zeP (x)· Q(x) = R(x).

W rozdziale pierszym pokazano, ˙ze warto´s´c wielomianuP (x) stopnia n w punkcie x0

mo˙zna obliczy´c w czasie proporcjonalnym don.

Je˙zeli równo´s´cP (x)· Q(x) = R(x) jest to˙zsamo´sci ˛a, to dla ka˙zdej wylosowanej warto´scix0otrzymamyP (x0)· Q(x0) = R(x0), czyli nasz algorytm udzieli poprawnej

odpowiedzi z prawdopodobie´nstwem równym 1. Je˙zeliP (x)· Q(x) = R(x) nie jest

to˙z-samo´sci ˛a, to wielomianW (x) = P (x)· Q(x) − R(x) nie jest to˙zsamo´sciowo równy 0,

i algorytm mo˙ze wylosowa´cx0, które jest pierwiastkiem wielomianuW (x), i da´c bł˛edn ˛a

odpowied´z. Ale jak pokazano w rozdziale pierwszym wielomian stopnia2n nie ma wi˛ecej

ni˙z2n pierwiastków, wi˛ec prawdopodobie´nstwo bł˛edu jest nie wi˛eksze ni˙z 12.

1.17.2

Algorytmy z bł˛edem obustronnym

W przykładach z poprzedniego podrozdziału tylko jedna z odpowiedzi typu TAK/NIE mo˙ze by´c udzielana bł˛ednie. Czasami mamy do czynienia z sytuacj ˛a kiedy bł˛edy s ˛a mo˙z-liwe w obu przypadkach.

Przykład 1.77 Wyobra˙zmy sobie teraz, ˙ze oba rodzaje urn zawieraj ˛a kule białe i czar-ne. Urny pierwszego rodzaju zawieraj ˛a 23 kul białych i 13 kul czarnych, a urny drugiego rodzaju zawieraj ˛a13kul białych i23 kul czarnych.

Jak poprzednio algorytm losuje jedn ˛a kul˛e i orzeka ˙ze urna jest pierwszego rodzaju, je˙zeli wylosuje kul˛e biała, oraz orzeka, ˙ze urna jest drugiego rodzaju, je˙zeli wylosuje ku-l˛e czarn ˛a. Algorytm mo˙ze teraz popełni´c bł ˛ad w obu przypadkach. Pradwopodobie´nstwo złej odpowiedzi wynosi 13. Aby zmniejszy´c prawdopodobie´nstwo bł˛edu losujemy ze zwra-caniemt razy. Je˙zeli wi˛ecej było kul białych, to algorytm orzeka, ˙ze urna jest pierwszego

Obraz

Rysunek 1.1: Prawdopodobie ´nstwo całkowite
Rysunek 1.2: B 23 BB12 BC12 C13CB1 CC0
Rysunek 1.3: Trzykrotny rzut symetryczn ˛ a monet ˛ a
Rysunek 1.4: Trójk ˛ at a
+2

Cytaty

Powiązane dokumenty

Warto´ s´ c oczekiwana zmiennej losowej X = liczba E(X) b¸ed¸ aca ´srednia wa˙zon¸ a rozk ladu prawdopodobie´ nstwa przy za lo˙zeniu, ˙ze wag¸ a jest prawdopodobie´ nstwo

[r]

Oblicz prawdopodobie´ nstwo, ˙ze co najmniej jedna z trzech losowo wybranych os´ ob obchodzi urodziny w tym samym dniu co i Ty.. Jakie jest prawdopodobie´ nstwo, ˙ze spotkam

Rzucamy dwa razy

Zad. Losujemy kolejno 2 kule nie zwracaj¸ ac ich do szuflady. Z cyfr na wylosowanych kulach tworzymy liczby dwucyfrowe. Czego jest wi¸ecej: r´ o˙znych paczek z lo˙zonych z 10

Zak ladaj¸ ac, ˙ze pasa˙zerowie wysiadaj¸ a na losowo wybranych pi¸etrach, obliczy´ c prawdopodobie´ nstwo, ˙ze wszyscy m¸e˙zczy´ zni wysi¸ ad¸ a na pi¸etrach o

7.2 Zmienna losowa ma rozk lad geometryczny z parametrem p.. 7.7 Zmienna losowa ma rozk lad wyk

Poka», »e rozkªad praw- dopodobie«stwa µ mo»e mie¢ co najwy»ej przeliczaln¡ liczb¦ punktów