Konspekt ze statystyki Maciej Wilczyński

146  Download (0)

Pełen tekst

(1)

Konspekt ze statystyki

Maciej Wilczyński

1

(2)

1 Prawdopodobieństwo

Bardzo często podejmujemy decyzję, nie wiedząc, co się stanie w przyszłości:

1. Czy zainwestować pieniądze na giełdzie?

2. Czy ubezpieczyć laptop przed uszkodzeniami mechanicznymi?

3. Czy wykupić wycieczkę do Sharm el-Sheikh?

4. Czy otworzyć pizzerię na terenie campusu uczelni?

Każdej z tych decyzji towarzyszy niepewność, inaczej mówiąc losowość. Na giełdzie może nastąpić krach, a w czasie naszego pobytu Sharm el-Sheikh może dojść do zamachu terrostycznego, itd. Z oczywistych powodów chcieli- byśmy wiedzieć, czy dojdzie do takich zdarzeń. Rachunek prawdopodo- bieństwa umożliwia oszacowywanie szans wystąpienia tego typu zdarzeń, zwanych zdarzeniami losowymi. Za jego pomocą możemy, na przykład, obliczyć jakie są szanse tego, że

1. skreślimy szóstkę w totolotku, 2. dożyjemy do osiemdziesiątki;

3. kobieta, u której test ciążowy dał wynik pozytywny, faktycznie spo- dziewa się dziecka;

4. kobieta, u której test ciążowy dał wynik negatywny, faktycznie nie spo- dziewa się dziecka.

Początki rachunku prawdopodobieństwa:

1. 1663 rok - wydano napisaną ponad 100 lat wcześniej książkę, w któ- rej Girolamo Cardano przeanalizował szanse wygranej w niektórych grach hazardowych (w szczególności w grze w kości).

2. 1812 rok - Pierre Simon de Laplace sformułował klasyczną definicję prawdopodobieństwa.

3. 1930 - Andrey Kolmogorov sformalizował matematyczne aspekty ra- chunku prawdopodobieństwa, a w szczególności podał aksjomaty, które powinno spełniać prawdopodobieństwo.

Zastosowania rachunku prawdopodobieństwa:

1. Analiza gier hazardowych - Texas hold’em, oczko, kości;

2. Genetyka - prawa Mendla (teoria dziedziczności);

3. Informatyka - badanie złożoności obliczeniowej algorytmów;

4. Metody numeryczne - konstrukcja algorytmów stochastycznych, za pomocą których znajduje się największą (najmniejszą) wartość funkcji na ustalonym zbiorze.

5. Ubezpieczenia - szacowanie liczby wypadków komunikających, które wydarzą się w ustalonym okresie w przyszłości oraz szacowanie prze- ciętnej wartości szkody komunikacyjnej. Obi te wielkości wykorzystuje się do skalkulowania składki.

2

(3)

1.1 Przestrzeń zdarzeń elementarnych

Definicja 1. Doświadczenie losowe to takie doświadczenie, którego wyniku nie da się przewidzieć, a które można wielokrotnie powtarzać w tych samych warunkach (rzut monetą, rzut kostką, gry hazardowe, totolotek).

Definicja 2. Przestrzeń zdarzeń elementarnych to zbiór Ω zawierający wszyst- kie możliwe wyniki doświadczenia. Każdy podzbiór A ∈ Ω nazywamy zdarze- niem losowym. Zdarzenie elementarne, to zdarzenie losowe, którego nie da się przedstawić w postaci sumy prostszych zdarzeń.

Podsumowanie: Zbiór Ω zawiera wszystkie możliwe wyniki doświadcze- nia losowego. Wykluczają się one wzajemnie, zaś w każdym doświadczeniu realizuje się dokładnie jeden wynik, czyli zdarzenie elementarne.

Przykłady:

1. Rzucamy jeden raz kostką. Mamy sześć możliwych wyników. Ω = {1, 2, 3, 4, 5, 6}.

(a) Zdarzenie A = {4} -wypadła 4 jest elementarne, bo nie można go przedstawić jako sumy dwóch prostszych zdarzeń.

(b) Zdarzenie B = {2, 4, 6} -wypadła liczba parzysta nie jest elemen- tarne, bo można je przedstawić w postaci sumy trzech zdarzeń elementarnych C = {2; }, D = {4},E = {6}.

2. Rzucamy dwa razy monetą. Mamy cztery możliwe wyniki:

Ω = {(O, O), (O, R), (R, O), (R, R)}.

3. Gramy w totolotka tak długo, aż trafimy szóstkę. Interesuje nas to, za którym razem to się stanie. Możliwych wyników jest teraz nie- skończenie wiele, bo przed pojawieniem się pierwszej szóstki, może być dowolnie wiele zakładów, w których skreślimy inny układ. Oczywiście, Ω = {1, 2, . . .}

4. Mierzymy czas jaki mija od dnia zakupu nowego auta do chwili pierw- szej awarii. Ponieważ samochód może się zepsuć w dowolnym momen- cie, Ω = [0, ∞).

1.1.1 Statystyczna regularność

Rozważmy najprostsze doświadczenie losowe jakim jest rzut symetryczną mo- netą. Przed jego wykonaniem nie jesteśmy w stanie przewidzieć, czy wypad- nie orzeł, czy też reszka. Przebiegiem tego prostego doświadczenia losowego rządzi jednak pewna prawidłowość, której efektem jest następujący fakt: jeśli wielokrotnie rzucimy monetą, to w około połowie rzutów pojawi się orzeł.

Statystyczna regularność: Wraz ze wzrostem liczby powtórzeń doświad- czenia losowego, stabilizuje się częstość pojawiania się każdego z możli- wych wyników tego doświadczenia.

3

(4)

Ta statystyczna regularność, znana hazardzistom od setek lat, oznacza, że jesteśmy w stanie przewidzieć, jaki będzie średni wynik uzyskany w dużej liczbie powtórzeń tego samego doświadczenia losowego.

Przykłady:

1. W 12000 rzutów symetryczną kostką każdy z sześciu możliwych wyni- ków pojawi się około 2000 razy.

2. W 1000 rzutów parą symetrycznych monet każdy z czterech możliwych wyników (O, O), (O, R), (R, O), (R, R) pojawi się około 250 razy.

3. Jeśli 370 razy zagramy w ruletkę, za każdym razem obstawiając jedną z 37 liczb znajdujących się na kole (niekoniecznie tę samą), to wygramy około 10 razy.

1.2 Przypomnienie podstawowych faktów o zbiorach

1.2.1 Pojęcie zbioru

1. Intuicyjnie, zbiór to pojemnik, który może mieścić dowolne obiekty zwane elementami zbioru, np.

(a) zbiór wszystkich studentów PWr,

(b) zbiór tych mieszkańców Wrocławia, którzy są zwolennikami PiS, (c) zbiór liczb całkowitych.

2. Zbiory oznaczamy zwykle wielkimi literami: A, B, C,... a elementy zbiorów małymi: a, b, c, ....

3. Zdanie „a jest elementem zbioru A” zapisujemy a ∈ A, a zdanie „a nie jest elementem zbioru A” zapisujemy a /∈ A.

4. Zbiór nie zawierający żadnego elementu nazywamy zbiorem pustym i oznaczamy ∅.

5. Zbiór możemy określić na dwa sposoby:

• wymieniając wszystkie jego elementy, na przykład:

A = {1, 2, 3},

• podając własność charakterystyczną dla wszystkich elementów zbioru, odróżniającą ją od elementów spoza zbioru, na przykład:

B = {x ∈ R : x < 4 i x > 0},

co czytamy: „B jest zbiorem tych liczb rzeczywistych x, że x jest mniejsze od 4 i x jest większe od 0.

6. Mówimy, że zbiór A jest podzbiorem zbioru B, co zapisujemy A ⊂ B, jeśli każdy element A jest jednocześnie elementem B.

Przykład: Dla A = {1, 2, 3}, B = {1, 2, 3, 4, 5} i C = {2, 3, 5} A jest podzbiorem B, ale nie jest podzbiorem C.

Uwaga: Jeśli A ⊂ B i B ⊂ A, to A = B. Jeśli A ⊂ B i B ⊂ C, to A ⊂ C.

4

(5)

1.2.2 Działania na zbiorach

Niech A i B będą dwoma podzbiorami pewnego zbioru Ω.

1. Suma zbiorów A i B (zapis symboliczny A ∪ B) to zbiór wszystkich elementów, które należą do zbioru A lub należą do zbioru B lub należą do A i B.

2. Iloczyn zbiorów A i B (zapis symboliczny A ∩ B) to zbiór wszystkich elementów, które należą do zbioru A i jednocześnie należą do zbioru B.

Inne nazwy iloczynu to część wspólna, przekrój. Jeśli A ∩ B = ∅, to mówimy, że zbiory A i B są rozłączne.

3. Różnica zbiorów A i B (zapis symboliczny A\B) to zbiór zawierający te elementy zbioru A, które nie należą do zbioru B.

4. Dopełnienie zbioru A do zbioru Ω (zapis symboliczny Ac, A0. A) to zbiór zawierający te elementy zbioru Ω, które nie należą do A.

Rysunek 1: Suma zbiorów A i B.

5

(6)

Rysunek 2: Iloczyn i różnica zbiorów A i B.

Przykład: Dla A = {1, 2, 3} i B = {3, 4, 5, 6} i Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9}

mamy A ∪ B = {1, 2, 3, 4, 5, 6}, A ∩ B = {3}, A \ B = {1, 2}, A = {4, 5, 6, 7, 8, 9}.

6

(7)

Rysunek 3: Dopełnienie zbioru A.

1.3 Prawdopodobieństwo

Niech A będzie ustalonym podzbiorem zbioru Ω. Jeśli doświadczenie losowe zakończy się wynikiem ω i ω ∈ A, to mówimy, że zaszło zdarzenie A. Gdy zaś ω /∈ A, to mówimy, że nie zaszło zdarzenie A.

Definicja 3. Dla dowolnego A ⊂ Ω, prawdopodobieństwo zdarzenia lo- sowego A to liczba P (A), która podaje szanse zajścia zdarzenia A.

Przykłady:

1. Jakie są szanse wygranej w pojedynczej partii ruletki?

2. Jakie są szanse, że w trzech rzutach monetą wypadną trzy reszki?

3. Jakie są szanse skreślenie szóstki w totolotku?

4. Jakie są szanse, że mężczyna mający 50 lat dożyje do osiemdziesiątki?

1.3.1 Interpretacja częstościowa prawdopodobieństwa

Niech nA oznacza liczbę zajść zdarzenia A w n niezależnych powtórzeniach pewnego doświadczenia losowego. Wówczas

P (A) = lim

n→∞

nA

n = lim

n→∞

liczba zajść A w n doświadczeniach n

Uwaga: Liczbę nA

n nazywamy częstością pojawiania się zdarzenia A w n doświadczeniach.

Wnioski:

1. Postać prawdopodobieństwa P zależy od doświadczenia losowego.

7

(8)

2. 0 ≤ P (A) ≤ 1 dla każdego A ⊂ Ω.

3. P (∅) = 0 i P (Ω) = 1, tzn. prawdopodobieństwa zdarzenia niemożli- wego i zdarzenia pewnego są równe 0 i 1.

4. Gdy liczba niezależnych powtórzeń eksperymentu dąży do nieskończo- ności, to względna częstość występowania zdarzenia A dąży do P (A).

Jest to tzw. prawo wielkich liczb.

5. Dla ustalonego (dużego) n, P (A) ≈ nA

n .

Przykład: Jeśli w 10000 rzutów monetą 5044 razy wypadnie orzeł, to za oszacowanie prawdopodobieństwa wyrzucenia orła w pojedynczym rzucie monetą przyjmiemy liczbę 5044

10000 = 0.5044.

Problem: Nigdy nie wyznaczymy w ten sposób dokładnej wartości P (A), jako że liczba powtórzeń doświadczenia zawsze będzie skończona.

1.3.2 Klasyczna definicja prawdopodobieństwa

W praktyce prawdopodobieństwo często ustalamy jako częstość/proporcję grupy posiadającą interesującą nas własność.

Przykład: Na 45-ciu studentów, 15-tu dostało 5.0 z egzaminu. Jakie jest prawdopodobieństwo tego, że losując studenta z tej grupy trafimy na takiego, który dostał 5.0 z egzaminu? Odp. P (A) = 1545.

Kiedy tak można obliczać prawdopodobieństwo?

Definicja 4. (Laplace) Jeśli zbiór Ω jest skończony, a wszystkie zdarzenia elementarne są jednakowo prawdopodobne to dla dowolnego zdarzenia A ⊂ Ω

P (A) = |A|

|Ω|. Przykłady:

1. W urnie są cztery kule niebieskie i pięć czerwonych. Szanse wylosowa- nia niebieskiej: 4

9

2. W rzucie dwoma kostkami szanse uzyskania sumy oczek równej 7 wyno- szą 6

36, bo jest 36 jednakowo prawdopodobnych zdarzeń elementarnych, a sumie 7 sprzyja 6 spośród nich: {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}.

3. Prawdopodobieństwo trafienia szóstki w Totolotku:

p = 1

49 6

 = 1

13983816 = 7.15112 × 10−8,

bo jest 496 = 13983816 jednakowo prawdopodobnych sposobów wybra- nia 6 liczb spośród 49, a tylko jeden z nich sprzyja skreśleniu szóstki.

8

(9)

1.4 Aksjomaty prawdopodobieństwa

Zazwyczaj zbiór Ω nie jest skończony, a nawet jeśli jest, to zdarzenia elemen- tarne nie są jednakowo prawdopodobne. Jakie warunki powinno spełniać prawdopodobieństwo?

Andrey Kolmogorov: Ponieważ prawdopodobieństwo ma służyć do oceny szans zajścia rozmaitych zdarzeń losowych, powinno spełniać te same reguły co częstość występowania zdarzenia przy powtarzaniu doświadczenia. I stąd poniższe trzy aksjomaty:

1. Aksjomaty prawdopodobieństwa: Prawdopodobieństwo Pr to do- wolna funkcja określona na podzbiorach zbioru Ω spełniająca warunki

(a) Pr(A) ∈ [0, 1] dla dowolnego zdarzenia A, (b) Pr(Ω) = 1,

(c) Pr(∪i=1Ai) = P

iPr(Ai) dla dowolnych parami rozłącznych zda- rzeń A1, . . ..

2. Własności prawdopodobieństwa wynikające z aksjomatów (a) Pr(∅) = 0;

(b) Pr(Ac) = 1 − Pr(A);

(c) Jeśli A ⊂ B, to Pr(A) ≤ Pr(B);

(d) Pr(A ∪ B) = Pr(A) + Pr(B) − Pr(A ∩ B);

(e) Pr(A ∪ B) ≤ Pr(A) + Pr(B).

1.5 Przykłady przestrzeni probabilistycznych

1. Ω = {ω1, ω2, . . . , ωn}; p1, . . . , pn nieujemne liczby o sumie 1. Przyjmu- jemy, że pi = Pr({ωi}), 1 ≤ i ≤ n. Wówczas

Pr(A) = X

{i : ωi∈A}

pi.

(a) Tak wygląda opis wszystkich możliwych prawdopodobieństw dla skończonego zbioru Ω.

(b) To, jakie wartości mają liczby p1, p2, . . . , pn, zależy od analizowa- nego doświadczenia losowego.

Szczególny przypadek: Jeśli wszystkie zdarzenia elementarne jed- nakowo prawdopodobne, czyli p1 = p2 = . . . = pn= 1

n, to P (A) = |A|

|Ω|. 2. Ω = {ω1, ω2, . . .}; p1, p2, . . . nieujemne liczby o sumie 1. Przyjmujemy,

że pi = Pr({ωi}), i ≥. Wówczas

Pr(A) = X

{i : ωi∈A}

pi.

9

(10)

(a) Tak wygląda opis wszystkich możliwych prawdopodobieństw dla przeliczalnego nieskończonego zbioru Ω.

(b) To, jakie wartości mają liczby p1, p2, . . ., zależy od analizowanego doświadczenia losowego.

Przykład: Rzucamy symetryczną monetą tak długo, aż wypadnie reszka. Wówczas Ω = {ω1, ω2, . . .}, przy czym dla każdego k = 1, 2, . . ., zdarzenie elementarne ωk oznacza, że reszka wypadła po raz pierwszy w k-tym rzucie. W tym modelu pk = Pr({ωk}) = 1

2k, bo w k rzutach monetą jest 2k możliwych wyników, a tylko jeden z nich sprzyja wyni- kowi ωk = OO, . . . , OR (najpierw k − 1 razy wypada orzeł, a potem pojawia się reszka.

3. Ω - zbiór nieprzeliczalny, a więc zawiera jakiś przedział liczbowy. Jedna z możliwości zdefiniowania prawdopodobieństwa: f - nieujemna funk- cja, taka że R

f (x)dx = 1. Wówczas:

Pr(A) = Z

A

f (x)dx.

Szczególny przypadek: prawdopodobieństwo geometryczne:

(a) Ω ⊂ R, na przykład odcinek: Pr(A) = długość(A) długość(Ω) (b) Ω ⊂ R2, na przykład prostokąt: Pr(A) = pole(A)

pole(Ω);

(c) Ω ⊂ R3, na przykład prostopadłościan: Pr(A) = objętość(A) objętość(Ω); Przykład: Patyk o długość 1 łamiemy losowo w dwóch miejscach.

jakie jest prawdopodobieństwo, że z tak powstałych kawałków można zbudować trójkąt.

Rozwiązanie: Niech x, y oznaczają miejsce pierwszego i drugiego zła- mania. Oczywiście, Ω = {(x, y) ∈ [0, 1] × [0, 1] : 0 < x < y < 1}.

By rozwiązać to zadanie przyjmijmy następujący rozsądny model: dla każdego podzbioru A ∈ Ω

Pr(punkt (x, y) ∈ A jest proporcjonalne do pola zbioru A).

Trzy kawałki patyka mają długości: x, y − x,1 − y. Jeśłi można z nich zbudować trójkąt to x < y −x+1−y, y −x < x+1−y i 1−y < x+y −x, czyli 0 < x < 1/2, 1/2 < y < 1 i y < x + 1/2. Pole tego obszaru jest równe 1/8, a pole Ω to 1/2. Wobec tego:

Pr(z trzech kawałków patyka powstanie trójkąt) = 1/8 1/2 = 1

4.

10

(11)

1.5.1 Podstawowe wzory kombinatoryczne

Do obliczania prawdopodobieństw w modelach, w których wszystkie zdarze- nia elementarne są jednakowo prawdopodobne, przydają się poniższe wzory.

1. Kombinacją k-elementową zbioru n-elementowego nazywamy nieupo- rządkowany k-elementowy podzbiór wyjściowego zbioru n-elementowego.

Innymi słowy: ze zbioru n-elementowego wybieramy k elementów i nie dbamy o ich kolejność.

(a) Jeżeli nie dopuszczamy powtórzeń (tak jak w Lotto), to liczba takich kombinacji bez powtórzeń wynosi

n k



= n!

k!(n − k)!, k = 0, 1, . . . , n;

Uwaga: 0! = 1.

(b) Gdy dopuszczamy możliwość powtórzeń, to liczba takich kombi- nacji z powtórzeniami wynosi

n + k − 1 k



, k = 0, 1, . . .

2. Wariacją k-elementową zbioru n-elementowego nazwamy uporządko- wany ciąg k-elementowy złożony z elementów wyjściowego zbioru n- elementowego.

Innymi słowy: ze zbioru n-elementowego wybieramy k-elementów, jed- nak kolejność wyboru ma znaczenie.

(a) Jeżeli nie dopuszczamy powtórzeń to liczba takich wariacji bez powtórzeń wynosi

n!

(n − k)! = n(n − 1) · . . . · (n − k + 1), k = 0, 1, . . . , n;

Gdy k = n, to mamy do czynienia z permutacją zbioru n-elementowego i liczba takich permutacji wynosi n!.

(b) Gdy dopuszczamy powtórzenia, to liczba takich wariacji z po- wtórzeniami wynosi

nk, k = 0, 1, . . .

Przykład: Kombinacje i wariacje 2-elementowe dla zbioru {1, 2, 3}.

1. kombinacje bez powtórzeń: {1, 2}, {1, 3}, {2, 3},

2. kombinacje z powtórzeniami: {1, 2}, {1, 3}, {2, 3}, {1, 1}, {2, 2}, {3, 3}, 3. wariacje bez powtórzeń: (1, 2), (2, 1), (1, 3), (3, 1), (2, 3), (3, 2),

4. wariacje z powtórzeniami: (1, 2), (2, 1), (1, 3), (3, 1), (2, 3), (3, 2), (1, 1), (2, 2), (3, 3).

11

(12)

2 Prawdopodobieństwo warunkowe

Często obliczamy prawdopodobieństwo zdarzenia A wiedząc, że zaszło pewne inne zdarzenie B. Tak wyznaczone prawdopodobieństwo oznaczamy symbo- lem P (A|B) i nazywamy prawdopodobieństwem warunkowym zdarzenia A pod warunkiem zajścia zdarzenia B.

Przykłady:

1. Szanse dożycia do następnego roku zależą od wieku, płci, trybu życia, przebytych chorób.

2. Szanse, że kierowca będzie miał stłuczkę w następnym roku zależą od jego wieku, rejonu zamieszkania, doświadczenia.

Zajście zdarzenia B może, ale nie musi zmienić prawdopodobieństwo pojawienia się zdarzenia A.

1. W pierwszej urnie same kule białe,a w drugiej same czarne. Rzucamy monetą. Jesli wypadnie orzeł wyciagamy dwie kule z pierwszej urny, a jeśli wypadnie reszka dwie kule z drugiej urny. A - druga z wy- ciągniętych kul jest biała, B- pierwsza z wyciągniętych kul jest biała.

Wówczas Pr(A) = 1/2, ale Pr(A|B) = 1.

2. Rzucamy dwa razy symetryczną monetą. A - orzeł w drugim rzucie, A - orzeł w pierwszym rzucie. Wówczas Pr(A) = Pr(A|B) = 1/2.

Jak obliczać Pr(A|B)? Jeśli wiemy, że zaszło zdarzenie B, to ograniczamy się do zdarzeń elementarnych sprzyjających A i zawartych w B. Intuicja podopowiada, że dla prawdopodobieństwa klasycznego Pr(A|B) jest równe liczbie zdarzeń elementarnych sprzyjających A i zawartych w B, podzielonej przez liczbę wszystkich zdarzeń elementarnych zawartych w B, czyli

Pr(A|B) = |A ∩ B|

|B| = Pr(A ∩ B) Pr(B) . To prowadzi do definicji w ogólnym przypadku:

Definicja 5. Prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, ze zaszło zdarzenie B, gdzie Pr(B) > 0, dane jest wzorem

Pr(A|B) = Pr(A ∩ B) Pr(B) .

Dla B takiego, że Pr(B) = 0, można przyjąć Pr(A|B) = 0.

Examples:

1. String złożony z czterech bitów jest generowany losowo w taki spo- sób, że każda z 16 możliwości jest jednakowo prawdopodobna. Jakie jest prawdopodobieństwo tego, że ten string zawiera co najmniej dwa kolejne 0, jeśli wiadomo, że pierwszy bit jest równy 0?

12

(13)

Rozwiązanie: Niech A oznacza zdarzenie, że string długości 4 zawiera co najmniej dwa kolejne 0, a B - w stringu długości 4 pierwszym bitem jest 0. Oczywiście, A∩B = {0000, 0001, 0010, 0011, 0100}, Pr(A∩B) = 5/16, Pr(B) = 8/16 i

Pr(A|B) = 5/16 8/16.

2. Jakie jest prawdopodobieństwo, że w rodzinie z dwójką dzieci są dwaj chłopcy, jeśli wiadomo, że starsze dziecko jest chłopcem?

Natychmiastową konsekwencją definicji prawdopodobienstwa warunkowego jest poniższe twierdzenie o mnożeniu, które mówi jak obliczyć prawdopodo- bieństwo danego zdarzenia, gdy znamy prawdopodobieństwa warunkowe.

Twierdzenie 1. Jeśli zdarzenia losowe A1, . . . , Anspełniają warunek Pr(A1∩ . . . ∩ An−1) > 0 to

Pr(A1∩ . . . ∩ An) = Pr(A1) Pr(A2|A1) · . . . · Pr(An|A1∩ . . . ∩ An−1).

13

(14)

Przykład. Spośród dorosłych użykowników internetu, czyli takich, którzy mają co najmniej 18 lat , czatuje 47% osób w wieku 18-29 lat, 21% w wieku 30-49 lat i 7% w wieku powyżej 50 lat. Pierwsza grupa wiekowa stanowi 29% dorosłych użytkowników internetu, druga 47%, a trzecia 24%. Jakie jest prawdopodobieństwo zdarzenia C={losowo wybrany dorosły użytkownik internetu korzysta z czatów}? Odpowiemy na to pytanie wykorzystując twierdzenie o mnożeniu. Zdefiniujmy zdarzenie A1 = { losowo wybrany dorosły użytkownik internetu pochodzi z pierwszej grupy wiekowej}.

Analogicznie zdefiniujmy zdarzenia A2 i A3 . Wówczas: P(A1 )=0.29, P(A2 )=0.47, P(A3 )=0.24, a P(C|A1

)=0.47, P(C|A2 )=0.21, P(C|A3 )=0.07 . Obliczamy kolejno:

Prawdopodobieństwo tego, że losowo wybrana osoba czatuje i pochodzi z pierwszej grupy wiekowej jest równe P(A1 i C)= P(A1 ) P(C|A1 )=0.29*0.47=0.1363,

prawdopodobieństwo tego, że losowo wybrana osoba czatuje i pochodzi z drugiej grupy wiekowej jest równe P(A2 i C)= P(A2 ) P(C|A2 )=0.47*0.21=0.0987,

prawdopodobieństwo tego, że losowo wybrana osoba czatuje i pochodzi z trzeciej grupy wiekowej jest równe P(A3 i C)= P(A3 ) P(C|A3 )=0.24*0.07=0.0168.

Prawdopodobieństwo tego, że losowo wybrany dorosły użytkownik internetu korzysta z czatów jest więc równe

P(C)= P(A1 ) P(C|A1 )+ P(A2 ) P(C|A2 )+ P(A3 ) P(C|A3 )=0.1363+0.0987+0.0168=0.2518.

Te obliczenia ilustruje poniższy rysunek. Można z niego także odczytać, jakie jest

prawdopodobieństwo, że losowo wybrany dorosły użytkownik internetu nie korzysta z czatów:

P(CC)= P(A1 ) P(CC|A1 )+ P(A2 ) P(CC |A2 )+ P(A3 ) P(CC |A3 )=0.1537+0.3713+0.2232=0.7482.

(15)

Przykład: 2% populacji zarażone jest wirusem HIV, czyli Pr(Hiv+) = 0.02, a test do wykrywania obecności wirusa ma następujące własności:

1. Jeżeli osoba poddana testowi ma HIV, to prawdopodobieństwo, że test wykryje tę chorobę wynosi 0.997 (prawdziwy dodatni wynik testu, czu- łość), czyli Pr(+|Hiv+) = 0.997.

2. Gdy osoba poddana testowi nie ma HIV, to prawdopodobieństwo wła- ściwej diagnozy wynosi 0.985 (prawdziwy ujemny wynik testu, specy- ficzność), czyli Pr(−|Hiv−) = 0.985.

Wówczas prawdopodobieństwo, że osoba poddana testowi jest chora i test to wykryje jest równe Pr(+ ∩ Hiv+) = Pr(Hiv+) Pr(+|Hiv+)

15

(16)

Przypisując prawdopodobieństwa kolejnym gałęziom i wykorzystując powyższe twierdzenie o mnożeniu, możemy wyznaczyć

prawdopodobieństwa otrzymania wyników: Prawdziwy+, Fałszywy-, Fałszywy+ i Prawdziwy-. Następnie, po dodaniu do siebie

prawdopodobieństw otrzymania wyników Prawdziwy+ i Fałszywy+, obliczamy Pr(+), tzn. prawdopodobieństwo, że test da wynik dodatni.

(17)

2.1 Wzór na prawdopodobieństwo całkowite

Definicja 6. Partycją przestrzeni Ω nazywamy dowolną rodzinę parami roz- łącznych zbiorów B1, . . . , Bn o sumie Ω.

Twierdzenie 2. Jeśłi B1, . . . , Bn jest partycją na zdarzenia o dodatnim prawdopodobieństwie, to dla dowolnego zdarzenia A

Pr(A) =

n

X

i=1

Pr(A|Bi) Pr(Bi).

Przykład: Jakie jest prawdopodobieństwo, że u losowo wybranej osoby test da wynik dodatni? Ze wzoru na prawdopodobieństwo całkowite

Pr(+) = Pr(+|Hiv+) Pr |Hiv+) + Pr(+|Hiv−) Pr |Hiv−)

= 0.997 · 0.02 + (1 − 0.985) · (1 − 0.02) = 0.03464.

2.1.1 Wzór Bayesa

Często znamy wynik doświadczenia losowego, a pytamy o jego przebieg, Twierdzenie 3. Jeśłi B1, . . . , Bn jest partycją na zdarzenia o dodatnim prawdopodobieństwie i Pr(A) > 0, to dla każdego 1 ≤ i ≤ n,

Pr(Bi|A) = Pr(A|Bi) Pr(Bi) Pn

j=1Pr(A|Bj) Pr(Bj) = Pr(A|Bi) Pr(Bi) Pr(A)

Przykład: U losowo wybranej osoby test dał wynik dodatni? Jakie jest prawdopodobieństwo, że ma ona Hiv?

Pr(Hiv + |+) = Pr(+|Hiv+) · Pr(Hiv+)

Pr(+|Hiv+) Pr |Hiv+) + Pr(+|Hiv−) Pr |Hiv−)

= Pr(+|Hiv+) · Pr(Hiv+)

Pr(+) = 0.997 · 0.02

0.03464 = 0.575635.

Wpływ rozkładu a priori: A jakie będzie to prawdopodobieństwo, gdy przyjmiemy, że nie 2% lecz 30% populacji jest zarażona wirusem HIV?

17

(18)

3 Niezależność zdarzeń

Intuicje: Prawdopodobieństwo warunkowe Pr(A|B) jest zazwyczaj różne od Pr(A). Tak się dzieje, gdyż zajście zdarzenia B zazwyczaj dostarcza nam dodatkowej informacji o tym, czy zdarzenie A zajdzie, czy też nie. Jeśli wiedza o tym, że zaszło B nie ma wpływu na prawdopodobieństwo zajścia zdarzenia A, a więc gdy Pr(A|B) = Pr(A), to mówimy, że zdarzenia A i B są niezależne.

Formalna definicja jednego z najważniejszych pojęć rachunku prawdopodo- bieństwa ma postać:

Definicja 7. Zdarzenia A i B są niezależne, gdy Pr(A ∩ B) = Pr(A) Pr(B).

Przykłady:

1. Rzucamy dwa razy symetryczną monetą. A - orzeł w drugim rzucie, B - orzeł w pierwszym rzucie. Wówczas A i B są niezależne.

2. Wybieramy losowo jedną rodzinę spośród rodzin mających n dzieci.

Niech zdarzenie A polega na tym, że w rodzinie jest co najwyżej jedna dziewczynka, a B - w rodzinie są dziewczynki i chłopcy. Zdarzenia A i B są niezależne jedynie dla n = 3.

Uwaga: Zakładamy, że szanse urodzenia chłopca i dziewczynki są takie same.

3.0.1 Niezależność większej liczby zdarzeń

Definicja 8. Zdarzenia A1, . . . , An nazywamy niezależnymi, gdy dla każdego 1 ≤ k ≤ n i dla każdych 1 ≤ i1 < . . . < ik ≤ n zachodzi

Pr(Ai1 ∩ · · · ∩ Aik) = Pr(Ai1) · . . . · Pr(Aik).

Przykład: Rzucamy n razy symetryczną monetą. Ak = {orzeł w k-tym rzucie}.

Wowczas A1, . . . , An są niezależne.

Twierdzenie 4. Jeśli A1, . . . , An są niezależne, to niezależne są również B1, . . . , Bn, gdzie Bi = Ai albo Bi = Ai.

3.0.2 Schemat Bernoulliego

Definicja 9. Schemat Bernoulliego to skończony ciąg niezależnych powtó- rzeń tego samego doświadczenia losowego o dwu możliwych wynikach, nazy- wanych umownie sukcesem i porażką. Poszczególne doświadczenia to próby Bernoulliego.

Przykłady:

1. n-krotny rzut monetą; za sukces można przyjąć wypadnięcie orła, 18

(19)

2. n-krotne wypełnienie kuponu totolotka; za sukces można przyjąć tra- fienie szóstki.

Twierdzenie 5. Prawdopodobieństwo pojawienia się dokładnie k sukcesów w schemacie Bernoulliego n prób, z prawdopodobieństwem sukcesu w pojedyn- czej próbie równym p, wynosi

n k



pk(1 − p)n−k, k = 0, . . . , n.

Przykład: Moneta jest fałszywa i prawdopodobieństwo wyrzucenia orła jest równe 2/3. Jakie jest prawdopodobieństwo, że w 7 rzutach tą monetą cztery razy pojawi się orzeł?

Rozwiązanie: W tym przykładzie n = 7, k = 4, p = 2/3, więc Pr(4 sukcesy w 7 doświadczeniach) =7

4



(2/3)4(1/3)3 = 7!

4!3!

24

37 = 560

2187 ≈ 0.256.

19

(20)

4 Zmienne losowe

4.1 Pojęcia wstępne

Definicja 10. Zmienna losowa to funkcja, która przypisuje jakąś wartość liczbową każdemu z możliwych wyników doświadczenia losowego.

Przykłady:

1. X = czas przeżycia po przeszczepie serca. Zbiór możliwych wartości [0, ∞).

2. X = wygrana gracza, który grając w ruletkę stawia 1 zł na którąś z 37 liczb

X = −1, jeśli nie wypadnie obstawiona liczba, 35, jeśli wypadnie obstawiona liczba.

3. Trzykrotny rzut monetą. Osiem możliwych wyników: OOO,ORO, . . . ,RRR. Niech X = liczba wyrzuconych orłów. Wówczas

X(OOO) = 3, . . . , X(RRR) = 0.

Rodzaje zmiennych losowych:

1. Dyskretna: - zbiór S przyjmowanych przez nią wartości jest skoń- czony albo przeliczalny, np. wynik rzutu kostką, numer rzutu monetą, w którym po raz pierwszy wypadł orzeł.

2. Ciągła: - zbiór jej wartości zawiera przedział liczbowy, np. tempera- tura, waga, czy też wzrost losowo wybranego optometrysty.

4.2 Rozkład zmiennej losowej

Przypuśćmy, że X jest zmienną losową opisującą przebieg ustalonego do- świadczenia losowego. Ponieważ przed przeprowadzeniem tego doświadcze- nia nie wiemy jakim zakończy się ono wynikiem ω, nie wiemy również jaką wartość przyjmie zmienna losowa X (bo nie możemy obliczyć X(ω) nie znając wartości ω). Znając prawdopodobieństwo P , opisujące przebieg tego doświadczenia, możemy za to wskazać, które z możliwych wartości tej zmiennej mają większe szanse, by się pojawić, a które mniejsze. Obliczając te szanse wyznaczamy rozkład zmiennej losowej X.

Rozkład: Dla każdego zbioru A ⊂ R obliczamy Pr(X ∈ A), tzn. prawdo- podobieństwo tego, że X przyjmie wartość należącą do zbioru A.

1. Aby opisać rozkład dyskretnej zmiennej losowej wystarczy wskazać zbiór S przez nią wartości i podać prawdopodobieństwa z jakimi te war- tości są przyjmowane, czyli wyznaczyć funkcję prawdopodobień- stwa

f (x) = Pr(X = x), x ∈ S.

Przykłady:

20

(21)

(a) Zmienna losowa X = liczba orłów w trzech rzutach symetryczną

monetą przyjmuje wartości 0, 1, 2, 3 z prawdopodobieństwami 1/8, 3/8, 3/8, 1/8.

(b) Zmienna losowa X = wygrana w pojedynczej partii ruletki przyj- muje dwie wartości −1 i 35 z prawdopodobieństwami 36/37 i 1/37.

2. Chcąc opisać rozkład ciągłej zmiennej losowej wystarczy wskazać gę- stość jej rozkładu, czyli nieujemną funkcję f , taką że

Pr(a ≤ X ≤ b) = Z b

a

f (x)dx dla wszystkich − ∞ ≤ a ≤ b ≤ ∞.

Uwaga. Znając gęstość f rozkładu ciągłej zmiennej losowej X umiemy dla każdego przedziału liczbowego [a, b] obliczyć Pr(a ≤ X ≤ b), czyli prawdopodobieństwo tego, że X przyjmie wartość z tego przedziału . To prawdopodobieństwo jest równe polu figury ograniczonej od dołu przedziałem [a, b], a od góry wykresem funkcji f .

Rysunek 4: Pr(1 < X < 3) = pole zaznaczonego obszaru Uwaga: Z własności całki wynika, że

(a) Pr(a ≤ X ≤ b) = Pr(a ≤ X < b) = Pr(a < X ≤ b) = Pr(a <

X < b) =Rb

af (x)dx, (b) Pr(X = a) = 0.

Twierdzenie 6. Funkcja f jest gęstością rozkładu pewnej ciągłej zmien- nej losowej wtedy i tylko wtedy, gdy

(a) f (x) ≥ 0 dla każdego x ∈ R, (b) R

Rf (x) dx = 1.

21

(22)

4.2.1 Dystrybuanta zmiennej losowej:

Rozkład zmiennej losowej możemy też opisać wyznaczając jej dystrybu- antę, czyli funkcję F : R → [0, 1], której wartość w każdym punkcie x ∈ R jest określona wzorem

F (x) = Pr(X ≤ x) =





x

R

−∞

f (s) ds, jeśli X ma rozkład ciągły o gęstości f , X

{t≤x}

Pr(X = t), jeśli X ma rozkład dyskretny.

Twierdzenie 7. Funkcja F jest dystrybuantą rozkładu pewnej zmiennej losowej wtedy i tylko wtedy, gdy

1. F jest niemalejąca.

2. limx→−∞F (x) = 0, limx→∞F (x) = 1 3. F jest prawostronnie ciągła.

Rysunek 5: Dystrybuanta rozkładu dwumianowego B(2, 1/2)

Rysunek 6: Dystrybuanta rozkładu wykładniczego

22

(23)

Dystrybuanta a gęstość albo funkcją prawd.. Dla każdego x ∈ R, 1. Pr(X = x) = Pr(X ≤ x) − Pr(X < x) = F (x) − F (x).

2. f (x) = F0(x) o ile f jest ciągła w punkcie x.

4.3 Parametry opisujące rozkład zmiennej losowej

Rozkład zmiennej losowej możemy też opisywać za pomocą 1. wskaźników położenia: średnia, mediana;

2. wskaźników rozproszenia: wariancja, odchylenie standarowe, kwar- tyle, rozstęp międzykwartylowy.

Te wskaźniki liczbowe nie podają całej informacji o rozkładzie zmiennej lo- sowej, bo ta jest zawarta w dystrybuancie lub w gęstości (albo funkcji praw- dopodobieństwa). Znając wartość tych wskaźników możemy jednak sformu- łować istotne wnioski o rozkładzie zmiennej losowej.

4.3.1 Wartość oczekiwana

Definicja 11. Wartość oczekiwana (średnia) zmiennej losowej X to pa- rametr oznaczany symbolem E(X) lub µX, określony wzorem

E(X) =

R

−∞

xf (x) dx, jeśli X ma rozkład ciągły o gęstości f , P

{xi∈S}xiPr(X = xi), jeśli X ma rozkład dyskretny.

Przykłady:

1. Rozkład B(1, p): E(X) = 0 · (1 − p) + 1 · p = p.

2. Wygrana w ruletce: E(X) = −1 · 36/37 + 35 · 1/37 = −1/37 3. Rozkład U (a, b): E(X) =

Z b a

1

b − ax dx = x2

b − a|ba = a + b 2 . Uwagi:

1. Analogia między środkiem masy a wartością oczekiwaną:

R

−∞

xf (x) dx to środek masy pręta umieszczonego na osi 0x, którego gęstość masy w punkcie x wynosi f (x), x ∈ R.

2. E(X) nie zawsze istnieje.

Interpretacja: E(X) to w pewnym sensie średnia wartość przyjmowana przez zmienną losową.

23

(24)

Przykład: W 600 rzutach symetryczną kostką, każdy z możliwych wyników powinien pojawić się około 100 razy. Oczekujemy więc, że średni wynik będzie równy

100 × 1 + 100 × 2 + 100 × 3 + 100 × 4 + 100 × 5 + 100 × 6 600

Czyli

1 ×1

6 + . . . + 6 ×1

6 = X

{xi∈S}

xiPr(X = xi) = E(X) = 7 2. Własności: Jeśli istnieją E(X) i E(Y ) to dla dowolnych stałych a, b

1. Jeśli X przyjmuje tylko jedną wartość c, to E(X) = c.

2. E(aX + b) = aE(X) + b;

3. E(X + Y ) = E(Y ) + E(Y ).

4. Jeśłi X i Y są niezależne, to E(XY ) = E(X)E(Y ).

Definicja 12. Zmienne X i Y są niezależne, jeśli dla dowolnych A, B ⊂ R, Pr(X ∈ A, Y ∈ B) = Pr(X ∈ A) Pr(Y ∈ B).

Intuicje: Jeśli X i Y są niezależne, to wiedza o tym, jaką wartość przyjęła jedna z tych zmiennych nie wpływa na prawdopodobieństwo z jakim druga z tych zmiennych przyjmuje swoje wartości.

Przykłady: (wykorzystanie liniowości wartości oczekiwanej) 1. Oczekiwana liczba oczek w rzucie dwoma kostkami.

Rozwiązanie: E(X + Y ) = E(X) + E(Y ) = 72 +72 = 7.

2. Roztargniony szatniarz losowo zwraca płaszcz każdemu z n klientów.

Jaka jest oczekiwana liczba prawidłowo zwróconych płaszczy?

Rozwiązanie: X liczba osób, które otrzymała swoje płaszcze. X = X1 + . . . + Xn, gdzie Xi = 1, gdy i-ta osoba dostała swój płaszcz i Xi = 0 w przeciwnym razie. Pr(Xi = 1) = 1/n, więc E(X) = E(X1) + . . . + E(Xn) = n · 1n = 1.

Twierdzenie 8. (Reguła leniwego statystyka) Niech g będzie ustaloną funk- cją. Wartość oczekiwaną zmiennej losowej Y = g(X) można obliczyć ze wzoru

E(Y ) = E[g(X)] =





R

−∞

g(x)f (x) dx, jeśli X ma rozkład ciągły o gęstości f , P

{xi∈S}

g(xi) Pr(X = xi), jeśli X ma rozkład dyskretny.

Wniosek: jeśli znamy rozkład X, to nie musimy wyznaczać rozkładu g(X), by obliczyć E[g(X)].

24

(25)

4.3.2 Wariancja zmiennej losowej

Wartość oczekiwana jest miarą położenia, charakteryzującą rozkład zmiennej losowej. Niestety, nie opisuje ona w pełni tego rozkładu.

Przykład: Pr(X = 0) = 1, Pr(Y = −1) = Pr(Y = 1) = 1/2. Wówczas E(X) = E(Y ) = 0, ale zmienne te mają różne rozproszenia wokół swoich wartości oczekiwanych, bo X jest zawsze równa E(X) = 0, podczas gdy Y zawsze różni się od E(Y ) = 0 o 1.

Definicja 13. Wariancja zmiennej losowej X to parametr oznaczany sym- bolem Var(X) lub σX2 , który mierzy rozproszenie X względem jej wartości oczekiwanej (moment bezwładności):

Var(X) = E[(X−µX)2] =





R

−∞

(x − µX)2f (x) dx, jeśli X ma rozkład ciągły , P

{xi∈S}

(xi− µX)2Pr(X = xi), jeśli X ma rozkład dyskretny.

Uwaga: pVar(X) to odchylenie standardowe zmiennej losowej X.

Przykłady:

1. Dla zmiennych z poprzedniego przykładu: Var(X) = 0, Var(Y ) = 1.

2. Rozkład B(1, p): Var(X) = (1 − p)2p + (0 − p)2(1 − p) = p(1 − p).

3. Rozkład U (0, 1): Var(X) =R1

0(x − 1/2)2dx = 1/12.

Własności: Jeśli istnieje Var(X) to dla dowolnych stałych a, b

1. Var(X) ≥ 0, przy czym Var(X) = 0 ⇐⇒ Pr(X = c) = 1 dla pewnego c ∈ R.

2. Var(X) = E(X2) − [E(X)]2.

3. Var(aX + b) = a2Var(X), w szczególności Var(X) = Var(−X).

4. Var(X + Y ) = Var(X) + Var(Y ), o ile X i Y są niezależne i istnieje Var(Y ).

4.3.3 Kwantyle rozkładu

Interesuje nas to, w jakim punkcie xpdystrybuanta F osiąga wartość ustaloną wartość p z przedziału (0, 1). .

Definicja 14. Kwantyl rzędu p to taki punkt xp, taki że xp = F−1(p) def= inf{x : F (x) ≥ p}

Uwaga:

1. F (xp) ≤ p ≤ F (xp).

25

(26)

2. Dla rozkładu ciągłego, xp to punkt na osi 0x, taki że pole pod gęstością na lewo od niego jest równe p, a pole na prawo równe 1 − p, czyli F (xp) = p. Uwaga: (xp, p) to punkt przecięcia wykresów funkcji y = p i y = F (x)).

3. x1

4, x1

2, x3

4 to pierwszy kwartyl, mediana i trzeci kwartyl.

4. Rozstęp międzykwartylowy: IQR = x3

4 − x1

4.

4.4 Symetria rozkładu:

1. Mówimy, że ciągła zmienna losowa X ma rozkład symetryczny, jeśli jej gęstość jest symetryczna względem pewnej wartości x0, tzn, gdy f (x − x0) = f (−(x − x0)), x ∈ R. Wówczas,

(a) x0 = E(X),

(b) mediana jest równa średniej, tzn. x1/2 = E(X).

2. Jeśli X nie ma rozkładu symetrycznego, to ma rozkład skośny (a) prawoskośny (długie prawe ogony ), gdy x1/2< E(X);

(b) lewoskośny (długie lewe ogony ), gdy x1/2 > E(X);

Rysunek 7: Gęstość rozkładu prawoskośnego χ23, którego medianą jest x1/2= 2.36597, a średnią µ = 3.

4.5 Dyskretne zmienne losowe

4.5.1 Rozkład Bernoulliego

Definicja 15. Zmienna losowa X ma rozkład Bernoulliego z parametrem p ∈ (0, 1), co oznaczamy X = B(1, p), jeśli przyjmuje wartości 0 i 1 z praw-D dopodobieństwami Pr(X = 1) = p i Pr(X = 0) = 1 − p.

1. Średnia i wariancja: E(X) = p, and Var(X) = p(1 − p).

26

(27)

2. Eksperyment, którego wynik opisujemy za pomocą takiej zmiennej:

jednokrotny rzut monetą, przy którym orzeł wypada z prawdopodo- bieństwem p; wówczas X = 1, gdy wypadł orzeł i X = 0, gdy wypadła reszka.

4.5.2 Rozkład dwumianowy

Definicja 16. Zmienna losowa X ma rozkład dwumianowy z parametrami (n, p), co oznaczamy X = B(n, p), jeśli przyjmuje wartości 0, 1, . . . , n z praw-D dopodobieństwami

Pr(X = k) = n k



pk(1 − p)n−k, k = 0, . . . , n.

1. Eksperyment, którego wynik opisujemy za pomocą takiej zmiennej: n -krotny rzut monetą, przy którym orzeł wypada z prawdopodobień- stwem p; X = liczba wyrzuconych orłów.

2. Taka zmienna opisuje liczbę sukcesów w n doświadczeniach ze schematu Bernoulliego z prawdopodobieństwem sukcesu p. Jej możliwe wartości to 0, 1, . . . , n.

3. Średnia i wariancja: E(X) = np, and Var(X) = np(1 − p).

4. Związek z B(1, p): X = B(n, p) jest sumą n niezależnych zmien-D nych losowych X1, . . . , Xn o tym samym rozkładzie B(1, p), Xi = 1, gdy pojawił się sukces w i- tym doświadczeniu (a 0, gdy pojawiła się porażka).

4.5.3 Rozkład geometryczny

Definicja 17. Zmienna losowa X ma rozkład geometryczny z parametrem p, co oznaczamy X = Geo(p), jeśli przyjmuje wartości 1, 2, . . . z prawdopo-D dobieństwami

Pr(X = k) = (1 − p)k−1p, k = 1, 2, . . . .

1. Charakterystyczny eksperyment: rzucamy monetą tak długo aż wy- padnie orzeł; X = liczba wykonanych rzutów; możliwe wartości X to x = 1, 2, . . ..

2. Średnia i wariancja: E(X) = 1/p, and Var(X) = (1 − p)/p2.

3. X zlicza liczbę niezależnych powtórzeń doświadczenia ze schematu Ber- noulliego B(1, p), potrzebnych do tego, by pojawił się pierwszy sukces.

27

(28)

4.5.4 Rozkład Poissona

Definicja 18. Zmienna losowa X ma rozkład Poissona z parametrem λ > 0, co oznaczamy X = P (λ), jeśli przyjmuje wartości 0, 1, 2, . . . z prawdopodo-D bieństwami

Pr(X = k) = λk

k! exp (−λ), k = 0, 1, 2, . . . . 1. Średnia i wariancja: E(X) = λ, and Var(X) = λ.

2. Liczbę szkód komunikacyjnych w ustalonym okresie czasu można do- brze modelować za pomocą rozkładu Poisssona z odpowiednio do- branym parametrem λ.

4.6 Ciągłe zmienne losowe

4.6.1 Rozkład jednostajny

Definicja 19. Zmienna losowa X ma rozkład jednostajny na przedziale (a, b), co oznaczamy X = U (a, b), jeśli gęstość i dystrybunta mają postać:D

f (x) =

( 0, x /∈ [a, b], 1

b − a, x ∈ [a, b]. F (x) =





0, x < a, x − a

b − a, a ≤ x ≤ b, 1, x > b.

1. Średnia i wariancja: E(X) = a + b

2 , Var(X) = (b − a)2 12 .

Rysunek 8: Gęstość rozkładu jednostajnego U (1, 3)

28

(29)

Rysunek 9: Dystrybuanta rozkładu jednostajnego U (1, 3) 4.6.2 Rozkład wykładniczy

Definicja 20. Zmienna losowa X ma rozkład wykładniczy z parametrem λ > 0, co oznaczamy X = Exp(λ), jeśli gęstość i dystrybunta mają postać:D

f (x) = 0, x < 0,

λe−λx, x ≥ 0. F (x) = 0, x < 0, 1 − e−λx, x ≥ 0.

Rysunek 10: Gęstość rozkładu wykładniczego Exp(1)

29

(30)

Rysunek 11: Dystrybuanta rozkładu wykładniczego Exp(1)

1. Średnia i wariancja: E(X) = 1

λ, Var(X) = 1 λ2.

2. Brak pamięci: Dla dowolnych s, t > 0 Pr(X ≤ t + s|X > t) = Pr(X ≤ s).

3. Rozkład wykładniczy wykorzystuje się w teorii niezawodności do mode- lowania czasu pracy urządzeń. Przykładowo, żywotność procesora może być modelowana za pomocą rozkładu wykładniczego o średniej 40000 godzin. Brak pamięci oznacza, że procesor się nie zużywa (starzeje), więc bez względu na to jak długo już działał, prawdopodobieństwo, iż nie ulegnie awarii przez następne 1000 godzin, jest takie same jak dla nowego procesora.

4.6.3 Rozkład normalny

Definicja 21. Zmienna losowa X ma rozkład normalny z wartością ocze- kiwaną µ i wariancją σ2, co oznaczamy X = N (µ, σD 2), jeśli jej gęstość ma postać:

f (x) = 1

√2πσe(x−µ)22σ2 , x ∈ R.

30

(31)

Rysunek 12: Gęstość rozkładu normalnego N (1, 1)

Rysunek 13: Dystrybuanta rozkładu normalnego N (1, 1)

1. Rozkład normalny jest bardzo często używany do modelowania rozkła- dów wielu rzeczywistych cech.

Przykłady takich cech:

(a) błąd pomiarowy, (b) wzrost, wydajność,

(c) temperatura ciała,

(d) zawartość różnych składników we krwi.

2. Jeśli wielokrotnie powtarzamy ten sam eksperyment losowy, za każdym razem mierząc wartość tej samej cechy, to zmienna losowa X, będąca średnią (sumą) uzyskanych wyników ma rozkład zbliżony do normal- nego. W szczególności, jeśli wielkokrotnie zmierzymy pewną wielkość fizyczną (rezystancję, pojemność, lepkość, itp.), a za wynik przyjmiemy średnią ze wszystkich pomiarów, to, przy pewnych dodatkowych wa- runkach, tak otrzymana wielkość będzie miała rozkład zbliżony do nor- malnego.

31

(32)

3. Gęstość rozkładu normalnego ma kształt dzwonu, którego osią symetrii jest prosta x = µ.

(a) zmiana µ powoduje przesunięcie wykresu gęstości wzdłuż osi 0x;

(b) zmiana σ2powoduje zmianę kształtu wykresu gęstości f : im więk- sze σ tym wykres jest bardziej spłaszczony i ma cięższe “ogony”.

Rysunek 14: Gęstości rozkładów normalnych N (0, 1) i N (1, 1)

32

(33)

Rysunek 15: Gęstości rozkładów normalnych N (0, 1) i N (0, (1/2)2) 4. Zmienna losowa o rozkładzie N (m, σ2) może przyjąć każdą wartość z

przedziału (−∞, ∞), ale najbardziej prawdopodobne (najczęściej pojawiające się) są wartości bliskie µ. Potwierdzeniem tego faktu jest Reguła 3σ: Jeśli X ma rozkład N (µ, σ2), to

(a) Pr(µ − σ < X < µ + σ) = 0.680;

(b) Pr(µ − 2σ < X < µ + 2σ) = 0.956;

(c) Pr(µ − 3σ < X < µ + 3σ) = 0.997.

33

(34)
(35)

5. Standardowy rozkład normalny to rozkład normalny o średniej 0 i wa- riancji 1. Zmienną losową o takim rozkładzie, gęstość jej rozkładu oraz wariancję oznaczamy symbolami Z, φ oraz Φ. Oczywiście,

φ(x) = 1

√2πex22 , x ∈ R.

6. Wartości dystrybuanty rozkładu N (0, 1) można wyznaczyć jedynie nu- merycznie, bo nie da się obliczyć całki

x

R

−∞

φ(s) ds.

7. Tablice rozkładu N (0, 1). Dla z ∈ [0; 3.49) wyznaczono wartości Φ(z), czyli dystrybuanty rozkładu N (0, 1). Wartości tej dystrybuanty dla pozostałych z szacuje się korzystając z tego, że

(a) 1 ≥ Φ(z) ≥ Φ(3.49) = 0.9998 dla wszystkich z ≥ 3.49.

(b) Φ(−z) = 1 − Φ(z) dla z ∈ R.

8. Chcąc znaleźć prawdopodobieństwa dla zmiennej o dowolnym rozkła- dzie normalnym wykorzystujemy następujący:

Fakt: Jeśli X = N (µ, σD 2) to cX + d= N (µ + d, cD 2σ2) dla dowolnych liczb c, d ∈ R,. W szczególności

Z = X − µ σ

= N (0, 1).D

Z ostatniej równości wynika, że dla dowolnych −∞ ≤ a ≤ b ≤ ∞ (a) Pr(a < X < b) = Φ b − µ

σ



− Φ a − µ σ

 , (b) Pr(X < a) = Φ a − µ

σ

 , (c) Pr(X > b) = 1 − Φ b − µ

σ

 .

Przykład: Jeśli X = N (1, 2D 2) to Pr(−1 < X < 5) = Φ 5−12  − Φ −1−12  = Φ(2) − Φ(−1) = Φ(2) − (1 − Φ(1)) = Φ(2) + Φ(1) − 1 = 0.9772 + 0.8413 − 1.

9. Dla każdego α ∈ (0, 1) symbolem zα oznaczamy kwantyl rzędu 1 − α rozkładu N (0, 1), to znaczy liczbę zα, taką że dla zmiennej losowej Z mającej rozkład N (0, 1) zachodzi równość

Pr(Z ≤ zα) = Φ(zα) = 1 − α.

W szczególności: z0.05= 1.65, z0.025= 1.95, z0.01= 2.33.

35

(36)

Tables

T-3

Table entry for z is the area under the standard normal curve to the left of z.

Probability

z

TABLE A

Standard normal probabilities(continued)

z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09

0.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359

0.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753

0.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141

0.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517

0.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879

0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224

0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549

0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852

0.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133

0.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389

1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621

1.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .8830

1.2 .8849 .8869 .8888 .8907 .8925 .8944 .8962 .8980 .8997 .9015

1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177

1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9279 .9292 .9306 .9319

1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441

1.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545

1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633

1.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .9706

1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767

2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817

2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857

2.2 .9861 .9864 .9868 .9871 .9875 .9878 .9881 .9884 .9887 .9890

2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916

2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936

2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952

2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964

2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974

2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981

2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986

3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990

3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993

3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995

3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997

3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998

Integre Technical Publishing Co., Inc. Moore/McCabe November 16, 2007 1:29 p.m. moore page T-3

(37)

4.6.4 Rozkład chi-kwadrat

Definicja 22. Jeśli zmienne losowe Z1, . . . , Zv są niezależne i mają ten sam rozkład N (0, 1), to zmienna losowa X = Z12+. . .+Zv2 ma rozkład chi-kwadrat z v stopniami swobody, co oznaczamy X = χD 2v.

1. Zmienne losowe o rozkładzie chi-kwadrat tworzą rodzinę rozkładów in- deksowaną jednym parametrem v - liczbą stopni swobody (v > 0).

Zmienna losowa o rozkładzie χ2v jest ciągła, przyjmuje wszystkie war- tości dodatnie (i tylko takie), a najczęściej te bliskie v.

2. Gęstość rozkładu χ2v jest prawoskośna. Jej postać pomijamy, gdyż jest skomplikowana.

3. Dla każdego α ∈ (0, 1) symbolem χ2v,α oznaczamy kwantyl rzędu 1 − α rozkładu chi-kwadrat z v stopniami swobody, to znaczy liczbę χ2v,α, taką że dla zmiennej losowej X mającej rozkład χ2v zachodzi równość

Pr(X ≥ χ2v,α) = α.

4. Kwantyle χ2v,α można wyznaczyć jedynie numerycznie. Ich wartości, dla niektórych v i α, można odczytać z tablic rozładu chi-kwadrat.

37

(38)

Rysunek 16: Gęstości rozkładów χ22, χ23 i χ25

38

Obraz

Updating...

Cytaty

Powiązane tematy :