• Nie Znaleziono Wyników

Rachunek Prawdopodobieństwa

N/A
N/A
Protected

Academic year: 2021

Share "Rachunek Prawdopodobieństwa"

Copied!
78
0
0

Pełen tekst

(1)

Rachunek

Prawdopodobieństwa

(2)

Próba

Poznaliśmy wcześniej pojęcie populacji generalnej (inaczej zwanej zbiorowością statystyczną) oraz pojęcie próby.

W praktyce na ogół nie możemy badać całej zbiorowości

generalnej, a chcąc zbadać interesujące nas cechy pobieramy skończoną liczbę n elementów i poddajemy je obserwacji.

Właśnie te elementy tworzą próbę.

Konieczność takiego postępowania wynika z różnych bardzo istotnych przyczyn:

(3)

Dlaczego badamy próbę

Nie jest możliwe zbadanie całej zbiorowości, gdyż zbiorowość generalna jest bardzo liczna lub nawet nieskończona. Na przykład, przy ocenie preferencji wyborczych jest praktycznie niemożliwe przepytanie

wszystkich wyborców. Ankieterzy zbierają opinie jedynie w odpowiednio wybranej grupie osób. Te opinie stanowią

później podstawę formułowania oceny preferencji wyborczych zbiorowości generalnej.

(4)

Dlaczego badamy próbę

Za badaniami częściowymi przemawiają również względy ekonomiczne, gdyż obniżają koszty badań. Na przykład, naukowcy pracując nad nowym lekiem nie mogą

dysponować pełnymi danymi na temat działania leku czy też jego efektów ubocznych. Potwierdzenie efektywności leku i jego bezpieczeństwa jest procesem pracochłonnym i kosztownym.

(5)

Dlaczego badamy próbę

Badanie całej populacji jest bardzo czasochłonne. Gdy

aktualność wyników badania jest niezmiernie istotna, bada się próbę, a nie całą zbiorowość. Na przykład, oceniając

skuteczność szczepionki na grypę, badanie próby skraca czas wprowadzenia jej na rynek.

(6)

Dlaczego badamy próbę

Badania częściowe muszą być stosowane także wtedy, gdy jednostki statystyczne w trakcie badania ulegają

zniszczeniu. Na przykład, przy badaniu jakości produktów.

(7)

Czy badanie próby jest reprezentatywne?

Przy podejmowaniu kluczowych decyzji w zasadzie nie możemy obejść się bez badania prób. Pojawia się jednak pytanie: na ile reprezentatywne są próby, na których

podstawie wypowiadamy sądy o zbiorowości generalnej?

Bowiem w badaniu częściowym mogą wystąpić błędy na

skutek tego, że struktura próby może różnić się od struktury populacji. Wynika stąd, że gdy korzystamy z badania

częściowego, wydanie prawdziwego sądu jest zdarzeniem losowym, któremu odpowiada jakieś prawdopodobieństwo.

Jest ono tym większe, im próba lepiej reprezentuje zbiorowość.

(8)

Próba reprezentatywna

Aby uzyskane wyniki badania próby można było odnieść do

zbiorowości generalnej z określoną dokładnością, próba musi być reprezentatywna, czyli musi spełniać dwa warunki:

Musi być wybrana losowo — tzn. każda jednostka danej zbiorowości ma znane, różne od zera prawdopodobieństwo znalezienia się w próbie,

Powinna być dostatecznie liczna (jest to pojęcie umowne, często oznacza próbę o bardzo umiarkowanej liczności).

Rachunek prawdopodobieństwa daje precyzyjne narzędzie kontrolowania wspomnianej dokładności.

(9)

Uwaga

Dobór próby dla jednych cech jest losowy, dla innych zaś

może być nielosowy. Zatem o losowości próby można mówić tylko w odniesieniu do konkretnych cech. W praktyce

uzyskanie prób losowych jest w dużym stopniu utrudnione bądź wręcz niemożliwe, zatem w miejsce losowości przyjmuje się założenie o niezależności jednostek ze względu na

wyróżnione zmienne.

W przypadku prób nielosowych należy zawsze poprzestać jedynie na opisie statystycznym (wszelkie wnioskowanie o populacji nie ma uzasadnienia).

(10)

Doświadczenie losowe

To doświadczenie:

które może być powtarzane w (zasadniczo) tych samych warunkach,

jego wynik nie może być przewidziany w sposób pewny,

zbiór wszystkich możliwych wyników jest znany i może być ściśle opisany przed przeprowadzeniem doświadczenia.

(11)

Przykład

Interesuje nas czas jaki upłynął od momentu zainstalowania do momentu pierwszego uszkodzenia monitora pewnej firmy.

Pojedyncze doświadczenie polega na obserwacji takiego monitora i zanotowaniu chwili jego pierwszej awarii.

Powtarzanie doświadczenia to obserwacja większej liczby monitorów tego samego rodzaju tej samej marki w (z

grubsza) takich samych warunkach.

(12)

Przykład

Nie jest możliwe przewidzenie z góry, ile czasu dany monitor będzie pracować bez żadnej usterki.

Wiemy natomiast, że czas pracy do pierwszego uszkodzenia nie może być mniejszy od zera i na pewno jest

skończony. Zakładamy dla wygody, że czas liczymy z absolutną dokładnością. W

rezultacie, za przedział możliwych czasów bezawaryjnej pracy monitorów

przyjmujemy Zatem możemy nasze doświadczenie uznać za losowe.

⟨0, + ∞) .

(13)

Zdarzenie elementarne

Zbiór wszystkich możliwych wyników doświadczenia losowego nazywamy przestrzenią zdarzeń elementarnych lub

przestrzenią próbkową i oznaczamy symbolem S. Pojedynczy element przestrzeni zdarzeń elementarnych, czyli pojedynczy wynik doświadczenia losowego, nazywamy zdarzeniem

elementarnym.

Przestrzeń zdarzeń elementarnych może być skończona lub nieskończona. W drugim przypadku może być przeliczalna, czyli jej elementy mogą zostać ponumerowane, lub może być nieprzeliczalna.

(14)

Przykład I

Z partii wyrobów zawierającej sztuki dobre i wadliwe losujemy 3 sztuki. Jeśli d oznacza wylosowanie dobrego elementu, a w — wadliwego, to przestrzeń zdarzeń

elementarnych możemy zapisać jako:

S = {(d, d, d), (d, d, w), (d, w, d), (w, d, d), (w, w, d), (w, d, w), (d, w, w), (w, w, w)}

(15)

Przykład II

Niech x oznacza spóźnienie (mierzone w minutach) studenta na wykład trwający 45 minut. Wówczas przestrzeń zdarzeń elementarnych można opisać w następujący sposób:

S = {0,1,2,…,44,45} = {x ∈ ℝ : 0 ⩽ x ⩽ 45, x ∈ ℕ}

(16)

Przykład III

Niech x oznacza spóźnienie (mierzone z absolutną

dokładnością) studenta na wykład trwający 45 minut.

Wówczas przestrzeń zdarzeń elementarnych można opisać w następujący sposób:

S = ⟨0,45⟩ = {x ∈ ℝ : 0 ⩽ x ⩽ 45}

(17)

Zdarzenie losowe

Niech S będzie ustaloną przestrzenią zdarzeń elementarnych.

Zdarzeniem losowym nazywamy podzbiór zdarzeń

elementarnych, który należy do borelowskiego ciała zdarzeń.

Borelowskie ciało zdarzeń to najmniejsza rodzina Z podzbiorów zbioru S spełniająca następujące warunki:

∅ ∈ Z oraz  S ∈ Z,

∙ jeśli A, B ∈ Z,  to różnica A∖B ∈ Z,

∙ iloczyn przeliczalnej rodziny zbiorów z Z należy do Z .

∙ suma przeliczalnej rodziny zbiorów z Z należy do Z,

(18)

Rachunek zdarzeń losowych

Jeżeli przestrzeń zdarzeń elementarnych S jest skończona lub przeliczalna, to borelowskie ciało zbiorów tworzą wszystkie możliwe podzbiory jakie można utworzyć z przestrzeni S.

Zdarzenia losowe oznaczamy zwykle dużymi, początkowymi literami alfabetu: A, B, C itd.

Zdarzenie losowe ∅ nazywamy zdarzeniem niemożliwym, natomiast zdarzenie losowe S — zdarzeniem pewnym.

(19)

Rachunek zdarzeń losowych

Mówimy, że zaszło zdarzenie losowe A, gdy wynik

doświadczenia losowego (zdarzenie elementarne) należy do zbioru A (inaczej sprzyja zdarzeniu A).

A = ⟨0,3) .

Dopełnieniem zdarzenia losowego A (lub zdarzeniem przeciwnym do A), oznaczanym przez nazywamy zdarzenie losowe równe różnicy zbiorów S i A:

A′ = S∖A .

A′,

Na przykład, w doświadczeniu z monitorem, jeśli monitor pracował bezawaryjnie przez 2,4 roku od chwili zakupu, to znaczy, że zaszło zdarzenie

(20)

Rachunek zdarzeń losowych

Sumą zdarzeń A i B nazywamy zdarzenie równe sumie zbiorów A i B, czyli równe

A ∪ B .

A ∩ B .

Iloczynem zdarzeń A i B nazywamy zdarzenie równe iloczynowi zbiorów A i B, czyli równe

A ∩ B = ∅ .

Mówimy, że zdarzenia A i B wykluczają się, gdy

A ⊂ B .

Mówimy, że zdarzenie A implikuje zdarzenie B, gdy zbiór A jest zawarty w zbiorze B, tzn.

(21)

Zmienna losowa

Niech S będzie przestrzenią zdarzeń elementarnych i niech Z będzie rodziną wszystkich podzbiorów przestrzeni S uznanych za zdarzenia losowe (czyli ciałem borelowskim).

{s ∈ S : X(s) ⩽ x}

jest zdarzeniem losowym dla każdej liczby rzeczywistej x. 


W przypadku skończonych przestrzeni S każda funkcja X spełnia powyższy warunek, więc może być uznana za

zmienną losową.

Zmienną losową nazywamy funkcję X, która każdemu

zdarzeniu elementarnemu s z przestrzeni S przyporządkowuje liczbę rzeczywistą w ten sposób, że zbiór

(22)

Przykład

Rozważmy doświadczenie, w którym obserwujemy ogłoszenia do porannego wydania pewnego dziennika. Jest to

doświadczenie losowe, gdyż treść i liczba zamieszczonych ogłoszeń zależy od wielu czynników: pory roku, dnia

tygodnia, stanu gospodarki, stanu miejscowego biznesu.

Zdarzeniem elementarnym jest wydanie dziennika z konkretnego dnia.

Funkcja, która każdemu takiemu zdarzeniu elementarnemu

przyporządkuje liczbę ogłoszeń w tym wydaniu dziennika jest zmienną losową.

(23)

Prawdopodobieństwo zdarzenia losowego

Niech S będzie przestrzenią zdarzeń elementarnych, a A niech będzie zdarzeniem losowym. Prawdopodobieństwo zdarzenia A, oznaczane symbolem P(A), jest liczbą rzeczywistą o

następujących własnościach (aksjomatach):

0 ⩽ P(A) ⩽ 1,

P(∅) = 0, P(S) = 1,

∙ jeśli zdarzenia losowe A1, A2, A3, …  wzajemnie się wykluczają, to

P(A1 ∪ A2 ∪ A3 ∪ …) = P(A1) + P(A2) + P(A3) + …

(24)

Wniosek I

Niech wyniki doświadczenia losowego będą jednakowo

prawdopodobne, a przestrzeń zdarzeń elementarnych S będzie skończona i złożona z M elementów. Jeżeli zdarzenie losowe A składa się z m zdarzeń elementarnych, to prawdopodo-

bieństwo zdarzenia A jest równe P(A) = m

M .

(25)

Wniosek II

Niech przestrzeń zdarzeń elementarnych S będzie skończona składa się z M elementów:

P(A) = ∑

si∈A

P(si) . S = {s1, s2, …, sM}

i niech prawdopodobieństwo zajścia zdarzenia elementarnego si wynosi P(si), i = 1,2,.,M. Wówczas dla każdego zdarzenia losowego A

(26)

Własności

Niech A będzie zdarzeniem losowym, A ⊂ S. Wówczas

prawdopodobieństwo zdarzenia przeciwnego A’ zdarzeniu A jest równe

P(A′) = 1 − P(A) .

Niech A i B będą zdarzeniami losowymi, A, B ⊂ S. Jeśli zdarzenie A pociąga za sobą zdarzenie B, tzn. A ⊂ B, to

P(A) ⩽ P(B) .

(27)

Własności

Niech A i B będą zdarzeniami losowymi, A, B ⊂ S. Wówczas P(A∖B) = P(A) − P(A ∩ B) .

A B S

I II

I = A∖B II = A ∩ B

(A∖B) ∩ (A ∩ B) = ∅ A = (A∖B) ∪ (A ∩ B)

(28)

Własności

Niech A i B będą zdarzeniami losowymi, A, B ⊂ S. Wówczas P(A ∪ B) = P(A) + P(B) − P(A ∩ B) .

A B S

I II III

I = A∖B II = A ∩ B III = B∖A A = (A∖B) ∪ (A ∩ B) B = (B∖A) ∪ (A ∩ B)

(29)

Prawdopodobieństwo warunkowe

Często interesuje nas prawdopodobieństwo zdarzenia,

powiedzmy B, gdy wiemy, że zaszło pewne inne zdarzenie A.

Mówimy wtedy o prawdopodobieństwie zdarzenia B pod warunkiem, że zaszło zdarzenia A. Prawdopodobieństwo takie oznaczamy symbolem P(B|A) .

Takie prawdopodobieństwo powinno spełniać naturalne postulaty:

P(A|A) = 1,

P(B|A) = P(A ∩ B|A) .

(30)

Prawdopodobieństwo warunkowe

Przejdźmy do formalnej definicji. Niech A i B będą dwoma zdarzeniami losowymi zawartymi w przestrzeni zdarzeń

elementarnych S, przy czym prawdopodobieństwo zdarzenia A jest dodatnie. Prawdopodobieństwo warunkowe zdarzenia B pod warunkiem zajścia zdarzenia A jest dane wzorem

P(B|A) = P(A ∩ B) P(A) .

Łatwo zauważyć, że powyższe prawdopodobieństwo spełnia obydwa podane wcześniej postulaty.

(31)

Przykład

Na podstawie danych z roku 1864 można orzec, że w owym roku prawdopodobieństwo bycia katolikiem w Warszawie

wynosiło 0,591 — bycia prawosławnym 0,014 — bycia ewangelikiem 0,067 — bycia żydem 0,326 oraz bycia

warszawiakiem innego wyznania 0,002. Niech A oznacza zdarzenie bycia chrześcijaninem (czyli katolikiem,

prawosławnym lub ewangelikiem). Niech B1 będzie

zdarzeniem bycia katolikiem, B2 — bycia prawosławnym i B3

— bycia ewangelikiem. Wówczas

A = B1 ∪ B2 ∪ B3 .

(32)

Przykład

Ponieważ zdarzenia B1, B2, B3 wzajemnie się wykluczają, to P(A) = P(B1 ∪ B2 ∪ B3) = P(B1) + P(B2) + P(B3) =

= 0,591 + 0,014 + 0,067 = 0,672.

Zatem

P(B1|A) = P(A ∩ B1)

P(A) = P(B1)

P(A) = 0,591

0,672 = 0,879.

Czyli prawdopodobieństwo bycia katolikiem wśród

warszawskich chrześcijan wynosi 0,879. Inaczej, odsetek katolików wśród chrześcijan w Warszawie wynosił 87,9%.

(33)

Własności

Niech A i B będą zdarzeniami losowymi, A, B ⊂ S,

posiadającymi dodatnie prawdopodobieństwa. Wówczas

P(A ∩ B ∩ C) = P(C ∩ (A ∩ B)) =

Podobnie dla większej liczby zdarzeń losowych, A, B, C ⊂ S, mamy

P(A ∩ B) = P(B|A) ⋅ P(A) = P(A|B) ⋅ P(B) .

= P(C|A ∩ B)) ⋅ P(A ∩ B) =

= P(C|A ∩ B)) ⋅ P(B|A) ⋅ P(A) .

(34)

Przykład

W urnie znajduje się 8 kul czerwonych oraz 4 białe. Jakie jest prawdopodobieństwo wyciągnięcia dwóch kul

czerwonych? Niech C1 będzie zdarzeniem losowym

polegającym na otrzymaniu w pierwszym ciągnieniu kuli czerwonej, C2 — zdarzeniem polegającym na otrzymaniu czerwonej kuli w drugim ciągnieniu. Interesuje nas

prawdopodobieństwo zdarzenia A = obie kule czerwone, czyli prawdopodobieństwo

P(A) = P(C1 ∩ C2) .

(35)

Przykład

Bez trudu zauważamy, że P(C1) = 8

12 , P(C2|C1) = 7 11 . Stąd

P(A) = P(C1 ∩ C2) =

= P(C2|C1) ⋅ P(C1) =

= 711 ⋅ 8

12 = 14

33 ≈ 0,42

(36)

Zdarzenia niezależne

Intuicyjnie, zdarzenia A i B o dodatnich prawdopodobień- stwach są niezależne, jeśli informacja o tym, że jedno zaszło nie ma wpływu na prawdopodobieństwo zajścia drugiego:

P(B|A) = P(B) oraz P(A|B) = P(A) .

Korzystając ze wzoru na prawdopodobieństwo warunkowe otrzymujemy definicję: zdarzenia A i B są niezależne, gdy

P(A ∩ B) = P(A) ⋅ P(B)

albo (co na jedno wychodzi) zachodzi jedna z równości:

P(B|A) = P(B) lub P(A|B) = P(A) .

(37)

Przykład

Utrzymanie łączności telefonicznej wymagało w przeszłości kładzenia kabli podwodnych. Na przykład, kabel łączący Amerykę Północną i Europę miał około 5000 km długości.

Składał się on z 501 odcinków po 10 km łączonych

przekaźnikami w liczbie 500. Ocenia się, że Każdy taki przekaźnik pracował niezawodnie przez 10 lat z

prawdopodobieństwem P(A) = 0,999. Zakładając, że uszkodzenia przekaźników są od siebie niezależne,

stwierdzamy, że prawdopodobieństwo niezawodnej pracy tych wszystkich przekaźników przez 10 lat wynosi tylko

P(A ∩ … ∩ A) = P(A)500 = (0,999)500 = 0,61.

(38)

Podział przestrzeni S

Mówimy, że zdarzenia B1, B2,…, Bk, tworzą podział

przestrzeni zdarzeń elementarnych S (inaczej układ zupełny przestrzeni zdarzeń elementarnych), gdy parami się

wykluczają:

Bi ∩ Bj = ∅ dla i ≠ j oraz

B1 ∪ P2 ∪ … ∪ Bk = S .

(39)

Prawdopodobieństwo całkowite

Jeżeli zdarzenia B1, B2,…, Bk mają dodatnie prawdopodo- bieństwa i tworzą podział przestrzeni S, to prawdopodobień- stwo każdego zdarzenia losowego A można obliczyć na

podstawie wzoru na prawdopodobieństwo całkowite:

P(A) =k

i=1

P(A ∩ Bi) = ∑k

i=1

P(A|Bi)P(Bi) .

(40)

Prawdopodobieństwo całkowite

S

B1 B2 B3 B4 B5

A ∩ B1 A ∩ B2 A ∩ B3 A ∩ B4 A ∩ B5

A A = (A ∩ B1) ∪ (A ∩ B2) ∪ … ∪ (A ∩ B5)

P(A) = P(A ∩ B1) + P(A ∩ B2) + … + P(A ∩ B5)

P(A) = P(A|B1)P(B1) + P(A|B2)P(B2) + … + P(A|B5)P(B5)

(41)

Przykład

Losowanie urny

Losowanie kuli Losowanie kuli

B1 B2

P(B1) = 4

6 P(B2) = 2

6

P(A|B1) = 3

4 P(A′|B1) = 1

4 P(A|B2) = 2

4 P(A′|B2) = 2

4

P(A) = P(A|B1)P(B1) + P(A|B2)P(B2) = 4

6 ⋅ 3

4 + 2

6 ⋅ 2

4 = 2 3

A A′ A A′

(42)

Przykład

Załóżmy teraz, że wylosowano już kulę niebieską. Można

zapytać się teraz jakie jest prawdopodobieństwo, że kula ta pochodzi z urny, w której były dwie kule niebieskie i dwie kule białe?

Pytania tego typu prowadzą do wzoru Bayesa, zwanego również wzorem na prawdopodobieństwo a posteriori (po wystąpieniu zdarzenia A). Prawdopodobieństwa zdarzeń Bi

zwane są w tym przypadku prawdopodobieństwami a priori.

(43)

Wzór Bayesa

Jeżeli zdarzenie losowe A zrealizowało się, a zdarzenia B1, B2,

…, Bk mają dodatnie prawdopodobieństwa i tworzą podział przestrzeni S, to prawdopodobieństwo każdego ze zdarzeń Bj

daje wzór

P(Bj |A) = P(Bj ∩ A)

P(A) = P(Bj)P(A|Bj)

P(A) = P(Bj)P(A|Bj)

k

i=1 P(A|Bi)P(Bi)

(44)

Przykład

Wróćmy do przykładu, w którym zakładaliśmy, że wylosowano już kulę niebieską i zapytaliśmy jakie jest prawdopodobieństwo, że kula ta pochodzi z urny, w której były dwie kule niebieskie i dwie kule białe? A jakie z urny drugiej?

P(B1|A) = P(B1)P(A|B1)

P(A) =

4634

23

= 34 .

P(B2|A) = P(B2)P(A|B2)

P(A) =

2624

23

= 14 .

(45)

Dystrybuanta zmiennej losowej

Niech S będzie przestrzenią zdarzeń elementarnych i niech X będzie zmienną losową. Wówczas, jak wiemy, dla każdej

liczby x zbiór

{s ∈ S : X(s) ⩽ x}

jest zdarzeniem losowym. Zdarzenie to oznaczamy krótko X ⩽ x .

Ponieważ jest to zdarzenie losowe, to ma ono określone prawdopodobieństwo. To prowadzi nas do następującej definicji funkcji zwanej dystrybuantą.

(46)

Dystrybuanta zmiennej losowej

Dystrybuantą zmiennej losowej X nazywamy funkcję F o argumentach i wartościach rzeczywistych określoną wzorem

F(x) = P(X ⩽ x), x ∈ ℝ .

Zatem wartość dystrybuanty w punkcie x to prawdopodo- bieństwo zdarzenia losowego, w którym wartości zmiennej losowej X nie przekroczą liczby x.

Z własności prawdopodobieństwa wynika natychmiast, że 0 ⩽ F(x) ⩽ 1

i że F jest funkcją niemalejącą.

(47)

Dystrybuanta zmiennej losowej

Ponadto, dla dowolnej pary liczb a i b możemy za pomocą dystrybuanty wyznaczyć prawdopodobieństwo zdarzenia

a < X ⩽ b,

gdyż jest to zdarzenie losowe będące różnicą dwóch zdarzeń losowych

I z własności prawdopodobieństwa

P(a < X ⩽ b) = P(X ⩽ b) − P(X ⩽ a) = F(b) − F(a) . (X ⩽ b)∖(X ⩽ a) .

(48)

Dystrybuanta zmiennej losowej

Poznanie dystrybuanty jest zatem bardzo istotne, gdyż bar- dzo często szacujemy prawdopodobieństwa zdarzeń postaci

a < X ⩽ b,

czyli zdarzeń losowych dotyczących przyjmowania przez zmienną losową wartości z pewnego zakresu (przedziału)

(a, b] .

Na przykład, interesuje nas pytanie jak często dziennik publikuje od 3 do 5 ogłoszeń? albo jakie jest

prawdopodobieństwo, że kursy akcji danej spółki osiągnie poziom wyższy od 12 PLN, ale niższy niż 15 PLN?

(49)

Typy zmiennych losowych

Ze względu na zakres wartości liczbowych jakie może

przyjmować zmienna losowa rozróżniamy dwa typy zmiennych

Zmienna Losowa

Zmienna Losowa Dyskretna (Skokowa) Zmienna Losowa Ciągła

Może przyjmować tylko skończoną albo przeliczalną liczbę wartości, tzn. albo x1, x2, …, xk albo x1, x2, …

Może przyjmować wartości z jakiegoś przedziału liczb rzeczywistych, np. z przedziału (-2, 15).

(50)

Zmienna losowa dyskretna

Niech S będzie przestrzenią zdarzeń elementarnych. Zmienną losową X nazywamy dyskretną, gdy przyjmuje wartości ze

zbioru dyskretnego, to jest takiego, który jest albo skończony albo przeliczalny (tzn. którego elementy można ponumerować kolejnymi liczbami naturalnymi).

X : S → ℝ

Liczba x jest wartością zmiennej losowej X, gdy istnieje takie zdarzenie elementarne s z przestrzeni S, dla którego

X(s) = x .

(51)

Rozkład prawdopodobieństwa zmiennej losowej dyskretnej

Rozkład prawdopodobieństwa zmiennej losowej dyskretnej

mówi jakie wartości i z jakim prawdopodobieństwem są przez zmienną losową przyjmowane.

Koncepcja ta jest bliska koncepcji budowania szeregu

rozdzielczego wartości cechy statystycznej, z tą różnicą, że zamiast liczebności względnej w z jaką wartości zmiennej

pojawiły się w zbiorowości statystycznej interesuje nas teraz prawdopodobieństwo wystąpienia każdej z potencjalnych

wartości tej zmiennej.

(52)

Rozkład prawdopodobieństwa zmiennej losowej dyskretnej

W przypadku dyskretnej zmiennej losowej określenie

rozkładu sprowadza się do podania następującej funkcji zwanej funkcją prawdopodobieństwa rozkładu lub funkcją prawdopodobieństwa:

p(x) = P({s ∈ S : X(s) = x}) lub krócej

p(x) = P(X = x) .

(53)

Rozkład prawdopodobieństwa zmiennej losowej dyskretnej

Rozkład prawdopodobieństwa dyskretnej zmiennej losowej,

która przyjmuje wartości x1, x2,…, xk, często podajemy w tabeli

x x1 x2 xk

p(x) p1 p2 pk

gdzie

pi = p(xi) = P(X = xi) .

(54)

Przykład

Rozpatrzmy zmienną losową będącą liczbą trafień w dwóch wykonywanych przez koszykarza rzutach osobistych. Kodując trafienie jako 1, a chybienie jako 0, możemy wszystkie

możliwe zdarzenia elementarne zebrać w przestrzeń zdarzeń S = {(0,1), (1,0), (1,1), (0,0)} .

oznaczając liczbę trafień przez X, mamy

X((0,1)) = 1, X((1,0)) = 1, X((1,1)) = 2, X((0,0)) = 0.

(55)

Przykład

Przyjmijmy, że prawdopodobieństwo trafienia w jednym rzucie osobistym tego koszykarza wynosi 0,8 i zdarzenie trafienia lub chybienia w drugim rzucie jest niezależne od analogicznych zdarzeń w pierwszym rzucie. Wówczas, skoro

p(0) = P(X = 0) = P((0,0)) = (1 − 0,8) ⋅ (1 − 0,8) = 0,04, to

X((0,1)) = 1, X((1,0)) = 1, X((1,1)) = 2, X((0,0)) = 0,

p(1) = P(X = 1) = P((1,0) ∪ (0,1)) = 0,8 ⋅ 0,2 + 0,2 ⋅ 0,8 = 0,32, p(2) = P(X = 2) = P((1,1)) = 0,8 ⋅ 0,8 = 0,64.

(56)

Przykład

Wyznaczoną funkcję prawdopodobieństwa można przedstawić w postaci następującej tabeli

x 0 1 2

p(x) 0,04 0,32 0,64

p(1) = P(X = 1) = 0,32.

Wówczas, na przykład

(57)

Własności

Niech X będzie dyskretną zmienną losową, która przyjmuje wartości x1, x2,…, xk (albo x1, x2,…). Wówczas

k

i=1

pi = ∑k

i=1

p(xi) = ∑k

i=1

P(X = xi) = 1 albo

i=1

pi = ∑

i=1

p(xi) = ∑

i=1

P(X = xi) = 1.

(58)

Dystrybuanta zmiennej losowej dyskretnej

Niech X będzie dyskretną zmienną losową, która przyjmuje wartości x1, x2,…, xk (albo x1, x2,…). Wówczas wartości dy- strybuanty wyznaczamy na podstawie wzoru

F(x) = ∑

i: xi⩽x

p(xi),

gdzie sumowanie rozciąga się na wszystkie indeksy i, dla których spełniona jest nierówność

xi ⩽ x .

(59)

Przykład

Dla zmiennej losowej o rozkładzie prawdopodobieństwa

x 0 1 2

p(x) 0,04 0,32 0,64

F(x) =

0 dla x < 0,

0,04 dla 0 ⩽ x < 1, 0,36 dla 1 ⩽ x < 2, 1 dla x ⩾ 2.

dystrybuanta jest dana wzorem

(60)

Przykład

Dystrybuantę można przedstawić graficznie

0 0,2 0,4 0,6 0,8 1

-1 0 1 2 3

F(x) =

0 dla x < 0,

0,04 dla 0 ⩽ x < 1, 0,36 dla 1 ⩽ x < 2, 1 dla x ⩾ 2.

(61)

Własności

Niech X będzie dyskretną zmienną losową i niech a < b.

Wtedy

P(a ⩽ X ⩽ b) = F(b) − F(a) + p(a), oraz

P(a < X < b) = F(b) − F(a) − p(b) .

(62)

Wskaźniki położenia i rozproszenia zmiennej

losowej dyskretnej

(63)

Przykład

Liczba podręczników przyniesionych


na zajęcia przez 1000 studentów pewnej szkoły

Liczba podręczników


xi

Liczba studentów


ni nixi wi = ni/N

0 100 0 0,1

1 300 300 0,3

2 250 500 0,25

3 200 600 0,2

4 100 400 0,1

5 50 250 0,05

Razem 1000 2050 1

(64)

Przykład

Zatem średnią przyniesionych podręczników obliczymy ze wzoru

x = 1

1000 (0 ⋅ 100 + 1 ⋅ 300 + … + 5 ⋅ 50) = 2,05

Rozważmy teraz doświadczenie losowe polegające na losowym wyborze jednego spośród tych 1000 studentów. Niech X

będzie zmienną losową zdefiniowaną jako liczba podręczników przyniesionych przez losowo wybranego studenta. Oczywiście, prawdopodobieństwo, że wybrany student nie będzie miał

żadnej książki wynosi 100/1000 = 0,1, że będzie miał jeden podręcznik — wynosi 300/1000 = 0,3 itd.

(65)

Przykład

Tak więc funkcja prawdopodobieństwa zmiennej losowej X jest następująca

x 0 1 2 3 4 5

p(x) 0,1 0,3 0,25 0,2 0,1 0,05

Ponieważ pi = wi, to powyżej otrzymany wzór na średnią można zapisać następująco:

x = 0 ⋅ 0,1 + 1 ⋅ 0,3 + … + 5 ⋅ 0,05 =6

i=1

xi ⋅ pi . Prowadzi to do następującej definicji.

(66)

Wartość oczekiwana

Dla dyskretnej zmiennej losowej X o wartościach x1, x2,…, xk i funkcji prawdopodobieństwa p wartością oczekiwaną (albo

średnią) X nazywamy liczbę daną wzorem E(X) = μX = ∑k

i=1

xi ⋅ p(xi) .

W przypadku, gdy zmienna X ma nieskończenie wiele wartości x1, x2,… wzór na wartość oczekiwaną przyjmuje postać

E(X) = μX = ∑

i=1

xi ⋅ p(xi) .

(67)

Własności

Dla dyskretnej zmiennej losowej X o wartościach x1, x2,…, xk i dowolnej funkcji f określonej dla wszystkich liczb rzeczywis-

tych funkcja f(X) jest również zmienną losową. Jej wartość oczekiwana jest równa

E(f(X)) = μf(X) = ∑k

i=1

f(xi) ⋅ p(xi) . Stąd dla dowolnych liczb a i b

E(aX + b) = aE(X) + b .

(68)

Własności

Dla dwóch dyskretnych zmiennych losowych X1, X2 funkcja X1 + X2 jest również zmienną losową. Jej wartość

oczekiwana jest równa

E(X1 + X2) = E(X1) + E(X2) .

(69)

Mediana

Dla dyskretnej zmiennej losowej X o dystrybuancie F medianą X nazywamy dowolną liczbę q0,5 taką, że

F(x) ⩽ 0,5 dla x < q0,5 i F(x) ⩾ 0,5 dla x ⩾ q0,5 . Może się zdarzyć, że powyżej zdefiniowana mediana nie jest określona jednoznacznie. Oczywiście mediana jest jedno-

znaczna, gdy istnieje dokładnie jeden punkt q0,5 taki, że F(q0,5) = 0,5.

(70)

Dominanta

Dla dyskretnej zmiennej losowej X o funkcji prawdopodo- bieństwa p dominantą nazywamy wartość x, dla której

funkcja p przyjmuje największą wartość.

0 0,05 0,1 0,15 0,2

x 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

p(x)

(71)

Wariancja i odchylenie standardowe

Dla dyskretnej zmiennej losowej X o funkcji prawdopodo-

bieństwa p i wartości oczekiwanej 𝜇X wariancją X nazywamy liczbę nieujemną

Var(X) = σX2 = E((X − μX)2) = ∑k

i=1

(xi − μX)2p(xi) .

Odchyleniem standardowym X nazywamy liczbę nieujemną SD(X) = σX = Var(X) .

(72)

Własności

Dla dyskretnej zmiennej losowej X o wartości oczekiwanej 𝜇X Var(X) = E(X2) − (E(X))2 .

Var(aX + b) = a2Var(X) . Dla dowolnych liczb a i b

SD(aX + b) = |a|SD(X) .

(73)

Wybrane rozkłady zmiennych losowych typu dyskretnego

Zmienna losowa jest najważniejszym elementem modelu opisującego eksperyment losowy. Zmienną losową można scharakteryzować za pomocą dystrybuanty lub funkcji rozkładu prawdopodobieństwa. Dla zmiennych typy

dyskretnego najbardziej dogodnym sposobem opisu jest określenie funkcji rozkładu prawdopodobieństwa. Podamy pare przykładów zmiennych losowych często stosowanych w praktyce.

(74)

Rozkład dwupunktowy

Zmienna losowa X nazywa się zmienną losową o rozkładzie

zero-jedynkowym z parametrem p, jeśli zmienna ta przyjmuje tylko dwie wartości: 0 i 1 oraz funkcja rozkładu prawdopodo- bieństwa dana jest wzorem:

p(k) = {p dla k = 1, 1 − p dla k = 0.

Wartość p oznacza prawdopodobieństwo sukcesu w

doświadczeniu, w którym są tylko dwa możliwe wyniki:

sukces (kodowany jako 1) i porażka (kodowana jako 0).

(75)

Przykład

Badając na przykład: odsetek kobiet w populacji Polski,

odsetek zwolenników danej partii politycznej, odsetek osób, które zareagowały na daną metodę leczenia rozważamy

właśnie zmienne losowe o rozkładzie zerojedynkowym.

Jesteśmy bardzo zainteresowani oszacowaniem (najcześciej nieznanego) parametru p.

(76)

Rozkład dwumianowy

Zmienna losowa X ma rozkład dwumianowy z parametrami n i p, jeśli przyjmuje tylko wartości: 0, 1, 2,…, n oraz jej

funkcja rozkładu prawdopodobieństwa dana jest wzorem:

p(k) = (n

k) pkqn−k, k = 0,1,2,…, n .

Zmienna o takim rozkładzie oznacza liczbę sukcesów w eksperymencie realizowanym wg schematu Bernoulliego.

Polega on na n-krotnym powtórzeniu doświadczenia, w

wyniku którego zaistnieje jedno z dwóch możliwych zdarzeń:

sukcesu lub porażki.

(77)

Rozkład dwumianowy

Musi być przy tym spełniony podstawowy warunek:

prawdopodobieństwo sukcesu jest stałe, tzn. nie zmienia się wraz z powtarzaniem doświadczeń. Ponadto, doświadczenia muszą być niezależne. Wówczas p oznacza prawdopodo-

bieństwo sukcesu w pojedynczej próbie, natomiast q = 1 - p jest wówczas prawdopodobieństwem porażki w pojedynczej próbie; k oznacza liczbę sukcesów w n próbach. Ponadto,

(n

k) = n!

k!(n − k)! .

(78)

Rozkład Poissona

Zmienna losowa X ma rozkład Poissona z parametrem 𝜆 > 0, jeśli przyjmuje tylko wartości: 0, 1, 2,…, oraz jej funkcja roz- kładu prawdopodobieństwa dana jest wzorem:

p(k) = λk

k! e−λ, k = 0,1,2,…

Przy zastosowaniu tego rozkładu można w sposób przybli- żony charakteryzować takie zjawiska, jak liczba usterek w produkowanych urządzeniach, liczba skaz na określonej

powierzchni materiału, liczba zgłoszeń szkód ubezpieczeń w określonym czasie itp.

Cytaty

Powiązane dokumenty

Umawiają się, że ich koleżanka Cesia rzucać będzie n razy symetryczną kostką do gry i Asia zapłaci za lody, gdy wśród wyrzuconych oczek nie

Mąż i żona zawarli następującą umowę: Jeżeli w danym dniu naczynia myje mąż, to o tym, kto myje naczynia w dniu następnym, decyduje rzut monetą. Jeżeli w pewnym dniu

Wydział Matematyki, Matematyka Stosowana Projekt - rozbitek. Opracowanie: Karolina Kędzierska,

(a) Oblicz średnią liczbę prób potrzebnych do otwarcia drzwi, jeżeli włamywacz nie pamięta, które klucze już były próbowane.. (b) Wylicz tę średnią dla przypadku, gdy

prezentacje rozwiązań zadań na zajęciach; obserwacja ciągła aktywności studenta;.. Zna podstawowe schematy rachunku prawdopodobieństwa, w tym

Do windy na parterze siedmiopiętrowego budynku wsiadło pięciu pasażerów. Oblicz prawdo- podobieństwo zdarzenia, że pasażerowie wysiądą z windy:.. a) każdy na innym piętrze, b)

Prawdopodobieństwo, że bluzka będzie miała wadę, jest równe: dla bluzki w rozmiarze najmniejszym 0,04, dla bluzki w rozmiarze średnim 0, 03 i dla bluzki w rozmia- rze

Prawdopodobieństwo, że stół będzie miała wadę, jest równe: dla stołu owalne- go 0,02, dla stołu kwadratowego 0,01 i dla stołu prostokątnego 0,04.. Oblicz prawdopodobień-