Rachunek
Prawdopodobieństwa
Próba
Poznaliśmy wcześniej pojęcie populacji generalnej (inaczej zwanej zbiorowością statystyczną) oraz pojęcie próby.
W praktyce na ogół nie możemy badać całej zbiorowości
generalnej, a chcąc zbadać interesujące nas cechy pobieramy skończoną liczbę n elementów i poddajemy je obserwacji.
Właśnie te elementy tworzą próbę.
Konieczność takiego postępowania wynika z różnych bardzo istotnych przyczyn:
Dlaczego badamy próbę
•
Nie jest możliwe zbadanie całej zbiorowości, gdyż zbiorowość generalna jest bardzo liczna lub nawet nieskończona. Na przykład, przy ocenie preferencji wyborczych jest praktycznie niemożliwe przepytaniewszystkich wyborców. Ankieterzy zbierają opinie jedynie w odpowiednio wybranej grupie osób. Te opinie stanowią
później podstawę formułowania oceny preferencji wyborczych zbiorowości generalnej.
Dlaczego badamy próbę
•
Za badaniami częściowymi przemawiają również względy ekonomiczne, gdyż obniżają koszty badań. Na przykład, naukowcy pracując nad nowym lekiem nie mogądysponować pełnymi danymi na temat działania leku czy też jego efektów ubocznych. Potwierdzenie efektywności leku i jego bezpieczeństwa jest procesem pracochłonnym i kosztownym.
Dlaczego badamy próbę
•
Badanie całej populacji jest bardzo czasochłonne. Gdyaktualność wyników badania jest niezmiernie istotna, bada się próbę, a nie całą zbiorowość. Na przykład, oceniając
skuteczność szczepionki na grypę, badanie próby skraca czas wprowadzenia jej na rynek.
Dlaczego badamy próbę
•
Badania częściowe muszą być stosowane także wtedy, gdy jednostki statystyczne w trakcie badania ulegajązniszczeniu. Na przykład, przy badaniu jakości produktów.
Czy badanie próby jest reprezentatywne?
Przy podejmowaniu kluczowych decyzji w zasadzie nie możemy obejść się bez badania prób. Pojawia się jednak pytanie: na ile reprezentatywne są próby, na których
podstawie wypowiadamy sądy o zbiorowości generalnej?
Bowiem w badaniu częściowym mogą wystąpić błędy na
skutek tego, że struktura próby może różnić się od struktury populacji. Wynika stąd, że gdy korzystamy z badania
częściowego, wydanie prawdziwego sądu jest zdarzeniem losowym, któremu odpowiada jakieś prawdopodobieństwo.
Jest ono tym większe, im próba lepiej reprezentuje zbiorowość.
Próba reprezentatywna
Aby uzyskane wyniki badania próby można było odnieść do
zbiorowości generalnej z określoną dokładnością, próba musi być reprezentatywna, czyli musi spełniać dwa warunki:
•
Musi być wybrana losowo — tzn. każda jednostka danej zbiorowości ma znane, różne od zera prawdopodobieństwo znalezienia się w próbie,•
Powinna być dostatecznie liczna (jest to pojęcie umowne, często oznacza próbę o bardzo umiarkowanej liczności).Rachunek prawdopodobieństwa daje precyzyjne narzędzie kontrolowania wspomnianej dokładności.
Uwaga
Dobór próby dla jednych cech jest losowy, dla innych zaś
może być nielosowy. Zatem o losowości próby można mówić tylko w odniesieniu do konkretnych cech. W praktyce
uzyskanie prób losowych jest w dużym stopniu utrudnione bądź wręcz niemożliwe, zatem w miejsce losowości przyjmuje się założenie o niezależności jednostek ze względu na
wyróżnione zmienne.
W przypadku prób nielosowych należy zawsze poprzestać jedynie na opisie statystycznym (wszelkie wnioskowanie o populacji nie ma uzasadnienia).
Doświadczenie losowe
To doświadczenie:
•
które może być powtarzane w (zasadniczo) tych samych warunkach,•
jego wynik nie może być przewidziany w sposób pewny,•
zbiór wszystkich możliwych wyników jest znany i może być ściśle opisany przed przeprowadzeniem doświadczenia.Przykład
Interesuje nas czas jaki upłynął od momentu zainstalowania do momentu pierwszego uszkodzenia monitora pewnej firmy.
Pojedyncze doświadczenie polega na obserwacji takiego monitora i zanotowaniu chwili jego pierwszej awarii.
Powtarzanie doświadczenia to obserwacja większej liczby monitorów tego samego rodzaju tej samej marki w (z
grubsza) takich samych warunkach.
Przykład
Nie jest możliwe przewidzenie z góry, ile czasu dany monitor będzie pracować bez żadnej usterki.
Wiemy natomiast, że czas pracy do pierwszego uszkodzenia nie może być mniejszy od zera i na pewno jest
skończony. Zakładamy dla wygody, że czas liczymy z absolutną dokładnością. W
rezultacie, za przedział możliwych czasów bezawaryjnej pracy monitorów
przyjmujemy Zatem możemy nasze doświadczenie uznać za losowe.
⟨0, + ∞) .
Zdarzenie elementarne
Zbiór wszystkich możliwych wyników doświadczenia losowego nazywamy przestrzenią zdarzeń elementarnych lub
przestrzenią próbkową i oznaczamy symbolem S. Pojedynczy element przestrzeni zdarzeń elementarnych, czyli pojedynczy wynik doświadczenia losowego, nazywamy zdarzeniem
elementarnym.
Przestrzeń zdarzeń elementarnych może być skończona lub nieskończona. W drugim przypadku może być przeliczalna, czyli jej elementy mogą zostać ponumerowane, lub może być nieprzeliczalna.
Przykład I
Z partii wyrobów zawierającej sztuki dobre i wadliwe losujemy 3 sztuki. Jeśli d oznacza wylosowanie dobrego elementu, a w — wadliwego, to przestrzeń zdarzeń
elementarnych możemy zapisać jako:
S = {(d, d, d), (d, d, w), (d, w, d), (w, d, d), (w, w, d), (w, d, w), (d, w, w), (w, w, w)}
Przykład II
Niech x oznacza spóźnienie (mierzone w minutach) studenta na wykład trwający 45 minut. Wówczas przestrzeń zdarzeń elementarnych można opisać w następujący sposób:
S = {0,1,2,…,44,45} = {x ∈ ℝ : 0 ⩽ x ⩽ 45, x ∈ ℕ}
Przykład III
Niech x oznacza spóźnienie (mierzone z absolutną
dokładnością) studenta na wykład trwający 45 minut.
Wówczas przestrzeń zdarzeń elementarnych można opisać w następujący sposób:
S = ⟨0,45⟩ = {x ∈ ℝ : 0 ⩽ x ⩽ 45}
Zdarzenie losowe
Niech S będzie ustaloną przestrzenią zdarzeń elementarnych.
Zdarzeniem losowym nazywamy podzbiór zdarzeń
elementarnych, który należy do borelowskiego ciała zdarzeń.
Borelowskie ciało zdarzeń to najmniejsza rodzina Z podzbiorów zbioru S spełniająca następujące warunki:
∙ ∅ ∈ Z oraz S ∈ Z,
∙ jeśli A, B ∈ Z, to różnica A∖B ∈ Z,
∙ iloczyn przeliczalnej rodziny zbiorów z Z należy do Z .
∙ suma przeliczalnej rodziny zbiorów z Z należy do Z,
Rachunek zdarzeń losowych
Jeżeli przestrzeń zdarzeń elementarnych S jest skończona lub przeliczalna, to borelowskie ciało zbiorów tworzą wszystkie możliwe podzbiory jakie można utworzyć z przestrzeni S.
Zdarzenia losowe oznaczamy zwykle dużymi, początkowymi literami alfabetu: A, B, C itd.
Zdarzenie losowe ∅ nazywamy zdarzeniem niemożliwym, natomiast zdarzenie losowe S — zdarzeniem pewnym.
Rachunek zdarzeń losowych
Mówimy, że zaszło zdarzenie losowe A, gdy wynik
doświadczenia losowego (zdarzenie elementarne) należy do zbioru A (inaczej sprzyja zdarzeniu A).
A = ⟨0,3) .
Dopełnieniem zdarzenia losowego A (lub zdarzeniem przeciwnym do A), oznaczanym przez nazywamy zdarzenie losowe równe różnicy zbiorów S i A:
A′ = S∖A .
A′,
Na przykład, w doświadczeniu z monitorem, jeśli monitor pracował bezawaryjnie przez 2,4 roku od chwili zakupu, to znaczy, że zaszło zdarzenie
Rachunek zdarzeń losowych
Sumą zdarzeń A i B nazywamy zdarzenie równe sumie zbiorów A i B, czyli równe
A ∪ B .
A ∩ B .
Iloczynem zdarzeń A i B nazywamy zdarzenie równe iloczynowi zbiorów A i B, czyli równe
A ∩ B = ∅ .
Mówimy, że zdarzenia A i B wykluczają się, gdy
A ⊂ B .
Mówimy, że zdarzenie A implikuje zdarzenie B, gdy zbiór A jest zawarty w zbiorze B, tzn.
Zmienna losowa
Niech S będzie przestrzenią zdarzeń elementarnych i niech Z będzie rodziną wszystkich podzbiorów przestrzeni S uznanych za zdarzenia losowe (czyli ciałem borelowskim).
{s ∈ S : X(s) ⩽ x}
jest zdarzeniem losowym dla każdej liczby rzeczywistej x.
W przypadku skończonych przestrzeni S każda funkcja X spełnia powyższy warunek, więc może być uznana za
zmienną losową.
Zmienną losową nazywamy funkcję X, która każdemu
zdarzeniu elementarnemu s z przestrzeni S przyporządkowuje liczbę rzeczywistą w ten sposób, że zbiór
Przykład
Rozważmy doświadczenie, w którym obserwujemy ogłoszenia do porannego wydania pewnego dziennika. Jest to
doświadczenie losowe, gdyż treść i liczba zamieszczonych ogłoszeń zależy od wielu czynników: pory roku, dnia
tygodnia, stanu gospodarki, stanu miejscowego biznesu.
Zdarzeniem elementarnym jest wydanie dziennika z konkretnego dnia.
Funkcja, która każdemu takiemu zdarzeniu elementarnemu
przyporządkuje liczbę ogłoszeń w tym wydaniu dziennika jest zmienną losową.
Prawdopodobieństwo zdarzenia losowego
Niech S będzie przestrzenią zdarzeń elementarnych, a A niech będzie zdarzeniem losowym. Prawdopodobieństwo zdarzenia A, oznaczane symbolem P(A), jest liczbą rzeczywistą o
następujących własnościach (aksjomatach):
∙ 0 ⩽ P(A) ⩽ 1,
∙ P(∅) = 0, P(S) = 1,
∙ jeśli zdarzenia losowe A1, A2, A3, … wzajemnie się wykluczają, to
P(A1 ∪ A2 ∪ A3 ∪ …) = P(A1) + P(A2) + P(A3) + …
Wniosek I
Niech wyniki doświadczenia losowego będą jednakowo
prawdopodobne, a przestrzeń zdarzeń elementarnych S będzie skończona i złożona z M elementów. Jeżeli zdarzenie losowe A składa się z m zdarzeń elementarnych, to prawdopodo-
bieństwo zdarzenia A jest równe P(A) = m
M .
Wniosek II
Niech przestrzeń zdarzeń elementarnych S będzie skończona składa się z M elementów:
P(A) = ∑
si∈A
P(si) . S = {s1, s2, …, sM}
i niech prawdopodobieństwo zajścia zdarzenia elementarnego si wynosi P(si), i = 1,2,.,M. Wówczas dla każdego zdarzenia losowego A
Własności
Niech A będzie zdarzeniem losowym, A ⊂ S. Wówczas
prawdopodobieństwo zdarzenia przeciwnego A’ zdarzeniu A jest równe
P(A′) = 1 − P(A) .
Niech A i B będą zdarzeniami losowymi, A, B ⊂ S. Jeśli zdarzenie A pociąga za sobą zdarzenie B, tzn. A ⊂ B, to
P(A) ⩽ P(B) .
Własności
Niech A i B będą zdarzeniami losowymi, A, B ⊂ S. Wówczas P(A∖B) = P(A) − P(A ∩ B) .
A B S
I II
I = A∖B II = A ∩ B
(A∖B) ∩ (A ∩ B) = ∅ A = (A∖B) ∪ (A ∩ B)
Własności
Niech A i B będą zdarzeniami losowymi, A, B ⊂ S. Wówczas P(A ∪ B) = P(A) + P(B) − P(A ∩ B) .
A B S
I II III
I = A∖B II = A ∩ B III = B∖A A = (A∖B) ∪ (A ∩ B) B = (B∖A) ∪ (A ∩ B)
Prawdopodobieństwo warunkowe
Często interesuje nas prawdopodobieństwo zdarzenia,
powiedzmy B, gdy wiemy, że zaszło pewne inne zdarzenie A.
Mówimy wtedy o prawdopodobieństwie zdarzenia B pod warunkiem, że zaszło zdarzenia A. Prawdopodobieństwo takie oznaczamy symbolem P(B|A) .
Takie prawdopodobieństwo powinno spełniać naturalne postulaty:
∙ P(A|A) = 1,
∙ P(B|A) = P(A ∩ B|A) .
Prawdopodobieństwo warunkowe
Przejdźmy do formalnej definicji. Niech A i B będą dwoma zdarzeniami losowymi zawartymi w przestrzeni zdarzeń
elementarnych S, przy czym prawdopodobieństwo zdarzenia A jest dodatnie. Prawdopodobieństwo warunkowe zdarzenia B pod warunkiem zajścia zdarzenia A jest dane wzorem
P(B|A) = P(A ∩ B) P(A) .
Łatwo zauważyć, że powyższe prawdopodobieństwo spełnia obydwa podane wcześniej postulaty.
Przykład
Na podstawie danych z roku 1864 można orzec, że w owym roku prawdopodobieństwo bycia katolikiem w Warszawie
wynosiło 0,591 — bycia prawosławnym 0,014 — bycia ewangelikiem 0,067 — bycia żydem 0,326 oraz bycia
warszawiakiem innego wyznania 0,002. Niech A oznacza zdarzenie bycia chrześcijaninem (czyli katolikiem,
prawosławnym lub ewangelikiem). Niech B1 będzie
zdarzeniem bycia katolikiem, B2 — bycia prawosławnym i B3
— bycia ewangelikiem. Wówczas
A = B1 ∪ B2 ∪ B3 .
Przykład
Ponieważ zdarzenia B1, B2, B3 wzajemnie się wykluczają, to P(A) = P(B1 ∪ B2 ∪ B3) = P(B1) + P(B2) + P(B3) =
= 0,591 + 0,014 + 0,067 = 0,672.
Zatem
P(B1|A) = P(A ∩ B1)
P(A) = P(B1)
P(A) = 0,591
0,672 = 0,879.
Czyli prawdopodobieństwo bycia katolikiem wśród
warszawskich chrześcijan wynosi 0,879. Inaczej, odsetek katolików wśród chrześcijan w Warszawie wynosił 87,9%.
Własności
Niech A i B będą zdarzeniami losowymi, A, B ⊂ S,
posiadającymi dodatnie prawdopodobieństwa. Wówczas
P(A ∩ B ∩ C) = P(C ∩ (A ∩ B)) =
Podobnie dla większej liczby zdarzeń losowych, A, B, C ⊂ S, mamy
P(A ∩ B) = P(B|A) ⋅ P(A) = P(A|B) ⋅ P(B) .
= P(C|A ∩ B)) ⋅ P(A ∩ B) =
= P(C|A ∩ B)) ⋅ P(B|A) ⋅ P(A) .
Przykład
W urnie znajduje się 8 kul czerwonych oraz 4 białe. Jakie jest prawdopodobieństwo wyciągnięcia dwóch kul
czerwonych? Niech C1 będzie zdarzeniem losowym
polegającym na otrzymaniu w pierwszym ciągnieniu kuli czerwonej, C2 — zdarzeniem polegającym na otrzymaniu czerwonej kuli w drugim ciągnieniu. Interesuje nas
prawdopodobieństwo zdarzenia A = obie kule czerwone, czyli prawdopodobieństwo
P(A) = P(C1 ∩ C2) .
Przykład
Bez trudu zauważamy, że P(C1) = 8
12 , P(C2|C1) = 7 11 . Stąd
P(A) = P(C1 ∩ C2) =
= P(C2|C1) ⋅ P(C1) =
= 711 ⋅ 8
12 = 14
33 ≈ 0,42
Zdarzenia niezależne
Intuicyjnie, zdarzenia A i B o dodatnich prawdopodobień- stwach są niezależne, jeśli informacja o tym, że jedno zaszło nie ma wpływu na prawdopodobieństwo zajścia drugiego:
P(B|A) = P(B) oraz P(A|B) = P(A) .
Korzystając ze wzoru na prawdopodobieństwo warunkowe otrzymujemy definicję: zdarzenia A i B są niezależne, gdy
P(A ∩ B) = P(A) ⋅ P(B)
albo (co na jedno wychodzi) zachodzi jedna z równości:
P(B|A) = P(B) lub P(A|B) = P(A) .
Przykład
Utrzymanie łączności telefonicznej wymagało w przeszłości kładzenia kabli podwodnych. Na przykład, kabel łączący Amerykę Północną i Europę miał około 5000 km długości.
Składał się on z 501 odcinków po 10 km łączonych
przekaźnikami w liczbie 500. Ocenia się, że Każdy taki przekaźnik pracował niezawodnie przez 10 lat z
prawdopodobieństwem P(A) = 0,999. Zakładając, że uszkodzenia przekaźników są od siebie niezależne,
stwierdzamy, że prawdopodobieństwo niezawodnej pracy tych wszystkich przekaźników przez 10 lat wynosi tylko
P(A ∩ … ∩ A) = P(A)500 = (0,999)500 = 0,61.
Podział przestrzeni S
Mówimy, że zdarzenia B1, B2,…, Bk, tworzą podział
przestrzeni zdarzeń elementarnych S (inaczej układ zupełny przestrzeni zdarzeń elementarnych), gdy parami się
wykluczają:
Bi ∩ Bj = ∅ dla i ≠ j oraz
B1 ∪ P2 ∪ … ∪ Bk = S .
Prawdopodobieństwo całkowite
Jeżeli zdarzenia B1, B2,…, Bk mają dodatnie prawdopodo- bieństwa i tworzą podział przestrzeni S, to prawdopodobień- stwo każdego zdarzenia losowego A można obliczyć na
podstawie wzoru na prawdopodobieństwo całkowite:
P(A) = ∑k
i=1
P(A ∩ Bi) = ∑k
i=1
P(A|Bi)P(Bi) .
Prawdopodobieństwo całkowite
S
B1 B2 B3 B4 B5
A ∩ B1 A ∩ B2 A ∩ B3 A ∩ B4 A ∩ B5
A A = (A ∩ B1) ∪ (A ∩ B2) ∪ … ∪ (A ∩ B5)
P(A) = P(A ∩ B1) + P(A ∩ B2) + … + P(A ∩ B5)
P(A) = P(A|B1)P(B1) + P(A|B2)P(B2) + … + P(A|B5)P(B5)
Przykład
Losowanie urny
Losowanie kuli Losowanie kuli
B1 B2
P(B1) = 4
6 P(B2) = 2
6
P(A|B1) = 3
4 P(A′|B1) = 1
4 P(A|B2) = 2
4 P(A′|B2) = 2
4
P(A) = P(A|B1)P(B1) + P(A|B2)P(B2) = 4
6 ⋅ 3
4 + 2
6 ⋅ 2
4 = 2 3
A A′ A A′
Przykład
Załóżmy teraz, że wylosowano już kulę niebieską. Można
zapytać się teraz jakie jest prawdopodobieństwo, że kula ta pochodzi z urny, w której były dwie kule niebieskie i dwie kule białe?
Pytania tego typu prowadzą do wzoru Bayesa, zwanego również wzorem na prawdopodobieństwo a posteriori (po wystąpieniu zdarzenia A). Prawdopodobieństwa zdarzeń Bi
zwane są w tym przypadku prawdopodobieństwami a priori.
Wzór Bayesa
Jeżeli zdarzenie losowe A zrealizowało się, a zdarzenia B1, B2,
…, Bk mają dodatnie prawdopodobieństwa i tworzą podział przestrzeni S, to prawdopodobieństwo każdego ze zdarzeń Bj
daje wzór
P(Bj |A) = P(Bj ∩ A)
P(A) = P(Bj)P(A|Bj)
P(A) = P(Bj)P(A|Bj)
∑k
i=1 P(A|Bi)P(Bi)
Przykład
Wróćmy do przykładu, w którym zakładaliśmy, że wylosowano już kulę niebieską i zapytaliśmy jakie jest prawdopodobieństwo, że kula ta pochodzi z urny, w której były dwie kule niebieskie i dwie kule białe? A jakie z urny drugiej?
P(B1|A) = P(B1)P(A|B1)
P(A) =
46 ⋅ 34
23
= 34 .
P(B2|A) = P(B2)P(A|B2)
P(A) =
26 ⋅ 24
23
= 14 .
Dystrybuanta zmiennej losowej
Niech S będzie przestrzenią zdarzeń elementarnych i niech X będzie zmienną losową. Wówczas, jak wiemy, dla każdej
liczby x zbiór
{s ∈ S : X(s) ⩽ x}
jest zdarzeniem losowym. Zdarzenie to oznaczamy krótko X ⩽ x .
Ponieważ jest to zdarzenie losowe, to ma ono określone prawdopodobieństwo. To prowadzi nas do następującej definicji funkcji zwanej dystrybuantą.
Dystrybuanta zmiennej losowej
Dystrybuantą zmiennej losowej X nazywamy funkcję F o argumentach i wartościach rzeczywistych określoną wzorem
F(x) = P(X ⩽ x), x ∈ ℝ .
Zatem wartość dystrybuanty w punkcie x to prawdopodo- bieństwo zdarzenia losowego, w którym wartości zmiennej losowej X nie przekroczą liczby x.
Z własności prawdopodobieństwa wynika natychmiast, że 0 ⩽ F(x) ⩽ 1
i że F jest funkcją niemalejącą.
Dystrybuanta zmiennej losowej
Ponadto, dla dowolnej pary liczb a i b możemy za pomocą dystrybuanty wyznaczyć prawdopodobieństwo zdarzenia
a < X ⩽ b,
gdyż jest to zdarzenie losowe będące różnicą dwóch zdarzeń losowych
I z własności prawdopodobieństwa
P(a < X ⩽ b) = P(X ⩽ b) − P(X ⩽ a) = F(b) − F(a) . (X ⩽ b)∖(X ⩽ a) .
Dystrybuanta zmiennej losowej
Poznanie dystrybuanty jest zatem bardzo istotne, gdyż bar- dzo często szacujemy prawdopodobieństwa zdarzeń postaci
a < X ⩽ b,
czyli zdarzeń losowych dotyczących przyjmowania przez zmienną losową wartości z pewnego zakresu (przedziału)
(a, b] .
Na przykład, interesuje nas pytanie jak często dziennik publikuje od 3 do 5 ogłoszeń? albo jakie jest
prawdopodobieństwo, że kursy akcji danej spółki osiągnie poziom wyższy od 12 PLN, ale niższy niż 15 PLN?
Typy zmiennych losowych
Ze względu na zakres wartości liczbowych jakie może
przyjmować zmienna losowa rozróżniamy dwa typy zmiennych
Zmienna Losowa
Zmienna Losowa Dyskretna (Skokowa) Zmienna Losowa Ciągła
Może przyjmować tylko skończoną albo przeliczalną liczbę wartości, tzn. albo x1, x2, …, xk albo x1, x2, …
Może przyjmować wartości z jakiegoś przedziału liczb rzeczywistych, np. z przedziału (-2, 15).
Zmienna losowa dyskretna
Niech S będzie przestrzenią zdarzeń elementarnych. Zmienną losową X nazywamy dyskretną, gdy przyjmuje wartości ze
zbioru dyskretnego, to jest takiego, który jest albo skończony albo przeliczalny (tzn. którego elementy można ponumerować kolejnymi liczbami naturalnymi).
X : S → ℝ
Liczba x jest wartością zmiennej losowej X, gdy istnieje takie zdarzenie elementarne s z przestrzeni S, dla którego
X(s) = x .
Rozkład prawdopodobieństwa zmiennej losowej dyskretnej
Rozkład prawdopodobieństwa zmiennej losowej dyskretnej
mówi jakie wartości i z jakim prawdopodobieństwem są przez zmienną losową przyjmowane.
Koncepcja ta jest bliska koncepcji budowania szeregu
rozdzielczego wartości cechy statystycznej, z tą różnicą, że zamiast liczebności względnej w z jaką wartości zmiennej
pojawiły się w zbiorowości statystycznej interesuje nas teraz prawdopodobieństwo wystąpienia każdej z potencjalnych
wartości tej zmiennej.
Rozkład prawdopodobieństwa zmiennej losowej dyskretnej
W przypadku dyskretnej zmiennej losowej określenie
rozkładu sprowadza się do podania następującej funkcji zwanej funkcją prawdopodobieństwa rozkładu lub funkcją prawdopodobieństwa:
p(x) = P({s ∈ S : X(s) = x}) lub krócej
p(x) = P(X = x) .
Rozkład prawdopodobieństwa zmiennej losowej dyskretnej
Rozkład prawdopodobieństwa dyskretnej zmiennej losowej,
która przyjmuje wartości x1, x2,…, xk, często podajemy w tabeli
x x1 x2 … xk
p(x) p1 p2 … pk
gdzie
pi = p(xi) = P(X = xi) .
Przykład
Rozpatrzmy zmienną losową będącą liczbą trafień w dwóch wykonywanych przez koszykarza rzutach osobistych. Kodując trafienie jako 1, a chybienie jako 0, możemy wszystkie
możliwe zdarzenia elementarne zebrać w przestrzeń zdarzeń S = {(0,1), (1,0), (1,1), (0,0)} .
oznaczając liczbę trafień przez X, mamy
X((0,1)) = 1, X((1,0)) = 1, X((1,1)) = 2, X((0,0)) = 0.
Przykład
Przyjmijmy, że prawdopodobieństwo trafienia w jednym rzucie osobistym tego koszykarza wynosi 0,8 i zdarzenie trafienia lub chybienia w drugim rzucie jest niezależne od analogicznych zdarzeń w pierwszym rzucie. Wówczas, skoro
p(0) = P(X = 0) = P((0,0)) = (1 − 0,8) ⋅ (1 − 0,8) = 0,04, to
X((0,1)) = 1, X((1,0)) = 1, X((1,1)) = 2, X((0,0)) = 0,
p(1) = P(X = 1) = P((1,0) ∪ (0,1)) = 0,8 ⋅ 0,2 + 0,2 ⋅ 0,8 = 0,32, p(2) = P(X = 2) = P((1,1)) = 0,8 ⋅ 0,8 = 0,64.
Przykład
Wyznaczoną funkcję prawdopodobieństwa można przedstawić w postaci następującej tabeli
x 0 1 2
p(x) 0,04 0,32 0,64
p(1) = P(X = 1) = 0,32.
Wówczas, na przykład
Własności
Niech X będzie dyskretną zmienną losową, która przyjmuje wartości x1, x2,…, xk (albo x1, x2,…). Wówczas
k
∑i=1
pi = ∑k
i=1
p(xi) = ∑k
i=1
P(X = xi) = 1 albo
∞
∑i=1
pi = ∑∞
i=1
p(xi) = ∑∞
i=1
P(X = xi) = 1.
Dystrybuanta zmiennej losowej dyskretnej
Niech X będzie dyskretną zmienną losową, która przyjmuje wartości x1, x2,…, xk (albo x1, x2,…). Wówczas wartości dy- strybuanty wyznaczamy na podstawie wzoru
F(x) = ∑
i: xi⩽x
p(xi),
gdzie sumowanie rozciąga się na wszystkie indeksy i, dla których spełniona jest nierówność
xi ⩽ x .
Przykład
Dla zmiennej losowej o rozkładzie prawdopodobieństwa
x 0 1 2
p(x) 0,04 0,32 0,64
F(x) =
0 dla x < 0,
0,04 dla 0 ⩽ x < 1, 0,36 dla 1 ⩽ x < 2, 1 dla x ⩾ 2.
dystrybuanta jest dana wzorem
Przykład
Dystrybuantę można przedstawić graficznie
0 0,2 0,4 0,6 0,8 1
-1 0 1 2 3
F(x) =
0 dla x < 0,
0,04 dla 0 ⩽ x < 1, 0,36 dla 1 ⩽ x < 2, 1 dla x ⩾ 2.
Własności
Niech X będzie dyskretną zmienną losową i niech a < b.
Wtedy
P(a ⩽ X ⩽ b) = F(b) − F(a) + p(a), oraz
P(a < X < b) = F(b) − F(a) − p(b) .
Wskaźniki położenia i rozproszenia zmiennej
losowej dyskretnej
Przykład
Liczba podręczników przyniesionych
na zajęcia przez 1000 studentów pewnej szkoły
Liczba podręczników
xi
Liczba studentów
ni nixi wi = ni/N
0 100 0 0,1
1 300 300 0,3
2 250 500 0,25
3 200 600 0,2
4 100 400 0,1
5 50 250 0,05
Razem 1000 2050 1
Przykład
Zatem średnią przyniesionych podręczników obliczymy ze wzoru
x = 1
1000 (0 ⋅ 100 + 1 ⋅ 300 + … + 5 ⋅ 50) = 2,05
Rozważmy teraz doświadczenie losowe polegające na losowym wyborze jednego spośród tych 1000 studentów. Niech X
będzie zmienną losową zdefiniowaną jako liczba podręczników przyniesionych przez losowo wybranego studenta. Oczywiście, prawdopodobieństwo, że wybrany student nie będzie miał
żadnej książki wynosi 100/1000 = 0,1, że będzie miał jeden podręcznik — wynosi 300/1000 = 0,3 itd.
Przykład
Tak więc funkcja prawdopodobieństwa zmiennej losowej X jest następująca
x 0 1 2 3 4 5
p(x) 0,1 0,3 0,25 0,2 0,1 0,05
Ponieważ pi = wi, to powyżej otrzymany wzór na średnią można zapisać następująco:
x = 0 ⋅ 0,1 + 1 ⋅ 0,3 + … + 5 ⋅ 0,05 = ∑6
i=1
xi ⋅ pi . Prowadzi to do następującej definicji.
Wartość oczekiwana
Dla dyskretnej zmiennej losowej X o wartościach x1, x2,…, xk i funkcji prawdopodobieństwa p wartością oczekiwaną (albo
średnią) X nazywamy liczbę daną wzorem E(X) = μX = ∑k
i=1
xi ⋅ p(xi) .
W przypadku, gdy zmienna X ma nieskończenie wiele wartości x1, x2,… wzór na wartość oczekiwaną przyjmuje postać
E(X) = μX = ∑∞
i=1
xi ⋅ p(xi) .
Własności
Dla dyskretnej zmiennej losowej X o wartościach x1, x2,…, xk i dowolnej funkcji f określonej dla wszystkich liczb rzeczywis-
tych funkcja f(X) jest również zmienną losową. Jej wartość oczekiwana jest równa
E(f(X)) = μf(X) = ∑k
i=1
f(xi) ⋅ p(xi) . Stąd dla dowolnych liczb a i b
E(aX + b) = aE(X) + b .
Własności
Dla dwóch dyskretnych zmiennych losowych X1, X2 funkcja X1 + X2 jest również zmienną losową. Jej wartość
oczekiwana jest równa
E(X1 + X2) = E(X1) + E(X2) .
Mediana
Dla dyskretnej zmiennej losowej X o dystrybuancie F medianą X nazywamy dowolną liczbę q0,5 taką, że
F(x) ⩽ 0,5 dla x < q0,5 i F(x) ⩾ 0,5 dla x ⩾ q0,5 . Może się zdarzyć, że powyżej zdefiniowana mediana nie jest określona jednoznacznie. Oczywiście mediana jest jedno-
znaczna, gdy istnieje dokładnie jeden punkt q0,5 taki, że F(q0,5) = 0,5.
Dominanta
Dla dyskretnej zmiennej losowej X o funkcji prawdopodo- bieństwa p dominantą nazywamy wartość x, dla której
funkcja p przyjmuje największą wartość.
0 0,05 0,1 0,15 0,2
x 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
p(x)
Wariancja i odchylenie standardowe
Dla dyskretnej zmiennej losowej X o funkcji prawdopodo-
bieństwa p i wartości oczekiwanej 𝜇X wariancją X nazywamy liczbę nieujemną
Var(X) = σX2 = E((X − μX)2) = ∑k
i=1
(xi − μX)2p(xi) .
Odchyleniem standardowym X nazywamy liczbę nieujemną SD(X) = σX = Var(X) .
Własności
Dla dyskretnej zmiennej losowej X o wartości oczekiwanej 𝜇X Var(X) = E(X2) − (E(X))2 .
Var(aX + b) = a2Var(X) . Dla dowolnych liczb a i b
SD(aX + b) = |a|SD(X) .
Wybrane rozkłady zmiennych losowych typu dyskretnego
Zmienna losowa jest najważniejszym elementem modelu opisującego eksperyment losowy. Zmienną losową można scharakteryzować za pomocą dystrybuanty lub funkcji rozkładu prawdopodobieństwa. Dla zmiennych typy
dyskretnego najbardziej dogodnym sposobem opisu jest określenie funkcji rozkładu prawdopodobieństwa. Podamy pare przykładów zmiennych losowych często stosowanych w praktyce.
Rozkład dwupunktowy
Zmienna losowa X nazywa się zmienną losową o rozkładzie
zero-jedynkowym z parametrem p, jeśli zmienna ta przyjmuje tylko dwie wartości: 0 i 1 oraz funkcja rozkładu prawdopodo- bieństwa dana jest wzorem:
p(k) = {p dla k = 1, 1 − p dla k = 0.
Wartość p oznacza prawdopodobieństwo sukcesu w
doświadczeniu, w którym są tylko dwa możliwe wyniki:
sukces (kodowany jako 1) i porażka (kodowana jako 0).
Przykład
Badając na przykład: odsetek kobiet w populacji Polski,
odsetek zwolenników danej partii politycznej, odsetek osób, które zareagowały na daną metodę leczenia rozważamy
właśnie zmienne losowe o rozkładzie zerojedynkowym.
Jesteśmy bardzo zainteresowani oszacowaniem (najcześciej nieznanego) parametru p.
Rozkład dwumianowy
Zmienna losowa X ma rozkład dwumianowy z parametrami n i p, jeśli przyjmuje tylko wartości: 0, 1, 2,…, n oraz jej
funkcja rozkładu prawdopodobieństwa dana jest wzorem:
p(k) = (n
k) pkqn−k, k = 0,1,2,…, n .
Zmienna o takim rozkładzie oznacza liczbę sukcesów w eksperymencie realizowanym wg schematu Bernoulliego.
Polega on na n-krotnym powtórzeniu doświadczenia, w
wyniku którego zaistnieje jedno z dwóch możliwych zdarzeń:
sukcesu lub porażki.
Rozkład dwumianowy
Musi być przy tym spełniony podstawowy warunek:
prawdopodobieństwo sukcesu jest stałe, tzn. nie zmienia się wraz z powtarzaniem doświadczeń. Ponadto, doświadczenia muszą być niezależne. Wówczas p oznacza prawdopodo-
bieństwo sukcesu w pojedynczej próbie, natomiast q = 1 - p jest wówczas prawdopodobieństwem porażki w pojedynczej próbie; k oznacza liczbę sukcesów w n próbach. Ponadto,
(n
k) = n!
k!(n − k)! .
Rozkład Poissona
Zmienna losowa X ma rozkład Poissona z parametrem 𝜆 > 0, jeśli przyjmuje tylko wartości: 0, 1, 2,…, oraz jej funkcja roz- kładu prawdopodobieństwa dana jest wzorem:
p(k) = λk
k! e−λ, k = 0,1,2,…
Przy zastosowaniu tego rozkładu można w sposób przybli- żony charakteryzować takie zjawiska, jak liczba usterek w produkowanych urządzeniach, liczba skaz na określonej
powierzchni materiału, liczba zgłoszeń szkód ubezpieczeń w określonym czasie itp.