• Nie Znaleziono Wyników

Rachunek pstwa w7-2012

N/A
N/A
Protected

Academic year: 2021

Share "Rachunek pstwa w7-2012"

Copied!
112
0
0

Pełen tekst

(1)

RACHUNEK

PRAWDOPODOBIEŃSTWA

WYKŁAD 7.

ZMIENNA LOSOWA

DWUWYMIAROWA

(WIELOWYMIAROWA)

(2)

2

Jeśli Xi i = 1, 2, ..., n są zmiennymi losowymi

w ustalonej przestrzeni probabilistycznej

(Ω, ,S P) to ciąg X = (X1 , X2 , ..., Xn) nazywamy zmienną losową n-wymiarową (wektorem losowym).

(3)

Zauważmy, że w tym przypadku każdemu

zdarzeniu elementarnemu

przyporządko-wujemy ciąg n liczb rzeczywistych.

n R

(4)

4

W szczególności gdy n = 2 mamy

dwuwymiarową zmienną losową (X, Y).

Zmienne losowe wielowymiarowe służą do modelowania takich doświadczeń losowych, których wyniki opisuje się układem wielu liczb rzeczywistych np. losowo wybranego człowieka możemy m.in. scharakteryzować trzema liczbami: wzrostem, wagą i wiekiem.

(5)

Zmienna losowa 2-wymiarowa.

( , )

:

Β

( )

R

2

[

0

,

1

]

P

X Y

- rozkład prawdopodobieństwa zmiennej losowej (X,Y).

( , )(A) P

(

(

X,Y

)

1(A)

)

, A

( )

R2

(6)

6

Rozkłady prawdopodobieństwa zmiennych losowych X, Y nazywamy rozkładami

brzegowymi.

Rozkład prawdopodobieństwa zmiennej

losowej (X, Y) nazywamy rozkładem

(7)

Dystrybuanta

(

X x Y y

)

P y x F( , ) = < , <

(8)

8

Własności dystrybuanty zmiennej losowej (X,Y).

a) F jest niemalejąca względem każdego

argumentu, b) ∀x ylim−∞ F(x, y) = 0; ∀y

(

xlim→−∞ F(x, y) = 0

)

;         = ∞ →∞ → ( , ) 1 limF x y y x ,

c) F jest lewostronnie ciągła względem

każdego argumentu, d)

(

) (

) (

) (

)

0 ) ; ( , , , , ; ; 2 1 2 1 1 1 1 2 2 1 2 2 2 1 2 1 ≥ < ≤ < ≤ = = + − − ≤ ∀ ≤ ∀ y Y y x X x P y x F y x F y x F y x F y y x x

(9)

Jeśli F(x, y) jest dystrybuantą zmiennej losowej (X,Y) to funkcje

) , ( ) , ( lim ) ( ); , ( ) , ( lim ) ( y F y x F y F x F y x F x F x Y y X ∞ = = ∞ = = ∞ → ∞ →

są dystrybuantami odpowiednich rozkładów brzegowych.

(10)

10

Zmienne losowe X,Y są niezależne gdy dla dowolnych zbiorów borelowskich A, B na prostej mamy

)

(

)

(

)

,

(

X

A

Y

B

P

X

A

P

Y

B

P

=

(11)

Zmienne losowe X,Y są niezależne wtedy i tylko wtedy, gdy dla dowolnych x, y rzeczywistych

(12)

12

Dwuwymiarowa zmienna losowa (X, Y) ma

rozkład skokowy jeśli zmienne losowe X i Y

mają skończony lub przeliczalny zbiór wartości.

Rozkład zmiennej losowej (X, Y) (łączny rozkład zmiennych X i Y) określa się za pomocą funkcji prawdopodobieństwa lub dystrybuanty.

(13)

Funkcją prawdopodobieństwa skokowej zmiennej losowej (X, Y) przyjmującej wartości (xi, yj) jest

pij =P(X = xi, Y = yj) i, j = 1, 2, ...

przy czym pij ≥ 0 oraz

∑∑

=

i j

ij

(14)

14

Dystrybuantą F(x, y) skokowej zmiennej

losowej (X, Y) jest funkcja rzeczywista

∑ ∑

< <

=

x x y y ij i j

p

y

x

F

(

,

)

(15)

Funkcję prawdopodobieństwa skokowej

zmiennej losowej (X, Y) przyjmującej wartości (xi, yj) można zapisać w postaci tablicy:

Y X y1 y2 ... yl pi. x1 p11 p12 ... p1l p1. x2 p21 p22 ... p2l p2. .... .... .... .... .... ... xk pk1 pk2 ... pkl pk. p.j p.1 p.2 ... p.l 1

(16)

16

gdzie

x1, x2, .... , xk – wartości zmiennej losowej X,

y1, y2, .... , yl – wartości zmiennej losowej Y,

p.j – sumy prawdopodobieństw w kolumnach,

p.j =∑

i ij p

pi. – sumy prawdopodobieństw w wierszach,

pi. =∑

j ij p .

(17)

Uwaga. 1 , =

j i ij p .

(18)

18

Rozkładem brzegowym zmiennej losowej X

nazywamy rozkład określony funkcją prawdopodobieństwa:

xi x1 x2 ... xk

(19)

Rozkładem brzegowym zmiennej losowej Y nazywamy rozkład określony funkcją

prawdopodobieństwa:

yj y1 y2 ... yl

(20)

20

Jeśli zmienna losowa (X, Y) jest skokowa to zmienne losowe X i Y są niezależne gdy dla

każdej pary (xi, yj) (i, j = 1, 2, ...) spełniony jest warunek:

P(X = xi, Y = yj) = P(X = xi)P(Y = yj)

Warunek ten można również zapisać w postaci

(21)

Przykład.

Rzucamy dwa razy kostką.

X - liczba parzystych oczek w pierwszym rzucie, tzn. X = 0 lub X = 1.

Y - liczba jedynek w obu rzutach, tzn. Y = 0 lub Y = 1, lub Y = 2.

Funkcja rozkładu prawdopodobieństwa tej zmiennej losowej dana jest tabelką:

Y

X 0 1 2 pi.

0 10/36 7/36 1/36 18/36

1 15/36 3/36 0 18/36

(22)

22

Rozkłady brzegowe wyznaczone są przez brzegowe wartości tej tabeli.

Rozkład brzegowy zmiennej losowej X :

xi 0 1

(23)

Rozkład brzegowy zmiennej losowej Y :

yj 0 1 2

(24)

24

Przykład.

Funkcje rozkładu prawdopodobieństwa dane tabelkami: Y X 0 1 2 pi. 0 1/8 0 3/8 4/8 1 1/4 1/4 0 4/8 p.j 3/8 1/4 3/8 1

(25)

Y

X 0 1 2 pi.

0 3/8 0 1/8 4/8

1 0 1/4 1/4 4/8

p.j 3/8 1/4 3/8 1

(26)

26

Wniosek.

Na ogół rozkłady brzegowe nie wyznaczają rozkładu łącznego jednoznacznie.

W przypadku zmiennych losowych

niezależnych rozkłady brzegowe wyznaczają rozkład łączny jednoznacznie.

(27)

(X, Y) nazywamy zmienną losową ciągłą jeśli jej dystrybuanta da się przedstawić w postaci

∫ ∫

∞ − −∞ = x y f s t dsdt y x F( , ) ( , )

dla pewnej nieujemnej funkcji f zwanej

(28)

28 Uwaga. 1.

∫ ∫

( , ) =1 ∞ ∞ − ∞ ∞ − dxdy y x f , f x y( , ) ≥ 0

2.W punktach ciągłości funkcji f zachodzi: ) , ( ) , ( 2 y x f y x y x F = ∂ ∂ ∂ 3. Dla A∈Β(R2) mamy ( )

=

∫∫

A Y X

A

f

x

y

dxdy

P

,

(

)

(

,

)

.

(29)

Mając gęstość rozkładu łącznego gęstości rozkładów brzegowych wyznaczamy

następująco

Jeśli f(x, y) jest gęstością zmiennej losowej (X,Y) to funkcje

∞ ∞ − ∞ ∞ − = = f x y dy f y f x y dx x fX ( ) ( , ) ; Y ( ) ( , )

są gęstościami odpowiednich rozkładów brzegowych.

(30)

30

Jeśli łączny rozkład (X, Y) jest ciągły, to zmienne losowe X,Y są niezależne wtedy i tylko wtedy, gdy dla dowolnych x, y rzeczywistych

(31)

Przykład.

Funkcja f(x, y) jest gęstością zmiennej losowej (X,Y).    ≤ ≤ ≤ ≤ = y x, innych dla dla 0 2 0 , 2 0 ) , (x y c x y f

Przez całkowanie lub z interpretacji

geometrycznej wynika, że c = 0,25 (bo pole rozpatrywanego kwadratu wynosi 4).

Przez całkowanie lub z interpretacji

geometrycznej wynika, że dystrybuanta tego rozkładu ma postać         > > > ≤ < > ≤ < ≤ < ≤ < ∨ ≤ ≤ = 2 , 2 1 2 , 2 0 5 , 0 2 , 2 0 5 , 0 2 0 , 2 0 25 , 0 0 0 0 ) , ( y x x y y y x x y x xy y x y x F

Rozkłady brzegowe to rozkłady jednostajne na przedziale [0, 2].

Zauważmy, że zmienne losowe X,Y są niezależne.

(32)

32

Informacja o zmiennych losowych n - wymiarowych.

(Ω,S,P)- ustalona przestrzeń probabilistyczna. X = (X1, X2, ..., Xn) - zmienna losowa n - wymiarowa (wektor losowy).

Dystrybuanta

(

n n

)

n P X x X x x x F( 1, ..., ) = 1 < 1, ..., <

X nazywamy zmienną losową skokową, jeśli jej zbiór wartości jest skończony lub

przeliczalny.

X nazywamy zmienną losową ciągłą jeśli jej dystrybuanta da się przedstawić w postaci

n x n x n f u u du du x x F n ... ) ..., , ( ) ..., , ( 1 1 1 1

∞ − ∞ − = Λ

dla pewnej nieujemnej funkcji f zwanej gęstością.

(33)

Uwaga. 1.

∫ ∫

...

( 1, ..., n) 1... n =1 R dx dx x x f n

2.W punktach ciągłości funkcji f zachodzi:

) ..., , ( ... ) ..., , ( 1 1 1 ) ( n n n n x x f x x x x F = ∂ ∂ ∂ 3. Dla A∈Β(Rn) mamy n n A X A f x x dx dx P ( ) = ∫ ∫...∫ ( 1, ..., ) 1... .

(34)

34

Funkcja charakterystyczna zmiennej

losowej n - wymiarowej.

( )

(exp( ( ... ))) ) ..., , ( ) (tt1 tn = E eitX = E i t1X1 + +tnXn ϕ .

Funkcja charakterystyczna zmiennej

losowej 2 - wymiarowej.

( )

(exp( ( ))) ) , ( ) (tt1 t2 = E eitX = E i t1X1 + t2X2 ϕ .

(35)

Rozkłady warunkowe. (numery zmiennych

umowne).

Jeśli P1,...,k (X1 = x1j, ..., Xk = xkj) > 0 to rozkład

zmiennej losowej skokowej (n - k) wymiarowej określonej wzorem:

) ..., , ( ) ..., , ( ) ..., , | ..., , ( 1 1 ,..., 1 1 1 1 1 , 1 1 kj k j k nj n j kj k j nj n j k k x X x X P x X x X P x X x X x X x X P = = = = = = = = = = + +

nazywamy rozkładem warunkowym zmiennej losowej

(

Xk+1, ..., Xn

)

pod warunkiem, że

(36)

36

Rozkłady warunkowe dla n = 2.

Zmienna losowa skokowa.

Rozkład warunkowy Y pod warunkiem X = xi

• = = = i ij i j p p x X y Y P( | ) j = 1, 2, ..., l dla pi > 0

(37)

Rozkład warunkowy X pod warunkiem Y = yj j ij j i p p y Y x X P • = = = | ) ( i = 1, 2, ..., k dla pj > 0

(38)

38

Przykład

Funkcja rozkładu prawdopodobieństwa zmiennej losowej dwuwymiarowej

(X, Y) dana jest tabelką:

Y X – 1 1 pi. – 1 1/6 1/6 1/3 0 1/3 0 1/3 1 1/6 1/6 1/3 p.j 2/3 1/3 1

rozkład warunkowy zmiennej losowej X pod warunkiem, że Y = 1 jest określony przez funkcję prawdopodobieństwa

(39)

P(X= -1|Y = 1) = (1/6)/(1/3) = 1/2, P(X= 0|Y = 1) = 0/(1/3) = 0,

(40)

40

Jeśli gęstość f1,...,k > 0 to rozkład zmiennej

losowej ciągłej (n - k) wymiarowej określonej wzorem: ) ..., , ( ) ..., , ( ) ..., , | ..., , ( 1 1 1 1 k n k n k x x f x x f x x x x f + =

nazywamy rozkładem warunkowym zmiennej losowej (Xk+1, ...,Xn) pod warunkiem, że

(41)

Zmienna losowa ciągła.

Gęstość rozkładu warunkowego Y pod

warunkiem X = x0 ) ( ) , ( ) | ( 0 0 0 x f y x f x X y f X = = dla fX(x0) > 0

(42)

42

Gęstość rozkładu warunkowego X pod

warunkiem Y = y0 ) ( ) , ( ) | ( 0 0 0 y f y x f y Y x f Y = = dla fY(y0) > 0

(43)

Przykład.

Funkcja f(x, y) jest gęstością zmiennej losowej (X,Y).    ≤ ≤ ≤ ≤ = y x, innych dla dla 0 2 0 , 2 0 25 , 0 ) , (x y x y f

(44)

44

gęstość rozkładu warunkowego X|Y = 1 ma dla 0 < x < 2 postać 0,25/0,5 = 0,5; zatem

( ) ( )    ∈ ∉ = = 2 , 0 5 , 0 2 , 0 0 ) 1 | ( x x Y x f

(45)

Niezależność zmiennych losowych n - wymiarowych.

Zmienne losowe X1, X2, ..., Xn są niezależne jeśli

)

(

)...

(

)

(

)

...,

,

(

x

1

x

n

F

1

x

1

F

2

x

2

F

n

x

n

F

=

dla dowolnych x1, x2, ..., xn ∈ Rn. gdzie Fi - dystrybuanty rozkładów brzegowych jednowymiarowych.

(46)

46

Dla zmiennych losowych skokowych odpowiedni warunek ma postać:

) ( ... ) ( ) ..., , (X1 x1j Xn xnj P1 X1 x1j Pn Xn xnj P = = = = ⋅ ⋅ = dla dowolnych x1j, ...,xnjRn

(47)

Dla zmiennych losowych ciągłych odpowiedni warunek ma postać: ) ( )... ( ) ( ) ..., , (x1 xn f1 x1 f2 x2 fn xn f = ⋅ ⋅ dla dowolnych x1, x2, ..., xn ∈ Rn.

Jeśli zmienne losowe X1, X2, ..., Xn są niezależne to funkcje od nich też są niezależne.

(48)

48

WYBRANE PARAMETRY ZMIENNEJ LOSOWEJ DWUWYMIAROWEJ

Kowariancją zmiennych losowych (X, Y) nazywamy wielkość

Cov(X, Y) = E[(X – EX)(Y – EY)] = = E(XY) – E(X)E(Y)

(49)

Dla zmiennej losowej skokowej (X, Y) mamy: Cov(X, Y) =

(

)

(

)

1 1 k l i j ij i j x EX y EY p = = − −

∑∑

- definicja E(XY) =

∑∑

= = k i l j ij j i y p x 1 1 Cov(X, Y) =

∑∑

= = − ⋅ k i l j ij j i y p EX EY x 1 1 - własność

(50)

50

Dla zmiennej losowej ciągłej (X, Y) mamy: Cov(X, Y) =

(

x EX

)(

y EY f x

)

( , y dxdy) ∞ ∞ −∞ −∞ − −

∫ ∫

E(XY) =

∫ ∫

∞ ∞ − ∞ ∞ − dxdy y x xyf ( , )

Cov(X, Y) =

∫ ∫

xyf x y dxdyEXEY

∞ ∞ − ∞ ∞ − ) , (

(51)

Uwaga

a) Dla zmiennych losowych niezależnych

Cov(X, Y) = 0, zatem zmienne losowe

niezależne są nieskorelowane (odwrotna

własność nie zachodzi – patrz przykład),

b) Cov(X, X) = D2X,

c) D

2

(X + Y) = D2X + D2Y +2Cov(X, Y), X, Y – dowolne zmienne losowe

(52)

52

Unormowaną kowariancję nazywamy

współczynnikiem korelacji między

zmiennymi X i Y: ) ( ) ( ) , ( Cov ) , ( DY DX Y X Y X ⋅ = = ρ ρ

Współczynnik korelacji mierzy „siłę”

(53)

Własności współczynnika korelacji:

a) −1≤ ρ(X ,Y) ≤1

b) dla niezależnych zmiennych losowych

współczynnik korelacji jest równy zero,

c) jeżeli współczynnik korelacji jest dodatni, to

między zmiennymi X i Y istnieje zależność liniowa dodatnia, co oznacza, że ze wzrostem wartości jednej zmiennej rosną średnie wartości drugiej zmiennej,

d) jeżeli współczynnik korelacji jest ujemny, to

między zmiennymi X i Y istnieje zależność liniowa ujemna, co oznacza, że ze wzrostem wartości jednej zmiennej maleją średnie wartości drugiej zmiennej,

e) jeżeli współczynnik korelacji jest równy 1

lub – 1, to między zmiennymi X i Y istnieje

(54)

54

Jeżeli współczynnik korelacji jest równy 0 to mówimy, że zmienne losowe X i Y są

(55)

Macierz       = Y D X Y Y X X D K 2 ) , ( Cov ) , ( Cov 2 nazywamy macierzą kowariancji

(56)

56 Macierz      = 1 1 ρ ρ R

(57)

Przykład

Funkcja rozkładu prawdopodobieństwa zmiennej losowej dwuwymiarowej

(X, Y) dana jest tabelką:

Y X – 1 1 pi. – 1 1/6 1/6 1/3 0 1/3 0 1/3 1 1/6 1/6 1/3 p.j 2/3 1/3 1

Obliczymy współczynnik korelacji między tymi zmiennymi.

(58)

58

Rozkład brzegowy zmiennej losowej X:

xi – 1 1

pi. 1/3 1/3

(59)

Rozkład brzegowy zmiennej losowej Y: yj – 1 1 p.j 2/3 1/3 EY = – 1/3 Ponieważ E(XY) = (– 1)⋅(– 1) ⋅1/6 + – 1) ⋅1⋅1/6 + 1⋅ (– 1) ⋅1/6 + 1⋅1⋅1/6 = 0 , EX

EY = 0; Cov(X, Y) = 0 to

ρ

= 0. Zatem zmienne X, Y są nieskorelowane.

(60)

60

Uwaga. Zauważmy, że powyższe zmienne

losowe chociaż są zależne to są nieskorelowane.

(61)

Zakładamy, że macierz kowariancji K istnieje.

Regresja I rodzaju Y względem X = zbiór

punktów (x, E(Y|x)).

Regresja I rodzaju X względem Y = zbiór

punktów (E(X|y),y).

Gdzie E(Y|x), E(X|y) to warunkowe wartości oczekiwane.

Linie regresji I rodzaju tylko w szczególnych przypadkach są liniami prostymi.

(62)

62 Twierdzenie. ) )) ( ((Y X 2

E −ϕ osiąga wartość najmniejszą gdy

) | ( ) (x = E Y x ϕ z prawdopodobieństwem 1.

(63)

Jeśli poszukujemy funkcji liniowej minimalizującej wyrażenie ) )) ( ((Y X 2 E −ϕ

to otrzymamy prostą regresji zwaną prostą regresji II rodzaju.

(64)

64

Regresja II rodzaju Y względem X = prosta X X Y Y X Y x m m y σ σ ρ σ σ ρ + − = . tzn. x y = β0 + β1 gdzie X Y σσ ρ β1 = X Y m m 1 0 β β = −

(65)

Regresja II rodzaju X względem Y = prosta Y Y X X Y X m m y x σ σ ρ σ σ ρ + − = .

(66)

66

Powyższe pojęcia regresji można uogólnić na przypadek n - wymiarowych zmiennych

(67)

W szczególności hiperpłaszczyzna regresji II

rodzaju Zmiennej X1 względem zmiennych

X2, X3, ...,Xn ma równanie x1 - EX1 = a12(x2 - EX2) + ...+ a1n(xn - EXn) 11 1 1 K K a i = − i

gdzie K1i są dopełnieniami algebraicznymi

(68)

68

Parametry zmiennej losowej

n – wymiarowej (mogą nie istnieć).

(69)

Wariancja

[

X X Xn

]

X 2 1 2 2 2 2 D ..., , D , D ) ( D =

(70)

70

Moment (zwyczajny) rzędu l1 + l2 + ...+ ln

(

n

)

n l n l l l l l E X X X m 1 2... 2 1 ... = 1 2 , Np. dla (X, Y)

(

X Y

)

E m11 = ⋅ ,

( )

X E m10 = , m20 = E

( )

X 2

( )

Y E m01 = , m02 = E

( )

Y2 2 10 0 2 2 m m X D = − , D2Y = m02m012 2 01 02 2 10 20 01 10 11 m m m m m m m − − − = ρ

(71)

Moment centralny rzędu l1 + l2 + ...+ ln

(

) (

)

(

n

)

n l n n l l l l = E XEX ... XEX 1 2 1 ... 1 1 µ , Np.

(

X Y

)

Cov , 1 1 = µ

(72)

72

Macierz kowariancji K = [kij], gdzie

(

)

(

)

[

]

(

i j

)

( )

i

( )

j j j i i j i ij X E X E X X E EX X EX X E X X k − = = − − = = cov( , )

(73)

Uwaga kii = D2Xi, jest wariancją i - tej składowej.

Macierz K jest kwadratowa, symetryczna i

słabo dodatnio określona ( w szczególności ma wyznacznik nieujemny).

(74)

74 Macierz korelacji R = [ρij], gdzie = = j i j i ij DX DX X X , ) cov( ρ Uwaga ρii = 1.

(75)

FUNKCJE ZMIENNYCH LOSOWYCH 2 WYMIAROWYCH.

(X1, X2) - dana zmienna losowa ciągła o gęstości f.

Y = g(X1, X2) g - borelowska, Dystrybuanta tej zmiennej losowej ma postać

( ( , ) ) 1 2 2 1 2 1 ) , ( ) (y f x x dx dx G y x x g

∫∫

< =

gęstość g(y) wyznaczamy przez różniczkowanie. Przykład. Y = X1⋅X2 , 1 0 / 2 2 1 1 0 / 2 2 1 2 1 2 1 1 1 2 1 ) , ( ) , ( ) , ( ) ( dx dx x x f dx dx x x f dx dx x x f y G x y x y y x x ∫ ∫ ∫ ∫ ∫∫ ∞ ∞ − ∞ − ∞ < ⋅         +         = = = wtedy g( y)= dx x y x f x dx x y x f x ∫ ∫ ∞ ∞ − + 0 0 ) , ( 1 ) , ( 1

(76)

76

Przykład.

(X1, X2) - zmienna losowa o rozkładzie jednostajnym w kwadracie (0, 1) x (0, 1).

Wyznaczyć rozkład pola prostokąta o bokach x1, x2 tzn. zmiennej losowej Y = X1⋅X2 . ) ln 1 ( 1 1 ) ( 1 1 1 / 2 2 1 2 1 1 2 1 2 1 y y dx dx dx dx dx dx y G y y x y x x y x x − =         − = = − = =

∫ ∫

∫∫

∫∫

≥ ⋅ < ⋅ dla 0 < y ≤ 1 stąd     < ≤ < − ≤ = y dla y dla y y y dla y G 1 1 1 0 ) ln 1 ( 0 0 ) (

(77)

Przykład. Y = X2/X1 , 1 0 2 2 1 1 0 2 2 1 1 1 ) , ( ) , ( ) (y f x x dx dx f x x dx dx G x y x y

∫ ∫

∫ ∫

∞ ⋅ ∞ − ∞ − ∞ ⋅         +         = wtedy g( y)= ∫xf x yx dxxf x yx dx ∞ ∞ − + − 0 0 ) , ( ) , (

(78)

78

Przykład.

X1, X2 - niezależne zmienne losowe. X1 - N(0, σ1), X2 - N(0, σ2). Niech 1 1 1 ~ σ X X = , 2 2 2 ~ σ X X = (mają rozkład N(0, 1).

(

2

)

0 2 / ~ 2 / 0 /2 ~ /2 ~ 1 1 2 2 2 2 ) ~ ( ~ 2 2 2 2 y dx e e x dx e e x y g x y x x y x + = ⋅ ⋅ + ⋅ ⋅ − =

∞ − − ∞ − − − π π π π π (rozkład Cauchy'ego)

i korzystając funkcji liniowej od zmiennej losowej 2 1 ~ σ σ Y Y = mamy               + = 2 2 1 2 1 2 1 1 ) ( σσ σ σ π y y g

(79)

Przykład. Y = X1 + X2 , 1 2 2 1 1 ) , ( ) (y f x x dx dx G x y

∫ ∫

∞ ∞ − − ∞ −         = wtedy g( y)=

f x y x dx

f y x x dx ∞ ∞ − ∞ ∞ − − = − ) ( , ) , (

(80)

80

Uwaga.

Jeśli X1, X2 - niezależne zmienne losowe to gęstość sumy wyraża się splotem gęstości brzegowych (p. dalej).

(81)

Przykład. Y = X1 - X2 , wtedy g( y)=

f x x y dx

f x y x dx ∞ ∞ − ∞ ∞ − − = − ) ( , ) , (

(82)

82

Suma niezależnych zmiennych losowych.

Własności:

1) X, Y niezależne skokowe zmienne losowe

o funkcjach prawdopodobieństwa P(X = xi),

P(Y = yj); wtedy funkcja

prawdopodobieństwa zmiennej losowej X + Y wyraża się wzorem:

P(Z = zk) = ∑ P(X = xi)P(Y = zk - xj); (zk = xi + yj)

(83)

2) X, Y niezależne ciągłe zmienne losowe o gęstościach f1 i f2 ; wtedy gęstość zmiennej losowej X + Y wyraża się wzorem:

dt t f t x f dt t x f t f x f ( )

1( ) 2( )

1( ) 2( ) ∞ ∞ − ∞ ∞ − − = − = (splot gęstości składników).

(84)

84

FUNKCJE ZMIENNYCH LOSOWYCH n - WYMIAROWYCH.

Przykład.

System składa się n układów z których każdy ma czas bezawaryjnej pracy określony rozkładem wykładniczym Xi o parametrze ai

niezależnym od pozostałych układów.

Wyznaczyć rozkład bezawaryjnego czasu pracy całego systemu (system działa jeśli pracuje chociaż jeden układ).

Y = X1 + X2 + X3 ....+ + Xn,

Przez indukcję pokazuje się, że Y ma rozkład o gęstości: = ) ( y g ( )

=

(

)

≠ = − = − − − n j n j k k k j y a n i i n a a e a j 1 1 1 1 1 dla y > 0 wtedy G( y)= ( )

(

)

= ≠ = − = − − − − n j n j k k k j y a n i i n a a e a j 1 1 1 1 1 1

Otrzymany rozkład nazywamy uogólnionym rozkładem Erlanga n - tego rzędu Tn.

= = =       = n k k n k i n a T E T E 1 1 1 ) (

(85)

= = =       = n k k n k i n a T D T D 1 2 1 2 2 1 ) ( gdy a1 = a2 = ... = an =λ to = ) ( y g ( 1)! ( 1, ) 0 ) ( 1 > − = − − − t t n P e n t n t λ λ λ λ λ dla y > 0

(86)

86 Przykład. Y = min(X1 , X2 ) ) , ( ) ( ) ( ) (y F1 y F2 y F y y G = + − wtedy g( y)= f y f y f y x dx f x y dx y y ∫ ∫ ∞ − ∞ − − − + ( ) ( , ) ( , ) ) ( 2 1

(87)

Uwaga.

Jeśli X1, X2 - niezależne zmienne losowe to:

) ( ) ( ) ( ) ( ) (y F1 y F2 y F1 y F2 y G = + − ⋅ = ) ( y g f1(y)(1− F2(y)) + f2(y)(1− F1(y))

Jeśli X1, X2 - niezależne zmienne losowe o takim samym rozkładzie to:

)) ( 2 )( ( ) (y F y F y G = − wtedy g( y) = 2 f (y)(1− F (y))

(88)

88 Przykład. Y = max(X1 , X2 ) ) , ( ) (y F y y G = wtedy g( y) = f y x dx f x y dx y y

∞ − ∞ − + ( , ) ) , (

(89)

Uwaga.

Jeśli X1, X2 - niezależne zmienne losowe o takim samym rozkładzie to:

) ( ) (y F 2 y G = wtedy g( y) = 2f (y)F (y)

(90)

90

ROZKŁAD NORMALNY 2-WYMIAROWY

Zmienna losowa (X, Y) o rozkładzie

normalnym 2-wymiarowym zależy od pięciu parametrów: m1, m2,

σ

1,

σ

2,

ρ

.

m1 = EX; m2 = EY;

σ

1 = DX;

σ

2 = DY;

ρ

= współczynnik korelacji.

Współczynnik korelacji musi spełniać warunek:

ρ

2 ≠ 1.

Macierz kowariancji K ma wtedy postać

      = 2 2 2 1 2 1 2 1 σ σ ρσ σ ρσ σ K .

Gęstość rozkładu normalnego 2-wymiarowego

N(m1, m2,

σ

1,

σ

2,

ρ

) można zapisać następująco: ( ) ( ) ( )( ) ( )               + − − − − − − ⋅ − = 2 2 2 2 2 1 2 1 2 1 2 1 2 2 2 1 2 1 2 1 exp 1 2 1 ) , ( σ σ σ ρ σ ρ ρ σ πσ m y m y m x m x y x f

(91)

Twierdzenie

Dowolny rozkład brzegowy normalnego rozkładu 2-wymiarowego jest rozkładem normalnym.

(92)

92

Twierdzenie

Jeśli składowe normalnego rozkładu 2-wymiarowego są nieskorelowane to są niezależne.

(93)

Rozkład normalny n - wymiarowy.

K - macierz kowariancyjna, niech detK ≠ 0.

Zmienna losowa n - wymiarowa ma rozkład normalny n - wymiarowy gdy gęstość tej zmiennej losowej wyraża się wzorem:

( ) ( )      − − − = =         − − − = = ∑ = ) ( ) ( 2 1 exp 2 ) )( ( 2 1 exp 2 ) ,..., , ( ) ( 2 / 1 , 2 / 2 1 m x L m x L m x m x l L x x x f x f T n n k j k k j j jk n n π π gdzie ) ( i i E X m = dla i = 1, 2, ..., n L = [ljk] j, k = 1, 2, ..., n jest macierzą odwrotną do K.

Dla n = 2 warunek |K| ≠ 0 jest równoważny

warunkowi ρ2 ≠ 1.

Ponieważ macierz K ma wtedy postać

      = 2 2 2 1 2 1 2 1 σ σ ρσ σ ρσ σ K to     − − − = 21 2 2 2 2 2 2 ) 1 ( 1 σ σ ρσ σ ρσ σ ρ σ σ L

(94)

94

Zatem gęstość rozkładu normalnego 2-wymiarowego N(m1, m2, σ1, σ2, ρ) można zapisać następująco: ( ) ( ) ( )( ) ( )               + − − − − − − − = 2 2 2 2 2 1 2 1 2 1 2 1 2 2 2 1 2 1 2 1 exp 1 2 1 ) , ( σ σ σ ρ σ ρ ρ σ πσ m y m y m x m x y x f

(95)

Powyższa funkcja gęstości ma stałą wartość f(x, y) = h na elipsie: ( ) ( )( ) ( ) 2 2 2 2 2 2 1 2 1 2 1 2 1 2 λ σ σ σ ρ σ = = − + − − − − const m y m y m x m x

o środku w punkcie (m1, m2), gdzie

(

)

(

2

)

2 1 2 2 1 2 ln 1 2 ρ πσ σ ρ λ = − − h.

(96)

96

Dla ρ ≠ 0 osie główne mają równania:

(

)

( 1) 2 2 2 1 2 2 2 2 2 1 2 2 2 1 2 1 2 4 2 m x m y − + − ± − = − σ σ ρ σ σ σ σ σ ρσ

Dla ρ = 0 osie rozpatrywanej elipsy są równoległe do osi układu współrzędnych.

(97)

Zauważmy, że gdy ρ2 → 1 to jedna oś się wydłuża, a druga skraca, zależność między zmiennymi staje się ściśle liniowa.

(98)

98

Osie powyższej elipsy tworzą z osią OX kąty

α i α + π/2 gdzie 2 2 2 1 2 1 2 2 tg σ σ σ ρσ α − =

(99)

Funkcja charakterystyczna:       − = im t t Kt t T T 2 1 exp ) ( ϕ gdy n = 2 to ( )

(

)

      + + − + = 2 2 2 2 2 1 2 1 2 1 2 1 2 2 1 1 2 1 2 2 1 exp ) , (t t i t m t m σ t ρσ σ t t σ t ϕ

(100)

100

Twierdzenie.

Dowolny rozkład brzegowy normalnego rozkładu n-wymiarowego jest rozkładem normalnym.

(101)

Twierdzenie.

Jeśli składowe normalnego rozkładu

n-wymiarowego są parami nieskorelowane to są niezależne.

(102)

102

Twierdzenie.

Dowolny rozkład warunkowy normalnego rozkładu n-wymiarowego jest rozkładem

normalnym. Warunkowa wartość oczekiwana i warunkowa wariancja są równe:

(

)

− = − − = = = = 1 1 1 1 2 2 1 1 1 ..., , , | n i in i nn n n n x K K x X x X x X X E

gdzie Kij - dopełnienie algebraiczne elementu kij macierzy K.

(

)

nn n n n K K x X x X x X X D2 | 1 = 1, 2 = 2, ..., 1 = 1 =

(103)

Uwaga.

Dla n = 2 gęstość rozkładu warunkowego Y|x jest równa:

(

)

( )             − − − − − − = = = 2 1 1 2 2 2 2 2 2 2 21 1 exp 1 2 1 ) ( ) , ( ) | ( m x m y x f y x f x y f x y σ σ ρ σ ρ ρ σ π oraz

(

1

)

1 2 2 ) | (Y X x m x m E = = − − σ σ ρ ,

(

2

)

2 2 2

1

)

|

(

Y

X

=

x

=

σ

ρ

D

(104)

104

Przykład.

X, Y - niezależne zmienne losowe o rozkładzie

normalnym, EX = 1, EY = 2, D2X = 4,

D2Y = 9.

Wyznaczyć gęstość rozkładu zmiennej losowej (X, Y), obliczyć a) P(1 < X < 2; 1 < Y < 4), b) P(X > 3).

(

) (

)

              + − − = 9 2 4 1 2 1 exp 12 1 ) , ( 2 2 y x y x f π a) P(1 < X < 2; 1 < Y < 4) = =

(

) (

)

=               + − −

∫ ∫

2 1 4 1 2 2 9 2 4 1 2 1 exp 12 1 dxdy y x π = =            − −               − −

2

1 4 1 2 2 3 2 2 1 exp 2 1 2 1 exp 12 1 dy y dx x π =

=

− − 2 / 1 0 3 / 2 3 / 1 2 1 2 1 2 2

2

1

2

1

du

e

dt

e

t u

π

π

=[Φ(1/2) - Φ(0)] [Φ(2/3) - Φ(-1/3)] = = (0,6915 - 0,5)(0,7486 - (1 - 0,6293)) = = 0,0718

(105)

b) P(X > 3) = ( ) ( )  =              + − −

∫ ∫

∞ ∞ ∞ − 3 2 2 9 2 4 1 2 1 exp 12 1 dxdy y x π =  =             − −               − −

∞ ∞ ∞ − 3 2 2 3 2 2 1 exp 2 3 1 2 1 2 1 exp 2 2 1 dy y dx x π π =

= ∞ − 1 2 1 2 2 1 dt e t π Φ(∞) - Φ(1) = 1 - 0,8413 = = 0,1587.

(106)

106

Przykład.

Wyznaczyć gęstość rozkładu normalnego (X, Y, Z) jeśli rozkład ten ma zerowy wektor

wartości oczekiwanych i macierz kowariancji:

          = 2 1 2 1 3 3 2 3 4 K

(107)

Rozwiązanie. detK = 2.          − − − − = − 3 2 3 2 4 4 3 4 5 2 1 1 K zatem ( )            + + + − − − = 2 2 2 2 / 3 2 3 2 2 3 4 2 5 2 1 exp 2 2 1 ) , , (x y z x xy xz y yz z f π .

(108)

108

Uwaga.

Dla rozkładu normalnego 2 wymiarowego (X,

Y) takiego, że EX = EY = 0, DX = σX, DY =

σY , którego składowe są nieskorelowane

(każdy rozkład normalny może mieć taką

postać po obrocie układu współrzędnych o kąt

α) prawdopodobieństwo, że wartości zmiennej

losowej (X, Y) należą do elipsy 2 2

2 2 2 k y x Y X = + σ σ jest równe 2 2 1 k e− −

(109)

Rozkład funkcji od rozkładu normalnego.

(X1 , X2 , X3 ,...., Xn) - rozkład normalny.

Y = g(X1 , X2 , X3 ,...., Xn), należy wyznaczyć rozkład Y.

(110)

110 Przykład. Y = a1X1 + a2X2 + a3X3 +....+ a3Xn + b n = 2 2 2 2 ) ( 2 1 ) ( y y m y y e y g σ π σ − − = gdzie: my = a1m1 + a2m2 + b, 2 1 2 1 2 2 2 2 2 1 2 1 2

2

σ

σ

σ

σ

σ

y

=

a

+

a

+

a

a

r

,

Przez indukcję można pokazać, że dla

dowolnego n zmienna losowa Y ma rozkład normalny o parametrach: my = a1m1 + a2m2 + ... +anmn + b,

< + = j i j i ij j i i i y a σ a a r σ σ σ 2 2 2 2 ,

(111)

Przykład. X1 , ..., Xn - niezależne, o rozkładzie N(0, 1). 2 2 1

...

n n

X

X

Y

=

+

+

ma rozkład chi kwadrat

N n        ≤ >       Γ = − − 0 0 0 2 2 ) ( 2 2 1 2 x x n e y y f n y n EX = n; D2X = 2n

(112)

112

Przykład.

X - N(m, σ), Y = eX

Ma rozkład logarytmiczno-normalny.

Nazwa pochodzi stąd, że X = lnY ma rozkład normalny.

Cytaty

Powiązane dokumenty

Wartości krytyczne T testu Wilcoxona dla

10 Wartości krytyczne

Wyznacz 95% przedziały ufności dla drugiej i trzeciej wartości własnej i sprawdź czy można przyjąć hipotezę, że te wartości są równe

10 Wartości krytyczne

Drugi rodzaj tablic podaje dla różnych wartości parametru k takie liczby rzeczywiste χ 2 k,α , że prawdopodobieństwo przybrania przez zmienną losową wartości

Keywords: two-way contingency tables, generating of Monte Carlo, independence test, truncated two-dimensional

и г Speicher Normung Analyse Registrie- rung Ol сэ 'S Ziel tesile- gjn g Planung Organrsctior Regelung Ds Dp D.. Os

zdobyć się na rozdwojenie świadomości, która staje się własnym swoim obserwatorem; że nie tylko odnosi się rozumiejąco do świata, lecz odnosi się rozumiejąco do samego tego