• Nie Znaleziono Wyników

Oszacowania systemów w.

N/A
N/A
Protected

Academic year: 2021

Share "Oszacowania systemów w."

Copied!
13
0
0

Pełen tekst

(1)

w. DZIUBDZIELA i B. KOPOCIŃSKI (Wrocław)

Oszacowania niezawodności systemów

(Praca przyjęta do druku 11.11.1977)

O. Streszczenie. Praca zawiera przegląd metod i wyników dotyczących zagadnie- nia szacowania niezawodności systemów przy warunku, że nie jest znany pełny rozkład prawdopodobieństwa czasów pracy (nośności granicznych) wyróżnionych

w systemie minimalnych krytycznych zbiorów elementów. Przedstawione w niej

zostały rezultaty o różnym stopniu dokładności, proste i wymagające w zastoso- waniach użycia zaawansowanej techniki obliczeniowej.

1. Zagadnienie. Zanim przejdziemy do ścisłego przedstawienia interesującego

nas zagadnienia, przypomnijmy kilka założeń, które w matematycznej teorii nie-

zawodności są zwykle przyjmowane. Pozwoli to nam łatwiej wyrazić problem oraz

określić zakres stosowalności przedstawianych rezultatów.

Niezawodność systemów wyznaczają niezawodności elementów i struktura systemu. Elementy systemu mogą ulec uszkodzeniu pod wpływem czasu lub ob-

ciążenia. Będziemy rozważali systemy bez odnowy, o strukturze pozwalającej wy-

różnić minimalne krytyczne zbiory elementów. Przypomnijmy, że krytycznym zbiorem elementów nazywamy zbiór elementów o tej własności, że uszkodzenie systemu

następuje wtedy, gdy wszystkie elementy zbioru ulegną uszkodzeniu i zauważmy, że jest wygodnie rozważać minimalne zbiory o tej własności (zob. [l], [6], [13)).

Wprowadzenie minimalnych krytycznych zbiorów elementów pozwala sprowadzić analizę złożonego systemu do systemu szeregowo-równoległego. Elementy każdego

minimalnego krytycznego zbioru tworzą bowiem podsystem równoległy, natomiast krytyczne zbiory mają układ szeregowy. Gdy znana jest struktura fizyczna systemu,

czynnością przygotowawczą jest znalezienie niezawodności krytycznych zbiorów elementów. W dalszym ciągu będziemy zakładali, że niezawodności minimalnych krytycznych zbiorów elementów znane. Ściśle biorąc przyjmujemy, że jest dany pewien ciąg zmiennych losowych X1 , X2 , „ ., reprezentujących czasy życia mini- malnych krytycznych zbiorów elementów lub wytrzymałości (nośności graniczne) minimalnych krytycznych zbiorów elementów.

Podstawowymi pojęciami rozważanej tutaj teorii będą zdarzenia losowe Ai =

= {X} ~ t} oraz {min (X1 , X2 , „., Xn) ~ t} określające niezawodność minimalnych krytycznych zbiorów elementów i niezawodność systemu.

(2)

62 W. D z i u b d z i e 1 a, B. K o p o c i ń s k i

Niezawodność systemu wyraża się natychmiast przez prawdopodobieństwo

sumy zdarzeń Aj, mamy bowiem

11

= l-Pr(min(X1,X2 , ••• ,Xn) < t) = 1-Pr(LJ {Xj < t})

J=l

i ostatecznie (zob. np. [7], [8])

n

(1.2) Pr(min(X1,X2 , „.,Xn) ~ t) = 1- LPr(Xj < t)+

j=l

11 11

+ }i.}2=

L

1 Pr(Xjl < t, xh < t)-h.h.h=

L

1 Pr(Xjl < t, xj2 < t, Xj3 < t)+

ii <'2 ii <'2 <h

„. + (-l)nPr(X1 < t, X2 < t, .„, Xn < t).

W zagadnieniach praktycznych rzadko jednak znamy kompletny łączny rozkład prawdopodobieństwa ciągu zmiennych losowych X1 , X2 , ••• , Xn. Interesujące jest

więc pytanie o oszacowania niezawodności systemu przy ograniczonej informacji o łącznym rozkładzie.

Niniejsza praca jest poświęcona następującemu zagadnieniu: Dana jest ogra- niczona informacja o rozkładzie prawdopodobieństwa określonego na przekrojach A,;, A12 „. A.it, 1 ~ ji < j2 < .„ <A~ n, pewnych zdarzeń losowych Aj, 1 ~ j ~n.

n Należy możliwie dobrze oszacować od góry i od dołu prawdopodobieństwo Pr(lJ A1)

}= 1

sumy zdarzeń.

Od stu lat zagadnienie to bym przedmiotem zainteresowania wielu matematyków.

Jest ono złożone i trudno pokusić się o rozwiązanie optymalne i równocześnie

wygodne do zastosowań. Do wstępnych analiz zagadnień praktycznych wygodniej jest bowiem użyć oszacowań łatwych do obliczeń, choć niekoniecznie bliskich optymalnego; w bardziej subtelnej analizie potrzebne oszacowania dokładniejsze, choć wymagane jest wówczas użycie żmudnej techniki rachunkowej. Z tych powodów decydujemy się na przedstawienie przeglądu rezultatów, który uwzględnia rozwią­

zania o różnym stopniu dokładności.

Warto dodać, że dokonamy tu wyboru materiału. W szczególności, pominiemy

dość zaawansowaną teorię zbudowaną dla zmiennych symetrycznie zależnych,

która ma bardziej ograniczone zastosowania. Przypomnijmy, że ciąg zdarzeń lo- sowych A1 , A2 , „., An jest symetrycznie zależny, jeżeli dla każdego ciągu wskaźników 1 ~ i1 < i2 < „. <A~ n prawdopodobieństwa przekrojów Pr(Aj1 AJ2 .„ Ajt) za-

leżą jedynie od k.

2. Oznaczenia i uwagi ogólne. W pracy będziemy używali symboli teorii mnogości bez ich objaśniania. W tym rozdziale wprowadzimy oznaczenia pojęć używane

w całej pracy. Specjalne pojęcia i oznaczenia będziemy wprowadzali na bieżąco.

(3)

Niech !J będzie uniwersalnym zbiorem zdarzeń elementarnych oraz niech Ai c: !J, je J, będą zdarzeniami losowymi, przy czym J = { 1, 2, ... ,n}, gdzie n jest ustaloną

liczbą naturalną.

Niech Br, 1 ~ r ~ n, będzie zdarzeniem losowym polegającym na tym, że co najmniej r spośród zdarzeń A u Az, „., An zachodzi. Sumę rozważanych zdarzeń

losowych, będącą głównym przedmiotem naszego zainteresowania, oznaczymy przez B;

(2.1)

Przez BcrJ, O ~ r ~ n, oznaczymy zdarzenie losowe polegające na tym, że dokład­

nie r spośród zdarzeń A1' Az, .„, An zachodzi. Oczywiście,

(2.2) Br = U n Bcil, 1 ~ r ~ n,

j=r

i w szczególnym przypadku

(2.3) B = j=l LJ n B[j] = !J-Bco1·

W symbolach sumy zbiorów lub liczb, gdzie granice sumowania rozciągają się

na cały zbiór J, będziemy na ogół pisali jedynie wskaźnik sumowania, a w przy- padku pewnych ograniczeń ob~zaru sumowania będziemy dodawali to ograniczenie.

Sumy wielokrotne piszemy przy użyciu jednego znaku sumowania.

Z wzoru (1.2) wynika oczywiście, że do obliczenia prawdopodobieństwa zda- rzenia B nie wystarcza znajomość prawdopodobieństw poszczególnych zdarzeń Abj EJ, ale także każdej pary (j, k) zdarzeń Ai, Ab każdej trójki (j,k,l) zdarzeńA1, Ak, A1, itd. Przyjmijmy krótkie oznaczenia dla prawdopodobieństw zdarzeń Ai i ich przekrojów

(2.4) Pi= Pr(Ai), Pik= Pr(AiAk), 1 ~ j ~n, 1 ~ k ~n.

Ponadto niech (2.5)

i ogólnie

(2.6) sk =

L

Pr(Ai1Ai2 ... Aik)? 1 ~ k ~n,

gdzie sumowanie * rozciąga się na wszystkie układy liczb 1 ~ j1 < jz < ... <A ~ n.

Wygodnym narzędziem analizy zagadnienia indykatory zdarzeń losowych.

Przypomnijmy, że indykatorem zdarzenia losowego A c: !J nazywamy funkcję okreś­

loną na !J w następujący sposób:

IA(w) = p, \O, jeżeli w przeciwnym razie. w EA,

(4)

64 W. Dz i ub d zie I a, B. Kop o c iński Krótko będziemy oznaczali

lid2···ik(w) = IA11A 12 .•. A-'k(w), 1 ~j1 <j2 <···<A~ n.

Zauważmy, że indykator zdarzenia losowego jest zmienną losową o wartości ocze- kiwanej równej prawdopodobieństwu tego zdarzenia. Symbolicznie

Ponadto mamy

EIA(w) = Pr(A), A c Q.

18(w) = max lj(w).

jeJ

Ulubioną techniką dowodzenia będzie dla nas określenie pewnych faktów dla indykatorów, a następnie obliczenie wartości oczekiwanych. Zauważmy w szcze-

gólności, że

Pr(B) = Emax li( w).

jeJ

3. Nierówności Bonferroniego. Dla dwóch dowolnych zdarzeń losowych A1 i A2 mamy

(3.1)

a stąd otrzymujemy oszacowanie (3.2)

Wzór ten i nierówność mogą być łatwo uogólnione na przypadek n zdarzeń. Przy

użyciu metody zawierania i wyłączania zbiorów ([7], [25]) otrzymujemy (3.3) S1 -S2 ~ Pr(B) ~ S1 ,

(Boole [2]).

Podamy teraz bez dowodu dwa twierdzenia uogólniające wzór (3.1) i nierówności

(3.2), (3.3). Dowody można znaleźć w książkach Frecheta ·[10] i Fellera [7]. Twier- dzenia te wnioskami z ogólniejszych twierdzeń, które udowodnimy później.

TWIERDZENIE 3.1. Prawdopodobieńsiwo zdarzenia Bc,1 realizacji dokładnie r spoś­

ród zdarzeń losowych A1 , A2 , ••• ,An określone jest równością

natomiast prawdopodobieństwo zdarzenia B, realizacji co najmniej r spośród zdarzeń

losowych A1 , A2 , ••• ,An określone jest równością

TWIERDZENIE 3.2 (nierówności Bonferroniego).

(3.6) (3.7)

S,-(r+ l)S,+1 ~ Pr(Bc,1) ~ S"

S,-rS,+1 ~ Pr(B,) ~ S,.

(5)

Nierówności (3.6) i (3. 7) wykorzystują jedynie sumy S, i S,+ 1 zdefiniowane w (2.6). Ogólnie, nierównością typu Bonferroniego nazywamy nierówność postaci

n n

(3.8) k=O

L

ckSk ~ Pr(Bc,1) ~ k=O

L

dkSk,

gdzie c1c,, dk, O~ k ~ n, pewnymi ciągami liczb rzeczywistych (zob. [11]).

TWIERDZENIE 3.3. Nierówność (3.8) . zachodzi wtedy i tylko wtedy, gdy

h h

(3.9) k=O

L

c1c,(~) ~ bh,r~ k=O

L

dk(~), h ~O,

gdzie <511,, = 1 albo O, gdy odpowiednio h = r albo h #=- r.

Do wód. Dla określenia oszacowania prawdopodobieństwa Pr(Bc,1) w ter- minach innych zdarzeń, najpierw znajdujemy oszacowania odpowiednich indyka- torów, a następnie bierzemy wartość oczekiwaną.

Niech

Jk(w) = L..i '1 /. · J1J1 „ . " 1•(w) ,

gdzie granice sumowania * są określone w (2.6). Wówczas EJk(w) = Sk.

Dla każdego zdarzenia elementarnego we Bc111 (O~ h ~ n) nierówność (3.9) jest równoważna nierówności

n n

L

cklk(w) ~ /Bc,1(w) ~

L

dkJk(w).

k=O k=O

Biorąc wartość oczekiwaną otrzymujemy (3.8).

Odwrotnie, weźmy pod uwagę specjalny przypadek (3.8), gdy zdarzenia A1, j e J,

zdarzeniami pewnymi bądź niemożliwymi. Wówczas (3.8) redukuje się do (3.9).

To kończy dowód twierdzenia 3.3.

WNIOSEK 3.1. Przyjmijmy

{

1, jeżeli k = r,

c1 = -(r+ 1), jeżeli k = r+ 1,

oraz

dk = { o, 1,

O, poza tym

jeżeli k = r, poza tym.

Wówczas (3.9) jest spełnione, natomiast (3.8) sprowadza się do (3.6).

4. Oszacowania od dołu. Nierówność Boole'a-Bonferroniego (3.3) wykorzystuje jedynie prawdopodobieństwa P1 i P1k, 1 ~ j < k ~ n. Nierówności wykorzystujące

(6)

66 W. Dz i ub dz ie I a, B. Kop o ci ń s k i

te wielkości nazywamy nierównościami drugiego stopnia. Wymieniona nierówność

nie jest jednakże najostrzejszą nierównością drugiego stopnia. Mocniejsze oszaco- wania (od góry i od dołu) daje twierdzenie:

TWIERDZENIE 4.1 (Kounias [17]). Niech J0 będzie dowolnym podzbiorem zbioru J = {1, 2, ... ,n}. Wówczas

(4.1)

(4.2)

max(L Pi-Io ·. jeJ

L

P1k) ~ Pr(B),

0 )<k

j, kelo

Pr(B) ~min( 1, S1 - max meJ j"'m

L

Pm1).

D o w ó d. Nietrudno zauważyć, że dla dowolnego J0 c J, m E J0 , I ~ m ~ n, zachodzi nierówność

(4.3)

L

Ji(w)-

L

l1(w)lk(w) ~ ~ax/J(w) ~ (1-lm(w))

L

Ji(w)+lm(w).

je/o )<k Jelo )Elo

j,kEJo

Biorąc wartość oczekiwaną otrzymujemy (4.4)

Zatem najlepszym oszacowaniem drugiego stopnia Pr(B) od dołu jest tutaj (4.1).

r

Weźmy teraz rozłączne .zbiory J1, J2, ... , J, takie, że LJ Jk = J. Niech Ck=

k=l

r n

U A1; wówczas U Ck = U A1 = B, a następnie korzystając z (4.4) otrzymu-

JeJt k=l J=l

jemy

Pr(Ck) ~ min(l,

L

je]t P1 -max meJ t

L

JeJ Ir. P1111) = Tk

J#m

oraz

r r

Pr(B) =Pr( k=l

u

ck) .. ~. .i!llio;'k=l

L

Tk.

W szczególności, dla r = 1 mamy (4.2). To kończy dowód twierdzenia 4.1.

Oszacowania (4.1) i (4.2) stanowią próbę wykorzystania wzajemnych zależności między elementami macierzy Q = (Pil). Eleganckie, chociaż nienajostrzejsze wy- korzystanie macierzy Q podał Gallot [12). Wykorzystuje ono pojęcie uogólnionej macierzy odwrotnej. Przypominamy, że uogólnioną macierzą odwrotną do macierzy Q nazywamy macierz Q- spełniającą równość QQ- Q = Q (zob. [24], str. 24).

Niżej w pewnym fragmencie pracy zastosujemy zapis macierzowy.

(7)

; TwrnRDZENJE 4.2 (Galiot [12]). Niech P' = (P1,P2 , „.,Pn); wówczas .

(4.5) Pr(B) ~ P'Q-P.

Oszacowanie to jest dokładne (ostre}, jeżeli Q ma rząd jeden, ale wtedy wszystkie zdarzenia Ai równoczesne albo jeżeli ma rząd dwa, ale wtedy dwa zdarzenia takie, że jedno jest podzbiorem drugiego.

Poniższy dowód twierdzenia 4.2 pochodzi z pracy Kouniasa [17] (zob. także

[18], Appendix).

Do wód. Dla dowolnego wektora a' = (a1 , a2 , ••• ,an) oraz l'(w) = (/1 (w), 12 (w), ... ,In (w)) dla dowolnego w spełniona jest nierówność

(a'l(w))2-2a'I(w)+maxlj(w) ~ O.

Biorąc wartość oczekiwaną, znajdujemy

Pr(B) ~ 2a'P-a'Qa.

Wektor, ktory maksymiżuje prawą stronę nierówności, spełnia równość Qa = P.

Dlatego

Pr(B). ~ a'Qa z podstawieniem Qa = P,

ale a'Qa = a'QQ-Qa = P'Q-P,

co kończy dowód twierdzenia 4.2.

Oszacowania od dołu były przedmiotem także inn_ych prac. Zacytujemy je dla porównania wyników.

Dawson i Sankoff [4] pokazali, że

(4.6)

gdzie e = 2S2 /S1 oraz [x] jest najmniejszą liczbą całkowitą nie przekraczającą x.

Oszacowanie (4.6) okazało się lepsze od rezultatu Chunga i Erdosa [3]:

(4.7) Pr(B) ~ Sf/(S1 +2S2 )

oraz rezultatu Bonferroniego (3.3).

Dodajmy, że rezultat Gallota (4.5) jest J?OCniejszy od (4.7). Przykłady nume- ryczne podane przez Kouniasa [17] wykazują, że (4.6) nie jest mocniejsze od (4.5).

5. Najlepsze oszacowania od dołu. Rozważmy teraz najlepsze oszacowania od

dołu stopnia drugiego ([18]). W tym celu weźmy dla indykatorów nierówności następującej postaci:

(5.1) m~x lj(w) ~ b0+

L

bilj(w)-

L

biklj(w)Ik(w).

J j j<k

Przez rozważenie wszystkich funkcji Il w) zdarzeń elementarnych w E Q warunek (5.1) daje nam 2n liniowych nierówności

(5.2) b0 ~ O, b0 +

L

jEJr bi-

L

j<k bik ~ 1,

j, keJ,

(8)

68 W. Dz i ub dz ie I a, B. Kop o ci ń ski

gdzie J, c J ma r elementów i 1 ~ r ~ n. Biorąc wartość oczekiwaną w (5.1), otrzymujemy

(5.3) Pr(B) ~ b0+

2:

j bi Pi-

2:

i<k bikpik

dla wszystkich b0 , bb b11" 1 ~ j ~ n, j < k ~ n, spełniających (5.2).

Znalezienie najlepszego oszacowania od dołu sprowadza się więc do rozwiązania

zagadnienia programowania liniowego (5.4)

przy ograniczeniach (5.2).

Dla małych n zagadnienie to można rozwiązać. Dla n ~ 5 problem jest kłopotliwy, wielkość zagadnienia bowiem wzrasta do rozmiaru przekraczającego możliwości współczesnych komputerów. Nie wnikając w szczegóły podajemy rozwiązanie

problemu dla n = 3 i n = 4.

3

Pr(U AA~ max(Pi +P2+P3-P12-P13-P23 , Pi +P2-P12 , Pi +P3-P13 ,

J=l

gdyż maksimum wyrażenia (5.4) należy szukać w wierzchołkach b0 = O, bi b2 b3 bu b13 b23

1 1 1 1 1 1

1 1 o o o

1 o 1 o o

o 1 1 o o

Dla n= 4 maksimum (5.4) należy szukać w 22 wierzchołkach z b0 = O. Można je

otrzymać przez permutację wskaźników 1, 2, 3 i 4 sześciu wierzchołków danych w tablicy

bi h2 b3 b4 bu b13 bi4 h23 b24 b34

1 1 o o 1 o o o o o

1 1 1 o 1 o 1 o o

1 1 1 1 1 1 1 1 1 1 -2 1 1 1 -1 -1 -1 1 1 1

2 2 2 2 1 i 1 1 1 1

3 3 3 3 3 3 3 3 3 3

1 1 2 2 1 1 1 2 1 2 1 1 2 2 1 o

Wspomnijmy, że Kwerel [21] otrzymuje najlepsze oszacowania od dołu dla Pr(B)

wykorzystujące n, S1 , S2 .' ~~

6. Oszacowania od góry. Oszacowaniom od góry, jakkolwiek z punktu widzenia

zastosowań zwłaszcza w teorii niezawodności ważniejszym od oszacowań od dołu, poświęcono mniej prac. Podamy teraz rezultat Huntera [14].

(9)

LEMAT 6.1. Niech r(j) oznacza dowolną liczbę ze zbioru {l, 2, ... ,j-1 }. W6wczas

n

(6.1) Pr(B) ~

L

Pr(Ai)-

L

Pr(AT<i>Ai).

j i=2

Do wód. Niech Ac oznacza dopełnienie zbioru A. Wówczas łatwo sprawdzić, że n

Pr(B) = Pr(L) Ai) = Pr(A1)+

,L

Pr(A~A~ „. Aj_1Ai) ~

} i=2

To kończy dowód lematu 6.1.

~ Pr(A1)+

L

n Pr(A~(j)Ai) =

i=2 n

= Pr(A1)+

,L

[Pr(Ai)-Pr(AT<i>Ai)] =

j=2 n

=

L

Pr(Ai)-

,L

Pr(AT<i>Ai).

j i=2

Rozważmy zbiór J oraz graf (J, U) o wierzchołkach w J i krawędziach U=

= {U, k): 1 ~ j, k ~ n}. Drzewem T rozpiętym na grafie (J, U) nazywamy każdy n-wierzchołkowy podgraf spójny o n - 1 krawędziach.

Zauważmy, że funkcja r(j) zdefiniowana w lemacie 6.1 daje pewne drzewo T = (J, r), gdzie r = {(j, r(j)): j = 2, 3, ... ,n}.

TWIERDZENIE 6.1 (Hunter [14]). Dla pewnego uporządkowania Au A2 , .„, An zbiorów przekroje Ai1Ak1, Ai2Ak2, „., Ain-iAkn-i mogą być użyte we wzorze (6.1) wtedy i tylko wtedy, gdy T = (J, r), gdzie T = {U1, k1 ), (j2,k2), ... ,(jn-1,kn-1)}, jest drzewem.

D o w ó d. Konieczność.: Dla dowolnego punktu j E {2, 3, „ ., n} mamy przy-

porządkowanie rU) E { 1, 2, ... ,j-1 }, a zatem graf T jest spójny, ma n-1 krawędzi, a więc jest drzewem. · .

Dostateczność: Niech T będzie drzewem rozpiętym na J. Weźmy dowolny wierz-

chołek drzewa Ti ponumerujmy w dowolny sposób wierzchołki odległe od niego o jedną krawędź, następnie kolejno wierzchołki odległe o dwie krawędzie itd. Uzysku- jemy pewne uporządkowanie wierzchołków, a równocześnie krawędzie drzewa T

określają funkcję r(j) o wartościach z { 1, 2, .„,j-1} dla każdego j. To kończy

dowód twierdzenia 6.1. · 1

Korzystając z oznaczeń przyjętych dla drzewa, nierówność (6.1) możemy napi-

sać w następującej . postaci: ·

(6.2) Pr(B) ~

L

Pr(A;;)-

,L

Pr(A1Ak) =

L

Pi -

L

Pik·

1. j (j, k)eT j (j~ k)eT

Biorąc najlepsze oszacowanie na zbiorze wszystkich drzew, otrzymujemy

(10)

70 W. D z i u b dz ie I a, B. K o p o c i ń s k i WNIOSEK 6.1.

(6.3)

Zagadnienie oszacowania Pr(B) sprowadza się do znalezienia drzewa T* =

(J, r*), dla którego 2:: Pik= max. Algorytm postępowania przy rozwiązy-

(j,k')e-r•

waniu tego problemu jest prosty (zob. Florek et al. [9], K.ruskal [19]), znane

także realizacje algorytmu dla popularnych komputerów (Kucharczyk i Sysło [20),

Trybuś [26]).

Rozważmy teraz najlepsze oszacowania liniowe drugiego stopnia od góry ([18]).

Postępując podobnie jak w przypadku najlepszego liniowego oszacowania od dołu, stwierdzamy, że należy teraz zminimizować

(6.4)

przy ograniczeniach liniowych

(6.5) c0 ~ O, c0+

L

ci-

L

cik ~ 1 dla wszystkich J„ c J.

jEJr j<k j, kEJr

Wierzchołek sympleksu definiowanego przez (6.5), w którym (6.4) jest mini- mizowane, nazywa się optymalnym. Wyrażenie (6.4) obliczone dla wierzchołka

optymalnego poprawia oszacowania (4.2) i (6.3).

Można wykazać (zob. [18]), że c0 = O lub c0 = 1 oraz ci= cik = O. Ogólnie zagadnienia nie będziemy dyskutować. W szczególności, dla n = 3 mamy

3 3

Pr(U 3 Ai) ~min(t,

L Pi-

max

LP,,,i),

J=l i=l l~m<3

i#:-m

i=l

ponieważ sympleks (6.5) ma wówczas cztery wierzchołki

Co C1 Ci. 03 Cu C13 023

l o o o o o o

o l 1 o

o 1 1 1 o

o 1 I o 1

Jest to wynik zgodny z ( 4.2).

Dla n = 4 mamy 23 wierzchołki. Można je otrzymać przez permutację wskaźni­

ków 1, 2, 3 i 4 czterech wierzchołków danych w tablicy

Co 01 C2 C3 C4 C12 C13 C14 C23 C24 C34

I o o o o o o o o o o

o l 1 I o o o

o 1 1 1 1 I l o o l o o 1 l 1 1 -1 I 1 1 1 o

(11)

Kwerel w pracy [21] podał najlepsze oszacowania od góry Pr(B) wykorzystujące

n, S1 , S2.

7. Pewne oszacowanie pierwszego stopnia. Oszacowaniami pierwszego stopnia na- zywamy nierówności wykorzystujące jedynie prawdopodobieństwa Pi. W przy- padku przeprowadzania badań statystycznych użycie ich jest wygodne, gdyż nie- potrzebne są wymagające dużej liczby obserwacji badania wzajemnych zależności zdarzeń losowych Ai,j EJ.

Najlepiej znaną nierównością pierwszego stopnia jest nierówność Boole' a (7.1) max(P1 , P2 , ••• ,Pn):::;; Pr(B):::;;

Lpi·

j

Aby ją polepszyć, będziemy przyjmować dodatkowe założenia o zdarzeniach A1 ,

A2 , ••• ,An.

Jeżeli zdarzenia A1 , A2 , ••. , An stochastycznie niezależne, to mamy

(7.2) Pr(B) = 1-

n

j (I -Pi).

Odpowiada to sytuacji, gdy rozpatrujemy systemy o niezależnych elementach (zob.

[I], [13], [15]).

Załóżmy teraz, że zdarzenia Ai, j E J, dodatnio zależne (positively orthand dependent), to znaczy, że spełniona jest nierówność

(7.3) Pr(() J Aj)~

n

j Pr(Aj).

Warunki, przy których zachodzi (7.3), dobrze zbadane (zob. [5] i prace tam cytowane). Przy powyższym założeniu mamy więc

TWIERDZENIE 7 .1 Jeżeli zdarzenia losowe Ab j EJ, dodatnio zależne, to (7.4) Pr(B) =I-Pr({) J Aj):::;; 1-

n

j Pr(Aj) = 1-

n

j (1-Pi).

Zauważmy, że oszacowanie to jest lepsze od nierówności Boole'a (7.1).

W języku teorii niezawodności systemów nierówność (7.4) można interpretować

w następujący sposób. Czas życia systemu o minimalnych krytycznych zbiorach dodatnio zależnych jest zmienną losową stochastycznie większą niż czas życia tego systemu, przy założeniu, że zbiory krytyczne stochastycznie niezależne. Przy- pomnijmy, że zmienna losowa X jest stochastycznie większa od zmiennej losowej Y, gdy Pr(X ~ t) ~ Pr(Y ~ t) dla każdego rzeczywistego t (zob. [23]).

Nierówność (7.4) można wzmocnić (zob. Kopociński [16)) wprowadzając moc-

niejszą wersję dodatniej zależności i dopuszczając oszacowania drugiego stopnia.

Mówimy, że zdarzenia losowe Abj e J, en bloc dodatnio zależne, jeżeli dla do-

;oJnych J1 c: J, J2 c: J zachodzi nierówność

(7.5) Pr( n Aj)~ Pr(n Aj)Pr(n Aj).

ieJ1vJ2 jeJ1 ieJi

(12)

72 W. D z i u b dz i e I a, B. K o p o c i ń ski

LEMAT 7.1. Niechµ będzie 2m-elementową permutacją z powtórzeniami zbioru J,

następującej postaci

µ = ((i1 ,h, i2,j2, ... , im,jm): i1 ~ j1' i2 ~ j2, ... ,im~ jm, ii~ i2 ~ ··· ~ im), przy czym 2m ~n. W6wczas

m

(7.6) Pr(() Aj)~ max

IT

Pr(AikAjk).

J µ k=l

Dla dowodu lematu wystarczy zauważyć, że

n

EJ Aj=

n

k= 1 m A1\Ajk skorzystać

z własności (7.5).

Szukanie optymalnej permutacji µ do prawej strony nierówności (7.6) jest równo-

ważne szukaniu optymalnego podziału zbioru elementów na pary. Zagadnienie to jest znane pod nazwą optymalnego kojarzenia (non-bivariate matching problem) i ma rozwiązanie, a także istnieją realizacje algorytmu dla niektórych komputerów (zob. Lawler [23]).

Oszacowanie (7.6) jt"st porównywalne z oszacowaniem (6.3). Pierwsze jest ostrzej- sze, jeżeli zdarzenia losowe A.i, j E J, w przybliżeniu niezależne, natomiast drugie jest ostrzejsze, jeżeli zdarzenia te zawierają dużą część wspólną.

Prace cytowane

[1] R. E. Bar I o w, F. Pr os cha n, Mathematical theory of reliability, New York, London, Sydney 1965.

[2] G. Bo o Ie, Investigation of laws of thought on which are founded the mathematical theories of logic and probability, London 1854.

[3] K. L. Chung, P. Er do s, On the application of the Borel-Cantelli lemma, Trans. Amer.

Math. Soc. 72 (1952), str. 179-186.

[4] D. A. Da ws o n, D. San k off, An inequality for probabilities, Proc. Amer. Math.

Soc. 18 (1967), str. 504-507.

[5] R. L. Dyk str a, J. E. He wet t, W. A. Tom p son Jr., Events which are a/most independent, Ann. Statist. 1 (1973), str. 674-681.

[6] W. Dz i ub dz ie I a, B. Kop o ci ń ski, Z. Ko w a I, Ultimate bearing capacity of structural systems with minimal critical sets having joint elements in pairs, Archiwum Mecha- niki Stosowanej 25 (1973), str. 719-731.

[7] W. Fel I er, Wstęp do rachunku prawdopodobieństwa, wyd. 2, (pr.zekładz ang.), Warszawa 1966.

[8] M. Fis z, Rachunek prawdopodobieństwa i statystyka matematyczna, wyd. 3, Warszawa 1967.

[9] K. FI orek, J. Łuk as ze w i cz, J. Perka I, H. Steinhaus, S. Zubrzycki, Taksonomia wrocławska, Przegląd Antropologiczny 17 (1951), str. 193-211.

[10] M. Fr ć che t, Les probabilities associees a un system d'evenements compatibles et dipen- dants exposes d'ana/yse general, Nos. 859 et 942, Paris 1940, 1943.

[11] J. Ga I amb os, Methods Jor proving Bonferroni type inequalities, J. London Math. Soc.

(2) 9 (1975), str. 561-564.

[12] S. Ga 11 ot, A bound for the maximum of a number of random variables, J. Appl. Prob. 3 (1966), str. 556-558.

[13] B.W. Gniedenko, J.K. Bielajew, A.D. Sołowiew, Metody matematyczne w teorii niezawodności (przekład zJrosyjskiego), Warszawa 1968.

(13)

[14] D. Hu n ter, An upper bound for the probability of a union, J. AppJ. Prob. 13 (1976), str. 567-603.

[15] B. Kop o ci ń ski, Zarys teorii odnowy i niezawodności, Warszawa 1973.

[16] -, Some estimations of system reliabi/ity with positively dependent survival times of critical paths, Zastos. Matem. 16 (w druku).

[17] E. G. Ko u n i as, Bounds for the probability of a union, with app/ications, Ann. Math.

Statist. 39 (1968), str. 2154-2158.

[18] S. Ko u n i as, J. Mar i n, Best linear Bonferroni bounds, SIAM J. AppJ. Math. 30 (1976), str. 307-323.

[19] J. B. Kr u ska 1, Jr., On the shortest spanning subtree of a graph and the traveling salesman problem, Proc. Amer. Math. Soc. 7 (1956), str. 48-50.

[20] J. Kuch arc z y k, M. S y o, Algorytmy optymalizacji w języku ALGOL 60, War- szawa 1975.

[21] S. M. Kw er e 1, Most stringent bounds on aggregated probabilities of partially specified dependent probability systems, J. Amer. Statist. Assoc. 70 (1975), str. 472-479.

[22] E. L. La w 1 er, Combinatorial optimization: networks and matroides, New York 1976.

[23] E. L. L e h m a n n, Testowanie hipotez statystycznych (przekład z angielskiego), Warszawa 1968.

[24] C. R. Ra o, Linear statistical inference and its app/ications, New York 1965.

[25] L. Tak ac s, On the method of inc/usion and exclusion, J. Amer. Statist. Assoc. 62 (1967), str. 102-113.

[26] G. Try b u ś, Endosure of a point to the minimum spanning free, Algorithm 42, Zastos.

Matem. 15 (1976), str. 135-139.

Cytaty

Powiązane dokumenty