• Nie Znaleziono Wyników

9.2. Reprezentacja wiedzy

9.2.1. Reprezentacja wiedzy niepewnej

Niepewno´s´c odzwierciedla poziom niezgodno´sci informacji z rzeczywisto-´sci ˛a. Pojawia si˛e, gdy informacja jest nieprecyzyjna, gdy granice zbiorów prze-kazywanych warto´sci s ˛a niejednoznaczne. Niepewno´s´c informacji jest wyra˙zana

9.2. Reprezentacja wiedzy poprzez okre´slenie: prawdopodobny, mo˙zliwy, konieczny, wyobra˙zalny, wiary-godny. Informacje niepewne reprezentuje si˛e poprzez: metody probabilistyczne, zbiory rozmyte.

Metody probabilistyczne

Metody probabilistyczne jeszcze niedawno były jedynymi metodami rozwi ˛ a-zywania problemów informacji niepewnej i pomimo wprowadzenia nowych me-tod dalej s ˛a najcz˛e´sciej stosowane. Poj˛eciem pierwotnym w teorii prawdopodo-bie ´nstwa jest poj˛ecie przestrzeni zdarze ´n elementarnychΘ (zbioru niepodziel-nych i rozł ˛acznych wyników obserwacji). Punktem wyj´sciowym dla ró˙znych pro-babilistycznych metod reprezentacji informacji niepewnej jest twierdzenie Bay-esa. Wykorzystuje si˛e w nich prawdopodobie ´nstwo warunkowe opisane zale˙zno-´sci ˛a:

P (A|B) =P (B |A)P(A)

P (B ) (9.1)

Oznacza ono prawdopodobie ´nstwo wyst ˛apieniu zdarzenia A pod warunkiem wy-st ˛apienia warunku B . Jest to reguła: Je´sli B to A (A mo˙ze zosta´c uznane jako praw-dziwe wtedy, kiedy B jest uznane za prawpraw-dziwe). Wyja´snia to poni˙zszy przykład.

U pewnego pacjenta przeprowadzono test na obecno´s´c wirusa SARS (ang. Se-vere Acute Respiratory Syndrome), czyli zespół ostrej ci˛e˙zkiej niewydolno´sci odde-chowej, i wypadł on pozytywnie. Co w takiej sytuacji ma zrobi´c lekarz, hospitali-zowa´c pacjenta i rozpocz ˛a´c leczenie? Czy jest to niekonieczne? Nale˙zy pami˛eta´c, ze przeprowadzony test nigdy nie jest całkowicie niezawodny. Je´sli jest dobry, to zapewnia bardzo wysok ˛a skuteczno´s´c otrzymania poprawnego wyniku w przy-padku obecno´sci wirusa. Inn ˛a, bardzo wa˙zn ˛a cech ˛a dobrego testu jest wysokie prawdopodobie ´nstwo otrzymania wyniku negatywnego w przypadku nieobec-no´sci wirusa. Powy˙zsze stwierdzenia mo˙zna zapisa´c w postaci:

• P (T|S ARS) - prawdopodobie ´nstwo otrzymania wyniku pozytywnego w przy-padku obecno´sci wirusa

• P (Tª|S ARS) - prawdopodobie ´nstwo otrzymania wyniku negatywnego w przy-padku nieobecno´sci wirusa.

Wymienione powy˙zej informacje nie s ˛a przydatne dla lekarza, którego inte-resuje warto´s´c P (S ARS|T) albo P (¬S ARS|Tª), czyli prawdopodobie ´nstwo, ˙ze dany pacjent ma SARS. Niech, dla przykładu,

P (S ARS) = 0.0001 P (T|S ARS) = 0.95 P (Tª|S ARS) = 0.90

W celu obliczenia P (S ARS|T) wykorzystywane jest zale˙zno´s´c: P (S ARS|T) =P (T

|S ARS)P (S ARS) P (T)

Warto´s´c P (T) wyliczana jest z zale˙zno´sci:

P (T) = P (T|S ARS)P (S ARS) + P (T|¬S ARS)P (¬S ARS)

P (T) = 0.95 · 0.0001 + 0.01 · 0.9999 = 0.000095 + 0.09999 = 0.100085 Po podstawieniu wszystkich warto´sci do wzorów:

P (S ARS|T) =0.95 · 0.0001

0.100085 = 0.00094919

Otrzymany wynik jest prawie o rz ˛ad wi˛ekszy od warto´sci prawdopodobie ´ n-stwa wyst ˛apienia wirusa. Nasuwa si˛e w takim razie kolejne pytanie, czy nale˙zy zacz ˛a´c kosztowne i bardzo wyniszczaj ˛ace organizm leczenie pacjenta? W celu dokładniejszej diagnozy stosuje si˛e rozbudowan ˛a wersje reguł Bayesa - trwałej niezale˙zno´sci warunkowej. W celu u´sci´slenia diagnozy stosuje si˛e drugi test o nych wła´sciwo´sciach (obliczony, tak jak w przykładzie wcze´sniejszym, lecz z in-nymi dain-nymi), a nast˛epnie oblicza si˛e prawdopodobie ´nstwo wyst ˛apienia SARS jako uwarunkowania wyników obu testów. W tym celu wykorzystuje si˛e zale˙z-no´s´c: P (S ARS|T1, T2) = P (S ARS ∩ T 1 ∩ T2) P (T 1 ∩ T2) = P (T 1 ∩ T2|S ARS)P (S ARS) P (T1∩ T2) = P (T

1|S ARS)P (T2|S ARS)P (S ARS) P (T1∩ T2)

W przypadku, gdy oba testy miałyby identyczn ˛a charakterystyk˛e jak w obliczo-nym wcze´sniej przykładzie, to otrzymany pozytywny wynik z obu testów wska-załby na prawdopodobie ´nstwo blisko 100 razy wi˛eksze ni˙z w przypadku braku informacji.

P (S ARS|T1, T2) =P (T

1|S ARS)P (T2|S ARS)P (S ARS) P (T1∩ T2)

Przy metodach probabilistycznych cz˛esto stosowana jest wielko´s´c nazywana entropi ˛a. Entropia jest to funkcjonał przyporz ˛adkowuj ˛acy funkcji prawdopodo-bie ´nstwa nieujemn ˛a liczb˛e. Jej zadaniem jest mierzenie zawarto´sci informacyjnej rozpatrywanego zbioru zada ´n lub zdarze ´n. Istnieje kilka okre´sle ´n entropii: • entropia Shannona

Hn(P ) = −Pn

i =1pilog pi

9.2. Reprezentacja wiedzy Hn(P ;W ) = −Pn

i =1wipilog pi

• entropia wa˙zona stopniaβ

Hnβ(P ;W ) = (21−β− 1)−1Pn

i =1pilog pi

Współczynnik pewno´sci C F

Wprowadzenie współczynnika pewno´sci C F do reprezentacji informacji nie-pełnej miało na celu zmniejszenie wymaga ´n dotycz ˛acych du˙zej ilo´sci danych i unikni˛ecie niewygodnych oblicza ´n zwi ˛azanych z wnioskowaniem probabili-stycznym.

Pierwotnie współczynnik CF zdefiniowany był jako przyrost prawdopodo-bie ´nstw warunkowych. Pozwala na poł ˛aczenie stopnia wiedzy oraz niewiedzy oraz przedstawienia ich w postaci jednej liczby. Został on okre´slony przez twór-ców Shortliffe’a i Buchanana jako ró˙znica miar M B i M D. Miara wiarygodno´sci M B (h, e) reprezentuj ˛ace stopie ´n potwierdzenia hipotezy h przez obserwacje e. M D(h, e) jest to miara niepotwierdzenia hipotezy h przez e. W literaturze mo˙zna do´s´c cz˛esto spotka´c si˛e z interpretacj ˛a probabilistyczn ˛a tych wielko´sci:

C F (h, e) =                1 P (h) = 1, M B P (h|e) > P(h), 0 P (h|e) = P(h), −MD P (h|e) < P(h), −1 P (h) = 0, M B (h, e) = ( P (h|e)−P(h) 1−P(h) P (h|e) > P(h)), 0 w przeciwnym przypadku, M D(h, e) = ( P (h)−P(h|e) P (h) P (h|e) < P(h)), 0 w przeciwnym przypadku,

gdzie P (h) jest prawdopodobie ´nstwem a priori hipotezy h, P (h|e) prawdopo-dobie ´nstwem a posteriori. Powy˙zsze podej´scie pozwala na interpretacj˛e przyro-stow ˛a prawdopodobie ´nstwa:

P (h|e) = (

P (h) +C F (h,e)[1 − P(h)], C F (h,e) > 0, P (h) − |C F (h,e)|P(h), C F (h, e) < 0,

W systemach MYCIN (medyczne systemy ekspertowe) wiedza jest zapami˛ety-wana w postaci reduły je´sli e, to h. Do ka˙zdej reguły powi ˛azana jest pewna liczba C F , reprezentuj ˛aca zmiany wiarygodno´sci hipotezy dla danej obserwacji e. C F znajduje si˛e w przedziale [−1,1]. Podczas wnioskowania w modelu współczyn-nika pewno´sci C F w oparciu o działanie interpretatora reguł, nast˛epuje zjawisko przechodzenia z reguły do reguły. Efektem przej´scia jest powstanie drzewa wy-wodu odwzorowuj ˛acego wybrane i uaktywnione reguły wraz z ich kolejno´sci ˛a. Ka˙zdy z faktów mo˙ze posiada´c swój współczynnik pewno´sci. Fakty te tworz ˛a przesłanki pewnych reguł:

• przesłanka reguły zawiera wyra˙zenie zwieraj ˛ace operator AND ( & ) Je˙zeli e1i (AND) e2, to h

C F (h, e1&e2) = mi n{C F (e1,C F (e2)} ·C F (h) • przesłanka reguły zawiera wyra˙zenie zawieraj ˛ace operator OR ( k)

Je˙zeli e1lub (OR) e2, to h

C F (h, e1|e2) = max{C F (e1,C F (e2)} ·C F (h)

Do´s´c cz˛esto wyst˛epuj ˛a ró˙zne kombinacje poł ˛acze ´n reguł, z których wynika jedna konkluzja. Rozró˙zniamy dwa podstawowe układy, gdy:

• hipoteza h jest konkluzj ˛a wi˛ecej ni˙z jednej reguły (poł ˛aczenie równoległe), Je˙zeli e1to h Je˙zeli e2to h C F (h, e1, e2) =          C F (h, e1) +C F (h,e2) −C F (h,e1)C F (h, e2) dla C F (h, e1) ≥ 0,C F (h,e2) ≥ 0 C F (h, e1) +C F (h,e2) +C F (h,e1)C F (h, e2) dla C F (h, e1) < 0,C F (h,e2) < 0 • hipoteza h jest konkluzj ˛a poł ˛aczenia szeregowego reguł,

Je˙zeli e1to e2 Je˙zeli e2to h C F (h, e1) = ( C F (e1, e2)C F (h, e2) dla C F (e1, e2) ≥ 0 −C F (e1, e2)C F (h, ¬e2) dla C F (e1, e2) < 0

Warto´sci dodatnie odpowiadaj ˛a zwi˛ekszeniu wiarygodno´sci hipotezy, nato-miast warto´sci ujemnie jej zmniejszeniu. Warto´sci przechodz ˛a przez sieci wnio-skowania zgodnie z okre´slaj ˛acymi je funkcjami. Ró˙zne typy poł ˛aczenia zostały przedstawione na rys. 9.2.

Po przeprowadzeniu oblicze ´n oraz poł ˛aczeniu niepewno´sci (e1e2e5→ h) dla przykładu zamieszczonego na rys. 9.3 mo˙zna wywnioskowa´c, ˙ze posiada on współczynnik pewno´sci równy C F = 0.059375. Poniewa˙z dziedzina ta ci ˛agle si˛e rozwija w pó´zniejszych czasach zostały wprowadzone ró˙zne modyfikacje maj ˛ace na celu likwidacj˛e niekonsekwencji mi˛edzy definicj ˛a współczynnika C F a funk-cjami ł ˛acz ˛acymi niepewno´sci informacji, jednak˙ze w poni˙zszej pracy nie b˛ed ˛a one omawiane.

Logika rozmyta

Klasyczna logika operuje na dwóch warto´sciach (0, 1) lub prawda i fałsz. Do-datkowo granica mi˛edzy jedn ˛a warto´sci ˛a a drug ˛a jest wyra´zna i jednoznaczna. Do logiki rozmytej nale˙zy rozszerzenie klasycznego rozumowania w taki sposób, aby

9.2. Reprezentacja wiedzy

Rys. 9.2: Poł ˛aczenia równoległe i szeregowe w modelu współczynnika pewno´sci C F .

była ona bli˙zsza ludzkiemu rozumowaniu. Logika ta wprowadza warto´sci po´sred-nie mi˛edzy standardowe 0 i 1. Rozmyte granice pomi˛edzy 0 i 1 daj ˛a mo˙zliwo´s´c za-istnienia warto´sci z tego przedziału (np.: prawie fałsz, w połowie prawda). Przy-kładem takiego rozumowania mo˙ze by´c okre´slenie wieku ludzi czy te˙z wyznacze-nie granicy wieku mi˛edzy lud´zmi młodymi, w wieku ´srednim i starszymi. Logika klasyczna zmusza do przyj˛ecia stałych granic, np.: ludzie młodzi (0-30 lat), ludzie w wieku ´srednim (30-40 lat) i osoby starsze (po 40 roku ˙zycia). Jednak w subiek-tywnej ocenie samych osób przyj˛ecie ustalonych granic nie jest ju˙z tak oczywiste. Czy 28 latek zawsze powinien by´c zakwalifikowany do grupy osób młodych? Roz-mycie granic podziału przedstawiono na rys. 9.4.

Rys. 9.4: Przykład granic podziału w logice klasycznej i logice rozmytej.

Logika rozmyta jest stosowana tam, gdzie trudno jest posługiwa´c si˛e lo-gik ˛a klasyczn ˛a (na przykład przy opisie matematycznym zło˙zonego procesu lub w przypadku, w którym wyliczanie zmiennych potrzebnych do rozwi ˛azania jest niemo˙zliwe). Najcz˛e´sciej wykorzystywana jest w sterownikach, które mog ˛a by´c zamontowane w prostych urz ˛adzeniach typu lodówka czy pralka. Mo˙zna j ˛a spo-tka´c równie˙z w bardziej skomplikowanych urz ˛adzeniach, słu˙z ˛acych do przetwa-rzania obrazów, rozwi ˛azuj ˛acych problem korków ulicznych czy unikania kolizji. Sterowniki wykorzystuj ˛ace logik˛e rozmyt ˛a stosowane s ˛a te˙z w poł ˛aczeniu z sie-ciami neuronowymi.

Definicja zbiorów rozmytych opiera si˛e na pewnym formali´zmie matema-tycznym. Podobnie jak w klasycznej algebrze zbiorów, na zbiorach rozmytych mo˙zna wykonywa´c pewne operacje. Podstawowymi operacjami wykonywanymi na zbiorach rozmytych s ˛a: negacja (NOT), suma (OR), iloczyn (AND). Operacje te mog ˛a by´c realizowane w ró˙zny sposób, np. według wzorów zamieszczonych w tab. 9.1 i 9.2, a w wyniku ich stosowania mo˙zna uzyska´c ró˙zne rezultaty.