• Nie Znaleziono Wyników

Przegląd podejść stosowanych do integracji wiedzy w procesie budowy modeli rozmytych

N/A
N/A
Protected

Academic year: 2021

Share "Przegląd podejść stosowanych do integracji wiedzy w procesie budowy modeli rozmytych"

Copied!
9
0
0

Pełen tekst

(1)

Uniwersytet Szczeciski

Streszczenie

Celem niniejszego artykułu jest dokonanie przegldu metod stosowanych do in-tegracji wiedzy eksperckiej z wiedz wydobyt z danych pomiarowych w procesie budowy modelu rozmytego opisujcego działanie pewnego systemu rzeczywistego. W artykule zostan wskazane podstawowe powody koniecznoci wykonywania takiej integracji oraz zostan zaprezentowane metody słuce do przeprowadzenia tego zadania. W kocowej czci artykułu zostanie wskazana potrzeba opracowania no-wych metod, takich, które w przeciwiestwie do metod istniejcych bd pozwalały na przezwycienie niedogodnoci wynikajcych z budowy modeli rozmytych opar-tych jedynie na danych pomiarowych bd na wiedzy eksperckiej.

Słowa kluczowe: integracja wiedzy, model rozmyty, wiedza ekspercka, dane pomiarowe, modele typu szara-skrzynka.

1. Wprowadzenie

Zarówno modele rozmyte budowane na podstawie zbioru danych pomiarowych jak i modele rozmyte budowane przy wykorzystaniu wiedzy eksperckiej maj specyficzne dla siebie wady i zalety. Model ekspercki jest modelem przyblionym, ale obowizujcym w całej dziedzinie anali-zowanej zalenoci, natomiast model zbudowany na podstawie zbioru danych pomiarowych jest modelem dokładnym, ale wiarygodnym tylko w pewnym, cile okrelonym fragmencie dziedziny. Wynika z tego, e aby zwikszy precyzj rozmytych modeli eksperckich naley do nich dołczy wiedz zawart w danych pomiarowych i analogicznie, eby poszerzy zakres stosowalnoci mo-deli rozmytych opracowanych na podstawie zbioru danych pomiarowych naley dołczy do nich wiedz eksperck.

Celem niniejszego artykułu jest dokonanie przegldu metod stosowanych obecnie w procesie integracji wiedzy eksperckiej z wiedz wydobyt z danych pomiarowych. W zwizku z tym w ko-lejnych sekcjach artykułu zostan opisane kolejno: wady i zalety modeli budowanych przy wyko-rzystaniu tylko jednego ródła wiedzy (sekcja 2), metody stosowane obecnie w procesie integracji wiedzy pochodzcej z wspomnianych powyej ródeł (sekcja 3) oraz przyczyny powodujce, e metody te nie nadaj si do budowy modeli rozmytych jednoczenie wiarygodnych w całej dzie-dzinie analizowanej zalenoci oraz generujcych dokładne wyniki w regionie pokrytym przez dane pomiarowe (sekcja 4).

2. Modele eksperckie a modele oparte na danych pomiarowych

Modele rozmyte budowane w całoci w oparciu o wiedz eksperta maj dwie podstawowe zale-ty zwikszajce zaufanie uytkowników do generowanych przez nie wyników:

(2)

− modele te s kompletne i wiarygodne w całej przestrzeni opisywanych przez nie zalenoci, − modele te dotycz tylko fizycznie moliwych obszarów dziedziny modelowanej zalenoci, co

wynika z tego, e ekspert nie jest w stanie poda reguł dla stanów nie mogcych wystpi w rzeczywistoci.

Z drugiej strony jednak, modele eksperckie maj równie dwie podstawowe wady, które powo-duj, e w przypadku wystpienia odpowiednich moliwoci praktycznych twórcy modeli rozmy-tych sigaj po automatyczne metody generowania reguł na podstawie zbioru przykładów opisuj-cych analizowan zaleno. Pierwsz z nich jest konieczno wczeniejszego pozyskania wiedzy od ekspertów dziedzinowych, co jest procesem bardzo praco- i czasochłonnym. Czasochłonno i pracochłonno procesu akwizycji wiedzy eksperckiej wynika z tego, e u podstaw zachowania si złoonych systemów rzeczywistych moe istnie wiele setek czy tysicy reguł, które ekspert musi sformułowa na podstawie swojego dowiadczenia. W zwizku z tym, w przypadku najprostszych nawet systemów, proces akwizycji wiedzy moe trwa wiele dni czy tygodni. Pracochłonno procesu akwizycji wiedzy wynika równie z koniecznoci wielokrotnego korygowania reguł poda-wanych przez eksperta, zwłaszcza w przypadku systemów złoonych, charakteryzujcych si tym, e wiedza ekspercka je opisujca jest bardzo trudna do prawidłowej formalizacji. Naturalnie, dua pracochłonno procesu akwizycji wiedzy pociga za sob wysokie koszty tego procesu.

Poza wysok praco- i czasochłonnoci procesu akwizycji wiedzy, modele eksperckie charakte-ryzuje równie ta niedogodno, e w przypadku zalenoci o wysokim stopniu nieliniowoci mo-g one generowa wyniki o niszej dokładnoci, anieli odpowiadajce im modele oparte na da-nych pomiarowych. Wskazana cecha modeli eksperckich jest skutkiem tego, e człowiek-ekspert ma ograniczone moliwoci rozrónienia rónych stanów opisujcych analizowane przez niego zmienne. Jak pokazuj eksperymenty przeprowadzone przez J. M. Mendela [8], człowiek jest w stanie poprawnie rozróni bardzo niewielk liczb stanów – ju w przypadku 5 słów opisujcych poszczególne stany badanej zmiennej, definicje numeryczne kolejnych słów mog w pewnym stopniu zachodzi na siebie. Oznacza to, e przy wikszej liczbie stanów słowa je definiujce staj si w pewnym stopniu nierozrónialne. Ekspert jest wic w stanie wzgldnie jednoznacznie okre-li zakres przynaleny do danego słowa tylko w przypadku bardzo niewielkiej liczby słów. Natu-ralnie, ograniczona liczba rónych stanów rozrónianych przez eksperta nie ma wpływu na precy-zj odwzorowania przy zalenociach o niskim stopniu nieliniowoci, ale w przypadku zalenoci charakteryzujcych si wysokim stopniem nieliniowoci czsto prowadzi do zmniejszenia precyzji modelu rozmytego.

Zarówno pierwsz, jak i drug z wskazanych powyej niedogodnoci budowy modelu rozmyte-go na podstawie wiedzy eksperckiej mona w znacznym stopniu ograniczy uwzgldniajc w bu-dowanym modelu nie tylko wiedz eksperck, lecz równie wiedz pozyskan ze zbioru przykła-dów opisujcych analizowan zaleno. Teoretycznie wydawa by si mogło, e z uwagi na wy-mienione wady modelu eksperckiego, budowa modelu eksperckiego w przypadku posiadania zbio-ru danych pomiarowych opisujcych analizowan zaleno jest w ogóle pozbawiona sensu. Model rozmyty zbudowany na podstawie zbioru danych pomiarowych jest bowiem bardziej dokładny od modelu eksperckiego i wymaga znacznie mniejszego nakładu pracy – zwizanego jedynie z ko-niecznoci zgromadzenia zestawu danych pomiarowych oraz zastosowania odpowiedniej proce-dury optymalizacyjnej. W praktyce jednak okazuje si, e czsto jako zbioru danych pomiaro-wych nie jest wystarczajca do automatycznego opracowania modelu rozmytego generujcego wiarygodne wyniki w całej fizycznie moliwej dziedzinie analizowanej relacji. Najczciej okazuje

(3)

si, e opracowany model jest co prawda modelem o wysokim stopniu dokładnoci, ale generuje wyniki zgodne z rzeczywistoci jedynie w bardzo niewielkim fragmencie dziedziny analizowanej zalenoci. Przyczyny wystpowania takiej sytuacji zostały wyjanione poniej.

Podstawowym faktem podkrelanym w literaturze naukowej podnoszcej problemy wystpuj-ce w prowystpuj-cesie modelowania jest to, e modele wygenerowane automatycznie na podstawie zbioru danych pomiarowych mog by stosowane w praktyce jedynie w zakresie ograniczonym przez dane wchodzce w skład tego zbioru [9]. Twierdzenie to nie dotyczy jedynie tych modeli, co do których istnieje pewno, e ich posta funkcyjna jest stała w całej dziedzinie i których parametry zostały wyznaczone przy wykorzystaniu metod optymalizacji globalnej.

Z czego wynika ten ograniczony zakres stosowalnoci modeli zbudowanych na podstawie da-nych pomiarowych? Przede wszystkim z tego, e prawo rzdzce badan zalenoci jest znane tylko w tym obszarze, który jest pokryty próbkami pomiarowymi. Zgodnie z tym, powierzchnia modelu moe by optymalizowana tylko w tym zakresie. Zadaniem postawionym w procesie mo-delowania jest wic znalezienie takich parametrów modelu, które pozwol na uzyskanie jak najdo-kładniejszego dopasowania powierzchni modelu do danych pomiarowych. Z uwagi na to, e w przypadku budowy modeli silnie nieliniowych nie istnieje analityczna procedura optymalizacyjna, dobór wartoci parametrów jest prowadzony przy wykorzystaniu procedur iteracyjnych [5]. W trakcie działania tych procedur parametry modelu s stopniowo korygowane, co powoduje, e powierzchnia modelu dopasowuje si coraz dokładniej do danych pomiarowych. Oczywicie, optymalizowane s tylko te fragmenty powierzchni modelu, w obrbie których znajduj si dane pomiarowe analizowanej zalenoci. Fragmenty powierzchni modelu pozbawione próbek pomia-rowych nie s optymalizowane, poniewa w odniesieniu do nich nie mona zastosowa adnego kryterium optymalizacyjnego.

Z powyszego wynika, e aby opracowa model analizowanej zalenoci wany w całej jej fi-zycznie moliwej dziedzinie, konieczne jest dysponowanie danymi pomiarowymi pokrywajcymi cał t dziedzin. Spełnienie tego warunku jest jednak niesłychanie trudne z uwagi na to, e: − niezbdne jest zgromadzenie olbrzymiej liczby danych pomiarowych,

− zgromadzone dane musz w odpowiedni sposób pokrywa dziedzin analizowanej zalenoci. Zgromadzenie wystarczajcej liczby danych jest bardzo trudne, zwłaszcza w przypadku zale-noci wielowymiarowych, z uwagi na to, e liczba danych pomiarowych koniecznych do utrzyma-nia stałej gstoci pokrycia próbkami pomiarowymi pełnej dziedziny problemu ronie wykładniczo wraz ze wzrostem liczby zmiennych wejciowych [6]. Oznacza to, e dodanie do modelu kadej kolejnej zmiennej objaniajcej powoduje logarytmiczny spadek gstoci pokrycia dziedziny zja-wiska danymi pomiarowymi. Wskazane zjawisko powoduje, e nawet kiedy analizowana zaleno jest umiejscowiona w przestrzeni tylko kilku zmiennych objaniajcych, to liczba próbek pomia-rowych niezbdnych do opracowania jej modelu wiarygodnego w całej fizycznie moliwej dzinie moe wynosi kilkadziesit tysicy (zakładajc równomierny rozkład próbek w całej dzie-dzinie). Zgromadzenie tak duej liczby danych jest bardzo trudne, czasami nawet niemoliwe z uwagi na to, e w kracowych przypadkach wymagana liczba danych moe po prostu nie istnie (biorc na przykład pod uwag zalenoci makroekonomiczne analizowane w przekroju miesicz-nym, zgromadzenie nawet 100 próbek danych dotyczcych analizowanego szeregu czasowego moe nie by moliwe, choby z uwagi na wymaganie zachowania stacjonarnoci szeregu).

Chocia postulat zgromadzenia odpowiedniej liczby danych pomiarowych wydaje si by trud-ny do spełnienia, to znacznie trudniejsze jest spełnienie warunku pokrycia datrud-nymi pomiarowymi

(4)

pełnej dziedziny analizowanej zalenoci. Jest to wynikiem tego, e w przypadku zalenoci rze-czywistych praktycznie nie spotyka si sytuacji, e kady moliwy stan wektora zmiennych obja-niajcych bdzie wystpował z tak sam czstotliwoci. Najczciej jest tak, e pewne zestawy podobnych stanów wystpuj bardzo czsto, inne natomiast - bardzo rzadko. Efektem tego jest wystpowanie w dziedzinie modelowanej zalenoci pustych stref – to jest stref pozbawionych próbek pomiarowych. Std te, bez wzgldu na liczb zgromadzonych danych, nigdy nie ma pew-noci, e model zbudowany na ich podstawie bdzie działał prawidłowo w całej fizycznie moliwej dziedzinie.

3. Integracja wiedzy eksperckiej z danymi pomiarowymi

Najczciej spotykanym w literaturze podejciem do integracji wiedzy zawartej w danych po-miarowych z wiedz eksperck jest uwzgldnianie w modelu pewnych zewntrznych faktów usta-lonych na podstawie wiedzy zdroworozsdkowej, wynikajcych z ogólnie znanych praw matema-tycznych, ekonomicznych, społecznych itp. albo wynikajcych z charakterystyki analizowanej zalenoci. Fakty te przyjmuj z reguły posta ogranicze eksperckich nakładanych na zmienne, bd parametry modelu [7]. W przypadku klasycznych modeli matematycznych budowanych dla dobrze poznanych procesów lub systemów, fakty te mog by równie wprowadzane do modelu na etapie wyboru jego postaci analitycznej. W ten sposób zostaje zidentyfikowana pewna ogólna struktura modelu, której parametry s nastpnie strojone na postawie danych pomiarowych. W przypadku modelowania zalenoci o charakterze liniowym (oraz pewnych nielicznych zalenoci o charakterze nieliniowym, spełniajcych okrelone wymagania), strojenie parametrów modelu odbywa si poprzez zastosowanie dobrze znanych metod optymalizacyjnych, natomiast w przy-padku modelowania zalenoci o charakterze nieliniowym (zwłaszcza silnie nieliniowym), stroje-nie parametrów musi najczciej zosta przeprowadzone przy wykorzystaniu podejcia znanego pod nazw modelowania czarnej-skrzynki.

Budowa modeli typu czarna-skrzynka (ang. black-box) jest jednym z dwóch podstawowych podej do procesu modelowania wyrónianych w literaturze przedmiotu. Modele typu czarna-skrzynka, to modele budowane w całoci na podstawie danych pomiarowych, bez uycia wgldu fizycznego czy werbalnego w modelowany problem. Charakterystyczne dla tego rodzaju modeli jest to, e ich struktura wybierana jest z rodziny modeli bdcych uniwersalnymi aproksymatorami funkcji, a ich parametry nie maj fizycznej czy werbalnej interpretacji – s one tak strojone, eby dopasowa model do danych pomiarowych najlepiej jak to moliwe [7].

Podejciem umiejscowionym niejako na drugim biegunie procesu modelowania jest podejcie postulujce budow modeli typu biała-skrzynka (ang. white-box) [3]. Modele typu biała-skrzynka, nazywane inaczej modelami mechanistycznymi (ang. mechanistic models), to modele budowane w całoci na postawie praw fizycznych. Przykładem tego rodzaju modeli s modele opracowywane na podstawie funkcji matematycznych opisujcych prawa fizyczne, zgodnie z którymi działa anali-zowany system, na które nakładane s dodatkowo znane z góry ograniczenia. Do grupy modeli typu biała-skrzynka zaliczane s równie modele identyfikowane w całoci na podstawie wiedzy eksperckiej, czyli modele odzwierciedlajce prawa rzdzce analizowan zalenoci zdefiniowa-ne przez eksperta dziedzinowego.

Do łczenia, w modelu opisujcym zalenoci o silnie nieliniowym charakterze, wiedzy wyni-kajcej z praw fizycznych z wiedz zawart w danych pomiarowych wykorzystywane s dwa po-dejcia: podejcie, którego wynikiem jest model typu szara-skrzynka (ang. grey-box) oraz

(5)

podej-cie, którego wynikiem jest model semi-mechanistyczny (ang. semi-mechanistic model). Modele budowane przy pomocy obu podej stanowi niejako łcznik midzy modelami typu czarna-skrzynka oraz modelami typu biała-czarna-skrzynka.

Tradycyjne podejcie do modelowania na zasadzie szarej-skrzynki zakłada, e struktura modelu jest zadana z góry jako sparametryzowana funkcja matematyczna, która (przynajmniej czciowo) jest oparta na wiedzy fizycznej [3, 7]. Posta analityczna modelu jest wic, przynajmniej w czci, traktowana jako składnik wiedzy zadanej apriori. Poza ni wiedza fizyczna jest reprezentowana poprzez ograniczenia nakładane na zmienne i parametry modelu. Tym co jest nieznane i co musi zosta ustalone przy wykorzystaniu zasad modelowania typu czarna-skrzynka s optymalne bd suboptymalne wartoci parametrów modelu. Czasami pojcie modelu typu szara-skrzynka jest odnoszone równie do modeli w całoci opartych na wiedzy eksperckiej, a nastpnie korygowa-nych przy pomocy zbioru dakorygowa-nych pomiarowych. Teoretycznie moliwe jest tutaj równie podejcie odwrotne, tzn. budowa modelu w całoci opartego na danych pomiarowych, a nastpnie skorygo-wanie go wiedz eksperck. W praktyce jednak podejcie takie rzadko kiedy jest stosowane, w zwizku z czym w literaturze brak jest przykładów tego rodzaju modeli.

Podczas kiedy modele typu szara-skrzynka s modelami o w miar jednolitej strukturze, to mo-dele mechanistyczne najczciej charakteryzuj si struktur blokow [1, 3]. Model semi-mechanistyczny jest to model, którego ogólna struktura zostaje zdefiniowana w kategoriach struk-tury białej-skrzynki, czyli przy wykorzystaniu wiedzy fizycznej o modelowanej zalenoci. Do modelu tego dołczony jest szereg modeli typu czarna-skrzynka, których zadaniem jest modelowa-nie tych fragmentów modelu podstawowego, które modelowa-nie mog zosta ustalone apriori. Najczciej kolejne modele typu czarna-skrzynka wykorzystywane s do estymacji kolejnych, niemoliwych do ustalenia na podstawie wiedzy fizycznej, parametrów modelu. Modele semi-mechanistyczne nazy-wane s czsto w literaturze modelami hybrydowymi.

Zupełnie innym podejciem do integracji wiedzy eksperckiej z wiedz wydobyt z danych po-miarowych jest podejcie polegajce na bezporedniej integracji reguł wygenerowanych automa-tycznie na podstawie zbioru danych pomiarowych z regułami pobranymi od eksperta dziedzinowe-go. Charakterystyczn cech modeli budowanych poprzez zastosowanie metod bazujcych na tym podejciu jest to, e ich podstaw jest zestaw baz wiedzy, z których cz stanowi bazy zawiera-jce reguły opracowane na podstawie danych pomiarowych, a cz – bazy zawierazawiera-jce reguły eksperckie. W literaturze proponowane s dwa podstawowe podejcia do budowy modelu integru-jcego reguły pochodzce z tych baz. Podejcie pierwsze postuluje współistnienie w modelu wszystkich baz wiedzy przez cały okres jego stosowania. Wybór bazy odpowiedniej dla zadanej sytuacji decyzyjnej odbywa si poprzez zastosowanie reguł nadrzdnych, tak zwanych meta-reguł, uzaleniajcych wybór bazy od wartoci pewnych zmiennych opisujcych analizowane zjawisko lub wartoci funkcji celu decydenta. [10]. Podejcie drugie natomiast polega na stworzeniu jednej bazy reguł, łczcej w sobie reguły pochodzce z rónych baz. Bardzo czsto w podejciu tym do stworzenia modelu zawierajcego optymaln baz reguł wykorzystywane s algorytmy genetyczne, w których osobnikami s poszczególne zbiory reguł, a funkcja przystosowania jest zdefiniowana tak, eby oceni jako kadego zbioru reguł w populacji [13]. W trakcie wykonywania operacji genetycznych reguły s wymieniane pomidzy zbiorami, tworzc w ten sposób coraz to nowe bazy reguł. Algorytm koczy prac w momencie uzyskania bazy reguł spełniajcej zadane przez uyt-kownika kryterium modelowania.

(6)

Kolejn, całkowicie odmienn technik modelowania, wykorzystujc w procesie modelowania zarówno wiedz eksperck, jak i wiedz pozyskan z danych pomiarowych s sieci Bayes’a (ang. Bayesian Belief Network – BBN) [12]. Sie Bayes’a jest graficzn technik probabilistyczn sto-sowan do modelowania sieci przyczynowych. Jej zadaniem jest przewidywanie prawdopodo-biestw wystpienia wielokrotnych zdarze dyskretnych, stanowicych wzły modelu, połczonych przy pomocy skierowanego acyklicznego grafu, którego łuki odzwierciedlaj zbiór relacji przyczy-nowych wystpujcych midzy zdarzeniami poprzednimi i nastpnymi, definiowanych poprzez prawdopodobiestwa warunkowe istniejce pomidzy zdarzeniami [12]. Dla kadego wzła okre-lony jest rozkład prawdopodobiestwa warunkowego. W przypadku wartoci dyskretnych, funk-cja prawdopodobiestwa warunkowego zapisywana jest w tabeli przedstawiajcej prawdopodo-biestwa przyjcia poszczególnych wartoci przez wzeł nastpny, w zalenoci od kolejnych z moliwych wartoci wzła poprzedniego. Prawdopodobiestwa wzłów nie majcych adnych wzłów poprzednich ustalane s apriori (na podstawie wiedzy eksperckiej), a prawdopodobiestwa wzłów pozostałych ustalane s na podstawie danych pomiarowych.

Dokonujc przegldu metod słucych do integracji wiedzy w modelu rozmytym, naley wspomnie równie w skrócie o metodach wykorzystywanych do integracji wiedzy pochodzcej od rónych ekspertów. Metody te bazuj najczciej na pewnym „urednieniu” wiedzy pobranej od kilku ekspertów, traktowanej zarówno w kategoriach parametrów funkcji przynalenoci zmien-nych budowanego modelu, jak i w kategoriach typowych reguł eksperckich definiujcych prawa rzdzce analizowanym zjawiskiem. Jeeli chodzi o łczenie wiedzy o parametrach funkcji przyna-lenoci, to np. A. Cornelissen., J. van den Berg, W. Koops, i U. Kaymak proponuj cztery podej-cia do wykonania tego zadania, dostosowane do czterech metod pozyskiwania wiedzy od poje-dynczych ekspertów [4]. Generalnie, łczenie wiedzy polega tutaj na wyznaczeniu, w oparciu o redni arytmetyczn, wypadkowych wartoci pewnych szczególnych punktów znajdujcych si na powierzchni funkcji przynalenoci. Z kolei, jeeli chodzi o integracj reguł pobranych od kilku ekspertów, to np. J. Booker i L. McNamara proponuj podejcie, które moe zosta wykorzystane do ustalenia wspólnych dla kilku ekspertów czci przesłankowych reguł, polegajce na iteracyj-nym rozszerzaniu i zawaniu obszarów obowizywania kolejnych reguł poprzez dzielenie si przez poszczególnych ekspertów ogóln wiedz o problemie [2]. Agregacja konkluzji reguł po-chodzcych od rónych ekspertów moe zosta natomiast przeprowadzona przy wykorzystaniu waonych rednich arytmetycznych [12].

4. Uwagi kocowe

Analizujc przegld podej stosowanych w procesie integracji wiedzy wydobytej z danych pomiarowych i wiedzy eksperckiej, przedstawiony w poprzednim punkcie mona by wycign wniosek, e proces integracji wiedzy jest procesem dobrze poznanym i jego dalsza analiza nie przyniesie korzyci poznawczych. Takie rozumowanie nie byłoby jednak zasadne, poniewa w rzeczywistoci adne z wymienionych podej nie pozwala na zbudowanie modelu łczcego w sobie zalety podstawowe zalety modelu eksperckiego i modelu wygenerowanego automatycznie na podstawie danych pomiarowych, to jest generowanie wiarygodnych wyników w pełnej fizycznie moliwej dziedzinie (model ekspercki) oraz generowanie dokładnych wyników w regionie dziedzi-ny pokrytym przez dane pomiarowe (model oparty na dadziedzi-nych pomiarowych).

Na przykład modele typu szara-skrzynka oraz modele semi-mechanistyczne s budowane wte-dy, kiedy konieczne jest połczenie wiedzy eksperckiej oraz wiedzy zadanej w postaci praw

(7)

fi-zycznych dotyczcej jednego aspektu procesu modelowania (najczciej ustalenia postaci funkcyj-nej modelu) z wiedz zawart w danych pomiarowych dotyczc innego aspektu procesu modelo-wania (najczciej ustalenia wartoci parametrów modelu). Std, celem obu podej jest umoli-wienie budowy modelu, który bez wiedzy jednego lub drugiego rodzaju: mógłby w ogóle nie by moliwy do stworzenia, albo generowałby wyniki o bardzo niskiej precyzji (w przypadku zastoso-wania tylko wiedzy fizycznej), albo charakteryzowałby si niewielkim obszarem stosowalnoci (w przypadku zastosowania tylko wiedzy zawartej w danych pomiarowych).

Odnoszc si z kolei do metod postulujcych integracj wiedzy poprzez budow całociowego modelu opartego na jednym rodzaju wiedzy i skorygowanie go wiedz drugiego rodzaju, to naley zauway, e metody te s co prawda stosunkowo proste do przeprowadzenia, ale ich podstawow wad, znacznie zmniejszajc ich przydatno praktyczn, jest problem przetrwania wiedzy stano-wicej podstaw procesu modelowania, powodujcy: zmniejszenie wiarygodnoci wyników gene-rowanych przez te modele (w przypadku korekty modelu eksperckiego próbkami pomiarowymi) lub zmniejszenie dokładnoci wyników generowanych przez te modele (w przypadku korekty mo-delu opracowanego na podstawie danych pomiarowych wiedz eksperck).

Równie metody polegajce na stworzeniu jednej bazy wiedzy poprzez wybór reguł z wielu baz wiedzy nie pozwalaj na zbudowanie modelu łczcego w sobie zalety obu omawianych typów modeli, poniewa nie poruszaj problematyki ustalenia właciwych obszarów oddziaływania kolej-nych reguł. Właciwych, to znaczy takich, które pokrywaj cał fizycznie moliw przestrze ana-lizowanego zjawiska.

Z powyszego wynika, e pomimo i w literaturze dotyczcej integracji wiedzy pochodzcej z rónych ródeł mona znale  kilka podej do przeprowadzenia procesu integracji, to jednak adne z nich nie pozwala w sposób bezporedni na opracowanie modelu integrujcego wiedz eksperck z wiedz wydobyt ze zbioru danych pomiarowych w taki sposób, aby opracowany model jednoczenie był wiarygodny w całej dziedzinie analizowanej zalenoci oraz generował dokładne wyniki w regionie pokrytym przez dane pomiarowe. Std, pojawia si tutaj wyra na potrzeba opracowania nowych metod integracji wiedzy, metod które bd pozwalały na połczenie w jednym modelu rozmytym reguł eksperckich i reguł wygenerowanych na podstawie zbioru da-nych pomiarowych w taki sposób, eby w czci dziedziny pokrytej danymi pomiarowymi obowi-zywały reguł wygenerowane na podstawie tych danych, natomiast w czci pozostałej – reguły eksperckie. Jedna z metod pozwalajcych na wykonanie postawionego zadania została zaprezen-towana przez autork niniejszego artykułu w [11].

(8)

Bibliografia

1. Abonyi J., Babuka R, Verbrudden H. B., Szeifert F.: Incorporating Prior Knowledge in Fuzzy Model Identification. W: International Journal of Systems Science, vol. 31, no. 5, p. 657-667, 2000.

2. Booker J. M., McNamara L. A.: Solving black box computetion problems using expert knowledge theory and methods. W: Reliability Engineering & System Safety, 85, 2004. 3. Braake H. A. B., Roubos J.A., Babuska R.: Semi-mechanistic modeling and its

applica-tion to biochemical processes. W: Fuzzy Logic Control: Advances in Applicaapplica-tions, pages 205--226, London, UK, 1999.

4. Cornelissen A. M. G., van den Berg J., Koops W. J., Kaymak U.: Elicitation of expert knowledge for fuzzy evaluation of agricultural production systems. W: Agriculture Eco-systems & Environment 95, 2003.

5. Gutenbaum J.: Modelowanie matematyczne systemów. Exit, Warszawa, 2003.

6. Klsk P.: Metoda nadawania podanych własnoci ekstrapolacyjnych neuronowym i rozmytym modelom systemów wielowymiarowych. Rozprawa doktorska, Politechnika Szczeciska, Wydział Informatyki, Szczecin, 2005.

7. Lindskog P.: Fuzzy Identification from a Grey Box Modeling Point of View. W: Fuzzy Model Identification, red. H. Hellendoorn, D. Driankov, pages 3-50. SpringerVerlag, 1997.

8. Mendel J. M.: An architecture for making judgements using computing with words. W: International Journal of Applied Mathematics and Computer Science, vol. 12, no. 3, p. 325-335, 2002.

9. Niederliski A.: Polynomial and neural input-output models for control – a comparison. W: Proceedings on Fourth International Symposium on Methods and Models in Automa-tion and Robotics, Midzyzdroje, August 1997.

10. Pham T. T., Chen G.: Some applications of fuzzy logic in rule-based expert systems. W: Expert Systems, September 2002, vol. 19, no. 4.

11. Rejer I.: Integration of fuzzy rule bases. W: Polish Journal of Environmental Studies, Vol. 16, No. 5B, HARD, Olsztyn, 2007 Olsztyn, 2007.

12. Stiber N. A., Small M. J., Pantazidou M.: Site-Specific Updating and Aggregation of Bayesian Belief Network Models for Multiple Experts. W: Risk Analysis, Vol. 24, No. 6, 2004.

13. Wang Ch., Hong T., Tseng S.: Integrating membership functions and fuzzy rule sets from multiple knowledge sources. W: Fuzzy Sets and Systems No. 112, 2000.

(9)

METHODS USED FOR KNOWLEDGE INTEGRATION IN A FUZZY MODEL Summary

The aim of this article is to present methods which are used in the process of in-tegrating expert knowledge and knowledge acquired from a data set describing a behavior of an analyzed system. The article gives main reasons of such integration, by pointing drawbacks of fuzzy models based only on an expert knowledge or on a set of data points, and shows why standard methods are not able to overcome all of these drawbacks.

Keywords: knowledge integration, fuzzy model, expert knowledge, meta-rules, gray-box models.

Izabela Rejer

irejer@uoo.univ.szczecin.pl Uniwersytet Szczeciski, ul. Mickiewicza 64, Szczecin

Cytaty

Powiązane dokumenty

Do celów budowy modeli autogenerujących w systemie CATIA zaproponowano zastosowanie autorskiej metodologii KADM obejmującej fazę pozyskiwania, formalizacji

De (kleine) massatoename onstaat bij de berekening/simulatie van de reactor in CHEMCAD; de stoechïometrische reactor-optie is voor deze berekening gebruikt. Door

Przykłady niestandardowych technik marketingowych stosowanych przez przedsiębiorstwa należące do branży turystycznej, w szczególności opisane w pierwszej

de monnaies de Nicoclès, l’une en argent, l’autre en bronze, la tête féminine vue de profil ou de face, est caractérisée par un menton assez proéminent (Pl. Notons

Samoorganizacja w sieci neuronowej (np. SOM) umożliwiają uczenie sieci bez nauczyciela (unsupervised), którego celem jest wykształcenie w sieci neuronów, które by reagowały na

Strefa zalewowa wygenerowana metodą miękką z zastosowaniem globalnej wartości dokładności z wykorzystaniem NMT ISOK oryginalnego a oraz poprawionego przy pomocy mapy

W Katedrze Statystyki Akademii Ekonomicznej w Katowicach od kilku lat nauczanie statystyki jest wspomagane materiałami zamieszczonymi na dydak- tycznej stronie

Patogeneza zakażeń wywoływanych przez bakterie z rodzaju Bartonella Bakterie z rodzaju Bartonella należą do fa- kultatywnych wewnątrzkomórkowych pa- togenów wykazujących tropizm