• Nie Znaleziono Wyników

4. Funkcje pomiarowe systemu czujnikowego

4.6. Analiza danych

Parametry sygnału czujnikowego, wyłonione podczas wstępnego przetwarzania danych, wykorzystywane są do pozyskania informacji o badanych mieszaninach. W praktyce część wybranych parametrów jest jednak nieprzydatna do tego zadania. Z tego powodu konieczna jest ich dalsza redukcja – operacje wykonywane w tym celu kwalifikuje się już do analizy danych.

4.6. Analiza danych

Podstawowym zadaniem czujnikowego systemu pomiarowego jest pozyskanie informacji o badanych mieszaninach gazów i przekazanie ich w użytecznej formie operatoro-wi/użytkownikowi systemu. Nośnikami informacji o analizowanych substancjach są sygnały pochodzące z matrycy czujników. Przyjmuje się, że informacje w takich sygnałach mają po-stać zakodowaną, a do ich dekodowania konieczna jest odpowiednia analiza danych. W sys-temach czujnikowych wykorzystywane są do tego celu metody rozpoznawania wzorców (PARC – od ang. pattern recognition). W podejściu tym jako wzorzec (ang. pattern) określa się wektor danych pochodzących z pomiarów, który jest jednoznacznie związany z badaną mieszaniną gazową. Wzorce reprezentują oznaczane mieszaniny i zawierają istotne informa-cje o nich [5, 63].

W czujnikowych systemach pomiarowych metody rozpoznawania wzorców stosowane są do dwóch celów. Pierwszy z nich to jakościowe scharakteryzowanie badanych mieszanin. Zadanie to realizowane jest za pomocą metod klasyfikacji i polega na przypisywaniu wzor-ców do różnego rodzaju kategorii mieszanin gazowych. Drugie przeznaczenie procesów roz-poznawania wzorców polega na identyfikacji składu badanych mieszanin pod kątem ilościo-wym. W tym wypadku wzorcom przypisywane są wartości zmiennej rzeczywistej ciągłej (pewnej miary ilościowej) [5].

Rozpoznawanie wzorców gazów możliwe jest jedynie dzięki wykorzystaniu odpowiednich parametrów, powiązanych z sygnałami czujników w matrycy. Każdy taki parametr jest zmienną i określany jest mianem cechy (ang. feature). Proces rozpoznawania wzorców odby-wa się z kolei w tzw. przestrzeni cech (ang. feature space). Wymiar tej przestrzeni jest równy liczbie składowych tworzących tzw. wektor cech (ang. feature vector). Ze względów prak-tycznych pożądana jest jak najmniejsza liczba takich cech. Wielkości wyłonione w czasie wstępnego przetwarzania danych uważa się za cechy kandydujące (potencjalne) do ustano-wienia przestrzeni cech. Redukcja liczby cech początkowych może być dokonana za pomocą metod ekstrakcji lub selekcji [5, 92].

47 4.6.1. Ekstrakcja cech

Ekstrakcja cech (nazywana także mapowaniem) polega na utworzeniu nowego zbioru cech poprzez transformację wektora cech początkowych. Do najczęściej używanych metod eks-trakcji zalicza się analizę składowych głównych (PCA – od ang. principal component

analy-sis) oraz analizę składowych niezależnych (ICA – od ang. independent component analyanaly-sis).

Metody te umożliwiają znaczącą kompresję złożonych danych i dodatkowo odznaczają się innymi zaletami. Nowe zmienne (tzw. składowe główne), uzyskane w wyniku PCA, charakte-ryzują się ortogonalnością. Z kolei w przypadku ICA, nowe zmienne są statystycznie nieza-leżne. Własności te są korzystne z punktu widzenia zagadnień klasyfikacji lub regresji. Wadą cech wyekstrahowanych jest brak możliwości ich bezpośredniej fizykochemicznej interpreta-cji [5].

4.6.2. Selekcja cech

Selekcja cech polega na przeszukaniu zbioru cech początkowych i ocenie poszczególnych kombinacji. Jako kryterium selekcji stosuje się błąd odczytu informacji, tj. błąd klasyfikacji w przypadku problemów o charakterze jakościowym i błąd predykcji dla zagadnień o charak-terze ilościowym.

Sposoby przeszukiwania zbioru cech

Znalezienie optymalnego globalnie podzbioru cech zapewnia przeszukiwanie zupełne (ina-czej: wyczerpujące, ang. exhaustive search). W podejściu tym sprawdzane są wszystkie moż-liwe kombinacje cech. Sposób ten jest bardzo cenny ze względów poznawczych – pozwala porównywać możliwości różnych zestawień cech i daje pogląd na potencjał całego zbioru wybranych wstępnie parametrów. W wielu przypadkach, wymiar początkowej przestrzeni cech jest jednak bardzo duży i z tego powodu wykonanie przeglądu zupełnego w akceptowal-nym czasie jest rzadko stosowane.

Szybsze i bardziej praktyczne przejrzenie przestrzeni cech umożliwiają strategie przeszu-kiwania niezupełnego. Zalicza się do nich strategie deterministyczne oraz stochastyczne. W podejściu deterministycznym stosowany jest szereg algorytmów o charakterze sekwencyj-nym. Do najprostszych i najbardziej znanych z tej grupy należą: selekcja postępująca (SFS – od ang. sequential forward selection), selekcja wsteczna (SBS – od ang. sequential backward

selection) i selekcja krokowa (ang. stepwise selection). Algorytmy te przeszukują niewielką

48

podatne na utykanie w minimach lokalnych podczas przeszukiwania przestrzeni cech. Algo-rytmem deterministycznym, ale gwarantującym rozwiązanie optymalne globalnie, jest metoda podziału i ograniczeń (B&B – od ang. branch and bound). Jej działanie opiera się jednak na trudnym do spełnienia w praktyce założeniu o monotoniczności funkcji oceny.

Dużym zainteresowaniem w selekcji cech cieszą się algorytmy stochastyczne, które znaj-dują rozwiązania optymalne lub bliskie optymalnemu. Do tej grupy zaliczyć można algoryt-my genetyczne (GA – od ang. genetic algorithms) oraz symulowane wyżarzanie (SA – od ang. simulated annealing). Strategie te wykorzystują element losowości w kolejnych krokach przeszukiwania zbioru cech. Są one mniej podatne na utknięcie w minimach lokalnych, jed-nak wymagają większych jed-nakładów obliczeniowych niż podejścia deterministyczne, a czas przeszukiwania może być dość długi [5, 160, 194].

Sposoby oceny zestawów cech

Podczas selekcji cech konieczne jest dokonywanie oceny rozpatrywanych podzbiorów. Najpopularniejszą strategią jest podejście opakowane (ang. wrapper approach). W takim try-bie, podzbiór cech oceniany jest w kontekście konkretnej metody obliczeniowej, tj. wybrane-go klasyfikatora lub zastosowanej metody pozyskiwania informacji ilościowej. Zestawy cech charakteryzujące się minimalnym błędem odczytu informacji oceniane są najwyżej i stosowa-ne do rozpoznawania wzorców w systemie czujnikowym. Podejście to wymaga jednak dużej mocy obliczeniowej ze względu na konieczność uczenia, walidacji i testowania przyjętych modeli.

Inna metoda oceny cech polega na ich filtrowaniu (ang. filter approach). W podejściu filtra podzbiór cech analizowany jest bez odniesienia do metody obliczeniowej. Cechy oceniane są na podstawie kryteriów, takich jak: miary zdolności dyskryminacyjnych (np. odległość mię-dzy klasami wzorców), miary spójności (np. powtarzalność wartości cechy), miary współza-leżności (np. współczynniki korelacji). Podejście filtra nie wymaga dużych nakładów obli-czeniowych, ale jednocześnie nie gwarantuje wybrania cech optymalnych dla danego algo-rytmu rozpoznawania wzorców. Z tego powodu filtracja jest rzadko stosowana do ostatecznej selekcji cech i często poprzedza podejście opakowane.

Selekcja cech może być wykonana także w podejściu wbudowanym (ang. embedded

approach). W metodzie tej, przeszukiwanie podzbiorów cech i ich ocena jest bezpośrednio

połączone z budową modelu matematycznego, służącego do rozwiązania określonego pro-blemu rozpoznawania wzorców. Podejście to jest stosunkowo wydajne obliczeniowo. Tryb wbudowany występuje m.in. w algorytmach drzew klasyfikacji i regresji (CART – od ang.

49

classification and regression trees), drzew decyzyjnych typu C4.5 lub lasów losowych (ang. random forests) [5, 194].

4.6.3. Metody odczytu informacji o badanych mieszaninach gazowych

Metody pozyskania informacji jakościowej

Zasadniczym celem analizy danych w czujnikowym systemie pomiarowym jest dostarcze-nie informacji o badanych mieszaninach gazowych. Do pozyskania informacji jakościowej wykorzystywane są metody klasyfikacji (ang. classification methods). Algorytmy klasyfiku-jące mają za zadanie przypisać wzorce oznaczanych gazów do odpowiednich kategorii. Na ogół, do jednej kategorii zaliczane są mieszaniny o takim samym jakościowym składzie che-micznym lub o podobnych właściwościach fizyko-chemicznych [5]. Do najważniejszych me-tod klasyfikacji, stosowanych w pomiarach czujnikowych, zalicza się:

 analizę dyskryminacyjną:

o liniową analizę dyskryminacyjną (LDA – od ang. linear discriminant analysis) [84, 112, 127, 130, 195],

o kwadratową analizę dyskryminacyjną (QDA – od ang. quadratic discriminant

analy-sis) [195, 196],

metodę k-najbliższych sąsiadów (k-NN – od ang. k-nearest neighbors) [154, 178, 195, 197, 198],

maszynę wektorów nośnych (SVM – od ang. support vector machine) [197, 199],

sztuczne sieci neuronowe (ANN – od ang. artificial neural networks):

o perceptron wielowarstwowy (MLP – od ang. multilayer perceptron) [200-202], o sieci o radialnych funkcjach bazowych (RBF – od ang. radial basis function) [127,

200, 201],

o probabilistyczne sieci neuronowe (PNN – od ang. probabilistic neural networks) [110, 112, 202],

systemy neuronowo-rozmyte (ang. neuro-fuzzy systems/fuzzy neural networks) [203, 204],

algorytmy oparte na adaptacyjnej teorii rezonansu (ART – od ang. adaptive resonance

theory):

o fuzzy ARTMAP (od ang. fuzzy adaptive resonance theory mapping) [205, 206],

drzewa decyzyjne (ang. decision trees) [207]: o C4.5,

50

o drzewa klasyfikacji i regresji (CART – od ang. classification and regression trees).

Metody pozyskania informacji ilościowej

W przypadku oceny mieszanin gazów pod względem ilościowym, zadaniem rozpoznawa-nia wzorców jest znalezienie przekształcerozpoznawa-nia, które odwzorowuje dane pomiarowe w zmienne o charakterze ciągłym. Zmienne te wskazują na pewne właściwości ilościowe badanych mie-szanin (np. stężenie substancji) [5]. Zagadnienie to określane jest niekiedy mianem kwantyfi-kacji (ang. quantification). Do odczytywania informacji ilościowej z badanych gazów wyko-rzystuje się przeważnie:

 analizę regresji:

o regresję liniową wielokrotną (MLR – od ang. multiple linear regression) [70, 208], o regresję odporną (ang. robust regression) [84],

o regresję składowych głównych (PCR – od ang. principal components regression) [209, 210],

o regresję metodą cząstkowych najmniejszych kwadratów (PLSR/PLS regression – od ang. partial least squares regression) [132, 138, 153, 187, 208],

maszynę wektorów nośnych (SVM – od ang. support vector machine) [211, 212],

sztuczne sieci neuronowe (ANN – od ang. artificial neural networks):

o perceptron wielowarstwowy (MLP – od ang. multilayer perceptron) [101, 213, 214], o sieci o radialnych funkcjach bazowych (RBF – od ang. radial basis function) [214],

systemy logiki rozmytej (ang. fuzzy logic) [82, 215],

algorytmy oparte na adaptacyjnej teorii rezonansu (ART – od ang. adaptive resonance

theory) [216],

systemy neuronowo-rozmyte (ang. neuro-fuzzy systems/fuzzy neural networks) [211, 217].

51

5. Operacje konieczne do działania czujnikowego systemu