• Nie Znaleziono Wyników

Integracja danych z zastosowaniem sieci neuronowej FFBP

6. DIAGNOSTYKA STANU WIERTEŁ PODCZAS WIERCENIA WIELOWRZECIONOWEGOWIERCENIA WIELOWRZECIONOWEGO

6.3. Integracja danych z zastosowaniem sieci neuronowej FFBP

6.3.1. Integracja danych wyselekcjonowanych z zastosowaniem metod bazujących na sieci neuronowej FFBP

Symulacje sieci neuronowej analizowane w niniejszej części pracy przeprowadzano zgodnie z wytycznymi przedstawionymi w rozdziale 4. W fazie selekcji danych trening sieci FFBP o strukturze 26-6-3 (zob. rys. 6.2) realizowano z zastosowaniem algorytmu kumulacyjnego (ATS-cum) i t | f = 0 . 1 , do uzyskania błędu maksymalnego EMax=0.15. Pruning wag realizowano z parametrem prw=0.25. Natomiast w fazie integracji wyselekcjonowanych danych stosowano algorytm inkrementalny (ATS-inc) i r|F=0.15, przyjmując EMax=0.10 lub Emax=0.15 w zależności od możliwości uzyskiwania powyższych wartości błędu.

M e to d a o c e n y is to tn o ś c i : p r u n in g w a g

Rys. 6.7. Istotności wejść wyznaczone z zastosowaniem metod bazujących na sieci neuronowej FFBP

Fig. 6.7. Input importance determined with the FFBP neural network based methods

100.0

Wyznaczone istotności wejść (danych) przedstawiono na rys. 6.7. Oceniając ogólnie wyznaczone istotności zauważa się, że zastosowane metody selekcji wskazywały na zbliżone cechy sygnałów pomiarowych. Najwyższe istotności uzyskiwały cechy sygnałów reprezentujących prądy w silnikach napędu głównego i napędu posuwowego. Istotne są także pojedyncze cechy sygnałów reprezentujących drgania i emisję akustyczną. Z punktu widzenia Użytkownika ważne jest, że już ogólna ocena istotności pozwala na wstępną ocenę przydatności czujników zastosowanych w układzie pomiarowym. Przykładowo wskazuje się czujnik emisji akustycznej (czujnik F), w przypadku którego wszystkie cechy sygnału pomiarowego charakteryzują się niską istotnością.

Przed przystąpieniem do charakterystyki integracji danych dogodne jest odniesienie się do zagadnienia korelacji danych wejściowych. Analizę korelacji przeprowadzono zgodnie z uwagami i sugestiami przedstawionymi w rozdziale 5, co uznać można za potwierdzenie trafności uogólnień dokonanych w wyżej wspomnianym rozdziale. Jak wykazano, w zbiorze danych wejściowych występowały 4 pary danych o współczynnikach korelacji powyżej uznanej za krytyczną wartości R=0.980, tj. (C-2, C-4), (D-2, D-4), (F-2, F-4) i (E-2, E-4).

Znaczące jest, iż sumy wartości istotności powyższych par wejść nie przekraczały 50%.

Zatem eliminacja wybranych wejść i ponowne wyznaczenie istotności powodowały, zgodnie z cechami efektu rozpływu istotności, zwiększenie istotności wejść nieodrzuconych do wartości nie przekraczających poziomu 50%. Stąd też efekt rozpływu istotności nie wpływał na wybór podzbiorów danych przeprowadzany z zastosowaniem przyjętego w pracy progu istotności IDPs50%. Zaznacza się również, że nie wykazano zawyżania liczności dyskutowanych poniżej podzbiorów danych ze względu na występowanie danych uznanych za skorelowane (przyjęto R>0.8).

Dokonując wyboru podzbiorów danych korzystne jest uporządkowanie wejść według wzrastającej istotności, co przykładowo przedstawiono na rys. 6.8. Jak zaznaczono, wyboru pierwszego z podzbiorów wejść dokonywano bazując na progu istotności IDP=50%.

M S (p ru n in g w ag )

Rys. 6.9. Zestawienie wyników integracji danych wyselekcjonowanych z zastosowaniem metody pruningu wag

Fig. 6.9. Results obtained while integrating data selected based on the weight pruning method

M S ( s u m a w ag )

Fig. 6.10. Results obtained while integrating data selected based on the weight sum method

Następnie podejmowano próby eliminacji kolejnych wejść. Wyniki integracji danych wyselekcjonowanych z zastosowaniem metody pruningu wag przedstawiono na rys. 6.9.

Analizując uzyskane wyniki podkreślić należy wysokie sprawności sieci FFBP o 7, 6 i 5 wejściach. Zwraca się uwagę na sprawność rzędu 98%, która jest sprawnością wyższą od tej, uzyskanej w przypadku symulacji sieci o 26 wejściach (rys. 6.2). Potwierdza to negatywny wpływ wejść wprowadzających redundantne informacje i uwypukla celowość stosowania selekcji danych. Dokonując eliminacji wejść uzyskano ostatecznie podzbiór jedynie 4 wejść z zachowaniem wysokiej sprawności rzędu 94%. Ze względu na przypisanie wejściom E-l 1 B-4 analogicznych istotności (zob. rys. 6.8), dokonanie wyboru 4 wejść wymagało jednak przeprowadzenia dodatkowych symulacji sieci FFBP. Symulacje wykazały brak możliwości realizacji treningu sieci w przypadku odrzucenia wejścia B-4, co oczywiście wskazywało na wyższą istotność tego wejścia.

Zadowalające wyniki uzyskano także dokonując eliminacji wejść zgodnie z istotnościami wyznaczonymi z zastosowaniem metody sumy wag (rys. 6.10). Podkreśla się możliwość wyboru podzbioru 6 wejść i uzyskania wysokiej sprawności klasyfikacji. Eliminacja kolejnego wejścia powodowała jednakże znaczne obniżenie sprawności. Potencjalną przyczyną mógł być błąd w kolejności eliminacji wejść spowodowany niewielkim zróżnicowaniem istotności wejść B4, D3 i M. Niemniej jednak próby arbitralnego ustalenia kolejności eliminacji wejść nie potwierdziły tego przypuszczenia.

Dyskusji uzyskanych wyników dokonać można także w świetle możliwości zmniejszenia liczby czujników w projektowanym układzie diagnostycznym. Przykładowo, dokonując wyboru 5 wejść metodą pruningu wag, potencjalny Użytkownik zastosować może jedynie 3 czujniki. Jeżeli liczba czujników jest nadal zbyt wysoka, możliwe jest zastosowanie 2 czujników z równoczesnym, akceptowalnym zmniejszeniem sprawności klasyfikacji. Znaczne zmniejszenie liczby analizowanych danych stanowi także o możliwości podjęcia próby arbitralnego wyboru danych, ukierunkowanej na wskazanie odmiennych od wyżej zasygnalizowanych konfiguracji czujników pomiarowych. Podejście takie przedstawiono na rys. 6.9, oznaczając skonstruowane sieci neuronowe symbolem „(A)”. Jak można zauważyć, w efekcie arbitralnego wyboru wejść wskazuje się kolejną parę czujników, których zastosowanie potencjalnie pozwala na uzyskiwanie sprawności rzędu 95%. Równie interesujące jest rozwiązanie jednoczujnikowe (sieć 3-8-3 (A), rys. 6.9), które porównać można do rozwiązania z rys. 6.4. Jednakże uwypuklić należy korzystne zmniejszenie liczby wejść w analizowanym w tym miejscu rozwiązaniu z jednoczesnym uzyskaniem sprawności rzędu 87%. Uzupełniając komentarze zwraca się uwagę na odmienny niż w podrozdziale 6.2.2 charakter arbitralnego wyboru wejść. Ingerencja Użytkownika nie wynika z konieczności podniesienia sprawności klasyfikacji, a stanowi próbę wyboru alternatywnego podzbioru danych o analogicznej liczności, umożliwiającego uzyskiwanie zbliżonych sprawności.

M S ( m e t . A - K a r i n a )

Rys. 6.11. Zestawienie wyników integracji danych wyselekcjonowanych z zastosowaniem metody A-Karina

Fig. 6.11. Results obtained while integrating data selected based on the A-Karin method

M S ( a n a l , w r a ż l i w o ś c i )

Rys. 6.12. Zestawienie wyników integracji danych wyselekcjonowanych z zastosowaniem metody analizy wrażliwości

Fig. 6.12. Results obtained while integrating data selected based on the sensitivity analysis

Zestawienia wyników uzyskanych w testach kolejnych metod bazujących na sieci neuronowej FFBP przedstawiono na rys. 6.11 i rys. 6.12. Akceptowalne rezultaty uzyskano z zastosowaniem metody A-Karina (rys. 6.11). W tym przypadku wskazać można na specyficzną konfigurację wejść, tj. podzbiory wejść nie zawierały wejść reprezentujących posuw (f) i materiał obrabiany (M), podobnie jak podzbiory dyskutowane w podrozdziale 6.2.1 i 6.2.2. Jednakże wprowadzenie do sieci neuronowej FFBP 7 lub 6 danych pozwalało w niniejszym przypadku na uzyskanie korzystniejszych (powyżej 90%) sprawności klasyfikacji.

Natomiast kontynuacja eliminacji wejść i pominięcie wejścia D-l powodowało wyraźne obniżenie sprawności klasyfikacji. Jak wykazały próby arbitralnego wyboru wejść, kolejność eliminacji wejść wynikająca z istotności wyznaczonych z zastosowaniem metody A-Karina nie może być uznana za w pełni zadowalającą (zob. sieć 5-5-3 (A), rys. 6.11).

Ostatnia z zastosowanych metod selekcji, tj. metoda bazująca na analizie wrażliwości, odbiega, w świetle uzyskanych wyników, od metod powyżej scharakteryzowanych. Jak można zauważyć (rys. 6.12), sprawność klasyfikacji powyżej 90% uzyskano jedynie w przypadku wprowadzenia do sieci FFBP 8 danych. Następnie wskazać można na uznanie za istotne zbliżonych cech sygnałów pomiarowych jak w przypadku metody sumy wag (podzbiory 6 i 5 wejść z rys. 6.12). Zasadniczą różnicę stanowiło nieuwzględnienie informacji o gatunku materiału obrabianego (wejście M). Podzbiory danych można także porównać do podzbiorów danych wybranych z zastosowaniem metody A-Karina, a tym samym podzbiorów dyskutowanych w podrozdziale 6.2.1 i 6.2.2. W przypadku 7 i 6 wejść różnice stanowiły jedynie wejścia D-l i D-3 (por. rys. 6.11 i rys. 6.12). Niemniej jednak wejścia te, a w zasadzie wejście D-l decyduje o uzyskiwaniu wyraźnie wyższych sprawności klasyfikacji.

Podobnie jak w rozdziale 5, dyskusję zastosowań metod selekcji danych bazujących na sieci neuronowej FFBP podsumowuje się analizą powtarzalności wyznaczania istotności z uwzględnieniem wpływu algorytmu treningu. Oceniając ogólnie powtarzalność wyznaczania istotności wykazano występowanie znacznego zróżnicowania w zależności od analizowanego wejścia. W przypadku metody sumy wag i metody analizy wrażliwości powtarzalność wyznaczania istotności charakteryzuje błąd maksymalny BPIMAX =25.0%

i błąd średni BPIAy =3.0%. Koncentrując dyskusję na wynikach uzyskanych z zastosowaniem metody sumy wag (zob. rys. 6.13), zaznacza się, że najwyższe wartości maksymalnego błędu powtarzalności odnoszą się do uznanych za jedne z najistotniejszych wejść M (B P I^ ^ =25.7%) oraz A-l (BPI^Ax =20.5%). W przypadku pozostałych wejść BPI^IAX< 16%. Szczególną uwagę należy zwrócić na wejście M, ponieważ zróżnicowanie wartości istotności wyznaczanych w kolejnych symulacjach powodować może zmianę kolejności eliminacji wejść M, D-3 i B-4. Zmiana kolejności nie ma jednak w rozpatrywanym przypadku znaczącego wpływu na uzyskiwane sprawności sieci FFBP, co stwierdzono w komentarzu do rys. 6.10.

Metoda oceny istotności : suma wag

Rys. 6.13. Istotności wejść wyznaczane w 5 kolejnych symulacjach sieci neuronowej FFBP Fig. 6.13. Input importance determined in the 5 consécutive simulation

of FFBP neural network

Zróżnicowaną powtarzalność wyznaczania istotności wejść wykazano także analizując wyniki uzyskane z zastosowaniem metody pruningu wag. Dla zdecydowanej większości wejść, błąd maksymalny powtarzalności wyznaczania istotności przyjmował w pełni akceptowalne wartości B P I ^ K l . Wskazać jednakże należy na = 3 (wejścia D-l i B-3). Zakładając podjęcie próby ponownej oceny istotności danych, konsekwencją wyższych wartości błędów jest możliwość uzyskania wyników powodujących zaliczenie wejścia D-l do podzbioru istotnych wejść lub niekorzystne, utrudniające podjęcie decyzji o kolejności eliminacji danych, przypisanie zbliżonych istotności wejściom B-3, B-4 i E -l.

W formie podsumowania powyższych rozważań wskazuje się na możliwość odmiennego podejścia do oceny powtarzalności wyznaczania istotności danych. Za zdecydowanie korzystniejsze uważa się uzyskiwanie zadowalającej powtarzalności w przypadku wejść mniej istotnych, co potencjalnie pozwala na redukcję liczby wejść bez przypadkowego odrzucenia wejścia istotnego. Z punktu widzenia Użytkownika oznacza to, że możliwe jest jednoznaczne wskazanie podzbioru istotnych danych o relatywnie małej liczności. Następnie, w przypadku wykazania niezadowalającej powtarzalności wyznaczania istotności, Użytkownik może dokonać powtórnej oceny istotności w uzyskanym podzbiorze danych lub może zweryfikować kolejność eliminacji danych kierując się istotnościami wyznaczanymi w kolejnych symulacjach.

Rys. 6.14. Istotności wejść wyznaczone w przypadku symulacji sieci neuronowej FFBP zrealizowanych z zastosowaniem inkrementalnego algorytmu treningu (ATS-inc) Fig. 6.14. Input importance determined while performing the FFBP neural network

simulations with use of the incremental training algorithm (ATS-inc)

Powyższych uwag nie można odnieść do wyników uzyskanych z zastosowaniem metody A-Karina (rys. 6.13). W zasadzie kłopotliwe jest analizowanie powtarzalności wyznaczania istotności ze względu na możliwość występowania radykalnych zmian wartości istotności, o czym świadczą błędy B P I =85.0% oraz BPIAV =6.5% (por. rozdział 5). Tak niska powtarzalność wiąże się nie tylko z BPI^~^ =85.0%, ponieważ zauważyć można jeszcze 5 innych wejść, dla których BPI®AX>40%. Równie niekorzystnie ocenia się metodę A-Karina z punktu widzenia wpływu algorytmu treningu sieci FFBP (rys. 6.14). Przede wszystkim zauważa się zupełnie odmienne w porównaniu z rys. 6.7 zróżnicowanie istotności, zdecydowanie utrudniające podjęcie decyzji o kolejności eliminacji danych.

Nie stwierdzono natomiast zasadniczego wpływu algorytmu treningu sieci FFBP w odniesieniu do metody pruningu wag, metody sumy wag i metody analizy wrażliwości.

Stwierdzenie to wskazuje na możliwość wyboru zbliżonych podzbiorów istotnych danych bazując na symulacjach sieci zrealizowanych z zastosowaniem zarówno algorytmu kumulacyjnego (ATS-cum), jak i inkrementalnego (ATS-inc). Uznano, że wykazane w niektórych symulacjach zróżnicowania wartości istotności nie stanowią o wpływie algorytmu treningu, a związane są z analizowanymi powyżej błędami BPIUAX i BPIAV.

6.3.2. Integracja danych wyselekcjonowanych z zastosowaniem metod bazujących na macierzy rozproszenia i metody SR+AG

Przystępując do dyskusji wyników integracji danych wyselekcjonowanych z zastosowaniem metod bazujących na macierzy rozproszenia przypomina się, że w metodach SM+SFS i SM+AG dokonywany jest wybór podzbiorów danych umożliwiających uzyskanie maksymalnych wartości śladu macierzy rozproszenia Jsm- Metody różnią się natomiast sposobem wyboru podzbiorów danych, tj. stosowany jest algorytm przeszukiwania w przód