• Nie Znaleziono Wyników

Probabilistyczne sieci neuronowe - podstawy i zastosowania.

N/A
N/A
Protected

Academic year: 2021

Share "Probabilistyczne sieci neuronowe - podstawy i zastosowania."

Copied!
1
0
0

Pełen tekst

(1)

Probabilistyczne sieci neuronowe - podstawy i zastosowania.

dr hab. inż. Piotr A. Kowalski

Instytut Badań Systemowych, Polska Akademia Nauk

oraz

Katedra Informatyki Stosowanej i Fizyki Komputerowej, Wydział Fizyki i Informatyki Stosowanej,

Akademia Górniczo-Hutnicza

STRESZCZENIE:

Głównym tematem prezentowanych badań są kompletne procedury klasyfikacji informacji dokładnej oraz niedokładnej z użyciem Probabilistycznej Sieci Neuronowej (PNN). W tej ostatnim przypadku, testowany element jest dany w postaci wektora przedziałowego, a wzorce klas są wyznaczone na podstawie zbiorów elementów określonych jednoznacznie. Koncepcję klasyfikacji oparto na ujęciu bayesowskim, zapewniającym minimum potencjalnych strat wynikłych z błędnych klasyfikacji. Do tak sformułowanego zadania została użyta metodyka PNN bazująca na idei statystycznych estymatorów jądrowych, co uniezależnia prezentowaną procedurę od arbitralnych założeń dotyczących postaci wzorców – ich identyfikacja stanowić będzie integralną część prezentowanego algorytmu.

Kolejnym celem prezentacji jest przedstawienie algorytmów rekonstrukcji topologicznej sieci neuronowych typu PNN, z wykorzystaniem jej lokalnej analizy wrażliwości (LSA). W ramach tego zagadnienia po raz pierwszy wprowadzono metodykę LSA do PNN, wyprowadzając wszystkie potrzebne zależności w sposób analityczny. Dzięki zastosowaniu analizy wrażliwości możliwe jest ujęcie zagadnienia istotności dużej liczby parametrów oraz elementów sieci PNN w sposób ilościowy.

Na tej podstawie omówiony zostanie algorytm wyznaczający istotność poszczególnych wejść sieci PNN, który stał się bazą do powstania procedury redukcji wektora cech. Za pomocą kolejnego algorytmu dokonywana jest redukcja struktury wewnętrznej sieci PNN polegająca na usunięciu nieistotnych neuronów z warstwy wzorców. Kolejny z autorskich algorytmów łączy dwa pierwsze dokonując jednoczesnej redukcji neuronów wejściowych jak i neuronów w warstwie wzorców. Ostatnim z prezentowanych algorytmów będzie procedura modyfikacji sieci PNN. Skuteczność tradycyjnej sieci PNN została wzmocniona poprzez wprowadzenie nie istniejącej dotychczas funkcjonalności, a mianowicie współczynnik ów wagowych między warstwę wzorców a neurony sumacyjne. Powyższe wagi obliczone zostały na podstawie zaproponowanej procedury analizy wrażliwości.

Cytaty

Powiązane dokumenty

• dla wygenerowanych danych dwuwymiarowych dwóch klas z rozkładów normal- nych zaznacz na wykresie dane treningowe, klasyfikator sieciami neuronowymi, dla różnej liczby neuronów

Gdy mamy warstwę ukrytą problem jest taki, że nie znamy prawidłowej wartości na wyjściu neuronów z warstwy ukrytej, więc nie wiemy jak wyliczyć modyfikacje wag.. Algorytm

W prezentowanej pracy przedstawiono koncepcję automatycznej metody opisu próbek węgla, bazującej na wcześniejszych doświadczeniach dotyczących klasyfikacji grup macerałów

Do modelu numerycznego można wprowadzać zmiany i modyfikacje w celu minimalizacji tych rozbieżności, dopasowanie modelu numerycznego do modelu fizycznego można

Modele koneksjonistyczne: sieci i rozproszone przetwarzanie równoległe, ale węzły nie działają jak neurony – sieci Bayesowskie, modele graficzne, uczenie się przez

[r]

Samoorganizacja w sieci neuronowej (np. SOM) umożliwiają uczenie sieci bez nauczyciela (unsupervised), którego celem jest wykształcenie w sieci neuronów, które by reagowały na

Przy starcie uczenia z wartości losowych prawdopodobieństwo utknięcia procesu w minimum lokalnym jest większe niż w przypadku sieci. sigmoidalnych, ze względu na silną