• Nie Znaleziono Wyników

Sieci neuronowe typu RBF do zadania interpolacji

N/A
N/A
Protected

Academic year: 2021

Share "Sieci neuronowe typu RBF do zadania interpolacji"

Copied!
2
0
0

Pełen tekst

(1)

Sieci neuronowe typu RBF do zadania interpolacji.

Niech

ϕ(x) = e(xr)2, (1)

gdzie r ∈ R jest parametrem. Jest to funkcja o symetrii radialnej, która może być użyta do konstrukcji interpolatora p par wzorzec wejściowy-wzorzec wyjściowy

Z = {(s(k), f(k))}pk=1. gdzie s(k) ∈ Rn i f(k)∈ R dla k = 1, . . . , p.

Rozpatrzmy sieć taką jak na rysunku 1. Wyjście takiej sieci wyraża się wzorem y(x) =

p

X

i=1

wiϕ(||s(i)− x||).

dla x ∈ Rn.

Rysunek 1: Interpolacyjna sieć typu RBF (z radialnymi funkcjami aktywacji).

Rozpatrzmy teraz wzorzec s(k) zapisując warunek interpolacyjny dla wyjścia f(k) =

p

X

i=1

wiφ(||s(i)− s(k)||),

dla k = 1, . . . , p. Tak więc mamy ich tyle ile elementów wektora wag w = [wi] ∈ Rp.

Aby wyznaczyć wektor w tj. [w1, w2, . . . , wp] rozpatrujemy zestaw warunków:

tzn.

f(1) = Ppi=1wiϕ(||s(i)− s(1)||), f(2) = Ppi=1wiϕ(||s(i)− s(2)||),

. . .

f(p) = Ppi=1wiϕ(||s(i)− s(p)||).

Z tych warunków wyznaczamy wartość składowych wektora w tj: w1:p. Ostatecz- nie więc mamy do rozwiązania układ równań z niewiadomą będącą wektorem w

F = Φw, 1

(2)

gdzie

F = [f ]T =

f(1) f(2) . . . f(p)

,

w =

w1 w2 . . . wp

,

Φ =

ϕ(||s(1)− s(1)||) ϕ(||s(1)− s(2)||) . . . ϕ(||s(1)− s(p)||) ϕ(||s(2)− s(1)||) ϕ(||s(2)− s(2)||) . . . ϕ(||s(2)− s(p)||)

. . .

ϕ(||s(p)− s(1)||) ϕ(||s(p)− s(2)||) . . . ϕ(||s(p)− s(p)||)

.

Macierz Φ jest nieosobliwa (chociaż zazwyczaj b. źle uwarunkowana) dzięki wła- snościom funkcji radialnej (1) (patrz np. [1] rozdz. 5.).

Jeśli chodzi o parametr r we wzorze (1), czyli promień gaussowskiej funkcji bazowej, to można przyjąć

r = diam(S)/l, dla l = 1, 2, . . .

gdzie S = {s(k)}pk=1 a diam(S) jest odległością pomiędzy dwoma najbardziej od siebie oddalonymi wzorcami s(i) i s(j) w zbiorze S.

Literatura

[1] Ch. Bishop, Neural networks for pattern recognition, Clarendon Press, Oxford, 1995.

2

Cytaty

Powiązane dokumenty

Podstawową cechą sieci neuronowej jest jej zdolność do uogólniania, a więc generowania właściwego rozwiązania dla danych, które nie pojawiły się w zestawie danych

 Każdy neuron z warstwy ukrytej albo przesyła sygnały do wartości wyjściowych, albo znajduje się w jednej z głębszych warstw, wówczas jego błąd można oszacować z

Podstawową cechą sieci neuronowej jest jej zdolność do uogólniania, a więc generowania właściwego rozwiązania dla danych, które nie pojawiły się w zestawie danych

Przy starcie uczenia z wartości losowych prawdopodobieństwo utknięcia procesu w minimum lokalnym jest większe niż w przypadku sieci. sigmoidalnych, ze względu na silną

Modele koneksjonistyczne: sieci i rozproszone przetwarzanie równoległe, ale węzły nie działają jak neurony – sieci Bayesowskie, modele graficzne, uczenie się przez

Rys: Chris McCormick, Radial Basis Function Network (RBFN) Tutorial...

• dla wygenerowanych danych dwuwymiarowych dwóch klas z rozkładów normal- nych zaznacz na wykresie dane treningowe, klasyfikator sieciami neuronowymi, dla różnej liczby neuronów

Gdy mamy warstwę ukrytą problem jest taki, że nie znamy prawidłowej wartości na wyjściu neuronów z warstwy ukrytej, więc nie wiemy jak wyliczyć modyfikacje wag.. Algorytm