• Nie Znaleziono Wyników

2011-11-22 M.Czoków,J.Piersa Wst¦pdosiecineuronowych,wykªad7Uczenienienadzorowane.

N/A
N/A
Protected

Academic year: 2021

Share "2011-11-22 M.Czoków,J.Piersa Wst¦pdosiecineuronowych,wykªad7Uczenienienadzorowane."

Copied!
64
0
0

Pełen tekst

(1)

Wst¦p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane.

M. Czoków, J. Piersa

Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland

2011-11-22

(2)

1 Uczenie nienadzorowane Uczenie bez nauczyciela Uczenie konkurencyjne

2 Mapy cech Kohonena Zagadnienie

Algorytm Kohonena

Rozszerzony algorytm Kohonena Zastosowania

3 Zagadnienia pokrewne Odwzorowanie Sammona

Algorytm Kohonena dla danych symbolicznych

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(3)

1 Uczenie nienadzorowane Uczenie bez nauczyciela Uczenie konkurencyjne

2 Mapy cech Kohonena Zagadnienie

Algorytm Kohonena

Rozszerzony algorytm Kohonena Zastosowania

3 Zagadnienia pokrewne Odwzorowanie Sammona

Algorytm Kohonena dla danych symbolicznych

(4)

Idea

Sztuczna sie¢ neuronowa uczona w sposób nadzorowany modykuje swoje dziaªanie za pomoc¡ informacji z zewn¡trz. Takiej korekty nie dostaje sie¢ uczona w sposób nienadzorowany (bez nauczyciela), która sama wypracowuje funkcje przetwarzania danych np.

uporz¡dkowywania, wykrywania regularno±ci w danych, ich klasykacji, kodowania itd. Metody uczenia nienadzorowanego s¡

wa»nym narz¦dziem przetwarzania danych w sytuacjach, gdy nie mo»na zorganizowa¢ nadzorowanego procesu uczenia.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(5)

Zastosowania

Przykªadowe zadania, które mog¡ by¢ realizowane przez sieci samoorganizuj¡ce si¦:

wykrywanie podobie«stwa  ocena stopnia podobie«stwa pomi¦dzy wzorcami (wg wybranego kryterium),

analiza skªadowych gªównych  jest to metoda redukcji

wymiarowo±ci danych, w której wektory wzorców wej±ciowych s¡

rzutowane na najistotniejsze kierunki ich zmian w przestrzeni o zredukowanej liczbie wymiarów,

tworzenie map cech  porz¡dkowanie danych wedªug wybranego kryterium podobie«stwa,

(6)

Zastosowania

klasykacja  grupowanie danych, w trakcie którego kryterium jest podobie«stwo wybranych cech,

okre±lanie prototypu  wskazanie typowego reprezentanta grupy, tzw. prototypu,

kodowanie  wyznaczanie zbioru prototypów o liczno±ci znacznie mniejszej ni» caªy zbiór danych wej±ciowych, zbiór prototypów w mo»liwie jak najlepszy sposób reprezentuje dane wej±ciowe (uzyskuje si¦ efekt kompresji stratnej danych).

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(7)

Idea

Jednym z podstawowych sposobów uczenia nienadzorowanego jest tzw. uczenie konkurencyjne (ang. competitive learning). W tej metodzie uczenia sieci, poszczególne neurony konkuruj¡ ze sob¡

o prawo do reprezentacji danych wej±ciowych.

(8)

Cechy charakterystyczne

1 zwykle sieci skªadaj¡ce si¦

z jednej warstwy wej±ciowej i jednej warstwy wyj±ciowej,

2 ka»dy neuron jest poª¡czony ze wszystkim skªadowymi K-wymiarowego wektora wej±ciowego x,

3 neurony liniowe,

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(9)

Winner Takes All

W konkurencyjnej metodzie uczenia sieci, tylko jeden element

wyj±ciowy mo»e znajdowa¢ si¦ w stanie aktywnym. Nazywany jest on zwyci¦zc¡, a schemat takiej reguªy aktywacji neuronów okre±lany jest mianem zwyci¦zca bierze wszystko (ang. Winner Takes All - WTA).

Neuron, który wygraª, jeszcze bardziej jest upodobniany do przykªadu, którym uczymy.

(10)

Uczenie konkurencyjne

Ka»da komórka w warstwie wyj±ciowej jest poª¡czona ze wszystkimi elementami xk wzorca wej±ciowego x za pomoc¡ poª¡cze« wagowych, neuron m-ty jest poª¡czony z warstw¡ wej±ciow¡ za pomoc¡ wektora wag wm = [wm1,wm2, ...,wmK].

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(11)

Uczenie konkurencyjne

W wyniku zastosowania takiej struktury poª¡cze« m-ty neuron warstwy wyj±ciowej sieci otrzymuje sygnaª pobudzenia:

ym=

K

X

k=1

wmkxk =wmTx, m = 1, 2, ..., M,

gdzie

K  dªugo±¢ wzorca, M  ilo±¢ neuronów.

1 M

1 K

(12)

Komórka zwyci¦ska

Komórka zwyci¦ska warstwy wyj±ciowej sieci, oznaczona indeksem m, jest to neuron otrzymuj¡cy najsilniejszy sygnaª pobudzenia ym. Zatem dla komórki zwyci¦skiej speªniona jest nierówno±¢:

wmT·x > wmT·x, m = 1, 2, ..., M.

A co zyskuje zwyci¦zca?

W procesie samoorganizacji jego wagi s¡ modykowane.

wm*

x

w3

w2

w1

wm*Tx>wiTx

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(13)

Algorytm uczenia

Zakªadamy, »e przykªady ucz¡ce s¡ znormalizowane.

Do uczenia sieci u»ywamy nast¦puj¡cego algorytmu:

1 generujemy losowo znormalizowane wektory wag wm dla m = 1, 2, ..., M,

2 losujemy wektor x oraz liczymy dla niego aktywacj¦ ym=wmTx, dla wszystkich neuronów m = 1, 2, ..., M, nast¦pnie szukamy neuronu zwyci¦zcy wm,

3 modykujemy wektor wag zwyci¦zcy,

wm =wm+ ηx (wm =wm+ η(x − wm)), a nast¦pnie go normalizujemy,

4 zatrzymujemy algorytm po odpowiednio du»ej liczbie iteracji.

(14)

Modykacja wektora wag

wm =wm+ ηx

x

x wnew wold

wm =wm+ η(x − wm)

x

(1- )wold wxnew

wold

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(15)

Normalizacja wektorów

U»ywaj¡c normalizacji wektorów, uniemo»liwiamy jednemu

wektorowi stanie si¦ tak du»ym, »e mógªby wygrywa¢

wspóªzawodnictwo zbyt cz¦sto.

Konsekwencj¡ byªoby to, »e inne neurony nigdy by nie zwyci¦»yªy wspóªzawodnictwa i ich wagi nie byªyby modykowane. Takie jednostki s¡ nazywane martwymi.

(16)

Normalizacja wektorów

w2

w1

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(17)

Normalizacja wektorów

Normalizacja gwarantuje, »e jednostk¡, która jest zwyci¦zc¡ dla wektora wej±ciowego, jest ta jednostka, która le»y najbli»ej wektora wej±ciowego (cosinus k¡ta mi¦dzy wektorem wej±ciowym a zwyci¦zc¡

jest najwi¦kszy).

Modykacja wag powoduje, »e wektor wag zostaje przyci¡gni¦ty w kierunku wektora wej±ciowego. To znaczy, »e neuron zwyci¦ski w przyszªo±ci jeszcze silniej b¦dzie reagowaª na ten wektor wej±ciowy (reguªa Hebba).

(18)

Normalizacja wektorów

w2 w1

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(19)

Samoorganizacja i SPL

W podanym wy»ej algorytmie przykªad wej±ciowy nie mo»e by¢ z góry klasykowany jako pozytywny albo negatywny wektor tak, jak dzieje si¦ to w algorytmach uczenia dla perceptronu. W powy»szym algorytmie w wyniku nauki wektor wag m-tej jednostki zostaje przyci¡gni¦ty w kierunku klastra jednostek wej±ciowych, dla których jego aktywacja jest najwi¦ksza w±ród wszystkich neuronów.

(20)

Samoorganizacja i SPL

w2 w1

w3

w

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(21)

Stopie« podobie«stwa

Iloczyn skalarny wskazuje nam stopie« podobie«stwa pomi¦dzy wektorem wej±ciowym a wektorami wag poszczególnych neuronów.

W procesie wyboru zwyci¦zcy mo»emy u»ywa¢ innych metod do mierzenia podobie«stwa, w szczególno±ci mo»emy u»ywa¢ funkcji odlegªo±ci, wtedy zwyci¦»a ten neuron, którego wektor wag poªo»ony jest najbli»ej wzgl¦dem danej metryki od wektora wej±ciowego.

Najcz¦±ciej u»ywane metryki to:

euklidesowa:

d(x, wm) = v u u t

K

X

k=1

(xk−wmk)2.

(22)

Normy

odlegªo±¢ wzgl¦dem normy L1 (odlegªo±¢ Manhattan):

d(x, wm) = XK k=1

|xk −wmk|,

odlegªo±¢ wzgl¦dem normy L:

d(x, wm) =maxk|xk −wmk|,

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(23)

Stopie« podobie«stwa

iloczyn skalarny:

d(x, wm) = hx, wmi,

(24)

Odlegªo±¢ Minkowskiego

Odlegªo±¢ Minkowskiego jest to uogólniona funkcja odlegªo±ci mi¦dzy punktami przestrzeni euklidesowej. Nazywana jest równie» odlegªo±ci¡

Lm. Wzór na t¦ funkcj¦ w zale»no±ci od m ma posta¢:

d(x, y) = (XK

k=1

(xk−yk)m)m1.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(25)

Odlegªo±¢ Minkowskiego

-1 -0.5 0 0.5

1 m=0.5

m=1.5m=1 m=2m=4 m=10

(26)

Strefy wpªywów

Przy u»yciu metryki euklidesowej przestrze« danych wej±ciowych jest dzielona na strefy dominacji danego neuronu. Zastosowanie innej odlego±ci lub iloczynu skalarnego przy samoorganizacji, ksztaªtuje podziaª stref wpªywów inaczej. Szczególnie nale»y pami¦ta¢, »e zastosowanie iloczynu skalarnego bez normalizacji wektorów, mo»e prowadzi¢ do niespójnego podziaªu przestrzeni - tak, »e w jednym obszarze wyst¦puje kilka neuronów, a w innym nie ma »adnego.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(27)

Strefy wpªywów  norma euklidesowa

-4 -3 -2 -1 0 1 2 3 4

-6 -4 -2 0 2 4 6

(28)

Strefy wpªywów  iloczyn skalarny

-4 -3 -2 -1 0 1 2 3 4

-6 -4 -2 0 2 4 6

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(29)

Kwantowanie wektorowe danych

Celem uczenia sieci samoorganizuj¡cych si¦ przez konkurencj¦

neuronów jest takie uporz¡dkowanie neuronów (dobór warto±ci ich wag), które zminimalizuje warto±¢ oczekiwan¡ bª¦du popeªnionego przy aproksymacji wektora wej±ciowego x warto±ciami wag neuronu zwyci¦»aj¡cego w konkurencji. Przy N wektorach wej±ciowych i zastosowaniu normy euklidesowej bª¡d ten mo»e by¢ wyra»ony wzorem:

E = 1 N

N

X

n=1

kxn−Ww(n)k,

w którym Ww(n)jest wag¡ neuronu zwyci¦»aj¡cego przy prezentacji wektora xn.

(30)

Kwantowanie wektorowe danych

Zadanie to jest równie» zwane kwantowaniem wektorowym. Numery neuronów zwyci¦»aj¡cych przy kolejnych prezentacjach wektorów tworz¡ tak zwan¡ ksi¡»k¦ kodow¡. Przestrze« danych podzielona jest, w efekcie stosowania takiej reguªy, tzw. mozaik¡ Voronoi

wyznaczaj¡c¡ obszary klas.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(31)

Mozaika Veronoi

-4 -3 -2 -1 0 1 2 3 4

-6 -4 -2 0 2 4 6

(32)

1 Uczenie nienadzorowane Uczenie bez nauczyciela Uczenie konkurencyjne

2 Mapy cech Kohonena Zagadnienie

Algorytm Kohonena

Rozszerzony algorytm Kohonena Zastosowania

3 Zagadnienia pokrewne Odwzorowanie Sammona

Algorytm Kohonena dla danych symbolicznych

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(33)

Idea

Kohonen zaproponowaª reguª¦ uczenia konkurencyjnego, w której, w odró»nieniu od reguªy standardowej, modykacji wag dokonuje si¦

nie tylko dla neuronu zwyci¦skiego, lecz równie» dla pewnej liczby neuronów z jego s¡siedztwa.

S¡siedztwem tym s¡ inne neurony le»¡ce blisko danej jednostki w strukturze grafowej neuronów.

(34)

Winner Takes Most

Dlaczego WTA nie wystarcza? Taka reguªa adaptacji powoduje, »e algorytm sªabo zbiega. Reguªa, w której modykuje si¦ nie tylko wagi zwyci¦zcy, ale równie» jego s¡siadów, jest zwana reguª¡ WTM (Winer Takes Most). W praktyce reguªa WTA zostaªa zast¡piona reguª¡

WTM.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(35)

Reprezentacja sieci

Dana jest sie¢ neuronowa modelowana przy pomocy grafu nieskierowanego H = (V, E), gdzie V jest zbiorem wierzchoªków (neuronów), za± E zbiorem kraw¦dzi. Dla ka»dego wierzchoªka v ∈ V okre±lamy tak zwane s¡siedztwo s(v) = {u ∈ V|(v, u) ∈ E}. Zaªó»my ponadto, »e mamy pewn¡ ilo±¢ obiektów (przykªadów) opisywanych punktami przestrzeni Rd.

(36)

Topologie sieci

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(37)

Cele

Stawiamy sobie nast¦puj¡ce cele:

ka»demu neuronowi chcemy przypisa¢ d wag (reprezentuj¡cych wspóªrz¦dne pewnego punktu w Rd),

powy»sze przypisanie ma odpowiada¢ rozkªadowi przestrzennemu przykªadów (tzn. je»eli w danej okolicy jest du»o przykªadów, powinno do niej zosta¢ przypisanych wiele neuronów),

przypisanie ma odpowiada¢ strukturze topologicznej grafu, tzn.

s¡siaduj¡ce ze sob¡ neurony powinny traa¢ w niedaleko od siebie poªo»one obszary Rd.

(38)

Cele

-4 -3 -2 -1 0 1 2 3 4

-10 -5

0 5

10 -10

-5 0 5 10 15

20 -4

-3 -2 -1 0 1 2 3 4

-10 -5

0 5

10 -10

-5 0 5 10 15 20

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(39)

Algorytm - zaªo»enia wst¦pne

Niech dany b¦dzie zbiór przykªadów P = {P1, ...PN} ∈ Rd.Ka»demu neuronowi v ∈ V przypisujemy wektor wag π(v) ∈ Rd.

(40)

Algorytm

1 wybieramy pewn¡ liczb¦ T oznaczaj¡c¡ liczb¦ powtórze«

algorytmu,

2 losujemy wagi przy wszystkich neuronach,

3 dla t = 1..T wykonujemy:

1 losujemy przykªad P,

2 znajdujemy jednostk¦ v ∈ V, której zestaw wag π(v) le»y najbli»ej P,

3 dla neuronu zwyci¦zcy i wszystkich neuronów z jego s¡siedztwa s(v) wykonujemy:

π(w) = π(w) + α(t)(P − π(w)),

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(41)

Uwagi

α(t) jest funkcj¡ o warto±ciach dodatnich, malej¡c¡ w kolejnych iteracjach algorytmu, na przykªad α(t) = 1 − t−1T ,

(42)

Uwagi

Do algorytmu mo»na wprowadza¢ modykacje, które w znacznym stopniu mog¡ poprawi¢ jego dziaªanie. Bardzo cz¦sto inaczej deniuje si¦ s¡siedztwo s(v) i wprowadza drobne zmiany w sposobie

uaktualniania wag.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(43)

Uwagi

W rozszerzonej wersji algorytmu Kohonena s¡siedztwem dla neuronu zwyci¦zcy v jest zbiór:

s(v) = {u ∈ W |ρ(u, v) ≤ λ},

gdzie ρ(u, v) jest to dªugo±¢ najkrótszej ±cie»ki pomi¦dzy wierzchoªkami u i v. Natomiast λ jest to tak zwany promie«

s¡siedztwa, dodatni parametr algorytmu, pocz¡tkowo jego warto±¢ powinna by¢ taka, »e s¡siedztwo mo»e obejmowa¢ wi¦cej ni» poªow¦ z ogólnej liczby neuronów. Parametr λ nale»y

zmniejsza¢ w czasie uczenia tak, by w ko«cowej fazie uczenia s¡siedztwo byªo puste i modykacji podlegaª tylko neuron zwyci¦zcy.

(44)

Rozszerzony algorytm Kohonena

1 wybieramy pewn¡ liczb¦ T oznaczaj¡c¡ liczb¦ powtórze«

algorytmu,

2 losujemy wagi przy wszystkich neuronach,

3 dla t = 1..T wykonujemy:

1 losujemy przykªad P,

2 znajdujemy jednostk¦ v ∈ V, której zestaw wag π(v) le»y najbli»ej P,

3 dla neuronu zwyci¦zcy i wszystkich neuronów z jego s¡siedztwa s(v) wykonujemy

π(w) = π(w) + α(t)G(w, v)(P − π(w)),

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(45)

Uwagi

G(w, v) jest to tak zwana funkcja s¡siedztwa, ma ona warto±ci dodatnie, jej przykªadowe postacie to:

kwadratowa funkcja s¡siedztwa, gdzie:

G(w, v) =

 1 ρ(w, v) ≤ λ 0 w p. p.

gaussowska funkcja s¡siedztwa, gdzie:

G(w, v) = exp(−ρ2(w, v) 2λ2 ).

(46)

Kwadratowa funkcja s¡siedztwa

-6 -4 -2 0 2 4 6

-4 -6 0 -2 4 2 06 0.2 0.4 0.6 0.8 1

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(47)

Gaussowska funkcja s¡siedztwa dla rosn¡cej λ

-6 -4

-2

0 2

4 6

-6 -4 -2 0 2 4 06 0.5 1 1.5 2

kliknij

(48)

Funkcja s¡siedztwa - mexican hat

-6 -4 -2 0 2 4 6

-4 -6 0 -2 4 2 -16 -0.5 0 0.5 1

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(49)

Funkcja s¡siedztwa - mexican hat

Wzór na t¦ funkcj¦ ma posta¢:

MH(v, w) = 2exp(−ρ2(v, w)

21 ) −exp(−ρ2(v, w) 2λ22 ), gdzie λ1< λ2.

(50)

Uwagi

Zastosowanie w mapach Kohonena s¡siedztwa gaussowskiego i zmiennego wspóªczynnika adaptacji powinno poprawi¢ rezultaty uczenia i organizacj¦ sieci.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(51)

Przykªad

kliknij

Siatka prostok¡tna rozprowadzona przez algorytm Kohonena na trzech

±cianach (o wspólnym wierzchoªku) sze±cianu.

(52)

Przykªad

kliknij

Siatka prostok¡tna rozprowadzona przez rozszerzony algorytm Kohonena na trzech ±cianach (o wspólnym wierzchoªku) sze±cianu. W algorytmie

zastosowano gaussowsk¡ funkcj¦ s¡siedztwa.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(53)

Przykªad

kliknij

Siatka prostok¡tna rozprowadzona przez algorytm Kohonena na powierzchni kuli.

(54)

Przykªad

kliknij

Siatka prostok¡tna rozprowadzona przez rozszerzony algorytm Kohonena na powierzchni kuli. W algorytmie zastosowano gaussowsk¡ funkcj¦ s¡siedztwa.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(55)

Uwagi

Zªy dobór parametrów mo»e mie¢ wpªyw na to, »e sie¢ nie osi¡gnie po»¡danej zbie»no±ci. Na przykªad je±li stopie« adaptacji α(t) b¦dzie miaª za maªe warto±ci, mo»e powsta¢ w¦zeª, który si¦ nie rozwi¡»e.

(56)

Zastosowania

Wizualizacja danych za pomoc¡ danej struktury przestrzennej (zadajej przez graf) w innym wymiarze (przykªady s¡ wtedy rozªo»one

jednostajnie na obszarze reprezentacji)

przej±cie do wy»szego wymiaru (np. krzywa wypeªniaj¡ca przestrze«),

przej±cie do ni»szego wymiaru (wizualizacja skomplikowanych struktur z zachowaniem topologii, ale nie odlegªo±ci).

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(57)

Przej±cie do wy»szego wymiaru

Rysunek za Stanisªaw Ossowski, Sieci neuronowe w uj¦ciu algorytmicznym.

(58)

Przej±cie do ni»szego wymiaru

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(59)

1 Uczenie nienadzorowane Uczenie bez nauczyciela Uczenie konkurencyjne

2 Mapy cech Kohonena Zagadnienie

Algorytm Kohonena

Rozszerzony algorytm Kohonena Zastosowania

3 Zagadnienia pokrewne Odwzorowanie Sammona

Algorytm Kohonena dla danych symbolicznych

(60)

Dane

Odwzorowanie Sammona pozwala na graczne przedstawienie danych wielowymiarowych w przestrzeni o mniejszej liczbie wymiarów.

Zaªo»enia:

danych jest N wektorów K-wymiarowych xn (n = 1, 2, ..., N) i odpowiednio do nich deniuje si¦ N wektorów w przestrzeni L-wymiarowej (L = 2, 3) oznaczonych przez yn,

odlegªo±ci pomi¦dzy poszczególnymi wektorami w przestrzeni K-wymiarowej oznaczono przez dnm =d(n, m),

odlegªo±ci pomi¦dzy poszczególnymi wektorami w przestrzeni L-wymiarowej oznaczono przez dnm=d(n, m),

do okre±lenia odlegªo±ci mi¦dzy wektorami mo»na zastosowa¢

dowoln¡ metryk¦, w szczególno±ci euklidesow¡.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(61)

Idea

Zadanie odwzorowania nieliniowego Sammona polega na takim doborze wektorów y, aby zminimalizowa¢ funkcj¦ bª¦du E zdeniowan¡ w postaci:

E = X

1≤m<n≤N

(dnm −dnm)2 dnm .

Do optymalizacji tej funkcji u»ywa si¦ algorytmów gradientowych.

(62)

Zaªo»enia

Dane: Sie¢ H = (V, E), zbiór danych symbolicznych x wraz z funkcj¡

odlegªo±ci d. Powinno zachodzi¢:

d(x, x) = 0,

d(x, y) = d(y, x) ≥ 0.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

(63)

Mediana uogólniona

Mediana uogólniona zbioru {a1, ...,an}  element ai, który minimalizuje Pjd2(ai,aj).

(64)

Algorytm Kohonena dla wej±¢ symbolicznych

1 przypisz w¦zªom losowe prototypy,

2 powtarzaj wiele razy:

ka»demu wierzchoªkowi w przypisz list¦ takich przykªadów, »e prototyp p(w) jest do nich najbli»szy,

ka»demu wierzchoªkowi w przypisz nowy prototyp  median¦

uogólnion¡ z listy klasykacyjnej w i list s¡siadów w, wyczy±¢ listy klasykacyjne,

3 zwró¢ sie¢.

M. Czoków, J. Piersa WSN 2011/2012 Wykªad 7

Cytaty

Powiązane dokumenty

Przez cały referat K będzie ustalonym

Praktycznie niczym się nie różni, chod w szczegółach się okaże, że nie można tego okna „zminimalizowad”.. Ustalimy teraz rozmiar

funkcje boolowskie nieseparowalne za pomoc¡ funkcji liniowej nie mog¡ by¢ odwzorowane przez klasyczny perceptron.. liczba funkcji boolowskich separowalnych liniowo jest bardzo maªa

(Egz) Przedstaw sposób kodowania problemu optymalizacyjnego (dwupodział, kolorowanie, cykl Hammiltona, przydział zadań) na konfigurację sieci neuronowej.. Przemodeluj reprezentację,

W programie znalazły się również filmy z czterech kra- jów, które trudno przyporządkować do którejś z tych dwóch grup 14 – mam na myśli Maroko (Krwawe gody /Noces de

Niech, tak jak wcześniej przyjęliśmy, Fo(W) będzie aktem mowy, w którym nadawca N wyraża swoje stanowisko w odniesieniu do zdania W. Aby zespól tych aktów mowy mógł

Wynikałoby z tego, że z Wikipedii można dowiedzieć się tylko tego, co już się wiedziało wcześniej, co jednak raczej nie jest prawdą.. Wi- kitekst paradoksalnie

Prezentowane w tym tomie materiały mają więc przede wszystkim charakter źródłowy. Warto w tym miejscu podkreślić zespołowy charakter naszych prac, gdyż ma on swoje, według