• Nie Znaleziono Wyników

Wykład NN5 (PDF) Sieci LVQ i CP (1 MB)

N/A
N/A
Protected

Academic year: 2021

Share "Wykład NN5 (PDF) Sieci LVQ i CP (1 MB)"

Copied!
47
0
0

Pełen tekst

(1)

SIECI

LVQ

L

earning

V

ector

Q

uantization

SIECI

CP

C

ounter

P

ropagation

(2)

SIECI

LVQ

Joanna Grabska- Chrząstowska

KLASA 1 KLASA 2 KLASA 3

X1 X2 X3 X4

(3)

REGUŁA WIDROW-HOFFA

(DELTA)

= z - y

w

k i(j+1)

=w

k i(j)

+ η

x

i(j)

METODA SAMOUCZENIA HEBBA

w

k i(j+1)

=w

k i(j)

+ η y

k(j)

x

i(j)

(4)

UCZENIE Z FORSOWANIEM

w

k i(j+1)

=w

k i(j)

+ η z

k(j)

x

i(j)

(5)

ARCHITEKTURA SIECI LVQ

WARSTWA KOHONENA WARSTWA WEJŚCIOWA WARSTWA WYJŚCIOWA

KLASA 1 KLASA 2 KLASA 3

(6)

Sieć LVQ

(wprowadzona przez Kohonena) służy do klasyfikowania sygnały wejściowych i jest przykładem uczenia z forsowaniem. Warstwa wyjściowa przypisuje wektory wyjściowe do jednej z kilku klas. Główna częścią sieci jest WARSTWA KOHONENA, która ucząc się dokonuje klasyfikacji.

LVQ

dostarcza jednakową liczbę neuronów przypisanych do danej klasy. Podklasy w danej grupie nie muszą być podobne.

(7)

WERSJ

A

PODST

A

WO

W

A

(8)

W podstawowej wersji sieci LVQ obliczana jest

odległość między wektorem wejściowym a

wekto-rem wag i - tego neuronu dla każdego i =

1, ..., m

N

d

i

= w

i

– x =

S

( w

ij

– x

j

)

2

j=1

Wagi zwycięskiego neuronu sa modyfikowane zgodnie z wzorem:

W’ =

w +

a

(x - w)

jeśli neuron należy do właściwej klasy

(9)
(10)
(11)

STRATEGIA UCZENIA

SIECI LVQ

W typowych zastosowaniach powinno zacząć się od:

wariantu LVQ 1,

następnie przejść do

wersji podstawowej LVQ

lub

LVQ bez odpychania,

a na koniec użyć

(12)
(13)
(14)
(15)
(16)

PRZYKŁAD ZASTOSOWANIA

SIECI LVQ

x1 ( 1 , 1 , 0 ) klasa 1 x2 ( 0 , 0 , 0 ) klasa 2 x3 ( 0 , 0 , 1 ) klasa 2 x4 ( 1 , 0 , 0 ) klasa 1 x5 ( 0 , 1 , 1 ) klasa 1 x1 x2 x3 1 2 (1,1,1) (0,1,0) (1,1,0) (0,0,1) (1,0,0) (0,1,1) (0,0,0)

(17)

PRZYKŁAD ZASTOSOWANIA

SIECI LVQ

x1 ( 1 , 1 , 0 ) klasa 1 x2 ( 0 , 0 , 0 ) klasa 2 x3 ( 0 , 0 , 1 ) klasa 2 x4 ( 1 , 0 , 0 ) klasa 1 x5 ( 0 , 1 , 1 ) klasa 1 x1 x2 x3 1 2 (1,1,1) (0,1,0) (1,1,0) (0,0,1) (1,0,0) (0,1,1) (0,0,0) w1

(18)

PRZYKŁAD ZASTOSOWANIA

SIECI LVQ

x1 ( 1 , 1 , 0 ) klasa 1 x2 ( 0 , 0 , 0 ) klasa 2 x3 ( 0 , 0 , 1 ) klasa 2 x4 ( 1 , 0 , 0 ) klasa 1 x5 ( 0 , 1 , 1 ) klasa 1 x1 x2 x3 1 2 (1,1,1) (0,1,0) (1,1,0) (0,0,1) (1,0,0) (0,1,1) (0,0,0) w1 w2

(19)

PRZYKŁAD ZASTOSOWANIA

SIECI LVQ

x1 ( 1 , 1 , 0 ) klasa 1 x2 ( 0 , 0 , 0 ) klasa 2 x3 ( 0 , 0 , 1 ) klasa 2 x4 ( 1 , 0 , 0 ) klasa 1 x5 ( 0 , 1 , 1 ) klasa 1 x1 x2 x3 1 2 (1,1,1) (0,1,0) (1,1,0) (0,0,1) (1,0,0) (0,1,1) (0,0,0) w1 w2 x3

(20)

PRZYKŁAD ZASTOSOWANIA

SIECI LVQ

x1 ( 1 , 1 , 0 ) klasa 1 x2 ( 0 , 0 , 0 ) klasa 2 x3 ( 0 , 0 , 1 ) klasa 2 x4 ( 1 , 0 , 0 ) klasa 1 x5 ( 0 , 1 , 1 ) klasa 1 x1 x2 x3 1 2 (1,1,1) (0,1,0) (1,1,0) (0,0,1) (1,0,0) (0,1,1) (0,0,0) w1 w2 x3

(21)

PRZYKŁAD ZASTOSOWANIA

SIECI LVQ

x1 ( 1 , 1 , 0 ) klasa 1 x2 ( 0 , 0 , 0 ) klasa 2 x3 ( 0 , 0 , 1 ) klasa 2 x4 ( 1 , 0 , 0 ) klasa 1 x5 ( 0 , 1 , 1 ) klasa 1 x1 x2 x3 1 2 (1,1,1) (0,1,0) (1,1,0) (0,0,1) (1,0,0) (0,1,1) (0,0,0) w1 w2 x4

(22)

PRZYKŁAD ZASTOSOWANIA

SIECI LVQ

x1 ( 1 , 1 , 0 ) klasa 1 x2 ( 0 , 0 , 0 ) klasa 2 x3 ( 0 , 0 , 1 ) klasa 2 x4 ( 1 , 0 , 0 ) klasa 1 x5 ( 0 , 1 , 1 ) klasa 1 x1 x2 x3 1 2 (1,1,1) (0,1,0) (1,1,0) (0,0,1) (1,0,0) (0,1,1) (0,0,0) w1 w2 x4

(23)

PRZYKŁAD ZASTOSOWANIA

SIECI LVQ

x1 ( 1 , 1 , 0 ) klasa 1 x2 ( 0 , 0 , 0 ) klasa 2 x3 ( 0 , 0 , 1 ) klasa 2 x4 ( 1 , 0 , 0 ) klasa 1 x5 ( 0 , 1 , 1 ) klasa 1 x1 x2 x3 1 2 (1,1,1) (0,1,0) (1,1,0) (0,0,1) (1,0,0) (0,1,1) (0,0,0) w1 w2 x5

(24)

PRZYKŁAD ZASTOSOWANIA

SIECI LVQ

x1 ( 1 , 1 , 0 ) klasa 1 x2 ( 0 , 0 , 0 ) klasa 2 x3 ( 0 , 0 , 1 ) klasa 2 x4 ( 1 , 0 , 0 ) klasa 1 x5 ( 0 , 1 , 1 ) klasa 1 x1 x2 x3 1 2 (1,1,1) (0,1,0) (1,1,0) (0,0,1) (1,0,0) (0,1,1) (0,0,0) w1 w2 x5

(25)

SIECI

CP

C

ounter

P

ropagation

(26)
(27)

Sieci CounterPropagation (CP)

uczona z nauczycielem !!!

zaproponowane przez Roberta Hecht-Nielsens są kompilacją sieci Kohonena i sieci Grosberga. Wprowadzają nową jakość, czyli zwiększoną szybkość uczenia. Jest odpowiedzią na wady sieci ze wsteczną propagacją, w której uczenie jest powolne i pracochłonne.

Przy pomocy CP można szybko weryfikować hipotezy robocze.

(28)

DZIAŁANIE PIERWSZEJ WARSTWY

||x|| =1

Założenie: normalizacja wektorów

wejściowych

x

i

x ’

i

=

n

S

X

j 2 j=1

e

j

=W

jT

X

k

j

=

1

gdy

ij

e

j

> e

i

0

w przeciwnym przypadku

(29)

GDY BRAK NORMALIZACJI

Przykład: W1 = 1 2 3 0 1 0 W2 = 1 2 3 X = 2 1 x1 x2 x3

e1 = 14 e2 = 2 neuron nr 1 zostaje zwycięzcą

(30)

GDY BRAK NORMALIZACJI

Przykład: W1 = 1 2 3 0 1 0 W2 = 0 1 0 X = 2 1 x1 x2 x3

e1 = 2 e2 = 1 neuron nr 1 zostaje zwycięzcą

(31)

DZIAŁANIE DRUGIEJ WARSTWY

Druga warstwa realizuje algorytm

Outstar Grossberga

(32)

METODA OUTSTAR LEARNING

“GWIAZDY WYJŚĆ”

k

y

1

y

2

y

3

y

4

y

5

w

1i

w

2 i

w

3 i

w

4 i

w

5 i

i

x

i i – ustalone k - zmienne

w

ki( j+1)

= w

ki( j )

+

h

(j)

[ y

k ( j )

– w

ki ( j )

]

h(j) = 0,1 – l * j

(33)

DZIAŁANIE DRUGIEJ WARSTWY

Druga warstwa realizuje algorytm Outstar Grossberga

Y = V K czyli

S

m j =1 ys = vsj kj y1 y2 y3 y4 y5 ki x1 x2 warstwa Kohonena warstwa Grosberga V W

(34)

UCZENIE PIERWSZEJ WARSTWY

W danym kroku uczenia

korekcie wag podlega tylko zwycięzca

D

W =

h

1

( X - W)

początkowo wij = 1/n

zamiast x podaje się na wejście x’:

(35)

UCZENIE PIERWSZEJ WARSTWY

W danym kroku uczenia

korekcie wag podlega tylko zwycięzca

D

W =

h

1

( X - W)

początkowo wij = 1/n

zamiast x podaje się na wejście x’:

x

i(k)

’ =

h

2

(k) x

i(k)

+ [1 -

h

2

(k) ]

1/n

dla małych

h

2

(k) -

małe

(36)

UCZENIE PIERWSZEJ WARSTWY

W danym kroku uczenia

korekcie wag podlega tylko zwycięzca

D

W =

h

1

( X - W)

początkowo wij = 1/n

zamiast x podaje się na wejście x’:

x

i(k)

’ =

h

2

(k) x

i(k)

+ [1 -

h

2

(k) ] 1/n

h

2

(k) -

rośnie do 1

bliskie 0

(37)

UCZENIE DRUGIEJ WARSTWY

Warstwę Grossberga uczymy według reguły Widrow - Hoffa

v

ij(k+1)

= v

ij(k)

+ h

3

( z

i

- y

i

) k

j

Proces uczenia warstwy Grossberga polega na wpisywaniu do tablicy „look up table” właściwych wartości, które mają być odpowiednią reakcją na pewną grupę sygnałów pojawiających się na wejściu sieci, a którą identyfikuje pewien neuron z warstwy Kohonena.

(38)
(39)
(40)
(41)

PEŁNA SIEĆ Z KONTRPROPAGACJĄ

FULL COUNTERPROPAGATION

(42)

PEŁNA SIEĆ Z KONTRPROPAGACJĄ

FULL COUNTERPROPAGATION

(43)

PEŁNA SIEĆ Z KONTRPROPAGACJĄ

Pierwsza faza uczenia

(44)

PEŁNA SIEĆ Z KONTRPROPAGACJĄ

FULL COUNTERPROPAGATION

(45)

PEŁNA SIEĆ Z KONTRPROPAGACJĄ

Druga faza uczenia

(46)

AUTOASOCJACJA

X

Y

X

Y

SIEĆ

CP

UCZENIE

X

_

X

Y

SIEĆ

CP

EKSPLOATACJA

_

Y

X

Y

SIEĆ

CP

ALBO

(47)

LITERATURA

Tadeusiewicz Ryszard

, Sieci neuronowe. W-wa 1993

Fausett Laurene

, Fundamental of Neural Networks

Architectures, Algorithms, and Applications.

Prentice-Hall, Inc.,

Cytaty

Powiązane dokumenty

Oderwanie może wystąpić zarówno w laminarnej jak i w turbulentnej warstwie przyściennej (w turbulentnej występuje później, czyli przy wyższym dodatnim gradiencie

//udostępnienie obiektu zdalnego wiadomosc pod nazwą RMI_Wiadomosc w aplikacji klienta //na lokalnym komputerze i domyślnym porcie 1099. klient.wiadomosc=(RMI_Interfejs_Wiadomosc)

Program zamieszczony poniżej demonstruje jak zmieniają się wagi sieci w kolejnych epokach uczenia2. Punkty uczące oznaczono kółkami na wykresach utworzonych

W dokumentach XHTML stosuje się specjalny prolog, który identyfikuje poziom używanego języka XHTML 1.0. Jest on wstawiany jako pierwszy element dokumentu, JESZCZE

Also application of conditional clustering to rep- resent knowledge contained in the SVM model in a comprehensible way as prototype- based rules (P-rules) led to prototypes that

 Pierścień – komputery są połączone pomiędzy sobą odcinkami kabla tworząc zamknięty pierścień (np. Topologia logiczna Token Ring).  Pierścień podwójny – komputery

Zadanie kwantyzacji kolorów: znaleźć takich 16 kolorów, by za ich pomocą jak najwierniej odtworzyć oryginalny, 24-bitowy obrazek.

• Iloczyn wektorowy dwóch wektorów Nie ma dzielenia wektora przez wektor !.. Oblicz wektor