• Nie Znaleziono Wyników

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

N/A
N/A
Protected

Academic year: 2021

Share "Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda"

Copied!
82
0
0

Pełen tekst

(1)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Maja Czoków, Jarosław Piersa

Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika

2011-12-13

(2)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

1 Sieci rekurencyjne Sieci rekurencyjne

Modele sieci rekurencyjnej Energia sieci

2 Autoasocjator Hopfielda Konstrukcja

Odzyskiwanie obrazu Pojemność sieci

Poprawne odzyskiwanie

(3)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

1 Sieci rekurencyjne Sieci rekurencyjne

Modele sieci rekurencyjnej Energia sieci

2 Autoasocjator Hopfielda Konstrukcja

Odzyskiwanie obrazu Pojemność sieci

Poprawne odzyskiwanie

3 Zadania

(4)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Sieci skierowane

Sieci skierowane — graf połączeń synaptycznych nie zawiera cykli wierzchołki dają się posortować topologicznie,

dynamika odbywa się synchronicznie zgodnie z kolejnością zadaną przez otrzymaną kolejność,

(5)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Sieci rekurencyjne

Graf sieci dopuszcza istnienie cykli skierowanych, sortowanie topologiczne nie jest możliwe,

dynamika nabiera aspektu temporalnego: sieć rozwijamy w szereg podsieci powiązanych ze sobą zależnościami czasowymi.

(6)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Sieci rekurencyjne typu Hopfielda

każda jednostka ma przypisany swój spin σi ∈ {−1, +1} — zmienny w trakcie dynamiki,

połączenia synaptyczne mają przypisane wagi wij = wji ∈ R — stałe,

wii = 0,

jeżeli krawędzi nie ma w grafie, to w = 0,

(7)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Sieci rekurencyjne typu Hopfielda

neuron zmienia swój spin i wysyła informację do sąsiadów, po zmianie jest nieaktywny przez pewien okres czasu τr (czas refrakcji),

przesył impulsu po krawędzi zajmuje pewien okres czasu τp (czas przesyłu, może zależeć od rodzaju lub długości krawędzi),

(8)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dynamika Glaubera

Jeżeli τp τr, to sieć jest niewielka i można stosować następującą dynamikę:

wylosuj neuron σi, przypisz

σi = sign(X

j

wijσj + hi )

powtarzaj 1 i 2 aż do ustabilizowania się sytuacji.

Oznaczmy Mi =P

jwijσj + hi — lokalne pole wypadkowe dla jednostki i .

(9)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dynamika Glaubera

Jeżeli τp τr, to sieć jest niewielka i można stosować następującą dynamikę:

wylosuj neuron σi, przypisz

σi = sign(X

j

wijσj + hi )

powtarzaj 1 i 2 aż do ustabilizowania się sytuacji.

Oznaczmy Mi =P

jwijσj + hi — lokalne pole wypadkowe dla jednostki i .

(10)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dynamika Little’a

Jeżeli τp' τr, to działanie przybliżamy dynamiką synchroniczną:

wszystkie neurony jednocześnie ustawiają się zgodnie z lokalnym polem wypadkowym, tj, przypisujemy:

σi = sign(Mi)

przy wykorzystaniu zestawu spinów z poprzedniej iteracji.

(11)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dynamika Little’a

Alternatywne sformułowanie:

Rozpocznij z losowego ¯σ0 Powtarzaj wielokrotnie:

Przypisz

¯

σt+1:= sign(W · ¯σt+ H)

gdzie W = [wij]i ,j =1..N jest macierzą wag, H - wektorem pól zewnętrznych ¯σt wektorem spinów w t-tym kroku.

(12)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dynamika Hybrydowa

Jeżeli τp τr, to dynamika staje się skomplikowana ze względu na znaczne opóźnienia w przesyle.

małe fragmenty sieci (tj. bliskie jednostki) przybliżamy dynamiką asynchroniczną (Glaubera),

w dużej skali stosujemy dynamikę synchroniczną uwzględniającą różnice czasowe.

(13)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Energia sieci

Określmy energię sieci (Hammiltonian) zależny od bieżącej konfiguracji spinów neuronów:

E (¯σ) = −1 2

X

i 6=j

wijσiσj −X

i

hiσi

Wagi wij oraz pola zewnętrzne hi są ustalone, więc energia zależy tylko od spinów.

(14)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Twierdzenie

Twierdzenie

W trakcie dynamiki Glaubera energia sieci nie ulega wzrostowi.

Dowód na tablicy

(15)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Twierdzenie

Twierdzenie

W trakcie dynamiki Glaubera energia sieci nie ulega wzrostowi.

Dowód na tablicy

(16)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dowód

Załóżmy, że z konfiguracji ¯σ przeszliśmy do ¯σ0. Niech σi będzie neuronem, który zmieniliśmy, tj σi = −σ0i = −sign(Mi).

Zauważmy, że E (¯σ) = −1

2 X

j 6=i ,k6=i

wjkσjσk− 1 22 ·X

j

wijσiσj −X

j 6=i

hjσj− hiσi

Zmieniliśmy tylko spin σi więcP

j 6=i ,k6=iwjkσjσk oraz P

j 6=ihjσj nie wpływają na zmianę energii.

Obliczmy E ( ¯σ0) − E (¯σ) =

= −X

j

wijσ0iσj − hiσ0i

−X

j

wijσiσj − hiσi

=

(17)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dowód

Załóżmy, że z konfiguracji ¯σ przeszliśmy do ¯σ0. Niech σi będzie neuronem, który zmieniliśmy, tj σi = −σ0i = −sign(Mi).

Zauważmy, że E (¯σ) = −1

2 X

j 6=i ,k6=i

wjkσjσk−1 22 ·X

j

wijσiσj −X

j 6=i

hjσj− hiσi

Zmieniliśmy tylko spin σi więcP

j 6=i ,k6=iwjkσjσk oraz P

j 6=ihjσj nie wpływają na zmianę energii.

Obliczmy E ( ¯σ0) − E (¯σ) =

= −X

j

wijσ0iσj − hiσ0i

−X

j

wijσiσj − hiσi

=

(18)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dowód

Załóżmy, że z konfiguracji ¯σ przeszliśmy do ¯σ0. Niech σi będzie neuronem, który zmieniliśmy, tj σi = −σ0i = −sign(Mi).

Zauważmy, że E (¯σ) = −1

2 X

j 6=i ,k6=i

wjkσjσk−1 22 ·X

j

wijσiσj −X

j 6=i

hjσj− hiσi

Zmieniliśmy tylko spin σi więcP

j 6=i ,k6=iwjkσjσk oraz P

j 6=ihjσj nie wpływają na zmianę energii.

Obliczmy E ( ¯σ0) − E (¯σ) =

= −X

j

wijσ0iσj − hiσ0i

−X

j

wijσiσj − hiσi

=

(19)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dowód

Załóżmy, że z konfiguracji ¯σ przeszliśmy do ¯σ0. Niech σi będzie neuronem, który zmieniliśmy, tj σi = −σ0i = −sign(Mi).

Zauważmy, że E (¯σ) = −1

2 X

j 6=i ,k6=i

wjkσjσk−1 22 ·X

j

wijσiσj −X

j 6=i

hjσj− hiσi

Zmieniliśmy tylko spin σi więcP

j 6=i ,k6=iwjkσjσk oraz P

j 6=ihjσj nie wpływają na zmianę energii.

Obliczmy E ( ¯σ0) − E (¯σ) =

= −X

j

wijσ0iσj − hiσ0i

−X

j

wijσiσj − hiσi

=

(20)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dowód cd.

E ( ¯σ0) − E (¯σ) = −X

j

wijσi0σj − hiσ0i+X

j

wijσiσj + hiσi =

−X

j

wij0i− σij− hi0i− σi) =

i0− σi)

−X

j

wijσj − hi

= (σ0i− σi)(−Mi) Przypomnijmy, że podstawialiśmy σ0i := sign(Mi).

E ( ¯σ0) − E (¯σ) = −(sign(Mi) − (−sign(Mi))Mi = −2|Mi| ≤ 0

(21)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dowód cd.

E ( ¯σ0) − E (¯σ) = −X

j

wijσi0σj − hiσ0i+X

j

wijσiσj + hiσi =

−X

j

wiji0− σij − hi0i− σi) =

i0− σi)

−X

j

wijσj − hi

= (σ0i− σi)(−Mi) Przypomnijmy, że podstawialiśmy σ0i := sign(Mi).

E ( ¯σ0) − E (¯σ) = −(sign(Mi) − (−sign(Mi))Mi = −2|Mi| ≤ 0

(22)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dowód cd.

E ( ¯σ0) − E (¯σ) = −X

j

wijσi0σj − hiσ0i+X

j

wijσiσj + hiσi =

−X

j

wiji0− σij − hi0i− σi) =

i0− σi)

−X

j

wijσj − hi

= (σ0i− σi)(−Mi)

Przypomnijmy, że podstawialiśmy σ0i := sign(Mi).

E ( ¯σ0) − E (¯σ) = −(sign(Mi) − (−sign(Mi))Mi = −2|Mi| ≤ 0

(23)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Dowód cd.

E ( ¯σ0) − E (¯σ) = −X

j

wijσi0σj − hiσ0i+X

j

wijσiσj + hiσi =

−X

j

wiji0− σij − hi0i− σi) =

i0− σi)

−X

j

wijσj − hi

= (σ0i− σi)(−Mi) Przypomnijmy, że podstawialiśmy σ0i := sign(Mi).

E ( ¯σ0) − E (¯σ) = −(sign(Mi) − (−sign(Mi))Mi = −2|Mi| ≤ 0

(24)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Ewolucja sieci Hopfielda

click

(25)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Wniosek

Jeżeli ilość neuronów w sieci n jest skończona, to ilość możliwych konfiguracji ¯σ również,

podczas dynamiki osiągane jest minimum (być może lokalne!) funkcji energetycznej w skończonym czasie.

Wykorzystamy dynamikę asynchroniczną sieci do znajdowania rozwiązania problemów optymalizacyjnych.

Wystarczy do tego sprecyzować wagi i pola lokalne.

(26)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Sieci rekurencyjne Modele sieci rekurencyjnej Energia sieci

Wniosek

Jeżeli ilość neuronów w sieci n jest skończona, to ilość możliwych konfiguracji ¯σ również,

podczas dynamiki osiągane jest minimum (być może lokalne!) funkcji energetycznej w skończonym czasie.

Wykorzystamy dynamikę asynchroniczną sieci do znajdowania rozwiązania problemów optymalizacyjnych.

Wystarczy do tego sprecyzować wagi i pola lokalne.

(27)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

1 Sieci rekurencyjne Sieci rekurencyjne

Modele sieci rekurencyjnej Energia sieci

2 Autoasocjator Hopfielda Konstrukcja

Odzyskiwanie obrazu Pojemność sieci

Poprawne odzyskiwanie

3 Zadania

(28)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Cel

Chcemy stworzyć pamięć adresowaną zawartością, tj mając dany fragment obrazu będzie w stanie go odtworzyć.

Oznaczmy:

Iµ= {ξiµ} — obraz wzorcowy, i = 1..N — ilość pikseli, µ = 1..P — ilość wzorców

σi — neurony sieci, po jednym neuronie na każdy piksel obrazu, wij — wagi między neuronami,

hi — pola zewnętrzne,

(29)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Cel

Chcemy stworzyć pamięć adresowaną zawartością, tj mając dany fragment obrazu będzie w stanie go odtworzyć.

Oznaczmy:

Iµ= {ξiµ} — obraz wzorcowy, i = 1..N — ilość pikseli, µ = 1..P — ilość wzorców

σi — neurony sieci, po jednym neuronie na każdy piksel obrazu, wij — wagi między neuronami,

hi — pola zewnętrzne,

(30)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Konstrukcja

(31)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Konstrukcja

Oznaczmy stopień zgodności stanu sieci ¯σ ze wzorcem Iµ

Mµ(¯σ) = 1 N

N

X

i =1

σiξµi = 1 Nσ, Iµi

Mµσ) = 1 oznacza pełną zgodność, Mµ(¯σ) = −1 całkowitą niezgodność, ale przy naszych oznaczeniach należy pamiętać, że jest to idealny negatyw.

(32)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Konstrukcja

Oznaczmy stopień zgodności stanu sieci ¯σ ze wzorcem Iµ

Mµ(¯σ) = 1 N

N

X

i =1

σiξµi = 1 Nσ, Iµi

Mµσ) = 1 oznacza pełną zgodność, Mµ(¯σ) = −1 całkowitą niezgodność, ale przy naszych oznaczeniach należy pamiętać, że jest to idealny negatyw.

(33)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Energia

Zdefiniujmy energię

E (¯σ) = −N 2

P

X

µ=1

(Mµ(¯σ))2 =

= −N 2

P

X

µ=1

1 N

N

X

i =1

σiξiµ

!2

=

N 2

P

X

µ=1

 1 N2

N

X

i =1 N

X

j =1,j 6=i

σiσjξiµξjµ+ 1 N2

N

X

i =1

σi2ξiµ2

(34)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Energia

Zdefiniujmy energię

E (¯σ) = −N 2

P

X

µ=1

(Mµ(¯σ))2 =

= −N 2

P

X

µ=1

1 N

N

X

i =1

σiξiµ

!2

=

N 2

P

X

µ=1

 1 N2

N

X

i =1 N

X

j =1,j 6=i

σiσjξiµξjµ+ 1 N2

N

X

i =1

σi2ξiµ2

(35)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Energia

Zdefiniujmy energię

E (¯σ) = −N 2

P

X

µ=1

(Mµ(¯σ))2 =

= −N 2

P

X

µ=1

1 N

N

X

i =1

σiξiµ

!2

=

N 2

P

X

µ=1

 1 N2

N

X

i =1 N

X

j =1,j 6=i

σiσjξiµξjµ+ 1 N2

N

X

i =1

σi2ξiµ2

(36)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Energia

Zdefiniujmy energię

E (¯σ) = −N 2

P

X

µ=1

(Mµ(¯σ))2 =

= −N 2

P

X

µ=1

1 N

N

X

i =1

σiξiµ

!2

=

P

N N N

(37)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Energia

E (¯σ) = − 1 2N

P

X

µ=1

 X

i 6=j

σiσjξiµξjµ

= − 1 2N

N

X

i 6=j P

X

µ=1

σiσjξµi ξjµ

= −1 2

N

X

i 6=j

σiσj

 1 N

P

X

µ=1

ξiµξjµ

(38)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Energia

E (¯σ) = − 1 2N

P

X

µ=1

 X

i 6=j

σiσjξiµξjµ

= − 1 2N

N

X

i 6=j P

X

µ=1

σiσjξµi ξjµ

= −1 2

N

X

i 6=j

σiσj

 1 N

P

X

µ=1

ξiµξjµ

(39)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Energia

E (¯σ) = − 1 2N

P

X

µ=1

 X

i 6=j

σiσjξiµξjµ

= − 1 2N

N

X

i 6=j P

X

µ=1

σiσjξµi ξjµ

= −1 2

N

X

i 6=j

σiσj

 1 N

P

X

µ=1

ξiµξjµ

(40)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Wagi

Otrzymujemy zależności na wagi:

wij = 1 N

P

X

µ=1

ξµi ξjµ

oraz na pola zewnętrzne

hi = 0

(41)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Przestrzeń stanów

(42)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Rekonstrukcja obrazu — dynamika Glaudera

Gdy sieć jest już nauczona możemy odzyskać wejściowy zaszumiony obraz:

1 Obraz wejściowy konwertujemy na konfigurację spinów ¯σ,

2 Poddajemy bieżącą konfigurację ewolucji Glaudera:

1 Losujemy jednostkę i ,

2 Ustawiamy spin σi:= sign(P

jwijσj),

3 Powtarzamy 2.1 i 2.2 aż stan sieci się ustabilizuje,

3 Wyjściowy obraz odzyskujemy dekodując wyjściową konfigurację spinów ¯σ.

(43)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Rekonstrukcja obrazu — dynamika Little’a

Ustaloną mamy macierz wag W = (wij)Ni ,j =1

1 Obraz wejściowy konwertujemy na konfigurację początkową (t = 0) spinów ¯σ0,

2 Poddajemy konfigurację ewolucji:

1 Przypisujemy

¯

σt+1:= W · ¯σt

¯

σt+1i := sign(¯σt+1i )

2 Powtarzamy 2.1 aż stan sieci się ustabilizuje,

3 Wyjściowy obraz odzyskujemy dekodując wyjściową konfigurację spinów ¯σT.

(44)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Trajektoria odzyskiwania obrazu

Rysunek uproszczony, przestrzeń to {−1, +1}d a nie R2.

-10 10

-2.5 -2 -1.5 -1 -0.5 0

(45)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Trajektoria odzyskiwania obrazu

(46)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Załóżmy, że

wzorce Iµ są niezależne, tj. prawdopodobieństwo, że losowy piksel jest włączony jest to samo

P(ξµi = +1) = P(ξiµ= −1) = 1 2 Pytamy:

kiedy Iµ jest punktem stałym dynamiki sieci?

(47)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Policzmy:

Mi(¯σ) =X

j

wijσi =

X

j

1 N

X

µ

ξµi ξjµ

!

σj = X

µ

Mµ(¯σ)ξiµ

Podstawmy za konfigurację wzorzec ¯σ := Iµ0. Mi(Iµ0) = ξiµ0 + P

µ6=µ0Mµ(Iµ0µi

|{z} | {z }

sygnał szum

(48)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Policzmy:

Mi(¯σ) =X

j

wijσi = X

j

1 N

X

µ

ξµi ξjµ

! σj

= X

µ

Mµ(¯σ)ξiµ

Podstawmy za konfigurację wzorzec ¯σ := Iµ0. Mi(Iµ0) = ξiµ0 + P

µ6=µ0Mµ(Iµ0µi

|{z} | {z }

sygnał szum

(49)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Policzmy:

Mi(¯σ) =X

j

wijσi = X

j

1 N

X

µ

ξµi ξjµ

!

σj = X

µ

Mµ(¯σ)ξiµ

Podstawmy za konfigurację wzorzec ¯σ := Iµ0. Mi(Iµ0) = ξiµ0 + P

µ6=µ0Mµ(Iµ0µi

|{z} | {z }

sygnał szum

(50)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Policzmy:

Mi(¯σ) =X

j

wijσi = X

j

1 N

X

µ

ξµi ξjµ

!

σj = X

µ

Mµ(¯σ)ξiµ

Podstawmy za konfigurację wzorzec ¯σ := Iµ0.

Mi(Iµ0) = ξiµ0 + P

µ6=µ0Mµ(Iµ0µi

|{z} | {z }

sygnał szum

(51)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Policzmy:

Mi(¯σ) =X

j

wijσi = X

j

1 N

X

µ

ξµi ξjµ

!

σj = X

µ

Mµ(¯σ)ξiµ

Podstawmy za konfigurację wzorzec ¯σ := Iµ0. Mi(Iµ0) = ξiµ0 + P

µ6=µ0Mµ(Iµ0µi

|{z} | {z }

sygnał szum

(52)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Policzmy:

Mi(¯σ) =X

j

wijσi = X

j

1 N

X

µ

ξµi ξjµ

!

σj = X

µ

Mµ(¯σ)ξiµ

Podstawmy za konfigurację wzorzec ¯σ := Iµ0. Mi(Iµ0) = ξiµ0 + P

µ6=µ0Mµ(Iµ0µi

(53)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Założyliśmy, że:

P(ξiµξjµ= +1) = P(ξiµξjµ= −1) = 1 2

Zdefiniujmy zmienną losową Ξ:

Ξ = ξiµξµj

Wartość oczekiwana wynosi EΞ = 0, wariancja D2Ξ = 1: Z centralnego twiedzenia granicznego.

Mµ(Iµ0) = 1 N

X

j

ξiµξµj = P

iΞi − N · 0

N

N · 1D 1

NN(0, 1) ∼ N(0, 1 N) I dalej:

X

µ6=µ0

Mµ(Iµ0iµ∼ N(0,P − 1 N )

(54)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Założyliśmy, że:

P(ξiµξjµ= +1) = P(ξiµξjµ= −1) = 1 2 Zdefiniujmy zmienną losową Ξ:

Ξ = ξiµξµj

Wartość oczekiwana wynosi EΞ = 0, wariancja D2Ξ = 1: Z centralnego twiedzenia granicznego.

Mµ(Iµ0) = 1 N

X

j

ξiµξµj = P

iΞi − N · 0

N

N · 1D 1

NN(0, 1) ∼ N(0, 1 N) I dalej:

X

µ6=µ0

Mµ(Iµ0iµ∼ N(0,P − 1 N )

(55)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Założyliśmy, że:

P(ξiµξjµ= +1) = P(ξiµξjµ= −1) = 1 2 Zdefiniujmy zmienną losową Ξ:

Ξ = ξiµξµj

Wartość oczekiwana wynosi EΞ = 0, wariancja D2Ξ = 1:

Z centralnego twiedzenia granicznego. Mµ(Iµ0) = 1

N X

j

ξiµξµj = P

iΞi − N · 0

N

N · 1D 1

NN(0, 1) ∼ N(0, 1 N) I dalej:

X

µ6=µ0

Mµ(Iµ0iµ∼ N(0,P − 1 N )

(56)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Założyliśmy, że:

P(ξiµξjµ= +1) = P(ξiµξjµ= −1) = 1 2 Zdefiniujmy zmienną losową Ξ:

Ξ = ξiµξµj

Wartość oczekiwana wynosi EΞ = 0, wariancja D2Ξ = 1:

Z centralnego twiedzenia granicznego.

Mµ(Iµ0) =

1 N

X

j

ξiµξµj = P

iΞi − N · 0

N

N · 1D 1

NN(0, 1) ∼ N(0, 1 N) I dalej:

X

µ6=µ0

Mµ(Iµ0iµ∼ N(0,P − 1 N )

(57)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Założyliśmy, że:

P(ξiµξjµ= +1) = P(ξiµξjµ= −1) = 1 2 Zdefiniujmy zmienną losową Ξ:

Ξ = ξiµξµj

Wartość oczekiwana wynosi EΞ = 0, wariancja D2Ξ = 1:

Z centralnego twiedzenia granicznego.

Mµ(Iµ0) = 1 N

X

j

ξiµξµj =

P

iΞi − N · 0

N

N · 1D 1

NN(0, 1) ∼ N(0, 1 N) I dalej:

X

µ6=µ0

Mµ(Iµ0iµ∼ N(0,P − 1 N )

(58)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Założyliśmy, że:

P(ξiµξjµ= +1) = P(ξiµξjµ= −1) = 1 2 Zdefiniujmy zmienną losową Ξ:

Ξ = ξiµξµj

Wartość oczekiwana wynosi EΞ = 0, wariancja D2Ξ = 1:

Z centralnego twiedzenia granicznego.

Mµ(Iµ0) = 1 N

X

j

ξiµξµj = P

iΞi − N · 0

N

N · 1

D 1

NN(0, 1) ∼ N(0, 1 N) I dalej:

X

µ6=µ0

Mµ(Iµ0iµ∼ N(0,P − 1 N )

(59)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Założyliśmy, że:

P(ξiµξjµ= +1) = P(ξiµξjµ= −1) = 1 2 Zdefiniujmy zmienną losową Ξ:

Ξ = ξiµξµj

Wartość oczekiwana wynosi EΞ = 0, wariancja D2Ξ = 1:

Z centralnego twiedzenia granicznego.

Mµ(Iµ0) = 1 N

X

j

ξiµξµj = P

iΞi − N · 0

N

N · 1D 1

NN(0, 1)

∼ N(0, 1 N) I dalej:

X

µ6=µ0

Mµ(Iµ0iµ∼ N(0,P − 1 N )

(60)

Sieci rekurencyjne Autoasocjator Hopfielda Zadania

Konstrukcja Odzyskiwanie obrazu Pojemność sieci Poprawne odzyskiwanie

Stabilność wzorca

Założyliśmy, że:

P(ξiµξjµ= +1) = P(ξiµξjµ= −1) = 1 2 Zdefiniujmy zmienną losową Ξ:

Ξ = ξiµξµj

Wartość oczekiwana wynosi EΞ = 0, wariancja D2Ξ = 1:

Z centralnego twiedzenia granicznego.

Mµ(Iµ0) = 1 N

X

j

ξiµξµj = P

iΞi − N · 0

N

N · 1D 1

NN(0, 1) ∼ N(0, 1 N)

I dalej:

X

µ6=µ0

Mµ(Iµ0iµ∼ N(0,P − 1 N )

Cytaty

Powiązane dokumenty

Rys.3 Trajektoria ruchu i przebieg wybranych współrzędnych stanu modelu neuronowego okrętu przy próbie wężowej Kempfa dla maksymalnej prędkości okrętu i braku zakłóceń..

W niniejszym artykule koncentruję się na scharakteryzowaniu „kognitywnych zdolności ” ANNs, rozważeniu kwestii, na ile sieć taka jest adekwatnym modelem systemu

popełnianego przez sieć w trakcie procesu uczenia, ale może być także obserwowana za pomocą “mapy” pokazującej, jak wygląda działanie sieci dla różnych wartości.

1.2.7 Algorytm uczenia perceptronu (Simple perceptron learning algorithm, SPLA).. Jest to podstawowy

podczas dynamiki osiągane jest minimum (być może lokalne!) funkcji energetycznej w skończonym czasie. Wykorzystamy dynamikę asynchroniczną sieci do znajdowania rozwiązania

klasa rekursji — maksymalny zbiór stanów powracających, pomiędzy którymi można swobodnie przechodzić, może być więcej niż jedna klasa rekursji, klasy rekursji można

Sieci rekurencyjne Autoasocjator Hopfielda Zadania Przeliczenia.. Wstęp do sieci neuronowych, wykład 10

• Dostosuj jednostkę RBF (np. funkcję gaussowską), tak aby miała kształt eliptyczny (a nie kolisty),.. • Jak za pomocą warstwy jednostek RBF zbudować sieć