• Nie Znaleziono Wyników

5. Sieć Hopfielda

N/A
N/A
Protected

Academic year: 2021

Share "5. Sieć Hopfielda"

Copied!
3
0
0

Pełen tekst

(1)

5. Sieć Hopfielda

W sieciach neuronowych rozważanych w poprzednich ćwiczeniach, wyjścia neuro- nów z pewnej warstwy mogły być połączone jedynie z wejściami neuronów warstwy następnej. Konsekwencją tego był jednokierunkowy przepływ informacji. Sygnały były przesyłane od warstwy wejściowej, przez pośrednie warstwy ukryte aż do war- stwy wyjściowej. Stąd też nazwa tego rodzaju sieci - sieci jednokierunkowe (ang.

feedforward networks).

Istnieją również sieci, w których dopuszcza się istnienie sygnałów sprzężenia zwrotnego, to znaczy sygnałów, które z wyjścia neuronu kierowane są na wejście pewnego neuronu z tej samej warstwy lub nawet wcześniejszej (patrz rysunek 1).

Rysunek 1: Model sieci Hopfielda.

Doskonałym polem zastosowań tego typu sieci są pamięci skojarzeniowe. W tym ćwiczeniu będziemy właśnie konstruować tego typu pamięć w oparciu o najbardziej znane sieci rekurencyjne, nazywane sieciami Hopfielda.

Sieć zaproponowana przez Hopfielda składa się z N elementów przetwarzających (neuronów), pracujących asynchronicznie. Oznacza to, że w danej chwili zmienia- ny jest stan wyjścia tylko jednego (losowo wybranego) neuronu. Przyjmujemy, że funkcja wyjścia jest postaci:

y(t + 1) =

+1 gdy net > 0 y(t) gdy net = 0

−1 gdy net < 0

a o macierzy wag zakładamy, że jest symetryczna i posiada zera na głównej przekąt- nej (zera na głównej przekątnej oznaczają, że wyjście żadnego z neuronów nie jest wejściem dla niego samego). Ponieważ każdy element jest połączony z wszystkimi

1

(2)

pozostałymi, w sieci Hopfielda nie ma wyraźnie wydzielonych warstw. Na ogół taką sieć przedstawia się jako jednowarstwową.

Koncepcja pamięci skojarzeniowych wiąże się z jedną z podstawowych funkcji mózgu - zdolnością do odtworzenia pewnej informacji na podstawie jedynie jej zarysu a ściślej mówiąc jej zniekształconej postaci. Tak oto potrafimy rozpoznawać pismo, często bardzo odbiegające od wyuczonych w pierwszych latach szkoły ”wzorcowych”

liter. Rozwiązujemy krzyżówki, gdzie dysponując jedynie kilkoma literami potrafimy dopasować słowo. Potrafimy na zdjęciu rozpoznać znajomych nawet gdy znacznie odbiegają od znanych nam wzorców. Wyróżniać będziemy dwa rodzaje tego typu pamięci:

• pamięci autoasocjacyjne – są to pamięci, gdzie na podstawie zaszumionego sygnału wejściowego odtwarzamy jego wzorcową, idealną postać (np. rozwią- zywanie krzyżówki);

Rysunek 2: Działanie pamięci autoasocjacyjnej.

• pamięci heteroasocjacyjne – są to pamięci, gdzie na podstawie zaszumione- go sygnału wejściowego odtwarzamy idealną postać, ale innego sygnału, który z tym jest skojarzony (związany).

Algorytm zapisu

Jak we wszystkich sieciach neuronowych, cała wiedza również w tej sieci ukryta jest w wartościach wag. Istnieje kilka algorytmów pozwalających wyznaczyć wartości wag dla sieci Hopfielada mającej pracować jako pamięć autoasocjacyjna; przyjrzymy się tutaj najprostrzej z nich.

Zapisujemy do pamięci wektory wzorcowe sm, m = 1, ..., p o składowych −1 lub +1. Wagi wyznaczamy według wzoru:

wij = (1 − δij)

p

X

m=1

smi smj ,

2

(3)

gdzie delta jest deltą Kroneckera:

δij =

( 1 gdy i = j 0 gdy i 6= j.

Algorytm odczytu

1. Ustalenie stanu początkowego przez podanie sygnału na wejścia neuronów;

najczęściej jest to właśnie zaszumiona informacja.

2. Ustalenie losowej kolejnosci w jakiej neurony będą obliczały swoje sygnały wyjściowe.

3. Obliczenie sygnałów wyjściowych dla wszystkich neuronów (w kolejnosci usta- lonej w poprzednim punkcie).

4. Jeśli dla żadnego neurnou nie nastąpiła zmiana sygnału wyjściowego, to koń- czymy algorytm. W przeciwnym razie wracamy do 2.

Uwagi

Podczas pracy algorytmu może się zdarzyć, że sieć odtworzy obraz będący dopeł- nieniem obrazu zapamiętanego (to znaczy zamiast −1 bedą +1 i odwrotnie). Jest to jak najbardziej ”normalne” zachowanie.

Zadanie

Należy zaimplementować zaprezentowany algorytm dla zadania odtwarzania liter.

Przyjmujemy postać liter analogiczną jak w ćwiczeniu 1. Do celów dydaktycznych wystarczy jak sieć zapamięta, powiedzmy 3 - 5 liter. Program ma wczytywać znie- kształconą literę, na jej podstawie odtworzyć zapamiętany obraz i go zwrócić.

3

Cytaty

Powiązane dokumenty

polaryzacji i kierunku propagacji fali radiowej spowodowane nieregularnością zmian wskaźnika refrakcji – czyli nieregularnymi zmianami wilgotności, temperatury i ciśnienia

W artykule przedstawiono algorytm estymacji parametrów składowych sinusoidalnych złożonego sygnału, na podstawie ograniczonej liczby losowo pobranych próbek tego

Widma (częstotliwościowe) są równoważnym opisem do analitycznego zapisu w dziedzinie czasu tego sygnału - jest to jego reprezen- tacja widmowa.. Prawostronne widma amplitudowe

Sygnał odtworzony zachowuje informację o częstotliwości sygnału oryginalnego jeśli częstotliwość próbkowania jest większa niż podwojona częstotliwość sygnału analizowanego.

Jednak ze względu na relatywnie niski poziom hierarchii przez oprogramowanie komputera w obsłudze danych czasu, szczególnie w przypadku dużego ruchu informatycznego oraz

2.4 Narysuj wykres zawierający dane (body, surface) z punktami o róż- nych kolorach dla grup equake i explosn.Narysuj na wykresie prostą dyskry- minacyjną, oddzielającą obie

Rzadziej stosowane są ekstrapolatory pierwszego (First Order Hold FOH) i wyższych rzędów.. Uruchomić skrypt c3z1.m. Zaobserwować, jaki sygnał ciągły możemy odtworzyć na

Receptor leptyny OB-R aktywuje kinazy Janusa (JAK) oraz czynniki transkrypcyjne STAT. Początkowo większość badań dotyczyła wpływu leptyny na centralny układ nerwowy.