• Nie Znaleziono Wyników

Krak´ow 26.10.2012 Sieci Neuronowe Nieliniowy perceptron i sie´c perceptronowa: uzupe lniaja

N/A
N/A
Protected

Academic year: 2021

Share "Krak´ow 26.10.2012 Sieci Neuronowe Nieliniowy perceptron i sie´c perceptronowa: uzupe lniaja"

Copied!
2
0
0

Pełen tekst

(1)

Krak´ow 26.10.2012

Sieci Neuronowe

Nieliniowy perceptron i sie´c perceptronowa: uzupe lniaja

cy opis do zadania 1 Napisz funkcje (lub klase) reprezentujaca perceptron o trzech wej´sciach: x1, x2, x0 = 1.0 i jednym wyj´sciu y, wagach odpowiednio w1, w2, w0 oraz progowej funkcji aktywacji (patrz wyk lad IV, slide 7). Wykonaj naste

puja

ca

symulacje:

1. Zaprogramuj pierwszy peceptron ustawiajac wagi w1, w2, w0 na trzech wej´sciach sieci tak, aby prosta reprezentuja

ca rozwiazanie w1 · x1 + w2 · x2 + w0 · x0 = 0 na p laszczy˙znie (x1, x2) rozdziela la zbiory A, B par punkt´ow (x1, x2), gdzie A = {(0, 0), (1, 0), (0, 1)} oraz B = {(1, 1)}.

• Wygeneruj z rozk ladu r´ownomiernego serie

105 par (x1, x2) w zakresie x1, x2 ǫ <−1.0, 2.0 >.

• Dla ka˙zdej z par (x1, x2) przeprowaz klasyfikacje

przy pomocy perceptronu tzn. za- pytaj o odpowie´z y.

• Otrzymany wynik zareprezentuj na 2D histogramie o osiach (x1, x2), traktujac odpowied´z perceptronu y jako wage

pary (x1, x2) Narysuj 2D histogram.

2. Zaprogramuj drugi perceptron, tak dobierajac wagi aby teraz rozdzielone na dwa obszary byly punkty A = {(1, 1), (1, 0), (0, 1)} oraz B = {(0, 0)}. Powt´orz symulacje jak w punkcie 1. Narysuj na tym samym rysunku (u˙zywaja

c r´o˙znych kolor´ow) odpowiedzi perceptron´ow z punktu 1 i 2.

3. Zbuduj uk lad trzech perceptron´ow tak aby realizowa ly funkcje XOR rozdzielaja

ca

ob-

szary: A = {(1, 0), (0, 1)} oraz B = {(0, 0), (1, 1)} u˙zywja

c perceptron´ow z poprzed- nich zada´n jako pierwszej warstwy i trzeciego peceptronu kt´ory wykonuje logiczne AND odpowiedzi peceptron´ow warstwy pierwszej (patrz wyk lad). Otrzymany wynik zareprezen- tuj na 2D histogramie o osiach (x1, x2), traktuja

c odpowied´z Y perceptronu w drugiej warstwy jako wage pary (x1, x2). Powt´orz symulacje i narysuj 2D histogram odpowiedzi uk ladu peceptron´ow.

4. Powt´orz [1]-[5], dla peceptron´ow o sigmoidalnej funkcji aktywacji (wyk lad IV, slide 19).

Rysuj 2D histogramy u˙zywajac opcji Draw(“COLZ”). Powt´orz ´cwiczenie dla kilku warto´sci parametru aktywacji β.

5. Zastosuj metode uczenia z nauczycielem aby nauczy´c ka˙zdy perceptron z osobna, metoda uczenia z nauczycielem, jak ma wyglada´c rozpoznawany przez niego obszar. Do uczenia zastosuj zasade

delta (wz´or z wyk lad IV, slice 27) oraz wykorzystaj perceptron z progowa funckja aktywacji. Jako wynik poka˙z odpowied´z perceptronu po uczeniu na pr´obce

uczacej: 100, 1000 i 10000 par. Por´ownaj z odpowiedzia perceptronu programowanego.

6. Zaprogramuj jedna

z metod wstecznej propagacji b le

du i przeprowad´z uczenie zbudowanej sieci perceptronowej XOR. Por´ownaj z odpowiedzia sieci programowanej.

1

(2)

Nieliniowa sie´c perceptronowa: uzupe lniaja

cy opis do zadania 2

Zaimplementuj sie neuron´ow wg. wskazanego schematu (patrz zestaw zada´n). Wykonaj symulacje

odpowiedzi sieci u˙zywaja

c dyskretnej i cia

glej funkcji aktywacji wg podanego w zestawie opisu. Sumuluj stany wejsciowe rozkladu r´ownomiernego w przedziale

x1, x2 ǫ < 0.0, 4.0 >, wynik odpowiedzi sieci Y potraktuj jako wage z ktora wkladasz do 2D histogramu pare

(x1, x2) albo wype lnij 3D histogram o osiach (x1, x2, y).

2

Cytaty

Powiązane dokumenty

[r]

[r]

Żeby w informatyce wykorzystać potencjał funkcjonalny neuronu oraz całej ich sieci (grafu), zwanych często sieciami neuronowymi, trzeba opracować uproszczony model działania

ukrytej albo przesyła sygnały do wartości wyjściowych, albo znajduje się w jednej z głębszych warstw, wówczas jego błąd można oszacować z chwilą określenia błędów

, Ponadto, je´sli w zadaniach nie jest zaznaczone inaczej, to przyjmujemy, ˙ze krzywe zamkni ete , po kt´ orych ca lkujemy s a zorientowane dodatnio.. Korzystamy z twierdzenia

Je˙zeli pole wektorowe jest Morse’a-Smale’a to jest Kupki Smale’a..

Udowodni´ c, ˙ze zbi´ or tensor´ ow prostych mo˙zna opisa´ c uk ladem r´ owna´ n kwadratowych.... naturalny rozumiemy niezale˙zny od

Otrzymujemy przyk lad zupe lnego uk ladu wektor´ ow, kt´ ory nie jest baza , w sensie algebry liniowej.... wielomiany Hermite’a,