• Nie Znaleziono Wyników

Sztuczna Inteligencja Temat projektu – Neuron

N/A
N/A
Protected

Academic year: 2021

Share "Sztuczna Inteligencja Temat projektu – Neuron"

Copied!
6
0
0

Pełen tekst

(1)

PB, 2009–2010

Sztuczna Inteligencja Temat projektu – Neuron

Ilość osób w grupie: 2

Stwórz aplikację wizualizującą działanie oraz uczenie pojedynczego neuronu typu:

perceptron,

Adaline.

Aplikacja powinna umożliwiać wyznaczenie równania prostej rozdzielającej dwa zbiory punktów podanych na płaszczyźnie (pod warunkiem, że taka prosta istnieje) i dodatkowo:

wizualizację tej prostej oraz punktów,

wykres błędów procesu uczenia,

ustalenie warunku zatrzymania procesu uczenia (maksymalny błąd lub ilość iteracji).

(2)

Pomoc do projektu

Perceptron

Na rysunku nr 1 przedstawiony jest schemat neuronu typu perceptron.

Rys. 1: Schemat neuronu typu perceptron

Funkcja aktywacji tego neuronu dana jest zależnością:

f  x ={−1, gdy x≤01, gdy x0

Wartość wyjścia y perceptronu opisana jest równaniem:

y= f 

i=1 n

wixiw0

(3)

Rys. 2: Algorytm uczenia neuronu typu perceptron

(4)

Adaline

Na rysunku nr 3 przedstawiony jest schemat neuronu typu Adaline (ang. Adaptive Linear Neuron).

Widać wyraźnie, że różnica pomiędzy neuronem typu perceptron oraz neuronem typu Adaline polega na tym, że w procesie uczenia sygnał wzorcowy d jest porównywany z sygnałem s sumatora.

Rys. 3: Schemat neuronu typu Adaline

Funkcja aktywacji tego neuronu dana jest zależnością:

f  x ={1, gdy x00, gdy x≤0

Wartość wyjścia y neuronu typu Adaline opisana jest równaniem:

y= f 

i=1 n

wixiw0

(5)

Rys. 4: Algorytm uczenia neuronu typu Adaline

(6)

Podsumowanie wykorzystywanych oznaczeń:

i – numer wagi neuronu,

t – numer iteracji w epoce, numer próbki uczącej,

d – sygnał wzorcowy,

y – sygnał wyjściowy neuronu,

s – sygnał wyjściowy sumatora neuronu,

x – wartość wejściowa neuronu,

η – współczynnik uczenia (0,1).

Przykład

Neurony o dwóch wejściach można wykorzystać do podziału płaszczyzny dwuwymiarowej na dwie części za pomocą prostej. Podział ten wyznacza prosta o równaniu:

w1x1w2x2w0=0 Po przekształceniu:

x2=−w1

w2⋅x1w0 w2

Czyli współczynniki takiej prostej zależą od wartości wag neuronu.

Teraz stosując algorytm uczenia neuronu można te współczynniki wyznaczyć.

Przykładowy ciąg uczący:

x1 x2 d(x)

2 1 1

2 2 1

0 6 1

-2 8 -1

-2 0 -1

0 0 -1

Cytaty

Powiązane dokumenty

Rozważając sztuczne systemy uczące się będziemy przez uczenie się rozumied proces zmiany zachodzącej w systemie na podstawie doświadczeo, która prowadzi do poprawy jego

W rezultacie, jeśli przed T nie było ani jednego „zdarzenia”, to sztucznie przyjmujemy że momentem ostatniego zdarzenia było

Horzyk, A., Innovative Types and Abilities of Neural Networks Based on Associative Mechanisms and a New Associative Model of Neurons - referat na zaproszenie na

Sensory w polach sensorycznych tworzone są, jeśli po prezentacji bodźca żaden z istniejących sensorów nie zareagował odpowiednio mocno, czyli gdy dystans wartości bodźca

wnioskowania dają N zbiorów rozmytych, oraz systemy typu B, na wyjściu którego otrzymujemy jeden zbiór rozmyty,. który jest wynikiem agregacji rezultatów wnioskowania

U nowszych autorów, „(pod)przestrzeń izotropowa” to taka, której pewien wektor jest izotropowy – co nie odpowiada znaczeniu słowa „izotropowy” (jednorodny we

Widać wyraźnie, że różnica pomiędzy neuronem typu perceptron oraz neuronem typu Adaline polega na tym, że w procesie uczenia sygnał wzorcowy d jest porównywany

Działanie algorytmu dla pojedynczej epoki rozpoczyna się od podania pierwszego wzorca uczącego na wejście