• Nie Znaleziono Wyników

4-2 Funkcje aktywacji 4-3 Warstwa

N/A
N/A
Protected

Academic year: 2021

Share "4-2 Funkcje aktywacji 4-3 Warstwa"

Copied!
8
0
0

Pełen tekst

(1)

4. Standardowe elementy sieci neuronowych

4-1 Neuron

4-2 Funkcje aktywacji 4-3 Warstwa

4-4 Perceptron wielowarstwowy 4-5 Sieć bez sprzężeń

4-6 Sygnały

4-7 Adaptacja wag

(2)

afiniczna transformacja wejścia u

z = b +

n

X

i =1

w i u i = b + w

T

u wagi w = [w 1 · · · w n ]

T

obciążenie b , próg ϑ = −b równanie neuronu

y = g  b +

n

X

i =1

w i u i

 = g(b + w

T

u)

funkcja aktywacji g : R 7→ R obciążenie jako waga

wagi rozszerzone o wagę w 0 = b wejścia rozszerzone o wejście u 0 = 1

n

(3)

Funkcje aktywacji

• dyskretne f. aktywacji ( twarde nieliniowości): f. znaku, f. skokowa

• ciągłe f. aktywacji (miękkie nieliniowości): f. sigmoidalne, sigmoid, f. gaussowska

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2

0 0.2 0.4 0.6 0.8 1

sigmoid

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

funkcje radialne gaussowskie

(4)

• struktura warstwy

y =

y 1

. . . y m

= g(b + Wu), g (z) =

g 1 (z 1 ) . . . g m (z m )

b =

b 1

. . . b m

, W =

w 1

T

. . . w

T

m

=

w 1,1 · · · w 1,n . .

.

. . .

. . . w m, 1 · · · w m,n

• zapis rozszerzony

y = g(W u), u =

 1 u

, W = [b W] =

b 1 w

T

1

. . .

b w

T

(5)

Perceptron wielowarstwowy

w a r s t w y u k r y t e warstwa wyjściowa

u (1) = u, u (k) = y (k−1) , k = 2, . . . , L y (k) = N (k) (u (k) ), k = 1, . . . , L

y = y (L)

(6)

u (1) = u, u (k) =

u y (1)

.. . y (k−1)

, k = 2, . . . , L

y (k) = N (k) (u (k) ), k = 1, . . . , L

(7)

Sygnały

zbiór wejść U ⊂ R n

• n – liczba punktów obrazu, liczba czujników

• punkty obrazu binarne: U = zbiór wierzchoł- ków kostki

◮ reprezentacja asymetryczna

◮ reprezentacja symetryczna

• wejścia ograniczone: U = kostka w R n

sygnał: funkcja T 7→ U

(8)

Adaptacja wag

sieć statyczna y(t) = N u(t); w 

• uczenie

przykład treningowy u(k), y (k); y (k) – wyjście pożądane ciąg trenujący (ciąg uczący) 

u(k), y (k), i = 1, . . . , N modyfikacja wag w(t + 1) = h(w(t), u(t))

• sieć z uczeniem: y(t) = N u(t); h w(t − 1), u(t − 1)  układ dynamiczny y(t) = N{u(s), s ≤ t}

• struktura neuronu/warstwy/sieci mogą być bardziej skomplikowane

sieć dynamiczna y(t) = N{u(s), s ≤ t}

• “szybka dynamika” (nie związana z uczeniem) i“wolna dynamika” (uczenie)

Cytaty

Powiązane dokumenty

Szczególne sytuacje życiowe to przede wszystkim okoliczności wymienione w ustawie o po- mocy społecznej: ubóstwo, sieroctwo, bezdomność, bezrobocie, niepełnosprawność,

Skoro wszyscy tworzymy pewną wspólnotę ryzyka, to naturalnym zachowaniem jest po- dejmowanie wspólnych działań, aby przeciwdziałać prawdopodobieństwu spełnienia się tego

Podstawę wymiaru składki na ubezpieczenie zdrowotne dla tych osób stanowi kwota zade- klarowana, nie niższa niż 75% przeciętnego miesięcznego wynagrodzenia w sektorze

• pozostawienie części społeczeństwa poza systemem emerytalnym, z racji braku ubezpieczenia. • konieczność opieki

przejście od modelu zdefi niowanego świadczenia do modelu zdefi niowanej składki od zwaloryzowanych składek na ubezpieczenie emerytalne i zwaloryzowanego kapitału

co oznacza solidarność międzypokoleniowa od czego zależy wysokość

• stary – dla osób urodzonych przed 1 stycznia 1949 roku (emerytura wypłacana jest ze środków zgromadzonych w FUS – I fi larze i obliczona jest według starych zasad

[r]