• Nie Znaleziono Wyników

2013-10-15 MajaCzoków,JarosławPiersa Wstępdosiecineuronowych,wykład02Perceptronyc.d.Maszynaliniowa.

N/A
N/A
Protected

Academic year: 2021

Share "2013-10-15 MajaCzoków,JarosławPiersa Wstępdosiecineuronowych,wykład02Perceptronyc.d.Maszynaliniowa."

Copied!
38
0
0

Pełen tekst

(1)

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Maja Czoków, Jarosław Piersa

Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika

2013-10-15

Projekt pn. „Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych”

realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki

(2)

Uwaga

poniższe slajdy są eksperymentem

zawierają wyłącznie ilustracje i tabele, których sens przepisywania na tablicę jest wątpliwy

są niemal całkowicie pozbawione treści pisanej (w tym wzorów!)

(3)

1 Perceptron — dokończenie Interpretacja geometryczna Perceptron jako bramka logiczna Perceptron jako bramka logiczna Uwagi kombinatoryczne

2 Diagnozowanie za pomocą perceptronu Przykład

3 Klasyfikacja wielokategoryjna

Model maszyny liniowej

Konstrukcja Kesslera

(4)

1 Perceptron — dokończenie Interpretacja geometryczna Perceptron jako bramka logiczna Perceptron jako bramka logiczna Uwagi kombinatoryczne

2 Diagnozowanie za pomocą perceptronu Przykład

3 Klasyfikacja wielokategoryjna

Model maszyny liniowej

Konstrukcja Kesslera

(5)

Interpretacja geometryczna

W przypadku 1d brzeg rozdzielający jest punktem dzielącym prostą.

-3 -2 -1 0 1 2 3

(6)

Interpretacja geometryczna

W przypadku 2d brzeg rozdzielający jest prostą dzielącą płaszczyznę.

-6 -4 -2 0 2 4 6

(7)

Interpretacja geometryczna

W przypadku 3d jest to płaszczyzna rozdzielająca przestrzeń.

-5 0 5 10

-6 -4 -2 0 2 4 6 -10

-5 0 5 10 15

(8)

Interpretacja geometryczna uczenia

click

(9)

Interpretacja geometryczna uczenia

Dlaczego nie należy korzystać z podstawowej wersji algorytmu?

click

(10)

NOT

NOT

p NOT (p)

0 1

1 0

Jedno wejście p,

Problem jest rozwiązywalny przez pojedynczy perceptron.

(11)

AND

AND

p q AND(p, q)

0 0 0

1 0 0

0 1 0

1 1 1

Dwa wejścia p, q, Problem liniowo separowalny.

-0.5 0 0.5 1 1.5

-0.5 0 0.5 1 1.5

y

x

np. w 1 = w 2 = +1, w 0 = 1.5

(12)

OR

OR

p q OR(p, q)

0 0 0

1 0 1

0 1 1

1 1 1

Dwa wejścia p, q, Problem liniowo separowalny.

-0.5 0 0.5 1 1.5

-0.5 0 0.5 1 1.5

y

x

np. w 1 = w 2 = +1, w 0 = 0.5

(13)

Projekcja

P i (x 1 , ..., x n ) = +1 ⇐⇒ x i = +1

p 1 ...p i −1 p i p i +1 p n P i (p 1 , p 2 , ..., p n )

∗ 0 ∗ 0

∗ 1 ∗ 1

Dwa wejścia p, q,

Problem liniowo separowalny.

(14)

Uogólniony AND

AND

p 1 p 2 ... p n AND(p 1 , p 2 , ..., p n )

0 0 ... 0 0

1 0 ... 0 0

...

1 1 ... 0 0

1 1 ... 1 1

n wejść p 1 , p 2 , ..., p n ,

Problem liniowo separowalny.

(15)

Uogólniony OR

OR

p 1 p 2 ... p n OR(p 1 , p 2 , ..., p n )

0 0 ... 0 0

1 0 ... 0 1

...

1 1 ... 0 1

1 1 ... 1 1

n wejść p 1 , p 2 , ..., p n ,

Problem liniowo separowalny.

(16)

XOR

XOR

p q XOR(p, q)

0 0 0

1 0 1

0 1 1

1 1 0

Dwa wejścia p, q, Problem nie jest liniowo separowalny.

-0.5 0 0.5 1 1.5

-0.5 0 0.5 1 1.5

y

x

(17)

NXOR / IFF

NOT XOR / IF and only IF

p q IFF (p, q)

0 0 1

1 0 0

0 1 0

1 1 1

Dwa wejścia p, q,

Problem nie jest liniowo separowalny.

(18)

NAND i NOR

NAND (NOT AND) oraz NOR (NOT AND) Negacja koniunkcji i alternatywy,

Po dwa wejścia p, q,

Oba problemy okazują się separowalne liniowo,

Zadanie: wskazać wagi perceptronów rozwiązujących problemy.

(19)

Separowalne liniowo funkcje logiczne

Wszystkich funkcji logicznych o n zmiennych jest 2 2

n

, Ilość funkcji separowalnych liniowo rośnie wielomianowo, Dla małych wymiarów

n 2 2

n

il. funkcji sep.

1 4 4

2 16 14

3 256 104

4 65536 1882

Tabela za R. Rojas A systematic introduction to neural networks

(20)

1 Perceptron — dokończenie Interpretacja geometryczna Perceptron jako bramka logiczna Perceptron jako bramka logiczna Uwagi kombinatoryczne

2 Diagnozowanie za pomocą perceptronu Przykład

3 Klasyfikacja wielokategoryjna

Model maszyny liniowej

Konstrukcja Kesslera

(21)

Przykład 1

przykład ¯ x = (+1, +1 + 1, +1),

wagi dodatnie w 1 > w 2 > w 3 > w 4 > 0,

odpowiedź O(¯ x ) = +1.

(22)

Przykład 1/3

(23)

Przykład 2/3

(24)

Przykład 3/3

(25)

Przykład 2

przykład ¯ x = (+1, +1, −1, +1),

niektóre wagi są ujemne w 2 < w 3 < 0 < w 4 < w 1 , odpowiedź O(¯ x ) = +1,

x 2 w 2 nie wspiera odpowiedzi,

x 3 w 3 wspiera odpowiedź (wada ujemna, ale cecha nie występuje).

(26)

Przykład 1/4

(27)

Przykład 2/4

(28)

Przykład 3/4

(29)

Przykład 4/4

(30)

1 Perceptron — dokończenie Interpretacja geometryczna Perceptron jako bramka logiczna Perceptron jako bramka logiczna Uwagi kombinatoryczne

2 Diagnozowanie za pomocą perceptronu Przykład

3 Klasyfikacja wielokategoryjna

Model maszyny liniowej

Konstrukcja Kesslera

(31)

Maszyna Liniowa

out

(32)

Rozpoznawanie znaków

1

2 3 4

A

MAX

(33)

Interpretacja geometryczna

-10 -5

0 5

10

-10 -5 0 5 -10010

-50 0 50 100

z

x y

z

-10 -5 0 5 10

-10 -5 0 5 10

y

x

(34)

Interpretacja geometryczna

Bez biasu / progu.

-10 -5 0 5 10

-10 -5 0 5 10

y

Z biasem w 0 / progiem θ.

-10 -5 0 5 10

-10 -5 0 5 10

y

(35)

Interpretacja geometryczna

Etap startowy

w1 = [-0.63, 0.47, 0.74]

w2 = [-2.49, 2.26, -2.35]

w3 = [2.64, -0.89, 1.46]

w4 = [0.13, -2.71, 1.08]

-4 -3

-2 -1

0 1

2 3

4 x

-4 -3

-2 -1

0 1

2 3

4

y -10

-5 0 5 10 15 20 z

ERR = 33

Etap końcowy

w1 = [0.12, 1.50, -0.48]

w2 = [-2.29, -0.56, -2.57]

w3 = [1.14, -1.10, 1.79]

w4 = [0.68, -0.71, 2.18]

-4 -3

-2 -1

0 1

2 3

4 x

-4 -3

-2 -1

0 1

2 3

4

y -10

-5 0 5 10 15 20 z

ERR = 0

(36)

Interpretacja geometryczna

click

(37)

Konstrukcja Kesslera

Maszyna liniowa:

out

(38)

Konstrukcja Kesslera

Odpowiadający perceptron:

out

Cytaty

Powiązane dokumenty

realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki... 1 RBF Pomysł

2 Algorytmy konstrukcyjne Algorytm wieżowy Algorytm piramidalny Algorytm kafelkowy Algorytm upstart...

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły.. Wstęp do sieci neuronowych, wykład 09, Walidacja

Przedstaw sposób kodowania problemu grafowego (dwupodział, kolorowanie, cykl Hammiltona) na konfigurację sieci neuronowej. Zaimplementuj sieć neuronową do rozwiązywania

2 Modelowanie funkcji logicznych za pomocą perceptronu Przypomnienie algebry boolowskiej?. Perceptron jako bramka logiczna

(*) Zapoznaj się i zaimplementuj algorytm szybkiej transformaty Fouriera (fast Fourier transform, FFT) w

2 Algorytmy konstrukcyjne Algorytm wieżowy Algorytm piramidalny Algorytm kafelkowy Algorytm upstart.. 3 Podsumowanie wykładu Zadania

Przypomnienie algebry boolowskiej Perceptron jako bramka logiczna Uwagi