• Nie Znaleziono Wyników

Inteligencja Obliczeniowa Inteligencja Obliczeniowa

N/A
N/A
Protected

Academic year: 2021

Share "Inteligencja Obliczeniowa Inteligencja Obliczeniowa"

Copied!
14
0
0

Pełen tekst

(1)

Inteligencja Obliczeniowa Inteligencja Obliczeniowa

Perceptrony Perceptrony

Wykład 10

Włodzisław Duch

Katedra Informatyki Stosowanej UMK

Google: W. Duch

(2)

Co było Co było

• Learnmatrix.

• Adeline.

• Madeline.

• Aproksymacja elementami liniowymi

• Demo w Matlabie

(3)

Co będzie Co będzie

• Perceptron jednowarstwowy.

• Uczenie się perceptronów

• Nieliniowa reguła delta

• Adatron

Nature 26.04.2016: AI Talent Grab

(4)

Perceptron Perceptron

• Rosenblatt (Cornell Univ.) 1960, klasyfikator neuronowy Mark I wzorowany na biologicznej percepcji.

• Trzy warstwy, elementy:

• wejściowe (S-units), np. fotokomórki 20 x 20

• asocjacyjne (A-units), zbierające dane z większych obszarów, 512

• wyjściowe (R-units), 8

• Identyfikacja figur, znaków, eksperymenty psychologiczne, szybkość uczenia, błędy.

• Jakich klasyfikacji dokonać może perceptron?

• Jak można go uczyć?

(5)

Perceptron - schemat Perceptron - schemat

• Perceptron jednowarstwowy.

A1 A 2

A3 A 4 A5 A6

A7 A8

S -elem en ty A -elem enty R -elem en ty

(6)

Działanie

Działanie perceptronów perceptronów

Sygnał błędu obliczany jest po przepuszczeniu przez element progowy.

S

j

= –1, +1 sygnały docierające do elementów sensorycznych;

Połączenia C

ij

= 0, ±1 elementów S

j

i A

i

(przypadkowo rozrzucone w pewnym obszarze, nie ulegają zmianom).

Pary treningowe (S

m

,Y

m

), Y

m

= ±1; sygnał wyjściowy R

m

= +1 dla  > 0 próg wyjściowy

i ij j i

j

Ag C S   

  

1 dla

1 dla

0 w pozostałych przypadkach

ij j j

ij j j

R I W A N

R I W A N

R

  

  

    

 

    

 

 

g( ) – funkcja bipolarna

daje A

i

=  powyżej progu, A

i

= –1 poniżej.

(7)

Czego można je nauczyć?

Czego można je nauczyć?

Przy aktywacji A

km

dla sygnału wejściowego S

m

prawidłowa odpowiedź:

Kiedy istnieje rozwiązanie?

Wystarczy, by dla każdego obszaru asocjacji A(S

i

) istniał element A

i

należący tylko do tego obszaru.

Kładąc wszystkie W

k

= 0 oprócz mamy rozwiązanie;

ale tylko dla problemów liniowo separowalnych.

Zwykle przez „perceptron” rozumie się teraz jeden neuron z wieloma wejściami (bez jednostek S, bo tu nie ma adaptacji).

k k

k

Y I  Y W A N

1

W i   NY

(8)

Uczenie perceptronów Uczenie perceptronów

Jeśli rozwiązanie istnieje to korekcja błędów (reguła uczenia) je znajdzie:

( ) ( 1) ;

2 dla 1

k k k

k k

W t W t W

WY A Y R

   

    

1   

k k k

WY R Y A Y R A

    

 

k k

WNY I Y A  

    gdzie (x)= 0 dla 0

1 dla 0 x x

 

   

k k k

Y I  Y W A N

Chcemy by:

Reguła delta

(9)

Uczenie perceptronów

Uczenie perceptronów cd cd

Ocena trudności uczenia: zdefiniujmy

Jeśli D(W) > 0 to można nauczyć bez błędu.

Najlepsza separacja, perceptron optymalny, gdy

bo może być największe.

Liczba kroków uczenia nie przekracza:

1 1

( ) min min

k k

k

D

Y I

 

Y

W A

N

    

W W W W

max max ( )

DD

W W

1 2 // 2 max

MN    D

(10)

Perceptron dla

Perceptron dla M M klas klas

Reguła uczenia perceptronu:

• skończona liczba kroków

• sensowna generalizacja

Granice decyzji perceptronu: dla klasy C

i

wyjście g

i

(X) Decyzja: max

i

g

i

(X), więc na granicy g

i

(X)=g

j

(X)

Dla M klas jest M(M – 1)/2 granic; część jest redundantna.

Obszary decyzyjne – zawsze wypukłe.

Klasa C

i

, wymagane g

i

(X)= 1, g

j

(X)= 0 Niektóre obszary – niesklasyfikowane bo wszystkie g

i

(X)= 0 lub kilka g

i

(X)=1

Przykład: granice decyzji perceptronu dla 3 klas.

(11)

Elementy progowe Elementy progowe

Hiperpowierzchnia decyzyjna dla różnych neuronów:

net – aktywacja; f(net) – funkcja wyjścia zależna od aktywacji.

Typowe nieliniowości: bipolarne [-1,+1] i unipolarne [0,1]

funkcje sigmoidalne.

 

i i

   

i

f If   W X    f   f net

   W X

(12)

Przykłady programów Przykłady programów

Demo rozpoznawania ręcznie pisanych cyfr:

http://uaasoftware.com/blog/demos-tutorials/mlp-neural-network-hand writing-recognition

/

IBM SPSS

http://www-03.ibm.com/software/products/en/spss-neural-networks Demo kilku typów sieci:

http://www.borgelt.net/demo.html

(13)

Co dalej?

Co dalej?

• Adatron i

maksymalizacja margines.

• Sieci Hopfielda

• Sieci Hebbowskie i modele mózgu

• Samoorganizacja

• Perceptrony

wielowarstwowe

(14)

Koniec wykładu 10

Koniec wykładu 10

Cytaty

Powiązane dokumenty

, a n są liniowo niezależne, to ich zbiór jest bazą odpowiedniej podprzestrzeni; wtedy macierz symetryczna M = A T A jest dodatnio określona (skąd wynika, że nieosobliwa) i układ

Klasa

są równoważne w tym sensie, że jeśli dany problem jest rozwiązywany przez jeden model w czasie ograniczonym od góry przez wielomian zależny od rozmiarów problemu, to przy

są równoważne w tym sensie, że jeśli dany problem jest rozwiązywany przez jeden model w czasie ograniczonym od góry przez wielomian zależny od rozmiarów problemu, to przy

Dodawanie dwu liczb dwójkowych tej samej długości, znajdujących się na Taśmach 1 i 2, których najstarsze pozycje znajdują się w komórkach o numerze 1.. Wynik tworzony jest

Klasa

Widać wyraźnie, że różnica pomiędzy neuronem typu perceptron oraz neuronem typu Adaline polega na tym, że w procesie uczenia sygnał wzorcowy d jest porównywany

liczba porównań dwóch liczb w algorytmie sortowania, liczba mnożeń w algorytmie obliczania silni, liczba dzieleń w algorytmie sprawdzania czy dana liczba jest pierwsza, ogólna