• Nie Znaleziono Wyników

Uczenie konkurencyjne: Zwycięzca bierze wszystko; Gaz neuronowy; Demonstracje w Javie/

N/A
N/A
Protected

Academic year: 2021

Share "Uczenie konkurencyjne: Zwycięzca bierze wszystko; Gaz neuronowy; Demonstracje w Javie/"

Copied!
26
0
0

Pełen tekst

(1)

Uczenie konkurencyjne

Uczenie konkurencyjne

Wykład 6

Włodzisław Duch

Uniwersytet Mikołaja Kopernika

Google: W. Duch

(2)

Co było

Co było

Mapy topograficzne w mózgu

Samoorganizacja

(3)

Co będzie

Co będzie

Mapy ekwiprobabilistyczne

Zwycięzca bierze wszystko

Gaz neuronowy

(4)

Mapy ekwiprobabilistyczne

Mapy ekwiprobabilistyczne

Dla 1 wymiaru można pokazać, że uporządkowanie jest prawidłowe, ale p(Wi)  p(X)2/3 w granicy ciągłego rozkładu.

Stosowanie lokalnych funkcji błędu prowadzi do p(Wi)  p(X)1/3

SOM przecenia rejony mało prawdopodobnych danych i niedocenia rejony o dużym prawdopodobieństwie.

Powstają neurony bezużyteczne; jak wykorzystać całą sieć?

Zasada jednakowego zniekształcenia: każdy neuron powinien mieć podobny wkład do końcowego błędu kwantyzacji (klasyfikacji).

 

 

2

arg min

i i j

,

j i j

c

Cf

h r r t

t

t

X

W

Conscience Learning (DeSieno 1988; Hecht-Nielsen 1988).

(5)

Maksymalizacja entropii

Maksymalizacja entropii

Kwantyzator maksymalizujący entropię (MEQ):

w każdym przedziale takie samo prawdopodobieństwo.

Jak znaleźć optymalne przedziały Hi by osiągnąć podział

ekwiprobabilistyczny?

 

 

 

1

( )

1/ ;

1

i k i i i H

P H

p X dX

k

P R

P H

Można to osiągnąć maksymalizując entropię dla przedziałów:

 

2

 

2 1

log

log

k i i i

I

P H

P H

k

 

(6)

BAR

BAR

Reguła Adaptacji Granic, Boundry Adaptation Rule.

Jeśli P(Hi) jest za duże (zbyt często pojawiają się wektory z tego

przedziału) to wielkość przedziału należy zmniejszyć.

Przedział w 1D określony jest przez wagi.

Jeśli dane są z przedziału Hi to Wi przesuwamy w lewo (zmniejszamy

przedział Hi), jeśli z Hi+1 to w prawo (zmniejszamy przedział Hi+1).

1

 

1

 

0

i i i i i

W

H

H

P H

P H

 

 

 

1

,1

;

- f. charakterystyczna zbioru

i i i

W

H

H

i k

H

H

 

 

1

[

, ]

i i i

H

W W

(7)

Konstruktywny SOM

Konstruktywny SOM

Growing Cell Structures (Fritzke 1993).

Początkowa topologia: k-wymiarowy sympleks (k=1, 2, 3). Dodaje się nowe neurony i usuwa stare.

Algorytm SOM, ale bez zmniejszania sąsiedztwa i adaptacji dokonuje się tylko dla zwycięzcy i bezpośrednich sąsiadów.

1.

Znajdź neuron-zwycięzcę c.

2.

Popraw jego wagi: Wc=s(X-Ws).

3.

Popraw wagi sąsiadów Ws=s(X-Ws).

4.

Zwiększ licznik częstości c=1, zmniejsz wszystkie



c

= 

c

.

5.

Policz zrenormalizowane częstości fi =

i

/

j

j

6.

Po ustalonej liczbie epok L znajdź neuron o największej częstości

fi i wstaw pomiędzy ten neuron i najdalszego sąsiada nowy

neuron tworząc lokalny sympleks;

(8)

Rozwój GCS

Rozwój GCS

Rozwój GCS

Rozwój GCS

(9)

GCS - 2 obszary

GCS - 2 obszary

Sytuacja w 3-wym. przestrzeni danych - 2 oddzielone

skupienia.

Sieć GCS rosnąca w dwóch wymiarach - odpowiednia topologia.

(10)

Voronoi i Delaunay

Voronoi i Delaunay

Punkty granice decyzji Triangulacja danych Voronoia Delaunaya

Obszary Voronoia - neuron zwycięża konkurencję.

Zbiór Voronoia - zbiór wektorów wewnątrz obszaru Voronoia.

Łącząc neurony, których obszary Voronoia mają wspólną krawędź otrzymujemy traingulację Delaunaya.

(11)

WTA

WTA

Uczenie konkurencyjne - WTA, Winner Takes All. Nazywane też Hard Competitive Learning.

Jeden zwycięzca, dane pojedynczo (on-line) lub wszystkie (batch). Mogą powstawać bezużyteczne neurony - konieczna incjalizacja zgodna z rozkładem danych.

Algorytm LBG typu WTA:

1.

przypadkowa inicjalizacja;

2.

Powtarzaj aż ustaną zmiany:

3.

pokaż wszystkie dane i znajdź zbiory Voronoia;

4.

przesuń wagi neuronu do centrum obszaru

Wariant LBG-U: przesuń mało użyteczne (zerowy zbiór Voronoia) neurony w lokalne minima błędu.

1

c c V R c

W

V

R

(12)

Gas neuronowy

Gas neuronowy

Wariant uczenia konkurencyjnego (Schulten i Martinez 1991)

Algorytm NG typu SOM:

1.

przypadkowa inicjalizacja N wektorów; t=0;

2.

Wybierz przypadkowy wektor V

3.

Zrób ranking wag najbliższych V; k=1..N

;

i j

W V

W

V i

j

Zastosuj regułę adaptacji:

  

( )

i i

W

t h i V W

(13)

Demonstra

Demonstra

cje

cje

z

z

GNG

GNG

Growing Self-Organizing Networks demo

Growing Self-Organizing Networks demo

Parametry w programie uczenia konkurencyjnego:

t – iteracje

(t) = 

i

(

f

/ 

i

)

t/tmax

redukcja siły uczenia

(t) = 

i

(

f

/ 

i

)

t/tmax

redukcja wielkości otoczenia

2 2

( , , , , )

c

( )exp

c

/

( )

h r r t

 

t

 

r r

t

Ciekawe są wyniki dla map 1x30 tworzących krzywe Peano. Rozkłady zmieniające się w czasie są ciekawe.

(14)

Przykłady zastosowania SOM

Przykłady zastosowania SOM

Helsinki University of Technology web site http://www.cis.hut.fi/research/refs/

has a list (2010) of > 7700 papers on SOM and its applications !

Brain research: modeling of formation of various topographical maps in motor, auditory, visual and somatotopic areas.

AI and robotics: analysis of data from sensors, control of robot’s movement (motor maps), spatial orientation maps.

Information retrieval and text categorization.

Clusterization of genes, protein properties, chemical compounds, speech phonemes, sounds of birds and insects, astronomical objects, economical data, business and financial data ....

Data compression (images and audio), information filtering.

Medical and technical diagnostics.

(15)

Więcej przykładów

Więcej przykładów

Więcej przykładów

Więcej przykładów

Natural language processing: linguistic analysis, parsing, learning languages, hyphenation patterns

Optimization: configuration of telephone connections, VLSI design, time series prediction, scheduling algorithms.

Signal processing: adaptive filters, real-time signal analysis, radar, sonar seismic, USG, EKG, EEG and other medical signals ...

Image recognition and processing: segmentation, object recognition, texture recognition ...

Content-based retrieval: examples of WebSOM,

PicSom – similarity based image retrieval, RGB and textures.

Viscovery SOMine, komercyjny program do wizualizacji, eksploracji, klasyfikacji, prognozowania oparty na SOM.

(16)
(17)

Quality of life data

Quality of life data

Quality of life data

Quality of life data

WorldBank data 1992, 39 quality of life indicators.

SOM map and the same colors on the world map.

(18)

SOM software

SOM software

SOM software

SOM software

Jest kilka darmowych implementacji SOM.

Najlepsze wizualizacje ma Viscovery free viewer http://www.eudaptics.com

Można go było używać z darmowym SOM_pack z http://www.cis.hut.fi/research/som_lvq_pak.shtml

Growing Self-Organizing Networks demo (demoGNG) i praca przeglądowa na temat uczenia konkurencyjnego.

Książka:

(19)

Spisek zagnieżdża się w mózgu

Spisek zagnieżdża się w mózgu

Dlaczego ludzie wierzą w teorie spiskowe?

Emocje, niepewne sytuacje zmuszają mózg do większej neuroplastyczności by zapamiętać to co nas poruszyło.

Większa dostępność neurotransmiterów zwiększa szybkość uczenia i prawdopodobieństwo błędnej interpretacji.

Gwałtowna zmiana, traumatyczne przeżycia, zmniejszają plastyczność „zamrażając” błędne wyobrażenia.

Zapominanie szczegółów pozostawia najsilniejsze skojarzenia.

Teorie i przekonania tworzą się przez skojarzenia zbioru stanów reprezentowanych przez „migawki aktywacji mózgu”, prototypy pewnych przeżyć.

Teorie spiskowe powstają gdy z kilkoma błędnymi stanami mózgu zaczyna się kojarzyć wiele innych – to daje proste pozornie prawdziwe wyjaśnienia,

(20)

Siatka pojęciowa - zmienne bodźce

Siatka pojęciowa - zmienne bodźce

Punkt = obserwacja. W normalnych warunkach obserwacje są

(21)

Lekkie deformacje

Lekkie deformacje

(22)

Szybkie konkluzje

Szybkie konkluzje

Za duża plastyczności zbyt szybkie „uspakajanie” systemu. Mocno zniekształcony obraz.

(23)

Szybkie konkluzje

Szybkie konkluzje

Całkiem pokręcony obraz świata, duże „dziury” i proste wyjaśnienia – klastry, „zlewy”, czarne linie łączące niezwiązane ze sobą epizody.

(24)

Memoidy …

Memoidy …

(25)

Co dalej?

Co dalej?

Wizualizacja SOM. Skalowanie Wielowymiarowe.

Learnmatrix, Adaline, Madaline i modele liniowe.

Perceptrony.

(26)

Koniec wykładu 6

Koniec wykładu 6

Cytaty

Powiązane dokumenty

Dla poszczególnych kategorii rozpoznania zaproponowano następujące dopuszczalne wielkości błędów wyznaczanych jako błędy krigingu zwyczajnego: kategoria measured (A + B wg

Szerokość przedziału ufności zmniejsza się wraz ze wzrostem rozmiaru próby:.. • Większa próba-> zwykle

zyka niż człowieka, wtedy jednak powoływałoby się do istnienia nową total ­ ność, na gruncie której możliwa byłaby ciągła historia, historia dyskursu jako nauka

Cechy porządkowe – cechy których wartościami są słowa lub symbole ale między tymi cechami występuje

Jeśli zaś weźmiemy jakąkolwiek funkcję f mającą pochodne wszystkich rzędów wokół zera, to jej szereg Taylora może być rozbieżny wszędzie poza zerem, a nawet jak jest

Zanim zajrzysz na kolejną stronę, rozwiąż powyższe zadanie, a przynaj- mniej podejmij próbę rozwiązania, aby wiedzieć, gdzie napotykasz

Wykorzystując funkcje z grupy BD.______ oblicz ile jest kobiet, ilu mężczyzn, jaką średnią minimalną i maksymalną liczbę punktów w sumie uzyskali mężczyźni a jaką

Na drzewach pojawiają się liście Wracają ptaki, które odleciały na zimę.. A