Uczenie konkurencyjne
Uczenie konkurencyjne
Wykład 6
Włodzisław Duch
Uniwersytet Mikołaja Kopernika
Google: W. Duch
Co było
Co było
•
Mapy topograficzne w mózgu
•
Samoorganizacja
Co będzie
Co będzie
•
Mapy ekwiprobabilistyczne•
Zwycięzca bierze wszystko•
Gaz neuronowyMapy ekwiprobabilistyczne
Mapy ekwiprobabilistyczne
Dla 1 wymiaru można pokazać, że uporządkowanie jest prawidłowe, ale p(Wi) p(X)2/3 w granicy ciągłego rozkładu.
Stosowanie lokalnych funkcji błędu prowadzi do p(Wi) p(X)1/3
SOM przecenia rejony mało prawdopodobnych danych i niedocenia rejony o dużym prawdopodobieństwie.
Powstają neurony bezużyteczne; jak wykorzystać całą sieć?
Zasada jednakowego zniekształcenia: każdy neuron powinien mieć podobny wkład do końcowego błędu kwantyzacji (klasyfikacji).
2arg min
i i j,
j i jc
Cf
h r r t
t
t
X
W
Conscience Learning (DeSieno 1988; Hecht-Nielsen 1988).
Maksymalizacja entropii
Maksymalizacja entropii
Kwantyzator maksymalizujący entropię (MEQ):
w każdym przedziale takie samo prawdopodobieństwo.
Jak znaleźć optymalne przedziały Hi by osiągnąć podział
ekwiprobabilistyczny?
1( )
1/ ;
1
i k i i i HP H
p X dX
k
P R
P H
Można to osiągnąć maksymalizując entropię dla przedziałów:
2
2 1log
log
k i i iI
P H
P H
k
BAR
BAR
Reguła Adaptacji Granic, Boundry Adaptation Rule.
Jeśli P(Hi) jest za duże (zbyt często pojawiają się wektory z tego
przedziału) to wielkość przedziału należy zmniejszyć.
Przedział w 1D określony jest przez wagi.
Jeśli dane są z przedziału Hi to Wi przesuwamy w lewo (zmniejszamy
przedział Hi), jeśli z Hi+1 to w prawo (zmniejszamy przedział Hi+1).
1
1
0
i i i i iW
H
H
P H
P H
1,1
;
- f. charakterystyczna zbioru
i i iW
H
H
i k
H
H
1[
, ]
i i iH
W W
Konstruktywny SOM
Konstruktywny SOM
Growing Cell Structures (Fritzke 1993).
Początkowa topologia: k-wymiarowy sympleks (k=1, 2, 3). Dodaje się nowe neurony i usuwa stare.
Algorytm SOM, ale bez zmniejszania sąsiedztwa i adaptacji dokonuje się tylko dla zwycięzcy i bezpośrednich sąsiadów.
1.
Znajdź neuron-zwycięzcę c.2.
Popraw jego wagi: Wc=s(X-Ws).3.
Popraw wagi sąsiadów Ws=s(X-Ws).4.
Zwiększ licznik częstości c=1, zmniejsz wszystkie
c=
c.
5.
Policz zrenormalizowane częstości fi =
i/
j
j6.
Po ustalonej liczbie epok L znajdź neuron o największej częstościfi i wstaw pomiędzy ten neuron i najdalszego sąsiada nowy
neuron tworząc lokalny sympleks;
Rozwój GCS
Rozwój GCS
Rozwój GCS
Rozwój GCS
GCS - 2 obszary
GCS - 2 obszary
Sytuacja w 3-wym. przestrzeni danych - 2 oddzielone
skupienia.
Sieć GCS rosnąca w dwóch wymiarach - odpowiednia topologia.
Voronoi i Delaunay
Voronoi i Delaunay
Punkty granice decyzji Triangulacja danych Voronoia Delaunaya
Obszary Voronoia - neuron zwycięża konkurencję.
Zbiór Voronoia - zbiór wektorów wewnątrz obszaru Voronoia.
Łącząc neurony, których obszary Voronoia mają wspólną krawędź otrzymujemy traingulację Delaunaya.
WTA
WTA
Uczenie konkurencyjne - WTA, Winner Takes All. Nazywane też Hard Competitive Learning.
Jeden zwycięzca, dane pojedynczo (on-line) lub wszystkie (batch). Mogą powstawać bezużyteczne neurony - konieczna incjalizacja zgodna z rozkładem danych.
Algorytm LBG typu WTA:
1.
przypadkowa inicjalizacja;2.
Powtarzaj aż ustaną zmiany:3.
pokaż wszystkie dane i znajdź zbiory Voronoia;4.
przesuń wagi neuronu do centrum obszaruWariant LBG-U: przesuń mało użyteczne (zerowy zbiór Voronoia) neurony w lokalne minima błędu.
1
c c V R cW
V
R
Gas neuronowy
Gas neuronowy
Wariant uczenia konkurencyjnego (Schulten i Martinez 1991)
Algorytm NG typu SOM:
1.
przypadkowa inicjalizacja N wektorów; t=0;2.
Wybierz przypadkowy wektor V3.
Zrób ranking wag najbliższych V; k=1..N;
i j
W V
W
V i
j
Zastosuj regułę adaptacji:
( )
i i
W
t h i V W
Demonstra
Demonstra
cje
cje
z
z
GNG
GNG
Growing Self-Organizing Networks demo
Growing Self-Organizing Networks demo
Parametry w programie uczenia konkurencyjnego:
t – iteracje
(t) =
i(
f/
i)
t/tmaxredukcja siły uczenia
(t) =
i(
f/
i)
t/tmaxredukcja wielkości otoczenia
2 2
( , , , , )
c( )exp
c/
( )
h r r t
t
r r
t
Ciekawe są wyniki dla map 1x30 tworzących krzywe Peano. Rozkłady zmieniające się w czasie są ciekawe.
Przykłady zastosowania SOM
Przykłady zastosowania SOM
Helsinki University of Technology web site http://www.cis.hut.fi/research/refs/
has a list (2010) of > 7700 papers on SOM and its applications !
•
Brain research: modeling of formation of various topographical maps in motor, auditory, visual and somatotopic areas.•
AI and robotics: analysis of data from sensors, control of robot’s movement (motor maps), spatial orientation maps.•
Information retrieval and text categorization.•
Clusterization of genes, protein properties, chemical compounds, speech phonemes, sounds of birds and insects, astronomical objects, economical data, business and financial data ....•
Data compression (images and audio), information filtering.•
Medical and technical diagnostics.Więcej przykładów
Więcej przykładów
Więcej przykładów
Więcej przykładów
•
Natural language processing: linguistic analysis, parsing, learning languages, hyphenation patterns•
Optimization: configuration of telephone connections, VLSI design, time series prediction, scheduling algorithms.•
Signal processing: adaptive filters, real-time signal analysis, radar, sonar seismic, USG, EKG, EEG and other medical signals ...•
Image recognition and processing: segmentation, object recognition, texture recognition ...•
Content-based retrieval: examples of WebSOM,PicSom – similarity based image retrieval, RGB and textures.
•
Viscovery SOMine, komercyjny program do wizualizacji, eksploracji, klasyfikacji, prognozowania oparty na SOM.Quality of life data
Quality of life data
Quality of life data
Quality of life data
WorldBank data 1992, 39 quality of life indicators.SOM map and the same colors on the world map.
SOM software
SOM software
SOM software
SOM software
•
Jest kilka darmowych implementacji SOM.•
Najlepsze wizualizacje ma Viscovery free viewer http://www.eudaptics.comMożna go było używać z darmowym SOM_pack z http://www.cis.hut.fi/research/som_lvq_pak.shtml
•
Growing Self-Organizing Networks demo (demoGNG) i praca przeglądowa na temat uczenia konkurencyjnego.Książka:
Spisek zagnieżdża się w mózgu
Spisek zagnieżdża się w mózgu
Dlaczego ludzie wierzą w teorie spiskowe?
•
Emocje, niepewne sytuacje zmuszają mózg do większej neuroplastyczności by zapamiętać to co nas poruszyło.•
Większa dostępność neurotransmiterów zwiększa szybkość uczenia i prawdopodobieństwo błędnej interpretacji.•
Gwałtowna zmiana, traumatyczne przeżycia, zmniejszają plastyczność „zamrażając” błędne wyobrażenia.•
Zapominanie szczegółów pozostawia najsilniejsze skojarzenia.•
Teorie i przekonania tworzą się przez skojarzenia zbioru stanów reprezentowanych przez „migawki aktywacji mózgu”, prototypy pewnych przeżyć.•
Teorie spiskowe powstają gdy z kilkoma błędnymi stanami mózgu zaczyna się kojarzyć wiele innych – to daje proste pozornie prawdziwe wyjaśnienia,Siatka pojęciowa - zmienne bodźce
Siatka pojęciowa - zmienne bodźce
Punkt = obserwacja. W normalnych warunkach obserwacje są
Lekkie deformacje
Lekkie deformacje
Szybkie konkluzje
Szybkie konkluzje
Za duża plastyczności zbyt szybkie „uspakajanie” systemu. Mocno zniekształcony obraz.
Szybkie konkluzje
Szybkie konkluzje
Całkiem pokręcony obraz świata, duże „dziury” i proste wyjaśnienia – klastry, „zlewy”, czarne linie łączące niezwiązane ze sobą epizody.