• Nie Znaleziono Wyników

Sztuczne sieci neuronowe - aplikacje w analizie danych eksperymentalnych

N/A
N/A
Protected

Academic year: 2021

Share "Sztuczne sieci neuronowe - aplikacje w analizie danych eksperymentalnych"

Copied!
25
0
0

Pełen tekst

(1)

Sztuczne sieci neuronowe

- aplikacje w analizie danych eksperymentalnych

Robert Sulej

(2)

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

• typy sieci

- MLP, data clustering, SOM

• struktura sieci feed-forward MLP

- neurony, warstwy, funkcje

• uczenie sieci „z nauczycielem”

- algorytmy optymalizacji wag

• zastosowania sieci MLP

- klasyfikacja, aproksymacja

- wymiarowość / statystyka danych uczących / rozmiary sieci - problem wariancji / obciążenia odpowiedzi sieci

- błędy systematyczne - inne ograniczenia

• uczenie bez nauczyciela: sieci SOM (self-organising maps)

Plan prezentacji

(3)

Sieci uczone „z nauczycielem”

MLP – multi-layer perceptron

• historycznie bazuje na biologicznych inspiracjach; obecnie dobrze opisana matematycznie

…bez tajemnic, jednak pewne wyczucie możliwości jest konieczne;

• większość aplikacji korzysta z tego modelu;

• możliwe konfiguracje z i bez sprzężenia zwrotnego (recursive i feed-forward);

• dziesiątki algorytmów uczących i implementacji;

RBF – radial basis functions Cascade Correlation

Uczenie bez nadzoru

• algorytmy Winner Takes All, Winner Takes Most – klastrowanie danych;

• Self Organizing Maps – geometryczna rekonstrukcja;

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

Typy sieci

(4)

. . .

wektor wejściowy*:

in = [in1, ..., inK]

in 1

Out ← odpowiedź sieci warstwy ukryte

neuron wyjściowy

sieć feed-forward MLP

neuron

...

x1

x2 x3 xM

fakt()

out w1

w2

w3 wM

w0 . . .

in K

Out = Net(in, W)

odpowiedź sieci – deterministyczna funkcja wektora wejściowego

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

Struktura sieci

*opis przypadków przez stałą liczbę zmiennych

(5)

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

Struktura sieci

x1

x2 out = fakt()

 > 0

[w1, w2] w0/||w||

 < 0

neuron – funkcje aktywacji

• w sieci z jedną warstwą ukrytą - jeden neuron ukryty wnosi:

- jedną hiperpłaszczyznę do podziału przestrzeni wejść sieci - jedną funkcję bazową do odpowiedź sieci

(6)

Uczenie sieci „z nauczycielem”

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

    

N

i

i

i

Out

N 1

1

e Tgt ,

E W In

pożądana odpowiedź sieci faktyczna odpowiedź sieci

algorytmy iteracyjne:

• gradientowe – wiele odmian: back-prop, gradienty sprzężone, L-M, …

• stochastyczne – alg. genetyczne, symulowane wyżarzanie

• bayesowskie

- minimalizacja f-cji błędu w przestrzeni wag sieci

(7)

w(5)

( w ) Uczenie sieci „z nauczycielem”

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

algorytmy iteracyjne:

• gradientowe

• stochastyczne

• bayesowskie

w(0)

w(1) w(2)

w(3)

w(4)

   

w1 w2

w3

[ p(w|In) ]

w1 w1 w1

p p p

(8)

Aplikacje sieci feed-forward MLP

Out = Net(x, W)

odpowiedź sieci - deterministyczna funkcja zmiennej wejściowej (lub wektora)

• aproksymacja funkcji:

lub Out = Net(x, W)

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

(9)

• estymacja parametru:

Out = Net(in = [x

1

, …, x

n

], W)

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

Aplikacje sieci feed-forward MLP

(10)

• klasyfikacja:

     

 

 

L

i

i k

i

k k

p G p

Out

1

1

sig 1

sig 1

sig

, , g

, , , g

, P

, Net

 

  in

in W

in

rozkłady gęstości prawdopodobieństwa

prawdopodobieństwo a priori

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

Aplikacje sieci feed-forward MLP

(11)

zadania klasyfikacji:

 

N

i

Out i

Tgt i

Out Tgt

xy Tgt Out

R N

1

1

zadania estymacji:

wsp. korelacji liniowej:

Tgt

Out

 – zmienny próg selekcji

Miary oceny wyników

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

wzrost

Out tło

(odpowiedź docelowa 0.05)

sygnał

(odpowiedź docelowa 0.95)

(12)

 

TP FP TP

 

FN TP

TP

sprawność [%]

tra fno

ść [%

]

wzrost

trafność selekcji: sprawność selekcji:

zadania klasyfikacji:

 

N

i

Out i

Tgt i

Out Tgt

xy Tgt Out

R N

1

1

zadania estymacji:

wsp. korelacji liniowej:

Tgt

Out

TP - true positive, Nsig(Out > ) FN - false negative, Nsig(Out ≤ ) FP - false positive, Nbkg(Out > )

 – zmienny próg selekcji

Miary oceny wyników

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

(13)

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

Miary oceny wyników

sprawność [%]

traf ność

[%

] (zadania klasyfikacji)

zbiór uczącyzbiór testowy

(14)

błąd systematyczny - oszacowanie

+ - maksimum sygnału wg klasyfikatora o - rzeczywiste maksimum sygnału

A: zmiana progu selekcji () nie wpływa na wartość centralną wyznaczanej wielkości +

A

mały błąd systematyczny

cecha 1

cecha 2

> 0,5

> 0,8

> 0,9

+ o

B

znaczny błąd systematyczny

cecha 1

cecha 2

> 0,5 > 0,8

> 0,9

B: wartość centralna zmienia się wraz ze zmianą progu selekcji o

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

Miary oceny wyników

(15)

COMPASS – selekcja D0

Nauka bez Monte Carlo

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

zbiór uczący – dane rzeczywiste

tło (Out=0.05)

– wrong charge combination – tylko tło kombinatoryczne

„sygnał” (Out=0.95)

– good charge combination - zdarzenia tła + zdarzenia D0 zmienne wejściowe – kinematyka zdarzeń test – rozkład masy niezmienniczej

(16)

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

Nadmierne dopasowanie do danych uczących

- jak osiągnąć:

• duży rozmiar wektorów wejściowych

• mała liczba wektorów uczących*

• duża liczba neuronów ukrytych

• długa nauka

* w zadaniu klasyfikacji – wystarczy w jednej z klas przypadków

(17)

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

Nadmierne dopasowanie do danych uczących

te same rozkłady, różna statystyka

(18)

Rxy = 0,459 Rxy = 0,165 Rxy = 0,0009

odpow iedź si eci

zmienne wejściowe

Selekcja zmiennych

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

Reprezentacja danych

• usunięcie nietypowych przypadków, normalizacja

• usunięcie symetrii

• wyrównanie rozkładów

• analiza składowych niezależnych

(19)

optymalizacja wag

• algorytm gradientów sprzężonych

• algorytm quick-prop

• dowolny inny algorytm

Inicjalizacja

(sieć o niewielkiej strukturze początkowej)

Inicjalizacja

(sieć o niewielkiej strukturze początkowej)

Rozbudowa struktury

(wstępny trening neuronów-kandydatów) akceptacja neuronu brak modyfikacji

Rozbudowa struktury

(wstępny trening neuronów-kandydatów) akceptacja neuronu brak modyfikacji

optymalizacja wag

Redukcja struktury Redukcja struktury

optymalizacja wag

stabilizacja?

Koniec Koniec

Redukcja struktury

• łączenie par neuronów:

• usuwanie neuronów o stałej odpowiedzi:

• usuwanie neuronów o nieistotnych wagach wejściowych:

* działanie sieci nie zostaje zaburzone *

 

AB B

A N i

B i A i

B A

AB t

o N o

2 2 1

2

2 2

2

1

r c

o

d N

N i j j

j out i

out

 ,1

1

1 w

w

Przebieg błędu sieci w funkcji iteracji trening neuronów- kandydatów

N T

Optymalizacja struktury

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

(20)

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

Optymalizacja struktury

Redukcja struktury

 

AB B

A N i

B i A i

B A

AB t

o

N o

2 2

1

2

2 2

2

1

c

r

o

d N

N i j j

j out i

out

 ,1

1

1 w

w

• łączenie par neuronów:

• usuwanie neuronów o nieistotnych wagach wejściowych:

• usuwanie neuronów o stałej odpowiedzi:

∙ ∙

∙ ∙

∙ ∙

∙ ∙ ∙

° °

°

°

° °

°

x1 x2

l1 l2

∙ ∙

∙ ∙

∙ ∙

∙ ∙

° °

°

°

°

°

°

x1

°

x2

l2

l1

(21)

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

Optymalizacja struktury

przykładowe zadanie

13-8, dynamiczna struktura 17-7, statyczna struktura 20-10, statyczna struktura zbiór uczący

(22)

w(t) = x – wwinner(t)

w

n

(t+1) = w

n

(t) +   (t)  f

s

(n – winner)  w (t)

dla n ϵ < 1; N >:

x = X<rnd>

X = [x

1

,…,x

M

] - zbiór wektorów (np. współrzędne hitów)

W = [w1,…,wN] - wektory wag neuronów

dla m ϵ < 1; M >:

N > M

dla t ϵ < 1; max_iter >:

        

     

x

x

x

x

x x

x

x

x

współczynnik szybkości nauki

„funkcja sąsiedztwa”

Nauka „bez nauczyciela”: Self-Organizing Maps

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

(23)

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

Self-Organizing Maps

– dane

– – 1-wymiarowa sieć SOM

(24)

Robert Sulej Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych 11/05/2009

Dziękuję za uwagę

(25)

0L:

1M:

1E:

fPow4(out) = (tgt – out)4 fMSE(out) = (tgt – out)2

CC (sygnał) tło

Sztuczne sieci neuronowe – aplikacje w analizie danych eksperymentalnych

Cytaty

Powiązane dokumenty

W wyniku tak radykalnej procedury adaptacji wag, możliwe jest dopasowywanie sieci do wielu wzorców różniących się od siebie, a ponadto sieć wykazuje pewną (ograniczoną)

Podstawową cechą sieci neuronowej jest jej zdolność do uogólniania, a więc generowania właściwego rozwiązania dla danych, które nie pojawiły się w zestawie danych

Systemy uczące się (machine learning, ML) oraz sztuczne sieci neuronowe (artificial neural networks, ANN) są ważnymi elementami CI.... Problemy

• diagnostyka medyczna. Zastosowanie sztucznych sieci neuronowych dobrze wkomponowuje się w badania zależności i procesów zachodzących na rynkach finansowych. Wyni- ka to

universal approximation theorem for neural networks states that every continuous function that maps intervals of real numbers to some output interval of real numbers can

Analiza wpływu liczby cech na zdolność sieci SOM do wyróżniania skupień 202 5.5.. Zastosowanie sieci SOM do wyboru oferty na wtórnym rynku nieruchomości

Modele koneksjonistyczne: sieci i rozproszone przetwarzanie równoległe, ale węzły nie działają jak neurony – sieci Bayesowskie, modele graficzne, uczenie się przez

ANN, sztuczne sieci neuronowe – liczne zastosowania techniczne, modele funkcji mózgu, neurony impulsujące lub progowe3. PDP, Parallel Data Processing, czyli