• Nie Znaleziono Wyników

2012-11-21 MajaCzoków,JarosªawPiersa Wst¦pdosiecineuronowych,wykªad06,Walidacjajako±ciuczenia.Metodystatystyczne.

N/A
N/A
Protected

Academic year: 2021

Share "2012-11-21 MajaCzoków,JarosªawPiersa Wst¦pdosiecineuronowych,wykªad06,Walidacjajako±ciuczenia.Metodystatystyczne."

Copied!
66
0
0

Pełen tekst

(1)

Wst¦p do sieci neuronowych, wykªad 06, Walidacja jako±ci uczenia. Metody statystyczne.

Maja Czoków, Jarosªaw Piersa

Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika

2012-11-21

Projekt pn. IKS - Inwestycja w Kierunki Strategiczne na Wydziale Matematyki i Informatyki UMK

realizowany w ramach Poddziaªania 4.1.2 Programu Operacyjnego Kapitaª Ludzki

(2)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

1 Generalizacja Przykªad Generalizacja Przeuczenie sieci

2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Bª¦dy klasykacji Eksperyment my±lowy

Bª¦dy pierwszego i drugiego rodzaju

4 Przypadek ci¡gªy Przypadek ci¡gªy

Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

(3)

1 Generalizacja Przykªad Generalizacja Przeuczenie sieci

2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Bª¦dy klasykacji Eksperyment my±lowy

Bª¦dy pierwszego i drugiego rodzaju

4 Przypadek ci¡gªy Przypadek ci¡gªy

Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

(4)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przykªad Generalizacja Przeuczenie sieci

Przykªad

Rozwa»my problem XOR;

-1.5 -1 -0.5 0 0.5 1 1.5

-1.5 -1 -0.5 0 0.5 1 1.5

(Poprawnie) nauczona sie¢

daje poprawn¡ odpowied¹ na wszystkich 4 przykªadach, Tablica haszuj¡ca da ten sam efekt bez zaawansowanej teorii i przy porównywalnym (albo i mniejszym) koszcie pami¦ciowym,

Ale co si¦ stanie, gdy zapytamy si¦ o klasykacj¦

punktu (1.3, −0.5)?

(5)

Przykªad

Co si¦ stanie, gdy zapytamy si¦ o klasykacj¦ punktu (1.3, −0.5)?

Tablica haszuj¡ca: (zale»nie od wybranego j¦zyka)

ArrayIndexOutOfBoundsException, Segmentation fault itp.

Sie¢ neuronowa: zwróci (jak¡±) odpowied¹ dla ka»dego z punktów na pªaszczy¹nie,

Od czego zale»y odpowied¹?

(6)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przykªad Generalizacja Przeuczenie sieci

Wnioski

nie chcemy w zbiorze treningowym ka»dej mo»liwej warto±ci jaka mo»e pa±¢,

chcemy reprezentatywn¡ próbk¦ przestrzeni o jak¡ sie¢ b¦dzie pytana podczas normalnego dziaªania,

(7)

Co to jest reprezentatywna próbka?

Co autor mo»e mie¢ na my±li:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(8)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przykªad Generalizacja Przeuczenie sieci

Co to jest reprezentatywna próbka?

Co sie¢ mo»e z tego zrozumie¢:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(9)

Generalizacja

Generalizacja jest zdolno±ci¡ sieci do porawnej klasykacji danych, na których sie¢ nie byªa uczona.

(10)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przykªad Generalizacja Przeuczenie sieci

Generalizacja

Dane ucz¡ce:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(11)

Generalizacja

Sie¢ niedouczona:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(12)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przykªad Generalizacja Przeuczenie sieci

Generalizacja

Sie¢ dobrze nauczona:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(13)

Generalizacja

Sie¢ przeuczona:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(14)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przykªad Generalizacja Przeuczenie sieci

Przeuczenie sieci

przeuczenie sieci wyst¦puje, gdy sie¢ uczy si¦ przykªadów na pami¦¢,

zdarza si¦ to, gdy sie¢ ma zbyt wiele punktów swobody (za du»o neuronów do nauczenia w porównaniu do skomplikowania problemu i ilo±ci danych),

przeuczona sie¢ traci umiej¦tno±¢ generalizacji.

(15)

Systuacja ekstremalna

Dane ucz¡ce:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(16)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przykªad Generalizacja Przeuczenie sieci

Systuacja ekstremalna

Wewn¦trzna reprezentacja

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(17)

1 Generalizacja Przykªad Generalizacja Przeuczenie sieci

2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Bª¦dy klasykacji Eksperyment my±lowy

Bª¦dy pierwszego i drugiego rodzaju

4 Przypadek ci¡gªy Przypadek ci¡gªy

Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

(18)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypomnienie ze statystyki Problem

Modele walidacji danych

Przypomnienie ze statystyki

Dana jest próbka losowa x1, ...,xn warto±ci, losowanych niezale»nie z rozkªadu X .

‘rednia z próby deniowana jest jako

x =¯ Pn

i=1xi n

‘rednia jest zgodnym estymatorem warto±ci oczekiwanej rozkªadu X (o ile EX istnieje!).

(19)

Przypomnienie ze statystyki

Estymator wariancji (o ile rozkªad X posiada wariancj¦!):

σˆ2= 1 n − 1

n

X

i=1

(xi − ¯x)2 Estymator odchylenia standardowego:

ˆ σ =

v u u t

1 n − 1

n

X

i=1

(xi − ¯x)2

(20)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypomnienie ze statystyki Problem

Modele walidacji danych

Przypomnienie ze statystyki

Mediana próbki losowej x1, ..xn. Niech xi1, ...,xin b¦dzie t¡ próbk¡ po posortowaniu. Mediana jest zdeniowana jako:

je»eli n jest nieparzyste xi(n+1/2) (element na samym ±rodku posortowanej listy),

je»eli n jest parzyste xin/2+2xin/2+1 (±rednia dwóch ±rodkowych

elementów)

(21)

Zagadnienie

Dane niech b¦dzie zbiór punktów ucz¡cych wraz z poprawnymi odpowiedziami,

Skonstruowana i nauczona zostaªa sie¢ neuronowa,

Chcemy oceni¢ jako±¢ klasykacji i generalizacji uzyskanej sieci.

(22)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypomnienie ze statystyki Problem

Modele walidacji danych

Proste rozwi¡zanie

Po nauczeniu sieci sprawdzamy ile z przykªadów jest klasykowanych poprawnie,

Obliczamy ilo±¢ wszystkich przykªadów, Przypisujemy:

jako±¢ uczenia := ilo±¢ przykªadów sklasykowanych poprawnie ilo±¢ wszystkich przykªadów

(23)

Proste rozwi¡zanie

Rozwi¡zanie to jest za proste, »eby byªo prawdziwe!

nie mówi nic o zachowaniu si¦ sieci na danych, których nie widziaªa,

preferuje uczenie si¦ danych na pami¦¢, ignoruje generalizacj¦, zalet¡ jest to, »e maksymalnie wykorzystuje zestaw danych do uczenia.

(24)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypomnienie ze statystyki Problem

Modele walidacji danych

Walidacja prosta

dane ucz¡ce s¡ losowo dzielone na dwa rozª¡czne zbiory:

próbk¦ ucz¡c¡ U, próbk¦ testow¡ T ,

sie¢ jest uczona za pomoc¡ próbki ucz¡cej,

jako±¢ sieci jest badana tylko za pomoc¡ próbki testowej jako±¢ := ilo±¢ przykªadów T sklasykowanych poprawnie

ilo±¢ wszystkich przykªadów w T

(25)

Walidacja prosta

(26)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypomnienie ze statystyki Problem

Modele walidacji danych

Walidacja prosta

Uwagi i niebezpiecze«stwa:

wi¦kszy wpªyw na wynik mo»e mie¢ |U∪T ||U| , ni»

zaimplementowany algorytm,

rozs¡dnym minimum dla |U| jest okoªo 14 caªego zbioru,

z drugiej strony |U| nie powinno by¢ wi¦ksze ni» 109 caªego zbioru, podaj¡c wynik, zawsze podajemy proporcje w jakich podzielono zbiór,

mamy informacj¦ o mo»liwo±ci generalizacji, ale algorytm uczenia sieci korzystaª tylko z uªamka dost¦pnej wiedzy,

(27)

k-krotna walidacja krzy»owa

Ang. k-fold cross-validation

dane ucz¡ce s¡ losowo dzielone na k rozª¡cznych i równolicznych zbiorów: T1, ...,Tk,

dla i = 1...k powtarzamy

uczymy sie¢ na zbiorze ucz¡cym T1∪ ...Ti−1Ti+1Tk, testujemy tak nauczon¡ sie¢ na danych Ti (na tych danych sie¢

nie byªa uczona),

zapami¦tujemy rezultat (stosunek poprawnie sklasykowanych obiektów w Ti do wsyztkich obiektów w Ti) jako ri

podajemy wszystkie rezultaty ri,

lub przynajmniej ich ±redni¡, median¦, minimum, maksimum i odchylenie standardowe,

(28)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypomnienie ze statystyki Problem

Modele walidacji danych

k-krotna walidacja krzy»owa

(29)

k-razy dwukrotna walidacja krzy»owa

Ang. k-times 2-fold cross-validation odmiana walidacji krzy»owej, dla i = 1...k powtarzamy:

wykonujemy 2-krotn¡ walidacj¦, za ka»dym razem losujemy zbiory treningowy i testowy od nowa,

zapami¦tujemy wyniki ri1 ri2 (po dwa na ka»d¡ iteracj¦), zwracamy statystyki uzyskanych wyników,

(30)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypomnienie ze statystyki Problem

Modele walidacji danych

k-razy dwukrotna walidacja krzy»owa

(31)

Leave One Out

odmiana walidacji krzy»owej, w której k = ilo±¢ elementów w T , dla i = 1...n powtarzamy:

uczymy sie¢ na zbiorze ucz¡cym T \Ti, testujemy sie¢ na pozostaªym przykªadzie Ti, zapami¦tujemy wynik ri (b¦dzie on albo +1, albo 0), obliczamy ±redni¡ i odchylenie standardowe wyników,

mo»na stosowa¢ w przypadku maªej ilo±ci danych w zbiorze T .

(32)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypomnienie ze statystyki Problem

Modele walidacji danych

Leave One Out

(33)

1 Generalizacja Przykªad Generalizacja Przeuczenie sieci

2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Bª¦dy klasykacji Eksperyment my±lowy

Bª¦dy pierwszego i drugiego rodzaju

4 Przypadek ci¡gªy Przypadek ci¡gªy

Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

(34)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Eksperyment my±lowy

Bª¦dy pierwszego i drugiego rodzaju

Bª¦dy i bª¦dy

je»eli przyjmowana klasykacja jest binarna to mo»emy si¦

pomyli¢ na dwa sposoby:

przypadek, który jest pozytywny, faªszywie ocenimy jako negatywny (ang. false negative error)

przypadek, który jest negatywny, faªszywie ocenimy jako pozytywny (ang. false positive),

który bª¡d jest gorszy?

(35)

Przykªad

egzamin z przedmiotu (np. WSN) powinien testowa¢ wiedz¦

zdaj¡cych

je»eli zdaj¡cy zna materiaª i dostaª ocen¦ pozytywn¡, to egzaminatorpoprawnieoceniª wiedz¦,

je»eli zdaj¡cy nie zna materiaªu i nie zaliczyª, to ocena jest poprawna,

je»eli zdaj¡cy umiaª, ale mimo tego nie zaliczyª, to egzaminator popeªniª bª¡d (false negative),

je»eli zdaj¡cy nie umiaª a zaliczyª, to egzaminator popeªniª (dramatyczny) bª¡d (false positive).

poniewa» zawsze przysªuguje egzamin poprawkowy, to ostatnia opcja jest najgorsza...

(36)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Eksperyment my±lowy

Bª¦dy pierwszego i drugiego rodzaju

Bª¦dy pierwszego i drugiego rodzaju

klasykacja pozytywna klasykacja negatywna faktyczny stan poprawna odpowied¹ false negative

jest pozytywny true positive (bª¡d II-go rodzaju) faktyczny stan false positive poprawna odpowied¹ jest negatywny (bª¡d I-go rodzaju) true negative

(37)

Bardziej »yciowe przykªady

ltr antyspamowy,

kontrola bezpiecze«stwa na lotnisku, diagnoza lekarska,

diagnoza usterek technicznych, kontrola jako±ci,

(38)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Eksperyment my±lowy

Bª¦dy pierwszego i drugiego rodzaju

Wra»liwo±¢ i specyczno±¢

wra»liwo±¢ testu (ang. sensitivity) jest odsetkiem pozytywnych odpowiedzi modelu w±ród faktycznych pozytywnych przypadków, test o wysokiej wra»liwo±ci popeªnia maªo bª¦dów II-go rodzaju

TPR = true positives positives

specyczno±¢ testu (ang. specicity) jest odsetkiem negatywnych odpowiedzi w±ród faktycznych negatywnych

przypadków, test o wysokiej specyczno±ci popeªnia maªo bª¦dów I-go rodzaju

TNR = true negatives negatives

(39)

Wra»liwo±¢ i specyczno±¢

stuprocentowa wra»liwo±¢  tak na ka»dy przypadek pozytywny, stuprocentowa specyczno±¢  nie na ka»dy przypadek

negatywny (bardzo asertywny test),

wysokie oba wska¹niki s¡ cech¡ dobrych testów (co oznacza:

trudne do osi¡gni¦cia),

znaj¡c cel (np. unikanie faªszywych alarmów), szukamy najlepszego kompromisu kontroluj¡c wa»niejsz¡ statystyk¦,

(40)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Eksperyment my±lowy

Bª¦dy pierwszego i drugiego rodzaju

Reciever Operation Characteristic

Funkcja wra»liwo±ci testu w zale»no±ci od progu przyjmowania odpowiedzi:

(41)

1 Generalizacja Przykªad Generalizacja Przeuczenie sieci

2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Bª¦dy klasykacji Eksperyment my±lowy

Bª¦dy pierwszego i drugiego rodzaju

4 Przypadek ci¡gªy Przypadek ci¡gªy

Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

(42)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Co robi¢ je»eli wyniki s¡ ci¡gªe?

bª¦dy mierzymy jako odlegªo±¢ uzyskanego wyniku od oczekiwanego:

ERR =X

t

|E(t) − O(t)|

lub kwadrat odlegªo±ci

ERR =X

t

(E(t) − O(t))2

(43)

Co robi¢ je»eli wyniki s¡ ci¡gªe?

w przypadku wielowymiarowym dodatkowo suma po wspóªrz¦dnych

ERR =X

t

X

i

(Ei(t) − Oi(t))2 im mniejszy bª¡d, tym lepsza klasykacja

(44)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

danych mamy n punktów na R2: (x1,y1), ..., (xn,yn)

chcemy znale¹¢ równanie prostej y = ax + b przybli»aj¡cej te punkty

idea: znajdziemy równanie prostej f , która minimalizuje odlegªo±¢ od tych punktów

n

X

i=1

(f (xi) −yi)2

(45)

Regresja liniowa / Metoda najmniejszych kwadratów

danych mamy n punktów na R2: (x1,y1), ..., (xn,yn)

chcemy znale¹¢ równanie prostej y = ax + b przybli»aj¡cej te punkty

idea: znajdziemy równanie prostej f , która minimalizuje odlegªo±¢

od tych punktów

n

X

i=1

(f (xi) −yi)2

(46)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

-15 -10 -5 0 5

0 2 4 6 8 10

-15 -10 -5 0 5

0 2 4 6 8 10

(47)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

posta¢ prostej f (x) = ax + b

bª¡d E(a, b) = Pi(f (xi) −yi)2 =P

i(axi+b − yi)2

∂E

∂a =X

i

∂(axi+b − yi)2

∂a

∂E

∂b =X

i

∂(axi+b − yi)2

∂b

(48)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

posta¢ prostej f (x) = ax + b

bª¡d E(a, b) = Pi(f (xi) −yi)2 =P

i(axi+b − yi)2

bª¡d chcemy minimalizowa¢, wi¦c liczymy pochodne po a i po b

∂E

∂a =X

i

∂(axi+b − yi)2

∂a

∂E

∂b =X

i

∂(axi+b − yi)2

∂b

(49)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa

∂E

∂a =X

i

∂(axi+b − yi)2

∂a =X

i

2(axi +b − yi)∂(axi+b − yi)

∂a =

X

i

2(axi +b − yi)xi =2(aX

i

xi2+bX

i

xi−X

i

xiyi)

∂E

∂b =X

i

∂(axi +b − y )

∂b =X

i

2(axi +b − yi)∂(axi+b − y )

∂b =

X

i

2(axi +b − yi)1 = 2(aX

i

xi+bX

i

1 −X

i

yi)

(50)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa

∂E

∂a =X

i

∂(axi+b − yi)2

∂a =X

i

2(axi +b − yi)∂(axi+b − yi)

∂a =

X

i

2(axi +b − yi)xi =2(aX

i

xi2+bX

i

xi−X

i

xiyi) Podobnie

∂E

∂b =X

i

∂(axi +b − yi)2

∂b =X

i

2(axi +b − yi)∂(axi+b − yi)

∂b =

X

i

2(axi +b − yi)1 = 2(aX

i

xi+bX

i

1 −X

i

yi)

(51)

Regresja liniowa / Metoda najmniejszych kwadratów

Oznaczmy S1=P

i1 = n Sx =P

ixi Sy =P

iyi Sxy =P

ixiyi Sxx =P

ixi2

(52)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

Nasze równania teraz wygl¡daj¡ nast¦puj¡co:

2(aSxx+bSx−Sxy) =0 2(aSx+bS1−Sy) =0

aSxx+bSx =Sxy

aSx+bS1=Sy

a = n·Sn·SxyxxSSxSx2y

b = Sxxn·SSyxxSxySx2Sx

(53)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

Nasze równania teraz wygl¡daj¡ nast¦puj¡co:

2(aSxx+bSx−Sxy) =0 2(aSx+bS1−Sy) =0

aSxx+bSx =Sxy

aSx+bS1=Sy

b = n·SxxSx2

(54)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

Nasze równania teraz wygl¡daj¡ nast¦puj¡co:

2(aSxx+bSx−Sxy) =0 2(aSx+bS1−Sy) =0

aSxx+bSx =Sxy

aSx+bS1=Sy

a = n·Sn·SxyxxSSxS2y x

b = Sxxn·SSyxxSxySx2Sx

(55)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

Je»eli f (x) = adxd+ad−1xd−1+a1x + a0 bª¡d E(a, b) = Pi(f (xi) −yi)2

∂E

∂ai =X

j

∂(adxjd+ ... +a1xj1+a0−yj)2

∂aj dla i = 0...d,

(56)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

Je»eli f (x) = adxd+ad−1xd−1+a1x + a0 bª¡d E(a, b) = Pi(f (xi) −yi)2

ponownie liczymy pochodne po ka»dym ze wspóªczynników

∂E

∂ai =X

j

∂(adxjd+ ... +a1xj1+a0−yj)2

∂aj dla i = 0...d,

(57)

Aproksymacja wielomianem st. 2

-10 -5 0 5 10

0 2 4 6 8 10

(58)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

∂E

∂ai =X

j

2adxjd+ ... +a1xj1+a0−yj∂(adxjd+ ... +a0−yj)

∂ai dla i = 0...d,

∂E

∂ai =X

j

2adxjd+ ... +a1xj1+a0−yj xji

dla i = 0...d,

∂E

∂ai =adX

j

xjd+i+ ... +a1X

j

xj1+i +a0X

j

xji−X

j

yjxji =0

(59)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

∂E

∂ai =X

j

2adxjd+ ... +a1xj1+a0−yj∂(adxjd+ ... +a0−yj)

∂ai dla i = 0...d,

∂E

∂ai =X

j

2adxjd+ ... +a1xj1+a0−yj xji dla i = 0...d,

j j j j

(60)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

∂E

∂ai =X

j

2adxjd+ ... +a1xj1+a0−yj∂(adxjd+ ... +a0−yj)

∂ai dla i = 0...d,

∂E

∂ai =X

j

2adxjd+ ... +a1xj1+a0−yj xji

dla i = 0...d,

∂E

∂ai =adX

j

xjd+i+ ... +a1X

j

xj1+i +a0X

j

xji−X

j

yjxji =0

(61)

Regresja liniowa / Metoda najmniejszych kwadratów

Oznaczmy:

Sxk =X

j

xjk

Syxk =X

j

yjxjk

(62)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Regresja liniowa / Metoda najmniejszych kwadratów

Otrzymujemy ukªad równa«:

Sx2d Sx2d−1 ... Sxd+1 Sxd

Sx2d−1 Sx2d−2 ... Sxd Sxd−1

... ...

Sxd Sxd−1 ... Sx1 Sx0

·

 an

an−1 ...

a0

=

 Syxd

Syxd−1

Syx...0

(63)

Aproksymacja wielomianem zbyt wysokiego stopnia

dla wysokich stopni wielomianu d i zªo±liwych danych problem mo»e by¢ ¹le uwarunkowany (np. w danych jest para

(xi,yi)(xj,yj)gdzie xi jest do±¢ bliski xj, a odpowiadaj¡ce im y znacznie si¦ ró»ni¡),

wielomian traa idealnie (niemal idealnie, je»eli d < n − 1) w ka»dy z punktów ucz¡cych, ale nie oddaje tego, co si¦ dzieje poza nimi,

je»eli d ' n (ilo±¢ danych), to prostszym rozwi¡zaniem jest interpolacja wielomianowa Lagrange'a.

(64)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Aproksymacja wielomianem zbyt wysokiego stopnia

-40 -20 0 20 40

0 2 4 6 8 10

(65)

Zadania

znajd¹ wielomiany stopni 1, 2 i 3 przybli»aj¡cy punkty (0, 0), (1, 1), (2, 3),

znajd¹ wielomiany stopni 1, 2 i 3 przybli»aj¡cy punkty (0, 0), (1, 1), (2, 3), (4, 0),

(*) znajd¹ wielomian interpolacyjny Lagrange'a stopnia 1, 2 i 3 dla danych z zada« powy»ej,

zaimplementuj uczenie perceptronu i prostej sieci skierowanej na przykªadzie XOR (lub innym nietrywialnym), zbadaj jako±¢

uczenia w obu przypadkach, Skorzystaj z walidacji prostej, krzy»owej, LOO, estymacji poprawnie klasykowanych punktów itp.

(66)

Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy

Przypadek ci¡gªy Regresja liniowa  prosta

Regresja liniowa  wielomian stopnia d Zadania

Zadania

zbadaj specyczno±¢ i wra»liwo±¢ (sensitivity and specicity) nauczonej sieci z zadania wy»ej,

(**) kontroluj¡c r¦cznie próg neuronu a tym samym wra»liwo±¢

testu (zawsze nie do zawsze tak), wy±wietl wykres zale»no±ci specyczno±ci od wra»liwo±ci (wykres ROC).

(**) Oblicz numerycznie pole pod wykresem (AUC) z zadania powy»ej.

Cytaty

Powiązane dokumenty

∙ Uczenie zachłanne - dokładany pojedynczy neuron, koszt obliczeń zależy od czasu uczenia nowego neuronu, złożone struktury danych mogą nie zostać wykryte przez dodanie

- studia w obrębie ��ednostek kra��obrazowych, uwzględnia��ących przede wszystki� ukształtowanie powierzchni i pokrycie, ��ako na��bardzie�� wpływa��ące

Spośród wielu czynników w ninie��sze�� pracy zdecydowano się uwzględnić ��ako kryteria własność terenu, roz�ieszczenie przed�iotów, wzbudzane przez

Jeśli mam jakieś niedociągnięcia w pracy grupowej to dlatego, że... a) nie mogę się uspokoić, dopóki narada nie jest uporządkowana, kontrolowana i ogólnie dobrze prowadzona,..

Nast¦pnie przykªady wstawia si¦ do kategorii o najbli»szym ±rodku ci¦»ko±ci, za ka»dym razem aktualizuj¡c ±rodek ci¦»ko±ci powi¦kszanej kategorii. Ale czy to jest

Generalizacja jest zdolnością sieci do porawnej klasyfikacji danych, na których sieć nie była uczona....

Algorytm Metropolisa Symulowane wy»arzanie Uczenie maszyn Boltzmanna Maszyna Boltzmanna w analizie obrazówM. Wst¦p do sieci neuronowych, wykªad 14

funkcje boolowskie nieseparowalne za pomoc¡ funkcji liniowej nie mog¡ by¢ odwzorowane przez klasyczny perceptron.. liczba funkcji boolowskich separowalnych liniowo jest bardzo maªa