Wst¦p do sieci neuronowych, wykªad 06, Walidacja jako±ci uczenia. Metody statystyczne.
Maja Czoków, Jarosªaw Piersa
Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika
2012-11-21
Projekt pn. IKS - Inwestycja w Kierunki Strategiczne na Wydziale Matematyki i Informatyki UMK
realizowany w ramach Poddziaªania 4.1.2 Programu Operacyjnego Kapitaª Ludzki
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
1 Generalizacja Przykªad Generalizacja Przeuczenie sieci
2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem
Modele walidacji danych
3 Bª¦dy klasykacji Eksperyment my±lowy
Bª¦dy pierwszego i drugiego rodzaju
4 Przypadek ci¡gªy Przypadek ci¡gªy
Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
1 Generalizacja Przykªad Generalizacja Przeuczenie sieci
2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem
Modele walidacji danych
3 Bª¦dy klasykacji Eksperyment my±lowy
Bª¦dy pierwszego i drugiego rodzaju
4 Przypadek ci¡gªy Przypadek ci¡gªy
Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przykªad Generalizacja Przeuczenie sieci
Przykªad
Rozwa»my problem XOR;
-1.5 -1 -0.5 0 0.5 1 1.5
-1.5 -1 -0.5 0 0.5 1 1.5
(Poprawnie) nauczona sie¢
daje poprawn¡ odpowied¹ na wszystkich 4 przykªadach, Tablica haszuj¡ca da ten sam efekt bez zaawansowanej teorii i przy porównywalnym (albo i mniejszym) koszcie pami¦ciowym,
Ale co si¦ stanie, gdy zapytamy si¦ o klasykacj¦
punktu (1.3, −0.5)?
Przykªad
Co si¦ stanie, gdy zapytamy si¦ o klasykacj¦ punktu (1.3, −0.5)?
Tablica haszuj¡ca: (zale»nie od wybranego j¦zyka)
ArrayIndexOutOfBoundsException, Segmentation fault itp.
Sie¢ neuronowa: zwróci (jak¡±) odpowied¹ dla ka»dego z punktów na pªaszczy¹nie,
Od czego zale»y odpowied¹?
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przykªad Generalizacja Przeuczenie sieci
Wnioski
nie chcemy w zbiorze treningowym ka»dej mo»liwej warto±ci jaka mo»e pa±¢,
chcemy reprezentatywn¡ próbk¦ przestrzeni o jak¡ sie¢ b¦dzie pytana podczas normalnego dziaªania,
Co to jest reprezentatywna próbka?
Co autor mo»e mie¢ na my±li:
-1 -0.5 0 0.5 1 1.5 2
-1 -0.5 0 0.5 1 1.5 2
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przykªad Generalizacja Przeuczenie sieci
Co to jest reprezentatywna próbka?
Co sie¢ mo»e z tego zrozumie¢:
-1 -0.5 0 0.5 1 1.5 2
-1 -0.5 0 0.5 1 1.5 2
Generalizacja
Generalizacja jest zdolno±ci¡ sieci do porawnej klasykacji danych, na których sie¢ nie byªa uczona.
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przykªad Generalizacja Przeuczenie sieci
Generalizacja
Dane ucz¡ce:
-1 -0.5 0 0.5 1 1.5 2
-1 -0.5 0 0.5 1 1.5 2
Generalizacja
Sie¢ niedouczona:
-1 -0.5 0 0.5 1 1.5 2
-1 -0.5 0 0.5 1 1.5 2
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przykªad Generalizacja Przeuczenie sieci
Generalizacja
Sie¢ dobrze nauczona:
-1 -0.5 0 0.5 1 1.5 2
-1 -0.5 0 0.5 1 1.5 2
Generalizacja
Sie¢ przeuczona:
-1 -0.5 0 0.5 1 1.5 2
-1 -0.5 0 0.5 1 1.5 2
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przykªad Generalizacja Przeuczenie sieci
Przeuczenie sieci
przeuczenie sieci wyst¦puje, gdy sie¢ uczy si¦ przykªadów na pami¦¢,
zdarza si¦ to, gdy sie¢ ma zbyt wiele punktów swobody (za du»o neuronów do nauczenia w porównaniu do skomplikowania problemu i ilo±ci danych),
przeuczona sie¢ traci umiej¦tno±¢ generalizacji.
Systuacja ekstremalna
Dane ucz¡ce:
-1 -0.5 0 0.5 1 1.5 2
-1 -0.5 0 0.5 1 1.5 2
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przykªad Generalizacja Przeuczenie sieci
Systuacja ekstremalna
Wewn¦trzna reprezentacja
-1 -0.5 0 0.5 1 1.5 2
-1 -0.5 0 0.5 1 1.5 2
1 Generalizacja Przykªad Generalizacja Przeuczenie sieci
2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem
Modele walidacji danych
3 Bª¦dy klasykacji Eksperyment my±lowy
Bª¦dy pierwszego i drugiego rodzaju
4 Przypadek ci¡gªy Przypadek ci¡gªy
Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypomnienie ze statystyki Problem
Modele walidacji danych
Przypomnienie ze statystyki
Dana jest próbka losowa x1, ...,xn warto±ci, losowanych niezale»nie z rozkªadu X .
rednia z próby deniowana jest jako
x =¯ Pn
i=1xi n
rednia jest zgodnym estymatorem warto±ci oczekiwanej rozkªadu X (o ile EX istnieje!).
Przypomnienie ze statystyki
Estymator wariancji (o ile rozkªad X posiada wariancj¦!):
σˆ2= 1 n − 1
n
X
i=1
(xi − ¯x)2 Estymator odchylenia standardowego:
ˆ σ =
v u u t
1 n − 1
n
X
i=1
(xi − ¯x)2
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypomnienie ze statystyki Problem
Modele walidacji danych
Przypomnienie ze statystyki
Mediana próbki losowej x1, ..xn. Niech xi1, ...,xin b¦dzie t¡ próbk¡ po posortowaniu. Mediana jest zdeniowana jako:
je»eli n jest nieparzyste xi(n+1/2) (element na samym ±rodku posortowanej listy),
je»eli n jest parzyste xin/2+2xin/2+1 (±rednia dwóch ±rodkowych
elementów)
Zagadnienie
Dane niech b¦dzie zbiór punktów ucz¡cych wraz z poprawnymi odpowiedziami,
Skonstruowana i nauczona zostaªa sie¢ neuronowa,
Chcemy oceni¢ jako±¢ klasykacji i generalizacji uzyskanej sieci.
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypomnienie ze statystyki Problem
Modele walidacji danych
Proste rozwi¡zanie
Po nauczeniu sieci sprawdzamy ile z przykªadów jest klasykowanych poprawnie,
Obliczamy ilo±¢ wszystkich przykªadów, Przypisujemy:
jako±¢ uczenia := ilo±¢ przykªadów sklasykowanych poprawnie ilo±¢ wszystkich przykªadów
Proste rozwi¡zanie
Rozwi¡zanie to jest za proste, »eby byªo prawdziwe!
nie mówi nic o zachowaniu si¦ sieci na danych, których nie widziaªa,
preferuje uczenie si¦ danych na pami¦¢, ignoruje generalizacj¦, zalet¡ jest to, »e maksymalnie wykorzystuje zestaw danych do uczenia.
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypomnienie ze statystyki Problem
Modele walidacji danych
Walidacja prosta
dane ucz¡ce s¡ losowo dzielone na dwa rozª¡czne zbiory:
próbk¦ ucz¡c¡ U, próbk¦ testow¡ T ,
sie¢ jest uczona za pomoc¡ próbki ucz¡cej,
jako±¢ sieci jest badana tylko za pomoc¡ próbki testowej jako±¢ := ilo±¢ przykªadów T sklasykowanych poprawnie
ilo±¢ wszystkich przykªadów w T
Walidacja prosta
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypomnienie ze statystyki Problem
Modele walidacji danych
Walidacja prosta
Uwagi i niebezpiecze«stwa:
wi¦kszy wpªyw na wynik mo»e mie¢ |U∪T ||U| , ni»
zaimplementowany algorytm,
rozs¡dnym minimum dla |U| jest okoªo 14 caªego zbioru,
z drugiej strony |U| nie powinno by¢ wi¦ksze ni» 109 caªego zbioru, podaj¡c wynik, zawsze podajemy proporcje w jakich podzielono zbiór,
mamy informacj¦ o mo»liwo±ci generalizacji, ale algorytm uczenia sieci korzystaª tylko z uªamka dost¦pnej wiedzy,
k-krotna walidacja krzy»owa
Ang. k-fold cross-validation
dane ucz¡ce s¡ losowo dzielone na k rozª¡cznych i równolicznych zbiorów: T1, ...,Tk,
dla i = 1...k powtarzamy
uczymy sie¢ na zbiorze ucz¡cym T1∪ ...Ti−1∪Ti+1∪Tk, testujemy tak nauczon¡ sie¢ na danych Ti (na tych danych sie¢
nie byªa uczona),
zapami¦tujemy rezultat (stosunek poprawnie sklasykowanych obiektów w Ti do wsyztkich obiektów w Ti) jako ri
podajemy wszystkie rezultaty ri,
lub przynajmniej ich ±redni¡, median¦, minimum, maksimum i odchylenie standardowe,
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypomnienie ze statystyki Problem
Modele walidacji danych
k-krotna walidacja krzy»owa
k-razy dwukrotna walidacja krzy»owa
Ang. k-times 2-fold cross-validation odmiana walidacji krzy»owej, dla i = 1...k powtarzamy:
wykonujemy 2-krotn¡ walidacj¦, za ka»dym razem losujemy zbiory treningowy i testowy od nowa,
zapami¦tujemy wyniki ri1 ri2 (po dwa na ka»d¡ iteracj¦), zwracamy statystyki uzyskanych wyników,
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypomnienie ze statystyki Problem
Modele walidacji danych
k-razy dwukrotna walidacja krzy»owa
Leave One Out
odmiana walidacji krzy»owej, w której k = ilo±¢ elementów w T , dla i = 1...n powtarzamy:
uczymy sie¢ na zbiorze ucz¡cym T \Ti, testujemy sie¢ na pozostaªym przykªadzie Ti, zapami¦tujemy wynik ri (b¦dzie on albo +1, albo 0), obliczamy ±redni¡ i odchylenie standardowe wyników,
mo»na stosowa¢ w przypadku maªej ilo±ci danych w zbiorze T .
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypomnienie ze statystyki Problem
Modele walidacji danych
Leave One Out
1 Generalizacja Przykªad Generalizacja Przeuczenie sieci
2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem
Modele walidacji danych
3 Bª¦dy klasykacji Eksperyment my±lowy
Bª¦dy pierwszego i drugiego rodzaju
4 Przypadek ci¡gªy Przypadek ci¡gªy
Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Eksperyment my±lowy
Bª¦dy pierwszego i drugiego rodzaju
Bª¦dy i bª¦dy
je»eli przyjmowana klasykacja jest binarna to mo»emy si¦
pomyli¢ na dwa sposoby:
przypadek, który jest pozytywny, faªszywie ocenimy jako negatywny (ang. false negative error)
przypadek, który jest negatywny, faªszywie ocenimy jako pozytywny (ang. false positive),
który bª¡d jest gorszy?
Przykªad
egzamin z przedmiotu (np. WSN) powinien testowa¢ wiedz¦
zdaj¡cych
je»eli zdaj¡cy zna materiaª i dostaª ocen¦ pozytywn¡, to egzaminatorpoprawnieoceniª wiedz¦,
je»eli zdaj¡cy nie zna materiaªu i nie zaliczyª, to ocena jest poprawna,
je»eli zdaj¡cy umiaª, ale mimo tego nie zaliczyª, to egzaminator popeªniª bª¡d (false negative),
je»eli zdaj¡cy nie umiaª a zaliczyª, to egzaminator popeªniª (dramatyczny) bª¡d (false positive).
poniewa» zawsze przysªuguje egzamin poprawkowy, to ostatnia opcja jest najgorsza...
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Eksperyment my±lowy
Bª¦dy pierwszego i drugiego rodzaju
Bª¦dy pierwszego i drugiego rodzaju
klasykacja pozytywna klasykacja negatywna faktyczny stan poprawna odpowied¹ false negative
jest pozytywny true positive (bª¡d II-go rodzaju) faktyczny stan false positive poprawna odpowied¹ jest negatywny (bª¡d I-go rodzaju) true negative
Bardziej »yciowe przykªady
ltr antyspamowy,
kontrola bezpiecze«stwa na lotnisku, diagnoza lekarska,
diagnoza usterek technicznych, kontrola jako±ci,
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Eksperyment my±lowy
Bª¦dy pierwszego i drugiego rodzaju
Wra»liwo±¢ i specyczno±¢
wra»liwo±¢ testu (ang. sensitivity) jest odsetkiem pozytywnych odpowiedzi modelu w±ród faktycznych pozytywnych przypadków, test o wysokiej wra»liwo±ci popeªnia maªo bª¦dów II-go rodzaju
TPR = true positives positives
specyczno±¢ testu (ang. specicity) jest odsetkiem negatywnych odpowiedzi w±ród faktycznych negatywnych
przypadków, test o wysokiej specyczno±ci popeªnia maªo bª¦dów I-go rodzaju
TNR = true negatives negatives
Wra»liwo±¢ i specyczno±¢
stuprocentowa wra»liwo±¢ tak na ka»dy przypadek pozytywny, stuprocentowa specyczno±¢ nie na ka»dy przypadek
negatywny (bardzo asertywny test),
wysokie oba wska¹niki s¡ cech¡ dobrych testów (co oznacza:
trudne do osi¡gni¦cia),
znaj¡c cel (np. unikanie faªszywych alarmów), szukamy najlepszego kompromisu kontroluj¡c wa»niejsz¡ statystyk¦,
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Eksperyment my±lowy
Bª¦dy pierwszego i drugiego rodzaju
Reciever Operation Characteristic
Funkcja wra»liwo±ci testu w zale»no±ci od progu przyjmowania odpowiedzi:
1 Generalizacja Przykªad Generalizacja Przeuczenie sieci
2 Walidacja jako±ci uczenia Przypomnienie ze statystyki Problem
Modele walidacji danych
3 Bª¦dy klasykacji Eksperyment my±lowy
Bª¦dy pierwszego i drugiego rodzaju
4 Przypadek ci¡gªy Przypadek ci¡gªy
Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Co robi¢ je»eli wyniki s¡ ci¡gªe?
bª¦dy mierzymy jako odlegªo±¢ uzyskanego wyniku od oczekiwanego:
ERR =X
t
|E(t) − O(t)|
lub kwadrat odlegªo±ci
ERR =X
t
(E(t) − O(t))2
Co robi¢ je»eli wyniki s¡ ci¡gªe?
w przypadku wielowymiarowym dodatkowo suma po wspóªrz¦dnych
ERR =X
t
X
i
(Ei(t) − Oi(t))2 im mniejszy bª¡d, tym lepsza klasykacja
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
danych mamy n punktów na R2: (x1,y1), ..., (xn,yn)
chcemy znale¹¢ równanie prostej y = ax + b przybli»aj¡cej te punkty
idea: znajdziemy równanie prostej f , która minimalizuje odlegªo±¢ od tych punktów
n
X
i=1
(f (xi) −yi)2
Regresja liniowa / Metoda najmniejszych kwadratów
danych mamy n punktów na R2: (x1,y1), ..., (xn,yn)
chcemy znale¹¢ równanie prostej y = ax + b przybli»aj¡cej te punkty
idea: znajdziemy równanie prostej f , która minimalizuje odlegªo±¢
od tych punktów
n
X
i=1
(f (xi) −yi)2
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
-15 -10 -5 0 5
0 2 4 6 8 10
-15 -10 -5 0 5
0 2 4 6 8 10
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
posta¢ prostej f (x) = ax + b
bª¡d E(a, b) = Pi(f (xi) −yi)2 =P
i(axi+b − yi)2
∂E
∂a =X
i
∂(axi+b − yi)2
∂a
∂E
∂b =X
i
∂(axi+b − yi)2
∂b
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
posta¢ prostej f (x) = ax + b
bª¡d E(a, b) = Pi(f (xi) −yi)2 =P
i(axi+b − yi)2
bª¡d chcemy minimalizowa¢, wi¦c liczymy pochodne po a i po b
∂E
∂a =X
i
∂(axi+b − yi)2
∂a
∂E
∂b =X
i
∂(axi+b − yi)2
∂b
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa
∂E
∂a =X
i
∂(axi+b − yi)2
∂a =X
i
2(axi +b − yi)∂(axi+b − yi)
∂a =
X
i
2(axi +b − yi)xi =2(aX
i
xi2+bX
i
xi−X
i
xiyi)
∂E
∂b =X
i
∂(axi +b − y )
∂b =X
i
2(axi +b − yi)∂(axi+b − y )
∂b =
X
i
2(axi +b − yi)1 = 2(aX
i
xi+bX
i
1 −X
i
yi)
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa
∂E
∂a =X
i
∂(axi+b − yi)2
∂a =X
i
2(axi +b − yi)∂(axi+b − yi)
∂a =
X
i
2(axi +b − yi)xi =2(aX
i
xi2+bX
i
xi−X
i
xiyi) Podobnie
∂E
∂b =X
i
∂(axi +b − yi)2
∂b =X
i
2(axi +b − yi)∂(axi+b − yi)
∂b =
X
i
2(axi +b − yi)1 = 2(aX
i
xi+bX
i
1 −X
i
yi)
Regresja liniowa / Metoda najmniejszych kwadratów
Oznaczmy S1=P
i1 = n Sx =P
ixi Sy =P
iyi Sxy =P
ixiyi Sxx =P
ixi2
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
Nasze równania teraz wygl¡daj¡ nast¦puj¡co:
2(aSxx+bSx−Sxy) =0 2(aSx+bS1−Sy) =0
aSxx+bSx =Sxy
aSx+bS1=Sy
a = n·Sn·Sxyxx−−SSxSx2y
b = Sxxn·SSyxx−−SxySx2Sx
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
Nasze równania teraz wygl¡daj¡ nast¦puj¡co:
2(aSxx+bSx−Sxy) =0 2(aSx+bS1−Sy) =0
aSxx+bSx =Sxy
aSx+bS1=Sy
b = n·Sxx−Sx2
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
Nasze równania teraz wygl¡daj¡ nast¦puj¡co:
2(aSxx+bSx−Sxy) =0 2(aSx+bS1−Sy) =0
aSxx+bSx =Sxy
aSx+bS1=Sy
a = n·Sn·Sxyxx−−SSxS2y x
b = Sxxn·SSyxx−−SxySx2Sx
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
Je»eli f (x) = adxd+ad−1xd−1+a1x + a0 bª¡d E(a, b) = Pi(f (xi) −yi)2
∂E
∂ai =X
j
∂(adxjd+ ... +a1xj1+a0−yj)2
∂aj dla i = 0...d,
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
Je»eli f (x) = adxd+ad−1xd−1+a1x + a0 bª¡d E(a, b) = Pi(f (xi) −yi)2
ponownie liczymy pochodne po ka»dym ze wspóªczynników
∂E
∂ai =X
j
∂(adxjd+ ... +a1xj1+a0−yj)2
∂aj dla i = 0...d,
Aproksymacja wielomianem st. 2
-10 -5 0 5 10
0 2 4 6 8 10
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
∂E
∂ai =X
j
2adxjd+ ... +a1xj1+a0−yj∂(adxjd+ ... +a0−yj)
∂ai dla i = 0...d,
∂E
∂ai =X
j
2adxjd+ ... +a1xj1+a0−yj xji
dla i = 0...d,
∂E
∂ai =adX
j
xjd+i+ ... +a1X
j
xj1+i +a0X
j
xji−X
j
yjxji =0
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
∂E
∂ai =X
j
2adxjd+ ... +a1xj1+a0−yj∂(adxjd+ ... +a0−yj)
∂ai dla i = 0...d,
∂E
∂ai =X
j
2adxjd+ ... +a1xj1+a0−yj xji dla i = 0...d,
j j j j
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
∂E
∂ai =X
j
2adxjd+ ... +a1xj1+a0−yj∂(adxjd+ ... +a0−yj)
∂ai dla i = 0...d,
∂E
∂ai =X
j
2adxjd+ ... +a1xj1+a0−yj xji
dla i = 0...d,
∂E
∂ai =adX
j
xjd+i+ ... +a1X
j
xj1+i +a0X
j
xji−X
j
yjxji =0
Regresja liniowa / Metoda najmniejszych kwadratów
Oznaczmy:
Sxk =X
j
xjk
Syxk =X
j
yjxjk
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Regresja liniowa / Metoda najmniejszych kwadratów
Otrzymujemy ukªad równa«:
Sx2d Sx2d−1 ... Sxd+1 Sxd
Sx2d−1 Sx2d−2 ... Sxd Sxd−1
... ...
Sxd Sxd−1 ... Sx1 Sx0
·
an
an−1 ...
a0
=
Syxd
Syxd−1
Syx...0
Aproksymacja wielomianem zbyt wysokiego stopnia
dla wysokich stopni wielomianu d i zªo±liwych danych problem mo»e by¢ ¹le uwarunkowany (np. w danych jest para
(xi,yi)(xj,yj)gdzie xi jest do±¢ bliski xj, a odpowiadaj¡ce im y znacznie si¦ ró»ni¡),
wielomian traa idealnie (niemal idealnie, je»eli d < n − 1) w ka»dy z punktów ucz¡cych, ale nie oddaje tego, co si¦ dzieje poza nimi,
je»eli d ' n (ilo±¢ danych), to prostszym rozwi¡zaniem jest interpolacja wielomianowa Lagrange'a.
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Aproksymacja wielomianem zbyt wysokiego stopnia
-40 -20 0 20 40
0 2 4 6 8 10
Zadania
znajd¹ wielomiany stopni 1, 2 i 3 przybli»aj¡cy punkty (0, 0), (1, 1), (2, 3),
znajd¹ wielomiany stopni 1, 2 i 3 przybli»aj¡cy punkty (0, 0), (1, 1), (2, 3), (4, 0),
(*) znajd¹ wielomian interpolacyjny Lagrange'a stopnia 1, 2 i 3 dla danych z zada« powy»ej,
zaimplementuj uczenie perceptronu i prostej sieci skierowanej na przykªadzie XOR (lub innym nietrywialnym), zbadaj jako±¢
uczenia w obu przypadkach, Skorzystaj z walidacji prostej, krzy»owej, LOO, estymacji poprawnie klasykowanych punktów itp.
Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji Przypadek ci¡gªy
Przypadek ci¡gªy Regresja liniowa prosta
Regresja liniowa wielomian stopnia d Zadania
Zadania
zbadaj specyczno±¢ i wra»liwo±¢ (sensitivity and specicity) nauczonej sieci z zadania wy»ej,
(**) kontroluj¡c r¦cznie próg neuronu a tym samym wra»liwo±¢
testu (zawsze nie do zawsze tak), wy±wietl wykres zale»no±ci specyczno±ci od wra»liwo±ci (wykres ROC).
(**) Oblicz numerycznie pole pod wykresem (AUC) z zadania powy»ej.