• Nie Znaleziono Wyników

2013-12-03 MajaCzoków,JarosławPiersa Wstępdosiecineuronowych,wykład09,Walidacjajakościuczenia.Metodystatystyczne.

N/A
N/A
Protected

Academic year: 2021

Share "2013-12-03 MajaCzoków,JarosławPiersa Wstępdosiecineuronowych,wykład09,Walidacjajakościuczenia.Metodystatystyczne."

Copied!
69
0
0

Pełen tekst

(1)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Maja Czoków, Jarosław Piersa

Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika

2013-12-03

Projekt pn. „Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych”

realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki

(2)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

1 Generalizacja Przykład Generalizacja Przeuczenie sieci

2 Walidacja jakości uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Błędy klasyfikacji Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

4 Przypadek ciągły Przypadek ciągły

Regresja liniowa — prosta

(3)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

1 Generalizacja Przykład Generalizacja Przeuczenie sieci

2 Walidacja jakości uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Błędy klasyfikacji Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

4 Przypadek ciągły Przypadek ciągły

Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

(4)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Przykład

Rozważmy problem XOR;

-1.5 -1 -0.5 0 0.5 1 1.5

-1.5 -1 -0.5 0 0.5 1 1.5

(Poprawnie) nauczona sieć daje poprawną odpowiedź na wszystkich 4 przykładach, Tablica haszująca da ten sam efekt (bez zaawansowanej teorii i przy mniejszym koszcie pamięciowym), Ale co się stanie gdy zapytamy się o klasyfikację punktu (1.3, −0.5)?

(5)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Przykład

Co się stanie gdy zapytamy się o klasyfikację punktu (1.3, −0.5)?

Tablica haszująca: ObjectNotFoundException,

ArrayIndexOutOfBoundsException, Segmentation fault itp.

Sieć neuronowa: zwróci odpowiedź dla każdego z punktów na płaszczyźnie,

(6)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Wnioski

nie chcemy w zbiorze treningowym każdej możliwej wartości jaka może paść,

ale chcemy „reprezentatywną próbkę” przestrzeni o jaką sieć będzie pytana podczas normalnego działania,

(7)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Co to jest „reprezentatywna próbka”?

Co autor może mieć na myśli:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(8)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Co to jest „reprezentatywna próbka”?

Co sieć może z tego zrozumieć:

-0.5 0 0.5 1 1.5 2

(9)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Generalizacja

Generalizacja jest zdolnością sieci do porawnej klasyfikacji danych, na których sieć nie była uczona.

(10)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Generalizacja

Dane uczące:

-0.5 0 0.5 1 1.5 2

(11)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Generalizacja

Sieć niedouczona:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(12)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Generalizacja

Sieć dobrze nauczona:

-0.5 0 0.5 1 1.5 2

(13)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Generalizacja

Sieć przeuczona:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(14)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Przeuczenie sieci

przeuczenie sieci jest sytuacją gdy sieć uczy się przykładów „na pamięć”,

zdarza się to gdy sieć ma zbyt wiele punktów swobody (za dużo neuronów do nauczenia w porównaniu do skomplikowania problemu i ilości danych),

przeuczona sieć traci możliwości generalizacji.

(15)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Przeuczenie sieci

Dane uczące:

-1 -0.5 0 0.5 1 1.5 2

-1 -0.5 0 0.5 1 1.5 2

(16)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Przeuczenie sieci

Wewnętrzna reprezentacja

-0.5 0 0.5 1 1.5 2

(17)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Wrażliwość sieci

E — przykład uczący

sensitivity :=

 d

dE1Out(E ), ..., d

dEnOut(E )



(18)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przykład Generalizacja Przeuczenie sieci

Wrażliwość sieci

Numerycznie:

E — przykład uczący, h > 0

E¯i := [E1, ..., Ei −1, Ei+ h, Ei +1, ..., EN] Przybliż dla wszystkich wejść (j = 1..N):

d dEj

Out(E ) ' Out( ¯Ej) − Out(E ) h

Uśrednij po przykładach uczących

(19)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

1 Generalizacja Przykład Generalizacja Przeuczenie sieci

2 Walidacja jakości uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Błędy klasyfikacji Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

4 Przypadek ciągły Przypadek ciągły

Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

(20)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Przypomnienie ze statystyki

Dana jest próbka losowa x1, ..., xn wartości, losowanych niezależnie z rozkładu X .

Średnia z próby definiowana jest jako

¯ x =

Pn i =1xi

n

Średnia jest (mocno) zgodnym estymatorem wartości oczekiwanej rozkładu X (o ile EX istnieje!).

(21)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Przypomnienie ze statystyki

Estymator wariancji (o ile rozkład X posiada wariancję!):

σˆ2= 1 n − 1

n

X

i =1

(xi − ¯x )2

Estymator odchylenia standardowego:

ˆ σ =

v u u t

1 n − 1

n

X

i =1

(xi − ¯x )2

(22)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Przypomnienie ze statystyki

Medianą próbki losowej xi1, ..., xin będzie tą próbką po posortowaniu.

Mediana jest zdefiniowana jako:

jeżeli n jest nieparzyste xi(n+1/2) (element na samym środku posortowanej listy),

jeżeli n jest parzyste xin/2+x2in/2+1 (średnia dwóch „środkowych”

elementów)

(23)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Zagadnienie

Dane niech będzie zbiór punktów uczących wraz z poprawnymi odpowiedziami,

Skonstruowana i nauczona została sieć neuronowa,

Chcemy ocenić jakość klasyfikacji i generalizacji uzyskanej sieci.

(24)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Proste rozwiązanie

Po nauczeniu sieci sprawdzamy ile z przykładów jest klasyfikowanych poprawnie,

Obliczamy ilość wszystkich przykładów, Przypisujemy:

jakość uczenia := ilość przykładów sklasyfikowanych poprawnie ilość wszystkich przykładów

(25)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Proste rozwiązanie

Rozwiązanie jest aż za proste!

nie mówi nic o zachowaniu się sieci na danych, których nie widziała,

preferuje uczenie się danych na pamięć, ignoruje generalizację, zaletą jest to, że maksymalnie wykorzystuje zestaw danych do uczenia.

(26)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Walidacja prosta

dane uczące są losowo dzielone na dwa rozłączne zbiory:

próbkę uczącą U, próbkę testową T ,

sieć jest uczona za pomocą próbki uczącej,

jakość sieci jest badana tylko za pomocą próbki testowej jakość := ilość przykładów T sklasyfikowanych poprawnie

ilość wszystkich przykładów w T

(27)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Walidacja prosta

(28)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Walidacja prosta

Uwagi i niebezpieczeństwa:

większy wpływ na wynik może mieć |U∪T ||U| , niż zaimplementowany algorytm,

rozsądnym minimum dla |U| jest około 14 całego zbioru, z drugiej strony |U| nie powinno być większe niż 109 całego zbioru,

podając wynik, zawsze podajemy proporcje w jakich podzielono zbiór,

mamy informację o możliwości generalizacji, ale algorytm uczenia sieci korzystał tylko z ułamka dostępnej wiedzy,

(29)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

k-krotna walidacja krzyżowa

Ang. k-fold cross-validation

dane uczące są losowo dzielone na k rozłącznych i równolicznych zbiorów: T1, ..., Tk,

dla i = 1...k powtarzamy

uczymy sieć na zbiorze uczącym T1∪ ...Ti −1∪ Ti +1∪ Tk, testujemy tak nauczoną sieć na danych Ti (na tych danych sieć nie była uczona),

zapamiętujemy rezultat jako ri podajemy wszystkie rezultaty ri,

lub przynajmniej ich średnią, medianę, minimum, maksimum i odchylenie standardowe,

(30)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

k-krotna walidacja krzyżowa

(31)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

k-razy dwukrotna walidacja krzyżowa

Ang. k-times 2-fold cross-validation odmiana walidacji krzyżowej, dla i = 1...k powtarzamy:

wykonujemy 2-krotną walidację, za każdym razem losujemy zbiory treningowy i testowy od nowa,

zapamiętujemy wyniki ri1 ri2 (po dwa na każdą iterację), zwracamy statystyki uzyskanych wyników,

(32)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

k-razy dwukrotna walidacja krzyżowa

(33)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Leave One Out

odmiana walidacji krzyżowej, w której k = ilość elementów w T , dla i = 1...n powtarzamy:

uczymy sieć na zbiorze uczącym T \Ti, testujemy sieć na pozostałym przykładzie Ti,

zapamiętujemy wynik ri (będzie on albo +1, albo 0), obliczamy średnią i odchylenie standardowe wyników,

można stosować w przypadku małej ilości danych w zbiorze T .

(34)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypomnienie ze statystyki Problem

Modele walidacji danych

Leave One Out

(35)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

1 Generalizacja Przykład Generalizacja Przeuczenie sieci

2 Walidacja jakości uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Błędy klasyfikacji Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

4 Przypadek ciągły Przypadek ciągły

Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

(36)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

Błędy i błędy

jeżeli przyjmowana klasyfikacja jest binarna to możemy się pomylić na dwa sposoby:

przypadek, który powinien być prawdziwy, oceniamy jako fałszywy, (ang. false negative error )

przypadek fałszywy oceniamy jako prawdziwy (ang. false positive),

który błąd jest gorszy?

(37)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

Przykład

egzamin z przedmiotu (np. WSN) powinien testować wiedzę zdających

jeżeli zdający zna materiał i dostał ocenę pozytywną, to egzaminatorpoprawnieocenił wiedzę,

jeżeli zdający nie zna materiału i nie zaliczył, to ocena jest poprawna,

jeżeli zdający umiał, ale mimo tego nie zaliczył, to egzaminator popełnił błąd (false negative),

jeżeli zdający nie umiał a zaliczył, to egzaminator popełnił (dramatyczny) błąd (false positive).

ponieważ zawsze przysługuje egzamin poprawkowy, to ostatnia opcja jest najgorsza...

(38)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

Błędy pierwszego i drugiego rodzaju

klasyfikacja pozytywna klasyfikacja negatywna faktyczny stan poprawna odpowiedź false negative

jest pozytywny true positive (błąd II-go rodzaju) faktyczny stan false positive poprawna odpowiedź jest negatywny (błąd I-go rodzaju) true negative

(39)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

Bardziej życiowe przykłady

filtr antyspamowy,

kontrola bezpieczeństwa na lotnisku, diagnoza lekarska,

diagnoza usterek technicznych, kontrola jakości,

(40)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

Wrażliwość i specyficzność

wrażliwość testu (ang. sensitivity) jest odsetkiem poprawnych odpowiedzi wśród poprawnych przypadków, test o wysokiej wrażliwości popełnia mało błędów II-go rodzaju

TPR = true positives positives

specyficzność testu (ang. specificity) jest odsetkiem

poprawnych odpowiedzi wśród negatywnych przypadków, test o wysokiej specyficzności popełnia mało błędów I-go rodzaju

TNR = true negatives negatives

(41)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

Wrażliwość i specyficzność

stuprocentowa wrażliwość — tak na każdy przypadek, stuprocentowa specyficzność — nie na każdy przypadek („bardzo asertywny test”),

wysokie oba wskaźniki są cechą dobrych testów (co oznacza:

trudne do osiągnięcia),

znając cel (np. unikanie fałszywych alarmów), szukamy najlepszego kompromisu kontrolując ważniejszą statystykę,

(42)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

Reciever Operation Characteristic

Funkcja wrażliwości testu w zależności od progu przyjmowania odpowiedzi:

(43)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

1 Generalizacja Przykład Generalizacja Przeuczenie sieci

2 Walidacja jakości uczenia Przypomnienie ze statystyki Problem

Modele walidacji danych

3 Błędy klasyfikacji Eksperyment myślowy

Błędy pierwszego i drugiego rodzaju

4 Przypadek ciągły Przypadek ciągły

Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

(44)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Co robić jeżeli wyniki są ciągłe?

błędy mierzymy jako odległość uzyskanego wyniku od oczekiwanego:

ERR =X

t

|E (t) − O(t)|

lub kwadrat odległości

ERR =X

t

(E (t) − O(t))2

(45)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Co robić jeżeli wyniki są ciągłe?

w przypadku wielowymiarowym dodatkowo suma po współrzędnych

ERR =X

t

X

i

(Ei(t) − Oi(t))2

im mniejszy błąd tym lepsza klasyfikacja

(46)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Co robić jeżeli wyniki są ciągłe?

im więcej elementów w zbiorze, tym większy błąd nawet dla dobrej sieci,

zatem uśrednimy wyniki:

ERR = 1 n

n

X

i =1

(E (ti) − O(ti))2

n — ilość przykładów w zbiorze

(47)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

danych mamy n punktów na R2: (x1, y1), ..., (xn, yn)

chcemy znaleźć równanie prostej y = ax + b „przybliżającej” te punkty

idea: znajdziemy równanie prostej f , która minimalizuje odległość od tych punktów

n

X

i =1

(f (xi) − yi)2

(48)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

danych mamy n punktów na R2: (x1, y1), ..., (xn, yn)

chcemy znaleźć równanie prostej y = ax + b „przybliżającej” te punkty

idea: znajdziemy równanie prostej f , która minimalizuje odległość od tych punktów

n

X

i =1

(f (xi) − yi)2

(49)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

-15 -10 -5 0 5

0 2 4 6 8 10

-15 -10 -5 0 5

0 2 4 6 8 10

(50)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Rozważania na tablicy

(51)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Da tych, którzy wolą uczyć się ze slajdów

postać prostej f (x ) = ax + b błąd E (a, b) =P

i(f (xi) − yi)2=P

i(axi+ b − yi)2

błąd chcemy minimalizować więc liczymy pochodne po a i po b

∂E

∂a =X

i

∂(axi+ b − yi)2

∂a

∂E

∂b =X

i

∂(axi+ b − yi)2

∂b

(52)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Da tych, którzy wolą uczyć się ze slajdów postać prostej f (x ) = ax + b

błąd E (a, b) =P

i(f (xi) − yi)2=P

i(axi+ b − yi)2

błąd chcemy minimalizować więc liczymy pochodne po a i po b

∂E

∂a =X

i

∂(axi+ b − yi)2

∂a

∂E

∂b =X

i

∂(axi+ b − yi)2

∂b

(53)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Da tych, którzy wolą uczyć się ze slajdów postać prostej f (x ) = ax + b

błąd E (a, b) =P

i(f (xi) − yi)2=P

i(axi+ b − yi)2

błąd chcemy minimalizować więc liczymy pochodne po a i po b

∂E

∂a =X

i

∂(axi+ b − yi)2

∂a

∂E

∂b =X

i

∂(axi+ b − yi)2

∂b

(54)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa

∂E

∂a =X

i

∂(axi + b − yi)2

∂a =X

i

2(axi + b − yi)∂(axi + b − yi)

∂a =

X

i

2(axi+ b − yi)xi = 2(aX

i

xi2+ bX

i

xi −X

i

xiyi)

Podobnie

∂E

∂b =X

i

∂(axi+ b − yi)2

∂b =X

i

2(axi + b − yi)∂(axi + b − yi)

∂b =

X

i

2(axi + b − yi)1 = 2(aX

i

xi + bX

i

1 −X

i

yi)

(55)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa

∂E

∂a =X

i

∂(axi + b − yi)2

∂a =X

i

2(axi + b − yi)∂(axi + b − yi)

∂a =

X

i

2(axi+ b − yi)xi = 2(aX

i

xi2+ bX

i

xi −X

i

xiyi) Podobnie

∂E

∂b =X

i

∂(axi+ b − yi)2

∂b =X

i

2(axi + b − yi)∂(axi + b − yi)

∂b =

X

i

2(axi + b − yi)1 = 2(aX

i

xi + bX

i

1 −X

i

yi)

(56)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Oznaczmy S1=P

i1 = n Sx =P

ixi Sy =P

iyi Sxy =P

ixiyi

Sxx =P

ixi2

(57)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Nasze równania teraz wyglądają następująco:

2(aSxx+ bSx − Sxy) = 0 2(aSx + bS1− Sy) = 0

aSxx+ bSx = Sxy

aSx+ bS1 = Sy

a = n·Sn·Sxy−SxSy

xx−Sx2

b = Sxxn·SSy−SxySx

xx−Sx2

(58)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Nasze równania teraz wyglądają następująco:

2(aSxx+ bSx − Sxy) = 0 2(aSx + bS1− Sy) = 0

aSxx+ bSx = Sxy

aSx+ bS1 = Sy

a = n·Sn·Sxy−SxSy

xx−Sx2

b = Sxxn·SSy−SxySx

xx−Sx2

(59)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Nasze równania teraz wyglądają następująco:

2(aSxx+ bSx − Sxy) = 0 2(aSx + bS1− Sy) = 0

aSxx+ bSx = Sxy

aSx+ bS1 = Sy

a = n·Sn·Sxy−SxSy

xx−Sx2

b = Sxxn·SSy−SxySx

xx−Sx2

(60)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Jeżeli f (x ) = adxd+ ad −1xd −1+ a1x + a0 błąd E (a, b) =P

i(f (xi) − yi)2

ponownie liczymy pochodne po każdym ze współczynników

∂E

∂ai =X

j

∂(adxjd+ ... + a1xj1+ a0− yj)2

∂ai dla i = 0...d ,

(61)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Jeżeli f (x ) = adxd+ ad −1xd −1+ a1x + a0 błąd E (a, b) =P

i(f (xi) − yi)2

ponownie liczymy pochodne po każdym ze współczynników

∂E

∂ai =X

j

∂(adxjd+ ... + a1xj1+ a0− yj)2

∂ai dla i = 0...d ,

(62)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Aproksymacja wielomianem st. 2

-5 0 5 10

(63)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

∂E

∂ai =X

j



adxjd+ ... + a1xj1+ a0− yj∂(adxjd+ ... + a0− yj)

∂ai

!

dla i = 0...d ,

∂E

∂ai =X

j



adxjd+ ... + a1xj1+ a0− yj xji

dla i = 0...d ,

∂E

∂ai = adX

j

xjd +i + ... + a1

X

j

xj1+i + a0

X

j

xji −X

j

yjxji = 0

(64)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

∂E

∂ai =X

j



adxjd+ ... + a1xj1+ a0− yj∂(adxjd+ ... + a0− yj)

∂ai

!

dla i = 0...d ,

∂E

∂ai

=X

j



adxjd+ ... + a1xj1+ a0− yj xji

dla i = 0...d ,

∂E

∂ai = adX

j

xjd +i + ... + a1

X

j

xj1+i + a0

X

j

xji −X

j

yjxji = 0

(65)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

∂E

∂ai =X

j



adxjd+ ... + a1xj1+ a0− yj∂(adxjd+ ... + a0− yj)

∂ai

!

dla i = 0...d ,

∂E

∂ai

=X

j



adxjd+ ... + a1xj1+ a0− yj xji

dla i = 0...d ,

∂E

∂ai = adX

j

xjd +i + ... + a1

X

j

xj1+i + a0

X

j

xji −X

j

yjxji = 0

(66)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Oznaczmy:

Sxk =X

j

xjk

Syxk =X

j

yjxjk

S1 =X

j

1

(67)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Regresja liniowa / Metoda najmniejszych kwadratów

Otrzymujemy układ równań:

Sx2d Sx2d −1 ... Sxd +1 Sxd Sx2d −1 Sx2d −2 ... Sxd Sxd −1

... ...

Sxd Sxd −1 ... Sx1 Sx0

·

an

an−1

... a0

=

Syxd

Syxd −1

... Syx0

(68)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Aproksymacja wielomianem zbyt wysokiego stopnia

dla wysokich stopni wielomianu d i złośliwych danych problem może być źle uwarunkowany (np. w danych jest para

(xi, yi)(xj, yj) gdzie xi jest dość bliski xj, a odpowiadające im y znacznie się różnią),

wielomian trafia idealnie (niemal idealnie, jeżeli d < n − 1) w każdy z punktów uczących, ale nie oddaje tego, co się dzieje poza nimi,

jeżeli d ' n (ilość danych), to prostszym rozwiązaniem jest interpolacja wielomianowa Lagrange’a.

(69)

Generalizacja Walidacja jakości uczenia Błędy klasyfikacji Przypadek ciągły

Przypadek ciągły Regresja liniowa — prosta

Regresja liniowa — wielomian stopnia d

Aproksymacja wielomianem zbyt wysokiego stopnia

-40 -20 0 20 40

0 2 4 6 8 10

Cytaty

Powiązane dokumenty

Przedstaw sposób kodowania problemu grafowego (dwupodział, kolorowanie, cykl Hammiltona) na konfigurację sieci neuronowej. Zaimplementuj sieć neuronową do rozwiązywania

2 Modelowanie funkcji logicznych za pomocą perceptronu Przypomnienie algebry boolowskiej?. Perceptron jako bramka logiczna

(*) Zapoznaj się i zaimplementuj algorytm szybkiej transformaty Fouriera (fast Fourier transform, FFT) w

2 Algorytmy konstrukcyjne Algorytm wieżowy Algorytm piramidalny Algorytm kafelkowy Algorytm upstart.. 3 Podsumowanie wykładu Zadania

Generalizacja jest zdolno±ci¡ sieci do porawnej klasykacji danych, na których sie¢ nie byªa uczona... Generalizacja Walidacja jako±ci uczenia Bª¦dy klasykacji

Sieci rekurencyjne Autoasocjator Hopfielda Zadania Przeliczenia.. Wstęp do sieci neuronowych, wykład 10

Przypomnienie algebry boolowskiej Perceptron jako bramka logiczna Uwagi

2 Algorytmy konstrukcyjne Algorytm wieżowy Algorytm piramidalny Algorytm kafelkowy Algorytm upstart.. 3 Podsumowanie wykładu Zadania