• Nie Znaleziono Wyników

Wykład 03 – Regresja i regularyzacja

N/A
N/A
Protected

Academic year: 2021

Share "Wykład 03 – Regresja i regularyzacja"

Copied!
128
0
0

Pełen tekst

(1)

Regresja Trenowanie regresji Regularyzacja

Podstawy uczenia maszynowego

Wykład 03 – Regresja liniowa i regularyzacja

Jarosław Miszczak

(2)

Regresja Trenowanie regresji Regularyzacja 1 Regresja 2 Trenowanie regresji 3 Regularyzacja

(3)

Regresja Trenowanie regresji Regularyzacja Wrażenia z laboratorium? ?... ?... ?...

(4)

Regresja Trenowanie regresji Regularyzacja Wrażenia z laboratorium? ?... ?... ?...

(5)

Regresja Trenowanie regresji Regularyzacja Wrażenia z laboratorium? ?... ?... ?...

(6)

Regresja Trenowanie regresji Regularyzacja Co to jest model? ?... ?... ?...

(7)

Regresja Trenowanie regresji Regularyzacja Co to jest model? ?... ?... ?...

(8)

Regresja Trenowanie regresji Regularyzacja Co to jest model? ?... ?... ?...

(9)

Regresja Trenowanie regresji Regularyzacja

Gdzie wykorzystywane są modele? ?...

?... ?...

(10)

Regresja Trenowanie regresji Regularyzacja

Gdzie wykorzystywane są modele? ?...

?...

(11)

Regresja Trenowanie regresji Regularyzacja

Gdzie wykorzystywane są modele? ?...

?... ?...

(12)

Regresja Trenowanie regresji Regularyzacja

Co to jest model nieparametryczny? ?...

?...

(13)

Regresja Trenowanie regresji Regularyzacja

Co to jest model nieparametryczny? ?...

?...

(14)

Regresja Trenowanie regresji Regularyzacja

Co to jest model nieparametryczny? ?...

?...

(15)

Regresja Trenowanie regresji Regularyzacja

Model vs rzeczywistość

All models are wrong, but some models are useful. – George Box, brytyjski statystyk

(16)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

(17)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Najpopularniejszy model parametryczny to regresja liniowa.

Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów

(x1, y1), (x2, y2), . . . , (xm, ym).

W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.

W ogólności może to być funkcja wielu zmiennych x1, x2, . . . , xn,

tzw. regresorów (regresja wielokrotna).

(18)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Najpopularniejszy model parametryczny to regresja liniowa. Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów

(x1, y1), (x2, y2), . . . , (xm, ym).

W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.

W ogólności może to być funkcja wielu zmiennych x1, x2, . . . , xn,

tzw. regresorów (regresja wielokrotna).

(19)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Najpopularniejszy model parametryczny to regresja liniowa. Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów

(x1, y1), (x2, y2), . . . , (xm, ym).

W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.

W ogólności może to być funkcja wielu zmiennych x1, x2, . . . , xn,

tzw. regresorów (regresja wielokrotna).

(20)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Najpopularniejszy model parametryczny to regresja liniowa. Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów

(x1, y1), (x2, y2), . . . , (xm, ym).

W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.

(21)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Najpopularniejszy model parametryczny to regresja liniowa. Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów

(x1, y1), (x2, y2), . . . , (xm, ym).

W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.

(22)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Parametry

Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.

Czym jest n?

Czy n jest parametrem modelu? . . .

. . .

(23)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Parametry

Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.

Czym jest n?

Czy n jest parametrem modelu? . . .

. . .

(24)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Parametry

Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.

Czym jest n?

Czy n jest parametrem modelu?

. . . . . .

(25)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Parametry

Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.

Czym jest n?

Czy n jest parametrem modelu? . . .

. . .

(26)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Parametry

Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.

Czym jest n?

Czy n jest parametrem modelu? . . .

. . .

(27)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Parametry

Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.

Czym jest n?

Czy n jest parametrem modelu? . . .

. . .

(28)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Uczenie

Uczenie regresji polega na minimalizacji błędu średniokwadratowego przybliżenia,

X

i

(yi − ˆF (xi))2

gdzie suma przebiega po danych treningowych.

Metoda najmniejszych kwadratów

Regresja jest czasem utożsamiana z metodą minimalizacji błędu średniokwadratowego.

(29)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Uczenie

Uczenie regresji polega na minimalizacji błędu średniokwadratowego przybliżenia,

X

i

(yi − ˆF (xi))2

gdzie suma przebiega po danych treningowych. Metoda najmniejszych kwadratów

(30)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Prosta regresja liniowa

Predykcja

Dla nowego przykładu xk wyliczamy etykietę jako

(31)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Zadanie regresji

Regresja to w statystyce ustalenie zależności między zmiennymi.

y = ˆF (x ; θ) ≈ F (x ),

gdzie x to zmienne opisujące, a θ to parametry modelu.

(32)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Zadanie regresji

Regresja to w statystyce ustalenie zależności między zmiennymi.

y = ˆF (x ; θ) ≈ F (x ),

gdzie x to zmienne opisujące, a θ to parametry modelu. ...czyli to co nazywaliśmy uczeniem nadzorowanym.

(33)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa

Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Zadanie regresji

Termin regresja został wprowadzony przez Francisa Galtona. Zauważył on, że ekstremalne cechy rodziców nie przenoszą się wprost na potomków.

Galton, F. (1886). ”Regression towards mediocrity in hereditary stature”. The Journal of the Anthropological Institute of Great Britain and Ireland. 15: 246–263. doi:10.2307/2841583

(34)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Przykład

Załóżmy, że mamy dane na temat masy samochodów, ich

mocy oraz odległości jaką mogą one pokonać

W jaki sposób możemy określić odległość jaką przebędzie samochód o zadanych parametrach?

(35)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Przykład

Załóżmy, że mamy dane na temat masy samochodów, ich

mocy oraz odległości jaką mogą one pokonać

W jaki sposób możemy określić odległość jaką przebędzie samochód o zadanych parametrach?

(36)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Przykład

Załóżmy, że mamy dane na temat masy samochodów, ich

mocy oraz odległości jaką mogą one pokonać

W jaki sposób możemy określić odległość jaką przebędzie samochód o zadanych parametrach?

(37)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Najprostszy model

(≡ przybliżenie rzeczywistości na podstawie obserwacji)

jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,

yθ(x ) = θ0+ θ1x1+ θ2x2.

Współczynniki θi to parametry naszego modelu.

Wyznaczają one punkt w przestrzeni rozwiązań, w przestrzeni modeli.

(38)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Najprostszy model (≡ przybliżenie rzeczywistości na podstawie obserwacji) jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,

yθ(x ) = θ0+ θ1x1+ θ2x2.

Współczynniki θi to parametry naszego modelu.

Wyznaczają one punkt w przestrzeni rozwiązań, w przestrzeni modeli.

(39)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Najprostszy model (≡ przybliżenie rzeczywistości na podstawie obserwacji) jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,

yθ(x ) = θ0+ θ1x1+ θ2x2.

Współczynniki θi to parametry naszego modelu.

Wyznaczają one punkt w przestrzeni rozwiązań, w przestrzeni modeli.

(40)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Najprostszy model (≡ przybliżenie rzeczywistości na podstawie obserwacji) jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,

yθ(x ) = θ0+ θ1x1+ θ2x2.

Współczynniki θi to parametry naszego modelu.

Wyznaczają one punkt w przestrzeni rozwiązań, w przestrzeni modeli.

(41)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Najprostszy model (≡ przybliżenie rzeczywistości na podstawie obserwacji) jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,

yθ(x ) = θ0+ θ1x1+ θ2x2.

Współczynniki θi to parametry naszego modelu.

(42)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Liniowość vs liniowość

Liniowość modelu oznacza, że yθ jest liniową funkcją θ, czyli

model danych jest liniowy.

Liniowość regresji oznacza, że zależność między zmiennymi

(43)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Liniowość vs liniowość

Liniowość modelu oznacza, że yθ jest liniową funkcją θ, czyli

model danych jest liniowy.

Liniowość regresji oznacza, że zależność między zmiennymi

(44)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Liniowość vs liniowość

Liniowość modelu oznacza, że yθ jest liniową funkcją θ, czyli

model danych jest liniowy.

Liniowość regresji oznacza, że zależność między zmiennymi

(45)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Model regresji liniowej zakłada, że wynik procesu to liniowa kombinacja cech wejściowych,

y = θ0+ θ1x1+ · · · + θnxn.

Tutaj n określa ile cech będziemy brali pod uwagę w naszym modelu.

(46)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji

Model liniowy

Kiedy stosować regresję (I) Korelacja vs wynikanie

Regresja

Model liniowy

Jeszcze raz – model vs. rzeczywistość Models are to be used, not believed. – Henri Theil, Principles of Econometrics,

(47)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

?

Kiedy możemy stosować model regresji liniowej?

Podstawowe założenie modelu regresji

Kiedy spełnione jest założenie modelu czyli cechy (zmienne losowe) są liniowo zależne.

Zależność liniowa?

(48)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

?

Kiedy możemy stosować model regresji liniowej? Podstawowe założenie modelu regresji

Kiedy spełnione jest założenie modelu czyli cechy (zmienne losowe) są liniowo zależne.

Zależność liniowa?

(49)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

?

Kiedy możemy stosować model regresji liniowej? Podstawowe założenie modelu regresji

Kiedy spełnione jest założenie modelu czyli cechy (zmienne losowe) są liniowo zależne.

(50)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Współczynnik korelacji liniowej Pearsona cov(x , y ) p

var(x )p

var(y ).

Równość powoduje, że wektory x − x i y − y są proporcjonalne, y = αx + β,

(51)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Współczynnik korelacji liniowej Pearsona cov(x , y ) p

var(x )p

var(y ).

Równość powoduje, że wektory x − x i y − y są proporcjonalne, y = αx + β,

(52)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Przykład ze współczynnikiem korelacji liniowej Pearsona... (pearson-ex.py)

(53)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

-0.990734 -0.748961 -0.203684

-0.494036 -0.0149859 0.246179

(54)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Wartość bezwzględna współczynnika korelacji Pearsona mówi o tym czy zależność między zmiennymi jest liniowa

< 0.2 brak zależności

0.2 - 0.7 słaba lub umiarkowana zależność 0.7 - 0.9 dość silna zależność

> 0.9 bardzo silna zależność

Co znaczy silna zależność?

(55)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Wartość bezwzględna współczynnika korelacji Pearsona mówi o tym czy zależność między zmiennymi jest liniowa

< 0.2 brak zależności

0.2 - 0.7 słaba lub umiarkowana zależność 0.7 - 0.9 dość silna zależność

> 0.9 bardzo silna zależność

(56)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Zalety regresji: prostota

i idąca za tym szybkość predykcji

co prowadzi do powszechności wykorzystania w

fizyce, technice, biologii, ekonomii, socjologii, ... astronomii.

(57)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Zalety regresji: prostota

i idąca za tym szybkość predykcji

co prowadzi do powszechności wykorzystania w

fizyce, technice, biologii, ekonomii, socjologii, ... astronomii.

(58)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Zalety regresji: prostota

i idąca za tym szybkość predykcji

co prowadzi do powszechności wykorzystania w

fizyce, technice, biologii, ekonomii, socjologii, astronomii.

(59)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Zalety regresji: prostota

i idąca za tym szybkość predykcji

co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.

(60)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Zalety regresji: prostota

i idąca za tym szybkość predykcji

co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.

(61)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Zalety regresji: prostota

i idąca za tym szybkość predykcji

co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.

(62)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Zalety regresji: prostota

i idąca za tym szybkość predykcji

co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.

(63)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Zalety regresji: prostota

i idąca za tym szybkość predykcji

co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.

(64)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Zalety regresji: prostota

i idąca za tym szybkość predykcji

co prowadzi do powszechności wykorzystania w fizyce,

technice, biologii, ekonomii, socjologii,

(65)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Najstarsze zastosowanie metody regresji (a właściwie metody najmnijszych kwadratów) to astronomia.

Adrien-Marie Legendre (1805) Carl Friedrich Gauss (1809)

Stephen M. Stigler (1981). ”Gauss and the Invention of Least Squares”. Ann. Stat. 9 (3): 465–474. doi:10.1214/aos/1176345451.

(66)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Najstarsze zastosowanie metody regresji (a właściwie metody najmnijszych kwadratów) to astronomia.

Adrien-Marie Legendre (1805)

Carl Friedrich Gauss (1809)

Stephen M. Stigler (1981). ”Gauss and the Invention of Least Squares”. Ann. Stat. 9 (3): 465–474. doi:10.1214/aos/1176345451.

(67)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Najstarsze zastosowanie metody regresji (a właściwie metody najmnijszych kwadratów) to astronomia.

Adrien-Marie Legendre (1805) Carl Friedrich Gauss (1809)

Stephen M. Stigler (1981). ”Gauss and the Invention of Least Squares”. Ann. Stat. 9 (3): 465–474. doi:10.1214/aos/1176345451.

(68)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Kiedy stosować regresję (I)

Najstarsze zastosowanie metody regresji (a właściwie metody najmnijszych kwadratów) to astronomia.

(69)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Korelacja vs wynikanie

Korelacja a wynikanie

(70)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Korelacja vs wynikanie

Średnia temaperatura vs. liczba piratów

średnia temp eeratura [°C] 16.5 16.0 15.5 15.0 14.5 14.0 13.5 13.0 2000 1980 1940 1920 1880 1860 1820

(71)

Regresja

Trenowanie regresji Regularyzacja

Prosta regresja liniowa Zadanie regresji Model liniowy

Kiedy stosować regresję (I)

Korelacja vs wynikanie

Regresja

Korelacja vs wynikanie

Jordan Ellenberg, Jak się

nie pomylić (How not to be wrong), Wydawnictwo

(72)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

(73)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Równanie normalne

Zależność jaką postulujemy w regresji liniowej można zapisać prościej w postaci iloczynu skalarnego,

y = ~θ · ~x ,

(74)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Równanie normalne

Jak już wiemy, naszym wejściem są elementy (x1, y1), (x2, y2), . . . , (xm, ym),

(75)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Równanie normalne

W postaci macierzowej wyniki obserwacji zapisujemy jako       1 x11 x12 . . . x1n 1 x21 x22 . . . x2n .. . ... ... . .. ... 1 xm1 xm1 . . . xmn             θ0 θ1 .. . θn       =       y1 y2 .. . ym       .

(76)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Równanie normalne

Czyli trenowanie modelu regresji sprowadza się do rozwiązania równania macierzowego

X θ = y , dla niewiadomej θ.

(77)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Równanie normalne

Metoda 1: Pseudoinwersja macierzy

Równanie można rozwiązać przy założeniu, że macierz XXT jest

(78)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Równanie normalne

Przy tym założeniu i mnożąc obie strony równanie przez XT

dostajemy

XTX θ = XTy .

Odwracając XXT mamy

(79)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Równanie normalne

Pseudoinwersja Moore-Penrose’a macierzy

X+=XTX−1XT

Może być policzone dla macierzy nieodwracalnych.

(80)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Równanie normalne

Przykład z równaniem normalnym i pseudoinwersją... (normal-equation-ex.py)

(81)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Równanie normalne

W praktyce pseudoinwersja jest obliczna poprzez rozkład według

wartości osobliwych.

Singular Value Decomposition (SVD)

Dowolna macierz A ∈ Rm×n o elementach rzeczywistych, może być

przedstawiona w postaci

A = UΣVT,

(82)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Metoda najmniejszych kwadratów

Metoda 2: minimalizacja funkcji celu

Rozwiązanie równania regresji jest równoznaczne minimalizacji funkcji

(83)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Metoda najmniejszych kwadratów

W tym wypadku norma l2 ma postać

s X

i

ixi − yi)2.

Jej minimalizacja jest równoważna minimalizacji X

i

ixi − yi)2.

Dlatego regresję liniową utożsamia się z metodą najmniejszych

(84)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Metoda najmniejszych kwadratów

W tym wypadku norma l2 ma postać

s X

i

ixi − yi)2.

Jej minimalizacja jest równoważna minimalizacji X

i

(85)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Metoda najmniejszych kwadratów

Dlaczego l2?

Minimalizacja l2 jest równoważna maksymalizacji wiarygodności

(86)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Kiedy metoda najmniejszych kwadratów działa?

Zmienne są liniowo zależne.

X

Obserwacje są niezależne. Reszty mają rozkład normalny.

(87)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Kiedy metoda najmniejszych kwadratów działa? Zmienne są liniowo zależne.

X Obserwacje są niezależne. Reszty mają rozkład normalny.

(88)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Kiedy metoda najmniejszych kwadratów działa? Zmienne są liniowo zależne. X

Obserwacje są niezależne. Reszty mają rozkład normalny.

(89)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Kiedy metoda najmniejszych kwadratów działa? Zmienne są liniowo zależne. X

Obserwacje są niezależne.

(90)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Kiedy metoda najmniejszych kwadratów działa? Zmienne są liniowo zależne. X

Obserwacje są niezależne. Reszty mają rozkład normalny.

(91)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Reszty to różnice między przewidywaniami naszego modelu a obserwacją,

i = ˆF (xi) − yi.

Określają one jak nasz model różni się od rzeczywistości,

i = ˆF (xi) − F (xi).

Żeby regresja liniowa działała musi zachodzić warunek p(i) = 1 2πσ exp(− 2 i 2),

(92)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Reszty to różnice między przewidywaniami naszego modelu a obserwacją,

i = ˆF (xi) − yi.

Określają one jak nasz model różni się od rzeczywistości,

i = ˆF (xi) − F (xi).

Żeby regresja liniowa działała musi zachodzić warunek p(i) = 1 2πσ exp(− 2 i 2),

(93)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Reszty to różnice między przewidywaniami naszego modelu a obserwacją,

i = ˆF (xi) − yi.

Określają one jak nasz model różni się od rzeczywistości,

i = ˆF (xi) − F (xi).

(94)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Wiarygodność

Funkcja wiarygodności jest określona jako p(y |x ; θ).

Maksymalizacja wiarygodności

Maksymalizacja wiarygodności daje funkcję celu, którą wykorzystujemy do uczenia regresji.

(95)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Wiarygodność

Funkcja wiarygodności jest określona jako p(y |x ; θ). Maksymalizacja wiarygodności

Maksymalizacja wiarygodności daje funkcję celu, którą wykorzystujemy do uczenia regresji.

(96)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Funkcja celu dla metody najmniejszych kwadratów

Żeby ocenić poprawność do danych, czyli dopasowanie do naszych danych (wiedzy), wprowadzamy funkcję celu

J(θ) = 1 2 m X i =1  ˆ Fθ(xi) − yi 2 ,

(97)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów

Kiedy stosować regresję (II)

Algorytm gradientowy Regresja wielomianowa

Trenowanie regresji

Kiedy stosować regresję (II)

Funkcja celu jest funkcją parametrów modelu.

(98)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II)

Algorytm gradientowy

Regresja wielomianowa

Trenowanie regresji

Algorytm gradientowy

Metoda gradientu prostego (ang. gradient descent) to ogólna,

(99)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II)

Algorytm gradientowy

Regresja wielomianowa

Trenowanie regresji

Algorytm gradientowy

1 Wybierz (losowy) punkt startowy θ0.

2 Oblicz θ

k+1 = θk− αk∇f (xk)

3 Zakończ jeżeli spełnione jest kryterium stopu.

4 Jeżeli

f (xk+1) ­ f (xk)

(100)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II)

Algorytm gradientowy

Regresja wielomianowa

Trenowanie regresji

Algorytm gradientowy

Metoda gradientowa może być stosowane w sytuacji gdy mamy do analizy wielowymiarową przestrzeń cech.

Najczęściej wykorzystywane polityki to: batch gradient descent,

stochastic gradient descent, mini-batch gradient descent.

Ogólna metoda gradientu prostego jest zaimplementowana w module scikits-learn jako SGDRegressor.

(101)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II)

Algorytm gradientowy

Regresja wielomianowa

Trenowanie regresji

Algorytm gradientowy

Metoda gradientowa może być stosowane w sytuacji gdy mamy do analizy wielowymiarową przestrzeń cech.

Najczęściej wykorzystywane polityki to: batch gradient descent,

stochastic gradient descent, mini-batch gradient descent.

Ogólna metoda gradientu prostego jest zaimplementowana w module scikits-learn jako SGDRegressor.

(102)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II)

Algorytm gradientowy

Regresja wielomianowa

Trenowanie regresji

Algorytm gradientowy

Metoda gradientowa może być stosowane w sytuacji gdy mamy do analizy wielowymiarową przestrzeń cech.

Najczęściej wykorzystywane polityki to: batch gradient descent,

stochastic gradient descent, mini-batch gradient descent.

(103)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy

Regresja wielomianowa

Trenowanie regresji

Regresja wielomianowa

Brak zależności linowych

A jeżeli cech nie są zależne liniowo?

(104)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy

Regresja wielomianowa

Trenowanie regresji

Regresja wielomianowa

Brak zależności linowych

A jeżeli cech nie są zależne liniowo?

(105)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy

Regresja wielomianowa

Trenowanie regresji

Regresja wielomianowa

W modelu regresji wielomianowej zakładamy, że zależność jest postaci

yθ= θ0+ θ11x1+ θ12x12+ θ13x13.

Liniowość

(106)

Regresja

Trenowanie regresji

Regularyzacja

Równanie normalne

Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy

Regresja wielomianowa

Trenowanie regresji

Regresja wielomianowa

W modelu regresji wielomianowej zakładamy, że zależność jest postaci

yθ= θ0+ θ11x1+ θ12x12+ θ13x13.

Liniowość

(107)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

(108)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Cel regularyzacji

Regularyzacja to wzbogacenie modelu o dodatkową informację w

celu

uniknięcia przetrenowania

≡ zmniejszenia wariancji modelu

, uzyskania rozwiązania.

(109)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Cel regularyzacji

Regularyzacja to wzbogacenie modelu o dodatkową informację w

celu

uniknięcia przetrenowania

≡ zmniejszenia wariancji modelu

,

(110)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Cel regularyzacji

Regularyzacja to wzbogacenie modelu o dodatkową informację w

celu

uniknięcia przetrenowania ≡ zmniejszenia wariancji modelu,

(111)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Cel regularyzacji

Regularyzacja to wzbogacenie modelu o dodatkową informację w

celu

uniknięcia przetrenowania ≡ zmniejszenia wariancji modelu, uzyskania rozwiązania.

(112)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja Tichonowa

Regularyzacja Tichonowa (ang. ridge regression) została zaproponowana do znajdywania rozwiązań zagadnień źle

postawionych.

Zagadnienie poprawnie postawione (dobrze postawione) Zagadnienie fizyczne lub matematyczne opisane przez układ równań różniczkowych cząstkowych i zachowujące się dobrze w zastosowaniach praktycznych.

(113)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja Tichonowa

Regularyzacja Tichonowa (ang. ridge regression) została zaproponowana do znajdywania rozwiązań zagadnień źle

postawionych.

Zagadnienie poprawnie postawione (dobrze postawione) Zagadnienie fizyczne lub matematyczne opisane przez układ równań różniczkowych cząstkowych i zachowujące się dobrze w zastosowaniach praktycznych.

(114)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja Tichonowa

W regularyzacji Tichonowa dodajemy do funkcji celu człon

n

X

i =1

θi2≡ kθk22.

Uwaga!

Człon regularyzacyjny jest dodawany do funkcji celu tylko w trakcie trenowania modelu! Służy on do wytrenowania modelu, ale nie jest stosowany do predykcji!

(115)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja Tichonowa

W regularyzacji Tichonowa dodajemy do funkcji celu człon

n

X

i =1

θi2≡ kθk22.

Uwaga!

Człon regularyzacyjny jest dodawany do funkcji celu tylko w trakcie trenowania modelu! Służy on do wytrenowania modelu, ale nie jest stosowany do predykcji!

(116)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja Tichonowa

W regularyzacji Tichonowa dodajemy do funkcji celu człon

n

X

i =1

θi2≡ kθk22.

Uwaga!

Człon regularyzacyjny jest dodawany do funkcji celu tylko w trakcie trenowania modelu!

Służy on do wytrenowania modelu, ale nie jest stosowany do predykcji!

(117)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja Tichonowa

W regularyzacji Tichonowa dodajemy do funkcji celu człon

n

X

i =1

θi2≡ kθk22.

Uwaga!

Człon regularyzacyjny jest dodawany do funkcji celu tylko w trakcie trenowania modelu! Służy on do wytrenowania modelu, ale nie jest

(118)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja Tichonowa

Funkcja celu kontrolowane jest hiperparametrem α, J(θ) = m X i =1 (θxi − yi)2+ α n X i =1 θi2

czyli zagadnienie sprowadza się do minimalizacji min

θ



(119)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja Tichonowa

Funkcja celu kontrolowane jest hiperparametrem α, J(θ) = m X i =1 (θxi − yi)2+ α n X i =1 θi2

czyli zagadnienie sprowadza się do minimalizacji min

θ



(120)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO

Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja LASSO

W regularyzacji LASSO (ang. Least Absolute Shrinkage and

Selection Operator Regression) dodajemy człon regularyzacyjny

postaci kθk1= n X i =1 i|,

czyli zagadnienie sprowadza się do minimalizacji min θ  kθ · x − y k22+ αkθk1  .

(121)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO

Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja LASSO

W regularyzacji LASSO (ang. Least Absolute Shrinkage and

Selection Operator Regression) dodajemy człon regularyzacyjny

postaci kθk1= n X i =1 i|,

czyli zagadnienie sprowadza się do minimalizacji min θ  kθ · x − y k22+ αkθk1  .

(122)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO

Regresja Elastic Net Jak dobrać regularyzację?

Regularyzacja

Regresja LASSO

Regresja LASSO ma tendencję do eliminacji wpływu cech które mają mniejsze znaczenie.

(123)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO

Regresja Elastic Net

Jak dobrać regularyzację?

Regularyzacja

Regresja Elastic Net

Regresja Elastic Net jest połączeniem dwóch poprzednich rozwiązań. Funkcja kosztu jest w tym wypadku postaci

kθ · x − y k22+ r αkθk22+ α(1 − r )kθk1

Hiperparametr r kontroluje stosunek wpływu regresji LASSO i Tichonowa.

(124)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net

Jak dobrać regularyzację?

Regularyzacja

Jak dobrać regularyzację?

W praktyce

prawie zawsze regularyzacja pomaga,

regularyzacja Tichonowa jest dobrym punktem startowym, Elastic Net pozwala usunąć cechy o małym wpływie.

(125)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net

Jak dobrać regularyzację?

Regularyzacja

Jak dobrać regularyzację?

W praktyce

prawie zawsze regularyzacja pomaga,

regularyzacja Tichonowa jest dobrym punktem startowym, Elastic Net pozwala usunąć cechy o małym wpływie.

(126)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net

Jak dobrać regularyzację?

Regularyzacja

Jak dobrać regularyzację?

W praktyce

prawie zawsze regularyzacja pomaga,

regularyzacja Tichonowa jest dobrym punktem startowym,

(127)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net

Jak dobrać regularyzację?

Regularyzacja

Jak dobrać regularyzację?

W praktyce

prawie zawsze regularyzacja pomaga,

regularyzacja Tichonowa jest dobrym punktem startowym, Elastic Net pozwala usunąć cechy o małym wpływie.

(128)

Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net

Jak dobrać regularyzację?

Cytaty

Powiązane dokumenty

1 Dane Hubble’a o prędkości ucieczki gromad znajdujących się poza Drogą Mleczną.. Źródło: Hubble, E., A Relatiom Between Distance and Radial Velocity Among

Ile ±rednio wynosi zapadalno±¢ w miastach, w których wska¹nik szczepie« jest na poziomie dwóch jednostek.. Jaka mo»e by¢ zapadalno±¢ w mie±cie, w którym wska¹nik

Współczynnik korelacji liniowej Pearsona Aby ocenić korelację pomiędzy zmiennymi należy znać:.  poziom istotności p współczynnika r (określa, czy korelacje jest/nie

Linia regresji wyraża najlepszą predykcję zmiennej zależnej (Y) przy danych zmiennych niezależnych (X).. Zazwyczaj mamy do czynienia z odchyleniami punktów pomiarowych od

Oczywiście tak jak dla modelu liniowego w R zaimplementowana jest funkcja step, która znajduje, po podzbiorach zmiennych, model maksymalizujący AUC.

[r]

Wykresy reszt

Również ustalenie korelacji oraz asocjacji zmiennej 2 reprezentującej jakość wykonania produkcji przez robotników (y 1i ), z ich cechami osobistymi – pozwala wstępnie