Regresja Trenowanie regresji Regularyzacja
Podstawy uczenia maszynowego
Wykład 03 – Regresja liniowa i regularyzacjaJarosław Miszczak
Regresja Trenowanie regresji Regularyzacja 1 Regresja 2 Trenowanie regresji 3 Regularyzacja
Regresja Trenowanie regresji Regularyzacja Wrażenia z laboratorium? ?... ?... ?...
Regresja Trenowanie regresji Regularyzacja Wrażenia z laboratorium? ?... ?... ?...
Regresja Trenowanie regresji Regularyzacja Wrażenia z laboratorium? ?... ?... ?...
Regresja Trenowanie regresji Regularyzacja Co to jest model? ?... ?... ?...
Regresja Trenowanie regresji Regularyzacja Co to jest model? ?... ?... ?...
Regresja Trenowanie regresji Regularyzacja Co to jest model? ?... ?... ?...
Regresja Trenowanie regresji Regularyzacja
Gdzie wykorzystywane są modele? ?...
?... ?...
Regresja Trenowanie regresji Regularyzacja
Gdzie wykorzystywane są modele? ?...
?...
Regresja Trenowanie regresji Regularyzacja
Gdzie wykorzystywane są modele? ?...
?... ?...
Regresja Trenowanie regresji Regularyzacja
Co to jest model nieparametryczny? ?...
?...
Regresja Trenowanie regresji Regularyzacja
Co to jest model nieparametryczny? ?...
?...
Regresja Trenowanie regresji Regularyzacja
Co to jest model nieparametryczny? ?...
?...
Regresja Trenowanie regresji Regularyzacja
Model vs rzeczywistość
All models are wrong, but some models are useful. – George Box, brytyjski statystyk
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Najpopularniejszy model parametryczny to regresja liniowa.
Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów
(x1, y1), (x2, y2), . . . , (xm, ym).
W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.
W ogólności może to być funkcja wielu zmiennych x1, x2, . . . , xn,
tzw. regresorów (regresja wielokrotna).
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Najpopularniejszy model parametryczny to regresja liniowa. Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów
(x1, y1), (x2, y2), . . . , (xm, ym).
W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.
W ogólności może to być funkcja wielu zmiennych x1, x2, . . . , xn,
tzw. regresorów (regresja wielokrotna).
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Najpopularniejszy model parametryczny to regresja liniowa. Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów
(x1, y1), (x2, y2), . . . , (xm, ym).
W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.
W ogólności może to być funkcja wielu zmiennych x1, x2, . . . , xn,
tzw. regresorów (regresja wielokrotna).
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Najpopularniejszy model parametryczny to regresja liniowa. Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów
(x1, y1), (x2, y2), . . . , (xm, ym).
W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Najpopularniejszy model parametryczny to regresja liniowa. Jak zwykle w uczeniu nadzorowanym wejściem jest zbiór przykładów
(x1, y1), (x2, y2), . . . , (xm, ym).
W tym wypadku zakładamy, że związane są one zależnością yi = ˆF (xi) = a0+ a1xi.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Parametry
Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.
Czym jest n?
Czy n jest parametrem modelu? . . .
. . .
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Parametry
Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.
Czym jest n?
Czy n jest parametrem modelu? . . .
. . .
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Parametry
Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.
Czym jest n?
Czy n jest parametrem modelu?
. . . . . .
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Parametry
Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.
Czym jest n?
Czy n jest parametrem modelu? . . .
. . .
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Parametry
Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.
Czym jest n?
Czy n jest parametrem modelu? . . .
. . .
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Parametry
Współczynniki kombinacji liniowej a0, a1 są parametrami modelu.
Czym jest n?
Czy n jest parametrem modelu? . . .
. . .
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Uczenie
Uczenie regresji polega na minimalizacji błędu średniokwadratowego przybliżenia,
X
i
(yi − ˆF (xi))2
gdzie suma przebiega po danych treningowych.
Metoda najmniejszych kwadratów
Regresja jest czasem utożsamiana z metodą minimalizacji błędu średniokwadratowego.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Uczenie
Uczenie regresji polega na minimalizacji błędu średniokwadratowego przybliżenia,
X
i
(yi − ˆF (xi))2
gdzie suma przebiega po danych treningowych. Metoda najmniejszych kwadratów
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Prosta regresja liniowa
Predykcja
Dla nowego przykładu xk wyliczamy etykietę jako
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Zadanie regresji
Regresja to w statystyce ustalenie zależności między zmiennymi.
y = ˆF (x ; θ) ≈ F (x ),
gdzie x to zmienne opisujące, a θ to parametry modelu.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Zadanie regresji
Regresja to w statystyce ustalenie zależności między zmiennymi.
y = ˆF (x ; θ) ≈ F (x ),
gdzie x to zmienne opisujące, a θ to parametry modelu. ...czyli to co nazywaliśmy uczeniem nadzorowanym.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa
Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Zadanie regresji
Termin regresja został wprowadzony przez Francisa Galtona. Zauważył on, że ekstremalne cechy rodziców nie przenoszą się wprost na potomków.
Galton, F. (1886). ”Regression towards mediocrity in hereditary stature”. The Journal of the Anthropological Institute of Great Britain and Ireland. 15: 246–263. doi:10.2307/2841583
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Przykład
Załóżmy, że mamy dane na temat masy samochodów, ich
mocy oraz odległości jaką mogą one pokonać
W jaki sposób możemy określić odległość jaką przebędzie samochód o zadanych parametrach?
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Przykład
Załóżmy, że mamy dane na temat masy samochodów, ich
mocy oraz odległości jaką mogą one pokonać
W jaki sposób możemy określić odległość jaką przebędzie samochód o zadanych parametrach?
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Przykład
Załóżmy, że mamy dane na temat masy samochodów, ich
mocy oraz odległości jaką mogą one pokonać
W jaki sposób możemy określić odległość jaką przebędzie samochód o zadanych parametrach?
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Najprostszy model
(≡ przybliżenie rzeczywistości na podstawie obserwacji)
jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,
yθ(x ) = θ0+ θ1x1+ θ2x2.
Współczynniki θi to parametry naszego modelu.
Wyznaczają one punkt w przestrzeni rozwiązań, w przestrzeni modeli.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Najprostszy model (≡ przybliżenie rzeczywistości na podstawie obserwacji) jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,
yθ(x ) = θ0+ θ1x1+ θ2x2.
Współczynniki θi to parametry naszego modelu.
Wyznaczają one punkt w przestrzeni rozwiązań, w przestrzeni modeli.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Najprostszy model (≡ przybliżenie rzeczywistości na podstawie obserwacji) jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,
yθ(x ) = θ0+ θ1x1+ θ2x2.
Współczynniki θi to parametry naszego modelu.
Wyznaczają one punkt w przestrzeni rozwiązań, w przestrzeni modeli.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Najprostszy model (≡ przybliżenie rzeczywistości na podstawie obserwacji) jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,
yθ(x ) = θ0+ θ1x1+ θ2x2.
Współczynniki θi to parametry naszego modelu.
Wyznaczają one punkt w przestrzeni rozwiązań, w przestrzeni modeli.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Najprostszy model (≡ przybliżenie rzeczywistości na podstawie obserwacji) jako możemy zaproponować to taki w którym odległość jest zadana funkcją liniową cech pojazdów,
yθ(x ) = θ0+ θ1x1+ θ2x2.
Współczynniki θi to parametry naszego modelu.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Liniowość vs liniowość
Liniowość modelu oznacza, że yθ jest liniową funkcją θ, czyli
model danych jest liniowy.
Liniowość regresji oznacza, że zależność między zmiennymi
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Liniowość vs liniowość
Liniowość modelu oznacza, że yθ jest liniową funkcją θ, czyli
model danych jest liniowy.
Liniowość regresji oznacza, że zależność między zmiennymi
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Liniowość vs liniowość
Liniowość modelu oznacza, że yθ jest liniową funkcją θ, czyli
model danych jest liniowy.
Liniowość regresji oznacza, że zależność między zmiennymi
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Model regresji liniowej zakłada, że wynik procesu to liniowa kombinacja cech wejściowych,
y = θ0+ θ1x1+ · · · + θnxn.
Tutaj n określa ile cech będziemy brali pod uwagę w naszym modelu.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji
Model liniowy
Kiedy stosować regresję (I) Korelacja vs wynikanie
Regresja
Model liniowy
Jeszcze raz – model vs. rzeczywistość Models are to be used, not believed. – Henri Theil, Principles of Econometrics,
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
?
Kiedy możemy stosować model regresji liniowej?
Podstawowe założenie modelu regresji
Kiedy spełnione jest założenie modelu czyli cechy (zmienne losowe) są liniowo zależne.
Zależność liniowa?
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
?
Kiedy możemy stosować model regresji liniowej? Podstawowe założenie modelu regresji
Kiedy spełnione jest założenie modelu czyli cechy (zmienne losowe) są liniowo zależne.
Zależność liniowa?
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
?
Kiedy możemy stosować model regresji liniowej? Podstawowe założenie modelu regresji
Kiedy spełnione jest założenie modelu czyli cechy (zmienne losowe) są liniowo zależne.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Współczynnik korelacji liniowej Pearsona cov(x , y ) p
var(x )p
var(y ).
Równość powoduje, że wektory x − x i y − y są proporcjonalne, y = αx + β,
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Współczynnik korelacji liniowej Pearsona cov(x , y ) p
var(x )p
var(y ).
Równość powoduje, że wektory x − x i y − y są proporcjonalne, y = αx + β,
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Przykład ze współczynnikiem korelacji liniowej Pearsona... (pearson-ex.py)
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
-0.990734 -0.748961 -0.203684
-0.494036 -0.0149859 0.246179
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Wartość bezwzględna współczynnika korelacji Pearsona mówi o tym czy zależność między zmiennymi jest liniowa
< 0.2 brak zależności
0.2 - 0.7 słaba lub umiarkowana zależność 0.7 - 0.9 dość silna zależność
> 0.9 bardzo silna zależność
Co znaczy silna zależność?
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Wartość bezwzględna współczynnika korelacji Pearsona mówi o tym czy zależność między zmiennymi jest liniowa
< 0.2 brak zależności
0.2 - 0.7 słaba lub umiarkowana zależność 0.7 - 0.9 dość silna zależność
> 0.9 bardzo silna zależność
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Zalety regresji: prostota
i idąca za tym szybkość predykcji
co prowadzi do powszechności wykorzystania w
fizyce, technice, biologii, ekonomii, socjologii, ... astronomii.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Zalety regresji: prostota
i idąca za tym szybkość predykcji
co prowadzi do powszechności wykorzystania w
fizyce, technice, biologii, ekonomii, socjologii, ... astronomii.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Zalety regresji: prostota
i idąca za tym szybkość predykcji
co prowadzi do powszechności wykorzystania w
fizyce, technice, biologii, ekonomii, socjologii, astronomii.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Zalety regresji: prostota
i idąca za tym szybkość predykcji
co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Zalety regresji: prostota
i idąca za tym szybkość predykcji
co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Zalety regresji: prostota
i idąca za tym szybkość predykcji
co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Zalety regresji: prostota
i idąca za tym szybkość predykcji
co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Zalety regresji: prostota
i idąca za tym szybkość predykcji
co prowadzi do powszechności wykorzystania w fizyce, technice, biologii, ekonomii, socjologii, astronomii.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Zalety regresji: prostota
i idąca za tym szybkość predykcji
co prowadzi do powszechności wykorzystania w fizyce,
technice, biologii, ekonomii, socjologii,
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Najstarsze zastosowanie metody regresji (a właściwie metody najmnijszych kwadratów) to astronomia.
Adrien-Marie Legendre (1805) Carl Friedrich Gauss (1809)
Stephen M. Stigler (1981). ”Gauss and the Invention of Least Squares”. Ann. Stat. 9 (3): 465–474. doi:10.1214/aos/1176345451.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Najstarsze zastosowanie metody regresji (a właściwie metody najmnijszych kwadratów) to astronomia.
Adrien-Marie Legendre (1805)
Carl Friedrich Gauss (1809)
Stephen M. Stigler (1981). ”Gauss and the Invention of Least Squares”. Ann. Stat. 9 (3): 465–474. doi:10.1214/aos/1176345451.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Najstarsze zastosowanie metody regresji (a właściwie metody najmnijszych kwadratów) to astronomia.
Adrien-Marie Legendre (1805) Carl Friedrich Gauss (1809)
Stephen M. Stigler (1981). ”Gauss and the Invention of Least Squares”. Ann. Stat. 9 (3): 465–474. doi:10.1214/aos/1176345451.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Kiedy stosować regresję (I)
Najstarsze zastosowanie metody regresji (a właściwie metody najmnijszych kwadratów) to astronomia.
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Korelacja vs wynikanie
Korelacja a wynikanie
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Korelacja vs wynikanie
Średnia temaperatura vs. liczba piratów
średnia temp eeratura [°C] 16.5 16.0 15.5 15.0 14.5 14.0 13.5 13.0 2000 1980 1940 1920 1880 1860 1820
Regresja
Trenowanie regresji Regularyzacja
Prosta regresja liniowa Zadanie regresji Model liniowy
Kiedy stosować regresję (I)
Korelacja vs wynikanie
Regresja
Korelacja vs wynikanie
Jordan Ellenberg, Jak się
nie pomylić (How not to be wrong), Wydawnictwo
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Równanie normalne
Zależność jaką postulujemy w regresji liniowej można zapisać prościej w postaci iloczynu skalarnego,
y = ~θ · ~x ,
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Równanie normalne
Jak już wiemy, naszym wejściem są elementy (x1, y1), (x2, y2), . . . , (xm, ym),
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Równanie normalne
W postaci macierzowej wyniki obserwacji zapisujemy jako 1 x11 x12 . . . x1n 1 x21 x22 . . . x2n .. . ... ... . .. ... 1 xm1 xm1 . . . xmn θ0 θ1 .. . θn = y1 y2 .. . ym .
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Równanie normalne
Czyli trenowanie modelu regresji sprowadza się do rozwiązania równania macierzowego
X θ = y , dla niewiadomej θ.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Równanie normalne
Metoda 1: Pseudoinwersja macierzy
Równanie można rozwiązać przy założeniu, że macierz XXT jest
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Równanie normalne
Przy tym założeniu i mnożąc obie strony równanie przez XT
dostajemy
XTX θ = XTy .
Odwracając XXT mamy
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Równanie normalne
Pseudoinwersja Moore-Penrose’a macierzy
X+=XTX−1XT
Może być policzone dla macierzy nieodwracalnych.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Równanie normalne
Przykład z równaniem normalnym i pseudoinwersją... (normal-equation-ex.py)
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Równanie normalne
W praktyce pseudoinwersja jest obliczna poprzez rozkład według
wartości osobliwych.
Singular Value Decomposition (SVD)
Dowolna macierz A ∈ Rm×n o elementach rzeczywistych, może być
przedstawiona w postaci
A = UΣVT,
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Metoda najmniejszych kwadratów
Metoda 2: minimalizacja funkcji celu
Rozwiązanie równania regresji jest równoznaczne minimalizacji funkcji
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Metoda najmniejszych kwadratów
W tym wypadku norma l2 ma postać
s X
i
(θixi − yi)2.
Jej minimalizacja jest równoważna minimalizacji X
i
(θixi − yi)2.
Dlatego regresję liniową utożsamia się z metodą najmniejszych
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Metoda najmniejszych kwadratów
W tym wypadku norma l2 ma postać
s X
i
(θixi − yi)2.
Jej minimalizacja jest równoważna minimalizacji X
i
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II) Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Metoda najmniejszych kwadratów
Dlaczego l2?
Minimalizacja l2 jest równoważna maksymalizacji wiarygodności
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Kiedy metoda najmniejszych kwadratów działa?
Zmienne są liniowo zależne.
X
Obserwacje są niezależne. Reszty mają rozkład normalny.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Kiedy metoda najmniejszych kwadratów działa? Zmienne są liniowo zależne.
X Obserwacje są niezależne. Reszty mają rozkład normalny.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Kiedy metoda najmniejszych kwadratów działa? Zmienne są liniowo zależne. X
Obserwacje są niezależne. Reszty mają rozkład normalny.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Kiedy metoda najmniejszych kwadratów działa? Zmienne są liniowo zależne. X
Obserwacje są niezależne.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Kiedy metoda najmniejszych kwadratów działa? Zmienne są liniowo zależne. X
Obserwacje są niezależne. Reszty mają rozkład normalny.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Reszty to różnice między przewidywaniami naszego modelu a obserwacją,
i = ˆF (xi) − yi.
Określają one jak nasz model różni się od rzeczywistości,
i = ˆF (xi) − F (xi).
Żeby regresja liniowa działała musi zachodzić warunek p(i) = 1 √ 2πσ exp(− 2 i 2σ2),
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Reszty to różnice między przewidywaniami naszego modelu a obserwacją,
i = ˆF (xi) − yi.
Określają one jak nasz model różni się od rzeczywistości,
i = ˆF (xi) − F (xi).
Żeby regresja liniowa działała musi zachodzić warunek p(i) = 1 √ 2πσ exp(− 2 i 2σ2),
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Reszty to różnice między przewidywaniami naszego modelu a obserwacją,
i = ˆF (xi) − yi.
Określają one jak nasz model różni się od rzeczywistości,
i = ˆF (xi) − F (xi).
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Wiarygodność
Funkcja wiarygodności jest określona jako p(y |x ; θ).
Maksymalizacja wiarygodności
Maksymalizacja wiarygodności daje funkcję celu, którą wykorzystujemy do uczenia regresji.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Wiarygodność
Funkcja wiarygodności jest określona jako p(y |x ; θ). Maksymalizacja wiarygodności
Maksymalizacja wiarygodności daje funkcję celu, którą wykorzystujemy do uczenia regresji.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Funkcja celu dla metody najmniejszych kwadratów
Żeby ocenić poprawność do danych, czyli dopasowanie do naszych danych (wiedzy), wprowadzamy funkcję celu
J(θ) = 1 2 m X i =1 ˆ Fθ(xi) − yi 2 ,
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów
Kiedy stosować regresję (II)
Algorytm gradientowy Regresja wielomianowa
Trenowanie regresji
Kiedy stosować regresję (II)
Funkcja celu jest funkcją parametrów modelu.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II)
Algorytm gradientowy
Regresja wielomianowa
Trenowanie regresji
Algorytm gradientowy
Metoda gradientu prostego (ang. gradient descent) to ogólna,
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II)
Algorytm gradientowy
Regresja wielomianowa
Trenowanie regresji
Algorytm gradientowy
1 Wybierz (losowy) punkt startowy θ0.
2 Oblicz θ
k+1 = θk− αk∇f (xk)
3 Zakończ jeżeli spełnione jest kryterium stopu.
4 Jeżeli
f (xk+1) f (xk)
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II)
Algorytm gradientowy
Regresja wielomianowa
Trenowanie regresji
Algorytm gradientowy
Metoda gradientowa może być stosowane w sytuacji gdy mamy do analizy wielowymiarową przestrzeń cech.
Najczęściej wykorzystywane polityki to: batch gradient descent,
stochastic gradient descent, mini-batch gradient descent.
Ogólna metoda gradientu prostego jest zaimplementowana w module scikits-learn jako SGDRegressor.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II)
Algorytm gradientowy
Regresja wielomianowa
Trenowanie regresji
Algorytm gradientowy
Metoda gradientowa może być stosowane w sytuacji gdy mamy do analizy wielowymiarową przestrzeń cech.
Najczęściej wykorzystywane polityki to: batch gradient descent,
stochastic gradient descent, mini-batch gradient descent.
Ogólna metoda gradientu prostego jest zaimplementowana w module scikits-learn jako SGDRegressor.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II)
Algorytm gradientowy
Regresja wielomianowa
Trenowanie regresji
Algorytm gradientowy
Metoda gradientowa może być stosowane w sytuacji gdy mamy do analizy wielowymiarową przestrzeń cech.
Najczęściej wykorzystywane polityki to: batch gradient descent,
stochastic gradient descent, mini-batch gradient descent.
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy
Regresja wielomianowa
Trenowanie regresji
Regresja wielomianowa
Brak zależności linowych
A jeżeli cech nie są zależne liniowo?
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy
Regresja wielomianowa
Trenowanie regresji
Regresja wielomianowa
Brak zależności linowych
A jeżeli cech nie są zależne liniowo?
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy
Regresja wielomianowa
Trenowanie regresji
Regresja wielomianowa
W modelu regresji wielomianowej zakładamy, że zależność jest postaci
yθ= θ0+ θ11x1+ θ12x12+ θ13x13.
Liniowość
Regresja
Trenowanie regresji
Regularyzacja
Równanie normalne
Metoda najmniejszych kwadratów Kiedy stosować regresję (II) Algorytm gradientowy
Regresja wielomianowa
Trenowanie regresji
Regresja wielomianowa
W modelu regresji wielomianowej zakładamy, że zależność jest postaci
yθ= θ0+ θ11x1+ θ12x12+ θ13x13.
Liniowość
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Cel regularyzacji
Regularyzacja to wzbogacenie modelu o dodatkową informację w
celu
uniknięcia przetrenowania
≡ zmniejszenia wariancji modelu
, uzyskania rozwiązania.
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Cel regularyzacji
Regularyzacja to wzbogacenie modelu o dodatkową informację w
celu
uniknięcia przetrenowania
≡ zmniejszenia wariancji modelu
,
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Cel regularyzacji
Regularyzacja to wzbogacenie modelu o dodatkową informację w
celu
uniknięcia przetrenowania ≡ zmniejszenia wariancji modelu,
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Cel regularyzacji
Regularyzacja to wzbogacenie modelu o dodatkową informację w
celu
uniknięcia przetrenowania ≡ zmniejszenia wariancji modelu, uzyskania rozwiązania.
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja Tichonowa
Regularyzacja Tichonowa (ang. ridge regression) została zaproponowana do znajdywania rozwiązań zagadnień źle
postawionych.
Zagadnienie poprawnie postawione (dobrze postawione) Zagadnienie fizyczne lub matematyczne opisane przez układ równań różniczkowych cząstkowych i zachowujące się dobrze w zastosowaniach praktycznych.
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja Tichonowa
Regularyzacja Tichonowa (ang. ridge regression) została zaproponowana do znajdywania rozwiązań zagadnień źle
postawionych.
Zagadnienie poprawnie postawione (dobrze postawione) Zagadnienie fizyczne lub matematyczne opisane przez układ równań różniczkowych cząstkowych i zachowujące się dobrze w zastosowaniach praktycznych.
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja Tichonowa
W regularyzacji Tichonowa dodajemy do funkcji celu człon
n
X
i =1
θi2≡ kθk22.
Uwaga!
Człon regularyzacyjny jest dodawany do funkcji celu tylko w trakcie trenowania modelu! Służy on do wytrenowania modelu, ale nie jest stosowany do predykcji!
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja Tichonowa
W regularyzacji Tichonowa dodajemy do funkcji celu człon
n
X
i =1
θi2≡ kθk22.
Uwaga!
Człon regularyzacyjny jest dodawany do funkcji celu tylko w trakcie trenowania modelu! Służy on do wytrenowania modelu, ale nie jest stosowany do predykcji!
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja Tichonowa
W regularyzacji Tichonowa dodajemy do funkcji celu człon
n
X
i =1
θi2≡ kθk22.
Uwaga!
Człon regularyzacyjny jest dodawany do funkcji celu tylko w trakcie trenowania modelu!
Służy on do wytrenowania modelu, ale nie jest stosowany do predykcji!
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja Tichonowa
W regularyzacji Tichonowa dodajemy do funkcji celu człon
n
X
i =1
θi2≡ kθk22.
Uwaga!
Człon regularyzacyjny jest dodawany do funkcji celu tylko w trakcie trenowania modelu! Służy on do wytrenowania modelu, ale nie jest
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja Tichonowa
Funkcja celu kontrolowane jest hiperparametrem α, J(θ) = m X i =1 (θxi − yi)2+ α n X i =1 θi2
czyli zagadnienie sprowadza się do minimalizacji min
θ
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja Tichonowa
Funkcja celu kontrolowane jest hiperparametrem α, J(θ) = m X i =1 (θxi − yi)2+ α n X i =1 θi2
czyli zagadnienie sprowadza się do minimalizacji min
θ
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO
Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja LASSO
W regularyzacji LASSO (ang. Least Absolute Shrinkage and
Selection Operator Regression) dodajemy człon regularyzacyjny
postaci kθk1= n X i =1 |θi|,
czyli zagadnienie sprowadza się do minimalizacji min θ kθ · x − y k22+ αkθk1 .
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO
Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja LASSO
W regularyzacji LASSO (ang. Least Absolute Shrinkage and
Selection Operator Regression) dodajemy człon regularyzacyjny
postaci kθk1= n X i =1 |θi|,
czyli zagadnienie sprowadza się do minimalizacji min θ kθ · x − y k22+ αkθk1 .
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO
Regresja Elastic Net Jak dobrać regularyzację?
Regularyzacja
Regresja LASSO
Regresja LASSO ma tendencję do eliminacji wpływu cech które mają mniejsze znaczenie.
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO
Regresja Elastic Net
Jak dobrać regularyzację?
Regularyzacja
Regresja Elastic Net
Regresja Elastic Net jest połączeniem dwóch poprzednich rozwiązań. Funkcja kosztu jest w tym wypadku postaci
kθ · x − y k22+ r αkθk22+ α(1 − r )kθk1
Hiperparametr r kontroluje stosunek wpływu regresji LASSO i Tichonowa.
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net
Jak dobrać regularyzację?
Regularyzacja
Jak dobrać regularyzację?
W praktyce
prawie zawsze regularyzacja pomaga,
regularyzacja Tichonowa jest dobrym punktem startowym, Elastic Net pozwala usunąć cechy o małym wpływie.
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net
Jak dobrać regularyzację?
Regularyzacja
Jak dobrać regularyzację?
W praktyce
prawie zawsze regularyzacja pomaga,
regularyzacja Tichonowa jest dobrym punktem startowym, Elastic Net pozwala usunąć cechy o małym wpływie.
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net
Jak dobrać regularyzację?
Regularyzacja
Jak dobrać regularyzację?
W praktyce
prawie zawsze regularyzacja pomaga,
regularyzacja Tichonowa jest dobrym punktem startowym,
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net
Jak dobrać regularyzację?
Regularyzacja
Jak dobrać regularyzację?
W praktyce
prawie zawsze regularyzacja pomaga,
regularyzacja Tichonowa jest dobrym punktem startowym, Elastic Net pozwala usunąć cechy o małym wpływie.
Regresja Trenowanie regresji Regularyzacja Cel regularyzacji Regresja Tichonowa Regresja LASSO Regresja Elastic Net
Jak dobrać regularyzację?