Konferencja Statystyka Matematyczna Wisła 2013 Wykorzystanie metod losowych podprzestrzeni do predykcji i selekcji zmiennych

29  Download (0)

Pełen tekst

(1)

Konferencja Statystyka Matematyczna Wisła 2013

Wykorzystanie metod losowych podprzestrzeni do predykcji i selekcji zmiennych

Paweł Teisseyre

Instytut Podstaw Informatyki, Polska Akademia Nauk

(2)

Plan prezentacji

1 Dwustopniowe procedury wyboru modelu regresji.

Metoda Zhenga i Loha (p < n).

Metoda Losowych Podprzestrzeni (RSM) i jej warianty (p ­ n).

2 Metody wyboru końcowego modelu.

3 Przykłady symulacyjne.

(3)

Model regresji liniowej.

Model regresji liniowej

Obiekty opisane parą (x, y ), gdzie:

y ∈ R - zmienna odpowiedzi, x ∈ Rp - wektor atrybutów.

W modelu liniowym zakładamy, że:

y = x0β + ε, gdzie:

β = (β1, . . . , βp) ∈ Rp jest wektorem parametrów, ε błędem losowym o rozkładzie N(0, σ2).

Uwaga:

Dopuszczamy sytuację: p ­ n.

(4)

Wybór modelu

Minimalny model prawdziwy: t := {k : βk 6= 0}, t.j.

dla regresji liniowej: minimalny model taki, że E(y |x) = x0tβt, gdzie: dolny indeks t oznacza wybór współrzędnych odpowiadających modelowi t.

Cel:Identyfikacja zbioru t na podstawie niezależnych obserwacji (xi, yi), i = 1, . . . , n.

(5)

Dwustopniowe procedury wyboru modelu.

Procedury dwustopniowe wyboru modelu

1 Zmienne {1, . . . , p} są porządkowane wg pewnej miary istotności:

Wi1 ­ Wi2 ­ . . . ­ Wip.

2 Wybieramy model z zagnieżdżonej rodziny:

{{0}, {i1}, {i1, i2}, . . . , {i1, . . . , ip}}

Uwaga:

W drugim kroku sprawdzamy p + 1 modeli zamiast 2p (przy pełnym przeszukiwaniu).

(6)

Procedura Zhenga i Loha dla modelu liniowego

1 Dopasuj model liniowy zawierający wszystkie zmienne 1, . . . , p.

2 Zmienne {1, . . . , p} są porządkowane wg kwadratu statystyki T : Ti21 ­ Ti2

2 ­ . . . ­ Ti2

p.

3 Wybieramy model z zagnieżdżonej rodziny:

{{0}, {i1}, {i1, i2}, . . . , {i1, . . . , ip}}.

Uwagi:

Użycie w drugim kroku kryterium GIC (Generalized Information Citerion) prowadzi dozgodnej procedury selekcji (przy odpowiednich założeniach).

Proceduranie może być zastosowana gdy p ­ n.

(7)

Dwustopniowe procedury wyboru modelu.

Procedura Zhenga i Loha dla modelu liniowego

Kryterium GIC

GIC(m) := −2l ( ˆβm) + an|m| → min,

gdzie: l (·)- funkcja log-wiarogodności, an- kara, |m|- liczba zmiennych w modelu m.

Założenia:

1 pn= o(an)

2 an= o(bn), bn= minm6⊇t||Xβ − HX(m)Xβ||2, gdzie: HX(m) macierz rzutu na podprzestrzeń rozpiętą przez kolumny z m.

3 bn= O(n)

Twierdzenie (Mielniczuk, Teisseyre, 2012)

Przy założeniach 1-3 dwustopniowa procedura Zhenga i Loha jest zgodna.

(8)

Metoda RSM dla klasyfikacji

Metoda zaproponowana w pracy:

T. K. Ho, The Random Subspace Method for Constructing Decision Forests, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20, NO. 8, 1998.

Budowa komitetu klasyfikatorów na bazie losowo wybranych podzbiorów atrybutów.

Efektywne narzędzie w przypadku dużego wymiaru przestrzeni cech.

Modyfikacje: M. Draminski, J. Koronacki et. al. Monte carlo feature selection for supervised classification, BIOINFORMATICS, 24(1):110-117, 2008.

(9)

Metoda Losowych Podprzestrzeni (RSM).

Metoda RSM dla modelu liniowego

Algorytm RSM

1 Wejście: Dane (Y, X), liczba symulacji B, wielkość podprzestrzeni |m| < min(p, n).

2 Powtarzaj procedurę dla k = 1, . . . , B z Ci ,0= 0 dla każdego i . Wylosuj zbiór zmiennych m= {i1, . . . , i|m| } z przestrzeni cech.

Dopasuj model y ∼ xm i oblicz wagi wn(i , m) ­ 0 dla zmiennych i ∈ m. Ustaw wn(i , m) = 0 jeżeli i /∈ m.

Ci ,k= Ci ,k−1+ I {i ∈ m}.

3 Dla wszystkich zmiennych i oblicz końcowe wagi:

Wi= 1 Ci ,B

X

m:i ∈m

wn(i , m).

4 Posortuj zmienne wg końcowych wag Wi: Wi1 ­ Wi2. . . ­ Wip.

5 Wyjście: uporządkowana lista zmiennych {i1, . . . , ip}.

(10)

Metoda RSM dla modelu liniowego

p attributes

...

m << p attributes

m << p attributes

m << p attributes

B random subsets model 1

model 2

model B

...

weights of attributes

weights of attributes

weights of attributes

...

final scores of attributes

(11)

Metoda Losowych Podprzestrzeni (RSM).

Metoda RSM dla modelu liniowego

Algorytm WRSM

1 Wejście: Dane (Y, X), liczba symulacji B, wielkość podprzestrzeni |m| < min(p, n).

2 Dla każdej zmiennej i dopasuj model jednokrotny y ∼ xi i oblicz wagi początkowe wn(0)(i ) ­ 0.

3 Dla każdej zmiennej i oblicz πi = wn(0)(i )/Pp

l =1wn(0)(l ).

4 Wykonaj procedurę RSM, w ten sposób że prawdopodobieństwo wylosowania zmiennej i do losowej podprzestrzeni jest równe πi.

5 Wyjście: uporządkowana lista zmiennych {i1, . . . , ip}.

(12)

Metoda RSM- wybór wag w

n

(i , m)

Wybór wag:

wn(i , m) := Ti ,m2 ,

gdzie Ti ,m oznacza statystykę T dla zmiennej i , obliczoną na podstawie dowolnego podmodelu m.

Zauważmy, że:

Ti ,m2

n − |m| = (Rm2 − Rm\{i }2 )

| {z }

istotność zm. i

· 1

1 − Rm2

| {z }

dopasowanie modelu m

,

gdzie Rm2 jest współczynnikiem determinacji dla modelu m.

(13)

Metoda Losowych Podprzestrzeni (RSM).

Asymptotyczna postać wag końcowych W

i

Można pokazać (przy B/p → ∞) asymptotyczną równoważność:

Wi 1

|Mi ,|m|| X

m∈Mi ,|m|

MSEP(m \ {i }) − MSEP(m) MSEP(m)

P

−→ 0.

P miara na rodzinie modeli.

|Mi ,|m|| to liczba modeli o liczności |m| które zawierają zmienną i .

Błąd predykcji dla modelu m:

MSEP(m) := lim

n→∞n−1E[||Y− Xmβˆm||2|X], gdzie Y= Xβ + ε, ε niezależna kopia ε.

(14)

Procedura wyboru modelu:

1 Dane (Y, X) dzielone na część treningową: (Yt, Xt) oraz walidacyjną (Yv, Xv).

2 Procedura RSM jest realizowana na części treningowej. Zmienne są porządkowane wg. wag końcowych:

Wi1 ­ . . . , ­ Wi

p.

3 Z zagnieżdżonej listy modeli

{{0}, {i1}, {i1, i2}, . . . , {i1, . . . , imin(n,p)−1}} wybieramy model mopt dla którego błąd na próbie walidacyjnej n−1||Yv− Xvβˆmopt||2 jest najmniejszy.

(tutaj: ˆβmopt- estymator ML oparty na modelu mopt, obliczony na próbie (Yt, Xt)).

(15)

Metoda RSM + kryteria informacyjne.

Kryteria Informacyjne

Wada procedury opisanej powyżej: konieczność wydzielenia próby walidacyjnej (duży problem w sytuacji małej liczby obserwacji).

Procedura oparta na GIC:z zagnieżdżonej rodziny {{0}, {i1}, {i1, i2}, . . . , {i1, . . . , imin(n,p)−1}} wyznaczonej na podstawie metody RSM wybieramy model które minimalizuje GIC.

Problem: kryteria informacyjne działają poprawnie gdy liczba atrybutów jest mniejszego rzędu niż liczba obserwacji.

(16)

Kryteria Informacyjne- problem

0 20 40 60 80 100

−2000200400600

Model 2

Variables

BIC

BIC FIT PENALTY

Rysunek :Problem: BIC działa niepoprawnie gdy liczba zmiennych jest duża w porównaniu z n (model prawdziwy t zawiera 3 zmienne).

(17)

Metoda RSM + kryteria informacyjne.

Kryteria Informacyjne- problem

0 20 40 60 80 100

−2000200400600

Model 3

Variables

BIC

BIC FIT PENALTY

Rysunek :Problem: BIC działa niepoprawnie gdy liczba zmiennych jest duża w porównaniu z n (model prawdziwy t zawiera 10 zmiennych).

(18)

Wyniki symulacji- metody

Metoda lasso.

Metoda RSM + BIC.

Metoda WRSM + BIC.

Metoda Univariate + BIC.

Metoda CAR + BIC [CAR = corr (y , P−1/2Xstd), P- macierz korelacji dla atrybutów].

Punkt odcięcia:

Sztywny punkt odcięcia: (n − 1)/2.

(19)

Metoda RSM + kryteria informacyjne.

Modele symulacyjne

Wybrane 10 modeli z prac dotyczących selekcji zmiennych (liczba zmiennych istotnych |t| ∈ [1, 50]).

Wiersze macierzy X generowane z rozkładu normalnego o średniej 0 i macierzy kowariancji Σi ,j := ρ|i −j|, ρ = 0.5.

Liczba obserwacji n = 200, liczba atrybutów p = 1000.

Liczba symulacji: L = 500.

(20)

Wyniki symulacji- miary oceny

(CS): poprawny wybór modelu t: I [ˆt = t], (TPR): |ˆt ∩ t|/|t|,

(FDR): |ˆt \ t|/|ˆt|,

(PE): Błąd predykcji na niezależnym zbiorze testowym.

(CO): poprawne uporządkowanie w pierwszym kroku procedury dwustopniowej. P[maxi 6∈tTi ,f2 < mini ∈tTi ,f2 ].

(21)

Metoda RSM + kryteria informacyjne.

Wyniki symulacji- błąd predykcji

Model |t| lasso rsmBIC wrsmBIC uniBIC carBIC Min 1 1 100.05 112.43 118.58 109.49 109.61 lasso 2 3 109.72 100.26 111.86 100.06 100.07 UNI 3 10 115.24 101.05 101.15 101.79 101.54 RSM 4 5 114.81 100.30 107.29 100.43 100.41 RSM 5 15 110.32 110.44 102.00 114.69 112.25 WRSM 6 15 111.12 117.45 101.42 124.62 124.00 WRSM 7 20 116.66 117.49 103.94 136.58 132.97 WRSM 8 8 110.45 101.07 111.87 100.40 100.37 CAR 9 50 127.89 123.00 100.88 149.91 139.59 WRSM 10 50 125.48 145.53 102.07 208.14 192.58 WRSM

Tabela :100*PE/min(PE) (średnie z 500 symulacji).

(22)

Wyniki symulacji- TPR

Model |t| lasso rsmBIC wrsmBIC uniBIC carBIC Max. TPR

1 1 0.000 0.367 0.433 0.467 0.467 UNI, CAR

2 3 1.000 1.000 1.000 1.000 1.000 wszystkie 3 10 1.000 1.000 1.000 1.000 1.000 wszystkie 4 5 1.000 1.000 1.000 1.000 1.000 wszystkie

5 15 0.996 0.838 0.973 0.816 0.829 lasso

6 15 0.998 0.769 0.940 0.731 0.733 lasso

7 20 1.000 0.982 0.995 0.963 0.967 lasso

8 8 0.854 0.817 0.888 0.829 0.833 WRSM

9 50 0.995 0.922 0.979 0.845 0.870 lasso

10 50 1.000 0.960 0.991 0.893 0.908 lasso Tabela :Wskaźniki TPR (średnie z 500 symulacji).

(23)

Metoda RSM + kryteria informacyjne.

Wyniki symulacji- FDR

Model |t| lasso rsmBIC wrsmBIC uniBIC carBIC Min. FDR

1 1 1.000 0.954 0.980 0.926 0.931 UNI

2 3 0.124 0.021 0.608 0.033 0.025 RSM

3 10 0.410 0.290 0.074 0.384 0.358 WRSM

4 5 0.329 0.069 0.454 0.123 0.109 RSM

5 15 0.216 0.179 0.199 0.203 0.220 RSM

6 15 0.297 0.260 0.156 0.231 0.191 WRSM

7 20 0.271 0.217 0.018 0.312 0.260 WRSM

8 8 0.111 0.074 0.467 0.050 0.059 WRSM

9 50 0.419 0.208 0.100 0.233 0.198 WRSM

10 50 0.427 0.327 0.097 0.302 0.275 WRSM

Tabela :Wskaźniki FDR (średnie z 500 symulacji).

(24)

Przykład: dane rzeczywiste

RSM+BIC CAR+BIC UNI+BIC LASSO+CV

0.140.150.160.170.180.19

QSAR dataset (n=274,p=839)

Prediction Error

RSM: 11.3 CAR: 10.9 UNI: 3.8 LASSO: 34.7

Rysunek :Model zależności temperatury topnienia substancji od deskryptorów cząstek (liczność zbioru treningowego: 182, liczność zbioru testowego: 92).

(25)

Metoda RSM + kryteria informacyjne.

Pakiet R regRSM (P. Teisseyre, R. A. Kłopotek)

3 wersje: sekwencyjna, równoległa (MPI), równoległa (POSIX).

Algorytmy: RSM, WRSM, SRSM

wybór modelu w oparciu o BIC lub próbę walidaycjną Metody:

predict, update,

print, summary, plot, ImpPlot roc.

(26)

Czas obliczeń dla p = 1000, n = 100, |m| = 50.

5 6 7 8 9 10 11

050100150200250300

Elapsed time

log(B)

Elapsed time [sec]

1 slave 2 slaves 4 slaves 8 slaves 16 slaves 32 slaves

Rysunek :Maszyna:2x Intel(R) Xeon(R) CPU E5-2630L @ 2.00GHz (6 cores, 12 threads) - 24 logical cores in total, 64 GB RAM

(27)

Wnioski

RSM- wnioski

WRSM zazwyczaj działa lepiej niż konkurencyjne metody (biorąc pod uwagę PE).

FDR jest zazwyczaj mniejsze dla RSM/WRSM niż dla metody lasso oraz metody univariate.

Stosując metodę RSM/WRSM otrzymujemy mniej złożone modele (jest to potwierdzone przez eksperymenty na zbiorach rzeczywistych).

Zastosowanie wersji ważonej (WRSM) pozwala zmniejszyć liczbę symulacji i w ten sposób zredukować koszt obliczeniowy.

(28)

Literatura

1 J. Mielniczuk, P. Teisseyre, Using Random Subspace Method for Prediction and Variable Importance Assessment in Linear Regression, Computational Statistics and Data Analysis, Volume: 71, 725-742, 2014.

2 T. K. Ho, The Random Subspace Method for constructing decision forests, IEEE Trans. Pattern Anal. Machine Intell., Vol. 20, No. 8, pages 832–844, 1998.

3 L. Breiman, Random forests, Machine Learning, Vol. 45, No. 1, pages 5–32, 2001.

4 C. Lai, M. J. T. Reinders, L. Wessels, Random Subspace Method for multivariate feature selection, Pattern Recognition Letters, Vol. 27, pages 1067-1076, 2006.

5 M. Draminski et. al., Monte carlo feature selection for supervised classification, BIOINFORMATICS, 24(1):110-117, 2008.

(29)

Dziękuje za uwagę!

Dziękuje za uwagę!

Obraz

Updating...

Cytaty

Powiązane tematy :