Konferencja Statystyka Matematyczna Wisła 2013
Wykorzystanie metod losowych podprzestrzeni do predykcji i selekcji zmiennych
Paweł Teisseyre
Instytut Podstaw Informatyki, Polska Akademia Nauk
Plan prezentacji
1 Dwustopniowe procedury wyboru modelu regresji.
Metoda Zhenga i Loha (p < n).
Metoda Losowych Podprzestrzeni (RSM) i jej warianty (p n).
2 Metody wyboru końcowego modelu.
3 Przykłady symulacyjne.
Model regresji liniowej.
Model regresji liniowej
Obiekty opisane parą (x, y ), gdzie:
y ∈ R - zmienna odpowiedzi, x ∈ Rp - wektor atrybutów.
W modelu liniowym zakładamy, że:
y = x0β + ε, gdzie:
β = (β1, . . . , βp) ∈ Rp jest wektorem parametrów, ε błędem losowym o rozkładzie N(0, σ2).
Uwaga:
Dopuszczamy sytuację: p n.
Wybór modelu
Minimalny model prawdziwy: t := {k : βk 6= 0}, t.j.
dla regresji liniowej: minimalny model taki, że E(y |x) = x0tβt, gdzie: dolny indeks t oznacza wybór współrzędnych odpowiadających modelowi t.
Cel:Identyfikacja zbioru t na podstawie niezależnych obserwacji (xi, yi), i = 1, . . . , n.
Dwustopniowe procedury wyboru modelu.
Procedury dwustopniowe wyboru modelu
1 Zmienne {1, . . . , p} są porządkowane wg pewnej miary istotności:
Wi1 Wi2 . . . Wip.
2 Wybieramy model z zagnieżdżonej rodziny:
{{0}, {i1}, {i1, i2}, . . . , {i1, . . . , ip}}
Uwaga:
W drugim kroku sprawdzamy p + 1 modeli zamiast 2p (przy pełnym przeszukiwaniu).
Procedura Zhenga i Loha dla modelu liniowego
1 Dopasuj model liniowy zawierający wszystkie zmienne 1, . . . , p.
2 Zmienne {1, . . . , p} są porządkowane wg kwadratu statystyki T : Ti21 Ti2
2 . . . Ti2
p.
3 Wybieramy model z zagnieżdżonej rodziny:
{{0}, {i1}, {i1, i2}, . . . , {i1, . . . , ip}}.
Uwagi:
Użycie w drugim kroku kryterium GIC (Generalized Information Citerion) prowadzi dozgodnej procedury selekcji (przy odpowiednich założeniach).
Proceduranie może być zastosowana gdy p n.
Dwustopniowe procedury wyboru modelu.
Procedura Zhenga i Loha dla modelu liniowego
Kryterium GIC
GIC(m) := −2l ( ˆβm) + an|m| → min,
gdzie: l (·)- funkcja log-wiarogodności, an- kara, |m|- liczba zmiennych w modelu m.
Założenia:
1 pn= o(an)
2 an= o(bn), bn= minm6⊇t||Xβ − HX(m)Xβ||2, gdzie: HX(m) macierz rzutu na podprzestrzeń rozpiętą przez kolumny z m.
3 bn= O(n)
Twierdzenie (Mielniczuk, Teisseyre, 2012)
Przy założeniach 1-3 dwustopniowa procedura Zhenga i Loha jest zgodna.
Metoda RSM dla klasyfikacji
Metoda zaproponowana w pracy:
T. K. Ho, The Random Subspace Method for Constructing Decision Forests, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20, NO. 8, 1998.
Budowa komitetu klasyfikatorów na bazie losowo wybranych podzbiorów atrybutów.
Efektywne narzędzie w przypadku dużego wymiaru przestrzeni cech.
Modyfikacje: M. Draminski, J. Koronacki et. al. Monte carlo feature selection for supervised classification, BIOINFORMATICS, 24(1):110-117, 2008.
Metoda Losowych Podprzestrzeni (RSM).
Metoda RSM dla modelu liniowego
Algorytm RSM
1 Wejście: Dane (Y, X), liczba symulacji B, wielkość podprzestrzeni |m| < min(p, n).
2 Powtarzaj procedurę dla k = 1, . . . , B z Ci ,0= 0 dla każdego i . Wylosuj zbiór zmiennych m∗= {i1∗, . . . , i|m|∗ } z przestrzeni cech.
Dopasuj model y ∼ xm∗ i oblicz wagi wn(i , m∗) 0 dla zmiennych i ∈ m∗. Ustaw wn(i , m∗) = 0 jeżeli i /∈ m∗.
Ci ,k= Ci ,k−1+ I {i ∈ m∗}.
3 Dla wszystkich zmiennych i oblicz końcowe wagi:
Wi∗= 1 Ci ,B
X
m∗:i ∈m∗
wn(i , m∗).
4 Posortuj zmienne wg końcowych wag Wi∗: Wi∗1 Wi∗2. . . Wi∗p.
5 Wyjście: uporządkowana lista zmiennych {i1, . . . , ip}.
Metoda RSM dla modelu liniowego
p attributes
...
m << p attributes
m << p attributes
m << p attributes
B random subsets model 1
model 2
model B
...
weights of attributes
weights of attributes
weights of attributes
...
final scores of attributes
Metoda Losowych Podprzestrzeni (RSM).
Metoda RSM dla modelu liniowego
Algorytm WRSM
1 Wejście: Dane (Y, X), liczba symulacji B, wielkość podprzestrzeni |m| < min(p, n).
2 Dla każdej zmiennej i dopasuj model jednokrotny y ∼ xi i oblicz wagi początkowe wn(0)(i ) 0.
3 Dla każdej zmiennej i oblicz πi = wn(0)(i )/Pp
l =1wn(0)(l ).
4 Wykonaj procedurę RSM, w ten sposób że prawdopodobieństwo wylosowania zmiennej i do losowej podprzestrzeni jest równe πi.
5 Wyjście: uporządkowana lista zmiennych {i1, . . . , ip}.
Metoda RSM- wybór wag w
n(i , m)
Wybór wag:
wn(i , m) := Ti ,m2 ,
gdzie Ti ,m oznacza statystykę T dla zmiennej i , obliczoną na podstawie dowolnego podmodelu m.
Zauważmy, że:
Ti ,m2
n − |m| = (Rm2 − Rm\{i }2 )
| {z }
istotność zm. i
· 1
1 − Rm2
| {z }
dopasowanie modelu m
,
gdzie Rm2 jest współczynnikiem determinacji dla modelu m.
Metoda Losowych Podprzestrzeni (RSM).
Asymptotyczna postać wag końcowych W
i∗Można pokazać (przy B/p → ∞) asymptotyczną równoważność:
Wi∗− 1
|Mi ,|m|| X
m∈Mi ,|m|
MSEP(m \ {i }) − MSEP(m) MSEP(m)
P∗
−→ 0.
P∗ miara na rodzinie modeli.
|Mi ,|m|| to liczba modeli o liczności |m| które zawierają zmienną i .
Błąd predykcji dla modelu m:
MSEP(m) := lim
n→∞n−1E[||Y∗− Xmβˆm||2|X], gdzie Y∗= Xβ + ε∗, ε∗ niezależna kopia ε.
Procedura wyboru modelu:
1 Dane (Y, X) dzielone na część treningową: (Yt, Xt) oraz walidacyjną (Yv, Xv).
2 Procedura RSM jest realizowana na części treningowej. Zmienne są porządkowane wg. wag końcowych:
Wi∗1 . . . , Wi∗
p.
3 Z zagnieżdżonej listy modeli
{{0}, {i1}, {i1, i2}, . . . , {i1, . . . , imin(n,p)−1}} wybieramy model mopt dla którego błąd na próbie walidacyjnej n−1||Yv− Xvβˆmopt||2 jest najmniejszy.
(tutaj: ˆβmopt- estymator ML oparty na modelu mopt, obliczony na próbie (Yt, Xt)).
Metoda RSM + kryteria informacyjne.
Kryteria Informacyjne
Wada procedury opisanej powyżej: konieczność wydzielenia próby walidacyjnej (duży problem w sytuacji małej liczby obserwacji).
Procedura oparta na GIC:z zagnieżdżonej rodziny {{0}, {i1}, {i1, i2}, . . . , {i1, . . . , imin(n,p)−1}} wyznaczonej na podstawie metody RSM wybieramy model które minimalizuje GIC.
Problem: kryteria informacyjne działają poprawnie gdy liczba atrybutów jest mniejszego rzędu niż liczba obserwacji.
Kryteria Informacyjne- problem
0 20 40 60 80 100
−2000200400600
Model 2
Variables
BIC
BIC FIT PENALTY
Rysunek :Problem: BIC działa niepoprawnie gdy liczba zmiennych jest duża w porównaniu z n (model prawdziwy t zawiera 3 zmienne).
Metoda RSM + kryteria informacyjne.
Kryteria Informacyjne- problem
0 20 40 60 80 100
−2000200400600
Model 3
Variables
BIC
BIC FIT PENALTY
Rysunek :Problem: BIC działa niepoprawnie gdy liczba zmiennych jest duża w porównaniu z n (model prawdziwy t zawiera 10 zmiennych).
Wyniki symulacji- metody
Metoda lasso.
Metoda RSM + BIC.
Metoda WRSM + BIC.
Metoda Univariate + BIC.
Metoda CAR + BIC [CAR = corr (y , P−1/2Xstd), P- macierz korelacji dla atrybutów].
Punkt odcięcia:
Sztywny punkt odcięcia: (n − 1)/2.
Metoda RSM + kryteria informacyjne.
Modele symulacyjne
Wybrane 10 modeli z prac dotyczących selekcji zmiennych (liczba zmiennych istotnych |t| ∈ [1, 50]).
Wiersze macierzy X generowane z rozkładu normalnego o średniej 0 i macierzy kowariancji Σi ,j := ρ|i −j|, ρ = 0.5.
Liczba obserwacji n = 200, liczba atrybutów p = 1000.
Liczba symulacji: L = 500.
Wyniki symulacji- miary oceny
(CS): poprawny wybór modelu t: I [ˆt = t], (TPR): |ˆt ∩ t|/|t|,
(FDR): |ˆt \ t|/|ˆt|,
(PE): Błąd predykcji na niezależnym zbiorze testowym.
(CO): poprawne uporządkowanie w pierwszym kroku procedury dwustopniowej. P[maxi 6∈tTi ,f2 < mini ∈tTi ,f2 ].
Metoda RSM + kryteria informacyjne.
Wyniki symulacji- błąd predykcji
Model |t| lasso rsmBIC wrsmBIC uniBIC carBIC Min 1 1 100.05 112.43 118.58 109.49 109.61 lasso 2 3 109.72 100.26 111.86 100.06 100.07 UNI 3 10 115.24 101.05 101.15 101.79 101.54 RSM 4 5 114.81 100.30 107.29 100.43 100.41 RSM 5 15 110.32 110.44 102.00 114.69 112.25 WRSM 6 15 111.12 117.45 101.42 124.62 124.00 WRSM 7 20 116.66 117.49 103.94 136.58 132.97 WRSM 8 8 110.45 101.07 111.87 100.40 100.37 CAR 9 50 127.89 123.00 100.88 149.91 139.59 WRSM 10 50 125.48 145.53 102.07 208.14 192.58 WRSM
Tabela :100*PE/min(PE) (średnie z 500 symulacji).
Wyniki symulacji- TPR
Model |t| lasso rsmBIC wrsmBIC uniBIC carBIC Max. TPR
1 1 0.000 0.367 0.433 0.467 0.467 UNI, CAR
2 3 1.000 1.000 1.000 1.000 1.000 wszystkie 3 10 1.000 1.000 1.000 1.000 1.000 wszystkie 4 5 1.000 1.000 1.000 1.000 1.000 wszystkie
5 15 0.996 0.838 0.973 0.816 0.829 lasso
6 15 0.998 0.769 0.940 0.731 0.733 lasso
7 20 1.000 0.982 0.995 0.963 0.967 lasso
8 8 0.854 0.817 0.888 0.829 0.833 WRSM
9 50 0.995 0.922 0.979 0.845 0.870 lasso
10 50 1.000 0.960 0.991 0.893 0.908 lasso Tabela :Wskaźniki TPR (średnie z 500 symulacji).
Metoda RSM + kryteria informacyjne.
Wyniki symulacji- FDR
Model |t| lasso rsmBIC wrsmBIC uniBIC carBIC Min. FDR
1 1 1.000 0.954 0.980 0.926 0.931 UNI
2 3 0.124 0.021 0.608 0.033 0.025 RSM
3 10 0.410 0.290 0.074 0.384 0.358 WRSM
4 5 0.329 0.069 0.454 0.123 0.109 RSM
5 15 0.216 0.179 0.199 0.203 0.220 RSM
6 15 0.297 0.260 0.156 0.231 0.191 WRSM
7 20 0.271 0.217 0.018 0.312 0.260 WRSM
8 8 0.111 0.074 0.467 0.050 0.059 WRSM
9 50 0.419 0.208 0.100 0.233 0.198 WRSM
10 50 0.427 0.327 0.097 0.302 0.275 WRSM
Tabela :Wskaźniki FDR (średnie z 500 symulacji).
Przykład: dane rzeczywiste
●
●
RSM+BIC CAR+BIC UNI+BIC LASSO+CV
0.140.150.160.170.180.19
QSAR dataset (n=274,p=839)
Prediction Error
RSM: 11.3 CAR: 10.9 UNI: 3.8 LASSO: 34.7
Rysunek :Model zależności temperatury topnienia substancji od deskryptorów cząstek (liczność zbioru treningowego: 182, liczność zbioru testowego: 92).
Metoda RSM + kryteria informacyjne.
Pakiet R regRSM (P. Teisseyre, R. A. Kłopotek)
3 wersje: sekwencyjna, równoległa (MPI), równoległa (POSIX).
Algorytmy: RSM, WRSM, SRSM
wybór modelu w oparciu o BIC lub próbę walidaycjną Metody:
predict, update,
print, summary, plot, ImpPlot roc.
Czas obliczeń dla p = 1000, n = 100, |m| = 50.
● ● ●
●
●
●
●
5 6 7 8 9 10 11
050100150200250300
Elapsed time
log(B)
Elapsed time [sec]
● ● ● ● ●
●
●
● ● ● ● ●
●
●
● ● ● ● ●
●
●
● ● ● ● ●
●
●
● ● ● ● ●
●
●
● ● ● ● ●
●
●
1 slave 2 slaves 4 slaves 8 slaves 16 slaves 32 slaves
Rysunek :Maszyna:2x Intel(R) Xeon(R) CPU E5-2630L @ 2.00GHz (6 cores, 12 threads) - 24 logical cores in total, 64 GB RAM
Wnioski
RSM- wnioski
WRSM zazwyczaj działa lepiej niż konkurencyjne metody (biorąc pod uwagę PE).
FDR jest zazwyczaj mniejsze dla RSM/WRSM niż dla metody lasso oraz metody univariate.
Stosując metodę RSM/WRSM otrzymujemy mniej złożone modele (jest to potwierdzone przez eksperymenty na zbiorach rzeczywistych).
Zastosowanie wersji ważonej (WRSM) pozwala zmniejszyć liczbę symulacji i w ten sposób zredukować koszt obliczeniowy.
Literatura
1 J. Mielniczuk, P. Teisseyre, Using Random Subspace Method for Prediction and Variable Importance Assessment in Linear Regression, Computational Statistics and Data Analysis, Volume: 71, 725-742, 2014.
2 T. K. Ho, The Random Subspace Method for constructing decision forests, IEEE Trans. Pattern Anal. Machine Intell., Vol. 20, No. 8, pages 832–844, 1998.
3 L. Breiman, Random forests, Machine Learning, Vol. 45, No. 1, pages 5–32, 2001.
4 C. Lai, M. J. T. Reinders, L. Wessels, Random Subspace Method for multivariate feature selection, Pattern Recognition Letters, Vol. 27, pages 1067-1076, 2006.
5 M. Draminski et. al., Monte carlo feature selection for supervised classification, BIOINFORMATICS, 24(1):110-117, 2008.
Dziękuje za uwagę!
Dziękuje za uwagę!