• Nie Znaleziono Wyników

5. Analiza dyskryminacyjna: FLD, LDA, QDA

N/A
N/A
Protected

Academic year: 2021

Share "5. Analiza dyskryminacyjna: FLD, LDA, QDA"

Copied!
22
0
0

Pełen tekst

(1)

Algorytmy rozpoznawania obrazów

5. Analiza dyskryminacyjna:

FLD, LDA, QDA

dr in˙z. Urszula Libal Politechnika Wrocławska

2015

(2)

1. Liniowe funkcje dyskryminacyjne

Liniowe funkcje dyskryminacyjne maj ˛a ogóln ˛a posta´c

δ (x) = wTx + w0=

D

i=1

wixi+ w0. (1)

Do liniowych dyskryminatorów, czyli klasyfikatorów opartych o liniowe funkcje dyskrymi- nacyjne, zaliczamy

— FLD - liniowy dyskryminator Fishera,

— LDA - liniow ˛a analiz˛e dyskryminacyjn ˛a.

(3)

Rysunek 1. Prosta rozdzielaj ˛aca (na czerwono) jest prostopadła do wektora w (na zielono) wyznaczaj ˛acego kierunek rzutu wektora x.

Zródło: [2]´

(4)

a) b)

Rysunek 2. (a) Rzut na prost ˛a ł ˛acz ˛ac ˛a ´srednie w klasach. (b) Rzut na prost ˛a o kierunku wyznaczonym przez kryterium Fishera poprawia separacj˛e klas.

Zródło: [2]´

(5)

2. Liniowy dyskryminator Fishera (FLD)

Liniowy dyskryminator Fishera [1] (ang. Fisher’s Linear Discriminant, FLD) zakłada, ˙ze µkto ´srednie, a Σkto macierze kowariancji w klasach k = 1, 2.

Dokonujemy liniowej transformacji, dzi˛eki której uzyskamy najlepsze rozdzielenie klas.

W celu separacji klas rzutujemy wektory cech x na hiperpłaszczyzn˛e wyznaczon ˛a przez kierunek w. Aby to osi ˛agn ˛a´c maksymalizujemy klasyczne kryterium Fishera [5]

F(w) = wTSmw

wTSww, (2)

gdzie Smto macierz rozprosze´n mi˛edzyklasowych

Sm= (µ1− µ2) (µ1− µ2)T, (3)

(6)

a Swto macierz rozprosze´n wewn ˛atrzklasowych

Sw= p1Σ1+ p2Σ2. (4)

Rysunek 3. Rozrzut mi˛edzyklasowy oraz wewn ˛atrzklasowy.

Zródło: opracowanie własne´

(7)

Wyliczamy pochodn ˛a kryterium F i przyrównujemy do zera

∂ wF(w) = 0. (5)

Optymalny kierunek dyskryminacyjny to

w = S−1w 1− µ2) . (6)

Liniowy dyskryminator Fishera ma posta´c

ΨFLD(x) =

1, gdy wTx < wgr,

2, w przeciwnym wypadku,

(7)

(8)

co po podstawieniu (6) i uwzgl˛ednieniu, ˙ze Swjest macierz ˛a symetryczn ˛a, daje

ΨFLD(x) =

1, gdy (µ1− µ2)TS−1w x < wgr, 2, w przeciwnym wypadku.

(8)

Próg wgrwyznaczamy minimalizuj ˛ac ´srednie prawdopodobie´nstwo bł˛ednej klasyfikacji - jest to punkt graniczny (por. rys. 1 z wykładu nr 1).

Niech f1i f2oznaczaj ˛a jednowymiarowe funkcje g˛esto´sci, które s ˛a rzutami

D-wymiarowych g˛esto´sci f1i f2w klasach na kierunek w (por. histogramy na rys. (b)).

Zrzutowane rozkłady w klasach k = 1, 2 charakteryzuj ˛a si˛e ´srednimi

mk= wTµk (9)

(9)

oraz wariancjami

σk2= wTΣkw. (10)

Szukamy wgr, które spełnia

p1f1(wgr) = p2f2(wgr). (11)

Ogólnie mo˙zna zapisa´c, ˙ze FLD klasyfikuje obraz do klasy j ∈M ,

ΨFLD(x) = j, gdy |wTx − wTµj| < |wTx − wTµk|, (12)

dla ka˙zdej klasy k ∈M ró˙znej od j.

(10)

3. Liniowa analiza dyskryminacyjna (LDA)

Liniowa analiza dyskryminacyjna [2] (ang. Linear Discriminant Analysis, LDA) zakłada,

˙ze funkcje g˛esto´sci prawdopodobie´nstwa w klasach k = 1, 2 maj ˛a D-wymiarowe rozkłady normalneN (µk, Σ) o równych macierzach kowariancji w klasach.

Mo˙zna wi˛ec powiedzie´c, ˙ze LDA jest równowa˙zne FLD przy dodatkowych zało˙zeniach, ˙ze rozkłady w klasach s ˛a gaussowskie i macierze kowariancji w klasach s ˛a równe

Σ = Σ1= Σ2.

Liniowa funkcja dyskryminacyjna ma ponownie posta´c

δ (x) = wTx + w0=

D i=1

wixi+ w0, (13)

(11)

a klasyfikator

ΨLDA(x) =

1, gdy wTx <wgr,

2, w przeciwnym wypadku,

(14)

gdzie optymalny kierunek dyskryminacyjny to

w = Σ−11− µ2) . (15)

Z warunku

p1f1(wgr) = p2f2(wgr) (16)

wyznaczymy wgr.

(12)

W przypadku dwóch klas rozpatrujemy rozkładyN (µ1, Σ1) orazN (µ2, Σ2), co po uwzgl˛ed- nieniu (9) i (10) prowadzi do warunku

p1 1 σ1

expn

(wgr− m1)2/ 2σ12o

= p2 1 σ1

expn

(wgr− m2)2/ 2σ22o

. (17)

Po przekształceniu otrzymujemy równanie kwadratowe

12− σ22)w2gr+ (σ12m2− σ22m1)wgr+ m21σ22− m22σ12− 2σ12σ22lnp1σ1

p2σ2= 0. (18)

Przypadki szczególne:

(a) Je˙zeli σ = σ1= σ2, to

wgr=m1+ m2

2 + σ2

m2− m1lnp1

p2. (19)

(13)

(b) Je˙zeli σ = σ1= σ2i p1= p2, to

wgr=m1+ m2

2 . (20)

(c) Je˙zeli σ16= σ2, to istniej ˛a dwa pierwiastki równania

wgr1,2=

σ22m1− σ12m2± σ1σ2 q

(m2− m1)2+ 2 σ22− σ12 lnpp1σ1

2σ2

σ22− σ12 . (21)

(d) Je˙zeli σ16= σ2, i m = m1= m2, to

wgr1,2= m ± σ1σ2

s 2

σ22− σ12lnp1σ1

p2σ2. (22)

(14)

Uwaga 1. Czasami w literaturze reguła FLD i LDA s ˛a ze sob ˛a uto˙zsamiane.

Uwaga 2. Z równo´sciΣ = Σ1= Σ2wynika σ = σ1= σ2= wTΣw, dlatego przypadki(a) i (b)odnosz ˛a si˛e do metodyLDA.

Uwaga 3. Natomiast przypadki(c) i (d)zachodz ˛a dla σ16= σ2,

co mo˙ze zaj´s´c jedynie, gdyΣ16= Σ2. Dopuszczenie ró˙znych macierzy kowariancji przy zało˙zeniu normalno´sci rozkładów w klasach nazywane jest metod ˛aQDA.

(15)

4. Kwadratowa analiza dyskryminacyjna (QDA)

W przypadku, gdy pominiemy zało˙zenie o równo´sci macierzy kowariancji w gaussowskich rozkładachN (µ1, Σ1) orazN (µ2, Σ2), otrzymamy klasyfikator zwany kwadratow ˛a ana- liz ˛a dyskryminacyjn ˛a [3] (ang. Quadratic Discriminant Analysis, QDA). Warunek

p1f1(wgr) = p2f2(wgr) (23)

pozwala wyznaczy´c wgr- patrz wzory (21) i (22). Forma reguły klasyfikacyjnej pozostaje bez zmian, tzn.

ΨQDA(x) =

1, gdy wTx <wgr,

2, w przeciwnym wypadku.

(24)

(16)

W przypadku punktów na płaszczy´znie krzywa rozdzielaj ˛aca klasy przyjmuje posta´c okr˛egu, elipsy, paraboli lub hiperboli.

5. Uogólnione liniowe funkcje dyskryminacyjne

Uogólnione liniowe funkcje dyskryminacyjne [4] (ang. Generalised Linear Discriminant Functions, GLDFs), okre´slane tak˙ze jako maszyny φ , s ˛a to funkcje dyskryminacyjne postaci

δ (x) = wTφ + w0 (25)

gdzie φ = (φ1(x), φ2(x), . . . , φd(x))T jest funkcja wektorow ˛a x.

(17)

Funkcja dyskryminuj ˛aca Matematyczna forma φi(x)

liniowa φi(x) = xi

kwadratowa φi(x) = xlk1

1xlk2

2, gdzie l1, l2= 0 lub 1 wielomianowa n-tego rz˛edu φi(x) = xlk1

1. . . xlkn

n, gdzie l1, . . . , ln= 0 lub 1 radialna funkcja bazowa φi(x) = φ (|x − vi|)

perceptron wielowarstwowy φi(x) = f (xTvi+ vi0),

gdzie f to funkcja logistyczna f (z) = 1/(1 + exp(−z))

(18)

7. Przykłady i dyskusja zało˙ze ´n

a) b)

Rysunek 4. Rozkłady brzegowe: (a) dla danych Fisheriris, (b) rozkłady jednostajne.

Zródło: opracowanie własne´

(19)

a) b) Rysunek 5. (a) Prosta rozdzielaj ˛aca klasy za pomoc ˛a LDA.

(b) Krzywe rozdzielaj ˛ace klasy za pomoc ˛a QDA.

Zródło: opracowanie własne´

(20)

a) b) Rysunek 6. (a) Prosta rozdzielaj ˛aca klasy za pomoc ˛a LDA.

(b) Krzywe rozdzielaj ˛ace klasy za pomoc ˛a QDA.

Zródło: opracowanie własne´

(21)

a) b) Rysunek 7. (a) Prosta rozdzielaj ˛aca klasy za pomoc ˛a LDA.

(b) Krzywe rozdzielaj ˛ace klasy za pomoc ˛a QDA.

Zródło: opracowanie własne´

(22)

Literatura

[1] R.A. Fisher, The Use of Multiple Measurements in Taxonomic Problems, Annals of Eugenics 7 (2): 179–188, (1936)

[2] C.M. Bishop, Pattern Recognition and Machine Learning, Springer Series: Information Science and Statistics (2006)

[3] J. Koronacki, J. ´Cwik, Statystyczne systemy ucz ˛ace si˛e, WNT, Warszawa (2005) [4] A.R. Webb, K.D. Copsey, Statistical Pattern Recognition, 3rd ed., Wiley, (2011) [5] W. Malina, M. Smiatacz, Rozpoznawanie obrazów, Exit, Warszawa, (2011)

Cytaty

Powiązane dokumenty

Według modelu Mączyńskiej sytuacja finansowa jednostki w 2015 roku jest dobra, natomiast w latach 2016-2017 można ją określić jako złą, przy czym nie

Nie- którzy z analityków stoją jednak na stanowisku, że właściwszym rozwiązaniem jest organizowanie aukcji mocy raczej według formuły aukcji dyskryminacyjnej (Pay-as-Bid),

Metod¡ u»ywan¡ do znalezienia liniowej kombinacji cech, które najlepiej rozró»niaj¡ dwie lub wi¦cej klas obiektów lub zdarze« jest liniowa analiza dyskryminacyjna (ang.

Należy podkreślić, że wywodzące się od Fishera pojęcie liniowej analizy dyskryminacyjnej (Linear Discriminant Analysis – LDA) używane jest często w węższym znaczeniu

Przy założe- niu normalności oraz faktu, że dodatnio określona macierz kowariancji jest ilo- czynem Kroneckera dwóch innych, dodatnio określonych macierzy kowariancji,

• dla wygenerowanych danych dwuwymiarowych dwóch klas z rozkładów normal- nych wykonać klasyfikację qda (macierz kowariancji i wartości średnie obliczone na podstawie danych).

Jest dla mnie zresztą zagadką, dlaczego Autor tutaj nagle troszczy się o całą macierz błędów (P(i\j)), skoro w prostszej, niesekwencyjnej sytuacji w rozdziale 1 zadowolił

LITERATURA CYTOWANA. [1]