• Nie Znaleziono Wyników

4. Naiwny klasyfikator Bayesa

N/A
N/A
Protected

Academic year: 2021

Share "4. Naiwny klasyfikator Bayesa"

Copied!
15
0
0

Pełen tekst

(1)

Algorytmy rozpoznawania obrazów

4. Naiwny klasyfikator Bayesa

dr in˙z. Urszula Libal

Politechnika Wrocławska

2015

(2)

1. Wektory cech

Rozpoznawanie D-wymiarowych wektorów cech x = (x

1

, x

2

, . . . , x

D

) .

Rysunek 1. Zbiór danych fisheriris: 4 cechy (długo´s´c i szeroko´s´c działki kielicha, długo´s´c i szeroko´s´c płatka), 3 klasy (gatunki irysa).

Zródło: [1]´

Rysunek 2. Klasyfikacja do 3 klas okre´slonych

przez gatunek irysa.

(3)

2. Klasyfikator Bayesa - przypadek wielowymiarowy

W przypadku obrazów opisanych przez D-wymiarowe wektory cech

x = (x

1

, x

2

, . . . , x

D

) , (1)

klasyfikator Bayesa wskazuje na klas˛e i ∈ M

Ψ

(x) = i, je˙zeli p

i

f

i

(x) = max

k∈M

p

k

f

k

(x). (2)

(M - zbiór klas)

(4)

3. Estymacja funkcji g˛esto´sci a przekle ´nstwo wymiarowo´sci

Przekle´nstwo wymiarowo´sci (inaczej zwane zjawiskiem pustej przestrzeni)

- zwi ˛ azane jest z wykładniczym wzrostem liczby D-wymiarowych kostek, stanowi ˛ acych podział przestrzeni cech podczas nieparametrycznej estymacji funkcji g˛esto´sci,

przy zwi˛ekszaniu rozmiaru D wektora cech.

Rysunek 3. Ilustracja przekle´nstwa wymiarowo´sci.

Zródło: [2]´

(5)

Rysunek 4. Nieparametryczna estymacja funkcji g˛esto´sci dla liczby cech D = 1 oraz D = 2.

Zródło: opracowanie własne´

(6)

4. Naiwny klasyfikator Bayesa

Naiwny klasyfikator Bayesa Ψ

NB

to klasyfikator Bayesa Ψ

,

dla którego zakłada si˛e, ˙ze cechy X

1

, X

2

, . . . , X

D

s ˛ a wzajemnie niezale˙zne!

Rysunek 5. Przykład zmiennych losowych zale˙znych X i Y = 2X

2

− 1.

Zródło: opracowanie własne´

(7)

Definicja 1. Zmienne losowe X

1

, X

2

, . . . , X

D

s ˛ a niezale˙zne wtedy i tylko wtedy, gdy

P {X

1

< x

1

, X

2

< x

2

, . . . , X

D

< x

D

} = P {X

1

< x

1

} P {X

2

< x

2

} . . . P {X

D

< x

D

} , (3)

czyli

F

X1,X2,...,XD

(x) =

D

d=1

F

Xd

(x

d

). (4)

Definicja 2. Zmienne losowe X

1

, X

2

, . . . , X

D

s ˛ a niezale˙zne wtedy i tylko wtedy, gdy

f

X1,X2,...,XD

(x) =

D d=1

f

Xd

(x

d

). (5)

(8)

Naiwny klasyfikator Bayesa wskazuje na klas˛e i ∈ M na podstawie zaobserwowanego wektora cech x = (x

1

, x

2

, . . . , x

D

)

Ψ

NB

(x) = i, je˙zeli p

i D d=1

f

i(d)

(x

d

) = max

k∈M

p

k

D d=1

f

k(d)

(x

d

). (6)

Zasada działania pozostaje identyczna jak dla klasyfikatora Bayesa, tzn. maksymalizowane jest prawdopodobie´nstwo a posteriori - patrz wzór (21) z wykładu nr 1. Zakładaj ˛ ac niezale˙zno´s´c cech otrzymujemy, ˙ze funkcja g˛esto´sci f

k

ł ˛ acznego rozkładu w klasie k ∈ M to iloczyn g˛esto´sci brzegowych f

k(d)

, d = 1, 2, . . . , D,

f

k

(x) =

D d=1

f

k(d)

(x

d

). (7)

(9)

5. Naiwny klasyfikator Bayesa - przypadek dwóch klas

Naiwny klasyfikator Bayesa na podstawie zaobserwowanego wektora cech x = (x

1

, x

2

, . . . , x

D

) wskazuje na klas˛e

Ψ

NB

(x) =

 

 

1, gdy p

1

Dd=1

f

1(d)

(x

d

) > p

2

Dd=1

f

2(d)

(x

d

), 2, w przeciwnym wypadku.

(8)

Warunek

p

1

D d=1

f

1(d)

(x

d

) > p

2

D d=1

f

2(d)

(x

d

) (9)

mo˙zna przekształci´c na warunek równowa˙zny:

(10)

p

1

Dd=1

f

1(d)

(x

d

) p

2

Dd=1

f

2(d)

(x

d

)

> 1 (10)

ln p

1

Dd=1

f

1(d)

(x

d

) p

2

Dd=1

f

2(d)

(x

d

)

> ln 1 (11)

ln p

1

p

2

+ ln

D

d=1

f

1(d)

(x

d

)

f

2(d)

(x

d

) > 0 (12)

ln p

1

p

2

+

D d=1

ln f

1(d)

(x

d

)

f

2(d)

(x

d

) > 0 (13)

(11)

Wyra˙zenie

δ (x) = ln p

1

p

2

+

D

d=1

ln f

1(d)

(x

d

) f

2(d)

(x

d

)

(14)

b˛edziemy nazywa´c funkcj ˛ a dyskryminacyjn ˛ a mi˛edzy klasami 1 i 2.

Wtedy naiwny klasyfikator Bayesa mo˙zna zapisa´c

Ψ

NB

(x) =

 

 

1, gdy δ (x) > 0,

2, w przeciwnym wypadku.

(15)

(12)

Przykład: 2 klasy {1, 2} i 2 cechy x = (x

1

, x

2

), prawdopodobie´nstwa a priori równe p

1

= p

2

= 0.5

(a) f

1(1)

∼ N (10,3), f

1(2)

∼ N (10,3), f

2(1)

∼ N (10,3), f

2(2)

∼ N (−5,4) (b) f

1(1)

∼ N (10,3), f

1(2)

∼ N (10,3), f

2(1)

∼ N (−5,4), f

2(2)

∼ N (−5,4)

a) b)

Rysunek 6. Przykład dyskryminacji mi˛edzy klasami.

Zródło: opracowanie własne´

(13)

W przypadku (a) p

1

= p

2

= 0.5 oraz f

1(1)

(x

1

) = f

2(1)

(x

1

) dla ka˙zdego x

1

. Wtedy funkcja dyskryminacyjna otrzymuje posta´c

δ (x) = ln p

1

p

2

+

D

d=1

ln f

1(d)

(x

d

) f

2(d)

(x

d

)

(16)

= ln f

1(2)

(x

2

) f

2(2)

(x

2

)

, (17)

poniewa˙z ln

pp1

2

= 0 oraz ln

f

(1) 1 (x1)

f2(1)(x1)

= 0. Dyskryminacja mi˛edzy klasami odbywa si˛e jedynie

na podstawie warto´sci funkcji g˛esto´sci dla drugiej cechy x

2

.

(14)

W przypadku (b) p

1

= p

2

= 0.5, wi˛ec ln

pp1

2

= 0. Wtedy funkcja dyskryminacyjna ma posta´c

δ (x) = ln f

1(1)

(x

1

)

f

2(1)

(x

1

) + ln f

1(2)

(x

2

) f

2(2)

(x

2

)

. (18)

Dyskryminacja mi˛edzy klasami odbywa si˛e na podstawie warto´sci funkcji g˛esto´sci dla obu

cech x

1

i x

2

.

(15)

Literatura

[1] http://en.wikipedia.org/wiki/Iris_flower_data_set

[2] C.M. Bishop, Pattern Recognition and Machine Learning, Springer Series: Information Science and Statistics (2006)

[3] J. Koronacki, J. ´ Cwik, Statystyczne systemy ucz ˛ ace si˛e, WNT, Warszawa (2005)

Cytaty

Powiązane dokumenty

Z porównania omawianych funkcji na przykładzie Kombinatu PGR Machnów Nowy nie wynika jeszcze, że funkcja potęgowa nie nadaje się do badania tego typu zależności i nie o to

4.3 Entomolog pobierał próbkę losową z dużej populacji pewnych owadów.. Wyznacz estymator największej wiarogodności

[r]

Uwaga Mo˙zna wykorzysta´c artykuł Jerzego Letkowskiego „Applications of the Poisson probability distribution”, do- st˛epny pod

[r]

[r]

• dla wygenerowanych danych trójwymiarowych dwóch klas z rozkładów normalnych zaznacz na wykresie trójwymiarowym dane treningowe i klasyfikator oparty na estymacji jądrowej.

Ilustracja przekle´nstwa wymiarowo´sci, obrazuj ˛ aca wykładniczy wzrost liczby obszarów, na które podzielono przestrze´n cech w zadaniu estymacji nieparametrycznej. Zródło: