• Nie Znaleziono Wyników

2. Empiryczna wersja klasyfikatora bayesowskiego

N/A
N/A
Protected

Academic year: 2021

Share "2. Empiryczna wersja klasyfikatora bayesowskiego"

Copied!
15
0
0

Pełen tekst

(1)

Algorytmy rozpoznawania obrazów

2. Empiryczna wersja klasyfikatora bayesowskiego

dr in˙z. Urszula Libal Politechnika Wrocławska

2015

(2)

1. Brak pełnej informacji probabilistycznej

Klasyfikator bayesowski wymaga pełnej informacji probabilistycznej, tzn. musz ˛a by´c znane prawdopodobie´nstwa a priori klas oraz funkcje g˛esto´sci prawdopodobie´nstwa w klasach.

Nieznane rozkłady prawdopodobie´nstwa w klasach 1, 2, . . . , M mo˙zna estymowa´c na podstawie M ci ˛agów ucz ˛acych.

Ka˙zdy ci ˛ag ucz ˛acy zawiera Nkobserwacjin X(k)j oNk

j=1z klasy k ∈ {1, 2, . . . , M}.

klasa 1 klasa 2 · · · klasa M ˆ

p1 pˆ2 · · · pˆM fˆ1(x) fˆ2(x) · · · fˆM(x)

N1 N2 · · · NM

(3)

2. Estymacja prawdopodobie ´nstw a priori klas

Prawdopodobie´nstwa a priori klas estymujemy za pomoc ˛a cz˛esto´sci ich wyst˛epowania, tj.

ˆ

pk = Nk

N1+ N2+ · · · + NM. (1)

dla ka˙zdej klasy k ∈M , M = {1, 2, ..., M}.

(4)

3. Estymacja funkcji g˛esto´sci prawdopodobie ´nstwa

— Metody parametryczne - zakładamy pewien rozkład prawdopodobie´nstwa i estymujemy jego parametry.

— Metody nieparametryczne - umo˙zliwiaj ˛a estymacj˛e dowolnego rozkładu.

(5)

4. Histogram

Standardowy histogram dzieli przestrze´n cechX na przedziały o szeroko´sci ∆,

a nast˛epnie zlicza liczb˛e ni obserwacji, które wpadły do i-tego przedziału Ii= (ti, ti+ ∆], tzn.

ni = #Xj∈ Ii = # Xj∈ (ti, ti+ ∆]

(2)

= #Xj≤ ti+ ∆ − # Xj< ti

(3)

=

N j=1

1Xj≤ ti+ ∆ − 1 Xj< ti  . (4)

(6)

Histogram to funkcja schodkowa

h(x; ∆, N) =

i

ni1 {x ∈ Ii} , (5)

która w punkcie x nale˙z ˛acym do i-tego przedziału przyjmuje warto´s´c ni (pozostałe elementy sumy s ˛a wtedy zerowe).

Rysunek 1. Przykładowy histogram dla ci ˛agu ucz ˛acego o liczno´sci N = 1000.

Zródło: opracowanie własne´

(7)

Rysunek 2. Deska Galtona - przykład nieparametrycznej estymacji funkcji g˛esto´sci dla rozkładu normalnego.

Zródło: [2]´

(8)

5. Nieparametryczna estymacja funkcji g˛esto´sci prawdopodobie ´nstwa

Funkcja g˛esto´sci prawdopodobie´nstwa f (x) spełnia warunek ˆ

X f(x) = 1. (6)

Aby histogram estymował funkcj˛e g˛esto´sci prawdopodobie´nstwa, nale˙zy go znormalizowa´c poprzez podzielenie liczby niobserwacji przez całkowit ˛a liczb˛e obserwacji N oraz szeroko´s´c przedziału ∆.

Nieparametryczny estymator funkcji g˛esto´sci prawdopodobie´nstwa przyjmuje form˛e:

fˆ(x) = ˆf(x; ∆, N) =

i

ni

N∆1 {x ∈ Ii} . (7)

(9)

Rysunek 3. Nieparametryczna estymacja g˛esto´sci dla ró˙znych szeroko´sci przedziałów histogramu.

Zródło: [1]´

(10)

5. Empiryczna wersja klasyfikatora bayesowskiego

Korzystaj ˛ac z zasady plug-in, wstawiamy do algorytmu bayesowskiego odpowiednie estymatory:

— w miejsce prawdopodobie´nstw a priori wyst ˛apienia klas pk- ich cz˛esto´sci ˆpk, k ∈M ,

— w miejsce funkcji g˛esto´sci prawdopodobie´nstwa w klasach fk(x) - ich nieparametryczne estymatory ˆfk(x), k ∈M .

Empiryczny klasyfikator bayesowski w przypadku dwóch klas przyjmuje wtedy posta´c

Ψ(x) =

1, gdy ˆp1fˆ1(x) > ˆp2fˆ2(x), 2, w przeciwnym wypadku.

(8)

(11)

Je˙zeli w obu klasach przyj˛eto identyczny podział przestrzeni cech na przedziały Ii, to empiryczny klasyfikator bayesowski w przypadku dwóch klas otrzymuje posta´c

Ψ(x) =

1, gdy(NN1

1+N2)i n(1)i

N11 {x ∈ Ii} >(NN2

1+N2)i n(2)i

N21 {x ∈ Ii} , 2, w przeciwnym wypadku.

(9)

Reguł˛e decyzyjn ˛a (9) mo˙zna upro´sci´c. Je˙zeli zaobserwowano cech˛e o warto´sci x z i-tego przedziału histogramu, tzn. x ∈ Ii, to empiryczny klasyfikator bayesowski bazuje jedynie na liczno´sciach obserwacji w tym przedziale w klasie 1 i klasie 2

Ψ(x) =

1, gdy n(1)i > n(2)i ,

2, w przeciwnym wypadku.

(10)

(12)

Przy zało˙zeniu, ˙ze analizowany obraz

x∈ (ti, ti+ ∆], (11)

empiryczny klasyfikator bayesowskiprzyjmuje ostatecznie posta´c opart ˛a w jawny sposób o ci ˛agi ucz ˛acen

X(1)j oN1

j=1orazn X(2)j oN2

j=1:

Ψ(x) =

1, gdy ∑Nj=11  1n

X(1)j ≤ ti+ ∆o

− 1n

X(1)j < tio

> ∑Nj=12  1n

X(2)j ≤ ti+ ∆o

− 1n

X(2)j < tio

, 2, w przeciwnym wypadku.

(12)

(13)

6. Zjawisko pustej przestrzeni

Zjawisko pustej przestrzeni, inaczej zwane przekle´nstwem wymiarowo´sci, wyst˛epuje w przypadku:

— du˙zej liczby cech (du˙zego wymiaru zadania D  1),

— zbyt małej liczby obserwacji (liczno´sci ci ˛agów ucz ˛acych Nkw klasach k ∈M ).

(14)

Rysunek 4. Ilustracja przekle´nstwa wymiarowo´sci, obrazuj ˛aca wykładniczy wzrost liczby obszarów, na które podzielono przestrze´n cech w zadaniu estymacji nieparametrycznej.

Zródło: [1]´

(15)

Literatura

[1] C.M. Bishop, Pattern Recognition and Machine Learning, Springer Series: Information Science and Statistics (2006).

[2] http://pl.wikipedia.org/wiki/Deska_Galtona

[3] http://www.youtube.com (szukaj pod hasłem: Galton board)

Cytaty

Powiązane dokumenty

• dla wygenerowanych danych trójwymiarowych dwóch klas z rozkładów normalnych zaznacz na wykresie trójwymiarowym dane treningowe i klasyfikator oparty na estymacji jądrowej.

- zwi ˛ azane jest z wykładniczym wzrostem liczby D-wymiarowych kostek, stanowi ˛ acych podział przestrzeni cech podczas nieparametrycznej estymacji funkcji g˛esto´sci,..

Dla naszych rozwa˙za´n najbardziej przydatna b˛edzie definicja, w której odwołujemy si˛e do poj˛ecia okr˛egu jednostkowego („definicja na okr˛egu jednostkowym”). Mariusz Grz

W ko´ ncu nale˙zy pomno˙zy´ c ostatni wiersz macierzy A kolejno przez wszystkie kolumny macierzy B.. Przyk

istniej a punkty j.w., takie ˙ze mamy zbie˙zno´s´ , c wielomian´ ow interpolacyjnych dla wszystkich funkcji ci ag lych... Wyka˙z, ˙ze wtedy L jest operatorem

wewn˛ etrzne, ii. +) oraz element przeci-

Ka˙zde przekształcenie afiniczne sztywne, które nie zmienia orientacji, jest obrotem (afnicznym) lub przesuni

Liczby Stirlinga drugiego rodzaju pojawiają się przy zupełnie innym, analitycznym, za- gadnieniu... Każdy wyraz w wierszu pierwszym i następnych jest po prostu różnicą