• Nie Znaleziono Wyników

6. Nadzorowane algorytmy minimalno-odległo´sciowe: NM, kNN

N/A
N/A
Protected

Academic year: 2021

Share "6. Nadzorowane algorytmy minimalno-odległo´sciowe: NM, kNN"

Copied!
14
0
0

Pełen tekst

(1)

Algorytmy rozpoznawania obrazów

6. Nadzorowane algorytmy minimalno-odległo´sciowe:

NM, kNN

dr in˙z. Urszula Libal

Politechnika Wrocławska

2015

(2)

1. Nadzorowane algorytmy minimalno-odległo´sciowe

— nearest mean (NM) - najbli˙zsza ´srednia,

— nearest neighbor (NN) - najbli˙zszy s ˛asiad,

— k nearest neighbors (kNN) - k najbli˙zszych s ˛asiadów.

Algorytmy oparte o ci ˛agi ucz ˛ace:

1. podej´scie globalne (NM), 2. lokalne (NN),

3. po´srednie (kNN).

(3)

2. Klasyfikator najbli˙zsza ´srednia (NM)

W nadzorowanej wersji algorytmu, wyliczamy centra klas na podstawie ci ˛agów ucz ˛acych:

w klasie 1n x(1)j oN1

j=1oraz w klasie 2n x(2)j oN2

j=1:

µ1= (µ11, µ21, . . . , µD1) = 1 N1

N1 j=1

x(1)j , (1)

µ2= (µ12, µ22, . . . , µD2) = 1 N2

N2

j=1

x(2)j . (2)

(4)

Obraz x = (x1x2, . . . , xD) jest klasyfikowany do tej klasy, z której ´sredni ˛a dzieli go mniejsza odległo´s´c w ustalonej metryce

ΨNM(x) =

1, gdy ||x − µ1|| < ||x − µ2||, 2, w przeciwnym wypadku.

(3)

Dla metryki euklidesowej warunek upraszcza si˛e do

ΨNM(x) =

1, gdy ∑Di=1(xi− µi1)2< ∑Di=1(xi− µi2)2, 2, w przeciwnym wypadku.

(4)

(5)

a) b)

Rysunek 1. Klasyfikator najbli˙zsza ´srednia: (a) widok 2D, (b) widok 3D.

Zródło: opracowanie własne´

(6)

Nazwa metryki Wzór d(x, y) = ||x − y||

euklidesowa d(x, y) =n

(x − y)T(x − y)o12

= q

Di=1(xi− yi)2 taksówkowa, Manhattan d(x, y) = ∑Di=1|xi− yi|

Czebyszewa d(x, y) = maxi=1,...,D|xi− yi| Canberry [1] d(x, y) =D1Di=1

|xi−yi| xi+yi

Lance’a-Williamsa [1] d(x, y) = Di=1|xi−yi|

Di=1(xi+yi)

(7)

3. Klasyfikator najbli˙zszy s ˛asiad (NN)

Obliczamy N = N1+ N2odległo´sci ||x − x(k)j || mi˛edzy klasyfikowanym obrazem x a wektorami cech x(k)j ( j = 1, 2, . . . , Nk) z ci ˛agów ucz ˛acych dla obu klas, k = 1, 2.

Klasyfikujemy obraz x do klasy obrazu z ci ˛agu ucz ˛acego, który jest poło˙zony najbli˙zej obrazu x, czyli klasyfikujemy obraz do klasy pochodzenia jego najbli˙zszego s ˛asiada.

Klasyfikacj˛e za pomoc ˛a algorytmu najbli˙zszy s ˛asiad mo˙zna formalnie zapisa´c nast˛epuj ˛aco

ΨNN(x) =

1, gdy ∃ij||x − x(1)i || < ||x − x(2)j ||, 2, w przeciwnym wypadku.

(5)

(8)

Cover i Hart [2] opublikowali w 1967 roku oszacowanie ryzyka klasyfikatora najbli˙zszy s ˛asiad RNN za pomoc ˛a ryzyka Roptymalnego algorytmu Bayesa w asymptotycznym przypadku, gdy długo´s´c ci ˛agu ucz ˛acego N → ∞

R≤ RNN≤ R

 2 − M

M− 1R



, (6)

Mto liczba klas.

W przypadku problemu dwuklasowego (M = 2) otrzymujemy oszacowanie

R≤ RNN≤ 2R(1 − R) . (7)

(9)

Rysunek 2. Górne i dolne ograniczenie ryzyka klasyfikatora najbli˙zszy s ˛asiad dla dwóch klas - wzór (7).

Zródło: opracowanie własne´

(10)

4. Klasyfikator k-najbli˙zszych s ˛asiadów (kNN)

Zamiast kierowa´c si˛e klas ˛a tylko jednego (najbli˙zszego) s ˛asiada, mo˙zna decyzj˛e oprze´c na informacji o klasach pochodzenia k-najbli˙zszych s ˛asiadów.

Aby unikn ˛a´c sytuacji remisowych, najpro´sciej jest przyjmowa´c k nieparzyste.

Wtedy “wygrywa” klasa, z której pochodzi wi˛ekszo´s´c s ˛asiadów z najbli˙zszego otoczenia badanego obrazu.

(11)

Jak dobiera´c liczb˛e k s ˛asiadów?

Liczba k musi by´c:

— na tyle du˙za, by redukowa´c wra˙zliwo´s´c algorytmu na zakłócenia

— na tyle mała, by nie wybiera´c s ˛asiadów mocno osadzonych w innych klasach

— trzeba tak˙ze uwzgl˛edni´c długo´sci ci ˛agów ucz ˛acych

— mo˙zna zastosowa´c procedur˛e kroswalidacji

Rysunek 3. S ˛asiedztwo.

Zródło: opracowanie własne´

(12)

a) b)

(13)

Ryzyko klasyfikatora k-najbli˙zszych s ˛asiadów RkNN dla problemu dwuklasowego d ˛a˙zy do ryzyka Bayesa Rprzy liczbie k rosn ˛acej do niesko´nczono´sci

k→∞limRkNN= R. (8)

Rysunek 5. Ryzyko klasyfikatora kNN.

Zródło: [4]´

(14)

Literatura

[1] A.R. Webb, K.D. Copsey, Statistical Pattern Recognition, 3rd ed., Wiley, (2011)

[2] T. Cover, P. Hart, Nearest neighbor pattern classification, Information Theory, IEEE Transactions on, 13(1): 21-27, (1967)

[3] M. Krzy´sko, W. Woły´nski, T. Górecki, M. Skorzybut, Systemy ucz ˛ace si˛e.

Rozpoznawanie wzorców, analiza skupie´n i redukcja wymiarowo´sci. WNT, Warszawa (2008)

[4] R.O. Duda, P.E. Hart, D.G. Stork, Pattern Classification, 2nd ed., Wiley, (2000)

Cytaty

Powiązane dokumenty

W przypadku wnioskowania rozmytego powstaje zasadni- cze pytanie, jak określić wartość logiczną konkluzji na podstawie wartości logicznej przesłanek (stopnia ich prawdziwości).. W

Przykładowe dane: stopa bezrobocia według województw (listopad 2014r.).. Zródło:

● Obiekty prawidłowo zakwalifikowane jako pozytywne (x należy do C, działanie wywołuje efekt) określa się jako TRUE POSITIVE. ● Obiekty prawidłowo zakwalifikowane jako

[r]

Jeżeli operacja przydziału pamięci dla t1 i t2 zakończyła się pomyślnie (wskaźniki t1 i t2 są różne od NULL), to zainicjować tablicę t1 losowymi znakami o kodach należących

• Każda taka grupa implementuje wybraną metodę wykrywania społeczności!. • Na kolejnych zajęciach przetestujemy te metody na zestawie

Zmiany brodawczakowate (tworzą wy- stające ponad powierzchnię błony śluzo- wej wyrośla, które posiadają unaczynio- ny, łącznotkankowy zrąb) wywodzące się

W badaniu rezonansem magnetycznym chłoniaki uwidoczniają się jako zmiany hipointensywne w obra‑. zach T1 oraz hiperintensywne w obrazach T2 i w sekwencji FLAIR,