• Nie Znaleziono Wyników

Wykład 2

N/A
N/A
Protected

Academic year: 2021

Share "Wykład 2"

Copied!
57
0
0

Pełen tekst

(1)

Wykład 2

(2)

 Mail: agnieszka.nowak@us.edu.pl

 Pokój 214, II piętro

 http://zsi.tech.us.edu.pl/~nowak

(3)

 Predykcja – zdolność do wykorzystania wiedzy zgromadzonej w systemie do przewidywania wartości dla nowych danych, wcześniej niesklasyfikowanych.

 Opis danych - zdolność do identyfikacji interesujących faktów, wzorców, zależności, relacji lub nieprawidłowości w danych, wiedza taka ma być potem wykorzystana w odpowiednim celu, np.

wykrywanie fałszywych roszczeń

ubezpieczeniowych.

(4)

 Asocjacje – wykrywanie pewnych zależności między danymi, które wielokrotnie występują wspólnie np.

produktów kupowanych razem przez klientów.

 Grupowanie – wykrywanie profili klientów, dla ukierunkowanych kampanii marketingowych.

 Wykrywanie odchyleń (outliers) – defraudacje.

(5)

 Klasyfikacja - model może przewidzieć, czy klient kupi, czy nie dany produkt (metody takie jak regresja logistyczna, analiza dyskryminacyjna, naiwny klasyfikator Bayesa)

 Przewidywanie – związane z estymacją, prognozowaniem i odnoszące się do generowania

oceny lub prognozy na

zmiennej ciągłej. Np. Model, który przewiduje

sprzedaż za dany kwartał (najczęściej za pomocą

regresji).

(6)

 Oprogramowanie Traceis pozwala na:

 Przygotowanie danych do analizy,

 Generowanie statystyk,

 Wizualizacja zmiennych, grupowanie obserwacji,

predykcję.

(7)

Typ zadania specyfika rola metody

opis asocjacje Znajdowanie powiązań między

częstymi danymi, Reguły asocjacyjne,

drzewa decyzyjne,

grupowanie Podział danych na grupy o

podobnych cechach Analiza skupień,

drzewa decyzyjne

outliery Wykrywanie odchyleń w danych Grupowanie, wykresy

predykcja klasyfikacja Przewidywanie wartości zmiennych

jakościowych Analiza

dyskryminacyjna, naiwny klasyfikator Bayesa

regresja Oszacowanie wartości zmiennych

ilościowych Regresja

wielokrotna

(8)
(9)

 Ładowanie danych: zbiory danych mogą zawierać nawet 20 tyś. Wierszy i 30 tyś. kolumn

 Przygotowanie danych

 Tabele i wykresy: tablice kontyngencji, wykresy częstości, histogram, wykresy pudełkowe

 Statystyki: statystyka opisowa, przedziały ufności, rozkład chi-kwadrat, testowanie hipotez statystycznych, analiza wariancji

 Grupowanie:analiza skupień, reguły asocjacyjne, drzewa klasyfikacyjne

 Predykcja: k-NN, naiwny klasyfikator Bayesa,

sieci neuronowe

(10)
(11)
(12)
(13)
(14)
(15)
(16)
(17)
(18)
(19)
(20)
(21)
(22)
(23)
(24)

Abalone Database

[ftp://ftp.ics.uci.edu/pub/machine-learning-databases/abalone/]

Adult

Database[ftp://ftp.ics.uci.edu/pub/machine-learning-databases/adult/]

Auto-Mpg

[ftp://ftp.ics.uci.edu/pub/machine-learning-databases/auto-mpg/]

Pima Indians Diabetes Database

[ftp://ftp.ics.uci.edu/pub/machine-learning- databases/pima-indians-diabetes/]

Dodatkowe źródła danych dostępne:

Kdnuggets

[http://www.kdnuggets.com/datasets/index.html

]

IEEE Neural Networks Council Standards Committee

[http://neural.cs.nthu.edu.tw/jang/benchmark/]

Frequent Itemset Mining Dataset Repository

[http://fimi.cs.helsinki.fi/data/]

National Cancer Institute Data Sets

[http://discover.nci.nih.gov/datasets.jsp]

KDDCUP

[http://www.acm.org/sigs/sigkdd/kddcup/]

StatLib

[http://lib.stat.cmu.edu/datasets/]

(25)

Reguły klasyfikacji:

(26)

Wersja I

(27)

Wersja II

(28)

Wersja III

(29)

metoda typ Zmienna niezależna

Regresja liniowa Regresja Wszystkie ilościowe Zakłada liniową zależność, prosta w implementacji

Analiza

dyskryminacyjna klasyfikacja Wszystkie ilościowe Zakłada istnienie podobnych grup Regresja logistyczna Klasyfikacja Wszystkie ilościowe Oblicza

prawdopodobieństwo Naiwny klasyfikator

Bayesa klasyfikacja Tylko nominalne

(jakościowe) Wymaga dużego zbioru danych

K-NN Regresja lub

klasyfikacja Wszystkie ilościowe Dobre dla nieliniowych zależności, dla

odchyleń w danych, i dobrze wyjaśnia dane

Sieci neuronowe Regresja lub

klasyfikacja Wszystkie ilościowe Model czarnej skrzynki

CART Regresja lub

klasyfikacja Każde Dobrze wyjaśnia

rozumowanie za pomocą drzew klasyfikacji

(30)

majątek

Duże ryzyko

Średni, duży oszczędności mały

duże

Małe, średnie

Małe ryzyko majątek

duży Średni

Małe ryzyko Duże ryzyko

(31)

Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem.

Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność)

Bardziej opisowe może być określenie- „model cech niezależnych”.

Model prawdopodobieństwa można wyprowadzić korzystając z twierdzenia Bayesa.

W zależności od rodzaju dokładności modelu prawdopodobieństwa,

naiwne klasyfikatory bayesowskie można „uczyć” bardzo skutecznie

w trybie uczenia z nadzorem.

(32)

Jeśli wiemy, że kulek czerwonych jest 2 razy mniej niż zielonych (bo czerwonych jest 20 a zielonych 40) to prawdopodobieństwo tego, że kolejna (nowa) kulka będzie koloru zielonego jest dwa razy większe niż tego, że kulka będzie czerwona.

Dlatego możemy napisać, że znane z góry prawdopodobieństwa:

(33)

Jeśli więc czerwonych jest 20 a zielonych 40, to razem wszystkich jest 60. Więc

Więc teraz gdy mamy do czynienia z nową kulką ( na rysunku – biała):

(34)

To spróbujmy ustalić jaka ona będzie. Dokonujemy po prostu klasyfikacji kulki do jednej z dwóch klas: zielonych bądź czerwonych.

Jeśli weźmiemy pod uwagę sąsiedztwo białej kulki takie jak zaznaczono, a więc do 4 najbliższych sąsiadów, to widzimy, że wśród nich są 3 kulka czerwone i 1 zielona.

Obliczamy liczbę kulek w sąsiedztwie należących do danej klasy : zielonych bądź czerwonych z wzorów:

W naszym przypadku, jest dziwnie, bo akurat w sąsiedztwie kulki X jest więcej kulek czerwonych niż zielonych, mimo, iż kulek zielonych jest ogólnie 2 razy więcej niż czerwonych. Dlatego zapiszemy, że

(35)

Dlatego ostatecznie powiemy, że

Prawdopodobieństwo że kulka X jest zielona = prawdopodobieństwo kulki zielonej * prawdopodobieństwo, że kulka X jest zielona w swoim sąsiedztwie

=

Prawdopodobieństwo że kulka X jest czerwona = prawdopodobieństwo kulki

czerwonej * prawdopodobieństwo, że kulka X jest czerwona w swoim sąsiedztwie =

Ostatecznie klasyfikujemy nową kulkę X do klasy kulek czerwonych, ponieważ ta klasa dostarcza nam

większego prawdopodobieostwa posteriori.

(36)

– jeden z algorytmów regresji nieparametrycznej używanych w

statystyce do prognozowania wartości pewnej zmiennej losowej.

Może również byd używany do klasyfikacji.

-

(37)

 Dany jest zbiór uczący zawierający obserwacje z których każda ma przypisany wektor zmiennych objaśniających oraz wartośd zmiennej objaśnianej Y.

Dana jest obserwacja C z przypisanym wektorem zmiennych

objaśniających dla której chcemy prognozowad wartośd

zmiennej objaśnianej Y.

(38)

1.

porównanie wartości zmiennych objaśniających dla obserwacji C z wartościami tych zmiennych dla każdej obserwacji w zbiorze uczącym.

2.

wybór k (ustalona z góry liczba) najbliższych do C obserwacji ze zbioru uczącego.

3.

Uśrednienie wartości zmiennej objaśnianej dla wybranych obserwacji, w wyniku czego uzyskujemy prognozę.

Przez "najbliższą obserwację" mamy na myśli, taką obserwację, której odległośd do analizowanej przez

nas obserwacji jest możliwie najmniejsza.

(39)
(40)
(41)

Najbliższy dla naszego obiektu „buźka” jest obiekt

Więc przypiszemy nowemu obiektowi klasę:

(42)

Mimo, że najbliższy dla naszego obiektu „buźka” jest obiekt

Metodą głosowania ustalimy, że skoro mamy wziąć pod uwagę 5 najbliższych sąsiadów tego obiektu, a widać, że 1 z nich ma klasę:

Zaś 4 pozostałe klasę:

To przypiszemy nowemu obiektowi klasę:

(43)

Schemat algorytmu:

Poszukaj obiektu najbliższego w stosunku do obiektu klasyfikowanego.

Określenie klasy decyzyjnej na podstawie obiektu najbliższego.

Cechy algorytmu:

Bardziej odporny na szumy - w poprzednim algorytmie obiekt najbliższy klasyfikowanemu może być zniekształcony - tak samo zostanie zaklasyfikowany nowy obiekt.

Konieczność ustalenia liczby najbliższych sąsiadów.

Wyznaczenie miary podobieństwa wśród obiektów (wiele miar podobieństwa).

Dobór parametru k - liczby sąsiadów:

Jeśli k jest małe, algorytm nie jest odporny na szumy – jakość klasyfikacji jest

niska. Jeśli k jest duże, czas działania algorytmu rośnie - większa złożoność

obliczeniowa. Należy wybrać k, które daje najwyższą wartość klasyfikacji.

(44)

 Wyznaczanie odległości obiektów: odległość

euklidesowa

(45)

Obiekty są analizowane w ten sposób , że oblicza się odległości bądź podobieństwa między nimi. Istnieją różne miary podobieństwa czy odległości. Powinny być one wybierane konkretnie dla typu danych analizowanych: inne są bowiem miary typowo dla danych binarnych, inne dla danych nominalnych a inne dla danych numerycznych.

Nazwa Wzór

odległośd euklidesowa

odległośd kątowa

współczynnik korelacji liniowej Pearsona

Miara Gowera

gdzie: x,y - to wektory wartości cech

porównywanych

obiektów w

przestrzeni p- wymiarowej, gdzie odpowiednio

wektory wartości

to: oraz .

(46)

Oblicz odległość punktu A o współrzędnych (2,3) do punktu B o współrzędnych (7,8).

D (A,B) = pierwiastek ((7-2)

2

+ (8-3)

2

) = pierwiastek (25 + 25) = pierwiastek (50) = 7.07

0 1 2 3 4 5 6 7 8 9

0 2 4 6 8

A B

(47)

Mając dane punkty:

A(2,3), B(7,8) oraz C(5,1) oblicz odległości między punktami:

D (A,B) = pierwiastek ((7-2)

2

+ (8-3)

2

) = pierwiastek (25 + 25) = pierwiastek (50) = 7.07

D (A,C) = pierwiastek ((5-2)

2

+ (3-1)

2

) = pierwiastek (9 + 4) = pierwiastek (13) = 3.60

D (B,C) = pierwiastek ((7-5)

2

+ (3-8)

2

) = pierwiastek (4 + 25) = pierwiastek (29) = 5.38 A

B

C

0 1 2 3 4 5 6 7 8 9

0 1 2 3 4 5 6 7 8

A B C

(48)

Obiekt klasyfikowany podany jako ostatni : a = 3, b = 6

Teraz obliczmy odległości

poszczególnych obiektów od wskazanego. Dla

uproszczenia obliczeń

posłużymy sie wzorem:

(49)
(50)

Znajdujemy więc k najbliższych sąsiadów. Załóżmy, że szukamy 9 najbliższych sąsiadów. Wyróżnimy ich kolorem zielonym.

Sprawdzamy, które z tych 9 najbliższych sąsiadów są z klasy „+” a które z klasy „-” ?

By to zrobić musimy znaleźć k najbliższych sąsiadów (funkcja Excela o nazwie MIN.K)

(51)
(52)
(53)

Teraz w komórce (kolumna C, wiersz 26) wreszcie możemy napisad formułę, która wstawi odpowiednią wartośd.

W ten sposób stwierdzimy, że obiekt a=3 i b=6 zaliczymy do klasy „-”

(54)

Wyobraźmy sobie, że nie mamy 2 zmiennych opisujących każdy obiekt, ale tych zmiennych jest np. 5: {v1,v2,v3,v4,v5} i że obiekty opisane tymi zmiennymi to 3 punkty: A, B i C:

V1 V2 V3 V4 V5

A 0.7 0.8 0.4 0.5 0.2

B 0.6 0.8 0.5 0.4 0.2

C 0.8 0.9 0.7 0.8 0.9

Policzmy teraz odległość między punktami:

D (A,B) = pierwiastek ((0.7-0.6)2 + (0.8-0.8)2 + (0.4-0.3)2 + (0.5-0.4)2 + (0.2-0.2)2) = pierwiastek (0.01 + 0.01 + 0.01) = pierwiastek (0.03) = 0.17

D (A,C) = pierwiastek ((0.7-0.8)2 + (0.8-0.9)2 + (0.4-0.7)2 + (0.5-0.8)2 + (0.2-0.9)2) = pierwiastek (0.01 + 0.01 + 0.09 + 0.09 + 0.49) = pierwiastek (0.69) = 0.83

D (B,C) = pierwiastek ((0.6-0.8)2 + (0.8-0.9)2 + (0.5-0.7)2 + (0.4-0.8)2 + (0.2-0.9)2) = pierwiastek (0.04 + 0.01 + 0.04+0.16 + 0.49) = pierwiastek (0.74) = 0.86

Szukamy najmniejszej odległości, bo jeśli te dwa punkty są najbliżej siebie, dla których mamy najmniejszą odległości ! A więc najmniejsza odległość jest między punktami A i B !

(55)
(56)

 Czym różni się predykcja od klasyfikacji?

 Na czym polega algorytm K-NN ?

 Na czym bazuje alg. Naiwnego klasyfikatora Bayesa ?

 Co wiemy dzięki badaniu korelacji?

(57)

Cytaty

Powiązane dokumenty

Cztery czerwone kulki przemalowano na zielono i teraz zielonych kulek jest dwa razy tyle co czerwonych.. Darek jest trzy razy starszy niż Basia, ale dwa razy młodszy

Kulek niebieskich jest więcej niż czerwonych, kulek czerwonych jest więcej niż białych, a białe kulki są dwie. Między te dzieci rozdzielił 10 cukierków w taki

Kulek białych jest o dwie więcej niż zielonych, a czerwonych jest o jedną mniej niż białych.. Jacek ma dwa rodzaje szklanych kulek: małe

W rozdziale siódmym koncepcja zaufania odniesiona jest do dwóch ustrojów społecznych: demokracji i autokracji, przy czym A utor skupia swoją uwagę głównie na relacji:

W naszym przypadku, jest dziwnie, bo akurat w sąsiedztwie kulki X jest więcej kulek czerwonych niż zielonych, mimo, iż kulek zielonych jest ogólnie 2 razy więcej niż

Działania teatralne, prowadzone tam od lat przez Teatr Węgajty, pozwalają im porozumie- wać się poza strefą kontroli, uzewnętrzniać uczucia, nawiązywać relacje ze sobą

„mowę” tę oblubieniec i oblubienica odczytują w pełnej prawdzie osoby i miłości, wówczas coraz głębiej się przekonują, że granicą ich przynależności jest

Wiadomo, że biurka I rodzaju cieszą się dwukrotnie większym powodzeniem (tzn. prawdopodobieństwo tego, że klient kupujący biurko zdecyduje się na biurko I rodzaju wynosi 2/3)..