Instytut Badań Systemowych Polskiej Akademii Nauk
Streszczenie rozprawy doktorskiej
„Miękkie” metody obliczeń komputerowych w bayesowskiej analizie szeregów czasowych
Mgr Katarzyna Kaczmarek
Promotor: Prof. dr hab. inż. Olgierd Hryniewicz
WARSZAWA 2015
1 Wstęp
Motywacją dla rozważanych w rozprawie zagadnień jest problem, z którym spotkałam się w praktyce i dotyczy prognozowania szeregów czasowych o małej liczbie obserwacji, na przy- kład szeregów czasowych, opisujących sprzedaż nowopowstałego produktu.
W dużych przedsiębiorstwach zazwyczaj istnieją zespoły ekspertów odpowiedzialnych za prognozowanie sprzedaży w oparciu o dostępne historyczne dane, wiedzę na temat zachowań rynku, konkurencji, obserwowane trendy sprzedaży czy planowane akcje promocyjne. Eks- perci uczestniczą w planowaniu strategicznym, które zapewnia konsekwentne ukierunkowanie działalności przedsiębiorstwa. Jednocześnie osoby te często nie posiadają szerokiej wiedzy matematycznej, by móc starannie przełożyć swoje doświadczenie na założenia konieczne do budowy wybranych modeli prognozowania. Szczególnie problematyczne jest wyznaczanie pro- gnoz, gdy liczba historycznych danych w szeregu czasowym jest niewielka.
W literaturze dostępne są liczne publikacje opisujące komputerowe metody prognozowania.
Dla problemów dotyczących małych zbiorów danych, dobre rezultaty w praktyce osiągają me- tody bayesowskie [Geweke, 2005, Geweke and Whiteman, 2006, Clemen and Winkler, 1999], także [Beer et al., 2013, Stein et al., 2013], umożliwiające włączenie dodatkowej wiedzy a priori wyrażonej w postaci rozkładów prawdopodobieństwa. Kluczowe jednak jest odpowiednie zde- finiowanie tych rozkładów.
W ostatnich latach nastąpił rozwój komputerowych metod przetwarzania informacji, szcze- gólnie metod data-miningowych. „Miękkie” metody obliczeń komputerowych (ang. soft com- puting ) dostarczają intuicyjnej wiedzy, podsumowującej zbiory danych, w tym danych niedo- kładnych, niejasnych, a nawet zaburzonych. Możliwości wynikające z wykorzystania wiedzy powstałej w wyniku uczenia maszynowego do budowania modeli prognozowania wydają się bardzo obiecujące.
„Miękkie” metody obliczeń komputerowych formalizują umiejętność, jaką posiada czło- wiek, wnioskowania oraz podejmowania decyzji w sytuacjach niepewnych i cechujących się bra- kiem precyzji. Paradygmat „Computing with words” [Zadeh, 1997, Zadeh, 2000, Zadeh, 2006]
jest zorientowany na przetwarzanie nieprecyzyjnych określeń, jak np.: mało, dużo, podobnie, możliwe. W rozprawie informacja wyrażona za pomocą nieprecyzyjnych etykiet i podsumowań lingwistycznych, jest nazywana informacją nieprecyzyjną.
Istotnym problemem w praktyce jest jednak brak narzędzi umożliwiających inteligentne połączenie informacji nieprecyzyjnej i tradycyjnych metod prognozowania. Wybór modeli, ich parametrów oraz zdefiniowanie rozkładów prawdopodobieństwa, spoczywający na ekspertach danej dziedziny, jest zadaniem trudnym, a nieuważny ich dobór często rzutuje na niską ja- kość otrzymanych wyników. Potrzebne są intuicyjne narzędzia, wspomagające proces wyboru modeli prognozowania i ustalania ich założeń. Celem pracy jest opracowanie metod umożli- wiających automatyczne określanie założeń dla wybranych modeli prognozowania.
1.1 Postawiony problem badawczy
W obliczu wielu dostępnych modeli, naturalnym wydaje się pytanie, które z nich należy wy-
brać, by prognozy były dokładne oraz zrozumiałe dla użytkowników. Istotny w celu osiągnięcia
satysfakcjonujących wyników prognozowania jest zarówno odpowiedni dobór modeli, jaki i ich
założeń.
Formalnie, niech y = {y
t}
nt=1∈ Y będzie prognozowanym szeregiem czasowym, Y jest przestrzenią dyskretnych szeregów czasowych, n ∈ {n
min, ..., n
max} ⊆ N . Dalej, niech M będzie przestrzenią probabilistycznych modeli prognostycznych, M = {M
1, M
2, ..., M
J} ⊆ M jest skończonym zbiorem zawierającym wybrane modele.
Prognoza ω powstaje w wyniku uśredniania bayesowskiego:
p(ω|y, M ) =
J
X
j=1
p(M
j|y, M )p(ω|y, M
j) (1)
Na mocy twierdzenia Bayesa gęstości a posteriori dla modeli {M
1, M
2, ..., M
J} zdefiniowane są następująco:
p(M
j|y, M ) = p(M
j)p(y|M
j)
p(y|M ) = p(M
j)p(y|M
j)
PJj=1
p(M
j)p(y|M
j) (2) gdzie p(M
j); M
j∈ M to rozkłady prawdopodobieństwa a priori.
Tradycyjne podejście do analizy bayesowskiej zakłada, że rozkłady a priori zostają ustalone na podstawie subiektywnej wiedzy eksperckiej [Kass and Raftery, 1995]. Teoretyczne i empi- ryczne rozważania wskazują, że rozkłady a priori mają istotne znaczenie na wynik uśred- niania bayesowskiego, w szczególności, gdy w szeregu czasowym występuje mało obserwacji [Ley and Steel, 2009].
Problem postawiony w pracy, stanowi automatyczna konstrukcja rozkładów prawdopo- dobieństwa a priori, celem budowy wybranych modeli prognozowania dla krótkich szeregów czasowych. Rozkłady zbudowane zostają na podstawie informacji nieprecyzyjnej, uzyskanej z pomocą „miękkich” metod obliczeń komputerowych.
1.2 Teza rozprawy
Zastosowanie „miękkich” metod obliczeń komputerowych do konstrukcji rozkładów prawdo- podobieństwa a priori na modelach probabilistycznych jest dobrym narzędziem do eksploracji i prognozowania szeregów czasowych.
1.3 Cele badawcze
Głównym celem rozprawy doktorskiej jest:
- konstrukcja rozkładów prawdopodobieństwa a priori dla modeli probabilistycz- nych, opisujących krótkie szeregi czasowe na podstawie analizy nieprecyzyjnych informacji, uzyskanych z wykorzystaniem nowoczesnych metod eksploracji da- nych.
Drugim celem rozprawy jest:
- opracowanie modelu analizy danych zgodnego z ludzką percepcją i umożliwia-
jącego przełożenie informacji nieprecyzyjnej, sformułowanej przez ekspertów
danej dziedziny, na rozkłady prawdopodobieństwa a priori, stosowane w bay-
esowskich modelach predykcyjnych.
Pobocznym celem rozprawy jest:
- dokonanie przeglądu osiągnięć, trendów i wyzwań w interdyscyplinarnych ba- daniach dotyczących zastosowania „miękkich” metod obliczeń komputerowych w analizie szeregów czasowych.
Postawione powyżej cele osiągnięto, proponując nowatorskie podejście oparte o algorytmy klasyfikacji, uczenia maszynowego oraz zaawansowane algorytmy segmentacji i sumaryzacji danych w postaci szeregów czasowych. Zaproponowane nowatorskie algorytmy automatycz- nej konstrukcji rozkładów a priori (implementacja w języku Python) korzystają z danych wynikowych TREND ANALYSIS SYSTEM, narzędzia utworzonego w Instytucie Badań Sys- temowych PAN przez zespół Prof. Janusza Kacprzyka [Kacprzyk et al., 2011].
2 Przegląd literatury
2.1 Eksploracja szeregów czasowych
Dokonano przeglądu podstawowych czynności eksploracji szeregów czasowych, czyli metod segmentacji, identyfikacji trendów, klasteryzacji, klasyfikacji pod nadzorem oraz bez nadzoru, algorytmów sumaryzacji lingwistycznej oraz prognozowania.
W rozdziale uwaga poświęcona jest podsumowaniom lingwistycznym Yagera [Yager, 1982]
w postaci rozmytych zdań [Kacprzyk and Zadrożny, 2002, Kacprzyk, 2008, Wilbik, 2010] za- wierających uogólnione kwantyfikatory w sensie Zadeha. Przykład podsumowania lingwistycz- nego stanowi zdanie: „Większość rosnących trendów jest krótkich”. Omówione zostały wybrane ważne wskaźniki oceny jakości podsumowań lingwistycznych, czyli stopień prawdy (ang. degree of truth), pokrycia (ang. support ), nieprecyzyjności (ang. degree of imprecision).
Rozdział zawiera także opis wybranych metod odkrywania zależności czasowych i re- guł asocjacyjnych oraz wybrane najważniejsze aspekty uczenia maszynowego, w szczegól- ności klasyfikacji szeregów czasowych [Berthold and Hand, 2007, Koronacki and Ćwik, 2005, Vapnik, 1998]. Przedstawiony jest klasyfikator oparty o maszyny wektorów podpierających oraz metoda k-najbliższych sąsiadów.
2.2 Prognozowanie szeregów czasowych
W rozdziale przedstawione zostały wybrane najważniejsze narzędzia analizy i prognozowa- nia szeregów czasowych. Na mocy twierdzenia „No Free Lunch” można wyciągnąć wniosek, że spośród licznych modeli matematycznych, nie ma metody najlepszej dla dowolnego pro- blemu predykcji [Wolpert, 1996]. W rozprawie postawiono problem dotyczący prognozowania krótkich szeregów czasowych.
Omówione zostały wybrane modele prognostyczne, w szczególności modele autoregresyjne
według metodologii Box’a i Jenkins’a [Box et al., 2008, D’Urso et al., 2013]. Omówiona zo-
stała ogólna koncepcja prognozowania szeregów czasowych oraz przedstawiono wybrane wła-
sności procesów stochastycznych takich, jak funkcja autokorelacji i autokowariancji. Analiza
szeregów jest procesem iteracyjnym i składa się z następujących etapów: identyfikacja procesu
stochastycznego na podstawie szeregu czasowego; estymacja parametrów modelu probabili-
stycznego; diagnostyczne sprawdzenie, że wybrany model jest odpowiedni. Omówiono także
praktyczne metody ewaluacji jakości prognoz [Makridakis and Hibon, 2000].
Następnie omówiono wybrane metody estymacji, w szczególności podejście bayesowskie.
Metody bayesowskie dla szeregów czasowych [Geweke, 2005, Geweke and Whiteman, 2006]
umożliwiają estymację rozkładu prawdopodobieństwa dla dowolnego parametru oraz modelo- wanie niepewności związanej z wyborem modelu probabilistycznego. Kluczowe dla satysfak- cjonujących wyników jest poprawne określenie rozkładów a priori.
Następnie dokonano przeglądu osiągnięć, trendów i wyzwań w interdyscyplinarnych ba- daniach, dotyczących zastosowania „miękkich” metod obliczeń komputerowych w analizie i prognozowaniu szeregów czasowych. Podane zostały liczne referencje do wybranych istot- nych prac w zakresie tych badań, na przykład: [Yarushkina et al., 2011, Burda et al., 2014, Chen and Chang, 2010, Song and Chissom, 1993], także [Hryniewicz and Kaczmarek, 2015, Hryniewicz and Kaczmarek, 2014, Kaczmarek and Hryniewicz, 2013, Kaczmarek et al., 2015].
3 Nowatorskie metody konstrukcji rozkładów a priori
Przypomnijmy, że głównym celem rozprawy doktorskiej jest konstrukcja rozkładów prawdopo- dobieństwa a priori dla modeli probabilistycznych, opisujących szeregi czasowe na podstawie analizy informacji nieprecyzyjnej. Rozważane w rozprawie szeregi są to dyskretne ciągi warto- ści rzeczywistych, natomiast nieprecyzyjne etykiety oraz podsumowania lingwistyczne opisane są za pomocą trapezoidalnych liczb nieostrych.
Cel rozprawy został osiągnięty poprzez opracowanie nowatorskiego podejścia z zastosowaniem nieprecyzyjnych etykiet i podsumowań lingwistycznych, obejmu- jącego 2 nowatorskie metody prognozowania w ujęciu Bayes’a oraz innowacyjny algorytm klasyfikacji.
3.1 Klasyfikacja szeregów czasowych z zastosowaniem podsumowań lingwi- stycznych
Opracowano nowatorski algorytm klasyfikacji z zastosowaniem podsumowań lingwistycznych (ang. Classification with Linguistic Summaries (C-LS)). Algorytm wykorzystuje wybrane metody klasyfikacji, segmentacji szeregów czasowych (wybrane algorytmy bottom-up, top- down, broken-line [Sklansky and Gonzalez, 1980]) oraz sumaryzacji [Kacprzyk et al., 2006, Kacprzyk and Wilbik, 2009, Wilbik, 2010, Wilbik and Keller, 2012]. Zaproponowane podej- ście opiera działanie o maszyny wektorów podpierających (SVM) [Cortes and Vapnik, 1995]
oraz metodę k-najbliższych sąsiadów (k-NN) [Cover and Hart, 1967].
3.2 Prognozowanie autoregresyjnych szeregów czasowych z zastosowaniem podsumowań lingwistycznych
Opracowano bayesowską metodę predykcji dla krótkich szeregów czasowych (ang. Bayesian Autoregression with Linguistic Summaries (F-LS)) z zastosowaniem nieprecyzyjnej wiedzy eksperckiej o przewidywanych trendach dla prognozowanych zjawisk.
Podstawowe założenie dla wprowadzonego podejścia stanowi fakt, że w celu wyznaczenia
prognozy nie ograniczamy się do jednego modelu probabilistycznego. Zastosowany jest mecha-
nizm bayesowskie do modelowania niepewności związanej z wyborem modelu prognostycznego
i umożliwiający analizę wielu modeli.
Na Rysunku 1. przedstawiony został schemat ilustrujący ogólną strukturę zaproponowa- nego podejścia.
Rysunek 1: Schemat zaproponowanej nowatorskiej metody “Autoregresja z zastosowaniem podsumowań lingwistycznych” (F-LS).
Pierwszym etapem działania metody jest zbudowanie bazy wiedzy. W tym celu wy- brać należy modele probabilistyczne do dalszych rozważań. Modele powinny różnić się przede wszystkim w sposób jakościowy. W przykładach rozważany jest m.in. następujący podzbiór 3 modeli: model autoregresji pierwszego rzędu z silną dodatnią autokorelacją, model autore- gresji pierwszego rzędu z silną ujemną autokorelacją i model autoregresji pierwszego rzędu o nieznacznej autokorelacji.
Następnie, na podstawie wybranych modeli, wygenerowana zostaje baza wzorcowych szere- gów czasowych i dla nich uruchomione zostają algorytmy data-miningowe. Utworzona zostaje informacja nieprecyzyjna w postaci podsumowań lingwistycznych i uruchomione zostają dla niej algorytmy uczenia pod nadzorem.
Tabela przedstawia przykłady nieprecyzyjnych etykiet rozważanych do budowy podsumo- wań. Nieprecyzyjne etykiety opisane są za pomocą trapezoidalnych liczb nieostrych.
Tablica 1 Przykłady atrybutów i ich nieprecyzyjnych etykiet.
Obiekt Atrybut Etykiety nieprecyzyjne Trend długość short, medium, long
dynamika zmian rosnący, stały, umiarkowany zmienność niskie, umiarkowane, wysokie Zbiór podsu-
mowań lingwi- stycznych
liczba elementów zbioru
większość
Rozważane są podsumowanie lingwistyczne w postaci: Q t jest S oraz Q t, które są
W, jest S , gdzie S, W to zbiory rozmyte, Q to kwantyfikator rozmyty. W wyniku działaniametod data-miningowych, wygenerowany zostaje zbiór reguł klasyfikacyjnych.
Podsumowując, najważniejsze kroki etapu budowy bazy wiedzy w niniejszym algorytmie są następujące:
1. S := zdefiniuj liczby rozmyte
2. [Y
ms, C
s] := wygeneruj s = kxJ realizacji szeregów z modeli autoregresyjnych M
idla i ∈ J zdefiniowanych następująco:
y ˜
t=
p
X
i=1
φ
iy
t−i˜ + a
t(3)
gdzie a
t∼ N (0, σ
2), ˜ y
t= y
t− µ, φ
1∈ (−1, 1), σ
2= 0.1.
3. LI
s:= utwórz podsumowania lingwistyczne dla Y
ms4. V
s:= oblicz wskaźniki jakości podsumowań dla LI
s5. CL := zbuduj klasyfikator (względem modeli probabilsitycznych) na próbie uczącej [LI
s, C
s].
Drugim etapem działania metody jest wydobycie informacji a priori o krótkich sze- regach. Następuje ewaluacja podsumowań lingwistycznych dla krótkich szeregów czasowych, by możliwa była ich klasyfikacja względem modeli probabilistycznych:
1. [LI
E, V
E] := utwórz wstępne podsumowania dla prognozowanego szeregu y
2. T
E:= ewaluacja podsumowań lingwistycznych przez człowieka na podstawie LI
E, V
E. Ostatnim etapem działania metody jest automatyczne wyznaczenie rozkładów praw- dopodobieństwa i symulacja Łańcuchów Markowa Monte Carlo - MCMC. W oparciu o wyniki data-miningowe i komunikację z użytkownikem (walidację wyników) przeprowadzone zostaje zadanie klasyfikacji i otrzymane w jej wyniku wagi przełożone zostają na estymowane rozkłady prawdopodobieństwa a priori dla poszczególnych modeli p(M
j|M ). Rozkłady te są wykorzystane w symulacji a posteriori MCMC, której celem jest wyznaczenie prognozy i jej rozkładu predyktywnego. Poniżej znajduje się podsumowanie najważniejszych kroków:
1. Sc
Mi:= zaklasyfikuj T
Ena podstawie v
E, CL do M
i2. P := utwórz p(M
j|M ) na podstawie wag klasyfikacji dla modeli Sc
Mi3. y
n+1:= wyznacz prognozę i następujące rozkłady predyktywne dla y w oparciu o sy- mulacje a posteriori MCMC:
p(M
j|y, M ) = p(M
j)p(y|M
j)
p(y|M ) = p(M
j)p(y|M
j)
PJj=1
p(M
j)p(y|M
j) (4) p(ω|y, M ) =
J
X
j=1
p(M
j|y, M )p(ω|y, M
j) (5)
Przypomnijmy, że drugim celem rozprawy doktorskiej jest opracowanie modelu analizy danych zgodnego z ludzką percepcją, umożliwiającego przełożenie informacji nieprecyzyjnej, sformułowanej przez ekspertów danej dziedziny na rozkłady prawdopodobieństwa a priori.
Powyższy cel osiągnięto poprzez zaprojektowanie niniejszej metody. Ekspert udziela odpowie- dzi dotyczących stopnia prawdziwości prezentowanych wyrażeń lingwistycznych. Przykładami weryfikowanych wyrażeń lingwistycznych w języku naturalnym są: Zazwyczaj wartości dla sze- regu X są niskie, Prawie nigdy długie trendy są rosnące.
3.3 Prognozowanie szeregów czasowych w oparciu o regresję liniową z za- stosowaniem informacji nieprecyzyjnej
Opracowano metodę predykcji ciągów informacji lingwistycznej (ang. Bayesian Regression with Linguistic Labels (F-LL)). Zaproponowana metoda obejmuje m.in. analizę szeregów z próby uczącej, segmentację szeregów czasowych, przetwarzanie wyrażeń nieprecyzyjnych, wnioskowanie bayesowskie.
Na Rysunku 2. przedstawiony został schemat ilustrujący działanie metody.
Rysunek 2: Schemat zaproponowanej nowatorskiej metody “Regresja z zastosowaniem pod- sumowan lingwistycznych” (F-LL).
Nieprecyzyjne etykiety służą do konstrukcji rozkładów w zadaniu regresji liniowej. Kroki algorytmu są następujące:
1. S := zdefiniuj liczby rozmyte
2. Y
k:= zdefiniuj zbiór uczących szeregów 3. S
k:= segmentacja Y
k4. X
k,y,S:= utwórz ciągi informacji nieprecyzyjnej dla Y
k.
Następnie zadanie estymacji parametrów modelu regresji rozwiązane zostaje z zastosowa- niem algorytmu Gibbs Sampling [Gelfand and Smith, 1990]:
1. zastosuj ciągi informacji nieprecyzyjnej X
k,y,Sjako macierz objaśniającą w modelu wek- torowej regresji liniowej:
y = Xβ + , ∼ N (0, σ
2I
n) (6)
2. θ = (β, σ) := estymacja w oparciu o próbkowanie Gibbsa
3. y
n+1:= wyznacz prognozę dla y.
4 Wyniki badań eksperymentalnych
Przedstawione w poprzednim rozdziale nowatorskie metody, zostały poddane weryfikacji na danych dotyczących rzeczywistych problemów. W rozdziale 4 rozprawy zestawione są wyniki eksperymentalne.
Analizie porównawczej poddana została efektywność proponowanych metod oraz ich ade- kwatność dla przykładowych zbiorów danych benchmarkowych. Przeprowadzono również ana- lizy dla zbioru danych rzeczywistych, pochodzących z rynku farmaceutycznego. Analizowane zbiory danych są następujące:
1. Dane symulacyjne uzyskane z modeli autoregresyjnych.
2. Dane sprzedaży dla 6 produktów z rynku farmaceutycznego.
3. Dane benchmarkowe, tj.: wybrane szeregi czasowe ze zbioru dostępnego on-line M3- Competition [Makridakis and Hibon, 2000] oraz wybrane szeregi ze zbioru Uniwersytetu Kalifornijskiego [Keogh et al., 2011].
Opisane eksperymenty i symulacje ilustrują działanie proponowanych metod oraz umożli- wiają analizę ich dokładności, a także interpretowalności generowanych przez nie wyników.
4.1 Badania symulacyjne
Na Rysunku 3. przedstawione zostały przykładowe szeregi z rozważanego zbioru danych bę- dące realizacją 2 różnych modeli.
Rysunek 3:
Szeregi będące realizacją (a) M1: φ1= 0.0 (b) M10: φ1= 0.9.Rozważmy dla przykładu podsumowanie lingwistyczne o treści: ”większość trendów w sze- regu ma wartości bliskie zeru”. Na podstawie oceny wizualnej, intuicyjne wydaje się stwier- dzenie, że dla szeregów będących realizacją modelu M
1: φ
1= 0.0, powyższe podsumowanie jest prawdziwe. Natomiast, dla szeregów będących realizacją modelu M
10: φ
1= 0.9, podsu- mowanie to nie wydaje się prawdziwe. Tego typu instuicyjne spostrzeżenia zostały poddane weryfikacji na różnych zbiorach danych.
Na podstawie licznych analiz, zauważono, że rzeczywiście zbiory danych lingwistycznych
podsumowujących szeregi czasowe różnią się dla szeregów autoregresyjnych, będących reali-
zacją różnych modeli probabilistycznych. Liczne eksperymenty potwierdziły także, że wektory
zawierające stopnie prawdziwości dla podsumowań lingwistycznych, są istotnymi zmiennymi
(atrybutami) w analizie dyskryminacyjnej szeregów czasowych.
Tablica 2 Średnie wartości stopnia prawdy dla podsumowań szeregów będących realizacją 10 różnych modeli.
Linguistic summary description M1 M2 M3 M4 M5 M6 M7 M8 M9 M10
Among all y most are short 1.00 1.00 0.95 0.97 0.83 0.71 0.62 0.69 0.57 0.49 Among all y most are low 0.47 0.61 0.45 0.43 0.26 0.22 0.21 0.18 0.21 0.14 Among all y most are moderate 0.47 0.35 0.53 0.51 0.74 0.81 0.77 0.77 0.88 0.86 Among all y most are medium 0.51 0.51 0.64 0.65 0.76 0.88 0.90 0.90 0.95 0.98 Among all decr y most are mod 0.34 0.05 0.25 0.39 0.37 0.44 0.45 0.64 0.71 0.71 Among all decr y most are med 0.17 0.14 0.24 0.28 0.21 0.46 0.41 0.54 0.58 0.69 Among all med y most are cons 0.83 0.82 0.85 0.85 0.93 0.96 0.97 0.93 0.95 0.97 Among all long y most are cons 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00
Rysunek 4: Analiza dokładności klasyfikatora względem liczby atrybutów, czyli liczby podsu- mowań lingwistycznych.
Rysunek 5: Analiza dokładności klasyfikatora względem liczby klas.
Tablica 2 przedstawia średnie wartości stopnia prawdy dla podsumowań szeregów będą- cych realizacją 10 różnych modeli.
Rysunki 4 i 5 przedstawiają wyniki analizy klasyfikatora.Najdokładniejszą klasyfikację uzyskano dla zredukowanej przestrzeni atrybutów (do 9 wybranych najprostszych podsumo- wań lingwistycznych).
Ponadto, wyniki dowiodły, że opracowana metoda dot. przewidywanych trendów, pozwala na dokładną estymację parametrów modelu oraz w konsekwencji dokładniejsze prognozy w porównaniu do tradycyjnych metod, nieuwzględniających dodatkowej informacji nieprecyzyj- nej. Analizą porównawczą objęte zostały tradycyjna metoda Bayes’a z rozkładami a priori nazywanymi „noninformativeóraz 2 wybrane popularne powszechnie metody estymacji para- metrów modeli autoregresji powstałe na mocy równań Yule-Walker’a [Yule, 1927] oraz algo- rytmu Burg’a [Burg, 1968]. Tablica 3 i Rysunek 6 prezentują wyniki.
Tablica 3 Suma średniokwadratowych błędów (próba n=100) dla estymowanego współczyn- nika autoregresji według bayesowskich i tradycyjnych metod estymacji.
Liczba obserwacji w szeregu czasowym
Metoda 10 11 12 13 14 15 16 17 18 19 20 50 100
B: F-LS 1.95 1.84 1.92 1.78 1.81 1.74 1.65 1.69 1.76 1.61 1.63 0.96 0.58 B: uninf 9.85 9.63 7.89 7.82 7.51 7.12 5.69 5.93 5.95 5.31 4.92 1.58 0.81 T: Burg 8.42 8.41 7.10 6.60 5.96 5.55 4.95 5.03 4.68 4.25 4.12 1.41 0.74 T: Y-W 8.54 8.37 7.31 6.69 6.21 5.66 5.10 5.23 4.84 4.46 4.32 1.44 0.75
Rysunek 6: Suma średniokwadratowych błędów (próba n=100) dla estymowanego współczyn- nika autoregresji według bayesowskich i tradycyjnych metod estymacji.
Wybrane najważniejsze wnioski z przeprowadzonych symulacji są następujące:
- Autorska metoda jest szczególnie odpowiednia dla krótkich szeregów.
- Dla szeregów o 10 obserwacjach: zmniejszenie błędu średniokwadratowego dla estymowanego współczynnika autoregresji o 76% oraz zwiększenie dokładności prognozy o 1 krok naprzód o 7%, w porównaniu do tradycyjnych metod estymacji (Yule-Walke’a, algorytm Burg’a).
- Dla szeregów o 20 obserwacjach: zmniejszenie błędu średniokwadratowego dla estymowanego
współczynnika autoregresji o 60% oraz zwiększenie dokładności prognozy o 1 krok naprzód
o 3%, w porównaniu do tradycyjnych metod estymacji (Yule-Walke’a, algorytm Burg’a).
Zauważono także, że dla szeregów o długości 50, 100, nie ma istotnych różnic pomiędzy podejściem bayesowskim a tradycyjnymi metodami estymacji.
4.2 Szeregi czasowe sprzedaży
Dokonano oceny dokładności i użyteczności metody na podstawie analizy wyników progno- zowania rzeczywistej sprzedaży wybranych produktów z rynku farmaceutycznego w okresie 4-5 lat. Bardzo dobre wyniki uzyskane zostały z zastosowaniem metody regresyjnej. Tablica 4 przedstawia wyniki klasyfikacji, natomiast Tablica 5 zestawia średnie błędy prognoz.
Tablica 4 Wynik klasyfikacji dla problemu 3-klas szeregów szeregów farmaceutycznych.
Scores C1 C2 C3
Prod 1 0.02 0.39 0.59 Prod 2 0.86 0.10 0.04 Prod 3 0.92 0.06 0.02 Prod 4 0.58 0.23 0.19 Prod 5 0.94 0.04 0.02 Prod 6 0.08 0.46 0.45
Tablica 5 Porównanie średniego błędu prognoz.
h=1 h=1
APE APE
F-LL VAR P1 0.036 0.129 P2 0.202 0.317 P3 0.900 0.745 P4 0.026 0.326 P5 0.188 0.364 P6 0.703 0.559 ALL 0.342 0.407
Najważniejsze wnioski z przeprowadzonych analiz dla badanego zbioru danych rzeczywi- stych są następujące:
- Współczynnik korelacji dla szeregów rzeczywistych i ciągów nieprecyzyjnych o informacji lingwistycznej wyższy średnio o 20%, niż dla szeregów rzeczywistych między sobą.
- Średnia dokładność prognozy porównywalna z dokładnością tradycyjnego modelu wektoro- wej autoregresji.
- Parametry modelu są łatwe do zinterpretowania przez ekspertów ze względu na powiązanie
z pojęciami w języku naturalnym - kluczowa zaleta metody.
4.3 Zbiory danych benchmarkowych
Analizą porównawczą objęte zostały 26 benchmarkowe metody prognozowania oraz rzeczywi- ste dane (dostępne online) ze zbioru M3-Competition [Makridakis and Hibon, 2000]. Tablica 6 przedstawia rozważane metody benchmarkowe.
Tablica 6 Wybrane najlepsze benchmarkowe metody prognozowania z M3-Competition [Ma- kridakis and Hibon, 2000].
Nazwa metody Autor Opis
Naive2 M. Hibon Podejście naiwne z redukcją trendów sezonowych Robust-Trend N. Meade Nieparametryczny model Holt’a
Flores /Pearce2 B.Flores, S. Pearce System ekspertowy SmartFcs* C. Smart System ekspertowy
Theta V. Assimakopoulos Metoda oparta na dekompozycji szeregów Comb S-H-D M. Hibon Model oparty o analizę trendu
ARARMA N. Meade Modele ARIMA
Single M. Hibon Metoda wygładzania wykładniczego ForecastX* J. Galt System ekspertowy
RBF M. Adya, S. Armstrong,
F. Collopy, M. Kennedy
System regułowy
ForecastPro* R. Goodrich, E. Stellwa- gen
System ekspertowy (dokonuje połączenia m.in. mo- deli Box-Jenkins, wygładzania wykładniczego, mo- deli Poissona, metody Croston’a, modeli średniej ru- chomej)
Auto-ANN K. Ord, S. Balkin Metoda oparta o sztuczne sieci neuronowe
B-J Auto M. Hibon Modele ARIMA
Tablice 7 i 8 prezentują osiągnięte wyniki dla podzbioru krótkich szeregów czasowych.
W klasyfikacji medalowej zaproponowana metoda bayesowska z zastosowaniem informacji nieprecyzyjnej okazała się najlepsza. Dla analizowanych szeregów benchmarkowych błąd pro- gnozowania wynosi 6.7% (według sMAPE), dostarczając 2. najlepszy wynik w porównaniu do benchmarkowych metod prognozowania. Ponadto, dla 40% szeregów z rozważanej próby, zaproponowana metoda uzyskała lepszy wynik, niż metoda o najlepszym średnim błędzie - ForecastPRO.
Następnie, analizie poddano podzbiór szeregów o 47 obserwacjach przy dodatkowym zało- żeniu, że nie dopuszcza się ewaluacji podsumowań przez ekspertów (przyjęte są tylko automa- tyczne podsumowania uzyskane z danych). Metoda z tym założeniem oznaczona jest F-LS*.
Uzyskane wyniki zestawione zostały w Tablicy 9.
Dla analizowanych szeregów benchmarkowych o długości 47 obserwacji błąd prognozowa- nia wyniósł 4.16%, dostarczając najlepszy wynik w porównaniu do najlepszych benchmarko- wych metod prognozowania.
Podsumowując, opracowana metoda przetwarza informacje łatwe do interpretacji dla czło-
wieka oraz dostarcza bardzo dobrych wyników prognozowania dla licznych rozważanych zbio-
rów danych.
Tablica 7 Klasyfikacja medalowa. TOP-3 oraz najmniej dokładne metody dla N1-N10 z M3-Competition. F-LS to autorska metoda, a pozostałe to wybrane najlepsze metody bench- markowe z konkursu.
TOP-3
Metoda I II III ... XV
ARARMA 0 1 1 1
Auto-ANN 2 0 0 1
B-J Auto 0 0 0 1
F-LS 2 0 1 0
Comb S-H-D 0 0 0 0
Flores /Pearce2 0 1 0 2
ForecastPro 0 0 1 1
ForecastX 1 0 1 0
Naive2 1 1 1 0
RBF 0 1 1 0
Robust-Trend 2 2 0 1
SimpleBayes 1 1 0 1
Single 0 1 1 0
SmartFcs 1 1 0 2
Theta 0 1 3 0
Tablica 8 Średni błąd prognoz według sMAPE (ang. symmetric mean absolute percentage error ) oraz MSE (ang. mean square error ) dla zbioru N1-N10 z M3-Competition. F-LS to autorska metoda, a pozostałe to wybrane najlepsze metody benchmarkowe z konkursu.
Method sMAPE sMAPE/Avg sMAPE Method MSE MSE/Avg MSE
ForecastX 6.1 17% ForecastX 163 932 39%
F-LS 6.7 9% F-LS 215 497 20%
Comb S-H-D 6.7 9% Comb S-H-D 213 472 21%
Robust-Trend 6.8 8% Robust-Trend 163 502 39%
Theta 6.8 7% Theta 290 809 -8%
RBF 6.9 6% RBF 202 272 25%
Auto-ANN 7.2 2% Auto-ANN 242 197 10%
ForecastPro 7.4 -1% ForecastPro 380 393 -41%
B-J Auto 7.4 -1% B-J Auto 289 332 -7%
Naive2 7.7 -5% Naive2 266 264 1%
Single 7.7 -5% Single 266 264 1%
SmartFcs 8.5 -15% SmartFcs 408 525 -51%
ARARMA 8.7 -19% ARARMA 392 000 -45%
Flores /Pearce2 9.3 -26% Flores /Pearce2 312 760 -16%
Avg sMAPE 7.3 Avg MSE 269 743