• Nie Znaleziono Wyników

WNIOSKI KOŃCOWE I KIERUNKI DALSZYCH BADAŃ

W dokumencie Index of /rozprawy2/10161 (Stron 138-143)

Wnioski końcowe i kierunki dalszych

badań

5.1 Podsumowanie badań i wnioski

Przeprowadzone w ramach rozprawy badania potwierdziły ogólną koncepcję badawczą,

że skuteczną drogą do usprawnienia predykcji średnioterminowej szeregów finansowych może być konstrukcja rozproszonych algorytmów detekcji zdarzeń zwiastujących załamania trendu, z wbudowanymi mechanizmami samoadaptacji parametrycznej oraz strukturalnej. Do konstrukcji takich algorytmów wykorzystano paradygmat immunologiczny.

W trakcie prowadzonych badań stwierdzono, że do krótko i średnioterminowej predykcji wprawdzie można wykorzystać metodę aproksymacji odcinkowo-liniowej z wykorzystaniem testu największej wiarygodności, lecz konieczna jest implementacja mechanizmów ukierunkowanych na skrócenie stosunkowo długiego (rzędu kilkudziesięciu próbek, tj. kilku miesięcy dla szeregów badanych w pracy) opóźnienia detekcji. Do tego celu zastosowano ideę rozproszonej analizy środowiska szeregu

prognozowanego z wykorzystaniem zdywersyfikowanego zestawu detektorów

krótkoterminowych zmian w sygnałach (analizy przekrojowe), generowanych na podstawie fragmentów analizowanych szeregów otoczenia. Umożliwia to – wraz z możliwością adaptacji parametrycznej – strukturalną adaptację detektorów do zmiennych właściwości przetwarzanych danych. Idea ta jest formą wykorzystania paradygmatu immunologicznego, tj. konstrukcji algorytmów adaptacyjnych inspirowanych działaniem pewnych mechanizmów systemów odpornościowych.

Paradygmat immunologiczny został zaimplementowany przez zdefiniowanie komórek

systemu oraz limfocytów i sprecyzowanie ich roli w procedurze detekcji.

Podstawową cechą immunopodobności, odwzorowaną w tym ujęciu, jest możliwość generowania bardzo dużej liczby limfocytów o komplementarnych właściwościach (w sensie zdolności do wykrywania różnych zdarzeń i ich konfiguracji w szeregach komórki). Oprócz stosunkowo prostej koncepcji wstępnej sygnalizacji zdarzeń (limfocyt L1), której skuteczność wykazano we wcześniejszych pracach autora, skoncentrowano się na konstrukcji limfocytu L2, ukierunkowanego na wiarygodne potwierdzanie zdarzeń (sygnalizowanych przez limfocyt L1). Jego konstrukcję oparto na złożeniu doboru sygnału diagnostycznego zewnętrznego, jego transformacji wewnątrz komórki oraz metody (kryterium) detekcji różnic tych sygnałów w komórce (głównie doboru miar ich odległości).

W pracy pokazano, że istnieje możliwość skonstruowania wielu miar odległości

szeregów, opartych na ogólnie rozumianym pomiarze odległości obliczanej dla

stosunkowo krótkich odcinków szeregów. Do takich miar należą przede wszystkim klasyczne odległości typu Minkowskiego i wykorzystywany w ekonometrii współczynnik t Kendalla, ale również można zdefiniować inne miary, w większym stopniu akcentujące specyfikę rozległych szeregów danych, m.in. finansowych (przede wszystkim zmienność opóźnienia między hipotetycznym zdarzeniem przyczynowym, a jego skutkiem).

W pracy zaproponowano 5 nowych miar odległości, tj.: odległość sygnałów

zdeterminizowanych (Sd), odległość widm Fouriera (SF), miarę odległości uelastycznionych wzorców (W), miarę opartą na porównywaniu zliczonych zdarzeń (Z) oraz miarę opartą na porównaniu zunifikowanych wzorców (U).

W celu oceny przydatności tych miar przeprowadzono badania symulacyjne dla ciągów niezależnych liczb losowych o rozkładzie N(0,1), zakłóconych dużymi odchyłkami o określonym profilu.

Zdefiniowano wskaźnik odległości szeregów zależny od miary ich odległości odniesionej do szeregów losowych o tym samym charakterze. Wskaźnik ten unifikuje uzyskiwane miary odległości i umożliwia łatwe porównanie wyników detekcji zdarzeń uzyskiwanych przy pomocy różnych detektorów.

Wszystkie badane miary odległości sprawdzono dla różnych przekształceń sygnałów diagnostycznych w komórce, tj. szeregów oryginalnych, przekształconych do wartości bezwzględnych i/lub obciętych do części całkowitej. Z badań tych wynika, że:

a) miary klasyczne są mało selektywne;

b) najmniejszą stopę błędów detekcji mają miary SF, Sd i W;

c) w niektórych przypadkach miary Z i U wykazują najlepsze właściwości.

Z powyższego wynika, że przyjęty zestaw miar spełnia warunek

komplementarności, tzn. wychwytują one różne konfiguracje wzorców,

a zaproponowane, oryginalne miary są mało wrażliwe na losowe przesunięcia sygnałów. Wnioski te zostały potwierdzone na wybranych sygnałach rzeczywistych. W pracy zaproponowano, aby analizę podobieństwa (detekcję zdarzeń) ograniczyć do stosunkowo niewielkiego zestawu szeregów (kilkadziesiąt) reprezentujących

środowisko (dostępny zestaw szeregów finansowych). Wykazano, że losowy dobór

sygnałów, ich transformacji oraz metod detekcji chwilowych zdarzeń jest obiecującą drogą do skutecznego wykrywania zdarzeń zwiastujących istotne

zmiany trendu w szeregach.

Badanie skuteczności proponowanego algorytmu detekcji zdarzeń przeprowadzono na danych symulowanych oraz rzeczywistych. Wykazano, że proponowane detektory zwiastują istotne załamania trendu z prawdopodobieństwem znacząco większym niż 0.5, co umożliwia między innymi skrócenie opóźnienia adaptacji parametrycznej predyktorów. Badania przeprowadzono dla reprezentatywnego zestawu prognozowanych szeregów w otoczeniu o różnej liczebności. Dzięki temu możliwe było wykazanie wpływu liczebności analizowanego otoczenia na zwiększenie skuteczności detekcji zdarzeń istotnych, rozumianych jako zmiany trendu (skokowe zmiany wartości

średniej przyrostów szeregów).

Stwierdzono wzrost skuteczności detekcji proporcjonalny do założonej liczby szeregów otoczenia, powodujący jednak istotny wzrost czasochłonności obliczeń. Dodatkowo, zidentyfikowano grupy szeregów, dla których możliwe jest osiągnięcie wysokiej skuteczności wykrycia zmiany trendu, w porównaniu do metod klasycznych. Są to w szczególności notowania pojedynczych spółek oraz szeregi cen surowców. Najniższą efektywność uzyskano dla szeregów grupy walut oraz indeksów światowych.

Ponadto, przeprowadzono analizę wpływu doboru parametrów algorytmu detekcji (progi dopasowania, progi miar odległości) warunkujące wysoką wiarygodność wykrywania zdarzeń. Pozwoliło to m.in. przyjąć, że wiarygodna detekcja wymaga

przetwarzania szeregów przesuniętych w czasie.

Opracowane algorytmy, implementowane w postaci automatycznych metod przetwarzania ogólnie dostępnych danych, będą mogły być wykorzystane m.in. do monitorowania środowiska makroekonomicznego, do optymalizacji transakcji giełdowych, a także do wykrywania nielegalnych transakcji bankowych oraz giełdowych. Proponowana koncepcja będzie przydatna dla użytkownika (np. małego lub średniego przedsiębiorcy) generując zagregowaną informację dotyczącą sytuacji na giełdach papierów wartościowych, towarowych, kursach walut, itp.

Proponowane algorytmy będą mogły mieć zastosowanie również w analizach sygnałów diagnostyki medycznej uzyskiwanych metodą rezonansu magnetycznego, analizach sygnałów satelitarnych i w innych zadaniach, w których możliwe jest łatwe pozyskanie (zarejestrowanie) dowolnej liczby szeregów czasowych, których właściwości nie są zdeterminowane (przewidywalne).

Na podstawie uzyskanych wyników dla trudno prognozowalnych szeregów finansowych można stwierdzić, że implementacja takich algorytmów może być celowa także do wykrywania uszkodzeń w systemach technicznych na podstawie kompleksowej analizy rezidualnej zmiennych procesowych (w tym przypadku jednak mogą być z powodzeniem stosowane mniej elastyczne metody, jak np. wieloskalowa analiza czynników głównych, która ma małą przydatność do adaptacji strukturalnej).

5.2 Dalsze kierunki badań

W niniejszej rozprawie podjęto interesujący, ale bardzo obszerny problem naukowy, wymagający przeprowadzenia szczegółowych badań ukierunkowanych na poszukiwanie możliwości usprawnień algorytmów detekcji zdarzeń oraz predykcji, a także informatywnych sygnałów diagnostycznych. W związku z powyższym, podjęto tylko wybrane wątki ogólnej koncepcji badawczej, wskazując celowość przeprowadzenia dalszych badań, zarówno w obszarze usprawnienia działania

detektorów zdarzeń krótkoterminowych, jak i implementacji adaptacyjnego predyktora. Problemy te będą przedmiotem planowanych badań autora.

W szczególności, badaniom zostanie poddana dalsza możliwość adaptacji strukturalnej oraz parametrycznej detektorów w celu uzyskania bardziej znaczącego skrócenia opóźnienia detekcji długoterminowych zmian. Adaptacja winna być wspomagana przez wykorzystanie zachowanej informacji w pamięci układu (pamięć immunologiczna), umożliwiającej trafniejszy dobór parametrów detektorów oraz sygnału diagnostycznego w odniesieniu do bieżących (chwilowych) charakterystyk szeregów oraz parametrów predyktora średnioterminowego. Elementem wspomagającym winno być także bieżące sprawdzanie efektywności działania detektorów i ich eliminacja (permanentnie lub na określony okres, np. poprzez zastosowanie funkcji kary) w przypadku błędnej klasyfikacji zdarzeń. Z badawczego punktu widzenia interesująca jest także konstrukcja mechanizmów adaptacyjnych, wzorowanych na procesie selekcji negatywnej w układach naturalnych.

W dalszych badaniach przewiduje się implementację algorytmu adaptacji w czasie

rzeczywistym parametrów predyktora średnioterminowego, dostrajanych do zdarzeń

wykrytych współbieżnie w analizowanych szeregach. Umożliwi to wczesną sygnalizację konieczności zaniechania prognoz średnioterminowych i potrzeby modyfikowania parametrów trendu.

Dalsze badania będą również ukierunkowane na szerszą analizę czasochłonności obliczeń, szczególnie w odniesieniu do realnych (z wykorzystaniem ogólnodostępnych mocy obliczeniowych) możliwości przetwarzania dostępnych zbiorów szeregów (w tym każdorazowo selekcjonowanych fragmentów).

W dokumencie Index of /rozprawy2/10161 (Stron 138-143)

Powiązane dokumenty