• Nie Znaleziono Wyników

Badania empiryczne metod analizy technicznej

Przekonanie, że analiza techniczna wykorzystywana przez wielu inwestorów (zwłaszcza indywidualnych), nie jest wartościową metodą konstrukcji portfela papierów wartościo-wych, skłoniło wielu ekonomistów do gruntownego przebadania wybranych jej narzędzi. Początkowo weryfikacji poddawano jedynie te metody, które są precyzyjnie zdefiniowane — na przykład techniczne systemy transakcyjne. W ostatnich latach podjęto próby we-ryfikacji także i tych narzędzi analizy technicznej, które są uważane za subiektywne.

Jednym z pierwszych artykułów poświęconych technicznej metodzie inwestowania, jest praca autorstwa E. Famy i M. Blume’a, dotycząca skuteczności tak zwanej reguły filtra ([FB 1966]). Inwestor postępujący zgodnie z tą regułą, z parametrem x, powinien kupo-wać dany papier wartościowy w dniu, w którym cena zamknięcia tego waloru jest o x% większa, niż cena zamknięcia z dnia wybranego jako dzień referencyjny. Natomiast dni, w

których cena zamknięcia jest niższa o x% od referencyjnej ceny zamknięcia, dają takiemu inwestorowi sygnał do otwarcia pozycji krótkiej35. Stosowanie niskich wartości parame-tru x skutkuje wieloma sygnałami transakcyjnymi, co zwiększa koszty transakcyjne, zaś korzystanie z reguły filtra z parametrem x o wysokiej wartości zmniejsza możliwość zyski-wania dzięki stosunkowo nieznacznym ruchom cen. Reguła filtra może przynieść znaczne zyski, gdy dopasowanie poziomu cen do informacji przepływających przez rynki finansowe jest stopniowe i rozciągnięte w czasie. Fama i Blume sprawdzili, jakie wyniki osiągnął-by inwestor stosujący regułę filtra dla trzydziestu spółek ze średniej przemysłowej Dow Jones, od 1958 do połowy 1962 roku. Uwzględnili 24 różne wartości parametru x z prze-działu od 0,5% do 50%. Rozważali również różne warianty wysokości prowizji brokerskich, płaconych przy otwieraniu każdej pozycji. Zastosowali także strategię pasywną (polega-jącą na kupnie i utrzymywaniu w portfelu wszystkich spółek, przez cały okres analizy), jako pewien benchmark, względem którego mierzone były rezultaty osiągane za pomocą reguły filtra. Otrzymane wyniki wskazują na małą przydatność tej reguły. Średnie sto-py zwrotu obliczone dla poszczególnych akcji, z wszystkich uwzględnionych wariantów z różnym parametrem x, były wyższe od stóp zwrotu ze strategii pasywnej tylko w dwóch z trzydziestu przypadków i to wtedy, gdy nie uwzględniono w analizie kosztów transak-cyjnych. Uwzględnienie tych kosztów powoduje, że zdaniem autorów, największe zyski osiągają brokerzy realizujący transakcje, a inwestorzy ponoszą spore straty. Fama i Blu-me stwierdzili, że sygnały otwierania krótkich pozycji generowane przez regułę filtra, są w największym stopniu odpowiedzialne za ponoszone straty. Średnia strata z krótkich transakcji, dla wszystkich akcji uwzględnionych w analizie wyniosła blisko 13%. Również analiza wyników uzyskanych dla poszczególnych wartości parametru filtra nie przyniosła zmiany wniosków. W przypadku najkorzystniejszych filtrów otrzymano wprawdzie zyski, ale były one niewielkie w porównaniu do zysków z inwestycji pasywnej. Z tego powodu Fama i Blume uznali, że stosowanie reguły filtra nie jest wartościowym sposobem

kon-35Dniem referencyjnym jest zazwyczaj: dla pierwszej transakcji pierwszy dzień stosowania reguły, a dla kolejnych transakcji dzień zawarcia poprzedniej transakcji.

struowania portfela akcji.

Ponad dwie dekady później ich wnioski zostały zakwestionowane przez R. Sweeneya ([SWE 1988]). Zarzucił on, że Fama i Blume niepotrzebnie wykorzystywali sygnały otwar-cia krótkich pozycji wynikające z reguły filtra, podczas gdy jest wiadomo, że krótkie po-zycje przynoszą duże straty. Potraktowanie tych sygnałów wyłącznie jako sygnałów do zamknięcia długiej pozycji, eliminuje te straty i zmniejsza koszty transakcyjne. Ponadto, Sweeney sprawdził, czy reguła filtra może przynieść zyski traderom działającym bezpo-średnio na parkiecie giełdy — ponoszą oni dużo niższe koszty zawierania transakcji niż zwykli inwestorzy, i przez to mogą zyskiwać stosując regułę filtra z niskimi wartościami parametru x. Trzeba zauważyć, że Sweeney zastosował pewną metodę optymalizacji para-metru reguły filtra. Metoda ta polegała na wybieraniu tej wartości parapara-metru x, która w próbce Famy i Blume’a dała najlepsze wyniki36. Otrzymane w ten sposób wyniki pozwoliły mu na sformułowanie tezy, że zastosowanie reguły filtra z wprowadzonymi modyfikacjami pozwala traderom działającym na parkiecie giełdy osiągać zyski przekraczające znacz-nie zyskowność strategii pasywnej. Sweeney stwierdził, że uzyskane wyniki są dowodem przeciwko tezie o słabej efektywności amerykańskiego rynku akcji. Przyznał jednak, że konieczne są dalsze analizy zyskowności reguły filtra, zanim jej przydatność w praktyce inwestycyjnej zostanie definitywnie potwierdzona37.

Reguła filtra jest przykładem bardzo prostego technicznego systemu transakcyjnego. Znacznie bardziej złożonym narzędziem jest system CRISMA (akronim pochodzący od nazw trzech komponentów tego systemu), którego przydatność, w serii artykułów, zwery-fikowali Pruitt i White ([PW 1988], [PW 1989] i [PTW 1992]). Składnikami tego systemu są: skumulowany wolumen (ang. Cumulative Volume) wskaźnik siły relatywnej

wzglę-36Sweeney wybrał 15 spółek, dla których osiągnięto najwyższe stopy zwrotu z pół- i jednoprocentowym filtrem.

37Dwa możliwe wyjaśnienia zyskowności tej reguły, zgodne z hipotezą efektywności informacyjnej, to: (1) wysokość kosztów jakie ponoszą traderzy działający na parkiecie przewyższa zyskowność reguły filtra, i (2) analizowana próbka akcji zawiera spółki ryzykowne, które charakteryzują się wyższym poziomem stóp zwrotu.

dem indeksu S&P500 (ang. RelatIve Strength) oraz dwie średnie kroczące (ang. Moving

Averages)38. Sygnały transakcyjne są generowane w następujących sytuacjach:

• sygnał kupna — gdy średnia krótsza przetnie od dołu średnią dłuższą, średnia

dłuż-sza wznosi się, wskaźniki siły relatywnej i skumulowanego wolumenu zwyżkują od co najmniej czterech tygodni. Sygnał ten jest realizowany, gdy cena wzrośnie o co najmniej 10% w stosunku do poziomu z dnia przecięcia się średnich kroczacych,

• sygnał sprzedaży — powstaje, gdy cena waloru wzrośnie o 20% w stosunku do

wartości z dnia przecięcia się średnich kroczących, które wygenerowało sygnał kupna, lub gdy wykres ceny przetnie w dół wykres dłuższej średniej kroczącej.

Pruitt i White przebadali kursy 204 spółek notowanych w latach 1976–85 na giełdach NY-SE i AMEX i stwierdzili, że stosowanie systemu CRISMA mogło przynieść zyski znacznie wyższe od pięciu uwzględnionych w analizie benchmarków ([PW 1988])39. Zyski te były wyższe od stóp zwrotu z inwestycji pasywnej o 6 do nawet 15% rocznie, dla różnych akcji. Ponadto odsetek udanych transakcji był statystycznie istotnie większy od 1

2, nawet przy przyjęciu bardzo niskiego poziomu istotności. Warto zaznaczyć, że w badaniach uwzględ-nione zostały koszty transakcyjne w wysokości 1% wartości transakcji.

Rok później, ci sami autorzy, poddali testom system CRISMA, tym razem wykorzystu-jąc notowania opcji na akcje, które uwzględniono w poprzednich badaniach ([PW 1989])40. Podobnie jak poprzednio, Pruitt i White stwierdzili, że stosowanie systemu CRISMA po-zwala zawrzeć udane transakcje, w ponad 70% przypadkach, i zrealizować zyski znacznie przekraczające stopy zwrotu z zastosowanych benchmarków.

Po kolejnych trzech latach Pruitt i White, razem z Tse, opublikowali kolejne wyniki dotyczące skuteczności systemu CRISMA ([PTW 1992]). Tym razem badaniami objęty został inny okres czasu, a głównym celem było sprawdzenie, czy skuteczność systemu

38Pruitt i White wykorzystali średnie pięćdziesięcio- i dwustudniową.

394 modele statystyczne oraz rezultaty pasywnej strategii inwestycyjnej.

40Z różnych powodów z badań wykluczono kilkadziesiąt spółek, pozostawiając 171. Pruitt i White brali pod uwagę tylko opcje in–the–money, o drugim najkrótszym terminie do wygaśnięcia.

CRISMA jest taka sama na innej próbie danych. Uzyskane wyniki pozwoliły autorom sformułować wniosek, iż system ten generuje jeszcze wyższe stopy zwrotu, co stawia pod znakiem zapytania tezę o słabej efektywności informacyjnej amerykańskiego rynku akcji. Kolejnym przykładem weryfikacji technicznego systemu transakcyjnego jest artykuł S. Taylora ([TAY 1992]), dotyczący tak zwanej reguły kanału (ang. channel rule). Reguła ta określa sposób zawierania transakcji na rynku kontraktów futures. Stosujący ją inwestor musi najpierw ustalić wartość pewnego parametru — N — i następnie otwierać długie (krótkie) pozycje w kontraktach, gdy cena zamknięcia z danego dnia jest większa (mniej-sza) od maksymalnej (minimalnej) ceny zamknięcia z N poprzednich dni. Taylor powołał się na wyniki badań empirycznych, które dowiodły, że ta prosta reguła daje lepsze progno-zy kierunku zmian cen walutowych kontraktów futures niż modele ekonometryczne typu ARIMA. Następnie wykorzystując metodę Monte Carlo, dowiódł, że jeżeli kursy kontrak-tów futures są dobrze opisywane za pomocą procesu ARIMA(1,1,1), to reguła kanału daje lepsze prognozy znaku zmian tych kursów niż ekonometryczna metoda prognozowa-nia procesów tego typu. W przypadku wykorzystaprognozowa-nia reguły kanału, prawdopodobieństwo prawidłowego odgadnięcia kierunku zmian kursu jest według niego (dla pewnych warto-ści N) wyższe od 60%. Taylor zidentyfikował optymalne wartowarto-ści parametru N, a także wykazał, że wraz z wzrostem kosztów transakcyjnych konieczne jest stosowanie reguły kanału z coraz większym N. Ponadto stwierdził, że wykorzystanie tej reguły, w latach 1980–90, wraz z historyczną optymalizacją parametru N, dałoby w przypadku kontrak-tów terminowych na funta brytyjskiego, niemiecką markę i franka szwajcarskiego znaczne zyski.

Warto również wspomnieć o badaniach analizy technicznej przeprowadzonych przez S. Neftci i A. Policano ([NP 1984]). Wspomniani autorzy podjęli próbę oceny, jaką wartość w prognozowaniu kursów wybranych towarowych kontraktów futures, mają sygnały ge-nerowane przez przecięcia linii trendu i przecięcia średniej kroczącej wybranej długości41. Metody te służą do wyznaczenia obowiązującego trendu cenowego, co w analizie

nej ma krytyczne znaczenie. Jako poziom odniesienia, względem którego mierzona była jakość prognoz, przyjęli optymalne prognozy, które można uzyskać stosując teorię pre-dykcji dla procesów liniowych42. Uzyskane wyniki pozwoliły na sformułowanie wniosku, iż metoda oparta na przecięciach średniej kroczącej wydaje się być lepsza jako sposób pro-gnozowania przyszłych cen kontraktów terminowych od tradycyjnie stosowanych metod ekonometrycznych. Natomiast rezultaty otrzymane dla systemu, w którym wykorzysty-wane są przecięcia linii trendu, nie pozwoliły na wyciągnięcie jednoznacznych konkluzji. Warto zauważyć, że oprócz tych wniosków, cennym wkładem Neftci’ego i Policano do badań nad analizą techniczną, jest jedna z pierwszych prób obiektywizacji metody tech-nicznej, która jest uznawana za subiektywną i nieprecyzyjnie zdefiniowaną — przecięć linii trendu.

Siedem lat później S. Neftci opublikował artykuł, w którym przedstawił kontynuację badań nad analizą techniczną ([NEF 1991]). W pracy tej podjął próbę formalizacji wy-branych metod analizy technicznej i klasyfikacji ich w kontekście teorii liniowej predykcji Wienera–Kołmogorowa. Neftci zauważył, że pewne narzędzia techniczne mogą dawać lep-sze rezultaty, niż ekonometryczne metody predykcji dla procesów liniowych. Uzasadniając tę tezę stwierdził, że dynamika kursów papierów wartościowych wydaje się być nielinio-wa i z tego powodu metody prognozonielinio-wania procesów liniowych stosonielinio-wane do predykcji przyszłych kursów tych walorów, nie dają najlepszych możliwych rezultatów. Natomiast prognozy otrzymywane dzięki analizie technicznej mogą być skuteczne, ponieważ mogą „wychwytywać” nieliniowe elementy fluktuacji kursów instrumentów finansowych. Takie przypuszczenie zostało pozytywnie zweryfikowane przez Neftci’ego, na przykładzie sys-temu transakcyjnego wykorzystującego przecięcia dwóch średnich kroczących. Poza tym Neftci podjął próbę formalizacji analizy trendu (przecięć linii trendu) oraz analizy wybra-nych formacji techniczwybra-nych43. Wydaje się, że jako jeden z pierwszych zdefiniował formacje

42Najlepsze prognozy w sensie kryterium minimalizacji błędu średniokwadratowego. Proces stocha-styczny zdefiniowano jako liniowy, jeżeli w każdym momencie jego wartość oczekiwana, obliczona pod warunkiem znajomości k jego wartości z przeszłości, jest liniową funkcją tych wartości.

techniczne w kategoriach pewnego porządku lokalnych minimów i maksimów badanego wykresu kursu papieru wartościowego44. Ponadto wykazał, że sygnały transakcyjne gene-rowane przez niektóre formacje techniczne (w zmodyfikowanej postaci), można zdefiniować za pomocą tak zwanego momentu stopu (ang. Markov time, stopping time)45. Znaczenie tego faktu jest dosyć duże, ponieważ pozwala na stwierdzenie, że reguły generowania sygnałów transakcyjnych w analizie formacji, mogą być zapisane w precyzyjnej matema-tycznie postaci i mogą być wykorzystywane jako racjonalne metody generowania sygnałów transakcyjnych. Warto jednak zauważyć, że ich zapis za pomocą momentów stopu, czyni analizę tych sygnałów dosyć trudną.

Jedne z najbardziej kompleksowych badań dotyczących technicznych systemów trans-akcyjnych, zostały zapoczątkowane przez pracę autorstwa Brocka, Lakonishooka i Le-Barona ([BLL 1992]) i były kontynuowane przez Sullivana, Timmermanna i White’a ([STW 1999]). Brock, Lakonishook i LeBaron przeprowadzili dogłebną weryfikację dwóch technicznych systemów transakcyjnych: systemu opartego na dwóch średnich kroczących i systemu, w którym sygnały są generowane przez przecięcia linii wsparcia i oporu. W pierw-szym z wymienionych zastosowali pięć różnych par średnich kroczących i dwa warianty filtra eliminującego nieistotne przecięcia średnich, a w drugim wykorzystali trzy sposoby wyznaczania poziomów wsparcia i oporu (maksima lub minima cenowe z ostatnich 50, 150 lub 200 dni). Oprócz weryfikacji skuteczności tych systemów, Brock, Lakonishook i LeBaron podjęli próbę minimalizacji wpływu, jaki na wyniki testów technicznych metod inwestowania ma fakt wielokrotnego wykorzystywania w badaniach, przez różnych

auto-44Podobne definicje zastosował Levy ([LEV 1970]).

45Zmienna losowa jest momentem stopu, jeżeli opisuje zdarzenie, o którym w każdym momencie można powiedzieć, czy już miało miejsce, czy też nie, wyłącznie na podstawie bieżących informacji (nie trzeba do tego informacji z przyszłości). Jest to oczywiście definicja nieprecyzyjna. Formalną definicję momentu stopu i opis ich podstawowych zastosowań w teorii procesów stochastycznych, można znaleźć w pra-cy [JS 2000, rozdział XI]. Neftci wykazał, że klasyczna definicja sygnałów z analizy formacji nie daje się zapisać w postaci momentu stopu, a przyczyną tego jest niemożność określenia czasu kiedy sygnał transakcyjny zostaje potwierdzony. Wystarczy jednak ustalić długość okresu, w którym dopuszczalne jest potwierdzenie tego sygnału, i ten problem traci znaczenie.

rów, tego samego zestawu danych — zjawiska określanego jako „nadmierna analiza danych ” (ang. selection bias, data–snooping bias)46. Wielokrotne przebadanie tego samego zesta-wu danych w końcu skutkuje znalezieniem niezwykle skutecznego systemu transakcyjnego. Wyniki tego systemu mogą być jednak przypadkowe z przynajmniej dwóch powodów. Po pierwsze, może to być jedyny system z setek sprawdzonych, który przynosi dobre wyniki lub, po drugie, może on osiągać tak dobre rezultaty tylko w badanym okresie czasu. W celu uniknięciu drugiej z wspomnianych sytuacji Brock, Lakonishook i LeBaron wyko-rzystali notowania indeksu DJIA z okresu od 1897 do 1986 roku — obejmującego 100 lat i w dużej części niewykorzystywanego we wcześniejszych badaniach. Wyniki uzyskane dla tak długiego okresu pozwoliły autorom stwierdzić, że opinia o nieskuteczności tech-nicznych systemów transakcyjnych nie znajduje potwierdzenia. W przypadku wszystkich wariantów testowanych systemów, zarówno długie, jak i krótkie pozycje przynosiły zyski istotnie wyższe od średnich stóp zwrotu z indeksu Dow Jones47. Ponadto okazało się, że dającym największe zyski długim pozycjom towarzyszą okresy najniższej zmienności stóp zwrotu z indeksu DJIA, co nie pozwala wyjaśnić tych zysków stwierdzeniem, iż są one generowane w okresach, gdy ryzyko inwestycyjne jest duże. Ponadto Brock, Lakonisho-ok i LeBaron zrealizowali eksperyment symulacyjny mający na celu ocenę wrażliwości uzyskanych wyników na zmianę badanych danych. W tym celu zastosowali próbkowanie bootstrapowe i wylosowali 2000 teoretycznie możliwych trajektorii kursu indeksu Dow Jones, które następnie wykorzystali w testach badanych systemów48. Uzyskane wyniki w pełni potwierdziły wcześniejsze wnioski.

W 1999 roku, Sullivan, Timmermann i White opublikowali wyniki badań, które sta-nowiły rozszerzenie analiz przedstawionych powyżej. Wykorzystali formalny sposób oceny

46Formalny sposób eliminacji efektu nadmiernej analizy danych, z testów modeli rynków finansowych, zaproponowali między innymi Lo i MacKinlay [LM 1990]

47Porównywane były średnie dzienne stopy zwrotu w trakcie utrzymywania pozycji długiej lub krótkiej, oraz średnie dzienne stopy zwrotu z DJIA, z okresu 1897–1986.

48Wylosowano po 500 próbek z 4 różnych modeli generujących stopy zwrotu z indeksu: błądzenia loso-wego z dryfem, procesu autoregresyjnego pierwszego rzędu oraz procesów GARCH–M(1,1) i EGARCH. Informacje o metodzie bootstrap znaleźć można między innymi w pracy [KM 2001].

wpływu efektu nadmiernej analizy danych na wyniki uzyskane przez Brocka, Lakonisho-oka i LeBarona. Ich głównym celem było ustalenie, czy systemy transakcyjne badane przez ich poprzedników nie są jedynymi przynoszącymi zyski spośród tysięcy, które przy-noszą straty. Dlatego uwzględnili w badaniach systemy transakcyjne takie jak: regułę filtra, średnie kroczące, przebicia linii wsparcia i oporu, regułę kanału oraz system oparty na pojedynczej średniej kroczącej wskaźnika OBV (ang. On Balance Volume). Ponadto, każdy z tych systemów rozpatrywali z wieloma możliwymi wartościami parametrów, co w rezultacie dało prawie osiem tysięcy różnych technicznych metod inwestowania. Ich analiza potwierdziła słuszność wniosków sformułowanych przez Brocka, Lakonishooka i LeBarona. Jednak po uwzględnieniu w badaniach okresu kolejnych dziesięciu lat notowań indeksu Dow Jones, okazało się, że metody testowane przez tych autorów nie były już tak skuteczne. Również analiza tych systemów dla danych z rynku kontraktów terminowych na indeks S&P500 potwierdziła tezę, że systemy skuteczne przed 1986 rokiem, po tej dacie przynoszą znacznie niższe zyski. Zdaniem autorów, możliwym wyjaśnieniem tego zjawiska jest teza o stopniowym zwiększaniu się efektywności informacyjnej rynków finansowych.

Opisane powyżej badania, dotyczyły systemów transakcyjnych, które są precyzyjnie zdefiniowane i jedynym subiektywnym wyborem związanym z ich stosowaniem jest wybór konkretnej wartości pewnego parametru. Tymczasem analiza techniczna obejmuje wiele innych metod, które sa uważane za znacznie bardziej uznaniowe, jak na przykład analiza formacji. Początkowo uważano, że jej naukowa weryfikacja jest niemożliwa z uwagi na su-biektywizm nierozerwalnie związany z definiowaniem i poszukiwaniem formacji cenowych, Jednak w ostatniej dekadzie XX wieku zostały przeprowadzone badania dotyczące i tej metody analizy technicznej.

W 1995 roku Osler i Chang przedstawili wyniki weryfikacji skuteczności formacji głowy i ramion w praktyce inwestycyjnej rynków walutowych ([OC 1995]). Podstawą ich badań był algorytm identyfikujący tę formację na wykresach kursów instrumentów finansowych

— w tym przypadku kursów 6 walut49. Ważnym elementem tego algorytmu było wygła-dzanie wykresu tych kursów, w celu wyznaczenia kolejnych istotnych szczytów i dołków. Osler i Chang zastosowali w tym celu wskaźnik techniczny o nazwie „zig–zag”50. Następnie zdefiniowali formację głowy i ramion jako ściśle określony układ dołków i wierzchołków wykresu51. Wykorzystując tą definicję przeprowadzili identyfikację formacji głowy i ramion na wykresach kursów sześciu walut a następnie obliczyli jakie zyski osiągnąłby inwestor wykorzystujący sygnały płynące z tej formacji52. W przypadku kursów marki niemieckiej i japońskiego jena, uzyskane zyski okazały się być zarówno statystycznie, jak i ekonomicz-nie istotne53. Osler i Chang postawili hipotezę, iż te zyski są powodowane przez pewne zależności czasowe w kolejnych zmianach kursów walutowych, które nie są uwzględniane w ich modelowaniu. Stosując metodę bootstrap pozytywnie zweryfikowali tę tezę.

Kolejne badania dotyczące analizy formacji przedstawili Lo, Mamaysky i Wang ([LMW 2000]). Identyfikacja formacji technicznych na wykresach cen instrumentów fi-nansowych i weryfikacja ich przydatności w procesie wyboru portfela instrumentów finan-sowych powinna, według nich, przebiegać zgodnie z trzema, niżej opisanymi etapami:

1. Kurs instrumentu finansowego powinien zostać poddany wygładzeniu przy

pomo-49Były to kursy, względem waluty USA, jena japońskiego, marki niemieckiej, dolara kanadyjskiego, franka szwajcarskiego i francuskiego oraz funta brytyjskiego.

50Należy wspomnieć, że wykorzystanie tego wskaźnika wymaga ustalenia wartości pewnego parametru, który decyduje o tym jak „znaczne” minima i maksima lokalne wykresu są klasyfikowane jako dołek lub szczyt. Osler i Chang, w arbitralny sposób, uzależnili wartość tego parametru od odchylenia standardo-wego dziennych procentowych zmian badanych kursów walutowych. Z tego powodu można stwierdzić, że w ich analizie są elementy subiektywne.

51Warunki definicji zapewniały odpowiednią symetrię „ramion” oraz właściwy trend poprzedzający formację.

52Wykryte formacje dostarczyły sygnałów otwarcia pozycji. Pozycje te były zamykane albo po ustalo-nym okresie, albo tak, jakby inwestor przy ich otwieraniu złożył jednocześnie zlecenie Stop Loss z barierą wynoszącą 1%.

53Po uwzględnieniu kosztów transakcyjnych i różnić oprocentowania tych walut i dolara amerykańskie-go.

cy odpowiedniej metody statystycznej54. Operacja ta ma na celu usunięcie szumu informacyjnego (nieistotnych zmian kursu o małej amplitudzie powodujących, że typowy jego wykres jest bardzo „postrzępiony”, co utrudnia rozpoznanie formacji technicznych) z analizowanego szeregu czasowego, oraz wyeksponowanie głównych trendów, zgodnie z którymi kurs badanego instrumentu finansowego zmieniał się.

2. Formacje analizy technicznej należy zdefiniować poprzez odpowiedni układ lokal-nych minimów i maksimów wygładzonego szeregu notowań. Przykładowo formację "głowy i ramion" tworzy sekwencja trzech maksimów lokalnych na przemian z dwo-ma minidwo-mami lokalnymi, przy czym oba minidwo-ma dwo-mają być niższe niż najniższe z maksimów, a środkowe maksimum powinno być wyższe od bocznych. Celem tego postępowania jest umożliwienie identyfikacji danej formacji na wykresie notowań

Powiązane dokumenty