• Nie Znaleziono Wyników

Reguła Taylora dla Polski – analizowane warianty W opracowaniu zweryfikujemy, czy stosunkowo prosta reguła polityki

pie-niężnej, jaką jest reguła Taylora, znajduje potwierdzenie w danych dla gospodar-ki Polsgospodar-ki. Już w tym miejscu zaznaczamy, że szacowane równania traktujemy przede wszystkim jako „dobre przybliżenie” funkcji reakcji polityki pieniężnej. W praktyce bowiem polityka pieniężna jest prowadzona raczej w sposób eks-percki niż „mechaniczne” podążanie za z góry ustaloną stosunkowo prostą re-gułą. W szczególności bierze się pod uwagę znacznie szerszy zbiór zmiennych niż inflacja i luka produkcyjna, a do tego siła reakcji może ulegać zmianie. Prob-lem reakcji na wiele zmiennych można uwzględnić na kilka sposobów – w pracy badamy podejście z wykorzystaniem syntetycznych wskaźników uzyskiwanych za pomocą analizy czynnikowej. Natomiast stabilność parametrów reguły Taylora ocenimy na podstawie szacunków opierają się na zmieniającej się próbie z rozsze-rzającym się oknem estymacji (recursive sample).

Jak już wspominano w poprzednim rozdziale, zdecydowana więk-szość badań empirycznych nad regułą Taylora uwzględnia wygładzanie stóp

procentowych1. Dlatego też nasze szacunki reguły Taylora dla Polski rozpo-czniemy od weryfikacji hipotezy H2 o wygładzaniu mechanizmu stóp procen-towych.

Rozpatrzymy więc trzy rodzaje reguł różniących się horyzontem reakcji na inflację i lukę produkcyjną. Z wyjątkiem badań Walluscha (2013, rozdz. 5) – w których jednak nie uwzględniono wygładzania stóp procentowych, te trzy warianty reguły Taylora dla Polski nie były estymowane w jednej pracy. Ponad-to w wyjściowych postaciach reguł adaptacyjnej i bieżącej poszerzamy regułę o przyrosty luki i inflacji, przez co uwzględniamy postulat modelowania „od ogółu do szczegółu”. Jak już wspomniano, jednoczesne uwzględnienie przyrostu i poziomu danej zmiennej może także być przybliżeniem jej nieliniowego wpły-wu. Natomiast w regule antycypacyjnej, gdzie stosujemy estymację za pomocą uogólnionej metody momentów, ograniczamy się do wariantów z mniejszą liczbą parametrów. Ograniczenia nakładane na liczbę parametrów wynikają z trudno-ści ze znalezieniem odpowiedniej ilotrudno-ści „dobrych” zmiennych instrumentalnych (przypomnijmy z rozdz.1, że ich liczba musi być większa od liczby szacowanych parametrów). Stąd też w tym ostatnim wariancie wyjściowa specyfikacja reguły nie zawiera przyrostów inflacji i luki.

Pierwszym rozpatrzonym wariantem jest reguła adaptacyjna (backward lo-oking) o postaci:

i

t

=i

0

i

t−1

π

π

t−k

x

x

t−l

∆π

∆π

t−k

∆x

∆x

t−l

t (3.1) Kolejnym wariantem jest reguła bieżąca (current looking), która przedsta-wia się następująco:

i

t

=i

0

i

t−1

π

π

t

x

x

t

∆π

∆π

t

∆x

∆x

t

t (3.2) Wreszcie ostatnim wariantem jest reguła antycypacyjna (forward looking), uwzględniająca postulat „wyprzedzającej reakcji” na inflację i lukę produkcyjną:

i

t

=i

0

i

t−1

π

E

t

t+m

)+φ

π

E

t

t+n

)

t

t (3.3) Uwaga: na podstawie parametrów powyższych równań możemy obliczyć długookresową reakcję na inflację i lukę, daną wzorami odpowiednio: φ

ρ π (1 ) oraz φx ρ (1 ).

Osobnym przypadkiem rozpatrzonym w opracowaniu jest wariant reguły antycypacyjnej, w którym bank centralny – pośrednio – reaguje na dużą liczbę 1 W okresie styczeń 1999 – styczeń 2013 Rada Polityki Pieniężnej podjęła 32 decyzje o zmia-nie stopy referencyjnej 0,25 p. proc., wobec 57 wszystkich decyzji o zmiazmia-nie tej stopy.

zmiennych potencjalnie kształtujących inflację. Wariant ten posiada interesującą motywację ekonomiczną, a także nieco inne podejście metodologiczne. Zagad-nienie to omówimy poniżej.

Podejście data-rich w analizie reguł polityki pieniężnej

Strategia bezpośredniego celu inflacyjnego, stosowana m.in. przez Narodo-wy Bank Polski, zakłada, że cel nadrzędny banku centralnego jakim jest utrzyma-nie niskiej inflacji jest wyrażony ilościowo i podany do publicznej wiadomości, a jego realizacja nie wymaga użycia celów pośrednich2. Dlatego też bank central-ny w procesie podejmowania decyzji bierze pod uwagę dużą liczbę zmiencentral-nych mających wpływ na kształtowanie się inflacji (zob. np.: Bernanke i in., 2001, s. 22). Przykładowo, w Polsce, poza wskaźnikiem cen towarów i usług konsump-cyjnych, za pomocą którego wyrażony jest cel inflacyjny, analizie podlegają takie zmienne jak: ceny producenta, PKB oraz jego komponenty, dochody i wydatki sektora finansów publicznych, charakterystyki rynku pracy, kurs złotego wzglę-dem głównych walut, zmienne z rynku finansowego, agregaty pieniężne czy saldo bilansu obrotów bieżących (zob. Raport o inflacji, listopad 2012).

Taka praktyka, w połączeniu z postulatem reakcji wyprzedzającej, wskazuje, że analizy polityki pieniężnej powinny odzwierciedlać reakcję banku centralnego na szeroki wachlarz zmiennych mających potencjalne znaczenie prognostyczne.

Standardowym podejściem do formalno-modelowej metody uzyskania zmiennych syntetyzujących informacje pochodzące z licznego zbioru danych są modele czynnikowe (zob. Stock i Watson, 2006; w literaturze polskojęzycznej: Szafrański, 2013). Jednocześnie wiele prac poświęconych prognozowaniu sygna-lizuje, że tak otrzymane zmienne mają dużą zdolność prognostyczną3. Oczywiście mamy świadomość, że reakcja władz monetarnych na tak wiele zmiennych ma charakter ekspercki i wynika raczej z dyskusji i ścierania się poglądów członków ciał decyzyjnych4 niż z formalnej analizy czynnikowej. Przypuszczamy jednak, że wprowadzenie tak skonstruowanej syntetycznej zmiennej może przybliżyć za-stosowany model do rzeczywistości.

Idea zaprezentowana powyżej została wykorzystana po raz pierwszy przez Bernankego i Boivina (2003), którzy w charakterze inflacji oczekiwanej 2 Obszerny przegląd tej strategii przedstawia np. Svensson (2011). Szerszy opis dla Polski przedstawiają np. Krajewski i Baranowski (2006), Musielak-Linkowska (2007).

3 Na przykład Kotłowski (2008) oraz Baranowski, Leszczyńska i Szafrański (2010) wskazują, iż zmienne skonstruowane za pomocą analizy czynnikowej pozwalają dobrze prognozować inflację w Polsce. Analogiczne wnioski dotyczące dynamiki PKB przedstawia praca Łupińskiego (2012).

4 Rada Polityki Pieniężnej w połowie 2007 roku rozpoczęła publikację dokumentów opisują-cych dyskusję na posiedzeniach (Opisy dyskusji Rady Polityki Pieniężnej na posiedzeniach

wykorzystali prognozy z dynamicznego modelu czynnikowego, następująco de-finiując oczekiwania5:

E

t

t+1

)=ϕ

1

ƒ

1,t

2

ƒ

2,t

+…+ϕ

R

ƒ

R,t (3.4) gdzie:

ƒ

1,t

, ƒ

2,t

,…, ƒ

R,t – wspólne czynniki (kolejno, według malejącego udziału

wariancji objaśnionej),

ϕ

1

2

,…,ϕ

R – parametry strukturalne.

Zbliżone podejście zaproponowali Favero i in. (2005), którzy oszacowali parametry reguły Taylora za pomocą uogólnionej metody momentów6, stosu-jąc wspólne czynniki w charakterze zmiennych instrumentalnych. W rezultacie oczekiwania inflacyjne zostały zdefiniowane jako kombinacja liniowa bieżących wartości wspólnych czynników, podobnie jak w podejściu Bernankego i Boivina (2003). Jedyna różnica tkwi w oszacowaniach parametrów

ϕ

1

2

,…,ϕ

R, przy czym zaletą estymacji przy pomocy uogólnionej metody momentów jest zgod-na i efektywzgod-na estymacja w warunkach autokorelacji lub heteroskedastyczności składników losowych równania (4). Dodatkowo, jak wskazują Kapetanios i Mar-cellino (2010), użycie w charakterze instrumentu wspólnego czynnika poprawia efektywność estymatora. Co więcej, dobre własności estymatora są zachowane nawet w przypadku, gdy instrumenty są słabo skorelowane z endogenicznymi zmiennymi objaśniającymi (opisany w rozdz. 1 problem „słabych instrumentów”) lub gdy istnieją zmienne wchodzące w skład wspólnych czynników, dla których udział wariancji wyjaśnionej przez wspólne czynniki spada wraz z dodaniem kolejnych zmiennych do tego czynnika (problem „słabej struktury wspólnych czynników”).

Wykorzystane dane statystyczne