• Nie Znaleziono Wyników

Identyfikacja struktury metodą Grama-Schmidta nieliniowych modeli ciągów czasowych

N/A
N/A
Protected

Academic year: 2022

Share "Identyfikacja struktury metodą Grama-Schmidta nieliniowych modeli ciągów czasowych"

Copied!
13
0
0

Pełen tekst

(1)

Iwona N A B A G Ł O

ID E N T Y F IK A C JA S T R U K T U R Y M E T O D Ą G R A M A -S C H M ID T A N IE L IN IO W Y C H M O D ELI C IĄ G Ó W C Z A SO W Y C H

Streszczenie. Zagadnienie identyfikacji struktury modeli nieliniowych, ze w zględu na dużą złożoność i różnorodność modeli, napotyka na w iele problemów. Dla m odeli liniowych w zglę­

dem parametrów często wykorzystuje się metody dobrze znane i opracowane dla modeli linio­

wych.

W niniejszej pracy zastosow ano do identyfikacji nieliniowych modeli sygnałów losow ych NARMA algorytm identyfikacji m etodą najmniejszych kwadratów, oparty na ortogonalnej dekompozycjii macierzy regresji m etodą Grama-Schmidta i uzupełnioną o algorytm jed n oczes­

nego doboru optymalnej struktury. Procedurę tę zastosowano do jednoczesnej estymacji para­

metrów i wyboru struktury modeli biliniowych.

STRUCTURE IDENTIFICATION OF N O N LINEAR TIME SERIES M O D E LS U SIN G GRAM -SCHM IDT M ETHOD

S um m ary. Identification algorithm based on classical Gram-Schmidt transformation w hich combines structure determination and parameter estimation is reviewed. This algorithm is extended for a class o f discrete-time non-linear time series which polynominal m odels are linear in the parameters. Structure identification algorithm is then applied for bilinear time series.

1. W stęp

W św iecie rzeczywistym m ożem y spotkać sygnały, do opisu których m odele liniow e są nie­

wystarczające. Stosujemy w ów czas m odele nieliniowe. M etody stosow ane do identyfikacji modeli nieliniowych zakładają znajomość struktury modelu a’ priori. Jednak struktura modelu jest zazwyczaj nieznana i zachodzi konieczność doboru adekwatnej struktury modelu.

Algorytmy identyfikacji struktury zależą od rodzaju nieliniowości modelu, a także od spo­

sobu prowadzenia doświadczenia identyfikacyjnego. Wśród modeli nieliniowych na szczególną uwagę zasługują m odele liniow e w zględem parametrów. Przedstawienie modelu w takiej po­

staci um ożliw ia zastosow anie do identyfikacji jego parametrów metod doskonale znanych i stosowanych do identyfikacji modeli liniowych (np. rozwiązanie układu równań normalnych

(2)

Gaussa, dekom pozycja macierzy informacji). Jednak nadal aktualny pozostaje problem dobom struktury. W publikowanych pracach autorzy proponują modyfikację istniejących metod, tak aby p ozw oliły na jednoczesną identyfikację struktury i parametrów. W artykule [5] podano ogóln y algorytm do estymacji parametrów obiektu SISO m etodą najmniejszych kwadratów, oparty na ortogonalnej dekompozycji macierzy regresji różnymi metodami, uzupełnionymi algorytmami doboru optymalnej struktury. Jedną z proponowanych metod jest m etoda Grama- Schmidta z algorytmem doboru optymalnej struktury, którą ze w zględu na jakość działania i łatw ość implementacji zastosowano dla modeli biliniowych.

W poniższej pracy algorytm ten zostanie przedstawiony dla nieliniowych sygnałów loso­

wych opisanych dow olnym modelem w ielom ianowym , a następnie zaadaptowany do identyfi­

kacji struktury i estymacji parametrów dla biliniowych modeli ciągów czasowych.

2. S fo rm u ło w a n ie problem u

Dyskretny, nieliniowy proces stochastyczny m ożem y opisać ogólnym m odelem NARMA (Non-linear AutoRegressive M oving Average).

y(t) = / [ y(t - 1) ,y(t - ny), e(t - 1) e(t - nc) ] + e(t), (1) gdzie:

ny, nc - maksymalne przesunięcia zm ierzonego sygnału i szumu;

c(t) - „biały szum ” o zerowej wartości oczekiwanej;

/ ( • ) - dow olna nieliniowa funkcja.

Podklasą modeli N A R M A są modele typu N A R (Non-linear AutoRegressive):

y(t) = / [ y(t - 1 ) , ... y(t - ny) ] + e (t). (2) W iększość dalszej części rozważań będzie dotyczyła tej klasy modeli. R ozszerzenie na mo­

dele N A R M A zostanie przedstawione w osobnym rozdziale.

Zazwyczaj postać nieliniowej funkcji / ( • ) jest nieznana. Jednakże każdą nieliniową funkcję ciągłą m ożna w miarę dokładnie aproksymować m odelem w ielom ianowym . Przyjmując funk­

cję / ( ' ) jako wielom ian stopnia 1 otrzymujemy następującą postać modelu:

(3)

y(t) = 6 o + Z 0 i1x i l (t) + Z Z 0 il i2 x i l ( t ) x i 2 (t)+..

¡1=1 i1=l i 2=ij

Ily riy

• • • • + Z - - - Z 0 i 1_ i , Xi 1( t ) . . . x i l (t) + e(t).

¡1=1 ¡l= il_ i

gdzie: x,(t) = y(t - 1 ) , x 2(t) = y(t - 2 ) , xny(t) = y(t - ny).

M odel (3 ) m ożna przedstawić jako liniowy model regresyjny o postaci:

M

y ( t ) = Ż 0 i ( t ) ©i + e ( t ) , i=l

gdzie:

t = M = K + 1 ) !

n y ! I !

N

01(0

e(t)

- liczba pomiarów y(t);

- iloczyny Xi (t) do x„y (t) aż do stopnia 1;

0 i (t) = 1 - odpow iada wartości stałej;

- błąd m odelowania + błąd stochastyczny e(t);

- nieznane parametry.

(3)

(4)

Postać w ektorow a modelu jest następująca:

y = O 0 + S , gdzie:

y =

y0)" V e(l) '

, 0 = J 1— 1

_y(N) _0M E(k)

(5)

ą> = = [4> 14> 2 — <t> M 4> 10 ) «!> M (!)

Wymiar macierzy: dim i> = N x M , M ^ N.

M ożliw ość przedstawienia równania modelu nieliniowego w postaci modelu liniow ego względem parametrów sugeruje m ożliw ość wykorzystania do identyfikacji metod opracowa­

nych dla m odeli liniowych, np. metody najmniejszych kwadratów (NK).

(4)

Jeżeli struktura wielom ianu jest znana a’ priori, tzn. macierz regresji <J> zawiera tylko istotne składniki wielom ianu, w ów czas wystarczy znaleźć metodą N K oceny parametrów 0 .

Jeżeli macierz <t> będzie reprezentowała pełny model, to problem jednoczesnej identyfikacji struktury i estymacji parametrów można sformułować następująco:

W yznacz m acierz 0 , (zaw ierającą tylko istotne składniki) z m acierzy O i zn ajdź odpow iada­

j ą c e j e j ocen y 0

P oniew aż liczba wszystkich m ożliwych składników modelu jest zazwyczaj bardzo duża, trudno znaleźć optymalne rozwiązanie pow yższego problemu. Przykładowo dla ny = 2, 1 = 2 liczba nieznanych parametrów wynosi:

( n y + l ) ! (2 + 2)!

M = i - i = 6.

n y ! 1! 212!

D la ny = 4 ,1 = 2 liczba parametrów M = 15, ale dla ny = 10,1 = 5 liczba parametrów wynosi już M = 3003.

3. K la sy czn a m eto d a G ram a-Schm idta

R ozw iązanie problemu N K sprowadza się do rozwiązania układu równań normalnych Gaussa:

( ® T O ) 0 = 0 Ty , (6)

gdzie: ® T <t> jest nazwana macierzą informacji. Najlepsze parametry 0 m ożem y wyznaczyć stosując ortogonalną dekom pozycję macierzy O.

Aby zabezpieczyć się przed słabym uwarunkowaniem macierzy informacji, dokonujemy faktoryzacji w następujący sposób:

0 = W A, (7)

gdzie

A =

1 a [2 a 13 ••• a 1M

1 cc 23 a2M

1 a M - l M I

(8)

jest górno-trójkątną macierzą o wymiarach: dim A = M x M ,

(5)

W =

w i (l) ... WM(l) w / ( N ) ... w M(N)

= [ w r - w M ] (9)

jest m acierzą o wymiarach: N x M i ortogonalnych kolumnach.

WtW = D , (10)

gdzie D jest m acierzą diagonalną, dodatnio określoną.

W m etodzie Grama-Schmidta (G S) ortogonalizacja macierzy <I> przebiega następująco:

W k-tym kroku ortogonalizow ana jest k-ta kolumna w zględem poprzednio zortogonalizo- wanych k - 1 kolumn; operację powtarza się dla k = 2 , M:

Wj = 0 ^ w j 0 y

a ik = — y . 1 - k Wj " j

k-1

Wk

= ® k

- ZctikWi

i=l

w f 0 k = Z w j ( t ) 0 k (t) t=l

Definiując i przekształcając:

O T c D 0 = O Ty ] A 0 = ( W T W ) ‘ w T y 0 = W A

oraz odpow iednio podstawiając:

WtW = D

A 0 = D - * W T y

w j yT

^ D - ^ T y ^ g j =

Hf ‘ Uf .W j W [

otrzymujemy zależność:

A 0 = g .

(U)

(

12

)

( 13)

( 14) Oceny parametrów 0 wyznaczam y z poniższej zależności, stosując algorytm obliczeń wstecz:

0 = A ’ g . (15)

(6)

4. W y b ó r sk ła d n ik ó w stru k tu ry

Naszym zadaniem jest w yselekcjonowanie z pełnej macierzy <I> macierzy O s, zawierającej kolum ny odpowiadające tylko istotnym składnikom modelu. Macierz O s ma Ms (M s < M, Ms ź N ) kolumn.

Postać w ektorow a modelu zawierającego tylko istotne składniki będzie następująca:

y = O s 0 S + ei (16)

Faktoryzacja macierzy O s przebiega tak samo jak poprzednio:

O s = Ws A, , (17)

gdzie W s jest m acierzą o wymiarach N x M, która zawiera M s ortogonalnych kolumn, a ma­

cierz As o wymiarach Ms x Ms jest macierzą gómo-trójkątną.

D okonując przekształceń jak dla pełnej macierzy O otrzymamy w zór (14) w postaci:

As ©s = gs ■ (18)

Z równań (17) i (18) wynika:

O s 0 s = W s g s . (19)

R ów nanie (16) przyjmuje postać:

y = Ws gs + 2 . (20)

B łędy identyfikacji (residua) będą w ięc określone zależnością:

5 = y - W sg s . (21)

Korzystając z powyższej zależności, wariancję sygnału Y m ożem y opisać równaniem:

1 YS ;

N v " ' N “ ]6 ' k N ’

Z e wzoru (2 2 ) wynika, że maksymalną wariancję błędu identyfikacji otrzymamy w ów czas, gdy M s = 0 (m odel nie zawiera żadnego składnika). Włączając i-ty składnik do modelu zmniej­

szam y wariancję błędu identyfikacji.

D la każdej części struktury modelu m ożem y wyznaczyć stopień przynależności składnika Wi do struktury, zdefiniow any następująco:

¿ ( y Ty ) = i i <22i

e y Ty

(23)

(7)

Im w iększy będzie stopień przynależności danego składnika, tym mniejszą wariancję błędu identyfikacji otrzymamy po dołączeniu tegoż składnika do struktury. Sposób selekcji macierzy

<t>s z m acierzy <t> powinien w ięc być następujący:

Obliczając w i-tym kroku stopień przynależności dla M - i + 1 kolumn macierzy W w ybie­

ramy tę kolum nę wj, dla której stopień przynależności jest największy. Kolumna ta staje się i-tą kolumną m acierzy Ws.

4.1. Zm odyfikow any algorytm CGS

Algorytm ortogonalizacji macierzy <b, połączony z wyborem struktury modelu, będzie następujący:

Pierw szy krok: dla i - 1 ,..., M przyjmujemy:

zostaje wybrana jako pierwsza kolumna macierzy Ws razem z pierwszym elem entem wektora gs, gsi = gj(1), i c»si = ©j(1) •

y Ty Wybieramy największy stopień przynależności:

Odpowiadająca mu kolumna

w Si = w j 1) = 0 j

(8)

D ru g i krok: dla i = 1 , M i i * j obliczamy:

W T 0 j

Wybieramy:

a 1 12 _- TSl W s,W si w [ 2) = 0 ; - a J2W SJ ,

(2)T c (2) _ Wi y 8 i ( 2 ) T _ ( 2 ) ’

w i w i

!2) 1 2w[2 )Tw!2 >

1 y i yT

© i 2 ^ = m a x |© [ 2\ 1 < i < M , i * j j .

Następnie

w s2 = w k2) = 0 k a 1 2w sj

zostaje wybrana jako druga kolumna macierzy Ws razem z drugą kolum ną macierzy As, eta = a k 12 oraz drugim elementem wektora g s, gs2 = gk<2>, i ©S2 = C0k<2).

N a stęp n e kroki są analogiczne do kroku drugiego.

W ybór modelu będzie prowadzony dopóty, dopóki nie zostanie spełnione kryterium zakoń­

czenia obliczeń, np. zgodnie z kryterium informacyjnym Akaikego AIC:

A IC [l] = N In C ( © S) + 2 M S , gdzie

Jeżeli:

AIC[ 1 ] > AIC [ 1 - 1 ] ,

procedura selekcji zostaje zakończona i (1 - 1) - sza struktura zostaje wybrana.

O ceny parametrów 0 S w yznacza się w prosty sposób z zależności:

As © s = &

(9)

zgodnie z algorytmem obliczeń wstecz:

ń _ g M e M ---

a MM M

g i “ I a ik 0 k

§ . = --- >1H±!---, i = M - 1 ,...,1 a ;;

Ponieważ a« = 1, więc:

0 M = S M

k= i+ l gdzie:

M = M s , 0 = 0 s , g = g s .

5. R ozszerzen ie algorytm u na m odele N A R M A

N iech macierz O reprezentuje pełny model, podzielony na dwie macierze:

O = [ O p : 4». ], gdzie:

Op - zawiera tylko zm ierzone wartości sygnału i ich iloczyny,

0 „ - zawiera błędy m odelowania i iloczyny błędów m odelowania i wartości sygnału.

Zadanie jednoczesnej estymacji parametrów i identyfikacji struktury rozwiązuje się tak jak poprzednio. N ależy w ydzielić macierz Os z macierzy O i znaleźć odpowiadające jej parame­

try. Tym razem jednak macierz Os składa się z dw óch macierzy:

Os = [ 0 „ : O m] , (24)

przy czym macierz O n jest nieznana (zawiera nieznane błędy modelowania).

Sposób postępowania powinien w ięc być następujący:

1. K ro k p ierw szy

(a) N ależy wybrać Mps kolumn macierzy O,» z macierzy O zgodnie z algorytmem wyboru ko­

lumn podanym poprzednio.

(b) M etod ą obliczeń w stecz w yznaczyć początkowy wektor parametrów 0 ®.

(10)

(c) N a podstaw ie otrzymanego wektora parametrów ©j? należy w yznaczyć początkowy w ektor b łęd ów modelowania {e° ( t )} , utworzyć macierz O n i wybrać z niej Mm kolumn macierzy <t>m.

(d) D o macierzy O ps zostają d ołożon e kolumny macierzy Korzystając z tak utworzonej pełnej macierzy należy w yznaczyć now y wektor parametrów 0 g i w ygenerow ać nowy wektor błędów m odelowania {e 1 ( t )}.

2. K rok n a stęp n y (ogóln ie)

W k-tej iteracji dzięki wektorowi błędów m odelowania z poprzedniej iteracji {ek"' (t)} two­

rzona jest macierz <t>k . Z macierzy:

[ : O k ] wybierana jest macierz <J>|:

® k ;(£>k - Ps ns_

W yznaczany jest wektor parametrów 0 k i generowany now y wektor błędów modelowa­

nia {elc (t)}.

3. Procedura z punktu 2 jest powtarzana dopóki nie zostanie spełnione kryterium AIC.

Ostatecznie zostaje wybranych:

M , = M k + M k

s Ps ns

kolumn macierzy i w ygenerowany wektor ocen parametrów 0 k .

5.2. M odele biliniowe

M od ele biliniow e (B A R M A ) należą do klasy modeli nieliniowych w zględem zmiennych, ale liniowych w zględem parametrów. Ogólna postać modelu biliniowego jest następująca:

A ( D ) y ( t) = c ( D ) e( t) + Z Z P k i e { t _ k ) y ( t _ 1 ) ’ k = l 1=1

gdzie:

a(z- 1) = 1 + a i z -1 + a 2 Z _ 2 + . . . + a cjĄ Z _ d A

,

C ( z - 1 ) = l + c j z - 1 + c 2 z _ 2 + ...-l-c (j c z “ d C .

(11)

M acierze <$p i C>„ dla modelu biliniowego mają następującą postać:

® P = [ 1 y ( t - 1) y(t - 2) ... y(t-dA) ] 4>„ = [ e ( t - 1) e(t - 2) . . . e(t-dC)

e(t - 1) y (t - 1 ) e(t - 1 ) y (t - 2) . . . e(t - 1) y (t - L) e(t - 2) y (t - 1) e(t - 2) y (t - 2) . . . e ( t - 2) y (t - L)

e (t - K) y (t - 1) e(t - K) y (t - 2) . . . e(t - K) y (t - L)]

A lgorytm id en ty fik a cji struktury m odeli B A R M A

1. W pierwszym kroku szukamy dla ciągu biliniowego najlepszego modelu liniow ego typu AR, stosując kryterium AIC. Z macierzy ® p wyznaczamy macierz ® p, i początkow y wektor pa­

rametrów © s U żywając otrzym anego wektora parametrów generujemy początkow y w ek ­ tor b łęd ów m odelowania {e° (t)} i tworzymy macierz d>„.

2. Dalszy sposób postępowania jest analogiczny do algorytmu podanego dla modeli NAR M A.

5.2. Badania sym ulacyjne

Zasym ulowano ciągi biliniowe o postaci:

1. y (t) = 0.45 y (t - 3) e (t - 2 ) + e (t) 2. y (t) = 0.45 y (t - 2) e (t - 3) + e (t)

3. y (t) = -0.3 y (t - 1) + 0.45 y ( t - I) e (t - 1) + e (t), gdzie e (t) jest „białym szumem” o wariancji = 1.

Przeprowadzono następujące doświadczenie identyfikacyjne: zasym ulowano 100 ciągów o liczbie pom iarów 1024 każdy, a następnie przeprowadzono zgodnie z podanym algorytmem jednoczesną identyfikację struktury i parametrów dla każdego ciągu.

Uzyskano następujące wyniki (uśrednione):

Num er ciągu Estymaty parametrów

1 p 32 = 0 .4 4 3 6 p 23 = 0 ,0 0 7 1 p kI = r l 0 ~ 5

2 p 23 = 0 .4 4 3 6 P 32 = 0 ,0 0 4 1 p kl = r lO “ 5

3 I , = - 0 . 3 0 6 P u = 0 ,3 8 3 2 P kl = r l 0 ~ 5

(12)

Podczas identyfikacji struktury dla zaledw ie kilku realizacji ciągów została znaleziona struktura modelu odpowiadająca dokładnie strukturze obiektu. D la w iększości przykładów algorytm wybierał dodatkow e składniki struktury (różne), ale w yznaczone dla nich wartości parametrów były rzędu co najwyżej 10'2. Parametry te zostały uw zględnione w tabeli w postaci ogólnej Pki = rlO - 5 .

LITERA TU RA

1. Bielińska E., Minimum variance prediction o f bilinear time series - direct and adaptive ver­

sion. Journal o f Forecasting, V o l.12, pp. 459-280, 1993

2. Billings S., Leontaritis I. J., Parameter estimation techniques for nonlinear systems. 6-th IF AC Symposium on Identification and System Parameters Estimation, Arlington, Virginia, U SA , 1982

3. B ox G .E., Jenkins G.M., Time series analysis. Holden Day, San Francisco, 1970

4. Chen S., Billings S. A., M odelling and analysis o f nonlinear time series. Int. J. Control, Vol.

50, N r 6, pp. 2 1 5 1-2171, 1989

5. Chen S., Billings S.A ., Orthogonal least squares methods and their application to non-linear system identification. Int. J. Control, Vol. 50, Nr 5, pp. 1873-1896, 1989

6. Haber R ., Unbehauen H ., Structure Identification o f Nonlinear Dynam ic Systems - A Su­

rvey on Input / Output Approaches. Automatica, Vol. 26, Nr 4, pp. 651-677, 1990

7. Korenberg M ., Billings S.A ., Liu Y .P., McIIroy P.J., Orthogonal parameter estimation al­

gorithm for non-linear stochastic systems. Int. J. Control, Vol. 48, Nr 1, pp. 193-210, 1988 8. Ljung L., System Identification: Theory for the User. Prentice-Hall, N e w Jersey, 1987 9. Tang Z., M ohler R .R., Bilinear time series: Theory and application. Lecture N otes in Con­

trol and Information Sciences, V ol. 106, Springer - Verlag, Berlin, 1989

Recenzent: D oc. dr hab. Zbigniew Nahorski

W płynęło do Redakcji 2 3 .0 6 .1 9 9 4 r.

(13)

Abstract

M ost signals encountered in the real world are non-linear. W e can describe them using a polynominal time series model linear in the parameters, e.g. N A R M A m odel (Non-linear Au- toRegressive M oving Average).

When the m od el’s structure is known, only the values o f the parameters should be identified.

Identification can thus be formulated as a standard least squares problem which can be solved using various w ell-developed numerical techniques. Unfortunately the model structure o f real systems is rarely know n a ’ priori.

The m odel structure is generally unknown at the beginning o f the identification and w e o- ften have to consider the full model set. In reality each model may involve only a few signifi­

cant terms w hich adequately characterize the system dynamics. The determination o f the structure or w hich terms to include in the final model is essential.

Let <b represents the full model matrix. The combined problem o f structure selection and parameter estimation can be define as follows:

Select a su bm atrix <h3 (which contains on ly significant term s) o f m atrix <f> a n d f i n d the corre­

sponding p a ra m e te r estim ate © s .

Because the number o f all the possible terms can easily became excessively large it is very dif­

ficult to attain the optimal solution o f the above problem.

There are orthogonal algorithms which efficiently combine structure selection and parame­

ters estimation. T hese methods base on the w ell-known techniques o f orthogonal decom posi­

tion o f the regression matrix.

Identification algorithm based on orthogonal least squares method, know as classical Gram- Schmidt transformation is reviewed. This algorithm is extended for a class o f discrete-time non-linear time series which polynomial models are linear in the parameters. Structure identifi­

cation algorithm is then applied for bilinear time series.

Cytaty

Powiązane dokumenty

wie tak uaktualnionego zbioru pomiarów nowej warteśoi biedąoej ooeny. V przypadku skorelowanych błędów pomiarów zachodzi konieoznoćć w rekurenoy j- nym algorytmie

Pod nazwą metody momentów kryje się grupa algorytmów identyfikacji modeli ciągów czasowych wykorzystująca statystyczne właściwości identyfikowanego modelu oraz

W problemie estymacji parametrów w nieliniowych modelach regresji metodą najmniejszych kwadratów najczęściej wykorzystuje się metody Gaussa-Newtona i Levenberga-Marquardta oraz

Jedną z metod umożliwiających obliczanie opływów modeli budynków jest metoda dekompozycji pola prędkości, często wykorzystywana do symulacji numerycznej zagadnień dynamiki

Istotną cechą systemu obrabiarka – proces skrawania (O-PS) jest jego wibrostabilność. Prognozowanie wibrostabilności polega na wyznaczeniu wykresu granicznej głębokości skrawania

Wykluczono wpływ liczby ludności, liczby miast i udziału

Na podstawie tych danych oszacuj metod¡ najmniej- szych kwadratów model regresji liniowej wpªywu dochodów na wydatki konsumpcyjne w gospodarstwie domowym9. Oblicz sumy kwadratów

(Centralne twierdzenie graniczne dla ciągów niezależnych zmiennych losowych o jedna- kowym rozkładzie) Niech dany będzie ciąg niezależnych zmiennych losowych {Z n } o tym