• Nie Znaleziono Wyników

Prognozy adaptacyjne z wykorzystaniem hybrydowego modelu opartego na sieci MLP i sieci Kohonena opartego na sieci MLP i sieci Kohonena

Na koniec przedyskutujemy jeszcze problem wykorzystania sieci neurono-wych w procesie prognozy adaptacyjnej, w której model predykcji tworzony (uczony) jest dla konkretnej prognozy. Należy jednak zauważyć, że prezentowa-ne tutaj wyniki mają charakter wstępny. W chwili obecprezentowa-nej podejście adaptacyjprezentowa-ne ma bowiem, w opinii autora, dużo większe znaczenie laboratoryjne niż prak-tyczne. Problemem, jaki napotykamy przy wdrażaniu tego typu systemów, jest konieczność automatyzacji procesu wyboru danych treningowych oraz samego uczenia sieci przy stosunkowo niewielkiej liczbie obserwacji w zbiorze uczą-cym. Na obecnym etapie przeprowadzenie właściwej selekcji wzorców trenin-gowych wymaga jednak pewnego udziału czynnika ludzkiego – doświadczone-go analityka danych. Również uczenie sieci neuronowej dla stosunkowo niewielkich zbiorów danych, z jakimi mamy w tym przypadku do czynienia, jest procesem dosyć złożonym.

Tym niemniej wstępne wyniki laboratoryjne są na tyle obiecujące, że zde-cydowaliśmy się przedstawić tę metodę jako możliwą przyszłą gałąź rozwojową technologii prognostycznej w dziedzinie prognozowania zapotrzebowania na energię. Jej idea polega na wyborze zbioru treningowego w postaci obserwacji wzorców zapotrzebowania na energię najbardziej podobnych do wzorca wej-ściowego danych dla konkretnej prognozy. Do wstępnej analizy bazy danych historycznych obciążeń i wyboru zbioru obserwacji treningowych w naszych badaniach wykorzystaliśmy sieć neuronową SOM (Self Organising Map) Kohonena (Bardzki, Bartkiewicz 1995).

Sieci SOM Kohonena stanowią kolejną standardową architekturę sieci neu-ronowych wykorzystywanych głównie w procesie analizy, grupowania i wizua-lizacji danych. Szczegóły ich działania znaleźć można w każdej niemal pozycji z literatury przedmiotu (patrz dla przykładu Zieliński 2000; Hertz, Krogh, Palmer 1993; Korbicz, Obuchowicz, Uciński 1994; Żurada, Barski, Jędruch 1996). Składają się one zwykle z warstwy wejściowej oraz z jednej warstwy neuronów przetwarzających, zwanej warstwą konkurencyjną lub Kohonena.

Jak wspomnieliśmy, sieci Kohonena wiążą się z procesami grupowania i klasyfikacji danych. Uformowane w procesie uczenia kategorie reprezentowa-ne są przez reprezentowa-neurony warstwy konkurencyjreprezentowa-nej. Dareprezentowa-ne podobreprezentowa-ne, które powinny być zakwalifikowane do tej samej grupy, aktywizują ten sam neuron. Jego wagi tworzą tzw. centroid klasy w wielowymiarowej przestrzeni wejść.

Podstawową operacją wykonywaną przez neurony w warstwie konkuren-cyjnej sieci Kohonena jest wyznaczanie odległości między wagami neuronu w a wektorem wejściowym sieci x. Wyjście każdego i-tego neuronu yi obliczane jest więc jako (Zieliński 2000):

i i

y = xw (2.2.16a) Zwykle stosowana jest metryka euklidesowa:

nj= j ij i x w 1 2 ) ( = y (2.2.16b)

Proces uczenia sieci SOM, w odróżnieniu od omawianego wcześniej algo-rytmu wstecznej propagacji błędu, ma charakter nienadzorowany. Dane trenin-gowe nie zawierają żadnej informacji na temat pożądanych wyjść. Sieć ma za zadanie samodzielnie pogrupować niezaetykietowane dane, jedynie na podsta-wie występujących w nich korelacji. Algorytm uczenia stosowany w sieciach Kohonena polega na tzw. uczeniu konkurencyjnym lub uczeniu typu „zwycięzca bierze wszystko”. Neurony sieci, w odpowiedzi na sygnał wejściowy, rywalizują ze sobą. Rywalizację tę wygrywa jeden neuron, na ogół najsłabiej reagujący. Zwycięski neuron oraz ewentualnie jego najbliższe otoczenie podlegają proce-sowi uczenia polegającemu na zbliżeniu (w różnym stopniu) ich wag do wektora wejściowego.

Proces uczenia rozpoczynamy więc od (zazwyczaj losowej) inicjacji wag. Następnie iteracyjnie prezentujemy kolejne wektory ze zbioru treningowego. Dla każdego z nich znajdujemy najsłabiej reagujący neuron w warstwie konku-rencyjnej (Zieliński 2000): ||) (|| min = ) ( min = 1 1 i M i i M i c y y xw (2.2.17) gdzie M jest liczbą neuronów sieci.

Następnie wektor wag każdego z neuronów sieci wi modyfikowany jest zgodnie z regułą: ) )( , ( j ij ij h c i x w w = − Δ η (2.2.18) gdzie: η – współczynnik uczenia,

c – indeks neuronu zwycięskiego, h(c, i) – funkcja sąsiedztwa,

1≤ i ≤ M – indeks neuronu; M – liczba neuronów w warstwie konkurencyj-nej,

Algorytm uczenia sieci SOM Kohonena działa więc na zasadzie korekty wag zwycięskiego neuronu tak, by „przesunąć” je, w pewnym stopniu, w stronę prezentowanego sieci wzorca danych wejściowych. W ten sposób, po wielokrot-nej prezentacji zbioru treningowego, wektory wag neuronów sieci stają się uśrednionymi centrami skupień wzorców danych, dla których zwycięża dany neuron.

W każdym kroku modyfikowane są nie tylko wagi neuronu zwycięskiego, ale również innych węzłów sieci SOM. Wagi jednostek położonych blisko zwycięzcy są modyfikowane silniej niż tych bardziej odległych. Dzięki temu uzyskuje się przydatny w wielu zastosowaniach efekt płynnego przejścia po-między skupieniami. Skupiska reprezentowane przez neurony położone bliżej siebie w strukturze sieci grupują wzorce danych bardziej podobne do siebie niż w przypadku neuronów odległych. Efekt ten osiągany jest poprzez zastosowanie w procesie uczenia (2.2.18) funkcji sąsiedztwa regulującej stopień modyfikacji wag dla danego neuronu. Funkcja ta powinna spełniać następujące warunki:

– h(c, c) = 1,

– h(c, i) → 0, w miarę jak rośnie odległość i-tego neuronu oraz zwycięskie-go c, w sensie ich położenia w strukturze sieci,

– współczynnik uczenia η oraz sąsiedztwo powinny maleć w miarę postę-pów uczenia.

Klasy, jak już wspomnieliśmy, formowane są przez wektory wejściowe, dla których zwycięża ten sam neuron. Mają one formę kul w wielowymiarowej przestrzeni wejść, których środek (zwany centroidem lub prototypem) wyzna-czony jest przez wektor wagowy odpowiadającego im neuronu. Proces adapta-cyjnego wyboru danych do uczenia modelu prognostycznego polega więc na:

– treningu sieci SOM Kohonena dla wzorców odpowiadających wejściom prognozy, przygotowanym z bazy danych historycznych obserwacji obciążeń sieci elektroenergetycznej i warunków atmosferycznych; w wyniku otrzymu-jemy wektory wagowe neuronów sieci Kohonena odpowiadające poszcze-gólnym grupom (skupieniom) analizowanych wzorców,

– uformowaniu samych skupień; wszystkie wzorce prezentowane są po-nownie sieci Kohonena; wzorce, dla których „wygrywa” ten sam neuron, należą do tego samego skupienia,

– dla konkretnej prognozy znajdowany jest neuron „zwycięski”, czyli naj-słabiej reagujący dla zestawu danych wejściowych tej prognozy; wzorce historyczne należące do skupienia reprezentowanego przez ten neuron posłużą do budowy (treningu) właściwego modelu prognostycznego.

Omawianą metodę zastosowano do budowy modelu adaptacyjnego progno-zy szcprogno-zytowego zapotrzebowania na energię w szcprogno-zycie wieczornym (Bardzki, Bartkiewicz 1995):

) , , , , , , , , ( 1 1 1 1 1 d d d d d d d d d d TW TP TR ZSR TW TP TR ZSW ZSR f ZSW = (2.2.19) gdzie:

ZSWd – zapotrzebowanie na energię w szczycie wieczornym, w dniu d,

ZSRd – zapotrzebowanie na energię w szczycie porannym, w dniu d,

TRd – temperatura poranna (mierzona o godzinie 8), w dniu d,

TPd – temperatura w południe (mierzona o godzinie 13), w dniu d,

TWd – temperatura wieczorna (mierzona o godzinie 21), w dniu d.

Do samej prognozy zapotrzebowania szczytowego (2.2.19) wykorzystano model warstwowej sieci perceptronowej MLP, o strukturze {9, 9, 1} (z dziewię-cioma neuronami w warstwie ukrytej). Wyniki wstępnego testowania modelu znajdują się w tabeli 2.2.7. Zawiera ona porównanie dokładności modelu nie-adaptacyjnego (model 1) oraz nie-adaptacyjnego, w którym sieć uczona była do każdej prognozy, zgodnie z procedurą opisaną w obecnym punkcie, z wykorzy-staniem sieci Kohonena (model 2). Jak widzimy, podejście adaptacyjne pozwoli-ło na redukcję błędu mniej więcej o popozwoli-łowę.

Tabela 2.2.7. Błędy prognozy adaptacyjnej z wykorzystaniem hybrydowego modelu opartego na sieci MLP i sieci Kohonena

Dzień

Rzeczywiste ZSW Model 1 Model 2

(MW) (MW) Błąd % (MW) Błąd % 4.09.1992 488 32,7 6,71 4,7 0,96 5.09.1992 552 35,8 6,50 14,8 2,68 6.09.1992 484 28,3 5,85 7,7 1,58 7.09.1992 547 1,4 0,26 8,6 1,56 11.09.1992 515 13,4 2,60 13,9 2,70 12.09.1992 478 27,9 5,84 6,8 1,41 13.09.1992 514 7,8 1,53 2,6 0,50 14.09. 1992 487 18,3 3,76 2,8 0,57 18.09.1992 537 50,0 9,47 1,6 0,30 19.09.1992 496 25,0 5,04 9,3 1,87 20.09.1992 542 0,1 0,02 6,3 1,17 21.09.1992 509 7,2 1,42 7,2 1,42 25.09.1992 524 6,7 1,27 9,0 1,70 26.09.1992 560 4,8 7,28 25,2 4,49 27.09.1992 555 3,6 0,65 15,7 2,82 28.09.1992 541 16,1 2,99 3,9 0,72 Średnie błędy 19,69 3,82 8,76 1,65 Błędy maksymalne 50 9,47 25,2 4,49

Należy jednak pamiętać, że przedstawione w tabeli 2.2.7 wyniki mają cha-rakter wstępny i prezentują raczej to, co można uzyskać za pomocą podejścia adaptacyjnego. Metoda ta ma szereg parametrów, których dobór wymaga jednak udziału czynnika ludzkiego (analityka danych). Jak do tej pory, w opisywanym przypadku nie udało się opracować obiektywnej procedury algorytmicznej, możliwej do implementacji maszynowej.

2.2.7. Prognozy zapotrzebowania na energię z wykorzystaniem lokalnych