• Nie Znaleziono Wyników

Prognozowanie zapotrzebowania na energię z wykorzystaniem systemów Takagi–Sugeno z nieliniowymi następnikami reguł systemów Takagi–Sugeno z nieliniowymi następnikami reguł

2.3. Prognozowanie zapotrzebowania na energię z wykorzystaniem modeli neuronowo-rozmytych modeli neuronowo-rozmytych

2.3.5. Prognozowanie zapotrzebowania na energię z wykorzystaniem systemów Takagi–Sugeno z nieliniowymi następnikami reguł systemów Takagi–Sugeno z nieliniowymi następnikami reguł

W ogólnym przypadku funkcje fi(x1, …, xn), i = 1, …, K, występujące w na-stępnikach reguł w bazie wiedzy systemu rozmytego Takagi–Sugeno (2.3.18), niekoniecznie muszą być funkcjami liniowymi. Mogą być one dowolnymi rzeczywistymi funkcjami zmiennych wejściowych x1, …, xn.

Do modelowania funkcji następników reguł fi(x1, …, xn) zastosowaliśmy warstwowe sieci perceptronowe MLP (Bartkiewicz 1998a; Bartkiewicz 2011c). Dzięki właściwości uniwersalnej aproksymacji ich użycie nie wymaga określe-nia a priori postaci szacowanej zależności – tak jak w przypadku modeli rozważanych w poprzednim punkcie, gdzie przyjęto jej liniowy kształt.

W procesie budowy modelu wszystkie wzorce treningowe podzielone zosta-ły, przy użyciu algorytmu grupowania danych (sieć Kohonena), na K odrębnych segmentów (gdzie K odpowiada liczbie reguł systemu). Każdy z uzyskanych segmentów posłużył jako zbiór uczący dla odrębnej sieci MLP. Końcowa odpowiedź systemu, dla danego wejścia x1, …, xn, dana jest przez ogólne równanie modelu wnioskowania typu Takagi–Sugeno (2.3.20):

= = K i i i n n w f x x x x 1 1 1,..., ) ( ,..., ) ( y (2.3.34)

gdzie fi(x1, …, xn), i = 1, …, K oznacza wyjście sieci neuronowej zbudowanej dla

i-tego segmentu danych (funkcji następnika i-tej reguły). Współczynniki wi

określane są przez znormalizowane stopnie prawdziwości poszczególnych reguł, czyli stopnie dopasowania danego wejścia x1, …, xn do warunków rozmytych zdefiniowanych w poprzedniku danej reguły, przekształcone tak, by spełniały warunek normalizacyjny: 1 1 =

= K i i w (2.3.35) W przypadku badanego modelu zdecydowaliśmy się nie modelować sa-mych warunków rozmytych poprzedników reguł w formie zbiorów rozmytych

Aij, j =1,…, n, i = 1, …, K, lecz wyznaczać wartości współczynników wi bezpo-średnio na podstawie wyników grupowania danych treningowych, wykorzystu-jąc wartości funkcji przynależności wzorca wejściowego x1, …, xn do i-tego segmentu danych stanowiącego podstawę do budowy sieci neuronowej reguły (rysunek 2.3.2). W tym celu zastosowaliśmy rozmytą wersję sieci Kohonena (Huntsberger, Ajjimarangsee 1990), która obok klasycznej warstwy konkuren-cyjnej zawiera dodatkową warstwę neuronów wyznaczających stopnie przyna-leżności wektora wejściowego do poszczególnych kategorii.

Przypomnijmy, że w sieci Kohonena (patrz punkt 2.2.6) każdy neuron re-prezentuje pojedyncze skupienie (segment) danych, a centroid wyznaczony jest przez jego wektor wagowy. Dla danego wzorca wejściowego x = (x1, …, xn) wartości neuronów sieci określają jego odległości od centroidów (środków) poszczególnych segmentów:

K i

di= xci , =1,..., (2.3.36) gdzie K jest liczbą skupień (neuronów), ci są wektorami wag neuronów w sieci Kohonena (centroidami poszczególnych grup).

Rysunek 2.3.2. Sieć neuronowo-rozmyta typu Takagi–Sugeno z nieliniowymi funkcjami w następnikach reguł w postaci warstwowych sieci neuronowych

Źródło: opracowanie własne w2

MLP1 MLP2 MLPK

Sieć Kohonena x1 Dane wejściowe xn d1 d2 d Warstwa przynależności + X X X w1 wK

W klasycznym modelu sieci Kohonena o reakcji całej sieci (wyborze seg-mentu, do którego kwalifikowany jest wzorzec wejściowy) decyduje tzw. neuron zwycięski, to znaczy taki, którego wartość wyjściowa (odległość di) jest naj-mniejsza. Huntersberger i Ajjimarangsee w rozmytej wersji wprowadzają dodatkową warstwę neuronów obliczającą stopnie przynależności wektora wejściowego do wszystkich segmentów reprezentowanych przez neurony sieci. Wykorzystali oni w tym celu procedurę zbudowaną przez Bezdeka na potrzeby rozmytych algorytmów grupowania ISODATA (c-środków).

Wartośćτi określająca siłę przynależności wzorca wejściowego x = (x1, …,

xn) do i-tej grupy danych (siłę dopasowania x do warunków i-tej reguły) wyzna-czana jest na podstawie stanów wyjściowych neuronów w warstwie Kohonena,

di (odległości x od centroidów poszczególnych segmentów):

K i d d K k p k i i , 1,..., 1 1 =               = =

τ (2.3.37)

Idea (2.3.37) jest dosyć oczywista. Jeżeli dla danego wzorca wejściowego x

i-ty neuron w warstwie Kohonena „wygrywa” wyraźnie z innymi, oznacza to, że di << dk, dla wszystkich k. Wówczas stosunki di/dk są liczbami małymi, bliskimi 0. Siła przynależności τi, jako odwrotność ich sumy, musi więc być dosyć wysoka. Jeżeli rozkład przynależności x do poszczególnych segmentów jest bardziej równomierny, czyli neuron zwycięski „wygrywa” w porównaniu z innymi jedynie nieznacznie, to dla pewnych k stosunki di/dk≈ 1. Odwrotność ich sumy musi więc być liczbą stosunkowo małą, zbliżającą się do 0.

Parametr p określa, jak szybko siła przynależności wzorca wejściowego x do danego segmentu ma maleć w miarę wzrostu odległości tego wzorca od środka segmentu. Dobierany jest on do konkretnego przypadku.

Współczynniki wi we wzorze (2.3.34) przyjmowane są jako znormalizowa-ne stopnie przynależności wzorca wejściowego x = (x1, …, xn) do poszczegól-nych segmentów daposzczegól-nych:

K i w K i i i i , 1,..., 1 = =

= τ τ (2.3.38)

Zaprezentowany model, stanowiący połączenie systemów rozmytych typu Takagi–Sugeno i warstwowych sieci perceptronowych MLP (TS–MLP), zastosowany został do omawianej w poprzednim punkcie 2.3.4 prognozy szczytowego zapotrzebowania na energię z dwudniowym wyprzedzeniem czasowym, określonej przez (2.3.30) (Bartkiewicz 1998a). Do jego tworzenia

i testowania wykorzystane zostały te same zbiory danych, co w przypadku modeli neuronowo-rozmytych typu Takagi–Sugeno, z liniowymi funkcjami następników reguł.

Model TS–MLP obejmował cztery reguły (podobnie jak model TS-Model 2), więc jego stworzenie wymagało treningu czterech sieci MLP (Bartkiewicz 2011c). Błędy prognoz otrzymanych dla modelu TS–MLP znajdują się w tabeli 2.3.5. Zamieszczono w niej również dla porównania wyniki testowania modeli z liniowymi następnikami reguł oraz pojedynczej sieci MLP, prezento-wane już wcześniej w tabeli 2.3.4. Jak widzimy, model TS–MLP osiągnął wyraźnie lepszą dokładność niż pojedyncza sieć neuronowa i nieco lepszą niż sieci neuronowo-rozmyte z liniowymi funkcjami następników. Należy jednak zwrócić uwagę, że uczenie systemów prognostycznych tego typu wymaga bardzo dużych nakładów obliczeniowych, zwłaszcza w porównaniu z TS-Model 1 i TS-Model 2.

Tabela 2.3.5. Porównanie błędów prognozy szczytowego zapotrzebowania z dwudniowym wyprzedzeniem czasowym dla modeli neuronowo-rozmytych typu Takagi–Sugeno z liniowymi

i nieliniowymi następnikami reguł

Model (kWh) MAE MAX AE (kWh) MAPE (%) MAX APE (%)

MLP 9 210 42 271 3,73 23,59

TS-Model 1 9 058 46 729 3,61 21,59

TS-Model 2 9 020 47 558 3,63 26,54

TS–MLP 8 805 43 410 3,48 20,05

Źródło: opracowanie własne.

Zauważmy jeszcze pewne powiązanie modelu TS–MLP z omawianym w punkcie 2.2.7 podejściem opartym na grupie lokalnych sieci MLP, przełącza-nych przy użyciu klasyfikatora. Przypomnijmy, że metoda ta również polegała na pogrupowaniu zbioru wzorców treningowych oraz na stworzeniu odrębnego modelu sieci MLP dla każdego z otrzymanych segmentów. Odmiennie jednak niż w przypadku TS–MLP, dla danego wzorca wejściowego x, dokonuje się klasyfikacji tego wzorca do odpowiedniego segmentu danych, a co za tym idzie – wyboru jednej sieci MLP wykorzystywanej do uzyskania prognozy. W ba-daniach w punkcie 2.2.7 do grupowania danych i klasyfikacji nowych wzorców wykorzystaliśmy klasyczną (nierozmytą) sieć Kohonena.

Tradycyjne techniki grupowania i klasyfikacji wykorzystujące metodę „zwycięzca bierze wszystko” (tzn. w przypadku naszego problemu dla konkret-nej prognozy wybieramy jeden konkretny model MLP odpowiadający segmen-towi, do którego zakwalifikowany został wzorzec wejściowy) nie uwzględniają

sytuacji, w której dane wejściowe leżą blisko granicy decyzyjnej między poszczególnymi segmentami, w dużej odległości od środka (centroidu) katego-rii, do której zostały zaliczone. Wykorzystanie klasyfikatora rozmytego zwięk-sza odporność modelu na błędnie zakwalifikowane wzorce.

W przypadku klasyfikatora ostrego (nierozmytego) błędna klasyfikacja wzorca wejściowego powoduje wybór niewłaściwego modelu sieci perceptro-nowej oraz, w konsekwencji, prognozę odległą od rzeczywistości. W przypadku klasyfikacji rozmytej, takiej jak w TS–MLP, degradacja działania modelu ma charakter stopniowy, zwłaszcza że błędy dotyczą przede wszystkim wzorców leżących w pobliżu granicy decyzyjnej między sąsiednimi segmentami. Umoż-liwia ona również naturalne uwzględnienie faktu słabego dopasowania tego typu danych do jednego konkretnego skupienia. Jeśli wzorzec należy w pewnym stopniu do większej liczby segmentów, każda z odpowiadających im sieci perceptronowych będzie miała udział w wyniku końcowym modelu (Bartkie-wicz 1998a).

Do weryfikacji tej hipotezy wykonano badania porównawcze neuronowo- -rozmytego modelu TS–MLP z prezentowanym w punkcie 2.2.7 podejściem opartym na zespole lokalnych sieci MLP i ostrej (nierozmytej) klasyfikacji wzorca wejściowego. Badania wykonano dla takiej samej jak poprzednio prognozy szczytowego zapotrzebowania z dwudniowym wyprzedzeniem czasowym (2.3.30), lecz w przypadku innego systemu elektroenergetycznego. Otrzymane wyniki przedstawione zostały w tabeli 2.3.6.

Tabela 2.3.6. Porównanie błędów prognozy szczytowego zapotrzebowania z dwudniowym wyprzedzeniem czasowym dla modelu z ostrą i rozmytą klasyfikacją wzorca wejściowego

Model MAE (kWh) MAX AE (kWh) RMSE (kWh) MAPE (%) MAX APE (%) Sieć MLP 10 715 55 755 14 288 4,65 31,26 Zespół lokalnych MLP 10 236 55 340 14 131 4,35 31,79 TS–MLP 9 862 53 678 13 446 4,19 31,66

Źródło: opracowanie własne.

Jak widzimy, badania praktyczne potwierdzają wcześniej postawioną hipo-tezę. Dokładność działania modelu opartego na rozmytej klasyfikacji i wyborze sieci jest wyraźnie wyższa niż w przypadku ostrego wyboru jednego z lokalnych modeli. Również i w tym przypadku zastosowanie modelu TS–MLP dało lepsze wyniki prognozy niż pojedyncza sieć neuronowa.

2.4. Podsumowanie

W bieżącym rozdziale przeanalizowaliśmy pokrótce problematykę krótko-terminowego prognozowania zapotrzebowania na energię elektryczną. Naszym celem było wskazanie potrzeby stosowania w tej dziedzinie indukcyjnych metod modelowania nieliniowego, do których zaliczyć możemy sieci neuronowe i neuronowo-rozmyte, a także przedstawienie podstawowych zagadnień związa-nych z ich tworzeniem oraz doświadczeń autora w tej dziedzinie.

Jak pokazaliśmy, w przypadku krótkoterminowej prognozy zapotrzebowa-nia na energię podstawowymi czynnikami wpływającymi na jego wielkość są wartości historyczne obciążeń z przeszłości (z okresu kilku ostatnich dni poprzedzających prognozę) oraz informacje na temat warunków pogodowych w czasie predykcji. Przede wszystkim ostatnia grupa czynników wykazuje nieliniową charakterystykę wpływu na wielkość zapotrzebowania, nie dostarcza-jąc jednocześnie żadnych obserwowalnych wzorców kształtu tej nieliniowości (punkt 2.1.2). W związku z tym, jak pokazaliśmy, użycie metod indukcyjnych jest niezbędne zwłaszcza w przypadku modeli korzystających z wejściowej informacji meteorologicznej.

W bieżącym rozdziale przyjrzeliśmy się wykorzystaniu do modelowania krótkookresowego zapotrzebowania na energię elektryczną podstawowych rodzajów sieci neuronowych i neuronowo-rozmytych, powszechnie stosowanych w zadaniach prognostycznych. Wśród modeli neuronowych skoncentrowaliśmy się przede wszystkim na warstwowych sieciach perceptronowych (MLP) (podrozdział 2.2). Innym rodzajem sieci neuronowej wykorzystywanym w zagadnieniach krótkoterminowej prognozy zapotrzebowania na energię jest sieć z funkcjami o bazie radialnej (RBF). Modele tego rodzaju są jednak funkcjonalnie równoważne rozważanym przez nas sieciom neuronowo-roz-mytym FBF (punkt 2.3.2). W zakresie modeli neuronowo-rozmytych skupiliśmy się na najczęściej wykorzystywanych w praktycznych zagadnieniach prognozo-wania addytywnych modelach rozmytych z regułą wnioskoprognozo-wania Larsena. Przyjrzeliśmy się przy tym całej rodzinie sieci z tej grupy, począwszy od modeli FBF ze stałymi wartościami następników reguł (punkt 2.3.2), poprzez modele typu Takagi–Sugeno z liniowymi funkcjami następników (punkt 2.3.4), aż do modeli z nieliniowymi funkcjami następników, w formie sieci perceptronowych MLP (punkt 2.3.5).

Analizując w bieżącym rozdziale szereg zadań prognostycznych z zakresu modelowania krótkoterminowego zapotrzebowania na energię, pokazaliśmy lepsze działanie sieci neuronowych i neuronowo-rozmytych w stosunku do klasycznych metod prognostycznych opartych na liniowych modelach staty-stycznych (modelach regresji liniowej), co pozwala uzasadnić elementy tezy naszej pracy związane z przydatnością tego rodzaju rozwiązań.

Porównując działanie różnych sieci neuronowych i neuronowo-rozmytych, należy podkreślić, że stosunkowo najlepsze wyniki osiągnęliśmy w przypadku sieci typu Takagi–Sugeno z nieliniowymi następnikami reguł. Jednakże poprawa dokładności prognozy zapotrzebowania jest na tyle nieznaczna, że nie do końca uzasadnia stosowanie tych skomplikowanych i kosztownych obliczeniowo modeli. Godnym rekomendacji podejściem wydają się, z kolei, sieci neuronowo- -rozmyte typu Takagi–Sugeno z liniowymi funkcjami następników. W badanych zadaniach wykazywały one nieco lepszą dokładność prognozy zapotrzebowania na energię niż sieci MLP czy FBF. Różnice są jednak na tyle nieduże, że te trzy podejścia należy uznać za równoważne metody prognostyczne, a ich wybór – uzależnić od konkretnego zadania.

Należy naturalnie przypomnieć, że rozdział ten ma charakter pomocniczy. Prezentowana rozprawa poświęcona jest analizie niepewności neuronowych i neuronowo-rozmytych prognoz krótkoterminowego zapotrzebowania na energię elektryczną i ocenie ryzyka związanego z tą niepewnością dla proble-mów decyzyjnych występujących na rynkach energii. Z tego powodu charakte-rystyka samej technologii prognostycznej jako takiej ograniczona została do minimum.

ROZDZIAŁ 3