P
h a nQ
u o cK
h a nHanoi
Optymalizacja wielokryterialna
(Praca wpłynęła do Redakcji 1988.03.20)
1. Wprowadzenie. Celem tej pracy jest przeglądowe przedstawienie teorii optymalizacji wielokryterialnej. Ze względu na ograniczoną objętość tego artykułu musimy ograniczyć się jedynie do szczegółowego omówienia jednego aspektu tej teorii, mianowicie problemu warunków koniecznych optymalności.
Natomiast inne zagadnienia będą prezentowane szkicowo; będziemy opisywać tylko zasadnicze pojęcia i główne zadania. Czytelnikowi zainteresowanemu szczegółami tych zagadnień proponujemy najważniejsze w naszym przekona- niu pozycje w literaturze. W bardzo obszernej pracy przeglądowej [67]
czytelnik może również znaleźć informacje o tematyce tutaj pomijanej.
2. Pojęcia podstawowe. Każdy, kto podejmuje decyzje, próbuje je wykonać w sposób optymalny. Dobrze podejmowane decyzje są tradycyjnie oparte na optymalizacji pojedynczego kryterium. W polityce, naukach socjalnych, ekono- mii i w technice jednak spotyka się potrzebę spełnienia wielu dążeń, co wymaga optymalizacji wielu kryteriów. Z tego powstała pewna dyscyplina matematyki stosowanej zwana optymalizacją wielokryterialną. Dyscyplina ta występująca w różnych zagadnieniach często przyjmuje różne nazwy: „optymalizacja wektorowa” w matematyce (zwłaszcza kiedy omawiany jest przypadek nie- skończonej ilości kryteriów), „podejmowanie decyzji wielokryterialnych”
w ekonomii politycznej. Spotyka się w literaturze również terminy „op- tymalizacji Pareto” i „polioptymalizacji”. Oprócz tego, ponieważ ta gałąź matematyki ma swoje źródło w ekonomii, takie teorie jak teoria użyteczności, teoria dobrobytu, teoria równowagi ekonomicznej, teoria preferencji... są ściśle związane z optymalizacją wektorową i ich zadania często są w istocie zadaniami optymalizacji wektorowej.
Podstawowym pojęciem optymalizacji wielokryterialnej jest rozwiązanie Pareto, które może mieć inne równoważne nazwy jak rozwiązanie nie- zdominowane, rozwiązanie efektywne, rozwiązanie preferencyjne. Podamy teraz definicję tego rozwiązania w postaci ogólnej.
[31]
Niech Y będzie przestrzenią wektorową uporządkowaną przez stożek wypukły K, a S niech będzie jej podzbiorem. Punktem minimalnym w sensie Pareto zbioru S nazywamy punkt y0eS taki, że nie istnieje punkt yeS spełniający warunek y — y0G( — K)\K.
Poza rozwiązaniem Pareto istnieje wiele innych koncepcji rozwiązania optymalnego: rozwiązanie słabe (rozwiązanie Slatera), rozwiązanie właściwe i rozwiązanie silne. Przedstawiamy teraz po kolei definicje tych pojęć.
Przypuśćmy, że stożek K ma algebraiczne względne wnętrze riK # 0.
Punktem minimalnym w sensie Slatera zbioru S nazywa się punkt y0eS taki, że nie istnieje punkt y eS spełniający warunek y — y0e —ńK.
Są różne pojęcia rozwiązania właściwego. W przypadku skończonej ilości kryteriów są trzy standardowe definicje podane przez Kuhna-Tuckera w 1951 r. [32], Klingera w 1967 r. [31] oraz Geoffriona w 1968 r. [14]. Dla przypadku nieskończonej ilości kryteriów natomiast mamy trzy definicje wprowadzone przez Hurwicza w 1958 r. [19], Borweina w 1977 r. [4] (i nie- zależnie, Vogela w 1977 r. [56]) oraz Borweina w 1980 r. [5]. Jako przykład podamy definicję Geoffriona, która naszym zdaniem najbardziej odpowiada intuicji.
Niech Y będzie przestrzenią Rn uporządkowaną przez Rn+ i S niech będzie jej podzbiorem. Punkt właściwie minimalny zbioru S jest to punkt y0 = (yo» •••» yS)eS, dla którego istnieje dodatnia liczba y taka, że
t f - ń r 1 ( f o - f l ś y
dla pewnego j spełniającego yj > yJ0, kiedy tylko yeS i yl < ‘yó.
Dla niepustego podzbioru S przestrzeni wektorowej Y uporządkowanej przez K rozwiązanie silne jest zdefiniowane następująco. Punkt y0eS nazywa się silnie minimalnym punktem zbioru S, jeśli S cz {y0} + K (patrz [24]).
3. Kilka słów o historii optymalizacji wielokryterialnej. Kiedy powstała optymalizacja wielokryterialna? Na to pytanie chyba nie ma jednoznacznej odpowiedzi. Za początek istnienia tej dyscypliny wielu matematyków uważa koniec osiemnastego wieku, kiedy powstały teoria użyteczności i teoria dobrobytu (patrz [54] i [52]). Ponieważ teorie te znalazły sobie ogólne uznanie w ekonomii dopiero około stu lat później, kiedy okazały się znane książki Mengera w 1871 r. [37] i Walrasa w 1874 r. [57], niektórzy uważają, że rozsądniej byłoby przyjmować te lata jako datę urodzin optymalizacji wielo- kryterialnej.
Najwybitniejszym naukowcem w początkowym okresie historii tej dziedzi-
ny był niewątpliwie Vilfredo Federico Damaso Pareto (1848-1923). Jego
słynne książki [41] i [42] drukowane w 1896 i 1906 r. są uważane za podstawę
ekonomii matematycznej i optymalizacji wielokryterialnej. Dlatego, większość
matematyków uważa Pareto za założyciela, a koniec XIX wieku — za początek
historii optymalizacji wielokryterialnej. Obecnie ogólna opinia jest taka, że
Pareto dokonał rewolucji w optymalizacji wektorowej. Zajmował się między
innymi kompleksem zjawisk ekonomicznych. Wprowadził koncepcję równo- wagi ekonomicznej i zdefiniował to, co obecnie nazywamy lokalnym roz- wiązaniem Pareto. (Dodajmy przy okazji, że termin „rozwiązania Pareto” był używany po raz pierwszy przez Little’a w 1950 r. [34].) Pareto udowodnił warunek konieczny dla równowagi ekonomicznej w postaci warunku stacjo- narności.
Osiągnięcia Pareto, chociaż są niewątpliwie wielkie, nie uniknęły jednak słów krytyki współczesnych mu matematyków. Wicksell [61] skomentował, że Pareto sam miał kłopoty ze sformułowaniem swojej koncepcji równowagi, a w jego książce [42] „to co jest prawdą głównie nie jest nowe lub nowe tylko w sformułowaniu i większość rzeczywiście nowych wyników jest niestety nieprawdą”. Barone [1] nawet znalazł poprawioną wersję definicji równowagi wprowadzonej przez Pareto. Ponadto, w swoich rozważaniach Pareto nieraz używał swego warunku koniecznego w sposób niepoprawny jako warunku dostatecznego. Jednak wszystkie te uwagi nie zmniejszają w najmniejszym stopniu roli, jaką odegrał Pareto w rozwoju optymalizacji wielokryterialnej.
4. Klasyfikacja zagadnień optymalizacji wielokryterialnej
4.1. Istnienie rozwiązań. Pierwsze istotne wyniki w tym kierunku zostały uzyskane przez Olecha w [39] i [40]. Nowym, bardziej geometrycznym podejściem, autor uogólnił rezultaty w [7] na przypadek wielokryterialnego sterowania optymalnego. Później pojawiało się wiele wyników na temat istnienia rozwiązań. Uzyskane były one głównie dwoma metodami. Pierwszą metodą jest bezpośrednie dowodzenie oparte na lemacie Kuratowskie- go-Zorna. Typowymi przykładami są prace [43] i [6]. Druga metoda zaś polega na redukcji zadania optymalizacji wektorowej do zadania optymalizacji skalarnej i wykorzystaniu znanych rezultatów dla optymalizacji skalarnej (przy redukcji często wykorzystane jest twierdzenie Kreina-Rutmana). Typowymi pracami w tym podejściu są publikacje [8], [9], [13] i [24]. W [28]
udowodniono zasadę wariacyjną Ekelanda, jedną z najważniejszych zasad analizy nieliniowej, dla ogólnych zadań optymalizacji wektorowej. Zasada ta zapewnia istnienie rozwiązania Pareto dla zmodyfikowanego odwzorowania celu. Wcześniej, w [68] zasada ta została uogólniona dla prostego zadania ze skończoną ilością kryteriów i ze strukturą dominowania zdefiniowaną przez stożek Rn+.
4.2. Skalaryzacja. Rozpatrzmy zadanie ustalania punktu minimalnego w sensie Pareto podzbioru S przestrzeni wektorowej uporządkowanej Y.
Ustalanie to można dokonać przez redukcję wyjściowego zadania do zadania skalarnego w następujący sposób. Znajdujemy funkcjonał W: Y-+R i wy- znaczamy jego minimum y0 na S: JT(y0) = min W(y). Jeśli W jest właściwie zdefiniowane, to można oczekiwać, że y0 jest właśnie punktem minimalnym
yeS3 — Matematyka Stosowana XXXII
w sensie Pareto zbioru S. Tego typu twierdzenie nazywa się skalaryzacją, a W — funkcją użyteczności.
Większość znanych wyników dotyczy przypadków, gdy W jest normą, półnormą lub funkcjonałem liniowym. Najbardziej wartościowe wyniki można znaleźć w [46] (dla normy i półnormy), [60] (dla normy i funkcji kary) oraz [22] (dla ogólnego funkcjonału). Ponadto, w [22] znajduje się również skalaryzacja jako warunek nie tylko dostateczny, lecz również konieczny dla rozwiązań Pareto i Slatera. Zanim sformułujemy te wyniki, przypomnijmy sobie następujące pojęcie. Funkcjonał / określony na przestrzeni wektorowej Y uporządkowanej przez K nazywamy rosnącym (ściśle rosnącym) na pod- zbiorze U o Y, jeśli dla każdego xeU ,
xe(x — K )n U implikuje f(x) < / (x) (ie (x -in tK ) n U implikuje f(x)< f(x), odpowiednio).
T w ie r d z e n ie 4.1 [22]. Rozpatrzmy podzbiór S przestrzeni wektorowej Y uporządkowanej przez K. Przypuśćmy, że intK # 0 i S cz y + intK dla pewnego yeY. Wówczas punkt y0eS jest punktem minimalnym w sensie Slatera zbioru S wtedy i tylko wtedy, gdy istnieje półnormą || • || ściśle rosnąca na int K w punkcie y0 — y taka, że ||y0 — y|| ^ ||y — y|| dla każdego yeS.
T w ie r d z e n ie 4.2 [22]. Przypuśćmy, w dodatku do założenia twierdzenia 4.1, że K jest ostre i algebraicznie domknięte. Wówczas punkt y0eS jest punktem minimalnym w sensie Pareto zbioru S wtedy i tylko wtedy, gdy istnieje norma || • ||
rosnąca na K w punkcie y0 — y taka, że
llj'o-j'll < \ y - y \ \ dla każdego yeS\{y0}.
Inne wyniki można znaleźć w [50], [59], [63], [69] oraz [25].
4.3. Dualność. Podobnie jak w optymalizacji skalarnej, dualność w op- tymalizacji wektorowej oznacza, że pod odpowiednimi warunkami pewne zadanie typu maksimum, nazwane zadaniem dualnym, może być połączone z pierwotnym zadaniem typu minimum w taki sposób, że oba zadania mają wspólne rozwiązania.
Sformułujemy teraz ogólne i proste twierdzenie o dualności, które odzwier- . ciedla zasadniczą ideę dualności.
Niech stożek K w przestrzeni wektorowej uporządkowanej Y będzie niepusty i ostry. Niech P cz Y będzie niepuste. Przypuśćmy, że zadaniem pierwotnym jest ustalanie punktu minimalnego (w sensie Pareto) zbioru P nazwanego zbiorem pierwotnym. Wówczas zadaniem dualnym jest ustalanie punktu maksymalnego zbioru dualnego D = Y\(P + K\{0}).
T w ie r d z e n ie 4.3 [24]. Każdy punkt minimalny zbioru P jest również
punktem maksymalnym zbioru dualnego D. Odwrotnie, jeśli Y\(P + K) jest
algebraicznie otwarte, to każdy punkt maksymalny zbioru D jest punktem
minimalnym zbioru P.
Pierwsze wyniki o dualności zostały opublikowane w [13]. Znana skalarna teoria dualności Fenchela została uogólniona na optymalizację wektorową w [65]. Różne typy dualności: słaba dualność, silna dualność i ścisła odwrotna dualność były rozpatrywane w [21]. Niedawno równoważność między silną dualnością a pewnym twierdzeniem alternatywy została udowodniona w [36].
4.4. Warunki optymalności. Temu zagadnieniu poświęcamy osobny para- graf 5.
4.5. Algorytmy numeryczne. Algorytmy dla wyznaczania rozwiązań Pareto lub Slatera często używają w sposób istotny wyników skalaryzacji. Większość prac dotyczy programowania liniowego metodą sympleks. Jako przykłady można wymienić prace [64], [53], [51] oraz [26].
W książce [16] zbieżność algorytmów numerycznych dla optymalizacji wektorowej została udowodniona przez redukcję zagadnienia optymalizacji wektorowej do zagadnień skalarnej optymalizacji parametrowej.
Tak zwana procedura adaptacji w optymalizacji skalarnej była sfor- mułowana dla optymalizacji wektorowej w książce [11].
4.6. Inne zagadnienia. W optymalizacji wektorowej spotykane są jeszcze inne zagadnienia. Jednym z nich jest badanie struktury i własności zbiorów rozwiązań efektywnych (tj. rozwiązań Pareto). Szczególnie brano pod uwagę takie własności, jak spójność, domkniętość, zwartość... (patrz np. [44], [58]
i [35]), natomiast stabilność rozwiązań jest rozpatrywana w książce [11].
4.7. Zastosowania. Optymalizacja wielokryterialna ma liczne zastosowania w teorii gier (szczególnie w grach kooperacyjnych), aproksymacji wektorowej, teorii użyteczności, teorii dobrobytu, teorii produkcji, teorii równowagi ekonomi- cznej, analizie systemowej i w wielu innych gałęziach ekonomii matematycznej.
5. Warunki optymalności. W tym paragrafie ograniczymy się w zasadzie do przedstawienia warunków koniecznych optymalności. Będziemy jednak roz- ważać również te warunki dostateczne optymalności, które są kombinacją warunków koniecznych i dodatkowych założeń wypukłości. Założenia wypuk- łości (różnego typu) są chyba najprostszymi założeniami, które mogą wy- stępować jako dodatkowe. Warunki dostateczne dla optymalizacji wielo- kryterialnej zawierające inne dodatkowe założenia można znaleźć w pracach Rolewicza [47], [48] i [49], natomiast warunki dostateczne niebezpośrednio związane z warunkami koniecznymi zostały sformułowane w książce [33].
5.1. Reguły mnożników Lagrange a. Jeśli rozpatrujemy zagadnienia op-
tymalizacji wektorowej w przestrzeniach liniowych i są spełnione pewne
założenia różniczkowalności, to podobnie jak w optymalizacji skalarnej
większość warunków koniecznych pierwszego stopnia ma postać reguły
mnożników Lagrange’a. Oczywiście, wszystkie takie warunki konieczne są
uogólnieniami fundamentalnej idei wprowadzonej przez Fermata i Lagrange’a
w analizie klasycznej kilka wieków temu.
Sformułujemy teraz ogólną i typową regułę mnożników Lagrange’a. Niech X i W będą przestrzeniami Banacha. Niech Y i Z będą przestrzeniami unormowanymi uporządkowanymi odpowiednio przez stożki K i M. Niech F: X -+Y, G: X -» Z i P: X -> W będą zadanymi odwzorowaniami i niech Q c X. Rozpatrzmy następujące ogólne zadanie:
( 1 )
F(x) -> inf, G(x) < 0, P(x) = 0, , x e Q.
Tu i dalej symbol F(x)~* inf będzie oznaczał, że trzeba znaleźć lokalny lub globalny element minimalny albo element słabo minimalny. Przy tym w sfor- mułowaniach rezultatów będzie wiadomo, o którym elemencie jest mowa.
Przypomnijmy, że dla stożka K w przestrzeni Y z topologicznie dualną przestrzenią Y* i algebraicznie dualną Y', dualny stożek K* i algebraicznie dualny stożek K' są zdefiniowane w następujący sposób:
K* = {y*eY*: (y*, y} ^ 0 dla każdego yeK }, K' = {y' e Y': < /, y) ^ 0 dla każdego yeK }.
T w ie r d z e n ie 5.1 [30]. Załóżmy, że
(i) Q jest wypukłe i wnętrza zbiorów Q, K i M są niepuśte;
(ii) F i G są regularnie lokalnie wypukłe w sensie Ioffego-Tihomirowa [20]
w x0eQ;
(iii) P jest różniczkowalne w sposób ciągły w x0 i P'(x0)X jest domknięte.
Wówczas, jeśli x0 jest lokalnym rozwiązaniem słabym, istnieją w stożkach dualnych punkty X0eK*, p0eM* i v0eW*, które nie wszystkie są zerami i spełniają warunki
<ź0, F'(x0; x - x 0)) + (p 0, G'(x0; x - x 0)>
+ <v0, P'(x0)(x — x0)> ^ 0 dla wszystkich xeQ oraz
(.Po G(x0)> = 0.
Twierdzenie 5.1 jest warunkiem koniecznym typu Fritza Johna. Dodając pewne warunki regularności, otrzymujemy następujący warunek konieczny typu Kuhna-Tuckera:
T w i e r d z e n ie 5.2 [30]. a 0 musi być różne od zera, jeśli, w dodatku do założeń (i)-(iii) poprzedniego twierdzenia, jedno z następujących dwóch założeń jest spełnione:
(iv) P'(x0)Q zawiera otoczenie punktu P'(x0)x0 i istnieje xeQ takie, że G'(x0; x — x0)e — intM$* i P'(x0){x — x0) = 0;
(v) P’(x0)X = W i istnieje xeintfJ takie, że G’(x0; x — x 0) e — int M£*
i P'(x0) ( x - x 0) = 0, gdzie = {peM*: (p, G(x0)) = 0}.
Dla zadań bez ograniczenia typu równości możemy założyć warunek ri K =£(/) zamiast intK #</) i uzyskać podobne warunki konieczne [30].
W praktyce równania występujące w zadaniach sterowania optymalnego mają zazwyczaj prawą stronę ńieróżniczkowalną względem sterowania u.
Dlatego następujący wynik byłby bardziej adekwatny dla zastosowania w teorii sterowania optymalnego.
Niech X, Y, Z oraz W będą określone jak poprzednio. Niech U będzie zadanym zbiorem wyposażonym w topologię trywialną. Niech będą zadane odwzorowania F: X xU -*Y, G: X x U -* Z i P: X x U -> W. Rozpatrzmy zadanie
f F(x, u) -* inf,
J G(x, u) ^ 0,
K ) ] P{x, u) = 0,
u e U.
Nazwijmy funkcjonał
SF{x, u, X, p, v) = <2, F(x, + G( x ,
m) ) + <
v, P (
x, u ))
funkcją Lagrange’a zadania (2) i zdefiniujmy Zs jako sympleks {a = (oel5 ..., as):
« i> 0’ i ai < !}•
7 = 1
T w ie r d z e n ie 5.3 [29]. Załóżmy, że są spełnione następujące warunki : (i) intK #</) i intM
(ii) dla każdego ueU, P(*, u) jest różniczkowalne w sposób ciągły w x0;
(iii) dla każdego ueU, F(-, u) i G(% u) są ciągłe w otoczeniu V punktu x0 i regularnie lokalnie wypukłe w x0;
(iv) dla każdego skończonego zbioru {ul, ..., uJ c= U i dla każdego 3 > 0, istnieją otoczenie V' cz V, e > 0, odwzorowanie v: V x e Z s -> U i punkty e e K, geM takie, że dla każdych x, x'eV ' i a, a'eeZs zachodzą
v(x, 0) = u0,
s >
IIP(x, v(x, a))-P(x’, v(x', a'))-P'x{x0, u0) ( x - x ’) - Y (a;-a})P(x0, tf/)||
7 = 1
< <$(l|x-x'll + Y |a,—a}|),
7 = 1
s s
'F(x, u(x, a))-F(x, u0) Y Uj)-F{x, u0) ^ £ (||x -x 0ll + Y
7 = 1 7 = 1
S S
G(x, v{x, a)) — G(x, u0)~ Y «/(G(x, Uj)-G(x, u0)) ^ <5(||x-x0|| + Y ^ 9 1
7 = 1 7 = 1
(v) P'x(x0, u0)X ma skończony kowymiar.
Wówczas, jeżeli (x0, u0) jest lokalnym rozwiązaniem słabym, istnieją X0eK*, p0eM* i v0eW*, które nie wszystkie są zerami, takie że
0 edx&{x0, U q , X0, p0, v0),
& (x0i u0, X0, p0, v0) = min S£(x0, u, X0, p0, v0),
ueU
(t^O’ G(X0, M0)> = 0-
W [27] różniczkowalność w sensie Clarke’a została wykorzystana przy wprowadzaniu warunków koniecznych dla optymalności.
W przypadku, w którym przestrzenie są skończenie wymiarowe oraz K*
i M* są wielościanami (lub bardziej specyficznie, Rn+) reguły mnożników mają bardziej specjalne postaci wyrażone za pomocą generatorów stożków K* i M*
(patrz np. [2], [11], [44] oraz [55]).
Uogólnione reguły mnożników Lagrange’a mogą być udowodnione nawet wtedy, gdy struktura dominowania jest zdefiniowana nie za pomocą stożka porządkowania. W [17] struktura dominowania została zdefiniowana za pomocą dowolnej relacji acyklicznej (niekoniecznie przechodniej), w [10]
zaś — za pomocą wypukłego zbioru nie będącego stożkiem.
Zajmiemy się teraz warunkami dostatecznymi optymalności. Niech X bę- dzie przestrzenią wektorową. Niech Y, Z i W będą przestrzeniami wekto- rowymi uporządkowanymi odpowiednio przez stożki K, M i N.. Zakładamy, że względne algebraiczne wnętrze K, ri K, jest niepuste i że N jest ostry. Niech Q a X i U będą zbiorami niepustymi. Rozpatrzmy zadanie
f F(x, u) -> inf, j G (x, u) < 0,
{ ’ 1 P(x, u) = 0,
x e Q,
u eU .
D efinic ja 5.1 (por. [24] i [30]). Niech X x będzie dowolną przestrzenią wektorową. Niech S c= X i Tez X x będą zbiorami niepustymi. Niech będą zadane ij/\ Sx-U -^X^ i (x ,u )e S x U . Odwzorowanie \J j ' x ( x , u): S — x -* X x nazywa się cząstkową wariacją kierunkową odwzorowania \jj na x w (jć, u) względem T, jeśli spełniony jest następujący warunek: jeśli istnieje jceS/{x}
takie, że ij/'x(x, u) ( x — x ) e T, to istnieje również y > 0, takie że dla każdego
?e[0, y]
x + y(x — x)ES,
y~1(\J/(x + y(x — x), u) — i//(x, u )) e T
D ef in ic ja 5.2 (por. [24] i [30]). Niech będą zadane dodatkowe niepuste podzbiory przestrzeni X x: Cx i C2 <= C3. Niech odwzorowanie tfr. S x U -+Xx ma cząstkową wariację kierunkową na x w (x, u ) e S x U względem C3.
Odwzorowanie if/ nazywamy cząstkowo różniczkowalnie (Ci^-Cjj-ąuasi-wypuk-
łym w (x, u), jeżeli jest spełniony następujący warunek: jeśli istnieje
(x, u) e S x U\{(x, u)} takie, że \j/{x, u) — j/(x, u ) e Cx, to istnieje również
(x, u ) e S x U\{( x , u )} takie, że
yx + (l — y)x e S dla każdego ye[0, 1], j/x{x, u)(x — x) + if/(x, u) — il/(x, u)eC2.
W przypadku Cl = C2 = C, if/ nazywamy krótko cząstkowo różniczkowal- nie C-ąuasi-wypukłym.
7\ v ie r d z e n ie 5.4 [30]. Rozpatrzmy zadanie (3). Załóżmy, że istnieją niepuste zbiory Gv G2 i G3 takie, że ń K a G ^ Y , M + cone({G(x, ii)}) a G2 cz Z i N u ( — iV) c= G3 c = W i że odwzorowania F, G i P mają cząstkowe wariacje kierunkowe na x w punkcie dopuszczalnym (x0,u0) względem odpowiednio Gx, G2 i G3.
Załóżmy ponadto, że istnieją ż0 e K', p0 e M' i v0 e W takie, że (i) <ż0, y> > 0 dla każdego yeń K ;
(ii) <ż0, Fx(Xg, uo)(x -^o)^ (Po’ “o)(* *o)>
+ <v0, P'x(x0, u0)(x — x0)} ^ 0 dla wszystkich x e Q;
(iii) J 2 ?(x0, uQ, l 0, p0, v0) = min <f(x0, u, ż0, p0, v0);
(iv) <Po, G{x0, u0)> = 0.
ueUWówczas
(a) (x0, u0) jest globalnym rozwiązaniem słabym zadania (3), 2 (32) zastąpio- nym
■ G{x, u) + yG(x$, u0) < 0 dla każdego y ^ 0,
wtedy i tylko wtedy, gdy złożone odwzorowanie (F, G, P, P) jest cząstkowo różniczkowalnie ( — C)-quasi-wypukłe w (
j c0 , u0), gdzie
C = ri X x ( m + cone({G(x0, u0)}) x N x (— N);
(b) jeśli (F, G, P, P) jest cząstkowo różniczkowalnie ( — C)-quasi-wypukłe w (x0, u0), to (x0, U q ) jest globalnym rozwiązaniem słabym zadania (3).
T w ie r d z e n ie 5.5 [30]. Twierdzenie 5.4 zachodzi również dla globalnego rozwiązania, jeżeli założenie wypukłości odwzorowania (F, G, P, P) jest za- stąpione cząstkową różniczkowalną (( — C^ — i — C^-guasi-wypukłością, gdzie
C, = (K \(-K ))x (M + cone({G(x0, n0)})) x N x( — N), C2 = ń K x (M + cone({G(x0, u0)})) x N x( — N).
5.2. Inne warunki konieczne optymalności. Bez założenia różniczkowalności nie możemy sformułować reguły mnożników Lagrange’a. W tym przypadku warunki konieczne optymalności mogą być sformułowane za pomocą punktów siodłowych funkcji Lagrange’a. Pierwsze tego typu rezultaty dla zadań optymalizacji wektorowej bez ograniczeń typu równości (w przestrzeniach liniowych topologicznych) zostały udowodnione w [19].
Można stosunkowo łatwo udowodnić, że istnienie punktu siodłowego
funkcji Lagrange’a jest warunkiem dostatecznym dla optymalności przy bardzo słabych założeniach (patrz np. [19], [45] i [66]). Trudniej jednak jest stwierdzić, że istnienie punktu siodłowego jest warunkiem koniecznym. Przy tym zadanie musi być w jakimś sensie wypukłe. Prezentujemy teraz takie warunki konieczne dla ogólnego zadania, uzyskane przez Zowe [66].
Niech X będzie przestrzenią wektorową topologiczną. Niech 7 będzie wektorową kratą zupełną ze stożkiem dodatnim K. Niech Z i W będą lokalnie wypukłymi przestrzeniami Hausdorffa. Niech Z będzie uporządkowana przez stożek M. Niech F:X -» 7, G:X -+Z i P:X -> 17 będą odwzorowaniami wypuk- łymi i Q cz X będzie zbiorem wypukłym. Rozpatrzmy zadanie typu (1).
Zdefiniujmy dwie funkcje Lagrange’a w następujący sposób.
Przez L(Z, 7) (i L(Z, 7)) oznaczamy przestrzeń wszystkich liniowych odwzorowań (i odpowiednio wszystkich liniowych odwzorowań ciągłych) z X w Z. Odwzorowanie TzeL(Z, 7) nazywamy dodatnim, jeżeli TZ(M) c= K.
Funkcja Lagrange’a <£h\ X x L(Z, Y)xL(W, 7)->7 jest zdefiniowana za pomocą wzoru
& l ( x , Tz, TJ = F(x)+ TzoG(x) + TwoP(x),
a funkcja Lagrange’a X xL (Z , Y)xL(W , 7)-*Y za pomocą wzoru
&l(x, Uz, U J = F(x)+UzoG(x)+UwoP(x),
gdzie xeQ i Tz, Tw, Uz i Uw są wszystkie dodatnie. Mówimy, że (x0, Tz°, T°) jest punktem siodłowym funkcji F£ L, jeśli
T„ TJ « i?L(x0> T2°, T°) SeL(x, 7?, T“).
Następujący warunek nazywamy warunkiem regularności Uzawy: istnieją xeQ, otoczenie zera V w X i punkt f > 0 w Z takie, że x + V <= Q, G(x + x) ^ —ź dla każdego x e V i P(x) = 0.
T w ie r d z e n ie 5.6 [66]. Jeżeli zachodzi warunek regularności Uzawy i x0jest rozwiązaniem Pareto, to istnieje punkt siodłowy (x0, Tz°, Tj) funkcji Lagrange'a L.
T w ie r d z e n ie 5.7 [66]. Załóżmy, że K jest normalne oraz X i W są przestrzeniami metryzowanymi zupełnymi. Załóżmy dalej, że PX jest domknięte i W jest przestrzenią Hilberta. Wówczas, jeżeli spełniony jest warunek Uzawy i x0 jest rozwiązaniem Pareto, to istnieje punkt siodłowy (x0, U°z, U j junkcji
Lagrange’a J
W [62] zostały uzyskane warunki konieczne j dostateczne dla przypadku, gdy struktura dominowania została zdefiniowana za pomocą rodziny stożków K(y) zależącej od yeY .
5.3. Warunki konieczne wyższego rzędu. W przypadkach zdegenerowanych,
w których wszystkie pochodne pierwszego stopnia odwzorowań F, G i P w x0
równają się zeru, warunki konieczne pierwszego stopnia stają się trywialne i nie
dają żadnej informacji o rozwiązaniach. Wobec tego potrzebne są warunki
wyższego rzędu za pomocą pochodnych i wariacji wyższych stopni. Przed- stawimy wyniki Hoffmana i Kornstaedta [18], które naszym zdaniem są dość typowe.
Niech X będzie przestrzenią liniowo-topologiczną. Niech W(x) będzie bazą otoczeń punktu xeX . Niech będą zadane A a X i x0, x v .. ,,xm-i eX. Zbiory
K(A; x0, x lt...txm- 1)
= {xeX : 317effl(x), 3rj > 0, Vue U, Vy e(0, t]): x0 + Z yj Xj + ymueA}, m- 1 j= i
K[A; x0, x1,...,x m_1]
m — 1
= ( x £ l: VUeW(x), Vtj > 0, 3ue U, 3ye(0, r]): x0 + Z yJ’x/ + ymueA}
j= i
nazywamy zbiorami wariacyjnymi stopnia m zbioru A w x0 względem ..., Xm—j.
Dla uproszczenia piszemy
zm{y, «) = Z yj Xj+ymu, m- 1 K(m)(A) = K(A; x0, x v .. .,xm_i), J=o
K(0)(A) = int A, K(0)[/4] = A.
Zbiory te są uogólnieniami stożka stycznego. Dla każdego m ^ 1, K{m)(A) jest otwarte i jest domknięte. Jeśli m = 1, to zbiory te są stożkami, natomiast, w przypadku m > 1, na ogół nie są to stożki.
Niech Y będzie inną przestrzenią liniowo-topologiczną z bazą otoczeń 'f"(y). Niech będą zadane A c B c= X, x 0 e B i ijr. B ^Y . Odwzorowanie i// nazywa się K(m)[A~]-różniczkowalne w x0 w kierunku x, jeżeli:
(i) x eK (m)M ;
(ii) \j/ jest X(m_1) [/l]-różniczkowalne w x0 w kierunku xm_1 (jeśli m ^ 2);
(iii) 3yel^ VFe ^(y), 3Ue%(x), 3r] > 0, Vue U, V(y e(0, rj): zm(y, u)eA):
Aj/[x0,...,x m-{]{y, u)e V, gdzie
Ai//[x0,..., xm- 1](y, u) = A(^m(y, M ) ) - ^ M - ^ [ ^ 0](xi)j
... - ^ m_1)[x0,...,x m_ 2 ](xm_1)j.
W tym przypadku punkt ye Y, oznaczony przez iA^E^o, ..., xm-i](x) (lub
dla uproszczenia nazywamy K(m)[/ł]-poc/ić>dmjt odwzorowania \J/ w x0
w kierunku x.
Związki między tą pochodną a pochodnymi w sensie Hadamarda i Frecheta czytelnik może znaleźć w [18, lematy 3.3 i 3.4].
Rozpatrzmy ponownie zadanie optymalizacji wektorowej (1), przy czym przestrzenie Y i Z mogą być uporządkowanymi przestrzeniami linio- wo-topologicznymi. Zachodzi następujący warunek konieczny m-tego rzędu.
T w ie r d z e n ie 5.8 [18]. Niech x0, x lf . xm-i e X i m ^ l będą zadane.
Załóżmy, że
(i) istnieją podzbiory QF i QG zbioru K(m\Q) takie, że istnieją F( q \ x ) i (/^(x) dla każdego x e Q f i x e Qg, odpowiednio, i że odwzorowania F{ q \ Q f ^>Y, G(a ): Qg^ Z są wypukłe:
(ii) x0 e int Q; P jest m razy różniczkowalne (w sensie Frecheta) w x0 i jest różniczkowalne w pewnym otoczeniu punktu x0;
(iii) int (QF n QG) jest niepuste i zawiera punkt x, gdzie F^l) i G^l) są wypukłe.
Wówczas, jeżeli x0 jest rozwiązaniem Pareto i jeżeli F%(xk) = 0, Gi§»(xt) = 0, P<#(xk) = 0
dla k = 0, 1, ..., m— 1, to istnieją 10 e K*, p 0 e M* i v0e W', które nie wszystkie są zerami, takie że
a 0, Fi?>(x» + <>„, G ^W ) + <v0, P<m,(x)> » 0 dla każdego x e Q f h Qg.
W [3] ujednolicona teoria warunków koniecznych pierwszego i drugiego rzędów została przedstawiona za pómocą zbioru kierunków zmniejszania drugiego stopnia, zbioru dopuszczalnych kierunków drugiego stopnia oraz zbioru stycznych kierunków drugiego stopnia, które są uogólnieniami od- powiednich kierunków pierwszego stopnia (patrz [12] i [15]).
5.4. Zasada maksimum Pontriagina. Zasada ta jest warunkiem koniecznym dla optymalności w teorii sterowania i jest podstawową zasadą tej teorii.
Podobnie jak w teorii jednokryterialnego sterowania optymalnego, zasada maksimum Pontriagina dla wielokryterialnych zadań sterowania może być udowodniona dwoma metodami. Pierwsza z nich, oparta na geometrii różnicz- kowej, została przedstawiona w książce [11]. Druga metoda polega na zastosowaniu reguły mnożników Lagrange’a, gdy rozpatrujemy zadanie stero- wania jako szczególny przypadek zadań optymalizacji (patrz [24], [29], [30]
oraz [38]). W książce [24] udowodniona została zasada maksimum Pon- triagina dla kooperacyjnej gry różniczkowej bez ograniczeń stanu. Natomiast w [29], [30] i [38] znajduje się zasada maksimum Pontriagina dla problemu sterowania z wektorowym wskaźnikiem jakości i ograniczeniami stanu oraz dla kooperacyjnej gry różniczkowej z ograniczeniami stanu różnego typu.
Ponadto, w [30] i [38] udowodniono, że przy dodatkowych założeniach wypukłości zasada ta staje się również warunkiem dostatecznym optymalności.
Przedstawiamy teraz jako przykład zasadę maksimum Pontriagina dla ko-
operacyjnej gry różniczkowej z ograniczeniami stanu.
Rozpatrzmy grę
(4) x(t) = ę(t, x(t), u^t), ..., um{t)),
(5) Uj(t) e Uj c= Rr\ j = 1, . . m,
= h1(x(t1)) = 0, 11 j g(v, x(v), ut {v), um(v))dv ^ 0,
*0
fj(x(fi ) ) + *(*), «i(0» •••> Wm(0)^->inf,
*0
gdzie t0 i tt są ustalone; cp: R x Rn x Rri x ... x Rrm-*Rn; h0: Rn^ R So; h^.
Rn -» RSł; g: R x Rn x Rri x ... x Rrm -► jRfe, będące uporządkowane przez stożek wypukły M; Rn-+Rqj,fj. R x R n x R ri x ... xR rm^ R qj będące upo- rządkowane przez domknięty stożek wypukły Kp j = 1, ..., m; (4) i (5) są spełnione prawie wszędzie w [t0, t j .
Dopuszczalnymi sterowaniami są u f j e U f [t0, t j , ) = 1,..., m, spełniające (5) prawie wszędzie w [t0, t j .
Funkcję (piszemy dla uproszczenia u = (ul5 ..., um) i podobnie dla £ ,/ oraz K = K 1x ...x Km)
H(t, x, u, p, A, /z) = <p, <p(t, «)> —<A,/(t, u ))-(p , g(t, x, u)>
nazywamy funkcją Hamiltona.
Przez redukcję tej gry do zadania optymalizacji wektorowej i zastosowanie twierdzenia 5.3 możemy uzyskać następującą zasadę maksimum, przy czym sterowania « ? (•),..w°(-), z odpowiednim stanem x°(-), nazywamy sterowaniami lokalnymi (lub globalnymi) słabo optymalnymi, jeżeli (x°(-), Ui(j, ..., w°(-)) jest lokalnym (lub globalnym, odpowiednio) słabym rozwiązaniem odpowiedniego zadania optymalizacji wektorowej..
T w ie r d z e n ie 5.9 [30]. Załóżmy, że int K #ę) i int M #</), że wszystkie funkcje <p, h0, ht, g, £ ,/są ciągłe względem wszystkich zmiennych i różniczkowal- ne w sposób ciągły względem x i u. Załóżmy dalej, że dla j — 1, ..., m Uj są wypukłe i int Uj #ę).
Wówczas, jeżeli Wi(-), ..., w®(•), z odpowiednim stanem x°(-), są lokalnymi słabo optymalnymi sterowaniami, to istnieją XeK*, l0eRSo, [e/?*1, odwzorowa- nie p: [t0, tf\->Rn i peM *, które nie są jednocześnie zerami, takie, że
(a) p(-) jest rozwiązaniem równania całkowego p(t) = - ^ ( x ° ( t l))-h\*(x°(tl))ll
+ J H'x(r, x°{r), M?(r), ..., w°(r), p(r), A, p)dr, t
z warunkiem początkowym
p(t0) = ho*(x°{t0))lo-;
(b) dla wszystkich dopuszczalnych Uj(j,j = 1, m, i dla prawie wszystkich te [ t0, fx] mamy
x°,(t), u°(t))A + g'*(t, x°(t), u°(t))p
~(p'*(t, x°(t), u°(t)) p(t), Uj{t)-uJ(t)> ^ 0;
(c) j </t, g{t, x°(t), u°(t))> dt = 0.
to