• Nie Znaleziono Wyników

Optymalizacja wielokryterialna(Praca wpłynęła do Redakcji 1988.03.20

N/A
N/A
Protected

Academic year: 2021

Share "Optymalizacja wielokryterialna(Praca wpłynęła do Redakcji 1988.03.20"

Copied!
17
0
0

Pełen tekst

(1)

P

h a n

Q

u o c

K

h a n

Hanoi

Optymalizacja wielokryterialna

(Praca wpłynęła do Redakcji 1988.03.20)

1. Wprowadzenie. Celem tej pracy jest przeglądowe przedstawienie teorii optymalizacji wielokryterialnej. Ze względu na ograniczoną objętość tego artykułu musimy ograniczyć się jedynie do szczegółowego omówienia jednego aspektu tej teorii, mianowicie problemu warunków koniecznych optymalności.

Natomiast inne zagadnienia będą prezentowane szkicowo; będziemy opisywać tylko zasadnicze pojęcia i główne zadania. Czytelnikowi zainteresowanemu szczegółami tych zagadnień proponujemy najważniejsze w naszym przekona- niu pozycje w literaturze. W bardzo obszernej pracy przeglądowej [67]

czytelnik może również znaleźć informacje o tematyce tutaj pomijanej.

2. Pojęcia podstawowe. Każdy, kto podejmuje decyzje, próbuje je wykonać w sposób optymalny. Dobrze podejmowane decyzje są tradycyjnie oparte na optymalizacji pojedynczego kryterium. W polityce, naukach socjalnych, ekono- mii i w technice jednak spotyka się potrzebę spełnienia wielu dążeń, co wymaga optymalizacji wielu kryteriów. Z tego powstała pewna dyscyplina matematyki stosowanej zwana optymalizacją wielokryterialną. Dyscyplina ta występująca w różnych zagadnieniach często przyjmuje różne nazwy: „optymalizacja wektorowa” w matematyce (zwłaszcza kiedy omawiany jest przypadek nie- skończonej ilości kryteriów), „podejmowanie decyzji wielokryterialnych”

w ekonomii politycznej. Spotyka się w literaturze również terminy „op- tymalizacji Pareto” i „polioptymalizacji”. Oprócz tego, ponieważ ta gałąź matematyki ma swoje źródło w ekonomii, takie teorie jak teoria użyteczności, teoria dobrobytu, teoria równowagi ekonomicznej, teoria preferencji... są ściśle związane z optymalizacją wektorową i ich zadania często są w istocie zadaniami optymalizacji wektorowej.

Podstawowym pojęciem optymalizacji wielokryterialnej jest rozwiązanie Pareto, które może mieć inne równoważne nazwy jak rozwiązanie nie- zdominowane, rozwiązanie efektywne, rozwiązanie preferencyjne. Podamy teraz definicję tego rozwiązania w postaci ogólnej.

[31]

(2)

Niech Y będzie przestrzenią wektorową uporządkowaną przez stożek wypukły K, a S niech będzie jej podzbiorem. Punktem minimalnym w sensie Pareto zbioru S nazywamy punkt y0eS taki, że nie istnieje punkt yeS spełniający warunek y — y0G( — K)\K.

Poza rozwiązaniem Pareto istnieje wiele innych koncepcji rozwiązania optymalnego: rozwiązanie słabe (rozwiązanie Slatera), rozwiązanie właściwe i rozwiązanie silne. Przedstawiamy teraz po kolei definicje tych pojęć.

Przypuśćmy, że stożek K ma algebraiczne względne wnętrze riK # 0.

Punktem minimalnym w sensie Slatera zbioru S nazywa się punkt y0eS taki, że nie istnieje punkt y eS spełniający warunek y — y0e —ńK.

Są różne pojęcia rozwiązania właściwego. W przypadku skończonej ilości kryteriów są trzy standardowe definicje podane przez Kuhna-Tuckera w 1951 r. [32], Klingera w 1967 r. [31] oraz Geoffriona w 1968 r. [14]. Dla przypadku nieskończonej ilości kryteriów natomiast mamy trzy definicje wprowadzone przez Hurwicza w 1958 r. [19], Borweina w 1977 r. [4] (i nie- zależnie, Vogela w 1977 r. [56]) oraz Borweina w 1980 r. [5]. Jako przykład podamy definicję Geoffriona, która naszym zdaniem najbardziej odpowiada intuicji.

Niech Y będzie przestrzenią Rn uporządkowaną przez Rn+ i S niech będzie jej podzbiorem. Punkt właściwie minimalny zbioru S jest to punkt y0 = (yo» •••» yS)eS, dla którego istnieje dodatnia liczba y taka, że

t f - ń r 1 ( f o - f l ś y

dla pewnego j spełniającego yj > yJ0, kiedy tylko yeS i yl < ‘yó.

Dla niepustego podzbioru S przestrzeni wektorowej Y uporządkowanej przez K rozwiązanie silne jest zdefiniowane następująco. Punkt y0eS nazywa się silnie minimalnym punktem zbioru S, jeśli S cz {y0} + K (patrz [24]).

3. Kilka słów o historii optymalizacji wielokryterialnej. Kiedy powstała optymalizacja wielokryterialna? Na to pytanie chyba nie ma jednoznacznej odpowiedzi. Za początek istnienia tej dyscypliny wielu matematyków uważa koniec osiemnastego wieku, kiedy powstały teoria użyteczności i teoria dobrobytu (patrz [54] i [52]). Ponieważ teorie te znalazły sobie ogólne uznanie w ekonomii dopiero około stu lat później, kiedy okazały się znane książki Mengera w 1871 r. [37] i Walrasa w 1874 r. [57], niektórzy uważają, że rozsądniej byłoby przyjmować te lata jako datę urodzin optymalizacji wielo- kryterialnej.

Najwybitniejszym naukowcem w początkowym okresie historii tej dziedzi-

ny był niewątpliwie Vilfredo Federico Damaso Pareto (1848-1923). Jego

słynne książki [41] i [42] drukowane w 1896 i 1906 r. są uważane za podstawę

ekonomii matematycznej i optymalizacji wielokryterialnej. Dlatego, większość

matematyków uważa Pareto za założyciela, a koniec XIX wieku — za początek

historii optymalizacji wielokryterialnej. Obecnie ogólna opinia jest taka, że

Pareto dokonał rewolucji w optymalizacji wektorowej. Zajmował się między

(3)

innymi kompleksem zjawisk ekonomicznych. Wprowadził koncepcję równo- wagi ekonomicznej i zdefiniował to, co obecnie nazywamy lokalnym roz- wiązaniem Pareto. (Dodajmy przy okazji, że termin „rozwiązania Pareto” był używany po raz pierwszy przez Little’a w 1950 r. [34].) Pareto udowodnił warunek konieczny dla równowagi ekonomicznej w postaci warunku stacjo- narności.

Osiągnięcia Pareto, chociaż są niewątpliwie wielkie, nie uniknęły jednak słów krytyki współczesnych mu matematyków. Wicksell [61] skomentował, że Pareto sam miał kłopoty ze sformułowaniem swojej koncepcji równowagi, a w jego książce [42] „to co jest prawdą głównie nie jest nowe lub nowe tylko w sformułowaniu i większość rzeczywiście nowych wyników jest niestety nieprawdą”. Barone [1] nawet znalazł poprawioną wersję definicji równowagi wprowadzonej przez Pareto. Ponadto, w swoich rozważaniach Pareto nieraz używał swego warunku koniecznego w sposób niepoprawny jako warunku dostatecznego. Jednak wszystkie te uwagi nie zmniejszają w najmniejszym stopniu roli, jaką odegrał Pareto w rozwoju optymalizacji wielokryterialnej.

4. Klasyfikacja zagadnień optymalizacji wielokryterialnej

4.1. Istnienie rozwiązań. Pierwsze istotne wyniki w tym kierunku zostały uzyskane przez Olecha w [39] i [40]. Nowym, bardziej geometrycznym podejściem, autor uogólnił rezultaty w [7] na przypadek wielokryterialnego sterowania optymalnego. Później pojawiało się wiele wyników na temat istnienia rozwiązań. Uzyskane były one głównie dwoma metodami. Pierwszą metodą jest bezpośrednie dowodzenie oparte na lemacie Kuratowskie- go-Zorna. Typowymi przykładami są prace [43] i [6]. Druga metoda zaś polega na redukcji zadania optymalizacji wektorowej do zadania optymalizacji skalarnej i wykorzystaniu znanych rezultatów dla optymalizacji skalarnej (przy redukcji często wykorzystane jest twierdzenie Kreina-Rutmana). Typowymi pracami w tym podejściu są publikacje [8], [9], [13] i [24]. W [28]

udowodniono zasadę wariacyjną Ekelanda, jedną z najważniejszych zasad analizy nieliniowej, dla ogólnych zadań optymalizacji wektorowej. Zasada ta zapewnia istnienie rozwiązania Pareto dla zmodyfikowanego odwzorowania celu. Wcześniej, w [68] zasada ta została uogólniona dla prostego zadania ze skończoną ilością kryteriów i ze strukturą dominowania zdefiniowaną przez stożek Rn+.

4.2. Skalaryzacja. Rozpatrzmy zadanie ustalania punktu minimalnego w sensie Pareto podzbioru S przestrzeni wektorowej uporządkowanej Y.

Ustalanie to można dokonać przez redukcję wyjściowego zadania do zadania skalarnego w następujący sposób. Znajdujemy funkcjonał W: Y-+R i wy- znaczamy jego minimum y0 na S: JT(y0) = min W(y). Jeśli W jest właściwie zdefiniowane, to można oczekiwać, że y0 jest właśnie punktem minimalnym

yeS

3 — Matematyka Stosowana XXXII

(4)

w sensie Pareto zbioru S. Tego typu twierdzenie nazywa się skalaryzacją, a W — funkcją użyteczności.

Większość znanych wyników dotyczy przypadków, gdy W jest normą, półnormą lub funkcjonałem liniowym. Najbardziej wartościowe wyniki można znaleźć w [46] (dla normy i półnormy), [60] (dla normy i funkcji kary) oraz [22] (dla ogólnego funkcjonału). Ponadto, w [22] znajduje się również skalaryzacja jako warunek nie tylko dostateczny, lecz również konieczny dla rozwiązań Pareto i Slatera. Zanim sformułujemy te wyniki, przypomnijmy sobie następujące pojęcie. Funkcjonał / określony na przestrzeni wektorowej Y uporządkowanej przez K nazywamy rosnącym (ściśle rosnącym) na pod- zbiorze U o Y, jeśli dla każdego xeU ,

xe(x — K )n U implikuje f(x) < / (x) (ie (x -in tK ) n U implikuje f(x)< f(x), odpowiednio).

T w ie r d z e n ie 4.1 [22]. Rozpatrzmy podzbiór S przestrzeni wektorowej Y uporządkowanej przez K. Przypuśćmy, że intK # 0 i S cz y + intK dla pewnego yeY. Wówczas punkt y0eS jest punktem minimalnym w sensie Slatera zbioru S wtedy i tylko wtedy, gdy istnieje półnormą || • || ściśle rosnąca na int K w punkcie y0 — y taka, że ||y0 — y|| ^ ||y — y|| dla każdego yeS.

T w ie r d z e n ie 4.2 [22]. Przypuśćmy, w dodatku do założenia twierdzenia 4.1, że K jest ostre i algebraicznie domknięte. Wówczas punkt y0eS jest punktem minimalnym w sensie Pareto zbioru S wtedy i tylko wtedy, gdy istnieje norma || • ||

rosnąca na K w punkcie y0 — y taka, że

llj'o-j'll < \ y - y \ \ dla każdego yeS\{y0}.

Inne wyniki można znaleźć w [50], [59], [63], [69] oraz [25].

4.3. Dualność. Podobnie jak w optymalizacji skalarnej, dualność w op- tymalizacji wektorowej oznacza, że pod odpowiednimi warunkami pewne zadanie typu maksimum, nazwane zadaniem dualnym, może być połączone z pierwotnym zadaniem typu minimum w taki sposób, że oba zadania mają wspólne rozwiązania.

Sformułujemy teraz ogólne i proste twierdzenie o dualności, które odzwier- . ciedla zasadniczą ideę dualności.

Niech stożek K w przestrzeni wektorowej uporządkowanej Y będzie niepusty i ostry. Niech P cz Y będzie niepuste. Przypuśćmy, że zadaniem pierwotnym jest ustalanie punktu minimalnego (w sensie Pareto) zbioru P nazwanego zbiorem pierwotnym. Wówczas zadaniem dualnym jest ustalanie punktu maksymalnego zbioru dualnego D = Y\(P + K\{0}).

T w ie r d z e n ie 4.3 [24]. Każdy punkt minimalny zbioru P jest również

punktem maksymalnym zbioru dualnego D. Odwrotnie, jeśli Y\(P + K) jest

algebraicznie otwarte, to każdy punkt maksymalny zbioru D jest punktem

minimalnym zbioru P.

(5)

Pierwsze wyniki o dualności zostały opublikowane w [13]. Znana skalarna teoria dualności Fenchela została uogólniona na optymalizację wektorową w [65]. Różne typy dualności: słaba dualność, silna dualność i ścisła odwrotna dualność były rozpatrywane w [21]. Niedawno równoważność między silną dualnością a pewnym twierdzeniem alternatywy została udowodniona w [36].

4.4. Warunki optymalności. Temu zagadnieniu poświęcamy osobny para- graf 5.

4.5. Algorytmy numeryczne. Algorytmy dla wyznaczania rozwiązań Pareto lub Slatera często używają w sposób istotny wyników skalaryzacji. Większość prac dotyczy programowania liniowego metodą sympleks. Jako przykłady można wymienić prace [64], [53], [51] oraz [26].

W książce [16] zbieżność algorytmów numerycznych dla optymalizacji wektorowej została udowodniona przez redukcję zagadnienia optymalizacji wektorowej do zagadnień skalarnej optymalizacji parametrowej.

Tak zwana procedura adaptacji w optymalizacji skalarnej była sfor- mułowana dla optymalizacji wektorowej w książce [11].

4.6. Inne zagadnienia. W optymalizacji wektorowej spotykane są jeszcze inne zagadnienia. Jednym z nich jest badanie struktury i własności zbiorów rozwiązań efektywnych (tj. rozwiązań Pareto). Szczególnie brano pod uwagę takie własności, jak spójność, domkniętość, zwartość... (patrz np. [44], [58]

i [35]), natomiast stabilność rozwiązań jest rozpatrywana w książce [11].

4.7. Zastosowania. Optymalizacja wielokryterialna ma liczne zastosowania w teorii gier (szczególnie w grach kooperacyjnych), aproksymacji wektorowej, teorii użyteczności, teorii dobrobytu, teorii produkcji, teorii równowagi ekonomi- cznej, analizie systemowej i w wielu innych gałęziach ekonomii matematycznej.

5. Warunki optymalności. W tym paragrafie ograniczymy się w zasadzie do przedstawienia warunków koniecznych optymalności. Będziemy jednak roz- ważać również te warunki dostateczne optymalności, które są kombinacją warunków koniecznych i dodatkowych założeń wypukłości. Założenia wypuk- łości (różnego typu) są chyba najprostszymi założeniami, które mogą wy- stępować jako dodatkowe. Warunki dostateczne dla optymalizacji wielo- kryterialnej zawierające inne dodatkowe założenia można znaleźć w pracach Rolewicza [47], [48] i [49], natomiast warunki dostateczne niebezpośrednio związane z warunkami koniecznymi zostały sformułowane w książce [33].

5.1. Reguły mnożników Lagrange a. Jeśli rozpatrujemy zagadnienia op-

tymalizacji wektorowej w przestrzeniach liniowych i są spełnione pewne

założenia różniczkowalności, to podobnie jak w optymalizacji skalarnej

większość warunków koniecznych pierwszego stopnia ma postać reguły

mnożników Lagrange’a. Oczywiście, wszystkie takie warunki konieczne są

uogólnieniami fundamentalnej idei wprowadzonej przez Fermata i Lagrange’a

w analizie klasycznej kilka wieków temu.

(6)

Sformułujemy teraz ogólną i typową regułę mnożników Lagrange’a. Niech X i W będą przestrzeniami Banacha. Niech Y i Z będą przestrzeniami unormowanymi uporządkowanymi odpowiednio przez stożki K i M. Niech F: X -+Y, G: X -» Z i P: X -> W będą zadanymi odwzorowaniami i niech Q c X. Rozpatrzmy następujące ogólne zadanie:

( 1 )

F(x) -> inf, G(x) < 0, P(x) = 0, , x e Q.

Tu i dalej symbol F(x)~* inf będzie oznaczał, że trzeba znaleźć lokalny lub globalny element minimalny albo element słabo minimalny. Przy tym w sfor- mułowaniach rezultatów będzie wiadomo, o którym elemencie jest mowa.

Przypomnijmy, że dla stożka K w przestrzeni Y z topologicznie dualną przestrzenią Y* i algebraicznie dualną Y', dualny stożek K* i algebraicznie dualny stożek K' są zdefiniowane w następujący sposób:

K* = {y*eY*: (y*, y} ^ 0 dla każdego yeK }, K' = {y' e Y': < /, y) ^ 0 dla każdego yeK }.

T w ie r d z e n ie 5.1 [30]. Załóżmy, że

(i) Q jest wypukłe i wnętrza zbiorów Q, K i M są niepuśte;

(ii) F i G są regularnie lokalnie wypukłe w sensie Ioffego-Tihomirowa [20]

w x0eQ;

(iii) P jest różniczkowalne w sposób ciągły w x0 i P'(x0)X jest domknięte.

Wówczas, jeśli x0 jest lokalnym rozwiązaniem słabym, istnieją w stożkach dualnych punkty X0eK*, p0eM* i v0eW*, które nie wszystkie są zerami i spełniają warunki

<ź0, F'(x0; x - x 0)) + (p 0, G'(x0; x - x 0)>

+ <v0, P'(x0)(x — x0)> ^ 0 dla wszystkich xeQ oraz

(.Po G(x0)> = 0.

Twierdzenie 5.1 jest warunkiem koniecznym typu Fritza Johna. Dodając pewne warunki regularności, otrzymujemy następujący warunek konieczny typu Kuhna-Tuckera:

T w i e r d z e n ie 5.2 [30]. a 0 musi być różne od zera, jeśli, w dodatku do założeń (i)-(iii) poprzedniego twierdzenia, jedno z następujących dwóch założeń jest spełnione:

(iv) P'(x0)Q zawiera otoczenie punktu P'(x0)x0 i istnieje xeQ takie, że G'(x0; x — x0)e — intM$* i P'(x0){x — x0) = 0;

(v) P’(x0)X = W i istnieje xeintfJ takie, że G’(x0; x — x 0) e — int M£*

i P'(x0) ( x - x 0) = 0, gdzie = {peM*: (p, G(x0)) = 0}.

(7)

Dla zadań bez ograniczenia typu równości możemy założyć warunek ri K =£(/) zamiast intK #</) i uzyskać podobne warunki konieczne [30].

W praktyce równania występujące w zadaniach sterowania optymalnego mają zazwyczaj prawą stronę ńieróżniczkowalną względem sterowania u.

Dlatego następujący wynik byłby bardziej adekwatny dla zastosowania w teorii sterowania optymalnego.

Niech X, Y, Z oraz W będą określone jak poprzednio. Niech U będzie zadanym zbiorem wyposażonym w topologię trywialną. Niech będą zadane odwzorowania F: X xU -*Y, G: X x U -* Z i P: X x U -> W. Rozpatrzmy zadanie

f F(x, u) -* inf,

J G(x, u) ^ 0,

K ) ] P{x, u) = 0,

u e U.

Nazwijmy funkcjonał

SF{x, u, X, p, v) = <2, F(x, + G( x ,

m

) ) + <

v

, P (

x

, u ))

funkcją Lagrange’a zadania (2) i zdefiniujmy Zs jako sympleks {a = (oel5 ..., as):

« i> 0’ i ai < !}•

7 = 1

T w ie r d z e n ie 5.3 [29]. Załóżmy, że są spełnione następujące warunki : (i) intK #</) i intM

(ii) dla każdego ueU, P(*, u) jest różniczkowalne w sposób ciągły w x0;

(iii) dla każdego ueU, F(-, u) i G(% u) są ciągłe w otoczeniu V punktu x0 i regularnie lokalnie wypukłe w x0;

(iv) dla każdego skończonego zbioru {ul, ..., uJ c= U i dla każdego 3 > 0, istnieją otoczenie V' cz V, e > 0, odwzorowanie v: V x e Z s -> U i punkty e e K, geM takie, że dla każdych x, x'eV ' i a, a'eeZs zachodzą

v(x, 0) = u0,

s >

IIP(x, v(x, a))-P(x’, v(x', a'))-P'x{x0, u0) ( x - x ’) - Y (a;-a})P(x0, tf/)||

7 = 1

< <$(l|x-x'll + Y |a,—a}|),

7 = 1

s s

'F(x, u(x, a))-F(x, u0) Y Uj)-F{x, u0) ^ £ (||x -x 0ll + Y

7 = 1 7 = 1

S S

G(x, v{x, a)) — G(x, u0)~ Y «/(G(x, Uj)-G(x, u0)) ^ <5(||x-x0|| + Y ^ 9 1

7 = 1 7 = 1

(v) P'x(x0, u0)X ma skończony kowymiar.

Wówczas, jeżeli (x0, u0) jest lokalnym rozwiązaniem słabym, istnieją X0eK*, p0eM* i v0eW*, które nie wszystkie są zerami, takie że

0 edx&{x0, U q , X0, p0, v0),

(8)

& (x0i u0, X0, p0, v0) = min S£(x0, u, X0, p0, v0),

ueU

(t^O’ G(X0, M0)> = 0-

W [27] różniczkowalność w sensie Clarke’a została wykorzystana przy wprowadzaniu warunków koniecznych dla optymalności.

W przypadku, w którym przestrzenie są skończenie wymiarowe oraz K*

i M* są wielościanami (lub bardziej specyficznie, Rn+) reguły mnożników mają bardziej specjalne postaci wyrażone za pomocą generatorów stożków K* i M*

(patrz np. [2], [11], [44] oraz [55]).

Uogólnione reguły mnożników Lagrange’a mogą być udowodnione nawet wtedy, gdy struktura dominowania jest zdefiniowana nie za pomocą stożka porządkowania. W [17] struktura dominowania została zdefiniowana za pomocą dowolnej relacji acyklicznej (niekoniecznie przechodniej), w [10]

zaś — za pomocą wypukłego zbioru nie będącego stożkiem.

Zajmiemy się teraz warunkami dostatecznymi optymalności. Niech X bę- dzie przestrzenią wektorową. Niech Y, Z i W będą przestrzeniami wekto- rowymi uporządkowanymi odpowiednio przez stożki K, M i N.. Zakładamy, że względne algebraiczne wnętrze K, ri K, jest niepuste i że N jest ostry. Niech Q a X i U będą zbiorami niepustymi. Rozpatrzmy zadanie

f F(x, u) -> inf, j G (x, u) < 0,

{ ’ 1 P(x, u) = 0,

x e Q,

u e

U .

D efinic ja 5.1 (por. [24] i [30]). Niech X x będzie dowolną przestrzenią wektorową. Niech S c= X i Tez X x będą zbiorami niepustymi. Niech będą zadane ij/\ Sx-U -^X^ i (x ,u )e S x U . Odwzorowanie \J j ' x ( x , u): S — x -* X x nazywa się cząstkową wariacją kierunkową odwzorowania \jj na x w (jć, u) względem T, jeśli spełniony jest następujący warunek: jeśli istnieje jceS/{x}

takie, że ij/'x(x, u) ( x x ) e T, to istnieje również y > 0, takie że dla każdego

?e[0, y]

x + y(x — x)ES,

y~1(\J/(x + y(x — x), u) — i//(x, u )) e T

D ef in ic ja 5.2 (por. [24] i [30]). Niech będą zadane dodatkowe niepuste podzbiory przestrzeni X x: Cx i C2 <= C3. Niech odwzorowanie tfr. S x U -+Xx ma cząstkową wariację kierunkową na x w (x, u ) e S x U względem C3.

Odwzorowanie if/ nazywamy cząstkowo różniczkowalnie (Ci^-Cjj-ąuasi-wypuk-

łym w (x, u), jeżeli jest spełniony następujący warunek: jeśli istnieje

(x, u) e S x U\{(x, u)} takie, że \j/{x, u) — j/(x, u ) e Cx, to istnieje również

(x, u ) e S x U\{( x , u )} takie, że

(9)

yx + (l — y)x e S dla każdego ye[0, 1], j/x{x, u)(x — x) + if/(x, u) — il/(x, u)eC2.

W przypadku Cl = C2 = C, if/ nazywamy krótko cząstkowo różniczkowal- nie C-ąuasi-wypukłym.

7\ v ie r d z e n ie 5.4 [30]. Rozpatrzmy zadanie (3). Załóżmy, że istnieją niepuste zbiory Gv G2 i G3 takie, że ń K a G ^ Y , M + cone({G(x, ii)}) a G2 cz Z i N u ( — iV) c= G3 c = W i że odwzorowania F, G i P mają cząstkowe wariacje kierunkowe na x w punkcie dopuszczalnym (x0,u0) względem odpowiednio Gx, G2 i G3.

Załóżmy ponadto, że istnieją ż0 e K', p0 e M' i v0 e W takie, że (i) <ż0, y> > 0 dla każdego yeń K ;

(ii) <ż0, Fx(Xg, uo)(x -^o)^ (Po’ “o)(* *o)>

+ <v0, P'x(x0, u0)(x — x0)} ^ 0 dla wszystkich x e Q;

(iii) J 2 ?(x0, uQ, l 0, p0, v0) = min <f(x0, u, ż0, p0, v0);

(iv) <Po, G{x0, u0)> = 0.

ueU

Wówczas

(a) (x0, u0) jest globalnym rozwiązaniem słabym zadania (3), 2 (32) zastąpio- nym

■ G{x, u) + yG(x$, u0) < 0 dla każdego y ^ 0,

wtedy i tylko wtedy, gdy złożone odwzorowanie (F, G, P, P) jest cząstkowo różniczkowalnie ( — C)-quasi-wypukłe w (

j c

0 , u0), gdzie

C = ri X x ( m + cone({G(x0, u0)}) x N x (— N);

(b) jeśli (F, G, P, P) jest cząstkowo różniczkowalnie ( — C)-quasi-wypukłe w (x0, u0), to (x0, U q ) jest globalnym rozwiązaniem słabym zadania (3).

T w ie r d z e n ie 5.5 [30]. Twierdzenie 5.4 zachodzi również dla globalnego rozwiązania, jeżeli założenie wypukłości odwzorowania (F, G, P, P) jest za- stąpione cząstkową różniczkowalną (( — C^ — i — C^-guasi-wypukłością, gdzie

C, = (K \(-K ))x (M + cone({G(x0, n0)})) x N x( — N), C2 = ń K x (M + cone({G(x0, u0)})) x N x( — N).

5.2. Inne warunki konieczne optymalności. Bez założenia różniczkowalności nie możemy sformułować reguły mnożników Lagrange’a. W tym przypadku warunki konieczne optymalności mogą być sformułowane za pomocą punktów siodłowych funkcji Lagrange’a. Pierwsze tego typu rezultaty dla zadań optymalizacji wektorowej bez ograniczeń typu równości (w przestrzeniach liniowych topologicznych) zostały udowodnione w [19].

Można stosunkowo łatwo udowodnić, że istnienie punktu siodłowego

(10)

funkcji Lagrange’a jest warunkiem dostatecznym dla optymalności przy bardzo słabych założeniach (patrz np. [19], [45] i [66]). Trudniej jednak jest stwierdzić, że istnienie punktu siodłowego jest warunkiem koniecznym. Przy tym zadanie musi być w jakimś sensie wypukłe. Prezentujemy teraz takie warunki konieczne dla ogólnego zadania, uzyskane przez Zowe [66].

Niech X będzie przestrzenią wektorową topologiczną. Niech 7 będzie wektorową kratą zupełną ze stożkiem dodatnim K. Niech Z i W będą lokalnie wypukłymi przestrzeniami Hausdorffa. Niech Z będzie uporządkowana przez stożek M. Niech F:X -» 7, G:X -+Z i P:X -> 17 będą odwzorowaniami wypuk- łymi i Q cz X będzie zbiorem wypukłym. Rozpatrzmy zadanie typu (1).

Zdefiniujmy dwie funkcje Lagrange’a w następujący sposób.

Przez L(Z, 7) (i L(Z, 7)) oznaczamy przestrzeń wszystkich liniowych odwzorowań (i odpowiednio wszystkich liniowych odwzorowań ciągłych) z X w Z. Odwzorowanie TzeL(Z, 7) nazywamy dodatnim, jeżeli TZ(M) c= K.

Funkcja Lagrange’a <£h\ X x L(Z, Y)xL(W, 7)->7 jest zdefiniowana za pomocą wzoru

& l ( x , Tz, TJ = F(x)+ TzoG(x) + TwoP(x),

a funkcja Lagrange’a X xL (Z , Y)xL(W , 7)-*Y za pomocą wzoru

&l(x, Uz, U J = F(x)+UzoG(x)+UwoP(x),

gdzie xeQ i Tz, Tw, Uz i Uw są wszystkie dodatnie. Mówimy, że (x0, Tz°, T°) jest punktem siodłowym funkcji F£ L, jeśli

T„ TJ « i?L(x0> T2°, T°) SeL(x, 7?, T“).

Następujący warunek nazywamy warunkiem regularności Uzawy: istnieją xeQ, otoczenie zera V w X i punkt f > 0 w Z takie, że x + V <= Q, G(x + x) ^ —ź dla każdego x e V i P(x) = 0.

T w ie r d z e n ie 5.6 [66]. Jeżeli zachodzi warunek regularności Uzawy i x0jest rozwiązaniem Pareto, to istnieje punkt siodłowy (x0, Tz°, Tj) funkcji Lagrange'a L.

T w ie r d z e n ie 5.7 [66]. Załóżmy, że K jest normalne oraz X i W są przestrzeniami metryzowanymi zupełnymi. Załóżmy dalej, że PX jest domknięte i W jest przestrzenią Hilberta. Wówczas, jeżeli spełniony jest warunek Uzawy i x0 jest rozwiązaniem Pareto, to istnieje punkt siodłowy (x0, U°z, U j junkcji

Lagrange’a J

W [62] zostały uzyskane warunki konieczne j dostateczne dla przypadku, gdy struktura dominowania została zdefiniowana za pomocą rodziny stożków K(y) zależącej od yeY .

5.3. Warunki konieczne wyższego rzędu. W przypadkach zdegenerowanych,

w których wszystkie pochodne pierwszego stopnia odwzorowań F, G i P w x0

równają się zeru, warunki konieczne pierwszego stopnia stają się trywialne i nie

dają żadnej informacji o rozwiązaniach. Wobec tego potrzebne są warunki

(11)

wyższego rzędu za pomocą pochodnych i wariacji wyższych stopni. Przed- stawimy wyniki Hoffmana i Kornstaedta [18], które naszym zdaniem są dość typowe.

Niech X będzie przestrzenią liniowo-topologiczną. Niech W(x) będzie bazą otoczeń punktu xeX . Niech będą zadane A a X i x0, x v .. ,,xm-i eX. Zbiory

K(A; x0, x lt...txm- 1)

= {xeX : 317effl(x), 3rj > 0, Vue U, Vy e(0, t]): x0 + Z yj Xj + ymueA}, m- 1 j= i

K[A; x0, x1,...,x m_1]

m — 1

= ( x £ l: VUeW(x), Vtj > 0, 3ue U, 3ye(0, r]): x0 + Z yJ’x/ + ymueA}

j= i

nazywamy zbiorami wariacyjnymi stopnia m zbioru A w x0 względem ..., Xm—j.

Dla uproszczenia piszemy

zm{y, «) = Z yj Xj+ymu, m- 1 K(m)(A) = K(A; x0, x v .. .,xm_i), J=o

K(0)(A) = int A, K(0)[/4] = A.

Zbiory te są uogólnieniami stożka stycznego. Dla każdego m ^ 1, K{m)(A) jest otwarte i jest domknięte. Jeśli m = 1, to zbiory te są stożkami, natomiast, w przypadku m > 1, na ogół nie są to stożki.

Niech Y będzie inną przestrzenią liniowo-topologiczną z bazą otoczeń 'f"(y). Niech będą zadane A c B c= X, x 0 e B i ijr. B ^Y . Odwzorowanie i// nazywa się K(m)[A~]-różniczkowalne w x0 w kierunku x, jeżeli:

(i) x eK (m)M ;

(ii) \j/ jest X(m_1) [/l]-różniczkowalne w x0 w kierunku xm_1 (jeśli m ^ 2);

(iii) 3yel^ VFe ^(y), 3Ue%(x), 3r] > 0, Vue U, V(y e(0, rj): zm(y, u)eA):

Aj/[x0,...,x m-{]{y, u)e V, gdzie

Ai//[x0,..., xm- 1](y, u) = A(^m(y, M ) ) - ^ M - ^ [ ^ 0](xi)j

... - ^ m_1)[x0,...,x m_ 2 ](xm_1)j.

W tym przypadku punkt ye Y, oznaczony przez iA^E^o, ..., xm-i](x) (lub

dla uproszczenia nazywamy K(m)[/ł]-poc/ić>dmjt odwzorowania \J/ w x0

w kierunku x.

(12)

Związki między tą pochodną a pochodnymi w sensie Hadamarda i Frecheta czytelnik może znaleźć w [18, lematy 3.3 i 3.4].

Rozpatrzmy ponownie zadanie optymalizacji wektorowej (1), przy czym przestrzenie Y i Z mogą być uporządkowanymi przestrzeniami linio- wo-topologicznymi. Zachodzi następujący warunek konieczny m-tego rzędu.

T w ie r d z e n ie 5.8 [18]. Niech x0, x lf . xm-i e X i m ^ l będą zadane.

Załóżmy, że

(i) istnieją podzbiory QF i QG zbioru K(m\Q) takie, że istnieją F( q \ x ) i (/^(x) dla każdego x e Q f i x e Qg, odpowiednio, i że odwzorowania F{ q \ Q f ^>Y, G(a ): Qg^ Z są wypukłe:

(ii) x0 e int Q; P jest m razy różniczkowalne (w sensie Frecheta) w x0 i jest różniczkowalne w pewnym otoczeniu punktu x0;

(iii) int (QF n QG) jest niepuste i zawiera punkt x, gdzie F^l) i G^l) są wypukłe.

Wówczas, jeżeli x0 jest rozwiązaniem Pareto i jeżeli F%(xk) = 0, Gi§»(xt) = 0, P<#(xk) = 0

dla k = 0, 1, ..., m— 1, to istnieją 10 e K*, p 0 e M* i v0e W', które nie wszystkie są zerami, takie że

a 0, Fi?>(x» + <>„, G ^W ) + <v0, P<m,(x)> » 0 dla każdego x e Q f h Qg.

W [3] ujednolicona teoria warunków koniecznych pierwszego i drugiego rzędów została przedstawiona za pómocą zbioru kierunków zmniejszania drugiego stopnia, zbioru dopuszczalnych kierunków drugiego stopnia oraz zbioru stycznych kierunków drugiego stopnia, które są uogólnieniami od- powiednich kierunków pierwszego stopnia (patrz [12] i [15]).

5.4. Zasada maksimum Pontriagina. Zasada ta jest warunkiem koniecznym dla optymalności w teorii sterowania i jest podstawową zasadą tej teorii.

Podobnie jak w teorii jednokryterialnego sterowania optymalnego, zasada maksimum Pontriagina dla wielokryterialnych zadań sterowania może być udowodniona dwoma metodami. Pierwsza z nich, oparta na geometrii różnicz- kowej, została przedstawiona w książce [11]. Druga metoda polega na zastosowaniu reguły mnożników Lagrange’a, gdy rozpatrujemy zadanie stero- wania jako szczególny przypadek zadań optymalizacji (patrz [24], [29], [30]

oraz [38]). W książce [24] udowodniona została zasada maksimum Pon- triagina dla kooperacyjnej gry różniczkowej bez ograniczeń stanu. Natomiast w [29], [30] i [38] znajduje się zasada maksimum Pontriagina dla problemu sterowania z wektorowym wskaźnikiem jakości i ograniczeniami stanu oraz dla kooperacyjnej gry różniczkowej z ograniczeniami stanu różnego typu.

Ponadto, w [30] i [38] udowodniono, że przy dodatkowych założeniach wypukłości zasada ta staje się również warunkiem dostatecznym optymalności.

Przedstawiamy teraz jako przykład zasadę maksimum Pontriagina dla ko-

operacyjnej gry różniczkowej z ograniczeniami stanu.

(13)

Rozpatrzmy grę

(4) x(t) = ę(t, x(t), u^t), ..., um{t)),

(5) Uj(t) e Uj c= Rr\ j = 1, . . m,

= h1(x(t1)) = 0, 11 j g(v, x(v), ut {v), um(v))dv ^ 0,

*0

fj(x(fi ) ) + *(*), «i(0» •••> Wm(0)^->inf,

*0

gdzie t0 i tt są ustalone; cp: R x Rn x Rri x ... x Rrm-*Rn; h0: Rn^ R So; h^.

Rn -» RSł; g: R x Rn x Rri x ... x Rrm -► jRfe, będące uporządkowane przez stożek wypukły M; Rn-+Rqj,fj. R x R n x R ri x ... xR rm^ R qj będące upo- rządkowane przez domknięty stożek wypukły Kp j = 1, ..., m; (4) i (5) są spełnione prawie wszędzie w [t0, t j .

Dopuszczalnymi sterowaniami są u f j e U f [t0, t j , ) = 1,..., m, spełniające (5) prawie wszędzie w [t0, t j .

Funkcję (piszemy dla uproszczenia u = (ul5 ..., um) i podobnie dla £ ,/ oraz K = K 1x ...x Km)

H(t, x, u, p, A, /z) = <p, <p(t, «)> —<A,/(t, u ))-(p , g(t, x, u)>

nazywamy funkcją Hamiltona.

Przez redukcję tej gry do zadania optymalizacji wektorowej i zastosowanie twierdzenia 5.3 możemy uzyskać następującą zasadę maksimum, przy czym sterowania « ? (•),..w°(-), z odpowiednim stanem x°(-), nazywamy sterowaniami lokalnymi (lub globalnymi) słabo optymalnymi, jeżeli (x°(-), Ui(j, ..., w°(-)) jest lokalnym (lub globalnym, odpowiednio) słabym rozwiązaniem odpowiedniego zadania optymalizacji wektorowej..

T w ie r d z e n ie 5.9 [30]. Załóżmy, że int K #ę) i int M #</), że wszystkie funkcje <p, h0, ht, g, £ ,/są ciągłe względem wszystkich zmiennych i różniczkowal- ne w sposób ciągły względem x i u. Załóżmy dalej, że dla j — 1, ..., m Uj są wypukłe i int Uj #ę).

Wówczas, jeżeli Wi(-), ..., w®(•), z odpowiednim stanem x°(-), są lokalnymi słabo optymalnymi sterowaniami, to istnieją XeK*, l0eRSo, [e/?*1, odwzorowa- nie p: [t0, tf\->Rn i peM *, które nie są jednocześnie zerami, takie, że

(a) p(-) jest rozwiązaniem równania całkowego p(t) = - ^ ( x ° ( t l))-h\*(x°(tl))ll

+ J H'x(r, x°{r), M?(r), ..., w°(r), p(r), A, p)dr, t

z warunkiem początkowym

p(t0) = ho*(x°{t0))lo-;

(14)

(b) dla wszystkich dopuszczalnych Uj(j,j = 1, m, i dla prawie wszystkich te [ t0, fx] mamy

x°,(t), u°(t))A + g'*(t, x°(t), u°(t))p

~(p'*(t, x°(t), u°(t)) p(t), Uj{t)-uJ(t)> ^ 0;

(c) j </t, g{t, x°(t), u°(t))> dt = 0.

to

W przypadku gdy /i0(x(t0)) = x(t0)- x ° dla ustalonego x°eR n, zasada maksimum Pontriagina staje się warunkiem dostatecznym optymalności przy założeniu wypukłości podanym niżej. Przypominamy przy tym, że różnicz- ko walny (w sensie Frecheta) funkcjonał if/ nazywamy quasi-wypukłym w jc, jeśli

\f/(x) ^ j/(x) pociąga za sobą il/'{x)(x — x) ^ 0.

T

w i e r d z e n i e

5.10 [30]. Załóżmy, że algebraiczne wnętrze K , cor K # ę ) , że hx i £ są różniczkowalne w sensie Frecheta w x°(t1) oraz że f(t, •, •), (p(t, % •) ig(t, •, •) posiadają pochodne cząstkowe w {x°(t), u°(t)) dla każdego £e[£0, £j.

Załóżmy dalej, że istnieją a e K*\{0}, lxeRs\ odwzorowanie p(j: [£0,

i p e M*, takie że spełnione są warunki (a) (bez warunku początkowego), (b) i (c) twierdzenia 5.9 oraz warunek

(d) spełnione są następujące warunki wypukłości: U — UXx ... x U m jest wypukłe; <ż, £(•)> jest wypukłe w x0^^; </1? hx(j} jest quasi-wypukle w x0^ );

dla prawie wszystkich te[t0, t j , <ż,/(£,-, •)> i id, g{t, % •)> S(ł wypukłe w (x°(£), u°(t)) oraz <p(£), ę(t, •, •)> jest wklęsłe w (x°(£), u°(t)).

Wówczas «?(•),...,u®(•) są globalnymi słabo optymalnymi sterowaniami.

Pragnę serdecznie podziękować recenzentowi za cenne uwagi.

Prace cytowane

[1] E. B arone, II Minister o della produzione nello stado cellestivista, Giornale degli Economisti e Rivista di Statistica 37 (1908), 267-293 i 391-414.

[2] A. B en-T al, Characterization of Pareto and lexicographic optimal solutions, Multiple Criteria Decision Making Theory and Applications, Ed. G. Fandel, T. Gal, 1980, 1-11.

[3] A. B en-T al, J. Z ow e, A unified theory of first and second order conditions for extremum problems in topological vector spaces, Math. Program. Study 19 (1982), 39-76.

[4] J. M. Bo rw ein, Proper efficient points for maximizations with respect to cones, SIAM J.

Control Optim. 15 (1977), 57-63.

[5] J. M. B orw ein, The geometry of Pareto efficiency over cones, Math. Oper. Statist., ser.

Optim. 11 (1980), 235-248.

[6] J. M. B orw ein, On the existence of Pareto efficient points, Math. Oper. Res. 8 (1983), 64-73.

[7] L. C esar i, Existence theorems for weak and usual optimal solutions in Lagrange problems with unilateral constraints, I. Trans. Amer. Math. Soc. 124 (1966), 369-412.

[8] L. C esari, M. B. S u ryan arayan a, Existence Theorems for Pareto problems of

optimalization, Calculus of Variations and Control Theory, Ed. D. Russell, Academic Press,

New York 1976, 139-154.

(15)

[9] L. Ce sari, M. B. S u ryan arayan a, An existence theorem for Pareto problems, Nonlinear Analysis, Theory, Methods and Appl. 2 (1978), 225-233.

[10] C hen G u an g Ya, Necessary conditions of nondominated solutions in multicriteria decision making, J. Math. Anal. Appl. 104 (1984), 38-46.

[11] Ju. A. D ubov, S. I. T ravkin, V. N. Jaki me ść, Mnogokriterialnye modeli formirovania i vybora variantov sistem, Nauka, Moskva 1986.

[12] A. Ja. D u b o v itsk ij, A. A. M ilju tin , Zadaći na ekstremum pri nalićii organićenii, Żur. Vyc.

Mat. i Mat. Fiz. 5 (1965), No. 3, 395-453.

[13] D. G ale, H. W. K uhn, A. W. T ucker, Linear programming and the theory of games, Activity Analysis of Production and Allocation, Ed. T. C. Koopmans, John Wiley, 1951.

[14] A. M. G eoffrion , Proper efficiency and the theory of vector maximization, J. Math. Anal.

Appl. 22 (1968), 618-630.

[15] I. V. G irsa n o v, Lectures on mathematical theory of extremum problems, Springer Verlag, 1972.

[16] J. G uddat, F. G uerra V asquez, K. Tam m er, K. W endler, Multiobjective and stochastic optimization based on parametric optimization, Akademie Verlag, Berlin 1985.

[17] G. B. H azen, T. L. M orin, Optimality conditions in nonconical multiple objective program- ming, J. Optim. Theory Appl. 40 (1983), 25-60.

[18] K. H. H offm ann, H. J. K orn sta ed t, Higher-order necessary conditions in abstract mathematical programming, J. Optim. Theory Appl. 26 (1978), 533-568.

[19] L. H urw icz, Programming in linear spaces, Studies in Linear and Nonlinear Programming, Ed. K. J. Arrow, L. Hurwicz, H. Uzawa, Stanford University Press, California, 1958.

[20] A. D. Ioffe, V. M. T ih om irov, Theory of extremal problems, North-Holland, Amsterdam 1979.

[21] J. Jahn, Duality in vector optimization, Math. Program. 25 (1983), 343-353.

[22] J. Jahn, Scalarization in vector optimization, Math. Program. 29 (1984), 203-218.

[23] J. Jahn, Existence theorems in vector optimization, J. Optim. Theory Appl. 50 (1985), 397-406.

[24] J. Jahn, Mathematical vector optimization in partially ordered linear spaces, Peter Lang, Frankfurt am Main 1986.

[25] I. K a liszew sk i, A characterization of properly efficient solutions by an augmented Tcheby- cheff norm, Bull. Polish Acad. Sci., Tech. Sci. 33 (1985) No. 7-8, 415-420.

[26] I. K a liszew sk i, Wyznaczanie rozwiązań nie zdominowanych w zadaniach wielokryterialnego programowania calkowitoliczbowego, Zeszyt Naukowy WSInż w Koszalinie, prace Wydz.

Mech. nr8, Koszalin 1986, 124-135.

[27] P. K an n iap p an , Necessary conditions for optimality of nondifferentiable convex multiobjec- tive programming, J. Optim. Theory Appl. 40 (1983), 167-174.

[28] P.Q. K hanh, On Karisti-Kirk’s theorem and Ekeland’s variational principle for Pareto extrema, Bull. Polish Acad. Sci., Mathematics (to appear), Preprint 357, IM PAN, 1986.

[29] P. Q. K hanh, T. H. N u on g, On necessary optimality conditions in vector optimization problems, J. Optim. Theory Appl. 58 (1988) No. 1, 63-81.

[30] P. Q. K hanh, T. H. Ń u on g, On necessary and sufficient conditions in vector optimization, J. Optim. Theory Appl. (to appear), Preprint 414, IM PAN, 1988.

[31] A. K linger, Improper solutions of the vector maximum problem, Oper. Res. (1967), No. 15, 570-572.

[32] H. W. K uhn, A. W. T ucker, Nonlinear programming, Proceed. 2nd Barkeley symposium Math. Statist. Probab., Ed. J. Neyman, Univ. California Press, 1951, 481-492.

[33] G. L e it m ann, Cooperative and noncooperative many players diffirential games, Springer Verlag, 1974.

[34] I. D. M. L ittle, A critique of welfare economics, The Clarendon Press, Oxford 1950.

[35] D. T. Luc, Connectedness of the efficient point sets in quasiconcave vector maximization, J.

Math. Anal. Appl. 122 (1987), 346-354.

(16)

[36] D. T. Luc, About duality and alternative in multiobjective optimization, J. Optim. Theory Appl.

53 (1987), 303-307.

[37] K. M enger, Grundsatze der Volkswirtschaftslehre, Braumiiller, Wien 1871.

[38] T. H. N u on g, Optimality conditions in cooperative diffirential games (to appear).

[39] C. O lech, Existence theorems for optimal problems with vector-valued cost function, Trans.

Amer. Math. Soc. 136 (1969), 159-180.

[40] C. O lech, Existence theorems for optimal control problems involving multiple integrals, J. DifT.

Equations 6 (1969), 512-526.

[41] V. P areto, Cours d’economie politique, Vol. 1, 2, F. Rouge, Lausanne 1896.

[42] V. P areto, Manuale di economia politico, Sociata Editrice Libraria, Milano 1906.

[43] J. P. P en o t, Eoptimisation a la Pareto: Deux ou trois choses que je sais d’elle, Publications Math. Pau, Pau, 1978.

[44] V. V. P o d in o v sk i, V. D. N ogin , Pareto-optimarnye reśenija mnogokriteriaPnych zadać, Nauka, Moskva 1982.

[45] K. R itter, Optimization theory in linear spaces, III. Mathematical programming in partially ordered Banach spaces, Math. Ann. 184 (1970), 133-154.

[46] S. R olew icz, On a norm scalarization in infinite dimensional Banach spaces, Control Cyber.

4 (1975), 85-89.

[47] S. R olew icz, On sufficient conditions of vector optimization, Methods Oper. Res. 43 (1981), 151-157.

[48] S. R olew icz, Sufficient conditions for Pareto optimization in Banach spaces, Stud. Math. 57 (1983), 111-114.

[49] S. R olew icz, Remarks on sufficient conditions of optimality of vector optimization, Math.

Oper. Statist., ser. Optim. 15 (1984), 37-40.

[50] M. E. S a lu k v a d ze, Optimizacija vektorovych funkcjonalov, Autom, i Telemech. (1971), No. 8, 5-15.

[51] R. S ło w iń sk i, Modelling and solving multecriteria project scheduling problems, Foundations of Control Engin. 9 (1984), 43-52.

[52] W. S tad ler, A survey of multicriteria optimization or the vector maximum problem, part I:

1776-1960, J. Optim. Theory Appl. 29 (1979), 1-52.

[53] R. E. Steuer, E. U. C hoo, An interactive weighted Tchebychejf procedure for multiple objective programming, Math. Program. 26 (1983), 326-344.

[54] G. S tigler, The development of utility theory, J. Polit. Economy 58 (1950), 307-327.

[55] K. T am ur a, S. M iura, Necessary and sufficient conditions for local and global nondominated solutions in decision problems with multi-objectives, J. Optim. Theory Appl. 28 (1979), 501-523.

[56] W. V ogel, Vektoroptimierung in Produktraumen, Anton Hain, Meisenheim am Gian, 1977.

[57] L. W alras, Elements d'economic politique pure, L. Corbaz and Ccfmpanie, Lausanne 1874-1877.

[58] A. R. W ar bur ton, Quasiconcave vector maximization: connectedness of the sets of Pareto-optimal and weak Pareto-optimal alternatives, J. Optim. Theory Appl. 40 (1983), 537-557.

[59] A. P. W ierzb ick i, Penalty methods in solving optimization problems \vith vector performance criteria, Tech. Report Inst. Autom. Control, Tech. Univ. Warsaw, 1974.

[60] A. P. W ierzb ick i, Basic properties of scalarizing functionals for multiobjective optimization, Math. Oper. Statist., ser. Optim. 8 (1977), 55-60.

[61] K. W ick sell, Vilfredo Paretos Manuel D'Economie Politique, Zeitschrift fur Volkswirtschaft, Sozialpolitik und Verwaltung 22 (1913), 132-151.

[62] P. L. Y u, Cone convexity, cone extreme points, and nondominated solutions in decision problems with multiobjectives, J. Optim. Theory Appl. 14 (1974), 319-377.

[63] P. L. Yu, G. L e it m ann, Compromise solutions, domination structures and Salukvadze’s

solution, J. Optim. Theory Appl. 13 (1974), 362-378.

(17)

[64] S. Z ion ts, J. W al len i us, An interactive programming method for solving the multiple criteria problem, Management Sci. 22 (1976), 652-663.

[65] J. Zow e, A duality theorem for a convex programming problem in order complete vector lattices, J. Math. Anal. Appl. 50 (1975), 273-287.

[66] J. Zow e, The saddle point theorem of Kuhn and Tucker in ordered vector spaces, J. Math. Anal.

Appl. 57 (1977), 41-55.

[67] J. P. D a u e r, W. S t a d 1 e r, A survey of vector optimization in infinite-dimensional spaces, Part 2, J. Optim. Theory Appl. 51 (1986), 205-241.

[68] P. L oridan, e-solutions in vector minimization problems, J. Optim. Theory Appl. 43 (1984), 265-276.

[69] D. T. Luc, Scalarization of vector optimization problems, J. Optim. Theory Appl. 55 (1987),

85-102.

Cytaty

Powiązane dokumenty

Niech H będzie dwuwymiarową dystrybuantą rozkładu dodatnio kwa- drantowo zależnego o brzegowych rozkładach jednostajnych na odcinku [0,1]. Okazuje się, że jest

Celem pracy jest wyjaśnienie, w jakim sensie można mówić o rozwiązywaniu zadania źle postawionego i pokazanie, że stosując odpowiednią metodę udaje się zadanie

1» Praca R.F.Greena dotyczy uproszczonego przypadku, w którym osobniki (zwierzęta , rośliny) nie konkurują ze sobą o zasoby środowiska (np. Przyjęcie takiego uproszczenia

W rozdziale 3 analizujemy stabilność badanego algorytmu, podajemy oszacowania błędu względnego obliczonych kwadratur.. Rozważamy modyfi- kacje oszacowań błędów przy

Nie ma sensu mówić o zbieżności występujących powyżej szeregów zmiennej h, ponieważ nie ma wzoru Taylora w przestrzeni D'(Rn) (por. Pokażemy istnienie

Gleser, On the asymptotic theory of fixed size sequential confidence bounds for linear regression parameters, Ann. Gołdys, Stałoprecyzyjna estymacja średniej

Szukał on optymalnego układu dla testowania liniowej hipotezy H: &lt;£ - 0 przy założeniu, że wektor obserwacji y ma wielowymiarowy rozkład normalny i stosowany

Skończenie wymiarowe twierdzenie o diagonalizacji można zapi- sać w postaci równości U*J)Ut*c/r. Przez równość tę należy ro- zumieć, że zbiór wszystkich macierzy postaci U*DU,