• Nie Znaleziono Wyników

Charakterystyki liczbowe dyskretnych układów hybrydowych; Numerical characteristics of discrete hybrid system - Digital Library of the Silesian University of Technology

N/A
N/A
Protected

Academic year: 2021

Share "Charakterystyki liczbowe dyskretnych układów hybrydowych; Numerical characteristics of discrete hybrid system - Digital Library of the Silesian University of Technology"

Copied!
125
0
0

Pełen tekst

(1)

Politechnika Śląska

Wydział Automatyki, Elektroniki i Informatyki

Michał Niezabitowski

CHARAKTERYSTYKI LICZBOWE DYSKRETNYCH

UKŁADÓW HYBRYDOWYCH

Rozprawa doktorska napisana pod kierunkiem

Prof. dr. hab. inż. Adama Czornika

(2)
(3)

Dziękuję mojemu promotorowi Panu

Prof. dr. hab. inż. Adamowi Czornikowi,

który wprowadził mnie w zupełnie nowy

dla mnie obszar teorii sterowania,

pomógł zgłębić niezliczone meandry

tego obszaru wiedzy oraz inspirował

mnie w pracy. Dziękuję również za czas,

który mi poświęcił, jego ogromną pomoc

oraz setki cennych uwag, bez których

ta praca nigdy by nie powstała.

Dziękuję moim rodzicom i Justynie

za cierpliwość, wyrozumiałość, wiarę,

miłość i wsparcie w dążeniu do celu.

(4)
(5)

Spis tre´sci

1 Wst ˛ep 5

2 Rozpatrywane układy i podstawowe poj ˛ecia 7

2.1 Rozpatrywane układy . . . 7

2.1.1 Liniowy dyskretny układ niestacjonarny oraz jego macierz tranzycji . . . 7

2.1.2 Układ sprz ˛e˙zony . . . 7

2.1.3 Układ z niedokładno´sciami parametrycznymi . . . 8

2.2 Definicja rozpatrywanych układów hybrydowych . . . 8

2.3 Norma macierzowa i operatorowa . . . 9

2.3.1 Definicja normy macierzowej . . . 9

2.3.2 Przykłady norm . . . 10

2.4 Promie´n spektralny zbioru macierzy . . . 11

2.4.1 Wprowadzenie . . . 11

2.4.2 Definicja promienia spektralnego macierzy . . . 11

Podstawowe własno´sci promienia spektralnego . . . 12

2.5 Wspólny promie´n spektralny zbioru macierzy . . . 12

2.5.1 Uogólniony promie´n spektralny . . . 12

2.5.2 Wspólny promie´n spektralny . . . 13

2.5.3 Dolny promie´n spektralny zbioru macierzy . . . 13

2.5.4 Obliczanie i aproksymowanie . . . 14

3 Motywacja do badania układów hybrydowych 15 3.1 Pojemno´s´c kodów . . . 15

3.1.1 Nagrywanie magnetyczne . . . 15

3.1.2 Przykłady . . . 18

3.1.3 Poł ˛aczenie z dyskretnymi inkluzjami liniowymi i w szczególno´sci z wspólnym promie-niem spektralnym . . . 19

Wzorce i zbiory reprezentuj ˛ace . . . 19

Grafy dwudzielne, kaskadowe, ´scie˙zki i zastosowanie wspólnego promienia spektral-nego . . . 20

3.2 Współrz ˛edne agentów autonomicznych . . . 23

3.3 Układy z losowymi skokami parametrów jako dyskretne inkluzje . . . 26

3.3.1 Problem ´sledzenia celu . . . 27

3.3.2 Elektrownia słoneczna . . . 29

4 Stabilno´s´c dyskretnych niestacjonarnych układów liniowych 35 4.1 Asymptotyczna stabilno´s´c . . . 35

4.2 Pot ˛egowa stabilno´s´c . . . 37

4.3 Jednostajna asymptotyczna stabilno´s´c . . . 37

4.4 Jednostajna pot ˛egowa stabilno´s´c . . . 39

4.5 Relacje pomi ˛edzy wprowadzonymi typami stabilno´sci . . . 41

5 Wykładniki charakterystyczne dyskretnych układów liniowych 45 5.1 Wykładniki Lapunowa . . . 45

5.1.1 Definicje wykładników: górnego charakterystycznego i Lapunowa . . . 45

5.1.2 Podstawowe własno´sci wykładników Lapunowa . . . 47 5.1.3 Spektrum Lapunowa układu (2.1) oraz najwi ˛ekszy i najmniejszy wykładnik Lapunowa 49

(6)

5.1.4 Spektrum Lapunowa układu sprz˛e˙zonego (2.2) . . . 51

5.1.5 Poj ˛ecie bazy normalnej . . . 51

5.1.6 Stabilno´s´c wykładników Lapunowa . . . 52

5.2 Wykładniki Perrona . . . 53

5.2.1 Definicje wykładników: dolnego charakterystycznego i Perrona . . . 53

5.3 Wykładniki Bohla . . . 59

5.3.1 Górny wykładnik Bohla . . . 60

5.3.2 Dolny wykładnik Bohla . . . 71

5.3.3 Wykładniki ogólne . . . 79

Starszy górny ogólny wykładnik . . . 80

Młodszy dolny ogólny wykładnik . . . 82

5.4 Relacje pomi ˛edzy wykładnikami i pytania otwarte . . . 87

6 Stabilno´s´c dyskretnych układów hybrydowych 93 6.1 Absolutna asymptotyczna stabilno´s´c . . . 93

6.2 Periodyczna asymptotyczna stabilno´s´c . . . 95

6.3 Pot ˛egowa stabilno´s´c . . . 97

6.4 Selektywna asymptotyczna stabilno´s´c . . . 98

6.5 Markowska asymptotyczna stabilno´s´c . . . 99

6.6 Generyczna asymptotyczna stabilno´s´c . . . 100

6.7 Relacje pomi ˛edzy typami stabilno´sci . . . 101

6.8 Spektra dyskretnych układów hybrydowych . . . 102

(7)

Rozdział 1

Wst ˛ep

Wiele własno´sci układów dynamicznych mo˙ze by´c z powodzeniem scharakteryzowanych przez pewne wielko´sci liczbowe nazywane charakterystykami lub wykładnikami charakterystycznymi. Nale˙z ˛a do nich mi˛edzy innymi: wykładniki Lapunowa, Perrona, Bohla, Izobowa, Grobmana oraz uogólnione promienie spektralne. Liczby te opisuj ˛a ró˙zne typy stabilno´sci, tempo wzrostu lub malenia trajektorii układu czy wra˙zliwo´s´c własno´sci dynamicznych układu na niedokładno´sci parametryczne.

W ostatniej dekadzie zaobserwowano du˙ze zainteresowanie specjalistów z dziedziny teorii układów dynamicznych klas ˛a modeli, które s ˛a kombinacj ˛a logicznych przeł ˛acze´n, których warto´sci nazywane s ˛a modami lub trybami pracy, i ró˙zniczkowych lub ró˙znicowych równa´n, które nazywamy dynamikami układu lub podukładami. Układy takie w teorii sterowania nazywane s ˛a układami z przeł ˛aczeniami i stanowi ˛a podklas ˛e układów hybrydowych. Zainteresowanie układami z przeł ˛aczeniami podyktowane jest przede wszystkim olbrzymi ˛a u˙zyteczno´sci ˛a takich modeli przy modelowaniu obiektów rzeczywistych co przekłada si˛e na rosn ˛ace zapotrzebowanie na metody modelowania, analizy i zrozumienia układów o takiej strukturze.

W przypadku gdy poszczególne dynamiki układu z przeł ˛aczeniami s ˛a modelowane w postaci stacjonarnych równa´n w czasie dyskretnym to dobrym modelem całego układu jest dyskretna inkluzja. O ile prostsze własno´sci dynamiczne inkluzji dyskretnych, takie jak stabilno´s´c czy sterowalno´s´c zostały ju˙z cz˛e´sciowo zbadane, to podej´scie oparte na wykładnikach charakterystycznych nie było jeszcze w literaturze dysku-towane.

Główna hipoteza badawcza mo˙ze by´c sformułowana w sposób nast˛epuj ˛acy: własno´sci dynamiczne dyskretnych układów hybrydowych mog ˛a by´c scharakteryzowane przez zbiór wykładników charakterystycznych.

Je˙zeli w rozwa˙zanym układzie hybrydowym ustalimy funkcj˛e przeł ˛aczaj ˛ac ˛a to otrzymamy klasyczny układ niestacjonarny. Metoda badawcza, która jest głównie stosowana w pracy, polega na poszukiwaniu zwi ˛azków pomi ˛edzy wykładnikami charakterystycznymi tak otrzymanych układów o zmiennych w czasie współczynnikach, a własno´sciami dynamicznymi wyj´sciowych układów hybrydowych. Na potrzeby opisu tych własno´sci dynamicznych zaproponowano w pracy szereg charakterystyk liczbowych dyskretnych inkluzji liniowych.

Dla układów niestacjonarnych techniki oparte na wykładnikach charakterystycznych s ˛a w teorii sterowa-nia dobrze znane głównie dla układów w czasie ci ˛agłym. Dlatego w ramach bada´n, w pierwszym kroku, dokonano przeniesienia cz ˛e´sci wyników dotycz ˛acych układów ci ˛agłych na układy dyskretne oraz usystem-atyzowania i uporz ˛adkowania tych rezultatów.

Jedn ˛a z podstawowych własno´sci dynamicznych rozwa˙zanych w teorii sterowania jest stabilno´s´c. Obec-nie Obec-nie ma efektywnego algorytmu, który w pełny sposób rozstrzygałby nawet najprostsze problemy sta-bilno´sci układów hybrydowych. W pracy podano opis, w postaci nierówno´sci, ró˙znych typów stasta-bilno´sci dyskretnych inkluzji liniowych poprzez wprowadzone wcze´sniej charakterystyki liczbowe. Sugeruje to mo˙zliwo´s´c opracowania w przyszło´sci algorytmu rozstrzygaj ˛acego o pewnych typach stabilno´sci opartego na zaproponowanych charakterystykach liczbowych.

Praca zorganizowana jest w sposób nast ˛epuj ˛acy. W rozdziale 2-gim wprowadzono definicje i pod-stawowe poj ˛ecia u˙zywane w dalszej cz˛e´sci pracy. Rozdział 3-ci zawiera motywacj˛e do badania układów hybrydowych w postaci szeregu przykładów praktycznych. W 4-tym rozdziale opisano ró˙zne typy sta-bilno´sci dyskretnych niestacjonarnych układów liniowych. Rozdziały 5-ty i 6-ty stanowi ˛a centraln ˛a cz˛e´s´c pracy. Pierwszy z nich zawiera szereg oryginalnych wyników dotycz ˛acych wykładników charakterysty-cznych dyskretnych niestacjonarnych układów liniowych. Z kolei rozdział 6-ty zawiera propozycje

(8)

terystyk liczbowych dyskretnych inkluzji liniowych oraz wyniki opisuj ˛ace ich stabilno´s´c poprzez te charak-terystyki. W rozdziałach tych sformułowano równie˙z szereg pyta´n otwartych, które mog ˛a sta´c si˛e przed-miotem przyszłych bada´n. Ostatnim rozdziałem jest zako´nczenie zawieraj ˛ace podsumowanie uzyskanych wyników.

(9)

Rozdział 2

Rozpatrywane układy i podstawowe

poj ˛ecia

W tym rozdziale opiszemy rozpatrywane układy, wprowadzimy definicje inkluzji oraz takich poj ˛e´c jak norma macierzowa, promie´n spektralny zbioru macierzy i wspólny promie´n spektralny zbioru macierzy.

2.1

Rozpatrywane układy

2.1.1

Liniowy dyskretny układ niestacjonarny oraz jego macierz tranzycji

Rozwa˙zmy nast˛epuj ˛acy liniowy dyskretny układ niestacjonarny

x(n + 1) = A(n)x(n), n≥ 0 (2.1) gdzie A = (A(n))n∈Njest ograniczonym ci ˛agiem macierzy kwadratowych stopnia s. Zdefiniujmy równie˙z macierz tranzycji układu (2.1) jako

A(n, m) = A(n − 1) . . . A(m) dla n > m A(n, m) = A−1(m, n) dla n < m

i A(n, n) = I, gdzie I jest macierz ˛a jednostkow ˛a. Dla warunku pocz ˛atkowego x(0) = x0∈ Rsrozwi ˛azanie

układu (2.1) b ˛edziemy oznacza´c przez x(n, x0) i jest ono równe

x(n, x0) =A(n, 0)x0.

Bardzo cz˛esto w teorii sterowania dyskretne liniowe równania ró˙znicowe (2.1) wyst˛epuj ˛a bezpo´srednio jako modele układów rzeczywistych lub w wyniku linearyzacji układów nieliniowych. Pojawiaj ˛a si ˛e one równie˙z w wyniku dyskretyzacji układów liniowych ci ˛agłych. W tym przypadku nale˙zy zauwa˙zy´c, ˙ze nawet je˙zeli zdyskretyzujemy układ liniowy stacjonarny ze zmienn ˛a cz ˛estotliwo´sci ˛a próbkowania, to i tak wynikowy układ dyskretny b ˛edzie niestacjonarny [2].

2.1.2

Układ sprz ˛e˙zony

Je˙zeli macierze A (n) s ˛a odwracalne to razem z układem (2.1) b ˛edziemy rozpatrywa´c układ sprz˛e˙zony y(n + 1) = B(n)y(n), n≥ 0, (2.2) gdzie B(n) = (A∗(n))−1 ioznacza sprz˛e˙zenie. Macierz tranzycji układu sprz˛e˙zonego jest wyra˙zona

poprzez

B(n, m) = B(n − 1)...B(m) dla n > m i B(n, m) = I.

(10)

2.1.3

Układ z niedokładno´sciami parametrycznymi

W zastosowaniach praktycznych typow ˛a sytuacj ˛a jest, ˙ze parametry modelu s ˛a znane tylko z pewn ˛a dokładno´sci ˛a (np. s ˛a wynikiem estymacji). Zatem w naturalny sposób prowadzi to do rozpatrywania układu (2.1) wraz z układem z niedokładno´sciami parametrycznymi postaci

z(n + 1) = (A(n) + ∆(n)) z(n), (2.3) gdzie ∆ = (∆(n))n∈N jest ci ˛agiem macierzy kwadratowych stopnia s z pewnej klasy M modeluj ˛acym niedokładno´sci parametryczne.

Wraz z układem (2.3) b ˛edziemy rozwa˙za´c układ do niego sprz˛e˙zony postaci

t (n + 1) = C (n) t (n) , (2.4) gdzie

C (n) = (A (n) + ∆ (n))∗ −1. Rozwa˙zmy nast˛epuj ˛acy zbiór niedokładno´sci parametrycznych

Mq={∆ = (∆(n))n∈N: ∆

∞≤ q} , (2.5)

gdzie ∆ = sup ∆(n) . Dla ka˙zdego ci ˛agu (A(n))n∈Nwspółczynników układu (2.1) b ˛edziemy rozwa˙za´c tak małe q aby układ z niedokładno´sciami parametrycznymi (2.3) miał zarówno odwracalne współczyn-niki jak i by ci ˛ag (A(n) + ∆(n))−1

n∈N był ograniczony dla wszystkich ∆ ∈ Mq

′, 0 < q′ < q. Jest naturalnym, ˙ze przy naszych zało˙zeniach takie q zawsze istnieje.

2.2

Definicja rozpatrywanych układów hybrydowych

Zdefiniujemy teraz jeden z głównych obiektów naszych rozwa˙za´n, czyli dyskretn ˛a inkluzj˛e. Proponowana przez nas definicja ró˙zni si˛e od wyst˛epuj ˛acych w literaturze a dokładniej mówi ˛ac jest ich uogólnieniem, które pozwoli nam rozpatrywa´c układy ze skokowo zmieniaj ˛acymi si ˛e parametrami i układy hybrydowe jako dyskretne inkluzje.

Rozwa˙zmy zbiór Σ = {A (i) : i ∈ I} macierzy kwadratowych stopnia s. Oznaczmy D ={d = (d (0) , d (1) , . . .) : d (i) ∈ I} .

Ponadto dla liczby naturalnej m i I = {1, . . . , m} rozpatrzmy zbiór

Dm={d = (d (0) , d (1) , . . .) : 1 ≤ d (i) ≤ m} .

Rozwa˙zmy pewien pozdbiór ¯D⊂ D i zbiór funkcji Σ={F

i: Rs→ Rs: i∈ I}.

Definicja 1 Dyskretn ˛a inkluzj ˛a DI Σ′, ¯D , któr ˛a b ˛edziemy oznacza´c

x ( j + 1)∈ Fd(j)(x ( j)) ,

j = 0, 1, 2, ... nazywamy zbiór wszystkich takich ci ˛agów (x ( j))j∈N , x ( j) ∈ Rstakich, ˙ze

x (j + 1) = Fd(j) (x (j)) , j = 0, 1, 2, ... (2.6)

dla pewnego ci ˛agu d ∈ ¯D.

1. Je˙zeli ¯D = D oraz funkcje Fi s ˛a funkcjami liniowymi, czyli Fi(x) = A (i) x otrzymujemy klasyczn ˛a

dyskretn ˛a inkluzj ˛e liniow ˛a oznaczan ˛a w skrócie DIL (Σ) rozpatrywan ˛a m.in. w pracy [118]. DIL (Σ) b ˛edziemy uto˙zsamiali ze zbiorem wszystkich takich ci ˛agów (x ( j))j∈N , x (j) ∈ Rs, ˙ze

x ( j + 1) = A (d ( j)) x ( j) (2.7) dla pewnego d ∈ D. Ci ˛ag (x (j))j∈N b ˛edziemy nazywali wówczas trajektori ˛a inkluzji odpowiadaj ˛ac ˛a

(11)

Badanie asymptotycznych własno´sci takiej inkluzji sprowadza si ˛e tak naprawd ˛e do badania wszys-tkich niesko´nczonych iloczynów macierzowych

n l=1

A ( jl) l∈N

: ( jl)∈ D

o czym traktuje praca [95] w kontek´scie istnienia granicy takich iloczynów. Tutaj i w całej pracy

k i=l

A (i) = A (k) . . . A (l) dla k ≥ l.

2. Je˙zeli ¯D = D lecz funkcje Fi nie s ˛a funkcjami liniowymi to otrzymujemy dyskretne inkluzje, które

w literaturze tak˙ze ju˙z były badane [41], [59], [105].

3. Rozwa˙zmy teraz pewien stacjonarny (prawdopodobie´nstwa przej´s´c nie zale˙z ˛a od czasu) ła´ncuch Markowa (r ( j))j∈N [135] o sko´nczonej przestrzeni stanów S = {1, . . . , m}. Ka˙zda trajektoria takiego ła´ncucha Markowa jest jednym z ci ˛agów z Dm. Jednak˙ze, nie ka˙zdy ci ˛ag z Dm musi by´c

trajektori ˛a pewnego ła´ncucha Markowa co przedstawia poni˙zszy przykład macierzy przej´s´c

1 2 3 1 2 3       1 2 12 0 1 3 13 13 1 3 0 23      

Dla powy˙zszego przykładu nie jest mo˙zliwe przej´scie ze stanu 1 do 3 albo z 3 do 2, zatem zbiór wszystkich trajektorii takiego ła´ncucha Markowa nie b ˛edzie ci ˛agiem, który zawiera elementy 1, 3 lub 3, 2 kolejno po sobie nast ˛epuj ˛ace.

Je˙zeli dla dowolnego ła´ncucha Markowa o macierzy prawdopodobie´nstw P = [pk l]k, l ∈Izdefiniujemy

nast ˛epuj ˛aco zbiór ¯

D (P ) = d = (d (0) , d (1) , . . .) : 1≤ d (i) ≤ m , pd(i−1) d(i)> 0 , i = 1, 2, . . . , (2.8) to dochodzimy do wniosku, ˙ze dyskretne układy liniowe ze skokowo zmieniaj ˛acymi si˛e parametrami [186] mog ˛a by´c rozwa˙zane jako dyskretne inkluzje liniowe (2.7). Dalsze szczegóły tego podej´scia b ˛ed ˛a opisane w podrozdziale 3.3.

4. Uzasadnienie dla stosowania powy˙zszego zbioru ¯D (P ) = D mo˙zna równie˙z odnale´z´c w teorii układów hybrydowych. Mianowicie, je˙zeli wyst˛epuje tam przeł ˛aczenie pomi˛edzy poszczególnymi podukładami takiego układu hybrydowego to nie zawsze wydaje si˛e zasadne rozwa˙zanie wszystkich mo˙zliwych przeł ˛acze´n poniewa˙z czasami natura tego obiektu, który modelujemy wyklucza wys-t ˛epowanie pewnych przeł ˛acze´n. Rozpawys-trywanie podzbioru ¯D (P ) pozwoli nam rozpatrywa´c równie˙z pewne układy hybrydowe, dla których taka sytuacja ma miejsce.

2.3

Norma macierzowa i operatorowa

2.3.1

Definicja normy macierzowej

Niech Rs×s oznacza zbiór wszystkich macierzy kwadratowych stopnia s o elementach rzeczywistych.

Norm ˛a macierzow ˛a jest funkcja · : Rs×s− > [0, ∞] spełniaj ˛aca nast˛epuj ˛ace 4 warunki:

1. nieujemno´s´c

A∈Rs×s

A > 0 je˙zeli A = 0

A∈Rs×s

(12)

2. jednorodno´s´c k∈R A∈Rs×s kA =|k| A , 3. nierówno´s´c trójk ˛atna A,B∈Rs×s A + B ≤ A + B , 4. podmultiplikatywno´s´c A,B∈Rs×s AB ≤ A B .

Norma macierzowa ró˙zni si˛e od normy dodatkowym warunkiem 4. Je˙zeli · wek jest norm ˛a w Rsto

indukowana norma macierzowa · indpowstaje z normy wektorowej · wek w nast ˛epuj ˛acy sposób:

A ind= max

x =0

Ax wek x wek ,

a nast ˛epnie dzi ˛eki własno´sci liniowo´sci mo˙zemy bez straty ogólno´sci zredukowa´c powy˙zsz ˛a równo´s´c do nast ˛epuj ˛acej:

A ind= max

x wek=1

Ax wek .

Dla uproszczenia, w dalszej cz˛e´sci pracy indeksy ind i wek b ˛edziemy pomija´c, gdy˙z ich u˙zycie b ˛edzie wynika´c z kontekstu. Ka˙zda norma macierzy jednostkowej jest równa 1 niezale˙znie od normy wektorowej.

Ka˙zda norma indukowana jest podmultiplikatywna, czyli jest norm ˛a macierzow ˛a. Istotnie, AB = max x =0 ABx x = maxx =0 ABx Bx Bx x ≤ maxy =0 Ay y maxx =0 Bx x = A B .

Powszechnie znanym jest [129], ˙ze ka˙zde dwie normy macierzowe · ai · b s ˛a równowa˙zne. Oznacza

to, ˙ze istniej ˛a dodatnie stałe a i b takie, ˙ze

a A b≤ A a≤ b A b

dla ka˙zdej macierzy A. Z powy˙zszej równowa˙zno´sci b ˛edziemy wielokrotnie korzystali.

2.3.2

Przykłady norm

Je˙zeli rozpatrywanymi normami wektorowymi s ˛a: • x p

x p= p

i

|xi|p,

w szczególno´sci:

• x 1 b ˛ed ˛aca sum ˛a warto´sci bezwzgl ˛ednych elementów x

x 1=

i

|xi| ,

• x ∞ b ˛ed ˛aca maksymaln ˛a warto´sci ˛a bezwzgl ˛edn ˛a elementów x

x = max

i |xi|

to odpowiednie indukowane normy macierzowe maj ˛a nast ˛epuj ˛ace postaci •

A p= max

x=0

Ax p x p ,

(13)

• A 1= max x 1=1 Ax 1= maxj i |ai,j| , • A = max x ∞=1 Ax = max i j |ai,j| ,

• Norma A 2 znana jest jako norma spektralna A.

Je˙zeli opisywana przez nas własno´s´c nie b ˛edzie zale˙ze´c od wyboru normy to b ˛edziemy pomija´c indeksy dolne przy symbolu normy.

2.4

Promie´

n spektralny zbioru macierzy

2.4.1

Wprowadzenie

Definicja wspólnego promienia spektralnego została wprowadzona w 1960 roku, kiedy to po raz pierwszy została przedstawiona przez Rota i Strang w pracy [244]. W latach 90. XX w. Daubechies i Lagarias zdefiniowali w swoich pracach [94]-[96] uogólniony promie´n spektralny. Nast˛epnie Berger i Wang udowod-nili w pracy [26], ˙ze te dwie warto´sci s ˛a równe dla ograniczonych zbiorów macierzy. Nast˛epnie, poj˛ecie to znalazło szereg zastosowa´n, do których nale˙z ˛a:

• agenci autonomiczni [49], [71], [143], [149], [202], [257], [271], • teoria kodowania [39], [40], [147], [176], [197], [207],

• teoria falek [6], [62], [93], [96], [97], [233], • kombinatoryka słów [28], [145], [178],

• teoria sterowania (układy hybrydowe) [17]-[19], [148], [159], • projektowanie krzywych [101],

• teoria liczb [230], [232], • sieci sensorowe [71],

• teoria prawdopodobie´nstwa (automaty probabilistyczne) [36], [231].

W rozdziale 3 naszej pracy jest mowa o zastosowaniach promienia spektralnego zbioru macierzy wymienionych w pierwszych dwóch powy˙zszych podpunktach i ich powi ˛azaniu z dyskretnymi inkluzjami liniowymi.

2.4.2

Definicja promienia spektralnego macierzy

Warto´sci ˛a własn ˛a macierzy A jest skalar λ ∈ C taki, ˙ze

v=0

Av = λv .

Wówczas v nazywamy wektorem własnym macierzy A odpowiadaj ˛acej warto´sci własnej λ. Promie´n spektralny ρ (A) macierzy A definiujemy jako najwi˛ekszy moduł jej warto´sci własnych

(14)

Podstawowe własno´sci promienia spektralnego • Promie´n spektralny pot˛egi macierzy

Aυ = λυ =⇒ Akυ = λkυ,

co w konsekwencji dzi ˛eki definicji 2.9 sprowadza si ˛e do postaci: ρ Ak = ρ (A)k. • Warunek zbie˙zno´sci

Dla ka˙zdej macierzy A ∈ Rs×s, promie´n spektralny decyduje o zbie˙zno´sci do zera kolejnych pot˛eg

Ak macierzy A:

lim

k→∞A k = 0

⇐⇒ ρ (A) < 1. (2.10) Dzi ˛eki tej własno´sci promie´n spektralny macierzy jest postrzegany jako wielko´s´c opisuj ˛aca asymp-totyczne zachowanie kolejnych pot ˛eg tej macierzy, co pozwala w jego terminach opisywa´c stabilno´s´c dyskretnych układów postaci

x (n + 1) = Ax (n) .

Powy˙zszy układ jest absolutnie asymptotycznie stabilny wtedy i tylko wtedy, gdy ρ (A) < 1.

• Nierówno´s´c z norm ˛a

Niech A ∈ Rs×s i ρ (A) = λ, natomiast υ

b ˛edzie wektorem własnym odpowiadaj ˛acym warto´sci własnej λ′. Zdefiniujmy macierz V∈ Rs×s , której kolumny s ˛a wektorem kolumnowym υ

powtór-zonym s-krotnie. U˙zywaj ˛ac własno´sci podmultiplikatywno´sci otrzymamy: AV = λ′V =⇒ λ′ V = λ′V = AV ≤ A V . Reasumuj ˛ac, je˙zeli · jest dowoln ˛a norm ˛a macierzow ˛a i je˙zeli A ∈ Rs×s to:

ρ (A)≤ A .

2.5

Wspólny promie´

n spektralny zbioru macierzy

Istniej ˛a dwa naturalne uogólnienia definicji promienia spektralnego pojedynczej macierzy na zbiór macierzy. Pierwsze jest oparte na promieniu spektralnym, natomiast drugie na normach macierzowych. Rozpatrzmy (niekoniecznie ograniczony) zbiór Σ macierzy Ai kwadratowych stopnia s

Σ ={Ai: i∈ I} .

2.5.1

Uogólniony promie´

n spektralny

Dla danego k ∈ N niech ρk(Σ) b ˛edzie kresem górnym promieni spektralnych wszystkich iloczynów k

macierzy wybranych ze zbioru Σ

ρk(Σ) := sup ρ

k i=1

Ai : Ai∈ Σ dla 1 ≤ i ≤ k .

Korzystaj ˛ac z powy˙zszego oznaczenia definiujemy uogólniony promie´n spektralny [95] ρ (Σ) := lim sup

k→∞

k(Σ))k1.

Uogólniony promie´n spektralny jest zatem asymptotycznym maksymalnym promieniem spektralnym iloczynów macierzy, które mog ˛a by´c utworzone ze zbioru Σ. Wykładnik pot ˛egi pozwala postrzega´c uogól-niony promie´n spektralny jako tempo wzrostu promienia spektralnego, gdy liczba czynników ro´snie.

(15)

2.5.2

Wspólny promie´

n spektralny

Idea wspólnego promienia spektralnego wywodzi si ˛e z nast ˛epuj ˛acej formuły Gelfanda [129] ρ (A) = lim

k→∞ A k k1.

Promie´n spektralny mo˙zna w tym przypadku postrzega´c jako kres górny mo˙zliwych norm wszystkich iloczynów k macierzy wybranych ze zbioru Σ, tj.

ˆ

ρk(Σ, · ) := sup

k i=1

Ai : Ai∈ Σ dla 1 ≤ i ≤ k . (2.11)

Wspólny promie´n spektralny [244] okre´slony jest w nast ˛epuj ˛acy sposób ˆ

ρ (Σ) := lim sup

k→∞

(ˆρk(Σ, · ))1k.

Reasumuj ˛ac, wspólny promie´n spektralny jest asymptotyczn ˛a maksymaln ˛a norm ˛a iloczynów macierzy, które mog ˛a by´c utworzone ze zbioru Σ. Wykładnik pot ˛egi pozwala postrzega´c wspólny promie´n spektralny jako tempo wzrostu normy. Poniewa˙z wszystkie normy s ˛a równowa˙zne, wi˛ec powy˙zsza definicja wspólnego promienia spektralnego nie zale˙zy od wyboru normy macierzowej. Gdy zbiór Σ zawiera tylko jedn ˛a macierz, to definicje wspólnego i uogólnionego promienia spektralnego s ˛a ekwiwalentne definicji promienia spektralnego pojedy´nczej macierzy. Okazuje si˛e, ˙ze zachodzi nast˛epuj ˛ace

Twierdzenie 2 Dla dowolnego zbioru ograniczonego Σ mamy ˆ

ρ (Σ) = ρ (Σ) . (2.12)

Liczba wyst ˛epuj ˛aca po lewej stronie po raz pierwszy pojawiła si ˛e w pracy [244], natomiast wielko´s´c po prawej stronie równo´sci w pracy [95], gdzie postawiono równie˙z hipotez˛e, ˙ze te liczby s ˛a sobie równe dla zbiorów ograniczonych oraz podano przykład, ˙ze w przypadku, gdy Σ nie jest zbiorem ograniczonym to te liczby nie musz ˛a by´c równe. Hipotez˛e t ˛e dla zbiorów sko´nczonych udowodnili Berger i Wang w publikacji [26], a w przypadku ogólnego zbioru ograniczonego Ludwig Elsner w pracy [104].

Wspóln ˛a warto´s´c wspólnego i uogólnionego promienia spektralnego b ˛edziemy nazywali wspólnym promieniem spektralnym i oznaczali ρ (Σ). Podsumowanie wyników prac dotycz ˛acych uogólnionego i górnego promienia spektralnego mo˙zna odnale´z´c w [147], [177].

W dalszej cz ˛e´sci pracy b ˛edziemy wykorzystywali nast˛epuj ˛ace twierdzenie z pracy [104]. Twierdzenie 3 Dla dowolnego zbioru ograniczonego

ρ (Σ) = inf

· Σ ,

gdzie

Σ = sup{ A : A ∈ Σ} .

2.5.3

Dolny promie´

n spektralny zbioru macierzy

Poj ˛ecie dolnego promienia spektralnego zostało wprowadzone w [118], a pozostałe własno´sci z nim zwi ˛azane s ˛a opisane w [74]. W przeciwie´nstwie do wspólnego i uogólnionego promienia spektralnego, gdzie intere-sował nas kres górny, tym razem bierzemy pod uwag˛e kres dolny. Oznaczmy

ρk(Σ) := inf ρ k i=1 Ai : Ai∈ Σ dla 1 ≤ i ≤ k , ˆ ρk(Σ, · ) := inf k i=1 Ai : Ai∈ Σ dla 1 ≤ i ≤ k .

Wówczas uogólniony podpromie´n spektralny definiujemy jako ρ (Σ) := lim inf

k→∞ ρk(Σ)

1 k . natomiast wspólny podpromie´n spektralny jest postaci

ˆ ρ (Σ) := lim inf k→∞ ˆρk(Σ, · ) 1 k = inf k→∞ ˆρk(Σ, · ) 1 k .

(16)

Twierdzenie 4 [74]. Dla dowolnego zbioru Σ zachodzi

ρ (Σ) = ˆρ (Σ) . (2.13)

Zatem uogólniony/wspólny podpromie´n spektralny lub dolny promie´n spektralny s ˛a synonimami. W dalszej cz ˛e´sci pracy wspóln ˛a warto´s´c dwóch powy˙zszych liczb b ˛edziemy nazywali dolnym promie-niem spektralnym i oznaczali ρ (Σ). Powy˙zsze równanie jest analogiem równo´sci (2.12). Podkre´sli´c jednak nale˙zy, ˙ze równo´s´c (2.13) zachodzi dla dowolnego zbioru Σ podczas, gdy równo´s´c (2.12) tylko dla zbioru ograniczonego.

2.5.4

Obliczanie i aproksymowanie

Dokonamy teraz zwi˛ezłej oceny jak powy˙zsze wielko´sci mog ˛a by´c obliczane lub aproksymowane. Nierówno´s´c ˆ

ρk(Σ)1k ≤ ρ (Σ) ≤ ˆρ (Σ) ≤ ˆρ

k(Σ, · )

1 k

udowodniona w Lemacie 3.1 pracy [95] mo˙ze by´c u˙zyta do otrzymania algorytmu, który obliczy w sposób dowolnie precyzyjny przybli˙zenia uogólnionego promienia spektralnego (zobacz np. [116], gdzie pokazano jeden z takich algorytmów).

Zobaczymy w dalszej cz ˛e´sci pracy (twierdzenie 81), ˙ze z punktu widzenia stabilno´sci dyskretnych inkluzji liniowych istotne jest pytanie czy promie´n spektralny jest > 1 lub < 1. Nie jest wiadomym czy problem ten jest problemem rozstrzygalnym. Udowodniono [34], ˙ze problem czy promie´n spektralny jest ≤ 1 jest nierozstrzygalny. Innymi słowy, nie ma algorytmu, który w sko´nczonej liczbie kroków odpowie na pytanie czy dowolny zbiór macierzy ma promie´n spektralny ≤ 1.

Do tej pory nie jest znane czy problem kiedy uogólniony promie´n spektralny b ˛edzie równy 1 jest algorytmicznie rozwi ˛azywalny (tzn. rozstrzygnalny) (zobacz rozwa˙zania w pracy [118] oraz [165], gdzie przeprowadzono dyskusj ˛e na temat tej kwestii oraz dokonano opisu jej zwi ˛azku z hipotez ˛a sko´nczono´sci (hipoteza 85)). Negatywnym wynikiem tej dyskusji jest wniosek Kozyakina, który w swojej pracy [157] pokazał, ˙ze zbiór par macierzy o wymiarach 2 × 2, które maj ˛a wspólny promie´n spektralny mniejszy od 1 nie jest semialgebraiczny.

Twierdzenie 1 zamieszczone w pracy [258] pokazuje, ˙ze je˙zeli zachodzi równo´s´c P=NP to algo-rytmy aproksymuj ˛ace uogólniony promie´n spektralny nie działaj ˛a w czasie wielomianowym. Precyzyjniej, twierdzenie to ukazuje, ˙ze nie ma algorytmu, który mógłby obliczy´c uogólniony promie´n spektralny z wzgl ˛ednym bł˛edem ograniczonym przez ε > 0 w czasie, który byłby wielomianow ˛a funkcj ˛a ilo´sci elemen-tów zbioru Σ, wymiaru macierzy ze zbioru Σ i ε. Autorzy pokazuj ˛a, ˙ze jest NP-trudnym zdecydowanie czy wszystkie mo˙zliwe iloczyny niesko´nczone dwóch danych macierzy d ˛a˙z ˛a do zera. Sytuacja dla dolnego promienia spektralnego jest nieco inna od tej dla wspólnego promienia spektralnego. Mo˙zliwo´s´c obliczenia górnych ogranicze´n dla uogólnionego podpromienia spektralnego dla przypadku, gdzie Σ zawiera nieu-jemne macierze jest pokazana w pracy [118]. W publikacji [174] znajdziemy analityczne rozwi ˛azanie dla przypadku, gdy Σ składa si ˛e z macierzy o wymiarach 2 × 2 , z których jedna jest macierz ˛a singularn ˛a. Jednak ogólnie rzecz bior ˛ac do obliczania podpromienia spektralnego nie ma ˙zadnej dokładnej lub chocia˙z aproksymuj ˛acej metody obliczeniowej innej ni˙z obliczanie warto´sci ˆρk.

(17)

Rozdział 3

Motywacja do badania układów

hybrydowych

W poprzednim rozdziale formalnie zdefiniowali´smy poj ˛ecie dyskretnej inkluzji. Ten rozdział jest po´swi ˛e-cony szczegółowej prezentacji kilku przykładów, w których dyskretna inkluzja jest wykorzystywana. Zanim jednak przejdziemy do wspomnianych opisów podamy czytelnikowi wiele odsyłaczy do literatury traktuj ˛acej o zastosowaniach układów, które jak powiedzieli´smy w poprzednim rozdziale mog ˛a by´c mod-elowane dyskretnymi inkluzjami.

W nast ˛epnych podrozdziałach szczegółowo b ˛edziemy rozpatrywa´c zastosowania dyskretnej inkluzji w nast ˛epuj ˛acych obszarach:

• pojemno´s´c kodów;

• współdziałanie agentów autonomicznych; • ´sledzenie obiektu;

• elektrownia słoneczna.

3.1

Pojemno´s´c kodów

3.1.1

Nagrywanie magnetyczne

Ten podrozdział b ˛edzie wprowadzeniem do zagadnienia magnetycznych urz ˛adze´n nagrywaj ˛acych. Bardzo szczegółowy opis omawianych zagadnie´n mo˙zna odnale´z´c w pracach [185], [263]. Zainteresowanych za-gadnieniami zwi ˛azanymi z teori ˛a kodowania a w naszej pracy nieporuszanych odsyłamy do nast ˛epuj ˛acych prac traktuj ˛acych o algorytmie Viterbiego [111], [112], [155], [197], [249], [269], [273] oraz o kodowaniu w nagrywaniu optycznym [125], [133], [134].

Magnetyczne urz ˛adzenie nagrywaj ˛ace składa si ˛e z kilku elementów. W przypadku dysku twardego nale˙z ˛a do nich głowica nagrywaj ˛aca, głowica odczytu oraz obracaj ˛acy si˛e dysk magnetyczny. Ka˙zdy taki dysk jest podzielony na koncentryczne ´scie˙zki, na których mo˙zemy zapisa´c ci ˛ag znaków, zwany równie˙z ła´ncuchem (ang. string).

Proces nagrywania jest przedstawiony na rysunku 3.1. Gdy nad ´scie˙zk ˛a jest umieszczona głowica nagrywaj ˛aca to przepływaj ˛acy przez ni ˛a pr ˛ad namagnesowywuje ´scie˙zk˛e w jednym z dwóch kierunków, zwanych biegunami magnetycznymi. Okres czasu mi ˛edzy kolejno odczytywanymi bitami jest stały i równy T . W czasie zmiany pomi ˛edzy kolejnymi okresami T głowica odczytu ma mo˙zliwo´s´c zmiany biegunowo´sci dysku. Bit 1 jest nagrywany poprzez zmian ˛e kierunku pr ˛adu, podczas gdy bit 0 jest nagrywany w przypadku braku zmiany kierunku pr ˛adu. Innymi słowy mo˙zemy my´sle´c o ci ˛agu binarnym jako o ci ˛agu przej´s´c/braku przej´s´c pomi ˛edzy biegunami magnetycznymi i b ˛edziemy go dalej nazywa´c ci ˛agiem przej´s´c. Proces odczytu charakteryzuje si ˛e tym, ˙ze głowica odczytuj ˛aca ustawiona nad ´scie˙zk ˛a obracaj ˛acego si ˛e dysku reaguje na magnetyczne przej´scia poprzez zmian˛e napi˛ecia. Je˙zeli wyst ˛api w danym okresie T odpowiednio wysoki pik napi ˛ecia (bez znaczenia czy dodatni czy ujemny, gdy˙z wiele wykrywaczy pików ignoruje znak), to wykrytym bitem b ˛edzie 1. Podobnie jak w przypadku procesu nagrywania tak i tutaj brak przej´scia nie powoduje zmiany napi ˛ecia w głowicy odczytuj ˛acej i odczytanym bitem jest 0.

(18)

Rysunek 3.1: Cyfrowe nagrywanie magnetyczne.

Wprowad´zmy teraz poj ˛ecie kanału. Na pocz ˛atku mo˙zemy kanał postrzega´c jako ´czarn ˛a skrzynk˛e"(ang. black box) z wej´sciami i wyj´sciami. Wej´scia reprezentuj ˛a informacje transmitowane przez t ˛e skrzynk˛e. Wyj´scia z zało˙zenia powinny wiernie odzwierciedla´c wej´scia. Niestety, zniekształcenia w kanale mog ˛a wpłyn ˛a´c niekorzystnie na wyj´scie. Dlatego te˙z w celu zabezpieczenia wyj´s´c przed takimi zniekształcenia stosuje si˛e kodowanie.

Słowo kanał mo˙ze by´c ł ˛aczone z infrastruktur ˛a telekomunikacyjn ˛a w skład której wchodz ˛a urz ˛adzenia telekomunikacyjne (oprócz telekomunikacyjnych urz ˛adze´n ko´ncowych) oraz w szczególno´sci linie teleko-munikacyjne, kanalizacje kablowe, słupy, wie˙ze, maszty, kable, przewody oraz osprz˛et wykorzystywane do zapewnienia telekomunikacji. Tutaj informacja jest przesyłana z jednego punktu w przestrzeni do drugiego. Okazuje si ˛e jednak, ˙ze równie˙z urz ˛adzenia nagrywaj ˛ace mog ˛a by´c postrzegane jako kanały z t ˛a jednak ró˙znic ˛a, ˙ze tutaj informacja jest nagrywana w jednej i wyszukiwana w drugiej chwili czasu.

W dzisiejszych czasach trudno jest sobie wyobrazi´c ˙zycie i prac˛e bez komputera (a co za tym idzie bez jego podzespołu jakim jest dysk twardy). ˙Zyjemy i pracujemy w dobie niesamowicie szybkiego post ˛epu technologicznego. Na potwierdzenie tych słów warto doda´c, ˙ze ponad pół wieku temu (w 1956 roku) firma IBM skonstruowała pierwszy dysk twardy o nazwie RAMAC 350 [132]. Miał on pojemno´s´c 5 MB 5× 103 bajta , pr˛edko´s´c obrotow ˛a równ ˛a 1200 RPM (ang. Revolutions per minute), ´srednic˛e 24-cali oraz

wymiary 60 × 68 × 29 cali. Dzisiejsze dyski s ˛a znacznie mniejsze, du˙zo ta´nsze, pojemniejsze i szybsze. Dla przykładu mo˙zna poda´c 3, 5-calowy dysk BarracudaR XT Internal Kitted Drive produkowany przez

firm˛e Seagate Technologies. Jego parametry s ˛a nast ˛epuj ˛ace: 3 terabajty (3 × 1012 bajta) pojemno´sci,

pr˛edko´s´c obrotowa 7200 RPM, ´srednica 3.5 cala i wymiary 1 × 4 × 5.8 cala [247].

Dzisiejsze aplikacje nagrywaj ˛ace wymagaj ˛a pami ˛eci o du˙zej odporno´sci na bł˛edy. Z drugiej jednak strony stale rosn ˛ace zapotrzebowanie na coraz wi ˛eksz ˛a pami ˛e´c wymusza na projektantach tych urz ˛adze´n mo˙zliwo´sci zapisu wi˛ekszej liczby danych w ka˙zdej jednostce alokacji co w efekcie powoduje, ˙ze urz ˛adzenie staje si ˛e mniej niezawodne czego przyczynami s ˛a np. nieregularne cykle czasu zegarowego czy losowe zakłócenia.

Przez ostatnie 40 lat w celu nagrywania bitów na dyski twarde był stosowany tzw. zapis równoległy. Charakteryzował si ˛e on tym, ˙ze tzw. domeny magnetyczne, czyli spontaniczne namagnesowane obszary w ferromagnetykach lub ferrimagnetykach, w których wyst ˛epuje uporz ˛adkowanie momentów magnetycznych s ˛a ustawione prostopadle do pozycji tzw. talerza (ang. plate), czyli magnetycznej powierzchni obracaj ˛acej si ˛e ze stał ˛a pr˛edko´sci ˛a i umo˙zliwiaj ˛acej odczyt danych przez głowic˛e odczytuj ˛aco-zapisuj ˛ac ˛a. Wraz ze wzrostem g˛esto´sci nagrywania zaczyna si˛e pojawia´c tzw. efekt superparamagnetyzmu czego skutkiem jest, ˙ze pojedynczy krystalit staje si˛e wtedy cz ˛astk ˛a jednodomenow ˛a, tzn. nie ma w sobie podziału na odr˛ebne domeny magnetyczne. Dlatego te˙z od niedawna stosuje si˛e tzw. zapis prostopadły (ang. perpendicular recording), gdzie domeny magnetyczne s ˛a uło˙zone prostopadle do powierzchni talerza. Tutaj wzrostowi g˛esto´sci nagrywania towarzyszy wzrost pola odmagnesowuj ˛acego czego efektem jest wi˛eksza pojemno´s´c dysku.

Zgodnie z prawem Moore’a [131], [200], [201], opisuj ˛acym eksponencjalny przyrost w czasie liczby tranzystorów w układzie zintegrowanym, ich liczba ro´snie dwukrotnie z ka˙zdym rokiem. Analogiczna sytuacja, opisywana prawem Krydera, jest z pojemno´sci ˛a dysku twardego.

Jednym z nierozerwalnie zwi ˛azanych poj ˛e´c z wieloma magnetycznymi urz ˛adzeniami nagrywaj ˛acymi jest tzw. stopa bł ˛edu, czyli wska´znik, który okre´sla prawdopodobie´nstwo wyst ˛apienia przekłamania bitu informacji w strumieniu przesyłanej informacji. S ˛a dwa sposoby definiowania tego wska´znika. Jednym

(19)

z nich jest tzw. współczynnik bł ˛ednych bitów (ang. BER-Bit error ratio) b ˛ed ˛acy współczynnikiem ilo´s´c bitów bł ˛ednie otrzymanych do ogólnej liczby otrzymanych bitów wysłanych podczas ustalonego interwału czasowego.

Problem z odczytem pewnych informacji nagranych na magnetyczne urz ˛adzenie wyst ˛epuje w mo-mencie pojawienia si ˛e ró˙znicy mi˛edzy nagranymi wzorcami, zwanych dalej słowami, która z kolei została opisana za pomoc ˛a bł ˛edu [4], [153], [196]. Współczynnik bł ˛ednych bitów na ogół zale˙zy od małego zbioru potencjalnych ró˙znic słów. Jednym z celów jest utrzymanie małego prawdopodobie´nstwa bł˛edu odczytu/zapisu w czasie zapisu danych. Propozycj ˛a na rozwi ˛azanie problemu s ˛a kody binarne, które s ˛a tak projektowane by unika´c najbardziej problematycznych ró˙znic słów poprzez ograniczanie zbioru dozwolonych nagranych ci ˛agów [31], [109], [152], [154], [195], [199].

A teraz podamy formalne sformułowanie problemu.

Ci ˛agami o danej długo´sci n nazywamy uporz ˛adkowane podczas zapisu bity. Zbiór takich ci ˛agów nazywamy n-bitowym kodem, który b ˛edziemy oznacza´c liter ˛a C. Z matematycznego punktu widzenia kod jest zatem zbiorem ci ˛agów długo´sci n, których elementami s ˛a liczby 0 i 1. Jednym z przykładów jest bajt b ˛ed ˛acy uporz ˛adkowanym ci ˛agiem 8 bitów. Kodem w tym przypadku jest zbiór 28mo˙zliwych bitów.

Stopa bł ˛edu danego kodu jest ´sci´sle zwi ˛azana z odpowiednio zdefiniowan ˛a odległo´sci ˛a pomi ˛edzy słowami. Nie wdaj ˛ac si ˛e na razie w szczegóły co jest miar ˛a u˙zywan ˛a do zdefiniowania odległo´sci pomi˛edzy ci ˛agami bitów, zdecydowali´smy si ˛e na pokazanie prostego przykładu. Maj ˛ac do dyspozycji 3 ci ˛agi

w1= 00000101,

w2= 11110110,

w3= 00001100

mo˙zna bez problemu zauwa˙zy´c, ˙ze ci ˛ag w1 jest du˙zo pro´sciej odró˙zni´c od ci ˛agu w2 ni˙z od w3.

Niech {0, 1, . . . , m}noznacza rodzin ˛e ci ˛agów o długo´sci n i utworzonych z elementów zbioru {0, 1, . . . , m} zwanych równie˙z słowami. Poszczególne elementy tego ci ˛agu b ˛edziemy nazywali cyframi. Rozwa˙zmy teraz {0, 1}n utworzonych z elementów zbioru {0, 1}. Dowolny podzbiór zbioru {0, 1}n b ˛edziemy nazywali ko-dem i oznacza´c liter ˛a C. Ró˙znic ˛a słów

u = (u1, . . . , un) i v = (v1, . . . , vn) nazywamy ci ˛ag u− v = ((u − v)1, . . . , (u− v)n) o długo´sci n, gdzie (u− v)i= ui− vi,

dla i = 1, . . . , n. Zauwa˙zmy, ˙ze ró˙znica słów nie musi by´c elementem zbioru {0, 1}n bo wyrazami ci ˛agu u−v s ˛a elementy zbioru {−1, 0, +1} . W dalszym ci ˛agu zamiast −1 i +1 b ˛edziemy pisali − i + odpowiednio.

Stosuj ˛ac powy˙zsz ˛a definicj˛e do naszego przykładu otrzymujemy w1− w2= (−, −, −, −, 0, 0, −, 1) ,

w1− w3= (0, 0, 0, 0,−, 0, 0, 1) .

U˙zywaj ˛ac wektorowej normy euklidesowej otrzymujemy w1− w3 =

2 < w1− w2 =

√ 6.

Zauwa˙zmy, ˙ze to potwierdza wcze´sniej odnotowane na podstawie intuicji przypuszczenie, ˙ze słowo w1jest

łatwiej odró˙zni´c od w2 ni˙z w1od w3. Dla tego prostego przykładu norma euklidesowa okazała si ˛e dobr ˛a

miar ˛a rozró˙zniania słów.

Interesuj ˛acym problemem jest znalezienie normy, która wyznacza te pary ci ˛agów w tym samym kodzie, które trudno rozró˙zni´c. Niestety problem ten nie jest w ogólnym przypadku tak prosty jak w przykładzie powy˙zej zaprezentowanym. Dlatego w teorii kodowania zdecydowano si˛e na to, ˙ze z góry podaje si˛e pewien zabroniony zbiór ró˙znic, których kod powinien unika´c w tym sensie, ˙ze ró˙znica nie powinna do tego zbioru nale˙ze´c.

(20)

Niech D b ˛edzie zbiorem zawieraj ˛acym ci ˛agi stworzone z {−, 0, +} i reprezentuj ˛acym ró˙znice, których istnienie pomi ˛edzy słowami w kodzie jest zabronione. Innymi słowy, zbiór D jest zbiorem zabronionych ró˙znic słów. Natomiast mówimy, ˙ze n-bitowy kod C unika D, je˙zeli

u,v∈C i ≤ j ∈[1,n]

u[i,j]− v[i,j]∈ D,/

gdzie [i, j] oznacza (i, . . . , j) i

u[i, j] = (ui, . . . , uj) .

Najwi˛eksz ˛a liczebno´s´c zbioru n-bitowych ci ˛agów unikaj ˛acych zakazanych ró˙znic zdefiniowanych przez zbiór D oznaczymy przez

δn(D) := max{|C| : C unika D} ,

gdzie |C| oznacza liczebno´s´c zbioru C.

W celu liczbowego scharakteryzowania ogranicze´n, które wprowadza zbiór D w teorii informacji wprowadzono poj ˛ecie pojemno´sci. Pojemno´s´c zbioru D definiujemy jako

poj (D) := log2 lim

n→∞(δn(D))

1

n .

Zauwa˙zmy, ˙ze ma ona t˛e własno´s´c, i˙z

0≤ poj (D) ≤ 1.

Pojemno´s´c pokazuje nam jak bardzo zbiór D jest ograniczaj ˛acy w tym sensie, ˙ze im mniejsza pojemno´s´c, tym wi ˛ecej ograniczaj ˛acych zabronionych ró˙znic.

Reasumuj ˛ac pojemno´s´c zbioru D jest zdefiniowana jako eksponencjalne tempo wzrostu maksymalnej liczby ci ˛agów, których ró˙znice unikaj ˛a zbioru D, gdy długo´s´c rozpatrywanych ci ˛agów ro´snie. Mo˙zna to zauwa˙zy´c obserwuj ˛ac zdolno´s´c kodu do transmisji mniejszej lub wi˛ekszej ilo´sci informacji dla danej liczby przesyłanych symboli. Głównym celem badania pojemno´sci jest uzyskanie odpowiedzi na pytanie jak osi ˛agn ˛a´c najlepsz ˛a mo˙zliw ˛a szybko´s´c transmisji uwzgl˛edniaj ˛ac zabronione ró˙znice wzorców narzucone przez zbiór D.

3.1.2

Przykłady

Za pomoc ˛a przykładów zilustrujemy powy˙zsze zagadnienia. • Przykład 5 Najprostszy przypadek D = ∅

W tym prostym przypadku, gdzie D jest zbiorem pustym, to nie mamy ˙zadnych zabronionych ró˙znic i liczba δn(D) mo˙zliwych ci ˛agów bitów o długo´sci n jest równa 2n co implikuje, ˙ze pojemno´s´c takiego

kodu binarnego bez ogranicze´n jest równa log2(2) = 1.

• Przykład 6 Przypadek, gdy D = {−+}

W tym przypadku ró˙znica −+ jest zabroniona. Poni˙zej przedstawili´smy 2−, 3− i 4−bitowe kody, które unikaj ˛a D :

C2=  0 01 0 1 1   , C3=       0 0 0 0 0 1 1 0 0 1 0 1 1 1 1       , C4=             0 0 0 0 0 0 1 0 0 0 1 1 1 0 0 0 1 0 1 0 1 0 1 1 1 1 1 0 1 1 1 1             Dla powy˙zej przedstawionej sytuacji

δ2(D) = 3,

δ3(D) = 5,

δ4(D) = 8.

Dalsz ˛a analiz˛e tego przykładu b ˛edziemy kontynuowa´c w nast ˛epnym podrozdziale.

Podej´scie oparte na uogólnionym promieniu spektralnym oraz dyskretnej inkluzji liniowej ma charakter uniwersalny. Okazuje si ˛e, ˙ze w szczególnych przypadkach pojemno´s´c D mo˙zna równie˙z wyznaczy´c nie odwołuj ˛ac si ˛e do wy˙zej wymienionych poj˛e´c o czym traktuje poni˙zszy

(21)

• Przykład 7 Przypadek, gdy D = {++, +−}

W tym przypadku ró˙znice ++ i −− s ˛a zabronione. Poni˙zej przedstawili´smy 2−, 3− i 4−bitowe kody, które unikaj ˛a D :

C2= 0 01 0 , C3=     0 0 0 0 0 1 1 0 0 1 0 1     , C4=     0 0 0 0 0 0 1 0 1 0 0 0 1 0 1 0     Dla powy˙zej przedstawionego przypadku

δ2(D) = 2,

δ3(D) = 4,

δ4(D) = 4.

Przypatruj ˛ac si ˛e powy˙zszym kodom C2, C3i C4warto zauwa˙zy´c, ˙ze co najmniej jedna z ka˙zdych dwóch

kolejnych s ˛asiaduj ˛acych kolumn w C jest stała. Je˙zeli jeszcze dodamy, ˙ze kody typu Cn= [u10u30 . . . 0un]

dla n nieparzystych lub

Cn= [u10u30 . . . un−10]

dla n parzystych unikaj ˛a D, gdzie 0 oznacza kolumn ˛e zło˙zon ˛a z samych zer, a uis ˛a dowolnymi kolumnami.

W efekcie otrzymujemy

δn(D) = 2⌈

n 2⌉, gdzie ⌈x⌉ oznacza najwi˛eksz ˛a liczb ˛e całkowit ˛a ≤ x co oznacza, ˙ze

poj (D) = 0.5.

Warto w tym miejscu wspomnie´c, ˙ze pojemno´s´c zbioru D = {++, +−} jest równa pojemno´sci zbioru D ={++, +−, −−, −+}, który oznaczamy D = {+, −}2.

Podsumowuj ˛ac dwa powy˙zsze przykłady nale˙zy zauwa˙zy´c, ˙ze gdy D nie jest zbiorem pustym, to δn(D)

ro´snie eksponencjalnie z długo´sci ˛a słowa n i jest asymptotycznie równa 2poj(D)n.

3.1.3

Poł ˛

aczenie z dyskretnymi inkluzjami liniowymi i w szczególno´sci z

wspól-nym promieniem spektralwspól-nym

W tym podrozdziale przedstawimy zwi ˛azek pomi ˛edzy pojemno´sci ˛a kodu i dyskretnymi inkluzjami lin-iowymi.

Wzorce i zbiory reprezentuj ˛ace

Wspólny wzorzec, przez który b ˛edziemy rozumieli zbiór dwóch słów {p, p′} o tej samej długo´sci m,

b ˛edziemy nazywa´c zabronionym w zbiorze D, je˙zeli p− p∈ D lub

p′− p ∈ D.

Przez W (D) b ˛edziemy oznacza´c zbiór wszystkich wspólnych zabronionych wzorców. Zbiór R ⊆ {0, 1}m b ˛edziemy nazywa´c zbiorem reprezentuj ˛acym dla W (D), je˙zeli ma cz˛e´s´c wspóln ˛a z ka˙zdym ele-mentem W (D) . Taki zbiór reprezentuj ˛acy nazywamy minimalnym, je˙zeli ˙zaden jego wła´sciwy podzbiór nie jest zbiorem reprezentuj ˛acym dla W (D). Zbiór wszystkich zbiorów reprezentuj ˛acych b ˛edziemy oz-nacza´c przez R (D).

(22)

Spójrzmy na powy˙zsz ˛a definicj˛e poprzez przykład 7, gdzie D = {++, +−}. Dla takiego zbioru D zbiorem wszystkich zabronionych wzorców jest

W (D) ={{11, 00} , {10, 01}} .

Na podstawie powy˙zszej definicji wszystkie zbiory zawieraj ˛ace co najmniej jeden element z ka˙zdego {11, 00} i {10, 01} to

{11, 10} , {11, 01} , {00, 10} , {00, 01} , {11, 00, 10} , {11, 00, 01} , {00, 10, 01} , {11, 10, 01} , {11, 00, 10, 01} , ... .

Zatem zbiory minimalne to takie, których ˙zaden wła´sciwy podzbiór nie jest dla nich reprezentuj ˛acy. Dla przykładu rozpatrzmy zbiór {00, 10, 01}, który nie jest minimalny, poniewa˙z zawiera {10, 01}, który jest zbiorem reprezentuj ˛acym dla W (D). Nasz ˛a rodzin ˛a wszystkich zbiorów reprezentuj ˛acych jest:

R ({++, +−}) = {{11, 10} , {11, 01} , {00, 10} , {00, 01}} .

Grafy dwudzielne, kaskadowe, ´scie˙zki i zastosowanie wspólnego promienia spektralnego Graf dwudzielny to uporz ˛adkowana trójka (L, P, K) gdzie:

• L : zbiór lewych wierzchołków, • P : zbiór prawych wierzchołków,

• K : zbiór kraw˛edzi (l, p) ł ˛acz ˛acych lewy wierzchołek l z prawym p. Graf dwudzielny Gmto taki, ˙ze:

• L = P = {0, 1}m−1, tzn. wierzchołki s ˛a oznakowane (m − 1)-bitowymi ci ˛agami, zwanym dalej etykietami wierzchołkowymi,

• K takie, ˙ze (l1, . . . , lm−1) jest poł ˛aczony z (r1, . . . , rm−1) je˙zeli ci ˛ag bitów (l2, . . . , lm−1) jest równy

(r1, . . . , rm−2). Takie kraw˛edzie s ˛a oznaczone m-bitowym ci ˛agiem, który jest poł ˛aczeniem obu

wierzchołków:

(l1, . . . , lm−1, rm−1) = (l1, r1, . . . , rm−1) .

i b ˛edzie nazywany etykiet ˛a kraw˛edziow ˛a. Na rysunku 3.2a zaprezentowano graf G3.

Ustalmy teraz zbiór M ⊆ {0, 1}mi opiszmy konstrukcj ˛e pewnego grafu GM. Polega ona na usuni ˛eciu

z grafu Gm kraw˛edzi odpowiadaj ˛acych ci ˛agom z ustalonego wcze´sniej zbioru M. Dla przykładu na

ry-sunku 3.2b zaprezentowano graf G{110,001}. Grafy dwudzielne mog ˛a by´c uło˙zone kaskadowo. Rozumiemy przez to sytuacj ˛e, ˙ze prawe wierzchołki jednego grafu s ˛a jednocze´snie lewymi wierzchołkami kolejnego. Tak ˛a sytuacj ˛e przedstawia rysunek 3.2c, gdzie przedstawiono kaskadowo poł ˛aczone trzy dwudzielne grafy

G{110,001}, G{100,111}, G{101,010} .

Rysunek 3.2: a) graf dwudzielny G3 , b) graf dwudzielny G{110,001}, c) kaskadowe grafy dwudzielne

(23)

Rysunek 3.3: Kaskadowe grafy dwudzielne ({G{110,001}, G{100,111}, G{101,010}}). Niebieskie kraw˛edzie i

˙zółte wierzchołki pokazuj ˛a ´scie˙zk˛e z lewej strony grafu do prawej. Startujemy z dwoma bitami 01, a nast ˛epnie dodajemy za ka˙zdym razem po drugim bicie danego wierzchołka. W ten sposób otrzymujemy ci ˛ag bitów 01011. Innymi słowy, ka˙zda etykieta kraw˛edziowa 010, 101, 011 jest podsłowem naszego ci ˛agu. Ł ˛acz ˛ac w pewien specjalny sposób (szczegółowy opis znajduje si˛e pod rysunkiem 3.3) etykiety wierz-chołkowe, pocz ˛awszy od najbardziej na lewo wysuni ˛etych wierzchołków, a sko´nczywszy na najbardziej na prawo jest mo˙zliwym odczytanie słowa bitowego. Interesuj ˛ac ˛a własno´sci ˛a jest, aby opisany ci ˛ag bitów składał si˛e z etykiet kraw˛edziowych. Sytuacja taka została zilustrowana na rysunku 3.3.

Dzi ˛eki u˙zyciu grafu typu GM dla odpowiedniego M ∈ R(D) jest mo˙zliwe unikni˛ecie u˙zycia pewnego

wzorców bitów. Innymi słowy, generujemy tylko ci ˛agi unikaj ˛ace D. Zliczanie liczby ci ˛agów bitów unika-j ˛acych D sprowadza si ˛e do zliczenia liczby ´scie˙zek z naunika-jbardzieunika-j na lewo wysuni˛eteunika-j cz˛e´sci do naunika-jbardzieunika-j na prawo kaskadowego grafu dwudzielnego.

Liczenie liczby ´scie˙zek w grafie jest mo˙zliwe dzi˛eki u˙zyciu macierzy s ˛asiedztwa. Graf mo˙ze by´c pow-i ˛azany z macpow-ierz ˛a s ˛aspow-iedztwa A, w której Aij = 1, je˙zeli wierzchołek i jest poł ˛aczony z wierzchołkiem

j, b ˛ad´z Aij = 0 w przeciwnym razie. Macierz s ˛asiedztwa dwudzielnego grafu G b ˛edziemy oznacza´c

symbolem AG.

Bardzo istotne jest to, ˙ze gdy mamy do czynienia z grafami kaskadowymi i jeste´smy zainteresowani liczb ˛a ´scie˙zek z najbardziej na lewo wysuni˛etego wierzchołka i do najbardziej na prawo wysuni˛etego wierzchołka j to okazuje si ˛e, ˙ze wystarczy nam podda´c analizie iloczyn kolejnych macierzy s ˛asiedztwa odpowiadaj ˛acych kolejnym grafom dwudzielnym. Wówczas liczba´scie˙zek z najbardziej na lewo wysuni˛etego wierzchołka i do najbardziej na prawo wysuni ˛etego wierzchołka j jest równa elementowi (i, j) wspom-nianego iloczynu. Natomiast całkowita liczba ´scie˙zek z lewej cz ˛e´sci do prawej jest wyra˙zona jako suma wszystkich elementów macierzy b ˛ed ˛acej wynikiem tego iloczynu.

Dzi ˛eki tej własno´sci mo˙zemy wyrazi´c liczb ˛e ´scie˙zek z lewej do prawej cz˛e´sci grafu jako norm˛e macierzy A:

A f =

n i,j=1

|Aij| .

Mo˙zna udowodni´c, ˙ze nie jest to norma indukowana przez ˙zadn ˛a norm˛e wektorow ˛a [129].

Podsumowuj ˛ac interesuj ˛acy problem z teorii kodowania dochodzimy do nast ˛epuj ˛acej konkluzji. Dla zadanego zbioru zabronionych ró˙znic D zdefiniujmy zbiór

Σ (D) :={AGM : M∈ R (D)} .

Wówczas znalezienie kolejno´sci grafów dwudzielnych prowadz ˛acego do maksymalnej liczby ´scie˙zek jest równowa˙zne znalezieniu takiego uło˙zenia macierzy AGM, które odpowiada maksymalnej warto´sci normy

· f.

Ponumerujmy macierze ze zbioru

Σ (D) :={A1, A2, . . . , Al}

gdzie l jest liczb ˛a wszystkich zbiorów reprezentuj ˛acych. Nast ˛epnie niech σ : N → {1, . . . , l} i rozwa˙zmy ci ˛ag macierzowy (Xi)i=0,1,...okre´slony nast ˛epuj ˛aco

Xi+1 = Xi · Aσ(i) , X1= Aσ(0)

(24)

Jak ju˙z wiadomo pojemno´s´c zbioru D wyra˙za si˛e nast˛epuj ˛acym wzorem poj (D) = lim

n→∞

log2δn(D)

n . (3.1)

W pracy [197] pokazano jak mo˙zna przedstawi´c kody jako iloczyny macierzy. Autorzy tej pracy skon-struowali dla dowolnego zbioru D zabronionych ró˙znic sko´nczony zbiór Σ (D) dla którego

δm−1+n= max{ A1. . . An : Ai∈ Σ (D)} . (3.2) Z równo´sci (3.1) i (3.2) otrzymujemy poj (D) = lim n→∞ log2δn(D) n = limn→∞ log2δm−1+n(D) m− 1 + n = lim n→∞ log2maxAi∈Σ A1. . . An

n = log2n→∞lim Amaxi∈Σ

A1. . . An

1 n.

Liczba logarytmowana w ostatniej równo´sci jest wspólnym promieniem spektralnego Σ. To implikuje, ˙ze pojemno´s´c kodu unikaj ˛acego D jest dana nast ˛epuj ˛acym wzorem:

poj (D) = log2ρ (Σ (D)) . Przykłady

• D = {−+}

Poddajmy teraz analizie wyst ˛epuj ˛acy ju˙z wcze´sniej zbiór zabronionych ró˙znic D = {+−}. Zbiorem zabronionych par jest:

W (D) ={{01, 10}}.

Zbiorem wszystkich minimalnych zbiorów reprezentuj ˛acych dla powy˙zszego W (D) jest: M(D) ={{01}, {10}} ,

natomiast:

Σ(D) ={G{01}, G{10}}.

Grafy G{01}i G{10} oraz ich macierze s ˛asiedztwa zostały przedstawione na rysunku 3.4.

Rysunek 3.4: Grafy dwudzielne G{10} i G{01} oraz ich macierze s ˛asiedztwa. Dla naszego przykładu zbiór Σ(D) dwóch macierzy (2 × 2) jest nast˛epuj ˛acy:

Σ (D) = 1 0 1 1 ,

1 1 0 1 , , natomiast wspólny promie´n spektralny jest równy 1+√5

2 [257]. Ostatecznie pojemno´s´c kodu

unikaj ˛acego D = {−+} wynosi

poj(D) = log2 1 + √

5

(25)

• D = {+ − 0}

Jako drugi przeanalizujemy zbiór zabronionych ró˙znic D = {+ − 0}. Zbiorem zabronionych par jest:

W (D) ={{101, 011}, {100, 010}}.

Zbiorem wszystkich minimalnych zbiorów reprezentuj ˛acych dla powy˙zszego W (D) jest: R(D) ={{101, 100}, {011, 100}, {101, 010}, {011, 010}}

natomiast:

Σ(D) ={G{101,100}, G{011,100}, G{101,010}, G{011,010}}.

Jeden z czterech grafów (G{101,010}) oraz jego macierz s ˛asiedztwa zostały przedstawione na rysunku 3.5.

Rysunek 3.5: Graf dwudzielny G{011,010}. Ostatecznie zbiór Σ (D) czterech macierzy (4 × 4) jest nast˛epuj ˛acy:

Σ (D) =            1 1 0 0 0 0 1 1 0 0 0 0 0 0 1 1    ,     1 1 0 0 0 0 1 0 0 1 0 0 0 0 1 1    ,     1 1 0 0 0 0 0 1 1 0 0 0 0 0 1 1    ,     1 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1           

natomiast wspólny promie´n spektralny wynosi 1.618, który jest jednocze´snie promieniem spektral-nym trzeciej macierzy. W zwi ˛azku z tym pojemno´s´c kodu unikaj ˛acego D = {+ − 0}ma dokładnie tak ˛a sam ˛a warto´s´c, jak w przykładzie poprzednim

log2 1 + √

5

2 ≈ 0.6942.

3.2

Współrz ˛edne agentów autonomicznych

W tej cz ˛e´sci pracy przedstawimy zastosowanie dyskretnych inkluzji liniowych w całkowicie innej dziedzinie ni˙z poprzednio opisanej.

Systemom wieloagentowym (ang. Multi Agents System) po´swi ˛econo w literaturze bardzo wiele miejsca. Lista ciekawych publikacji na ten temat jest tak długa, ˙ze ograniczymy si˛e jedynie do czterech najbardziej reprezentatywnych prac [143], [149], [202], [257]. W tych publikacjach mo˙zna odnale´z´c wszystkie szczegóły wystarczaj ˛ace do pokazania zwi ˛azków mi ˛edzy systemami wieloagentowymi i dyskretnymi inkluzjami lin-iowymi. Zanim przejdziemy do szczegółowego omówienia wspomnianego poł ˛aczenia po´swi˛ecimy kilka zda´n podstawowym definicjom.

Programowanie agentowe jest kolejnym poziomem abstrakcji programowania, wy˙zszym od abstrakcji programowania obiektowego i polega na tworzeniu agentów (ang. Software Agent). Aby w pełni wyko-rzysta´c własno´sci agentów nale˙zy ich poł ˛aczy´c w zespoły nazywane systemami wieloagentowymi (ang. Multi Agents System). Na pocz ˛atku jednak nale˙zy sobie zada´c pytanie czym jest sam agent. Nie ma jasno okre´slonych standardów, a co za tym idzie, nie ma zgodno´sci co do definicji agenta. Patrz ˛ac na zastosowanie agenta mo˙zemy go zdefiniowa´c jako jednostk˛e:

(26)

• posiadaj ˛ac ˛a umiej˛etno´s´c komunikacji z innymi agentami i/lub u˙zytkownikiem,

• monitoruj ˛ac ˛a swoje otoczenie, a co za tym idzie zdoln ˛a do postrzegania i reagowania na zmiany ´srodowiska,

• autonomiczn ˛a, czyli zdoln ˛a do podejmowania samodzielnych decyzji. W dalszej cz ˛e´sci pracy b ˛edziemy korzysta´c z nast˛epuj ˛acych

Definicja 8 Graf skierowany jest uporz ˛adkowan ˛a par ˛a (W, K) spełniaj ˛ac ˛a nast ˛epuj ˛ace warunki: • W jest sko´nczonym, niepustym zbiorem, którego elementami s ˛a wierzchołki,

• K jest zbiorem uporz ˛adkowanych par nazywanych kraw ˛edziami skierowanymi, który jest podzbiorem iloczynu kartezja´nskiego W × W takim, ˙ze

a∈W

(a, a) /∈ K,

Kraw˛ed´z k = (a, b) b ˛edziemy nazywa´c skierowan ˛a je˙zeli ma pocz ˛atek w wierzchołku a i koniec w b. Kraw˛ed´z k = (a, b) nazywamy nieskierowan ˛a, gdy nie interesuje nas, w którym wierzchołku ma ona swój pocz ˛atek.

Definicja 9 Dla danego grafu skierowanego (W, K) i niepustego podzbioru wierzchołków V ⊆ W s ˛asiedztwem S (V, K) jest zbiór wierzchołków k∈ W \V, dla których istnieje wierzchołek w ∈ V taki, ˙ze (k, w) ∈ K.

Definicja 10 Wa˙zonym grafem skierowanym nazywamy trójk ˛e (W, K, c), gdzie (W, K) jest grafem skierowanym, natomiast c : K → R+∪ {0} jest funkcj ˛a przypisuj ˛ac ˛a nieujemn ˛a wag ˛e ckw ka˙zdej kraw ˛edzi skierowanej

(k, w).

Powy˙zsze definicje pozwalaj ˛a nam postrzega´c agentów w systemie wieloagentowym jako kraw˛edzie skierowane. Kraw˛edziami nieskierowanymi b ˛ed ˛a kanały komunikuj ˛ace agentów. Natomiast s ˛asiedztwem ka˙zdego agenta b ˛ed ˛a pozostali agenci potrafi ˛acy wysła´c do niego informacje.

Ewolucja takiego układu zale˙zy oczywi´scie od wyboru algorytmu poruszania i komunikowania agentów. Poni˙zej zaprezentujemy sposób opisu opieraj ˛acy si˛e na modelu Visecka ([143], [259]), który z kolei jest liniow ˛a aproksymacj ˛a równania Kuramoto ([161], [251]):

˙θa= wa+ N b=1

Kabsin (θb− θa) , a = 1, . . . , N .

Zainteresowanych odsyłamy do wymienionej wcze´sniej literatury oraz do publikacji [252] traktuj ˛acej o zastosowaniach ostatniego równania.

Rozpatruj ˛ac sko´nczon ˛a liczb ˛e n autonomicznych agentów na płaszczy´znie otrzymujemy n poruszaj ˛a-cych si˛e po niej z ustalon ˛a pr ˛edko´sci ˛a, lecz w ró˙znych kierunkach punktów i ponumerowanych od 1 do n. Nale˙zy zauwa˙zy´c, ˙ze warto´s´c k ˛ata θa(t) okre´slaj ˛acego ruch agenta a wzgl˛edem osi OX zawiera si ˛e w

przedziale [0, 2π].

Cały układ ewoluuje w dyskretnych odst ˛epach czasu. Agent przemieszcza si˛e w ka˙zdym kroku zgodnie ze swoim wektorem pr ˛edko´sci, którego kierunek w nast ˛epnym kroku mo˙ze by´c zmieniony poprzez oblicze-nie ´sredoblicze-niej wa˙zonej jego własnego kierunku i kierunków jego s ˛asiadów. Niech Sa(t) oznacza s ˛asiedztwo

a-tego agenta w chwili t. Ostatecznie, kierunek ruchu agenta mo˙zna wyrazi´c za pomoc ˛a poni˙zszego równania

θa(t + 1) =

θa(t) + b∈Sa(t)cba(t) θb(t) 1 + b∈Sa(t)cba(t)

, (3.3)

gdzie cba(t) oznacza wag ˛e poł ˛aczenia mi˛edzy w˛ezłami a i b w chwili t.

Równanie (3.3) mo˙zemy zapisa´c w nast˛epuj ˛acej postaci: θ (t + 1) = Atθ (t) , gdzie θ (t) =    θ1(t) .. . θn(t)    ,

(27)

a macierz Atdana jest nast ˛epuj ˛acym wzorem: (At)a,k=              1 1+ b∈Sa(t)cba(t) je˙zeli k = a cka 1+ b∈Sa(t)cba(t) je˙zeli (k, a) ∈ K (t) 0 w pozostałych przypadkach. Je˙zeli zdefiniujemy Σ ={At: t∈ N}

to dochodzimy do wniosku, ˙ze ka˙zdy (θ (t))t∈N jest trajektori ˛a DIL (Σ).

Poni˙zej przedstawiamy kilka przykładów dla lepszego zobrazowania przedstawionych dot ˛ad informacji. Przykład 11 Załó˙zmy, ˙ze mamy trzech agentów. Schemat poł ˛acze´n mo˙zna zobrazowa´c na dwa sposoby:

• za pomoc ˛a grafu wa˙zonego co przedstawia rysunek 3.6

Rysunek 3.6: Graf wa˙zony

• przy u˙zyciu macierzy 3 × 3, gdzie przyj ˛eto umow ˛e, ˙ze agent a ł ˛aczy si ˛e z agentem b z wag ˛a c, je˙zeli warto´s´c c znajduje si ˛e w a-tym wierszu b-tej kolumnie.

0 23 0 0.80 0 0 0

 

Zasada ewolucji układu w chwili t jest nast ˛epuj ˛aca: θ1(t + 1) = 1· θ1(t) + 3· θ2(t) + 0· θ3(t) 1 + 3 = θ1(t) + 3· θ2(t) 4 , θ2(t + 1) = 2· θ1(t) + 1· θ2(t) + 0· θ3(t) 1 + 2 = 2· θ1(t) + θ2(t) 3 , θ3(t + 1) = 0· θ1(t) + 0.8· θ2(t) + 1· θ3(t) 1 + 0.8 = 0.8· θ2(t) + θ3(t) 1.8 , co mo˙zna przedstawi´c w nast˛epuj ˛acej postaci macierzowej:

θ (t + 1) =   0.25 0.75 0 1 3 23 0 0 0.8 1.8 1.81   · θ (t) .

W rozwa˙zanym przykładzie funkcje cba(t) (wagi poł ˛aczenia mi ˛edzy w˛ezłami a i b w chwili t) s ˛a stałe.

Przemieszczaj ˛acy si˛e agent mo˙ze powodowa´c, ˙ze w ka˙zdym kroku ewolucji graf, a co za tym idzie elementy macierzy At, która jest macierz ˛a stochastyczn ˛a (jest kwadratowa; jej elementy s ˛a nieujemne i jednocze´snie

dodatnie na głównej przek ˛atnej; wszystkie jej elementy w wierszu sumuj ˛a si˛e do 1) mog ˛a si ˛e zmienia´c. To natomiast oznacza, ˙ze nie b ˛edziemy mie´c do czynienia z przypadkiem stacjonarnego dyskretnego układu liniowego tylko z niestacjonarnym.

(28)

Przykład 12 W przeciwie´nstwie do przykładu poprzedniego teraz rozwa˙zymy przykład systemu zło˙zonego równie˙z z 3 agentów, lecz z zmieniaj ˛acymi si ˛e mi ˛edzy nimi poł ˛aczeniami. Rozpatrzmy najprostszy nies-tacjonarny przypadek, gdy mamy dwie macierze X i Y ewolucji układu:

X =  0 2 00 0 3 1 2 0   Y =  0 2 03 0 0 1 2 0   .

Dla macierzy X funkcje ewolucji k ˛atów jakie tworz ˛a kierunki ruchu agentów z osi ˛a odci ˛etych w chwili t s ˛a nast ˛epuj ˛ace:

θ1(t + 1) = 1· θ1(t) + 0· θ2(t) + 1· θ3(t) 1 + 1 = θ1(t) + θ3(t) 2 , θ2(t + 1) = 2· θ1(t) + 1· θ2(t) + 2· θ3(t) 1 + 2 + 2 = 2· θ1(t) + θ2(t) + 2· θ3(t) 5 , θ3(t + 1) = 0· θ1(t) + 3· θ2(t) + 1· θ3(t) 1 + 3 = 3· θ2(t) + θ3(t) 4 ,

natomiast dla macierzy Y prawdziwe s ˛a poni˙zsze równo´sci: θ1(t + 1) = 1· θ1(t) + 3· θ2(t) + 1· θ3(t) 1 + 3 + 1 = θ1(t) + 3· θ2(t) + θ3(t) 5 , θ2(t + 1) = 2· θ1(t) + 1· θ2(t) + 2· θ3(t) 1 + 2 + 2 = 2· θ1(t) + θ2(t) + 2· θ3(t) 5 , θ3(t + 1) = 0· θ1(t) + 0· θ2(t) + 1· θ3(t) 1 = θ3(t) 1 .

Zatem macierze ewolucji układu w przypadku zastosowania sposobów poł ˛acze´n mi˛edzy agentami opisanych odpowiednio przez macierze X i Y s ˛a nast ˛epuj ˛ace:

A =   1 2 0 12 2 5 15 25 0 3 4 14   B =   1 5 35 15 2 5 15 25 0 0 1   .

Dla zbioru Σ = {A, B} układ ewoluuje zgodnie z dyskretn ˛a inkluzj ˛a liniow ˛a (2.7).

Ciekawym pytaniem jest czy wszyscy agenci b ˛ed ˛a pod ˛a˙za´c w tym samym kierunku. Pytanie to zwi ˛azane jest ze stabilno´sci ˛a dyskretnej inkluzji liniowej. Jednym z mo˙zliwych podej´s´c do tego pytania s ˛a zaproponowane w dalszej cz˛e´sci pracy charakterystyki liczbowe.

3.3

Układy z losowymi skokami parametrów jako dyskretne inkluzje

W tym podrozdziale opiszemy w jaki sposób układy ze skokowo zmieniaj ˛acymi si ˛e parametrami mog ˛a by´c postrzegane jako dyskretne inkluzje.

Wiele układów steruj ˛acych jest opartych na modelu matematycznym procesu, który ma by´c kon-trolowany. Istotne jest by ten model opisywał z wzgl˛edn ˛a dokładno´sci ˛a zachowanie kontrolowanego pro-cesu. W efekcie kontroler b ˛edzie wykonywa´c prawidłowo zaimplementowany rzeczywisty proces. Im dokładniej opiszemy wyst ˛epuj ˛ace w procesie niepewno´sci tym lepszy model systemu rzeczywistego otrzy-mamy. Nale˙zy by´c tak˙ze ´swiadomym, ˙ze jednym z głównych zada´n układu steruj ˛acego jest zdolno´s´c do ak-ceptowalnego zadziałania w obecno´sci nagłych zmian w dynamice układu, które mog ˛a by´c spowodowane, np. nagłymi zakłóceniami ze strony ´srodowiska, awari ˛a komponentu układu, zmianami w poł ˛aczeniu mi˛edzy podukładami czy te˙z nagłymi zmianami punktu pracy dla obiektu nieliniowego. Je˙zeli mamy do czynienia ze zmian ˛a maj ˛ac ˛a niewielki wpływ na zachowanie układu to klasyczna analiza czuło´sci powinna zapewni´c wystarczaj ˛ace oszacowanie skutków. Z drugiej strony, gdy zmiany spowodowane przez te wahania mog ˛a znacz ˛aco wpłyn ˛a´c na dynamik˛e układu to zalecanym jest model stochastyczny ukazu-j ˛acy wzgl ˛edne prawdopodobie´nstwo ró˙znych mo˙zliwych scenariuszy. przykłady sytuacukazu-ji, gdzie wyst˛epuukazu-j ˛a nagłe zmiany mo˙zna odnale´z´c, np. w systemach sterowania obiektami lataj ˛acymi czy te˙z w sterowaniu odbiornikiem promieniowania słonecznego.

Układy z losowymi przeł ˛aczeniami-bo o nich b ˛edzie traktował ten rozdział-s ˛a modelem zło˙zonych obiek-tów hybrydowych [173], [180], [246] i składaj ˛a si˛e ze sko´nczonej liczby podukładów, które s ˛a przeł ˛aczane zgodnie ze zmian ˛a w czasie trybu pracy. W układach z przeł ˛aczeniami ci ˛agłe zmienne stanu (nazywane

(29)

dalej stanami) i dyskretne zmienne stanu (zwane dalej modami lub trybami pracy) współistniej ˛a i zale˙z ˛a od siebie. Analiza i synteza układów z przeł ˛aczeniami jest bardzo cz ˛esto du˙zo łatwiejsza ni˙z samych oryginalnych obiektów hybrydowych. Ci ˛agi przej´s´c mi˛edzy modami b ˛edziemy dalej nazywa´c ci ˛agami przeł ˛aczaj ˛acymi. Układ ze skokowo zmieniaj ˛acymi si˛e parametrami (ang. Markovian jump linear sys-tem) jest układem, którego parametry zmieniaj ˛a si ˛e zgodnie ze stanem sko´nczenie-stanowego ła´ncucha Markowa i w typowy sposób powstaj ˛a w kontek´scie układów sterowania np. gdy sprz ˛e˙zenie zwrotne jest w sposób losowy zrywane.

Układy z przeł ˛aczeniami znajduj ˛a zastosowanie w wielu dziedzinach, np. w układach ze zmiennym okresem próbkowania [167], [250], układach nieliniowych [23], [47], [56], sterowaniu adaptacyjnym [113], [126], [206], układach asynchronicznych [157], systemach elektroenergetycznych [245], [264], systemach rozmytych [256], przetwarzaniu sygnałów [62], [197], układach nadzoruj ˛acych [204], sterowaniu przez sie´c [48], [168], [275], sieciach rozproszonych [143], [220], układach biologicznych [5], [144]. Pozycjami w literaturze, w których tak˙ze omawia si˛e zastosowanie układów z przeł ˛aczeniami s ˛a [99], [171], [172], [175], [253], [254].

3.3.1

Problem ´sledzenia celu

My zastosowanie wspomnianych powy˙zej układów przedstawimy na przykładzie problemu ´sledzenia celu. Z roku na rok liczba obsługiwanych pasa˙zerów przez lotniska na całym ´swiecie ro´snie. Potwierdze-niem tych słów jest plan by w 2020 roku pod Pekinem powstał ogromny hub lotniczy, który rocznie obsłu˙zy 200 milionów pasa˙zerów. Na pustyni niedaleko Dubaju powstaje port lotniczy o powierzchni 14 milionowego Pary˙za, który docelowo b ˛edzie w stanie rocznie obsłu˙zy´c 160 milionów pasa˙zerów. Przy-bywa równie˙z prywatnych samolotów, helikopterów oraz innych obiektów lataj ˛acych. Ten ci ˛agły przyrost powoduje konieczno´s´c tworzenia coraz bardziej zaawansowanych algorytmów ´sledz ˛acych dane obiekty. Ma to zastowanie np. na lotniskach-zwłaszcza tych, które na chwil ˛e obecn ˛a obsługuj ˛a prawie 80 milionów pasa˙zerów rocznie (w Atlancie, Pekinie, Londynie) co oznacza, ˙ze ´srednio w ci ˛agu doby l ˛aduje b ˛ad´z star-tuje 3000 samolotów czyli ´srednio 2 na minut ˛e. Zadaniem kontroli ruchu lotniczego jest zapewnienie bezpiecznych separacji (odst ˛epu w pionie i w poziomie) mi ˛edzy samolotami, korzystaj ˛acymi z przestrzeni kontrolowanej. Na to zadanie składa si˛e udzielanie pilotom dyrektyw dotycz ˛acych zmian kursu i wysoko´sci (tzw. wektorowanie) oraz udzielanie informacji o sytuacji w powietrzu, warunkach meteorologicznych jak równie˙z o ewentualnych ograniczeniach. Bezwzgl˛ednym warunkiem utrzymania separacji jest wła´sciwa identyfikacja poszczególnych statków powietrznych w przestrzeni i utrzymywanie aktualnej informacji o ich stanie lotu, kursie, wysoko´sci oraz o dalszej trasie.

Inne zastosowanie wspomnianego algorytmu ´sledz ˛acego mo˙zna odnale´z´c w działaniach wojskowych. Tutaj problem polega na tym, ˙ze wiele obiektów lataj ˛acych potrafi w bardzo krótkim odst˛epie czasu zmieni´c trajektori˛e lotu przez co jest w stanie unikn ˛a´c np. zestrzelenia.

Cz ˛esto wyst˛epuj ˛ace na pewnych obszarach zakłócenia radiolokacyjne sygnałów nie sprzyjaj ˛a ´sledzeniu wielu obiektów lataj ˛acych. Jednak˙ze, zdecydowanie wi˛ekszym problemem s ˛a nagłe zmiany przyspieszenia obiektów.

Buduj ˛ac nasz model musimy w pierwszym kroku oprze´c go na równaniach ró˙zniczkowych ruchu w przestrzeni Rs, gdzie wyst ˛epuj ˛a takie zmienne jak np. kurs, pr˛edko´s´c, poło˙zenie poziome, k ˛at

przechyle-nia oraz trasa lotu. Zakładaj ˛ac, ˙ze statek powietrzny leci z prawie stałym przyspieszeniem i k ˛atem przechylenia mo˙zemy jego trajektori˛e podzieli´c na nast˛epuj ˛ace pasma, które jednocze´snie s ˛a tzw. try-bami pracy:

• lot wznosz ˛acy po wystartowaniu, • skr˛et,

• lot przy´spieszony, • lot ze stał ˛a pr˛edko´sci ˛a, • podej´scie do l ˛adowania.

Przej´scia pomi ˛edzy tymi trybami pracy s ˛a dyskretne i w znacznym stopniu zale˙z ˛a od decyzji pilota, na które wpływ maj ˛a np. panuj ˛ace warunki pogodowe, wskazania kontrolera lotu, odczyty z urz ˛adze´n pomiarowych wskazuj ˛acych np. ilo´s´c zu˙zytego paliwa. Współczynniki modelu dynamicznego lub nawet sam model musz ˛a by´c dostosowane do ka˙zdego trybu lotu wybranego przez pilota.

W przypadku wspomnianego zagadnienia wojskowego problem wygl ˛ada nieco inaczej. Tutaj obiekty szybko manewruj ˛ace i jednocze´snie unikaj ˛ace prze´sladowcy charakteryzowane s ˛a przez cz˛este, du˙ze,

Cytaty

Powiązane dokumenty

Never use the transistors under combined maximum allowable conditions; do not position them near heating circuit com ponents; maximum allowable values prevent the excess of

To oznacza, ˙ze T nie jest epimorfizmem i kolumny jego macierzy s¸ a liniowo zale˙zne... W´ owczas, macierz F w tej bazie ma wszystkie elementy w diagonale r´

eksperyment ´ slepy. Eksperyment mo˙ze by´ c podw´ ojnie ´ slepy - wtedy tak˙ze osoba zbieraj¸ aca i/lub opracowuj¸ aca dane nie wie, kt´ ora grupa pacjent´ ow jest grup¸

Wprawdzie współczesne metody symulacji komputerowej umożliwiają szybkie i bardzo dokładne obliczenia błędu bez potrzeby uciekania się do jakichkolwiek przybliżeń,

W pracy przeprowadzono badania wszystkich materiałów wykorzystanych do zbudowania hybrydowych belek drewniano-szklanych: szkła, drewna oraz klejów.. Ich głównym celem

Oznaczenie stopni obostrzenia odporności klimatycznej wyrobów oraz warunki badań przy­.. jęto zgodnie z PN-60/T-04550 ,.Elementy

Przy pomiarze rezystancji układ pracuje jako mostek W heatstone'a dla pojemności jako mostek De'Sauty, dla indukcyjności jako mostek M axw ell'a... The bridge c irc

Small-signal value of the input impedance in common-emitter and common-base configuration, respectively. h21c Ko3(t&gt;4&gt;nuneHT nepeAasM TOKa b cxeMe C o6lUMM