• Nie Znaleziono Wyników

Algorytmy optymalizacji w projektowaniu przetworników elektromagnetycznych

1  i nieodw i bezh

5. Algorytmy optymalizacji w projektowaniu przetworników elektromagnetycznych

5.1. Analiza i synteza obiektu technicznego. Formułowanie zadania optymalizacji

Zadanie analizy polega na wyznaczeniu wektora P

p1, p2,...,pm

T, parametrów funkcjonalnych obiektu o zdefiniowanej strukturze s

s1,s2,...,sn

T, przy zadanych wymuszeniach F

f1, f2,..., fk

T.

W przypadku silników elektrycznych parametry definiujące strukturę s to najczęściej wymiary silnika lub ich stosunki [108, 109, 141, 142, 190]. Do tej grupy można dodać również parametry określające strukturę materiałową [131, 145]. Zwykle jednak parametry materiałowe są w procesach projektowania i optymalizacji przyjmowane „a priori” jako stałe, o znanej wartości.

Zbiór wymuszeń zewnętrznych F obejmuje parametry elektryczne charakteryzujące zasilanie silnika, parametry opisujące jego obciążenie mechaniczne oraz parametry środowiskowe, w szczególności temperaturę otoczenia.

Natomiast do zbioru P parametrów funkcjonalnych zalicza się przede wszystkim parametry elektromagnetyczne, takie jak moment elektromagnetyczny, przeciążalność momentem, krotność momentu rozruchowego, prąd znamionowy, krotność prądu rozruchowego, straty mocy, sprawność, współczynnik mocy i inne.

Proces syntezy obiektu, nazywany również projektowaniem, polega na wyznaczeniu zbioru parametrów struktury s , które przy określonych wymuszeniach F pozwalają uzyskać zadane wartości parametrów funkcjonalnych Pz

pz1, pz2,...,pzm

T , przy czym wymaga się żeby poszczególne parametry pj spełniały następujące relacje:

jz

j p

p  lub p j pjz lub p j pjz, j1,2,3,..., m (5.1) Tak zdefiniowane zadanie projektowe może mieć wiele rozwiązań, tzn. istnieje wiele wariantów obiektu różniących się parametrami struktury s , które spełniają wymagania (5.1).

Rozwiązania te można porównywać między sobą i wybrać najbardziej korzystne pod względem wybranego kryterium. Kryterium, według którego porównujemy warianty, może być jeden z parametrów pj lub kombinacja kilku parametrów [105, 112, 132, 146].

Otrzymany w procesie syntezy obiekt, spełniający wszystkie wymagania, najlepszy pod względem przyjętego kryterium, nazywamy optymalnym. Proces syntezy nazywany jest wówczas projektowaniem optymalnym.

Zmienne decyzyjne procesu optymalizacji

Zbiór wszystkich niezależnych zmiennych s które w procesie projektowania są i przedmiotem decyzji projektanta nazywamy zmiennymi decyzyjnymi. Zmienne te w sposób jednoznaczny określają rozpatrywaną strukturę.

Zmienne decyzyjne bardzo często mają mocno różniące się wartości, a nawet mogą być wyrażone w różnych jednostkach. Dlatego w numerycznej implementacji, ich wartości powinny być unormowane, tzn. powinny być bezwymiarowe i mieć porównywalne wartości.

W pracy zmienne decyzyjne normowane są według zależności [31, 102]:

 

zmienności zmiennych decyzyjnych s . i

Zbiór unormowanych zmiennych decyzyjnych formuje wektor x

x1,x2,...,xn

T. Jeżeli

W oprogramowaniu moduł optymalizacyjny steruje zmiennymi opisującymi strukturę generowanych obiektów, wykorzystywane jest przekształcenie odwrotne do (5.2):

max min

ograniczenia określone zależnościami (5.1).

Rozwiązując zadanie optymalizacji poszukujemy najlepszy wektor s pod względem przyjętego kryterium. Bardzo często należy uwzględnić ograniczenia.

Równościowe i nierównościowe ograniczenia (5.1) przedstawia się zwykle w postaci 0 W procesie optymalnej syntezy zazwyczaj mamy do czynienia z ograniczeniami nierównościowymi j

pj pjz

0. Funkcje tworzące ograniczenia podobnie jak zmienne decyzyjne powinny być unormowane. Funkcje te są normowane poprzez odniesienie do zadanych parametrów funkcjonalnych:

 

0

Ostatecznie, po uwzględnieniu unormowanych zmiennych decyzyjnych ograniczenia proponuje wyrażać się w postaci:

   

Dowolny wektor zmiennych decyzyjnych x określa jeden wariant obiektu (urządzenia).

Każdy wariant urządzenia musi spełniać wszystkie wymagania postaci (5.5).

Zbiór D punktów dla których spełnione są wszystkie nierównościowe ograniczenia (5.5) nazywany jest obszarem dopuszczalnym [216] i jest definiowany następująco:

g j m

D x: j(x)0, 1,2,3,..., (5.6)

Funkcja celu

Kryterium optymalności (kryterium jakości [130]) nazywane jest w procesie optymalizacji funkcją celu. Wartość funkcji celu zależy od przyjętego wektora zmiennych decyzyjnych x. Funkcja celu w niniejszej pracy jest normowana następująco [190]:

   

W wykorzystywanych w tej pracy algorytmach genetycznych, metodzie roju cząstek, operuje się na populacji osobników, cząstek (wariantów urządzenia). W takim przypadku zastosowano normalizacje dla l-tego osobnika według zasady:

   

przy czym k0śr – średnia wartość kryterium w pierwszej iteracji (po inicjacji).

Poniżej przy omawianiu metod optymalizacji przyjęto, że funkcja celu jest minimalizowana. Jeżeli pierwotna funkcja celu jest maksymalizowana to w algorytmie minimalizacji stosuje się transformację:

przy czym C – odpowiednio dobrana stała. Stała ta powinna mieć wartość zbliżoną do 2 f~

 

W takim przypadku, podobne są względne różnice pomiędzy wartościami funkcji f

 

x oraz

 

x

~f

obliczanymi w punktach leżących w pobliżu punktu optymalnego xˆ . Transformacja (5.9) nie wpływa więc w istotny sposób na prawdopodobieństwo wylosowania poszczególnych punktów (osobników), szczególnie pod koniec procesu optymalizacji – tj.

w pobliżu punktu optymalnego xˆ . W przypadku algorytmu genetycznego wartość stałej C można przyjąć według zasady: C 2~f

 

xˆ0 , przy czym ˆx oznacza osobnika 0 wylosowanego w procesie inicjacji, charakteryzującego się największą wartością ~f

.

5.2. Metody optymalizacji bezwarunkowej

Metody optymalizacji bezwarunkowej dzielą się na deterministyczne i niedeterministyczne [4, 158, 193]. Przykładową klasyfikację wybranych metod optymalizacji przedstawiono na rys. 5.1.

W algorytmach deterministycznych do minimum zmierza się iteracyjnie wzdłuż kolejnych kierunków poszukiwań. W metodach bezgradientowych kierunki poszukiwań optimum są określane według ściśle określonych reguł, przyjętych przed rozpoczęciem procesu optymalizacji. W tej grupie metod wyróżniamy metody poszukiwań prostych oraz metody z tzw. minimalizacją kierunkową. Minimalizacja kierunkowa polega na wyznaczeniu optymalnej wartości kroku, przy którym funkcja celu osiąga najmniejszą z możliwych wartości wzdłuż aktualnego kierunku poszukiwań. W metodzie Hooka-Jevesa optymalizowana funkcja celu jest obliczana wzdłuż ortogonalnej bazy kierunków, przyjętej przed rozpoczęciem obliczeń. W kolejnych iteracjach wykonuje się kroki próbne i robocze.

Jeżeli wszystkie próby w badanym podobszarze są negatywne to następuje powrót do obszaru poprzedniego i ponowienie prób przy zmniejszonej długości kroku próbkowania [130].

W metodzie Rosenbrocka rozwiązań poszukuje się także wzdłuż kierunków ortogonalnych.

Metoda obejmuje wyłącznie etap próbkowania, przy czym długość kroku jest na bieżąco aktualizowana – w zależności od osiąganego wyniku (pozytywnego lub negatywnego). Jeżeli wszystkie próby zakończą się negatywnie to następuje obrót bazy kierunków [107].

W metodzie Gaussa-Seidla baza kierunków jest również niezmienna podczas procesu optymalizacji. Dla każdego kierunku poszukujemy takiego punktu w którym funkcja celu osiąga minimum – minimalizacja kierunkowa. Proces optymalizacji jest bardzo prosty polega na znajdowaniu najlepszej wartości x przy wartościach ustalonych pozostałych zmiennych. i

W metodzie Powela, podobnie jak w metodzie Gaussa-Seidla, poszukiwane jest minimum dla każdego kierunku, jednak po wykonaniu pełnej iteracji ( n -kolejnych

minimalizacji) baza kierunków jest modyfikowana. Wyznaczany jest nowy kierunek [130]

który zastępuje kierunek najstarszy.

Natomiast w grupie metod gradientowych kierunek poszukiwań tworzony jest w każdej iteracji na bieżąco na podstawie informacji o gradiencie funkcji celu w osiągniętym punkcie. Z wyjątkiem metody gradientowej prostej, pozostałe metody zawierają procedurę minimalizacji kierunkowej. Najbardziej efektywne są metoda najszybszego spadku oraz metoda gradientów sprzężonych [216]. W metodzie najszybszego spadku, przyjmuje się że kierunek gradientu wyznacza kierunek największego wzrostu funkcji. Następnie wykonuje się minimalizację kierunkową i wyznacza nowe położenie wektora x. W metodzie gradientów sprzężonych kierunek poszukiwań w n-tej iteracji jest linową kombinacją „aktualnego”

gradientu oraz kierunku poszukiwań z poprzedniej iteracji.

Metody optymalizacji

Deterministyczne Niedeterministyczne

Bezgradientowe Gradientowe

Poszukiwań prostych

Z minimalizacją kierunku poszukiwań

Rosembrocka Hooka-Jeevesa

Gaussa-Seidla Powela

Gradientów prostych Najszybszego spadku Gradientów sprzężonych

Sztuczne systemy immunologiczne

Inteligencji roju

Roju cząstek - PSO Algorytmy mrówkowe - ACO

Ewolucyjne

Algorytmy genetyczne AG

Strategie ewolucyjne SE Rys. 5.1. Podział metod optymalizacji

W algorytmach niedeterministycznych operuje się na zbiorze punktów, a trajektorie ich przemieszczeń n-wymiarowej przestrzeni zmiennych decyzyjnych nie są określane regułami. W zależności od typu algorytmu punkty nazywane są osobnikami (w algorytmach ewolucyjnych) lub cząstkami (w algorytmach inteligencji roju). Kolejne iteracje nazywane są pokoleniami lub krokami czasowymi [63, 99, 155, 209].

Najczęściej do zagadnień optymalizacji siników wzbudzanych magnesami trwałymi stosowane są algorytmy genetyczne (Genetic Algorithm – GA) oraz algorytm roju cząstek

(Particie Swarm Optimization – PSO) [18, 25, 72, 114, 142, 149, 250, 160, 164, 168, 251, 253]. Rzadziej stosowany jest algorytm mrówkowy (Ant Colony Optimization – ACO) [47, 153]. Poniżej przedstawione zostaną pierwsze dwie metody.

Algorytm genetyczny

W algorytmach genetycznych optymalizacja jest realizowana z wykorzystaniem mechanizmu ewolucji gatunków oraz doboru naturalnego. Algorytmy genetyczne są metodami probabilistycznymi, w których operacje genetyczne wykonywane są na populacji osobników. Populacja osobników jest zbiorem rozwiązań analizowanego zadania. Algorytmy genetyczne wykorzystują pojęcia związane z genetyką oraz ewolucją gatunków [40, 63].

Elementarnym nośnikiem informacji w genetyce jest gen (cecha, znak [155]). Przy kodowaniu binarnym przyjmuje on dwie wartości. Mogą występować także genotypy wielowartościowe. Uporządkowany ciąg genów nazywamy chromosomem. Zbiór n chromosomów określa jednego osobnika populacji (genotyp lub strukturę). Grupa N osobników tworzy populację.

Chromosom reprezentuje jedną zmienną decyzyjną. Schemat blokowy algorytmu genetycznego przedstawiono na rys. 5.2a, zaś PSO na rys. 5.2b.

a) b)

Rys. 5.2. Schematy blokowe: a) algorytmu genetycznego, b) metody roju cząstek

W ramach jednego pokolenia, populacja osobników poddawana jest następującym operacjom: inicjacji, reprodukcji (selection), krzyżowania (crossover), mutacji (mutation).

Pierwszą procedurą algorytmu jest inicjacja populacji początkowej. Generacja populacji początkowej odbywa się drogą losową poprzez losowanie kolejnych genów tworzących chromosomy – wartości zmiennych decyzyjnych. W populacji początkowej często umieszczane są wstępnie zaprojektowane warianty optymalizowanego urządzenia [109].

Reprodukcja (selekcja) polega na wyborze osobników, z których jest tworzona nowa populacja. Selekcję przeprowadza się jedną z trzech metod: ruletki, rankingu liniowego lub turnieju [239]. Celem procedury reprodukcji jest poprawa dotychczasowego średniego przystosowania całej populacji. W operacji tej nie uzyskujemy poprawy przystosowania najlepszego osobnika. Najbardziej popularną metodą selekcji jest metoda ruletki [170].

W metodzie tej każdemu osobnikowi w populacji przypisywane jest prawdopodobieństwo wylosowania p według zależności: l

N

k k l l

f p f

1

(5.10)

przy czym f l funkcja celu l-tego osobnika, N liczba osobników w populacji.

Prawdopodobieństwo p l jest wprost proporcjonalne do funkcji celu f l-tego l osobnika. Na rys. 5.3 przedstawiono przykładowy podział prawdopodobieństw p l dla populacji o liczebności siedmiu osobników. Najlepiej przystosowany jest osobnik p ma on największe prawdopodobieństwo wyboru do pokolenia

powstającego podczas procedury selekcji. Rys. 5.3. Przykład podziału prawdopodobieństw w metodzie ruletki

Pole ruletki jest w implementacji komputerowej losowane z wykorzystaniem funkcji random. Losowana jest liczba z przedziału odpowiadającego obwodowi ruletki. Wylosowana liczba jest przypisana do odpowiedniego osobnika.

Pierwszym etapem metody rankingu liniowego jest utworzenie listy rankingowej osobników tworzących populację [106]. Osobniki sortowane są według rosnącej wartości przystosowania. Ostatnie miejsce na liście rankingowej przypisuje się osobnikowi najlepiej przystosowanemu. Pojedynczemu (l-temu) osobnikowi przypisuje się prawdopodobieństwo wyboru do następnego pokolenia według zasady:

N k l l

n

p n (5.11)

przy czym nl numer osobnika na liście rankingowej.

Przyporządkowanie prawdopodobieństw według zależności (5.11) powoduje, że osobnik ostatni na liście rankingowej otrzymuje największe prawdopodobieństwo wyboru do następnego pokolenia.

Natomiast, w metodzie reprodukcji turniejowej proces selekcji osobników jest dwuetapowy [31]. W pierwszym etapie osobniki są losowo wybierane do grup turniejowych.

Wybór osobników może być dokonywany ze zwracaniem lub bez zwracania. W drugim etapie z każdej grupy wybieramy najlepiej przystosowanego osobnika. Operacja jest powtarzana do uzyskania nowego pokolenia o tej samej liczbie osobników. Liczbę grup turniejowych oraz ilość wybieranych osobników zależy od preferencji twórcy procedury optymalizacyjnej.

Krzyżowanie polega na losowym skojarzeniu osobników populacji w pary rodzicielskie i odbywa się przy wykorzystaniu binarnej postaci zmiennych decyzyjnych (chromosomów).

W niektórych aplikacjach algorytmów genetycznych podczas krzyżowania wybierane są tylko osobniki o przystosowaniu wyższym od średniego przystosowania całej populacji [172].

Wybrane osobniki następnie kojarzone są w pary rodzicielskie. Wyróżniamy następujące sposoby krzyżowania: jednopunktowe, dwupunktowe oraz krzyżowanie wieloosobowe [106, 239]. Rys. 5.4 ilustruje sposób realizacji krzyżowania jednopunktowego oraz wieloosobowego, przy czym i – numer chromosomu.

Rys. 5.4. Ilustracja realizacji sposobu krzyżowania jednopunktowego oraz wieloosobowego

Po ustaleniu par rodzicielskich losowo wybierany jest punkt krzyżowania. W wyniku krzyżowania pary rodzicielskiej otrzymuje się parę potomków. Metoda krzyżowania wieloosobowego zakłada, że potomek może mieć kilku rodziców. Na rys. 5.4 przedstawiono przykład krzyżowania wieloosobowego, w którym każdy osobnik posiada 3 chromosomy.

Z każdego z rodziców zabierany jest jeden chromosom i przekazywany potomkowi.

W opisanym przykładzie z trzech rodziców otrzymujemy jednego potomka.

Ostatnim etapem algorytmu genetycznego jest mutacja. Polega ona na zmianie wartości losowo wybranego genu. Gen wybieramy jest z zadanym prawdopodobieństwem mutacji – p z wszystkich osobników tworzących populację. Spotykane są również metody mutacji m

w losowym genie każdego chromosomu – metoda ta stosowana w przypadku długich łańcuchów binarnych [239].

W procedurach krzyżowania oraz mutacji istnieje niebezpieczeństwo utraty najlepszego osobnika w populacji. W celu uniknięcia tego zjawiska w procedurach optymalizacyjnych stosowana jest strategia elitarna [106]. Polega ona na wymuszonym przesunięciu najlepszego osobnika do następnego pokolenia.

W celu zakończenia obliczeń za pomocą metod niedeterministycznych konieczne jest określenie kryterium stopu. Kryteria zakończenia można przyjmować następująco.

 Zadana maksymalna wartość pokoleń lub kroków czasowych Jmax. Tak sformułowane kryterium zakończenia obliczeń wykorzystywano wyłącznie podczas obliczeń testowych.

 W n-wymiarowej (n – liczba zmiennych decyzyjnych) „hipersferze”

o promieniu (np. =10-3) i środku w punkcie xˆ, odpowiadającym osobnikowi optymalnemu, zawiera się przynajmniej 80 % populacji. Tak sformułowane kryterium zakończenia obliczeń jest czasochłonne. Dodatkowo bardzo trudny do określenia jest promień , którego wartość należy dobierać indywidualnie w zależności od optymalizowanego obiektu.

 Dlatego zaproponowano inne kryterium będące koniunkcją dwóch warunków:

(a) w dwóch kolejnych pokoleniach wartość funkcji celu dla lidera spełnia warunek pJ

 

xˆ pJ1

 

xˆ 1, gdzie 1 tolerancja końcowa [3], (b) średnie przystosowanie 20% najlepszych osobników różni się od lidera o mniej niż (1- ). 2

Algorytm roju cząstek

Algorytm optymalizacji metodą roju cząstek należy do grupy algorytmów stadnych [57, 234]. Algorytm stadny po raz pierwszy został przedstawiony w 1987 roku przez C. Reynoldsa. Reynolds zaproponował kilka zasad które umożliwiały grupie osobników realistyczne zachowanie w przestrzeni rozwiązywanego zadania optymalizacyjnego, co stało się punktem wyjściowym do opracowania bardziej zaawansowanych algorytmów inteligencji roju.

Metoda PSO została zaprezentowana przez J. Kennedy’ego i R. Eberharta w 1995 [99].

Tę niedeterministyczną metodę opracowano na podstawie obserwacji zachowań stad ptaków

i ławic ryb. Rój składa się z osobników nazywanych cząstkami. Każda cząstka stanowi dopuszczalne rozwiązanie rozpatrywanego zadania optymalizacji. Podczas rozwiązywania zadania cząstki przemieszczają się w n– wymiarowym obszarze poszukiwań, w którym n jest liczbą zmiennych decyzyjnych. Każda cząstka posiada własny wektor położenia xl oraz prędkości vl. Zasada działania opiera się na dwóch podstawowych zasadach: każda cząstka posiada informację o swoim najlepszym położeniu w dotychczas wykonanych krokach xlLB – cecha kognitywistyczna [52, 100] oraz posiada informację o położeniu lidera xGB. Liderem określa się najlepiej przysposobioną cząstkę. Podczas wyznaczania kolejnego położenia, wykorzystuje się informację o wartości funkcji celu plLB=p(xlLB) dla najlepszego własnego położenia w poprzednich krokach czasowych. Dodatkowo cząstki posiadają informację o przystosowaniu lidera roju pGB=p(xGB).

Pierwszym etapem algorytmu jest inicjacja. Polega ona na przyporządkowaniu w sposób losowy początkowych wektorów położeń xl0 i prędkości vl0 cząstek.

W kolejnych iteracjach (krokach czasowych) porównuje się wartości funkcji celu dla poszczególnych cząstek z zapamiętaną najlepszą wartością plLB. W przypadku uzyskania lepszej wartości funkcji celu, przyjmuje się nową wartość xlLB. Analogiczną procedurę stosuje się przy określaniu aktualnego lidera.

Następnie należy dokonać oceny cząstek na podstawie przyjętej funkcji celu, wyznaczyć najlepsze położenie dla każdej cząstki w poprzednich krokach xlLB oraz określić położenie lidera roju xGB.

Kolejnym etapem obliczeń jest aktualizacja prędkości i położenia dla każdej cząstki.

W J-tym kroku obliczeniowym dla l-tej cząstki wartość wektora prędkości oblicza się według algorytmu:

Po wyznaczeniu prędkości cząstki aktualizowane jest jej położenie:

xlJ xlJ1vlJ (5.13)

Opracowane na podstawie algorytmu oprogramowanie testowano na przykładzie funkcji

HEART”:

Na rys. 5.5 przedstawiono wizualizację rozmieszczenia cząstek roju w kolejnych krokach czasowych. Obliczenia wykonano przy wykorzystaniu klasycznej metody roju cząstek (zależności 5.12 oraz 5.13). Rój składał się z N  cząstek. Kolorem czerwonym zaznaczono punkt, w którym wartość funkcji jest minimalna w rozpatrywanym przedziale.

Algorytm PSO opracowany został prawie 30 lat temu. Od tego czasu ta niedeterministyczna metoda optymalizacji z powodzeniem stosowana była do rozwiązywania różnorodnych zagadnień optymalizacji: testowych zadań optymalizacyjnych [50], rozwiązania zadania komiwojażera [201]. Stosunkowo rzadko natomiast była do tej pory stosowana do rozwiązywania zadań inżynierskich [6, 115]. W bardziej zaawansowanych odmianach metody PSO, w celu poprawy zbieżności oraz jakości obliczeń, proponowane są jej modyfikacje [54, 255].

Autor niniejszej pracy zaproponował metodę dobru rodzaju modyfikacji i wagi z jaką są uwzględniane w wyrażeniach opisujących prędkość cząstek w kolejnych krokach, dostosowaną do specyfiki rozpatrywanych zagadnień, to jest zadań optymalizacji maszyn magnetoelektrycznych. Wykazał także, że zastosowanie zmiennych w poszczególnych krokach współczynników wagowych może się przyczynić do znaczącego zwiększenia efektywności algorytmu.

a) Inicjacja b) J=1 c) J=2

d) J=4 e) J=7 f) J=15

Rys. 5.5. Widok przebiegu rozmieszczenia cząstek w kolejnych kokach czasowych

Liniowo zmieniający się współczynnik inercji

W modyfikacji wprowadza się liniową zależność wartości współczynnika inercji w od numeru kroku czasowego. Na początku przyjmuje się większą wartość współczynnika inercji, która jest zmniejszana wraz z kolejnymi krokami czasowymi. W przypadku dużych wartości współczynnika inercji algorytm przeszukuje większy obszar, natomiast dla małych wartości w algorytm przeszukuje w sposób „lokalny” [204]. Zależność opisującą wartość współczynnika inercji dla J-tego kroku wyraża się następująco:



przy czym wmin, wmax minimalna i maksymalna wartość współczynnika inercji.

W przypadku wartości współczynnika inercji w1,2 rój ma tendencję do bardziej dynamicznego przemieszczania się w przestrzeni rozwiązywanego zadania. Wędrujące cząstki mają możliwości odkrywania, nowych nieznanych terenów przeszukiwanego obszaru.

Wartość współczynnika inercji nie może być wybierana w sposób przypadkowy.

Efektywny sposób doboru opisano w [25]:

 

1

0,5 12

c c

w (5.16)

Środek ciężkości roju

W metodzie tej do wzoru (5.12) dodawany jest składnik zapisywany następująco:

)

Po zastosowaniu tej procedury wszystkie cząstki przesuwają się w kierunku punktu środka masy roju. Wartość przesunięcia jest proporcjonalna do odległości pomiędzy aktualnym położeniem cząstki a punktem m . c

Dokładny model zachowań społecznych ławic ryb

Modyfikację metody opracowano na podstawie analizy zachowań społecznych, w szczególności obserwacji bezkolizyjnego synchronicznego przemieszczania ławic ryb [114]. Klasyczna metoda roju cząstek nie odzwierciedla dokładnie reguł panujących podczas wybierania przywódców [122], jak również dokładnych modeli mechanizmów ochronnych przed drapieżnikami.

Ławica ryb to grupa osobników najczęściej tego samego gatunku, poruszająca się w tym samym kierunku z jednakową prędkością, pozostająca w charakterystycznym szyku.

Główną przyczyną skupiania się ryb w ławice jest ochrona przed drapieżnikami.

Prawdopodobieństwo, że ryba padnie ofiarą jest odwrotnie proporcjonalne do liczebności ławicy [59]. Stopień ochrony zwiększa tzw. efekt zamieszania (chaos effect) [212].

Ławice ryb mogą bardzo szybko zmieniać kierunek dotychczasowego poruszania się.

Bezkolizyjny ruch zachowany jest dzięki kontaktowi wzrokowemu z najbliższymi sąsiadami [122]. W klasycznej metodzie roju cząstek bardzo silny wpływ na globalne zachowanie całego roju ma najlepiej przysposobiony osobnik. W rzeczywistych ławicach ryb bardzo duży wpływ na zachowanie pojedynczego osobnika wywiera najbliższe otoczenie [236]. Dlatego w celu uzupełnienia modelu matematycznego roju do równania (5.12) dodano następujący składnik:

lJ

l

r N

c3 3 x  x 1 (5.19)

gdzie c – współczynnik uczenia się lub przyśpieszenia, xlN – położenie najlepiej przystosowanej cząstki w obszarze bliskiego otoczenia.

Rys. 5.6 ilustruje algorytm wyznaczenia położenia cząstki w J-tym kroku z uwzględnieniem najbliższego otoczenia cząstki F1. W otoczeniu rozpatrywanego osobnika znajduje się grupa sąsiadów z pośród których w opracowanym algorytmie wybierany jest najlepiej przystosowany osobnik.

5.3. Zastosowanie metod funkcji kary do optymalizacji z ograniczeniami.

Przystosowanie funkcji kary do algorytmu genetycznego.

Zadanie optymalizacji z ograniczeniami nierównościowymi polega na wyznaczeniu takiego wektora xˆ, że:

Do rozwiązania zadania w postaci (5.20) najbardziej efektywne są metody funkcji kary i właśnie te metody zastaną omówione poniżej.

Podobnie jak w metodzie Couranta [139], w metodach funkcji kary jest konstruowana zmodyfikowana funkcja celu. Do pierwotnej funkcji celu dodawany jest składnik reprezentujący karę za przekroczenie granic obszaru dopuszczalnego (kara zewnętrzna) lub za zbliżanie się do granic tego obszaru (kara wewnętrzna). Ogólną formułę opisującą funkcje zmodyfikowane dla procesu minimalizacji funkcji celu f(x) można przedstawić w postaci: zmianą wagi funkcji kary.

Optima funkcji hk(x) są znajdowane metodami optymalizacji bez ograniczeń. Problem optymalizacji z ograniczeniami jest więc sprowadzany do rozwiązywania ciągu zadań bez ograniczeń [130]. W wyniku minimalizacji kolejnych funkcji zmodyfikowanych h1,h2,...,hm, konstruowanych dla monotonicznie rosnącego ciągu liczbowego r , otrzymuje się minima k cząstkowe

1,xˆ2,...,xˆn

, które coraz lepiej aproksymują rozwiązanie xˆ. Ciąg xˆ dąży do k rozwiązania xˆ.

Wykorzystując do rozwiązania zadania optymalizacji metody niedeterministyczne, w szczególności algorytmy genetyczne dopuszcza się poruszanie osobników tworzących populację poza obszarem dopuszczalnym D. Osobniki te są wtedy słabiej przystosowane, mogą z większym prawdopodobieństwem zniknąć w procedurze reprodukcji, a podczas

Wykorzystując do rozwiązania zadania optymalizacji metody niedeterministyczne, w szczególności algorytmy genetyczne dopuszcza się poruszanie osobników tworzących populację poza obszarem dopuszczalnym D. Osobniki te są wtedy słabiej przystosowane, mogą z większym prawdopodobieństwem zniknąć w procedurze reprodukcji, a podczas