• Nie Znaleziono Wyników

Algorytmy genetyczne

W dokumencie Algorytmy genetyczne (Stron 21-61)

Oczekiwana liczba reprezentantów schematu

Zakładając niezależność operacji reprodukcji i krzyżowania otrzymujemy oszacowanie:

E[m(H,t+1)]­ m(H, t)f (H)

f

h

1 − pcδ(H)l −1i

Dany schemat przeżyje mutację z prawdopodobieństwem (1-pm)o(H). Dla małych wartości prawdopodobieństwo można aproksymować za pomocą wyrażenia:

1-o(H)*pm

Zatem oczekiwana liczba reprezentantów schematu H w następnym pokoleniu otrzymany w wyniku operacji reprodukcji, krzyżowania i mutacji, spełnia następującą nierówność:

E[m(H,t+1)]­ m(H, t)f (H)

f

h

1 − pcδ(H)l −1 − o(H)pm

i

Algorytmy genetyczne

Oczekiwana liczba reprezentantów schematu

Zakładając niezależność operacji reprodukcji i krzyżowania otrzymujemy oszacowanie:

E[m(H,t+1)]­ m(H, t)f (H)

f

h

1 − pcδ(H)l −1i

Dany schemat przeżyje mutację z prawdopodobieństwem (1-pm)o(H).

Dla małych wartości prawdopodobieństwo można aproksymować za pomocą wyrażenia:

1-o(H)*pm

Zatem oczekiwana liczba reprezentantów schematu H w następnym pokoleniu otrzymany w wyniku operacji reprodukcji, krzyżowania i mutacji, spełnia następującą nierówność:

E[m(H,t+1)]­ m(H, t)f (H)

f

h

1 − pcδ(H)l −1 − o(H)pm

i

Algorytmy genetyczne

Oczekiwana liczba reprezentantów schematu

Zakładając niezależność operacji reprodukcji i krzyżowania otrzymujemy oszacowanie:

E[m(H,t+1)]­ m(H, t)f (H)

f

h

1 − pcδ(H)l −1i

Dany schemat przeżyje mutację z prawdopodobieństwem (1-pm)o(H). Dla małych wartości prawdopodobieństwo można aproksymować za pomocą wyrażenia:

1-o(H)*pm

Zatem oczekiwana liczba reprezentantów schematu H w następnym pokoleniu otrzymany w wyniku operacji reprodukcji, krzyżowania i mutacji, spełnia następującą nierówność:

E[m(H,t+1)]­ m(H, t)f (H)

f

h

1 − pcδ(H)l −1 − o(H)pm

i

Algorytmy genetyczne

Oczekiwana liczba reprezentantów schematu

Zakładając niezależność operacji reprodukcji i krzyżowania otrzymujemy oszacowanie:

E[m(H,t+1)]­ m(H, t)f (H)

f

h

1 − pcδ(H)l −1i

Dany schemat przeżyje mutację z prawdopodobieństwem (1-pm)o(H). Dla małych wartości prawdopodobieństwo można aproksymować za pomocą wyrażenia:

1-o(H)*pm

Zatem oczekiwana liczba reprezentantów schematu H w następnym pokoleniu otrzymany w wyniku operacji reprodukcji, krzyżowania i mutacji, spełnia następującą nierówność:

E[m(H,t+1)]­ m(H, t)f (H)

f

h

1 − pcδ(H)l −1 − o(H)pm

i

Algorytmy genetyczne

Twierdzenie o schematach

Podstawowe twierdzenie algorytmów genetycznych

Wąskie, niskiego rzędu i dobrze przystosowane schematy rozprzestrzeniają się w kolejnych pokoleniach zgodnie z wykładniczym prawem wzrostu.

Algorytmy genetyczne

Twierdzenie o schematach

Podstawowe twierdzenie algorytmów genetycznych

Wąskie, niskiego rzędu i dobrze przystosowane schematy rozprzestrzeniają się w kolejnych pokoleniach zgodnie z wykładniczym prawem wzrostu.

Algorytmy genetyczne

Przykład[1]

Algorytmy genetyczne

Dwu-ramienny bandyta

Załóżmy, że istnieje

dwuramienny automat do gry, którego ramiona są oznaczone jako Lewe i Prawe oraz wiadomo, iż jedno z ramion zapewnia średnią wygraną µ1przy wariancji σ12, a drugie średnią wygraną µ2 przy wariancji σ22, przy czym µ1­ µ2.

Algorytmy genetyczne

Dwu-ramienny bandyta Strategia wygranej

Przypuśćmy, że mamy do wykonania łącznie N prób, które należy podzielić między oba ramiona. Na początek wykonujemy po n prób (2n<N) z każdym z ramion. Po zakończeniu eksperymentu

pozostałe N-2n prób wykonujemy z ramieniem o najwyższej zrealizowanej (średniej) wypłacie.

Zakładając, że znamy N, µ1, µ2, σ1, σ2, oczekiwana strata będzie dana wzorem:

L(N,n)=|µ1-µ2|*[(N-n)q(n)+n(1-q(n))]

Gdzie q(n) oznacza prawdopodobieństwo, że po wykonaniu n prób z każdym z urządzeń gorsze ramię dało empirycznie lepszy wynik.

Algorytmy genetyczne

Dwu-ramienny bandyta Strategia wygranej

Przypuśćmy, że mamy do wykonania łącznie N prób, które należy podzielić między oba ramiona. Na początek wykonujemy po n prób (2n<N) z każdym z ramion. Po zakończeniu eksperymentu

pozostałe N-2n prób wykonujemy z ramieniem o najwyższej zrealizowanej (średniej) wypłacie.

Zakładając, że znamy N, µ1, µ2, σ1, σ2, oczekiwana strata będzie dana wzorem:

L(N,n)=|µ1-µ2|*[(N-n)q(n)+n(1-q(n))]

Gdzie q(n) oznacza prawdopodobieństwo, że po wykonaniu n prób z każdym z urządzeń gorsze ramię dało empirycznie lepszy wynik.

Algorytmy genetyczne

Dwu-ramienny bandyta Strategia wygranej

Prawdopodobieństwo q(n) można oszacować za pomocą rozkładu normalnego:

Straty jakie można ponieść to:

Wykonanie n prób ze złym ramieniem w fazie eksperymentalnej oraz wybór ramienia dającego niższą średnią wygraną po zakończeniu eksperymentu

Algorytmy genetyczne

Dwu-ramienny bandyta Strategia wygranej

Prawdopodobieństwo q(n) można oszacować za pomocą rozkładu normalnego: Straty jakie można ponieść to:

Wykonanie n prób ze złym ramieniem w fazie eksperymentalnej oraz wybór ramienia dającego niższą średnią wygraną po zakończeniu eksperymentu

Algorytmy genetyczne

Dwu-ramienny bandyta Strategia wygranej

Prawdopodobieństwo q(n) można oszacować za pomocą rozkładu normalnego: Straty jakie można ponieść to:

Wykonanie n prób ze złym ramieniem w fazie eksperymentalnej oraz wybór ramienia dającego niższą średnią wygraną po zakończeniu eksperymentu

Algorytmy genetyczne

Optymalna wielkość eksperymentu n*

Holland podaje oszacowanie:

n*' b2lnh

N2 8πb4lnN2

i

, gdzie b=σ1/(µ1− µ2)

Algorytmy genetyczne

Optymalna wielkość eksperymentu n*

Holland podaje oszacowanie:

n*' b2lnh

N2 8πb4lnN2

i

, gdzie b=σ1/(µ1− µ2)

Algorytmy genetyczne

k-ramienny bandyta

Zasady wygranej podobne jak w 2-raminnym bandycie z tą różnicą, że teraz mamy k ramion.

k-ramienny bandyta to zbiór konkurujących schematów Definicja:

Dwa schematy A i B o elementach odpowiedni ai i bi konkurują, jeżeli dla każdej pozycji i=1,2,. . . ,l albo ai=bi=*, albo ai 6=*, bi 6=*, ai 6=bi – przy czym ostatni przypadek zachodzi przynajmniej dla jednego i.

Algorytmy genetyczne

k-ramienny bandyta

Zasady wygranej podobne jak w 2-raminnym bandycie z tą różnicą, że teraz mamy k ramion.

k-ramienny bandyta to zbiór konkurujących schematów

Definicja:

Dwa schematy A i B o elementach odpowiedni ai i bi konkurują, jeżeli dla każdej pozycji i=1,2,. . . ,l albo ai=bi=*, albo ai 6=*, bi 6=*, ai 6=bi – przy czym ostatni przypadek zachodzi przynajmniej dla jednego i.

Algorytmy genetyczne

k-ramienny bandyta

Zasady wygranej podobne jak w 2-raminnym bandycie z tą różnicą, że teraz mamy k ramion.

k-ramienny bandyta to zbiór konkurujących schematów Definicja:

Dwa schematy A i B o elementach odpowiedni ai i bi konkurują, jeżeli dla każdej pozycji i=1,2,. . . ,l albo ai=bi=*, albo ai 6=*, bi 6=*, ai 6=bi – przy czym ostatni przypadek zachodzi przynajmniej dla jednego i.

Algorytmy genetyczne

Przykład

Dany jest zbiór schematów o długości 7, konkurujących na pozycjach 2, 3 i 5

*00*0**

*00*1**

*01*0**

*01*1**

*10*0**

*10*1**

*11*0**

*11*1**

Algorytmy genetyczne

Przykład

Dany jest zbiór schematów o długości 7, konkurujących na pozycjach 2, 3 i 5

*00*0**

*00*1**

*01*0**

*01*1**

*10*0**

*10*1**

*11*0**

*11*1**

Algorytmy genetyczne

Przykład

Dla trzech ustalonych pozycji w ciągu długości 7 mamy 73 = 35 zagadnień ośmioramiennych (23=8) bandytów.

Ogólnie dla schematów rzędu j i długości l istnieje l

j

różnych zagadnień kj- ramiennych, gdzie kj = 2j bandytów

Jednak nie wszystkie zP

l j



= 2l zagadnień są rozwiązywane z jednakową sprawnością.

Algorytmy genetyczne

Przykład

Dla trzech ustalonych pozycji w ciągu długości 7 mamy 73 = 35 zagadnień ośmioramiennych (23=8) bandytów.

Ogólnie dla schematów rzędu j i długości l istnieje l

j

różnych zagadnień kj- ramiennych, gdzie kj = 2j bandytów

Jednak nie wszystkie zP

l j



= 2l zagadnień są rozwiązywane z jednakową sprawnością.

Algorytmy genetyczne

Przykład

Dla trzech ustalonych pozycji w ciągu długości 7 mamy 73 = 35 zagadnień ośmioramiennych (23=8) bandytów.

Ogólnie dla schematów rzędu j i długości l istnieje l

j

różnych zagadnień kj- ramiennych, gdzie kj = 2j bandytów

Jednak nie wszystkie zP

l j



= 2l zagadnień są rozwiązywane z jednakową sprawnością.

Algorytmy genetyczne

Hipoteza cegiełek (bloków budujących)

Algorytm genetyczny poszukuje rozwiązań optymalnych przez zestawianie schematów o małej rozpiętości i niskiego rzędu a o dużej wydajności działania, zwanych cegiełkami (blokami budującymi) [1],[2].

Algorytmy genetyczne

Hipoteza cegiełek (bloków budujących) – Przykład [1]

Algorytmy genetyczne

Hipoteza cegiełek (bloków budujących) – Przykład [1]

Algorytmy genetyczne

Minimalny problem zwodniczy

Problem zwodniczy- przypadek kiedy algorytm genetyczny szuka optimum w innym miejscu dając fałszywe wyniki (dążąc do punktów suboptymalnych).

Algorytmy genetyczne

Minimalny problem zwodniczy

Niech będą dane 4 schematy rzędu 2, ze współczynnikami przystosowania:

***0*****0* f00

***0*****1* f01

***1*****0* f10

***1*****1* f11

Współczynniki przystosowania odpowiadają średnim dla schematów względem populacji. Załóżmy, że są one stałe, zerowej wariancji oraz, że f11 jest globalnym optimum:

f11>f00, f11>f01, f11>f10.

Algorytmy genetyczne

Minimalny problem zwodniczy

Niech będą dane 4 schematy rzędu 2, ze współczynnikami przystosowania:

***0*****0* f00

***0*****1* f01

***1*****0* f10

***1*****1* f11

Współczynniki przystosowania odpowiadają średnim dla schematów względem populacji. Załóżmy, że są one stałe, zerowej wariancji oraz, że f11 jest globalnym optimum:

f11>f00, f11>f01, f11>f10.

Algorytmy genetyczne

Minimalny problem zwodniczy

Niech dany będzie element zwodniczości, f(0*)>f(1*);

f(*0)>f(*1)

Zatem powinny zachodzić równości:

f (00)+f (01)

2 >f (10)+f (11) 2

f (00)+f (10)

2 >f (01)+f (11) 2

Nie mogą one być jednak jednocześnie spełnione (bo punkt 11 nie byłbym globalnym optimum)

Algorytmy genetyczne

Minimalny problem zwodniczy

Niech dany będzie element zwodniczości, f(0*)>f(1*);

f(*0)>f(*1)

Zatem powinny zachodzić równości:

f (00)+f (01)

2 >f (10)+f (11) 2

f (00)+f (10)

2 >f (01)+f (11) 2

Nie mogą one być jednak jednocześnie spełnione (bo punkt 11 nie byłbym globalnym optimum)

Algorytmy genetyczne

Minimalny problem zwodniczy

Niech dany będzie element zwodniczości, f(0*)>f(1*);

f(*0)>f(*1)

Zatem powinny zachodzić równości:

f (00)+f (01)

2 >f (10)+f (11) 2

f (00)+f (10)

2 >f (01)+f (11) 2

Nie mogą one być jednak jednocześnie spełnione (bo punkt 11 nie byłbym globalnym optimum)

Algorytmy genetyczne

Minimalny problem zwodniczy

Załóżmy, że prawdziwa jest pierwsza nierówność. Wówczas problem zwodniczy rzędu 2 jest wyznaczony przez warunek globalności (maksimum równe f11) oraz jeden warunek zwodniczości (wybraliśmy tu przypadek f(0*)>f(1*) ).

Wszystkie współczynniki przystosowania względem f00

(współczynnik przystosowania „dopełnienia” globalnego optimum) można znormalizować:

r = ff11

00; c = ff11

00; c0 =ff10

00

Algorytmy genetyczne

Minimalny problem zwodniczy

Załóżmy, że prawdziwa jest pierwsza nierówność. Wówczas problem zwodniczy rzędu 2 jest wyznaczony przez warunek globalności (maksimum równe f11) oraz jeden warunek zwodniczości (wybraliśmy tu przypadek f(0*)>f(1*) ).

Wszystkie współczynniki przystosowania względem f00

(współczynnik przystosowania „dopełnienia” globalnego optimum) można znormalizować:

r = ff11

00; c = ff11

00; c0 =ff10

00

Algorytmy genetyczne

Minimalny problem zwodniczy

Warunek globalności w znormalizowanej postaci to:

r > c; r > 1; r > c0

Warunek zwodniczości r < 1 + c − c0 Stąd wynika c0 < 1; c0 < c

Można wyróżnić dwa typy problemów zwodniczych rzędu 2. Typ I: f01>f00 (c>1).

Typ II: f00­f01 (c¬1).

Algorytmy genetyczne

Minimalny problem zwodniczy

Warunek globalności w znormalizowanej postaci to:

r > c; r > 1; r > c0 Warunek zwodniczości r < 1 + c − c0

Stąd wynika c0 < 1; c0 < c

Można wyróżnić dwa typy problemów zwodniczych rzędu 2. Typ I: f01>f00 (c>1).

Typ II: f00­f01 (c¬1).

Algorytmy genetyczne

Minimalny problem zwodniczy

Warunek globalności w znormalizowanej postaci to:

r > c; r > 1; r > c0 Warunek zwodniczości r < 1 + c − c0 Stąd wynika c0 < 1; c0 < c

Można wyróżnić dwa typy problemów zwodniczych rzędu 2. Typ I: f01>f00 (c>1).

Typ II: f00­f01 (c¬1).

Algorytmy genetyczne

Minimalny problem zwodniczy

Warunek globalności w znormalizowanej postaci to:

r > c; r > 1; r > c0 Warunek zwodniczości r < 1 + c − c0 Stąd wynika c0 < 1; c0 < c

Można wyróżnić dwa typy problemów zwodniczych rzędu 2.

Typ I: f01>f00 (c>1).

Typ II: f00­f01 (c¬1).

Algorytmy genetyczne

Epistaza

Pojęcie zwodniczości połączone jest z epistazą. Można dowieść, że żaden problem rzędu 1 nie może być zwodniczy, więc problem zwodniczy rzędu 2 jest najmniejszym możliwym, czyli minimalnym problemem zwodniczym (MPD).

Algorytmy genetyczne

Wzorce podobieństwa - hiperpłaszczyzny

Niech będą dane ciągi i schematy o długości l=3.

Można je przedstawić w przestrzeni, gdzie punktami będą ciągi kodowe lub schematy rzedu 3, linie proste to będą schematy rzędu 2, płaszczyzny – schematami rzędu 1, natomiast całej przestrzeni odpowiada schemat rzędu 0, czyli ***.

Algorytmy genetyczne

Bibliografia

1 D. Goldberg, Algorytmy genetyczne i ich zastosowania, WNT, Warszawa 1998

2 Z. Michalewicz, Algorytmy genetyczne+struktury danych = programy ewolucyjne WNT, Warszawa 1999

W dokumencie Algorytmy genetyczne (Stron 21-61)

Powiązane dokumenty