• Nie Znaleziono Wyników

Przykłady zastosowań – kryteria oceny rezultatów

Z uwagi na swe właściwości symulowana ewolucja zaliczana jest do dziedziny zwanej

sztuczną inteligencją. Skuteczność algorytmów ewolucyjnych, duża łatwość ich implementacji

w porównaniu do innych metod, brak konieczności opracowywania modelu matematycznego badanego zjawiska lub rozwiązywanego problemu sprawia, że znajdują się one w centrum zainteresowania wielu naukowców. Twórca algorytmu genetycznego już w 1975 roku prognozował jego dużą popularność [155]. M. Mitchell i S. Forrest w [192] pośrednio potwierdzają wysunięte przez Hollanda przypuszczenia. Zawarta w punkcie 2 „Overview of

genetic algorithms” [192] lista zastosowań algorytmów genetycznych jest imponująca, zawiera

bowiem:

a) optymalizację;

b) automatyczne programowanie; c) uczenie robotów i urządzeń;

d) modelowanie procesów występujących w ekonomii; e) modelowanie naturalnych systemów odpornościowych; f) modelowanie zjawisk występujących w ekologii;

g) modelowanie zjawisk występujących w populacji genetycznej; h) badanie związków pomiędzy ewolucją a uczeniem się;

Należy ponadto uznać, że lista ta nie jest zamknięta. Znane są zastosowania programowania genetycznego do projektowania schematów elektrycznych [46] czy też strategii ewolucyjnych do projektowania budynków wysokich [199].

Błędnym byłoby jednak twierdzenie, że szeroka gama zastosowań głównych kierunków symulowanej ewolucji wynika ze znalezienia algorytmów zdolnych do rozwiązania każdego problemu. Nie ma też podstaw to twierdzenia, że w przyszłości tradycyjne metody obliczeniowe zostaną całkowicie wyparte przez metody tzw. sztucznej inteligencji. Twórcy programowania ewolucyjnego określają w [108] fakt zaistnienia sztucznej inteligencji słowami (1966): „Artificial intelligence is realized only if an inanimate machine can solve problems … not because of the machine’s sheer speed and accuracy, but because it can discover for itself new techniques for solving the problem at hand”. Stosując strategie ewolucyjne należy sobie zdawać sprawę z faktu, że uzyskane wyniki mogą być gorsze od rezultatów uzyskanych metodami konwencjonalnymi (uzyskanymi przez człowieka). Umiejętność oceny otrzymanych wyników jest ważnym aspektem pracy badawczej. Kryteria oceny konkurencyjności otrzymywanych rezultatów w stosunku do znanych już rozwiązań zaproponowali F. H. Bennett III, J. R. Koza, M. A. Keane i D. Andree w [46], [166]. Otrzymane wyniki uważa się za akceptowalne, jeśli spełniają przynajmniej jedno z postawionych kryteriów:

(A) Uzyskane wyniki powodują ulepszenie znanych już rozwiązań ponad to, co zostało opatentowane w przeszłości lub same stają się przedmiotem starań o przyznanie patentu. (B) Uzyskane rezultaty są równe bądź lepsze od wyników, jakie były zaakceptowane za

nowe, kiedy zostały pierwotnie publikowane.

(C) Uzyskane rezultaty są równe bądź lepsze od wyników, jakie można znaleźć w archiwach międzynarodowych grup ekspertów.

(D) Uzyskane rezultaty są prawdziwe i publikowane jako nowe rozwiązanie naukowe (niezależnie od sposobu ich uzyskania).

(E) Otrzymane rezultaty są równe bądź lepsze od wyników uzyskanych ostatnio przez człowieka, a uznawanych powszechnie za najlepsze.

(F) Otrzymane rezultaty są równe bądź lepsze od wyników, które były uważane za osiągnięcia w czasie, kiedy zostały po raz pierwszy opublikowane.

(G) Otrzymane rezultaty rozwiązują problem bezsprzecznie trudny w danej dziedzinie nauki. (H) Otrzymane rezultaty zachowują swoją użyteczność w konkurencji z wynikami obecnie

Przykłady pozytywnego, w sensie zaprezentowanych kryteriów, zastosowania symulowanej ewolucji podane za [46], [166], [169] zawiera tabela 4. Dokładniejsze omówienie wszystkich przedstawionych przypadków zawiera [169].

Tabela 4 Wybrane przykłady zastosowania symulowanej ewolucji

Czynność Spełnione

kryterium

Podpunkt w [169] 1. Stworzenie czterech różnych algorytmów do identyfikacji problemów

związanych z błonami białkowymi. B, E 16.6

2. Wytworzenie struktury sieci sortującej dla siedmiu elementów

z użyciem szesnastu kroków algorytmu. A, D 24.4.4 3. Odkrycie ( na nowo ) topologii drabinkowej Campbella jako filtrów dolno

i górno przepustowych A, F 25.15.1

4. Odkrycie ( na nowo ) eliptycznej topologii filtrów (Cauera). A, F 27.3.7

5. Automatyczna dekompozycja problemu syntezy filtru krzyżującego. A, F 32.3 6. Ponowne odkrycie wydzielonego stopnia wzmocnienia napięciowego oraz

emiterowego wtórnika Darlingtona A, F 42.3

7. Synteza 60 i 96 decybelowych wzmacniaczy. A, F 45.3 8. Synteza analogowych obwodów do obliczeń: kwadratu, sześcianu,

pierwiastka kwadratowego i sześciennego, logarytmu, funkcji Gaussa. A, D, G 47.5.3 9. Synteza działających w czasie rzeczywistym układów analogowych do

optymalnego – czasowo sterowania robotem G 48.3

10. Opracowanie termometru elektronicznego. A, G 49.3

4. Wnioski

Obliczenia ewolucyjne to narzędzie do poszukiwania rozwiązań problemów trudno definiowalnych w sensie matematycznym. Atrakcyjnym wydaje się wykorzystanie właściwości przedstawionych algorytmów w automatyce i robotyce. Nie rozwiązane dotąd zagadnienia związane np. z widzeniem komputerowym lub rozpoznawaniem mowy stanowią interesujące wyzwanie.

5. Literatura

Wykaz skrótów:

AAAI & GECCO – American Association for Artificial Intelligence & Genetic and Evolutionary Computation Conference

ACEP – Annual Conference on Evolutionary Programming

ACGP – Annual Conference on Genetic Programming

ACM–SIGBIO – Association for Computing Machinery Special Interest Group on Biomedical Computing

AISB – Artificial Intelligence and the Simulation of Behavior

CEC – Congress on Evolutionary Computation

COGANN – Proceedings of the International Workshop on Combinations of Genetic Algorithms and Neural Networks

ECAL – European Conference on Artificial Life

EUROGEN – European Conference on Genetic Programming

FOGA – Foundations of Genetic Algorithms

HEC – Handbook of Evolutionary Computation

ICGA – International Conference on Genetic Algorithms

ICML – International Conference on Machine Learning

IEEE / ICEC IEEE – Conference Evolutionary Computation

IJCAI – International Joint Conference on Artificial Intelligence

ISMIS – International Symposium on Methodologies for Intelligent Systems

IVC – Image and Vision Computing

JEC – Journal of Evolutionary Computation

PICGATA – Proceedings of the International Conference On Genetic Algorithms and Their Applications

PPSN – Parallel Problem Solving from Nature

WCCI – IEEE World Congress on Computational Intelligence

[1] Ackley H. D., Littman L. M.: A case for lamarckian evolution. Langton G. C. (ed.): Artificial Life III, Addison – Wesley, 1993.

[2] Ackley H. D., Littman L. M.: Interactions between learning and evolution. Langton G. C., Taylor C., Farmer D. J., Rasmussen S. (ed.): Artificial Life II, pp. 487 - 507, Addison – Wesley, 1992. [3] Ackley H. D.: An empirical study of bit vector function optimization. Davis L. (ed.): Genetic

Algorithms and Simulated Annealing, pp. 170 – 204, Morgan Kaufmann Publishers, 1987.

[4] Agapie A.: Genetic algorithms: theory and applications. Journal of Computing Anticipatory

Systems CHAOS ASBL, 2000.

[5] Altenberg L.: The schema theorem and price's theorem. Vose M., Whitley L. D. (ed.):

FOGA – 3, Morgan Kaufmann Publishers, pp. 23 – 49, 1994.

[6] Andrey P.: Selection relaxation: genetic algorithms applied to image segmentation. IVC, 17,

pp. 175 – 187, 1999.

[7] Angeline P. J.: Evolutionary algorithms and emergent intelligence. PhD. Dissertation, The Ohio State University, 1993.

[8] Antonisse H. J.: A new interpretation of the schema notation that overturns the binary encoding

[9] Arabas J, Mulawka J, Pokrasniewicz J.: A new class of the crossover operators for the numerical

optimization. Eshelman L. (ed.): ICGA – 6, pp. 42 – 48, Morgan Kaufmann Publishers, 1995.

[10] Atmar W.: The philosophical errors that plague both evolutionary theory and simulated evolutionary programming. ACEP – 1, pp. 27 – 34, 1992.

[11] Bäck Th, Fogel D. B, Whitley L. D., Angeline P. J.: Search operators: mutation. Bäck Th., Fogel D. B., Michalewicz Z. (ed.): HEC, pp. C3.2:1 – C3.2:14, Institute of Physics Publishing and Oxford University Press, 1997.

[12] Bäck Th., Eiben A. E.: Generalizations of intermediate recombination in evolution strategies. Angeline J. P., Porto W. V. (ed.), CEC, 2, pp. 1566 – 1573, The IEEE Press, 1999.

[13] Bäck Th., Fogel D. B., Michalewicz Z. (ed.): Handbook of Evolutionary Computation. Oxford University Press, New York, and Institute of Physics Publishing, 1997.

[14] Bäck Th., Hoffmeister F., Schwefel H. P.: A survey of evolution strategies. Belew K. R., Booker L. B. (ed.): ICGA – 4, pp. 2 – 9, Morgan Kaufmann Publishers, 1991.

[15] Bäck Th., Schwefel P. H., Männer R.: An overview of evolutionary algorithms for parameter

optimization. JEC, Vol. 1, pp. 1 – 23, 1993.

[16] Bäck Th., Schwefel P. H.: An overview of evolutionary algorithms for parameter optimization. JEC, 1993.

[17] Bäck Th.: A genetic algorithm approach to the maximum independent set problem. Bäck Th., Fogel

D. B., Michalewicz Z. (ed.): HEC, chapter G9.2, pp. 1 – 6, Oxford University Press, New York, and Institute of Physics Publishing, 1997.

[18] Bäck Th.: Adaptive learning by evolutionary algorithms within search spaces of different complexity. Bock P., Loew M., Radermacher F. J., Richter M. M. (ed.): Proceedings of the 3rd

International FAW Workshop Adaptive Learning and Neural Networks, pp. 1 – 17, 1992. [19] Bäck Th.: Evolution strategies: An alternative evolutionary algorithm. Alliot J. M., Lutton E.,

Ronald E., Schoenauer M., Snyers D. (ed.): Artificial Evolution: European Conference, Vol. 1063 of Lecture Notes in Computer Science, pp. 3 – 20, 1996.

[20] Bäck Th.: Evolutionary algorithms in theory and practice. Oxford University Press, 1996.

[21] Bäck Th.: Evolutionary algorithms. ACM SIGBIO Newsletter, 12, pp. 26 – 31, 1992.

[22] Bäck Th.: Evolutionary algorithms: comparison of approaches. Paton R. (ed.): Computing with

Biological Metaphors, chapter 14, pp. 227 – 243, Chapman & Hall, 1994.

[23] Bäck Th.: Generalized convergence models for tournament – and ( μ , λ ) selection. Eshelman L.

(ed.), ICGA – 6, pp. 2 – 8, Morgan Kaufmann Publishers, 1995.

[24] Bäck Th.: Mutation parameters. Bäck Th., Fogel D. B., Michalewicz Z. (ed.): HEC, chapter E1.2,

pp. 1 – 7, Oxford University Press, New York, and Institute of Physics Publishing, 1997. [25] Bäck Th.: Mutation: binary strings. Bäck Th., Fogel D. B., Michalewicz Z. (ed.): HEC, chapter

C3.2, pp. 1 – 2, Oxford University Press, New York, and Institute of Physics Publishing, 1997. [26] Bäck Th.: On the behavior of evolutionary algorithms in dynamic environments. Fogel D. B.,

Schwefel P. H., Bäck Th., Yao X. (ed.), WCCI – 2 & IEEE / ICEC – 5, pp. 446 – 451, IEEE Press, 1998.

[27] Bäck Th.: Optimal mutation rates in genetic search. Forrest S. (ed.), ICGA, pp. 2 – 8, Morgan

Kaufmann Publishers, 1993.

[28] Bäck Th.: Optimization by means of genetic algorithms. Köhler E. (ed.): 36th International Scientific Colloquium, pp. 163 – 169, Technical University of Ilmenau, 1991.

[29] Bäck Th.: Order statistics for convergence velocity analysis in evolutionary algorithms. Whitley L.

D., Vose D. M. (ed.), FOGA – 3, pp. 91 – 102, Morgan Kaufmann Publishers, 1995.

[30] Bäck Th.: Parallel optimization of evolutionary algorithms. Davidor Y., Schwefel H. P., Männer R.

[31] Bäck Th.: Principles of evolutionary computation. Zimmermann J. H. (ed.): EUFIT'97 – 5th

European Congress on Intelligent Techniques and Soft Computing, ELITE Foundation, Vol. I, pp. 637 – 639, Verlag Mainz, 1997.

[32] Bäck Th.: Representation: binary strings. Bäck Th., Fogel D. B., Michalewicz Z. (ed.): HEC,

chapter C1.2, pp. 1 – 3, Oxford University Press, New York, and Institute of Physics Publishing, 1997.

[33] Bäck Th.: Selective pressure in evolutionary algorithms: a characterization of selection mechanisms. Michalewicz Z., Schaffer D. J., Schwefel P. H., Fogel D. B., Kitano H. (ed.),

IEEE / ICEC – 1 & WCCI, Vol. 1, pp. 57 – 62, The IEEE Press, 1994.

[34] Bäck Th.: Self – adaptation in genetic algorithms. Varela J. F., Bourgine P. (ed.): Toward

a Practice of Autonomous Systems, ECAL – 1, pp. 263 – 271, The MIT Press, 1992.

[35] Bäck Th.: Self – adaptation. Bäck Th., Fogel D. B., Michalewicz Z. (ed.): HEC, chapter C7.1,

pp. 1 – 15, Oxford University Press, New York, and Institute of Physics Publishing, 1997. [36] Bäck Th.: The interaction of mutation rate, selection, and self – adaptation within a genetic

algorithm. Männer R., Manderick B. (ed.), PPSN – 2, pp. 85 – 94, Free University of Brussels,

1992.

[37] Bäck Th.: Adaptive search by evolutionary algorithms. http://corvo.cpgei.cefetpr.br/EC/EA/papers, 04.01.2001.

[38] Baker J.: Adaptive selection methods for genetic algorithms. PICGATA, Grefenstette J. (ed.),

Lawrence Erlbaum Association, 1985.

[39] Baker J.: Reducing bias and inefficiency in the selection algorithm. Grefenstette J. (ed.),

PICGATA – 2, pp. 14 – 21, Lawrence Erlbaum Assoc., 1987.

[40] Baldwin M. J.: A new factor in evolution. American Naturalist, 30, pp. 441 – 451, 1896. [41] Banzhaf W.: Interactive evolution. Bäck Th., Fogel D. B., Michalewicz Z. (ed.): HEC, chapter

C2.9, pp. 1 – 6, Oxford University Press, New York, and Institute of Physics Publishing, 1997. [42] Barbulescu L., Watson J. P., Whitley L. D.: Dynamic representations and escaping local optima:

improving genetic algorithms and local search. AAAI & GECCO, 2000.

[43] Bedau A. M., Packard H. N.: Measurement of evolutionary activity, teleology, and life. Langton C. G., Taylor C., Farmer D. J., Rasmussen S. (ed.): Artificial Life II, pp. 431 – 461,

Addison – Wesley, 1992.

[44] Bedau A. M., Ronneburg F., Zwick M.: Dynamics of diversity in an evolving population. Männer R., Manderick B. (ed.), PPSN – 2, pp. 95 – 104, North Holland, 1992.

[45] Belew K. R.: Evolution, learning, and culture: Computational metaphors for adaptive algorithms. Complex Systems, 4, pp. 11 – 49, 1990.

[46] Bennett III H. F., Koza R. J., Keane A. M., Andre D.: Genetic programming: biologically inspired

computation that exhibits creativity in solving non – trivial problems. Symposium on Artificial

Intelligence and Scientific Creativity, 1999.

[47] Bergman A., Feldman W. M.: Recombination dynamics and the fitness landscape. PhD. Dissertation, 56, pp. 57 – 67, 1992.

[48] Bersini H., Varela J. F.: The immune recruitment mechanism: a selective evolutionary strategy. Belew K. R., Booker L. B. (ed.), ICGA – 4, pp. 520 – 526, Morgan Kaufmann Publishers, 1991. [49] Bertoni A., Dorigo M.: Implicit parallelism in genetic algorithms. Artificial Intelligence, 61,

pp. 307 – 324, 1993.

[50] Bethke A.: Genetic algorithms as function optimizers. PhD. Dissertation, Computer and

Communication Sciences, University of Michigan, 1980.

[51] Beyer H. G.: Local performance measures: Evolution strategies and evolutionary programming. Bäck Th., Fogel D. B., Michalewicz Z. (ed.): HEC, chapter B2.4,

[52] Beyer H. G.: Some aspects of the “evolution strategy” for solving tsp – like optimization problems

appearing at the design studies of a 0.5 tev – linear collider. Männer R., Manderick B. (ed.),

PPSN – 2, pp. 361 – 370, 1992.

[53] Beyer H. G.: Toward a theory of evolution strategies: self – adaptation. Evolutionary Computation, pp. 3.3:311 – 347, 1995.

[54] Bledsoe W. W.: The use of biological concepts in the analytical study of systems. ORSA – TIMS National Meeting, 1961.

[55] Blickle T., Thiele L.: A Comparison of Selection Schemes used in Genetic Algorithms. TIK Report Nr. 11, December 1995,

http://www.tik.ee.ethz.ch/Publications/TIK-Reports/TIK-Report11abstract.html

[56] Booker L. B., Fogel D. B., Whitley L. D., Angeline P. J.: Search operators: recombination. Bäck Th., Fogel D. B., Michalewicz Z. (ed.): HEC, pp. C3.3:1 – C3.3:27, Institute of Physics Publishing and Oxford University Press, 1997.

[57] Booker L. B., Goldberg E. D., Holland J. H.: Classifier systems and genetic algorithms. Artificial Intelligence, 40, pp. 235 – 282, 1989.

[58] Booker L. B.: Improving search in genetic algorithms. Davis L. (ed.): Genetic Algorithms and

Simulated Annealing, chapter 5, pp. 61 – 73, Morgan Kaufmann Publishers, 1987.

[59] Booker L. B.: Recombination distributions for genetic algorithms. Whitley L. D. (ed.): Foundations of Genetic Algorithms - 2, pp. 29 – 44, Morgan Kaufmann Publishers, 1992.

[60] Box G. E. P.: Evolutionary operation: A method for increasing industrial productivity. Journal of Royal Statistical Society C, 6 (2):81 -101, 1957.

[61] Bremermann J. H.: Optimization through evolution and recombination. Yovits C. M., Jacobi T. G., Goldstein D. G. (ed.): Self – organizing systems, pp. 93 – 106, Spartan Books, 1962.

[62] Bridges C., Goldberg D.: An analysis of reproduction and crossover in a binary coded genetic

algorithm. ICGA – 3, Lawrence Erlbaum Publishing, 1985.

[63] Bui T., Moon B.: On multi – dimensional encoding / crossover. L. Eshelman (ed.), ICGA – 6, pp. 49 – 56, Morgan Kaufmann Publishers, 1995.

[64] Buss W. L.: The evolution of individuality. Princeton University Press, 1987.

[65] Caruana R., Schaffer J.: Representation and hidden bias: gray vs. binary coding for genetic

algorithms. ICML – 5, Morgan Kaufmann Publishers, 1988.

[66] Chakraborty S., De S., Deb K.: Model – based object recognition from a complex binary imagery

using genetic algorithm. Poli R. et al.: Evolutionary Image Analysis, Signal Processing, and

Telecommunications Proceedings, Vol. 1596 of Lecture Notes in Computer Science, pp. 150 – 161, 1999.

[67] Chalmers J. D.: The evolution of learning: An experiment in genetic connectionism. Touretzky S. D., et al., (ed.): Proceedings of the 1990 Connectionist Models Summer School, Morgan Kaufmann Publishers, 1990.

[68] Cohen P. R.: Empirical methods for artificial Intelligence. The MIT Press, 1995.

[69] Collins J. R., Jefferson R. D.: AntFarm: towards simulated evolution. Langton G. C., Taylor C., Farmer D. J., Rasmussen S. (ed.): Artificial Life II, pp. 579 – 601, Addison – Wesley, 1992.. [70] Collins J. R., Jefferson R. D.: Selection in massively parallel genetic algorithms.

ICGA – 4, pp. 249 – 256, Morgan Kaufmann Publishers, 1991.

[71] Collins J. R., Jefferson R. D.: The evolution of sexual selection and female choice. Varela J. F., Bourgine P. (ed.): Toward a Practice of Autonomous Systems, ECAL – 1, pp. 327 – 336, The MIT Press, 1992.

[72] Das R., Whitley L. D.: The only challenging problems are deceptive: global search by solving

[73] Davidor Y.: Genetic algorithms and robotics. Robotics and Automated Systems. World Scientific,

1991.

[74] Davis E. T., Principe C. J.: A simulated annealing like convergence theory for the simple genetic

algorithm. Belew R., Booker L. (ed.), ICGA – 4, pp. 174 – 181, Morgan Kaufmann Publishers,

1991.

[75] Davis L. S.: Adapting operator probabilities in genetic algorithms. Schaffer J. (ed.), ICGA – 3, pp. 61 – 69, Morgan Kaufmann Publishers, 1989.

[76] Davis L. S.: Applying adaptive algorithms in epistatic domains. IJCAI, 1985. [77] Davis L. S.: Handbook of genetic algorithms. Van Nostrand Reinhold, 1991.

[78] Davis L. S.: Hybridization and numerical representation. Davis L. (ed.), Handbook of Genetic Algorithms. pp. 61 – 71, 1991.

[79] De Jong K. A., Fogel D. B., Schwefel H. P.: A history of evolutionary computation. Bäck Th., Fogel D. B., Michalewicz Z. (ed.): HEC, chapter A2.3, pp. 1 – 12, Oxford University Press, New York, and Institute of Physics Publishing, 1997.

[80] De Jong K. A., Potter M. A., Spears W. M.: Using problem generators to explore the effects of

epistasis. ICGA, Bäck Th. (ed.), pp. 338 – 345, Morgan Kaufmann Publishers, 1997.

[81] De Jong K. A., Spears W. M., Gordon D. F.: Using genetic algorithms for concept learning. Machine Learning. 13, pp. 161 – 188, 1993.

[82] De Jong K. A., Spears W. M.: A formal analysis of the role of multi – point crossover in genetic

algorithms. Annals of Mathematics and Artificial Intelligence, 5, pp. 1 – 26, 1992.

[83] De Jong K. A., Spears W. M.: An analysis of the interacting roles of population size and crossover

in genetic algorithms. Schwefel P. H., Männer R. (ed.): PPSN – 90, pp. 38 – 47, Springer – Verlag,

1991.

[84] De Jong K. A., Spears W. M.: Learning concept classification rules using genetic algorithms. IJCAI – 12, 2, pp. 651 – 656, Morgan Kaufmann Publishers, 1991.

[85] De Jong K. A., Spears W. M.: On the state of evolutionary computation. Forrest S. (ed.), ICGA – 5, pp. 618 – 623, Morgan Kaufmann Publishers, 1993.

[86] De Jong K. A., Spears W. M.: Using genetic algorithms to solve NP – complete problems. ICGA, pp. 124 – 132, 1989.

[87] De Jong K. A.: An analysis of the behavior of a class of genetic adaptive systems. PhD. Dissertation, University of Michigan, Ann Arbor, 1975.

[88] De Jong K. A.: Are genetic algorithms function optimizers? PPSN – 2, 1992.

[89] De Jong K. A.: Genetic – algorithm – based learning. Michalski R. (ed.): Machine Learning, Vol. 3, pp. 611 – 638, 1990.

[90] De Jong K. A.: Genetic algorithms are not function optimizers. Whitley L. D. (ed.): Foundations of Genetic Algorithms - 2, pp. 5 – 18, Morgan Kaufmann Publishers, 1992.

[91] De Jong K. A.: Introduction to second special issue on genetic algorithms. Machine Learning, 5, pp. 351 – 353, 1990.

[92] Deb K., Spears W. M.: Population structures: speciation methods. Bäck Th.,

Fogel D. B., Michalewicz Z. (ed.): HEC, pp. C6.2:1 – C6.2:5, Institute of Physics Publishing and Oxford University Press, 1997.

[93] Deb K.: An introduction to genetic algorithms. Sadhan a Journal, 24, pp. 293 – 315, 1999.

[94] Deb K.: Evolutionary algorithms for multi - criterion optimization in engineering design. Miettinen

K. et al. (ed.): Evolutionary Algorithms in Engineering and Computer Science, pp. 135 – 161, 1999.

[95] Dirk V. A.: Evolution strategies in noisy environments - A survey of existing work. Proceedings of the 2nd EvoNet Summer School on Theoretical Aspects of Evolutionary Computing, 1999.

[96] Dzubera J., Whitley L. D.: Advanced correlation analysis of operators for the traveling salesman

problem. PPSN, pp. 68 – 77, 1994.

[97] Eiben A. E. et. al.: Orgy in the computer: multi – parent reproduction in genetic algorithms. ECAL – 5, 1995.

[98] Eiben A. E., Bäck Th.: An empirical investigation of multi – parent recombination operators in

evolution strategies. Evolutionary Computation, 5, pp. 347 – 365, 1997.

[99] Eiben A. E., Rauffe P. E., Ruttkay Zs.: Genetic algorithms with multi – parent recombination. PPSN – 3, pp. 78 – 87, 1994.

[100] Eiben A. E., Rudolph G.: Special issue on the theory of evolutionary computation – Preface. Theoretical Computer Science, 229, pp. 1 – 2, 1999.

[101] Eshelman J. L., Caruana A. R, Schaffer D. J.: Biases in the crossover landscape. Schaffer D. J. (ed.), ICGA – 3, pp. 10 – 19, Morgan Kaufmann Publishers, 1989.

[102] Eshelman J. L., Schaffer D. J.: Crossover's niche. Forrest (ed.), ICGA – 5, pp. 9 – 14, 1993. [103] Eshelman J. L., Schaffer J. D.: Productive recombination and propagating and preserving

schemata. Vose M., Whitley L. D. (ed.), FOGA – 3, pp. 299 – 313, Morgan Kaufmann

Publishers, 1994.

[104] Eshelman J. L.: The CHC adaptive search algorithm. How to have safe search when engaging in

nontraditional genetic recombination. Rawlins G. (ed.), FOGA, pp. 265 – 283, Morgan Kaufmann

Publishers, 1991.

[105] Fitzpatrick J. M., Grefenstette J.: Genetic algorithm in noisy environments. Machine Learning, 3, pp. 101 – 120, 1988.

[106] Fogel D. B., Atmar J. W.: Comparing genetic operators with Gaussian mutations in simulated

evolutionary processes using linear search. Biological Cybernetics, 63, pp. 111 – 114, 1990.

[107] Fogel D. B.: An analysis of evolutionary programming. Proceedings of the 1st Annual Conference on Evolutionary Programming, pp. 43 – 51, Evolutionary Programming Society, 1992.

[108] Fogel L. J., Owens J. A., Walsh M. J.: Artificial intelligence through simulated evolution. John Wiley & Sons Publishing, 1966.

[109] Fontanari F. J., Meir R.: The effect of learning on the evolution of asexual populations. Complex Systems, 4, pp. 401 – 414, 1990.

[110] Forrest H. et al.: Genetic programming: biologically inspired computation that exhibits cteativity in

solving non – trivial problems.

[111] Forrest S., Javornik B., Smith R., Perelson A.: Using genetic algorithms to explore pattern

recognition in the immune system. Evolutionary Computation – 3, 1, pp. 191 – 211, 1993.

[112] Forrest S., Mitchell M.: Relative building – block fitness and the building – block hypothesis. FOGA – 2, pp. 109 - 126, 1992.

[113] Forrest S.: Emergent computation. Physica D, 42, 1990.

[114] Forrest S.: Genetic algorithms: principles of natural selection applied to computation. Science,

261, pp. 872 – 878, 1993.

[115] Frank J., Cheeseman P., Stutz J.: When gravity fails: local search topology. Journal of Artificial Intelligence Research 7, pp. 249 – 281, 1997.

[116] Fraser A. S.: Simulation of genetic systems by automatic digital computers. Australian Journal of Biological Science, 10, pp. 484 – 491, 1957.

[117] Friedman J. G.: Digital simulation of an evolutionary process. General Systems Yearbook, 4, pp. 171 – 184, 1959.

[118] Gen, Mitsuo, Cheng, Runwei.: Genetic algorithms and engineering design. John Wiley & Sons Publishing, 1997.

[120] Goldberg D., Bridges C.: An analysis of a reordering operator on a genetic algorithms – hard

problem. Biological Cybernetics, 62, pp. 397 – 405, 1990.

[121] Goldberg D., Deb K., Korb B.: Don’t worry, be messy. ICGA – 4, pp. 24 – 30, Morgan Kaufmann Publishers, 1991.

[122] Goldberg D., Deb, K.: A comparative analysis of selection schemes used in genetic algorithms. Rawlins G. (ed.), FOGA, pp 69 – 93, Morgan Kaufmann Publishers, 1991.

[123] Goldberg D., Korb B., Deb, K.: Messy genetic algorithms: motivation, analysis, and first results. Complex Systems, 4, pp. 415 – 444, 1989.

[124] Goldberg D., Rudnick W. M: Genetic algorithms and the variance of fitness. Complex Systems, 5, pp. 265 – 278, 1991.

[125] Goldberg D.: Genetic algorithms in search, Optimization and Machine Learning. Reading,

Addison–Wesley, 1989.

[126] Goldberg D.: Simple genetic algorithms and the minimal, deceptive problem. Davis L. (ed.):

Genetic Algorithms and Simulated Annealing, pp: 74 – 88, Morgan Kaufmann Publishers, 1987. [127] Goldberg D.: Sizing populations for serial and parallel genetic algorithms. ICGA – 3,

pp. 70 – 79, Morgan Kaufmann Publishers, 1989.

[128] Goldberg D.: Algorytmy genetyczne i ich zastosowania. WNT, 1995.

[129] Gordon V. S., Whitley L. D., Böhm A. P.: Dataflow parallelism in genetic algorithms. PPSN, pp. 533 – 542, 1992.

[130] Gordon V. S., Whitley L. D.: A machine – dependent analysis of parallel genetic algorithms. Complex Systems, 8, pp. 181 – 214, 1994.

[131] Gordon V. S., Whitley L. D.: Serial and parallel genetic algorithms as function optimizers. Forrest S. (ed.), ICGA – 5, pp. 177 – 183. Morgan Kaufmann Publishers, 1993.

[132] Gorges – Schleuter M.: Explicit parallelism of genetic algorithms through population structures. PPSN, pp. 150 – 159, Springer Verlag, 1991.

[133] Graf J., Banzhaf W.: Interactive evolution of images. McDonnell J. R., Reynolds R. G., Fogel D. B. (ed.), ACEP – 4, pp. 53 – 65, The MIT Press, 1995.

[134] Grefenstette J. J., Baker J. E.: How genetic algorithms work: a critical look at implicit parallelism. ICGA – 3, pp. 20 – 27, Morgan Kaufmann Publishers, 1989.

[135] Grefenstette J. J.: A system for learning control strategies with genetic algorithms. ICGA – 3, pp. 183 – 190, Morgan Kaufmann Publishers, 1989.

[136] Grefenstette J. J.: Deception considered harmful. Whitley L. D. (ed.), FOGA – 2, pp. 75 – 92, Morgan Kaufmann Publishers, 1992.

[137] Gruau F., Whitley L. D., Pyeatt L.: A comparison between cellular encoding and direct encoding

for genetic neural networks. ACGP – 1, pp. 81 – 89, The MIT Press, 1996.

[138] Grünz L., Beyer G. H.: Some observations on the interaction of recombination and self –

adaptation in evolution strategies. Angeline P. J., Porto V. W. (ed.), CEC, 1, pp. 639 – 645, IEEE

Press, 1999.

[139] Guerra – Salcedo C. Whitley L. D.: Genetic search for feature subset selection: a comparison

between CHC and GENESIS. Koza J. R., Banzhaf W., Chellapilla K., Deb K., Dorigo M., Fogel D.

B., Garzon M. H., Goldberg D. E., Iba H., Riolo R. L. (ed.), GP, pp. 504 – 509, Morgan Kaufmann Publishers, 1998.

[140] Guerra – Salcedo C., Chen S., Whitley L. D.: Fast and accurate selection using hybrid genetic

strategies. CEC, 1999.

[141] Guerra – Salcedo C., Whitley L. D.: Feature selection mechanisms for ensemble creation:

a genetic search perspective. AAAI & GECCO, Workshop with Data Mining with Evolutionary

[142] Guerra – Salcedo C., Whitley L. D.: Genetic approach to feature selection for ensamble creation. AAAI & GECCO, 1999.

[143] Guerra – Salcedo C., Whitley L. D.: Genetic search for feature subset selection: a comparison

between CHC and GENESIS. Proceeding of the Genetic Programming Conference, 1988.

[144] Günter R.: Local performance measures: Genetic algorithms. Bäck Th., Fogel D. B., Michalewicz

Z. (ed.): HEC, chapter B2.4, pp. 20 – 27, Oxford University Press, New York, and Institute of Physics Publishing, 1997.

[145] Heckendorn R. B., Whitley L. D., Rana B. S.: Nonlinearity, hyperplane ranking and the simple

genetic algorithm. FOGA – 4, pp. 181 – 201, Morgan Kaufmann Publishers, 1997.

[146] Heitkötter J., Beasley D.: The Hitch – Hiker’s Guide to evolutionary computation. ed. 6.3, http://www.informatik.uni-siegen.de/~pmerz/ea/www/ top.htm, 5.12.2000.

[147] Heitkötter J., Beasley D.: The Hitch – Hiker’s Guide to evolutionary computation. ed. 8.2, http://alife.santafe.edu/~joke/encore/www/, 11.01.2001.

[148] Hillis D. W.: Co – evolving parasites improve simulated evolution as an optimization procedure. Physica D, 42, pp. 228 – 234, 1990.

[149] Hinton E. G., Nowlan S. J.: How learning can guide evolution. Complex Systems, 1, pp. 495 – 502, 1987.

[150] Hoffmeister F., Bäck Th.: Genetic algorithms and evolution strategies: similarities and differences. Schwefel H. P., Männer R. (ed.), PPSN – 1, pp. 455 – 469, 1991.

[151] Hojjat A.: Machine learning: neural networks, genetic algorithms and fuzzy systems.

John Wiley & Sons Publishing, 1995.

[152] Holland J. H.: Outline for a logical theory of adaptive systems. Journal of the Association for Computing Machinery, 3, pp. 297 – 314, 1962.

[153] Holland J. H., Holyoak K. J., Nisbett R. E., Thagard P.: Induction: Processes of inference,

learning, and discovery. The MIT Press, 1986.

[154] Holland J. H.: Adaptation in natural and artificial systems. The MIT Press. 2nd edition (1st edition, 1975), 1992.

[155] Holland J. H.: Adaptation in natural and artificial systems. University of Michigan Press, 1975.

Powiązane dokumenty