• Nie Znaleziono Wyników

Sztuczna inteligencja w eksploatacji złó˙z w˛eglowodorów

W dokumencie Index of /rozprawy2/11282 (Stron 76-85)

3.4 Rozwi ˛ azanie problemu optymalizacyjnego z wykorzystaniem sztucznej inte-

3.4.2 Sztuczna inteligencja w eksploatacji złó˙z w˛eglowodorów

Rozwi ˛azanie przedstawionego problemu optymalizacyjnego opiera si˛e na wykorzystaniu elementów sztucznej inteligencji. Sztuczna inteligencja (ang. AI - artificial inteligence) to zespół narz˛edzi analitycznych umo˙zliwiaj ˛acych na´sladowanie inteligentnych zachowa´n czło-wieka w rozwi ˛azywaniu problemów in˙zynierskich zwi ˛azanych z przewidywaniem, wyci ˛ aga-niem wniosków oraz działaaga-niem [56, 252]. Metody sztucznej inteligencji obecne s ˛a w bran˙zy naftowej od roku 1970, a zastosowania zostały szeroko przedstawione w ´swiatowej literatu-rze dokumentuj ˛ac wykorzystanie sztucznych sieci neuronowych [5, 7, 52, 115, 121, 185, 202, 206, 214, 233, 237], logiki rozmytej [13, 135, 151, 153, 164, 191, 201, 238], oblicze´n ewolu-cyjnych [87, 155, 230] czy te˙z systemów eksperckich [16, 82, 239]. Metody AI s ˛a obiektem zainteresowania bran˙zy naftowej, gównie z powodu mo˙zliwo´sci wykorzystania niektórych jej elementów do zarz ˛adzania produkcj ˛a oraz optymalizacj ˛a, tworzeniem uproszczonych suroga-tów symulacyjnych [152] zwłaszcza gdy brak precyzyjnych modeli matematycznych dla złó˙z niekonwencjonalnych oraz wdro˙zeniem koncepcji otworów i złó˙z inteligentnych [95]. Mog ˛a by´c równie˙z stosowane gdy nie jest mo˙zliwe przedstawienie zwi ˛azku pomi˛edzy zmiennymi decyzyjnymi a funkcj ˛a celu co ma miejsce w przypadku realistycznych modeli złó˙z. W tym przypadku odpowied´z zło˙za na zadane sterowanie mo˙zna otrzyma´c stosuj ˛ac skomplikowane procedury numeryczne zwane symulatorami zło˙zowymi.

W niniejszej pracy wykorzystany został algorytm genetyczny algorytm roju cz ˛astek oraz samoorganizuj ˛ace si˛e sieci neuronowe. Poni˙zej przedstawiono charakterystyk˛e wybranych me-tod i adaptacj˛e do rozwi ˛azania problemu optymalizacyjnego. Wybrane metody matematyczne i numeryczne uznaje si˛e za inteligentne poniewa˙z ewolucja rozwi ˛aza´n nast˛epuje w oparciu o wiedz˛e z wcze´sniejszych iteracji. Dodatkowo, wykorzystane algorytmy wprowadzaj ˛a zasad˛e elityzmu, dzi˛eki której najlepsze rozwi ˛azanie w iteracji m zostaje bez zmian przeniesione do iteracji m + 1. Przez elityzm mo˙zemy zatem rozumie´c pami˛e´c algorytmu o najlepszych roz-wi ˛azaniach znalezionych do tej pory, kontroluj ˛ac ˛a konwergencj˛e algorytmu:

ˇ

um+1= f ( ˇum) → Jm+1 = H (Jm, Xm, um) (3.87)

Algorytm genetyczny

Algorytm genetyczny (GA ang. Genetic Algorithm) opiera si˛e na sformułowanej przez Karola Darwina [47] teorii ewolucji. Istot ˛a teorii jest adaptacja rozumiana jako samorzutny proces, polegaj ˛acy na zmianach organizmów na skutek oddziaływania z otoczeniem,

pozwala-j ˛acy na adaptacj˛e z otaczaj ˛acym ´srodowiskiem. Rol ˛a zmian jest poprawa efektywno´sci danego organizmu, zwi˛ekszaj ˛aca jego szanse na prze˙zycie i reprodukcj˛e. Darwinowska teoria ewo-lucji stwierdza, ˙ze adaptacje osobników maj ˛a na celu znalezienie ulepsze´n dotychczasowych rozwi ˛aza´n. Ewolucja oparta jest w wi˛ekszo´sci na dwóch mechanizmach: doboru naturalnego oraz rozmna˙zania. Pierwszy odpowiedzialny jest za wyznaczenie najlepiej przystosowanych jednostek i nadanie im prawa do wydania potomstwa, drugi odpowiada natomiast za ró˙znorod-no´s´c genow ˛a potomstwa. Algorytm genetyczny z powodzeniem stosowany jest w globalnych problemach optymalizacyjnych [240]. Terminologia wykorzystywana do opisu algorytmu ge-netycznego wywodzi si˛e bezpo´srednio z biologicznego nazewnictwa. Osobnikiem (chromoso-mem) nazwane jest ka˙zde potencjalne rozwi ˛azanie problemu optymalizacyjnego. W tej pracy jest to wektor zmiennych decyzyjnych umh. Populacja pocz ˛atkowa ˇum=0 stanowi zbiór chro-mosomów, które b˛ed ˛a poddawane ewolucyjnym modyfikacjom. Przy jej tworzeniu istotne jest zachowanie jak najwi˛ekszej ró˙znorodno´sci osobników, co sprzyja szybkiej ocenie mo˙zliwie du-˙zej liczby potencjalnych rozwi ˛aza´n bez nadmiernego zwi˛ekszania rozmiaru populacji. Przewy-miarowana populacja rozwi ˛aza´n pocz ˛atkowych mo˙ze powodowa´c znaczne wydłu˙zenie czasu oblicze´n, bez znacz ˛acych efektów w postaci podniesienia jako´sci rozwi ˛azania. Najpopularniej-sz ˛a metod ˛a tworzenia populacji pocz ˛atkowej jest losowa generacja chromosomów. Podej´scie takie jest mało efektywne ze wzgl˛edu na mo˙zliwo´s´c wyst˛epowania ogranicze´n w rozwi ˛azaniu zadania. Zasadniczym etapem ka˙zdej iteracji algorytmu jest obliczenie dopasowania osobni-ków wchodz ˛acych w skład populacji poprzez obliczenie odpowiadaj ˛acej mu warto´sci funkcji celu. Dopasowanie jest miar ˛a obrazuj ˛ac ˛a efektywno´s´c rozwi ˛azania przez danego osobnika. Wybór odpowiedniej metody oceny dopasowania jest krytyczny ze wzgl˛edu na działanie al-gorytmu. Funkcja dopasowania jest ł ˛acznikiem mi˛edzy algorytmem powielaj ˛acym pewne za-programowane kroki a rzeczywistym problemem in˙zynierskim. W wielu przypadkach dobór odpowiedniej miary dopasowania nie jest problemem trywialnym, w niniejszej pracy rol˛e t˛e spełnia funkcja celu zadania optymalizacyjnego przedstawiona zale˙zno´sci ˛a 3.55. Z uwagi na fakt, ˙ze dopasowanie liczone jest dla ka˙zdego osobnika populacji w ka˙zdej iteracji rozwi ˛aza´n, miara dopasowania powinna by´c mo˙zliwie prosta jednocze´snie zapewniaj ˛aca odpowiednie cha-rakterystyki istotne w poszukiwaniu rozwi ˛azania. Modyfikacje, który mo˙ze podlega´c populacja pocz ˛atkowa podzielone zostały na dwie zasadnicze grupy:

– ewolucja - polegaj ˛ac ˛a na pomiarze dopasowania ka˙zdego osobnika (bezwzgl˛edne dopa-sowanie do wymogów zadania)

– koewolucja - polegaj ˛aca na dopasowaniu pojedynczego osobnika do własno´sci pozosta-łych członków populacji

W trakcie pracy algorytmu genetycznego nast˛epuje wyłonienie populacji rodzicielskiej. Osobniki tworz ˛ace t˛e pul˛e poddawane s ˛a operacji krzy˙zowania oraz mutacji, prowadz ˛acymi do utworzenia populacji potomnej. Wybór populacji rodzicielskiej najcz˛e´sciej odbywa si˛e na podstawie pojedynczej metody turniejowej [8, 147]. Polega ona na podzieleniu populacji na małe podzbiory zło˙zone najcz˛e´sciej z kilku osobników. Z ka˙zdej grupy wybrana zostaje para osobników o najwy˙zszym dopasowaniu, która zostaje rodzicami rozwi ˛azania potomnego. Naj-lepiej dopasowany osobnik w ka˙zdej iteracji mo˙ze mie´c co najwy˙zej jednego potomka co zapo-biega przedwczesnemu zzapo-bieganiu si˛e algorytmu. Pewnym rozwini˛eciem pojedynczej metody turniejowej jest wprowadzenie elitaryzmu. Powoduje to, ˙ze zawsze w populacji rodzicielskiej znajduje si˛e najlepiej przystosowane rozwi ˛azanie w danej iteracji algorytmu. Na podstawie dost˛epnej puli rodzicielskiej nale˙zy przeprowadzi´c wybór potomków do populacji potomnej. W przypadku zało˙zenia stałej wielko´sci populacji, nowe rozwi ˛azanie jest losowo wstawiane za inne rozwi ˛azanie. Zastosowanie prawdopodobie´nstwa odwrotnego do dopasowania danego osobnika i umieszczenie go w puli potomnej nosi nazw˛e zast˛epowania według reguły ruletki. Najsłabiej dopasowane osobniki ze starej populacji zast˛epowane s ˛a przez nowe, tylko wów-czas gdy nowe maj ˛a lepsze dopasowanie. Zasada działania algorytmów tego typu polega na porównaniu jako´sci dopasowania potomstwa do dopasowania rodziców. W momencie gdy do-pasowanie potomstwa jest lepsze zast˛epuje ono rodziców w populacji rozwi ˛aza´n. Algorytm genetyczny swoje działanie opiera na charakterystycznych operatorach. Pierwszym z nich jest krzy˙zowanie (rekombinacja). Rol ˛a działania operatora krzy˙zowania jest wymiana informacji

pomi˛edzy rodzicami, z pewnym prawdopodobie´nstwem otrzymania potomstwa reprezentuj ˛

a-cego dopasowanie o lepszej jako´sci. Działanie operatora krzy˙zowania polega w pierwszej ko-lejno´sci na losowym wyborze miejsca przeci˛ecia ła´ncuchów chromosomów. Pierwszy potomek powstaje przez skopiowanie pierwszej cz˛e´sci genów rodzica do punktu rozci˛ecia, reszt˛e dobiera si˛e z drugiego rodzica. Potomek drugi tworzony jest w sposób analogiczny z pozostałych cz˛e-´sci genu rodziców. Na potrzeby zobrazowania działania operatora krzy˙zowania przyjmijmy, ˙ze elementem który b˛edzie optymalizowany jest lokalizacja odwiertów produkcyjnych, dlatego te˙z wektor zmiennych decyzyjnych (zale˙zno´s´c 3.67) przybiera posta´c:

u =   T(P ) . . . . . . . . . . . . . . .  , u ∈ G (3.88)

gdzie szczegółowo na podstawie zale˙zno´sci (3.69) mo˙zemy zapisa´c: u =   T(P )=hs1 s2 . . . sN(P ) iT . . . . . . . . . . . . . . .  , u ∈ G (3.89)

Załó˙zmy, ˙ze w m-tej iteracji algorytmu genetycznego osobniki rodzicielskie reprezento-wane s ˛a przez h + 1 oraz h + 2 wektory zmiennych decyzyjnych - umh+1oraz umh+2. W wyniku działania operatora krzy˙zowania jednopunktowego powstaj ˛a dwa osobniki potomne, których potencjalne rozwi ˛azania um+1h+1 oraz um+1h+2 s ˛a kombinacj ˛a rozwi ˛aza´n rodzicielskich jak zostało przedstawione za pomoc ˛a zale˙zno´sci 3.90.

Rodzic 1: umh+1=   T(P )=h s1 s2 . . . sN(P ) iT . . . . . . . . . . . . . . .   Rodzic 2: umh+2=   T(P )= h s1 s2 . . . sN(P ) iT . . . . . . . . . . . . . . .   Krzy˙zowanie ⇓ Potomek 1: um+1h+1 =   T(P )=h s1 s2 . . . sN(P ) iT . . . . . . . . . . . . . . .   Potomek 2: um+1h+2 =   T(P )= h s1 s2 . . . sN(P ) iT . . . . . . . . . . . . . . .   (3.90)

Rozwini˛eciem przedstawionej metody krzy˙zowania jednopunktowego jest krzy˙zowanie wielopunktowe, w którym wybiera si˛e kilka punktów przeci˛ecia chromosomu rodziców. Na-le˙zy równie˙z zaznaczy´c, ˙ze algorytm krzy˙zowania powinien by´c dopasowany do rozwi ˛ azy-wanego problemu optymalizacyjnego jak sugeruje Michalewicz [146]. Drugim z operatorów pracy algorytmu genetycznego jest mutacja. Mutacja przekształca chromosom w inny chro-mosom. Istot ˛a działania operatora krzy˙zowania jest wymiana informacji pomi˛edzy osobnikami, natomiast rol ˛a mutacji jest wprowadzanie niewielkich losowych zmian w pojedynczych osob-nikach zgodnie z przyj˛etym stopniem prawdopodobie´nstwa. Podobnie jak w przypadku re-produkcji istnieje szereg metod mutacyjnych. Przykładowo za punktow ˛a mutacj˛e rozumiemy losow ˛a zmian˛e pojedynczego bitu w chromosomie. W przypadku mutacji wielopunktowej

lo-sowanych jest kilka pozycji genu i zmieniane s ˛a ich warto´sci. Rozwa˙zaj ˛ac działanie operatora mutacji wró´cmy do przykładu operatora krzy˙zowania. Ponownie rozwa˙zamy optymalizacj˛e lo-kalizacji odwiertów produkcyjnych, gdzie m-tej iteracji na osobniku h + 1 zadziałał operator mutacji, zmieniaj ˛ac lokalizacj˛e drugiego odwiertu produkcyjnego s2 na s2 co przedstawione zostało zale˙zno´sci ˛a 3.91. Przed mutacj ˛a: umh+1=   T(P )=h s1 s2 . . . sN(P ) iT . . . . . . . . . . . . . . .   Mutacja ⇓ Po mutacji: um+1h+1 =   T(P )=h s1 s 2 . . . sN(P ) iT . . . . . . . . . . . . . . .   gdzie: s2 6= s2 (3.91)

Operator krzy˙zowania pozwala na eksploracj˛e przestrzeni rozwi ˛aza´n, czyli odkrywanie no-wych obszarów mog ˛acych stanowi´c potencjalnie lepsze rozwi ˛azania. Osobnik po krzy˙zowaniu diametralnie ró˙zni si˛e od rodziców powala to na znaczne przemieszczanie si˛e po przestrzeni rozwi ˛aza´n danego problemu. Mutacja natomiast powoduje niewielkie zmiany w rozwi ˛azaniu wykonuj ˛ac eksploracj˛e czyli optymalizacje lokaln ˛a. Znaczenie poszczególnych operatorów genetycznych jako istotnych dla działania algorytmu jest podzielone. Kanerva [116] uwa˙za, ˙ze przedwczesna zbie˙zno´s´c algorytmu, polegaj ˛aca na zatraceniu ró˙znorodno´sci populacji jest konsekwencj ˛a krzy˙zowania, a ´srodkiem zapewniaj ˛acym odpowiedni ˛a dywersyfikacj˛e popula-cji jest mutacja. W swojej pracy wysun ˛ał postulat, ˙ze w problemach optymalizacyjnych opar-tych na algorytmach genetycznych nale˙zy d ˛a˙zy´c do podtrzymania ró˙znorodno´sci populacji by móc eksplorowa´c nowe obszary przestrzeni bez zatracenia wcze´sniej zdobytych informacji. Za działanie algorytmu genetycznego odpowiadaj ˛a dwa mechanizmy. Pierwszy odpowiedzialny za przedstawion ˛a wcze´sniej eksploracj˛e, drugi zwi ˛azany jest z naporem selekcyjnym rozumianym jako stosunek dopasowania najlepszego osobnika w populacji do ´sredniego dopasowania popu-lacji [22]. Wzrost prawdopodobie´nstwa wyst ˛apienia krzy˙zowania lub mutacji, ewentualnie ob-ni˙zenie naporu selekcyjnego prowadzi do zwi˛ekszenia dywersyfikacji populacji jednocze´snie zmniejszaj ˛ac mo˙zliwo´sci eksploatacyjne rozwi ˛aza´n bliskich optymalnym. Sytuacja odwrotna

poprawia zdolno´sci lokalnego przeszukiwania kosztem globalnego, powoduj ˛acych mo˙zliwo´s´c znalezienia rozwi ˛aza´n suboptymalnych. Losowe zmiany wprowadzane przez mutacj˛e pozwa-laj ˛a wyrwa´c si˛e z pułapki minimów lokalnych. Do głównych zalet algorytmu genetycznego nale˙zy zaliczy´c [243]:

– wielopunktowe przeszukiwanie subprzestrzeni rozwi ˛aza´n,

– zdolno´s´c do łatwego pokonywania ekstremów lokalnych, co mo˙ze prowadzi´c do stosun-kowo szybkiego znalezienia ekstremum globalnego funkcji celu,

– mo˙zliwo´s´c szybkiego i efektywnego rozwi ˛azywania nawet bardzo zło˙zonych proble-mów,

– łatwo´s´c implementacji na komputerowych architekturach równoległych,

– prostota ł ˛aczenia algorytmu z istniej ˛acymi modelami i tym samym łatwo´s´c tworzenia systemów hybrydowych,

– niewymagaj ˛ace znajomo´sci gradientów, niedost˛epnych dla komercyjnych symulatorów, – mo˙zliwo´s´c kodowania problemów za pomoc ˛a liczb całkowitych lub

zmiennoprzecinko-wych.

Wykorzystany algorytm genetyczny pochodzi z bibliotek dost˛epnych w oprogramowaniu Matlab, w zestawie narz˛edzi optymalizacyjnych Global Optimization Toolbox [217].

Algorytm roju cz ˛astek

Optymalizacja rojem cz ˛astek (PSO - particle swarm optimization) jest stochastyczn ˛a me-tod ˛a optymalizacyjn ˛a bazuj ˛ac ˛a na populacji rozwi ˛aza´n zaproponowan ˛a przez Eberhardta i Ken-nedyego [55,118]. Algorytm na´sladuje socjalne zachowania stadne, gdzie podczas zdobywania do´swiadczenia cz ˛asteczki oddziałuj ˛a na siebie i wymieniaj ˛a informacjami, przenosz ˛ac si˛e w lepsze obszary przestrzeni rozwi ˛aza´n d ˛a˙z ˛ac tym samym do optimum globalnego [198]. W ka˙z-dej iteracji, ka˙zda cz ˛astka reprezentuj ˛aca indywidualne rozwi ˛azanie, porusza si˛e w przestrzeni rozwi ˛aza´n z pewn ˛a pr˛edko´sci ˛a2rozumian ˛a jako zmiana poło˙zenia cz ˛asteczki (∆u∆mh ) w prze-strzeni rozwi ˛aza´n przypadaj ˛ac ˛a na pewn ˛a ilo´s´c wykonanych iteracji ∆m, gdzie przez poło˙zenie nale˙zy rozumie´c umiejscowienie wektora zmiennych decyzyjnych u w przestrzeni rozwi ˛aza´n dopuszczalnych G która jest podzbiorem przestrzeni zmiennych decyzyjnych Rn. Wynika st ˛ad, ˙ze cz ˛astka reprezentuj ˛aca wektor zmiennych decyzyjnych porusza si˛e w n wymiarowej prze-strzeni, co zostało przedstawione na rysunku 3.12.

2

¯ ¯ uM h umh ¯ uMh G składowa inercyjna składowa kognitywna składowa socjalna um+1h ∆u∆mh

Rysunek 3.12: Interpretacja zmiany poło˙zenia cz ˛astki (wektora zmiennych decyzyjnyc) uhw przestrzeni

rozwi ˛aza´n dopuszczalnych, algorytm PSO

Pr˛edko´s´c przemieszczania si˛e cz ˛astki w przestrzeni rozwi ˛aza´n mo˙ze zosta´c wyra˙zona jako:

Vh∆m= ∆u

∆m h

∆m (3.92)

Zmiana pr˛edko´sci poło˙zenia cz ˛astki mo˙ze zosta´c wyra˙zona jako: ∆u∆mh

∆m =

um+∆mh − um h

∆m (3.93)

Pozycja aktualizowana jest na podstawie własnego do´swiadczenia cz ˛astki w roju oraz przez do´swiadczenie s ˛asiadów. Aktualna zmiana poło˙zenia zale˙zy zatem do poprzedniego najlep-szego poło˙zenia cz ˛astki oraz d ˛a˙zenia do globalnego lub lokalnego wyniku s ˛asiada.

Definiuj ˛ac najlepsze poło˙zenie cz ˛astki h po wykonaniu M iteracji jako ¯uMh :

¯

uMh : J ¯uMh  = max

m=1,...,MJ (umh) (3.94)

oraz najlepsze rozwi ˛azanie ( ¯u¯M) odnalezione przez pewien zbiór cz ˛astek Nu w otoczeniu cz ˛astki umh po wykonaniu M iteracji jako:

¯ ¯ uM: J ¯u¯M = max h=1,...,Nu Ju¯M h  (3.95)

Wektor pr˛edko´sci cz ˛asteczki h mo˙ze zosta´c przedstawiony w postaci [167]: Vh∆m=  c0 wh ∆m + c1y1  ¯uMh − um h ∆m  + c2y2 u¯¯M − um h ∆m   (3.96) gdzie:

c0, c1, c2− skalarne parametry skaluj ˛ace, c ∈ h0, 1i y1, y2 − skalarne parametry losowe,n ∈ h0, 1i

wh − wektor losowego przemieszczenia cz ˛astki h

Aktualizacja poło˙zenia cz ˛astki h w m + 1 iteracji nast˛epuje zgodnie z zale˙zno´sci ˛a:

um+1h = umh + Vh∆m∆m (3.97)

Człon odpowiadaj ˛acy za zmian˛e poło˙zenia składa si˛e z trzech elementów:

– składowej reprezentuj ˛ac ˛a inercj˛e c0wh

∆m,

– składnika kognitywnego kieruj ˛acego cz ˛astk˛e do poprzedniego najlepszego rozwi ˛azania c1y1u¯Mh−um

h

∆m

 ,

– składnika socjalnego sprawiaj ˛acego, ˙ze cz ˛astka przyci ˛agana jest do najlepszej pozycji odnalezionej przez otoczenie cz ˛astki c2y2u¯¯M−umh

∆m



W przypadku problemów optymalizacyjnych z ograniczeniami zale˙zno´sci opisuj ˛ace aktu-alizacj˛e poło˙zenia cz ˛astki mog ˛a generowa´c rozwi ˛azania nie nale˙z ˛ace do przestrzeni rozwi ˛ a-za´n dopuszczalnych. W takim przypadku koniecznym jest zastosowanie modyfikacji głów-nego algorytmu [44, 99], co zastosowano w niniejszej pracy. W przypadku przemieszczenia si˛e cz ˛astki poza obszar rozwi ˛aza´n dopuszczalnych nast˛epuje jej przeniesienie do najbli˙zszej granicy i nadanie jej zerowego przemieszczenia [167]. Działanie algorytmu opiera si˛e na wy-mianie informacji o poło˙zeniu lepszych jako´sciowo miejsc pomi˛edzy cz ˛astkami s ˛asiaduj ˛acymi ze sob ˛a. Topologia s ˛asiedztwa cz ˛astek definiowana jest poprzez macierz s ˛asiedztwa. Wybrane s ˛asiedztwo cz ˛astek mo˙ze w pewnym stopniu mie´c wpływ na jako´s´c działania algorytmu opty-malizacyjnego. Do najcz˛e´sciej wybieranych typów s ˛asiedztw mo˙zemy zaliczy´c gwiazd˛e, pier-´scie´n i klaster [62]. Wybrane topologie s ˛asiedztwa przedstawiono na rysunku 3.13.

Rysunek 3.13: Wybrane topologie s ˛asiedztwa w algorytmie PSO

W przypadku gwia´zdzistego s ˛asiedztwa (rysunek 3.13 a) wszystkie cz ˛asteczki z roju ko-munikuj ˛a si˛e wzajemnie. Algorytm PSO oparty na tej topologii nazwany jest global best [119]. W przypadku zastosowania topologii pier´scienia lub klastra (rysunek 3.13 b lub c) algorytm na-zywany jest local best. Przesuni˛ecie pomi˛edzy poszukiwaniem global best a local best mo˙zna równie˙z uzyska´c przed odpowiedni dobór parametrów skaluj ˛acych c0 - c2. W przedstawionej pracy wykorzystano ogólnodost˛epn ˛a bibliotek˛e psopt dost˛epn ˛a pod adresem [193].

Samoorganizuj ˛ace sieci neuronowe

Samoorganizuj ˛ace mapy cech (SOM - self organizing map), zwane równie˙z sieciami Ko-honena [123,124] s ˛a przykładem sieci uczonych bez nauczyciela [65,96,177]. Sieci SOM wzo-rowane s ˛a na biologicznych zjawiskach percepcji wzrokowej, czuciowej oraz słuchowej [63]. Uczenie sieci polega na przedstawieniu jej jedynie danych wej´sciowych. Skutkiem takiego rozwi ˛azania jest sie´c z regułami opisuj ˛acymi struktur˛e danych. Sieci samoorganizuj ˛ace si˛e wy-kazuj ˛a efekty koherencji oraz kolektywno´sci. Efekt koherencji polega na klasyfikacji danych wej´sciowych w pewne klasy podobie´nstwa, gdzie w´sród obiektów wej´sciowych wykrywane s ˛a automatycznie grupy podobne do innych a jednocze´snie odmienne od pozostałych. Sieci typu Kohenena rozpoznaj ˛a skupienia danych wej´sciowych oraz potrafi ˛a kojarzy´c razem podobne klasy danych, przez co sie´c posiada zdolno´s´c klasyfikacji zgodnie z logik ˛a przedstawianych

danych, która nie jest znana z góry. Neurony poło˙zone w zało˙zonym s ˛asiedztwie współpracuj ˛a ze sob ˛a celem wykreowania najlepszego rozwi ˛azania. Podstawowym zadaniem sieci SOM jest eksploracyjna analiza danych. Sie´c Kohonena zawsze posiada dwie warstwy: warstw˛e wej-´sciow ˛a oraz warstw˛e wyj´sciow ˛a, stanowi ˛ac ˛a wspomnian ˛a wcze´sniej map˛e topologiczn ˛a. War-stwa wyj´sciowa zwykle ma posta´c jedno lub dwuwymiarowej tablicy neuronów [249]. Sieci SOM nie posiadaj ˛a warstw ukrytych, a neuron wyj´sciowy ma tyle współczynników wagowych ile istnieje poł ˛acze´n z neuronami warstwy wej´sciowej. Zadaniem warstwy wej´sciowej jest roz-dysponowanie wektora wej´sciowego do warstwy konkurencyjnej, w której nast˛epuje obliczenie podobie´nstwa wektora swoich wag do wektora warto´sci wej´sciowej. Warstwa konkurencyjna po przeprowadzonym treningu sieci b˛edzie rozpoznawała pewne wzorce zawarte w wektorze danych wej´sciowych. Neurony reprezentuj ˛ace podobne wzorce b˛ed ˛a poło˙zone blisko siebie w warstwie wyj´sciowej.

Ze wzgl˛edu na drugorz˛edne znaczenie sieci SOM w opracowanym modelu optymali-zacyjnym autor niniejszej pracy doktorskiej zrezygnował z szczegółowego opisu procesu uczenia sieci, wskazuj ˛ac równocze´snie na liczne prace traktuj ˛ace o poruszanym zagadnie-niu [25, 142, 187, 218, 251].

W niniejszej pracy sieci SOM zastosowane zostały do klasteryzacji zło˙za w˛eglowodorów, w celu wygenerowania rozwi ˛azania startowego procesu iteracyjnego, na podstawie podobnych potencjałów produkcyjnych co szczegółowo zostało przedstawione w rozdziale 3.6 a wyniki implementacji przedstawione zostały w rozdziale 4.3.

3.5 Optymalizacja liczby odwiertów produkcyjnych i

W dokumencie Index of /rozprawy2/11282 (Stron 76-85)

Powiązane dokumenty