• Nie Znaleziono Wyników

Podsumowanie analizy wrażliwości

W dokumencie Index of /rozprawy2/11036 (Stron 115-122)

Na bazie wyników 120 symulacji wygenerowano modele aproksymacyjne, które następnie wykorzystano do oceny wpływu zmiennych modelu symulacyj-nego na funkcję celu w postaci wydobycia gazu na koniec 20-letniego okresu eksploatacji. Podstawowym celem przeprowadzonej analizy wrażliwości była identyfikacja parametrów o największym wpływie na eksploatację. Interpretu-jąc wyniki przeprowadzonych analiz należy pamiętać, że w pewnym stopniu są one pochodną przyjętych zakresów wartości, a zmiana granic przedziałów może wpływać na klasyfikację spodziewanych efektów. Na przykład rozsze-rzenie w górę zakresu wartości przepuszczalności matrycy spowoduje wzrost szacowanego wpływu tego parametru na wydobycie (Klimkowski, Nagy, 2014). Wiarygodność modeli proxy zależy również od ilości i jakości danych użytych do ich konstrukcji.

Podsumowując uzyskane wyniki należy zwrócić uwagę, że wśród kluczo-wych wskaźników efektywności modelu złoża łupkowego znajdują się przede wszystkim parametry strefy szczelinowanej - rozmieszczenie i zasięg szczelin hydraulicznych, czyli zmienne, na które (w mniejszym lub większym stopniu) można wpływać poprzez odpowiednie prowadzenie zabiegów szczelinowania. Przepuszczalność szczelin hydraulicznych, jeżeli jest w odpowiednim kontra-ście do przepuszczalności złoża, z długoterminowego punktu widzenia nie musi osiągać bardzo wysokich wartości, chociaż determinuje wydajność w pierw-szych miesiącach eksploatacji.

Spośród właściwości skały złożowej (matrycy i systemu szczelin) najwięk-szy wpływ na eksploatację ma porowatość matrycy skalnej oraz parametry determinujące zdolność skały do przewodzenia płynów, tj. gęstość sieci szcze-lin naturalnych, ich przewodność oraz przepuszczalność matrycy skalnej. Do kluczowych parametrów modelu należy również zaliczyć nasycenie wodą zwią-zaną (bezpośredni wpływ na zasoby początkowe, jak porowatość) i ilość gazu zaadsorbowanego, czyli objętość Langmuira.

Najmniejszy wpływ na wydobycie spośród 12 badanych parametrów mo-delu mają: ciśnienie Langmuira, dyfuzja molekularna i ściśliwości przestrzeni

porowej. W oparciu o rezultaty przeprowadzonych analiz zdecydowano, że pa-rametry te nie będą brały udziału przy konstruowaniu zastępczego modelu złożowego.

Rozdział 6

Zastępczy model złożowy

Celem niniejszej pracy jest opracowanie modelu zastępczego opartego na sztucznej sieci neuronowej, który umożliwiałby możliwie dokładną aproksyma-cję modelu numerycznego przy jednoczesnym ograniczeniu czasochłonności sy-mulacji. Dodatkowym wymogiem jaki postawiono przed modelem zastępczym jest minimalizacja zapotrzebowania na dane, w oparciu o które trenowana jest SSN. Jakość aproksymacji rozwiązania przez SSN związana jest z jednej strony z samą siecią neuronową (jej strukturą i zastosowanymi funkcjami aktywacyj-nymi) oraz jakością bazy danych (ciągów uczących) wykorzystanych w procesie uczenia i walidacji sieci z drugiej strony.

Przez jakość bazy danych należy rozumieć stopień w jakim uogólnia ona przestrzeń zagadnienia w ramach określonej liczby realizacji, tj. punktów repre-zentujących tę przestrzeń. Przy czym, z punktu widzenia postawionego celu, należało dążyć do minimalizacji „kosztu” tworzonej bazy danych, czyli licz-by realizacji symulacji numerycznych. Na wymiar pakietu danych uczących istotny wpływ ma oczywiście liczba parametrów wejściowych modelu. I tak w przypadku 9 zmiennych określonych trzema predefiniowanymi wartościami każda, otrzymamy 39 = 19 683 możliwych realizacji. Zwiększając pulę wartości, które mogą przyjmować zmienne wejściowe do 5, otrzymamy przestrzeń złożo-ną z 59 = 1 953 125 punktów. Dodanie kolejnego parametru będzie skutkować powstaniem przestrzeni o ogromnej liczbie punktów równej 510 = 9 765 625. Przy tak dużej liczbie wariantów analizowanego zagadnienia kluczowym staje się:

1. ograniczenie wymiarowości zagadnienia,

2. optymalizacja eksperymentu (próbki reprezentującej analizowaną przestrzeń). Proces projektowania bazy danych uczących modelu zastępczego jak i sa-mej sieci jest w zasadzie działaniem eksperymentalnym. Dobór struktury sieci związany jest ściśle z ilością i jakością dostępnych danych (ciągów uczących). Jednocześnie w celu opracowania wiarygodnego i stabilnego modelu

„sieciowe-go” należy zapewnić pewną minimalną konieczną ilość ciągów uczących. Ina-czej mówiąc, jeżeli baza danych uczących jest zbyt mała (lub nie reprezentuje w wystarczającym stopniu całej przestrzeni zagadnienia - jest nieoptymalna), nie da się prawidłowo wytrenować sztucznej sieci neuronowej, niezależnie od jej struktury (liczby neuronów i warstw).

W kontekście niniejszej pracy próbką jest zbiór n kombinacji wartości określonych parametrów złoża i strefy stymulowanej (szczelin hydraulicznych). Wartości poszczególnych parametrów są predefiniowane w postaci zbioru war-tości dyskretnych (losowanie odbywa się z określonego zbioru). Przestrzeń za-gadnienia ma wymiar równy ilości zmiennych (parametrów), a każdy zestaw wartości parametrów modelu jest punktem w tej przestrzeni.

Redukcję wymiarowości analizowanego zagadnienia zrealizowano poprzez określenie parametrów o decydującym wpływie na przebieg eksploatacji i od-rzucenie tych o znaczeniu najmniejszym. W tym celu przeprowadzono analizę wrażliwości (AW) modelu symulacyjnego na poszczególne parametry. Funkcją celu braną pod uwagę w tej analizie była wydajność eksploatacji i sumaryczne wydobycie gazu. Eksperyment (próbkę przestrzeni zagadnienia) zaprojektowa-no z wykorzystaniem metody próbkowania Latin hypercube optymalizowanej z użyciem algorytmów genetycznych wykorzystujących kryteria oparte na dy-stansie. Poniżej przedstawiono efekty prac nad doborem koniecznej ilości re-alizacji (symulacji numerycznych) oraz strukturą sieci.

6.1 Optymalizacja bazy danych - próbkowanie Latin

hy-percube

Pierwszym i najważniejszym krokiem w procesie budowy modelu opar-tego na sztucznej inteligencji jest opracowanie reprezentatywnej bazy danych. Zakres w jakim baza danych odzwierciedla przepływ płynu w modelowanym złożu determinuje stopień powodzenia przy tworzeniu efektywnie działającego modelu (Mohaghegh, 2011).

W przypadku modelu jednoodwiertowego baza danych powinna zawie-rać charakterystykę skały złożowej, parametry strefy stymulowanej (szczelin hydraulicznych) oraz przebieg wydobycia w czasie. Na tej podstawie SSN znaj-duje zależności między wydobyciem i parametrami udostępnionej strefy, „uczy się” ich, a następnie może działać w trybie prognostycznym. Do wygenerowania bazy danych tak zdefiniowanego modelu zastępczego niezbędny jest symula-tor numeryczny, a zadaniem ZMZ nie jest wyeliminowanie, ale rozszerzenie możliwości tego narzędzia. Opracowanie wartościowej bazy danych wymaga zastosowania metod projektowania eksperymentu właściwych dla modelowa-nego zagadnienia.

Projektowanie eksperymentu lub planowanie doświadczeń (z ang. design

of experiments, DOE) jest interdyscyplinarną dziedziną nauki leżącą na

po-graniczu metrologii, matematyki stosowanej, statystyki i informatyki. Jej ce-lem jest uzyskanie odpowiedzi na pytanie: jak zaplanować doświadczenie, aby przy możliwie najmniejszych kosztach uzyskać jak najwięcej użytecznej infor-macji (Pietraszek, 2004). Zatem w obszarze symulacji numerycznych zadanie DOE polega na maksymalizacji ilości informacji pozyskiwanych o modelowa-nym obiekcie czy też procesie, na podstawie określonej i możliwie jak naj-mniejszej liczby realizacji (symulacji). W ramach DOE wyróżnić można wiele metod, a do najczęściej stosowanych należą:

- klasyczne metody dwupoziomowe: full factorial, fractional factorial,

Plackett-Burmann,

- klasyczne metody trójpoziomowe: full factorial, Box-Behnken, Central

Composite,

- Monte Carlo, - Latin hypercube.

Modelowanie eksploatacji gazu ze złoża łupkowego wiąże się z działa-niem na wielu zmiennych (znaczna wymiarowość przestrzeni zagadnienia), jak również jest problemem silnie nieliniowym (interakcje między parametrami modelu). Biorąc pod uwagę powyższe i dążąc do minimalizacji ilości punk-tów w próbce oraz maksymalizacji jej jakości, do projektowania eksperymentu symulacyjnego wykorzystano metodę Latin hypercube (LH).

6.1.1 Próbkowanie Latin hypercube

W podstawowej wersji metody Latin hypercube opracowanej przez McKay (McKay, 1979) zakres wartości poszczególnych parametrów określony przedzia-łem [0,1] dzielony jest na n przedziałów o jednakowym prawdopodobieństwie wystąpienia, a próbkowanie odbywa się z każdego przedziału. Metoda ta po-zwala unikać ponownego wylosowania tego samego punktu (co nie jest wyklu-czone w przypadku metod stricte losowych), jednak nie wyklucza generowania próbek skorelowanych. Na Rys. 6.1 przedstawiono dwa proste przykłady pró-bek LH w przestrzeni dwuwymiarowej o całkowicie skorelowanych punktach. Istotną modyfikację metody zaproponował Tang (1993), umożliwiając definio-wanie parametrów za pomocą dowolnej liczby dyskretnych wartości w miejsce przedziału [0,1]. Kolejnym krokiem w rozwoju próbkowania Latin hypercu-be był „hiper-sześcian prostopadły” (orthogonal Latin hypercuhypercu-be) (Ye, 1998). Hipersześcian prostopadły to próbka LH zaprojektowana tak, że każda para kolumn w jej obrębie ma zerową korelację. Co więcej, po podniesieniu elemen-tów kolumn do kwadratu dowolna kolumna ma zerową korelację ze wszystkimi pozostałymi; taką samą właściwość posiada iloczyn dowolnych dwóch kolumn. Dzięki temu zapewniona jest niezależność oszacowań efektów liniowych wszyst-kich zmiennych oraz brak korelacji między nimi a aproksymacjami efektów „kwadratowych” i efektów interakcji parametrów w tzw. modelach proxy.

6.1.2 Algorytm genetyczny

Dla uzyskania jak najlepszego odwzorowania przestrzeni zagadnienia na etapie projektowania eksperymentu LH zastosowano algorytm genetyczny wy-korzystujący kryterium S -optymalizacji. Kryterium optymalizacyjne S należy do grupy kryteriów opartych na dystansie między punktem x w p-wymiarowej przestrzeni Euklidesowej Rp a zbiorem A należącym do tej przestrzeni (A ⊂ Rp

), gdzie p jest liczbą parametrów modelu. W S-optymalizacji dąży się do maksymalizacji średniego harmonicznego dystansu każdego punktu do wszystkich pozostałych punktów w próbce. Zatem eksperyment (czy też prób-ka) S-optymalny charakteryzuje się względnie dużymi odległościami d(x, A), a próbki są możliwie najbardziej rozproszone w całej przestrzeni eksperymen-tu. Inaczej mówiąc, optymalnie zaprojektowany eksperyment, przy założonej liczbie próbek, odzwierciedla charakterystykę przestrzeni modelowanego pro-blemu możliwie najlepiej.

Procedura genetycznej optymalizacji próbkowania LH przedstawia się następująco (Stocki, 2015):

1. populacja początkowa - losowe generowanie zestawu eksperymentów w oparciu o standardowe próbkowanie Latin hypercube,

2. selekcja - na podstawie przyjętego kryterium optymalizacyjnego wyse-lekcjonowane zostają najlepsze próbki w ilości równej połowie populacji; najlepsza próbka spośród „ocalałych” zostaje przeznaczona do „rozmna-żania”,

3. krzyżowanie - losowo wybrana kolumna z macierzy najlepszego ekspery-mentu zostaje podstawiona w miejsce losowo wybranych kolumn w po-zostałych macierzach. Proces realizowany jest również w drugą stronę: losowo wybrana jedna kolumna z każdej tablicy z grupy „pozostałych” jest podstawiana do kopii najlepszej macierzy - tak powstaje „potom-stwo”.

4. mutacja - w każdej z tablic-potomków wywoływana jest „mutacja gene-tyczna”, polegająca na zamianie miejscami dwóch elementów w kolum-nie.

parame-try takie jak: liczba eksperymentów w populacji startowej, liczba „pokoleń”, prawdopodobieństwo wystąpienia mutacji.

Do planowania doświadczeń symulacyjnych w tramach pracy wykorzy-stano środowisko do obliczeń statystycznych R2.

W dokumencie Index of /rozprawy2/11036 (Stron 115-122)