• Nie Znaleziono Wyników

4. METODY MONTE CARLO I PAKIET GEANT

4.1. PODSTAWY TEORETYCZNE

Kluczowym elementem nowoczesnej radioterapii jest jak najdokładniejsze określe­

nie rozkładów dawek czy to wewnątrz ciała pacjenta czy też w objętości fantomów stoso­

wanych w procedurach kalibracji aparatów do naświetlania. W tym celu wykorzystywane jest specjalistyczne oprogramowanie tzw. system planowania leczenia w radioterapii (z ang. R a d ia to in T reatm en t P la n n in g S ystem s, R T P S) dostarczane przeważnie przez pro­

ducenta danego aparatu. Z najpopularniejszych obecnie systemów planowania wymienić można PrecisePLAN firmy Elekta, Eclipse firmy Varian Medical Systems (oraz jego po­

przednik CadPlan) czy Theraplan Plus firmy Theratronics. Często system planowania le­

czenia jest dedykowany jednemu konkretnemu urządzeniu (np. aparatowi GammaKnife firmy Elekta czy też CybeKnife firmy Accuray). Warto w tym miejscu wspomnieć o syste­

mie planowania leczenia ALFARD, który rozwijany jest między innymi przez Centrum Onkologii im Marii Skłodowskiej-Curii w Gliwicach [48]. Do niedawna żaden z systemów planowania leczenia nie traktował wiązki promieniowania jako złożonej z poszczególnych cząstek. Wykorzystywane równania matematyczne traktowały wiązkę jako „całość” a po ­ przez zastosowanie odpowiednich współczynników wagowych odpowiadających różnym sposobom oddziaływania wiązki z materią możliwe było wyznaczenie rozkładów dawek.

Zaletą takiego podejścia są niewątpliwe relatywnie proste obliczenia co w sposób bezpo­

średni przekłada się na ich szybkość. Biorąc pod uwagę moc obliczeniową współczesnych komputerów opracowanie standardowego planu leczenia nie zajmuje więc niż kilkadziesiąt sekund. Nawet skomplikowane plany leczenia stosujące techniki dynamiczne takie jak Ra- pidARC czy IMRT można opracować w czasie krótszym niż 30 minut. Niestety analitycz­

ne rozwiązanie stosowanych równań jest bardzo często niewykonalne w związku z czym konieczne jest stosowanie przybliżeń, które mogą mieć negatywny wpływ na dokładność obliczeń. Jak do tej pory nie wpływały one znacząco na wyniki leczenia ale wraz z rozw o­

jem nowych technik wymagających coraz bardziej precyzyjnego naświetlania zaczynają one stanowić pewien problem. W związku z tym coraz częściej producenci systemów p la­

nowania wykorzystują do obliczeń metody Monte Carlo, które pozbawione są tej wady.

Każda cząstka wchodząca w skład wiązki (a także cząstki wtórne) traktowana jest w tym przypadku jako niezależny obiekt. Zaletą tego podejścia jest duża dokładność obliczeń. Po­

nieważ jednak oddziaływania każdej z cząstek rozpatrywane są niezależnie, a liczba czą­

stek tworzących typową wiązkę sięga 1015, czas potrzebny na wykonanie obliczeń jest zna­

cząco dłuższy niż w poprzednim przypadku. Nawet komputery o dużej mocy obliczenio­

wej mogą potrzebować kilku godzin na opracowania zadanego planu leczenia. Kompromi­

sem jest stosowanie uproszczonych metod Monte Carlo jednak pamiętać należy, iż wraz ze skróceniem czasu przeznaczanego na obliczenia maleje też ich dokładność.

Po raz pierwszy metodę zbliżoną do metody Monte Carlo zaproponował Comte de Buffon w roku 1777. Jego eksperyment polegał na losowym rozrzucaniu igieł o długości L na kartce pokrytej liniami odległymi od siebie o d (przy czym d > L) oraz obliczaniu prawdopodobieństwa przecięcia się igły z linią. Otrzymany metodami analitycznymi wzór ma następującą postać:

Eksperyment ten znany dziś pod nazwą igły Buffona i jest jedną z najprostszych metod ob­

liczania wartości liczby n (po raz pierwszy w ten sposób ludolfinę próbował obliczyć Bla- ise Pascal w 1886 roku).

Najogólniej rzecz ujmując metody Monte Carlo służą do obliczania wartości para­

metrów fizycznych, których analityczne wyznaczenie jest trudne lub wręcz niewykonalne.

Opierają się one na wielokrotnym losowaniu wartości x badanego parametru a następnie na obliczaniu średniej (x> tak uzyskanych wyników. Centralne Twierdzenie Graniczne po­

kazuje, iż wartość średnia <x) jest dobrym estymatorem rzeczywistej wartości badanego parametru a rozkład uzyskiwanych wartości średnich (x) ma kształt rozkładu Gaussa o wariancji ° * . Co więcej twierdzenie to pokazuje, że wraz ze wzrostem liczby loso­

wanych wartości x o ix ->0 co oznacza, że średnia wartość (x ) dąży do rzeczywistej wartości badanego parametru. Rozkład wartości x można opisać przy pomocy funkcji gę­

stości prawdopodobieństwa p (x ) takiej, że:

x2

J p ( x ) d x = 1 . (4.2)

*1

Można następnie określić dystrybuantę tego rozkładu określoną wzorem:

x

F ( x ) = J p { x ' ) d x ' ; (4.3)

która jest niemalejącą funkcją określającą prawdopodobieństwo tego, że zmienna x przyj­

mie dowolną wartość z przedziału *1..x ) i przyjmuje wartości z przedziału (0,1) . Metody Monte Carlo do losowania wartości zmiennej x wykorzystują funkcję odwrotną F"1 do dystrybuanty danego rozkładu. Wartość x badanego parametru wyrażona może zostać wtedy wzorem:

x = F ~ ' ( a ) (4.4)

gdzie argument funkcji a przyjmuje wartości z przedziału 0,1) . Wielokrotne losowanie wartości x sprowadza się zatem do losowania wartości a. Niezwykle istotne jest aby warto­

ści te miały jak najbardziej równomierny rozkład. Dlatego kluczową rolę w metodach

Monte Carlo odgrywają generatory liczb losowych. Zasadniczo dzielą się one na dwa typy:

sprzętowe oraz programowe. Do pierwszej grupy należą wszelkie urządzenia, które na podstawie analizy zachowania jakiegoś stochastycznego procesu fizycznego (np. szumu elektrycznego) są w stanie generować ciągi liczb. Tego typu generatory są szczególnie sku­

teczne ponieważ przypadkowość realizacji danego procesu fizycznego w określonym prze­

dziale czasu sprawia, że uzyskiwane ciągi liczb są całkowicie nieprzewidywalne i niepo­

wtarzalne. Drugą grupę generatorów tworzą algorytmy komputerowe, które w wyniku serii złożonych operacji matematycznych generują ciągi liczb pseudolosowych. Pseudoloso- wych ponieważ w przeciwieństwie do generatorów sprzętowych uzyskiwane przy ich po­

mocy rezultaty nie są do końca przypadkowe i nieprzewidywalne. Generatory programowe są jednak zdecydowanie łatwiejsze w użytkowaniu jako, że wystarczy zwykły komputer (nie jest potrzebne żaden dodatkowy osprzęt). Najlepsze aktualnie generatory liczb pseu­

dolosowych mają powtarzalność (definiowaną jako długość ciągu liczbowego, w którym żaden podciąg liczb się nie powtarza) rzędu 10144 co w przypadku zastosowania w oblicze­

niach radioterapeutycznych jest wartością aż nadto wystarczającą. Taką właśnie powtarzal­

ność ma standardowy generator liczb pseudolosowych pakietu GEANT4 a mianowicie He- pJamesRandom zaprojektowany przez Freda Jamesa.

Nazwa GEANT4 jest akronimem słów GEometiy And Tracking. Jest on rozprowa­

dzany w postaci pakietu bibliotek napisanych w języku C++. Historia tego pakietu sięga roku 1993 kiedy to dwie grupy badaczy - jedna w Europejskim Ośrodku Badań Jądrowych CERN w pobliżu Genewy a druga w KEK w Japonii - postanowiły niezależnie od siebie skonstruować uniwersalne środowisko komputerowe umożliwiające symulowanie rozm a­

itych procesów fizycznych. Obie grupy w 1994 roku połączyły siły. Początkowo planowa­

no wykorzystać popularny w tamtym czasie język programowania FORTRAN jednak szybko zmieniono zamiary i postanowiono wykorzystać prostszy i dający dużo większe możliwości język C++. Pierwsza oficjalna wersja GEANT'a została opublikowana w 1998 roku. Obecnie najnowsza jest wersja 10.0 (w fazie testów beta), która - podobnie jak star­

sze wersje - dostępna jest na serwerach CERNu [49],

Pakiet GEANT4 umożliwia nie tylko symulowanie przeróżnych procesów fizycz­

nych - od prostych oddziaływań elektromagnetycznych po złożone reakcje jądrowe uwzględniające modele kwarkowe budowy nukleonów - ale również tworzenie struktur geometrycznych zbudowanych z definiowanych przez użytkownika materiałów. Możliwe jest określanie takich ich własności jak gęstość, skład pierwiastkowy/izotopowy czy nawet temperatura i ciśnienie (w przypadku gazów). Dodatkowo możliwość przeprowadzania operacji logicznych na tworzonych bryłach daje niezwykle duże możliwości kreowania układów eksperymentalnych, ograniczone jedynie wyobraźnią użytkownika i mocą obli­

czeniową jego komputera. Dodatkową zaletą GEANT'a są rozbudowane bazy danych za­

wierające takie informacje jak parametryzacje stosowanych modeli fizycznych (uzyskane w czasie rzeczywistych eksperymentów) czy dane dotyczące własności rozmaitych mate­

riałów (na przykład bazy danych National Institute of Standard and Technology, NIST).

Dane te dostępne są w postaci zewnętrznych bibliotek takich jak G4EMLOW (dane o od ­ działywaniach elektromagnetycznych) czy G4ELASTIC (rozpraszanie elastyczne). Biblio­

teki te dostępne są na stronie CERN [49], Jak do tej pory nie jest możliwe uwzględnienie struktury molekularnej wykorzystywanych materiałów. Oznacza to, iż GEANT4 nie może być wykorzystany do eksperymentów, dla których taka informacja jest kluczowa a więc na

przykład spektrografii rentgenowskiej. Należy jednak zaznaczyć, iż kod źródłowy GE- ANT'a jest ogólnodostępny (jest to projekt otwarty) dzięki czemu każdy użytkownik może dokonywać w nim zmian. Jest to niezwykle istotne ponieważ jak każde oprogramowanie 0 tak znacznym stopniu skomplikowania, GEANT nie jest wolny od błędów. Co więcej jest to projekt niezwykle mocno rozwijany w związku z czym nie jest wykluczone, iż w nieda­

lekiej przyszłości pojawi się również możliwość uwzględniania struktury molekularnej materii.