4. METODY MONTE CARLO I PAKIET GEANT
4.1. PODSTAWY TEORETYCZNE
Kluczowym elementem nowoczesnej radioterapii jest jak najdokładniejsze określe
nie rozkładów dawek czy to wewnątrz ciała pacjenta czy też w objętości fantomów stoso
wanych w procedurach kalibracji aparatów do naświetlania. W tym celu wykorzystywane jest specjalistyczne oprogramowanie tzw. system planowania leczenia w radioterapii (z ang. R a d ia to in T reatm en t P la n n in g S ystem s, R T P S) dostarczane przeważnie przez pro
ducenta danego aparatu. Z najpopularniejszych obecnie systemów planowania wymienić można PrecisePLAN firmy Elekta, Eclipse firmy Varian Medical Systems (oraz jego po
przednik CadPlan) czy Theraplan Plus firmy Theratronics. Często system planowania le
czenia jest dedykowany jednemu konkretnemu urządzeniu (np. aparatowi GammaKnife firmy Elekta czy też CybeKnife firmy Accuray). Warto w tym miejscu wspomnieć o syste
mie planowania leczenia ALFARD, który rozwijany jest między innymi przez Centrum Onkologii im Marii Skłodowskiej-Curii w Gliwicach [48]. Do niedawna żaden z systemów planowania leczenia nie traktował wiązki promieniowania jako złożonej z poszczególnych cząstek. Wykorzystywane równania matematyczne traktowały wiązkę jako „całość” a po przez zastosowanie odpowiednich współczynników wagowych odpowiadających różnym sposobom oddziaływania wiązki z materią możliwe było wyznaczenie rozkładów dawek.
Zaletą takiego podejścia są niewątpliwe relatywnie proste obliczenia co w sposób bezpo
średni przekłada się na ich szybkość. Biorąc pod uwagę moc obliczeniową współczesnych komputerów opracowanie standardowego planu leczenia nie zajmuje więc niż kilkadziesiąt sekund. Nawet skomplikowane plany leczenia stosujące techniki dynamiczne takie jak Ra- pidARC czy IMRT można opracować w czasie krótszym niż 30 minut. Niestety analitycz
ne rozwiązanie stosowanych równań jest bardzo często niewykonalne w związku z czym konieczne jest stosowanie przybliżeń, które mogą mieć negatywny wpływ na dokładność obliczeń. Jak do tej pory nie wpływały one znacząco na wyniki leczenia ale wraz z rozw o
jem nowych technik wymagających coraz bardziej precyzyjnego naświetlania zaczynają one stanowić pewien problem. W związku z tym coraz częściej producenci systemów p la
nowania wykorzystują do obliczeń metody Monte Carlo, które pozbawione są tej wady.
Każda cząstka wchodząca w skład wiązki (a także cząstki wtórne) traktowana jest w tym przypadku jako niezależny obiekt. Zaletą tego podejścia jest duża dokładność obliczeń. Po
nieważ jednak oddziaływania każdej z cząstek rozpatrywane są niezależnie, a liczba czą
stek tworzących typową wiązkę sięga 1015, czas potrzebny na wykonanie obliczeń jest zna
cząco dłuższy niż w poprzednim przypadku. Nawet komputery o dużej mocy obliczenio
wej mogą potrzebować kilku godzin na opracowania zadanego planu leczenia. Kompromi
sem jest stosowanie uproszczonych metod Monte Carlo jednak pamiętać należy, iż wraz ze skróceniem czasu przeznaczanego na obliczenia maleje też ich dokładność.
Po raz pierwszy metodę zbliżoną do metody Monte Carlo zaproponował Comte de Buffon w roku 1777. Jego eksperyment polegał na losowym rozrzucaniu igieł o długości L na kartce pokrytej liniami odległymi od siebie o d (przy czym d > L) oraz obliczaniu prawdopodobieństwa przecięcia się igły z linią. Otrzymany metodami analitycznymi wzór ma następującą postać:
Eksperyment ten znany dziś pod nazwą igły Buffona i jest jedną z najprostszych metod ob
liczania wartości liczby n (po raz pierwszy w ten sposób ludolfinę próbował obliczyć Bla- ise Pascal w 1886 roku).
Najogólniej rzecz ujmując metody Monte Carlo służą do obliczania wartości para
metrów fizycznych, których analityczne wyznaczenie jest trudne lub wręcz niewykonalne.
Opierają się one na wielokrotnym losowaniu wartości x badanego parametru a następnie na obliczaniu średniej (x> tak uzyskanych wyników. Centralne Twierdzenie Graniczne po
kazuje, iż wartość średnia <x) jest dobrym estymatorem rzeczywistej wartości badanego parametru a rozkład uzyskiwanych wartości średnich (x) ma kształt rozkładu Gaussa o wariancji ° * . Co więcej twierdzenie to pokazuje, że wraz ze wzrostem liczby loso
wanych wartości x o ix ->0 co oznacza, że średnia wartość (x ) dąży do rzeczywistej wartości badanego parametru. Rozkład wartości x można opisać przy pomocy funkcji gę
stości prawdopodobieństwa p (x ) takiej, że:
x2
J p ( x ) d x = 1 . (4.2)
*1
Można następnie określić dystrybuantę tego rozkładu określoną wzorem:
x
F ( x ) = J p { x ' ) d x ' ; (4.3)
która jest niemalejącą funkcją określającą prawdopodobieństwo tego, że zmienna x przyj
mie dowolną wartość z przedziału *1..x ) i przyjmuje wartości z przedziału (0,1) . Metody Monte Carlo do losowania wartości zmiennej x wykorzystują funkcję odwrotną F"1 do dystrybuanty danego rozkładu. Wartość x badanego parametru wyrażona może zostać wtedy wzorem:
x = F ~ ' ( a ) (4.4)
gdzie argument funkcji a przyjmuje wartości z przedziału 0,1) . Wielokrotne losowanie wartości x sprowadza się zatem do losowania wartości a. Niezwykle istotne jest aby warto
ści te miały jak najbardziej równomierny rozkład. Dlatego kluczową rolę w metodach
Monte Carlo odgrywają generatory liczb losowych. Zasadniczo dzielą się one na dwa typy:
sprzętowe oraz programowe. Do pierwszej grupy należą wszelkie urządzenia, które na podstawie analizy zachowania jakiegoś stochastycznego procesu fizycznego (np. szumu elektrycznego) są w stanie generować ciągi liczb. Tego typu generatory są szczególnie sku
teczne ponieważ przypadkowość realizacji danego procesu fizycznego w określonym prze
dziale czasu sprawia, że uzyskiwane ciągi liczb są całkowicie nieprzewidywalne i niepo
wtarzalne. Drugą grupę generatorów tworzą algorytmy komputerowe, które w wyniku serii złożonych operacji matematycznych generują ciągi liczb pseudolosowych. Pseudoloso- wych ponieważ w przeciwieństwie do generatorów sprzętowych uzyskiwane przy ich po
mocy rezultaty nie są do końca przypadkowe i nieprzewidywalne. Generatory programowe są jednak zdecydowanie łatwiejsze w użytkowaniu jako, że wystarczy zwykły komputer (nie jest potrzebne żaden dodatkowy osprzęt). Najlepsze aktualnie generatory liczb pseu
dolosowych mają powtarzalność (definiowaną jako długość ciągu liczbowego, w którym żaden podciąg liczb się nie powtarza) rzędu 10144 co w przypadku zastosowania w oblicze
niach radioterapeutycznych jest wartością aż nadto wystarczającą. Taką właśnie powtarzal
ność ma standardowy generator liczb pseudolosowych pakietu GEANT4 a mianowicie He- pJamesRandom zaprojektowany przez Freda Jamesa.
Nazwa GEANT4 jest akronimem słów GEometiy And Tracking. Jest on rozprowa
dzany w postaci pakietu bibliotek napisanych w języku C++. Historia tego pakietu sięga roku 1993 kiedy to dwie grupy badaczy - jedna w Europejskim Ośrodku Badań Jądrowych CERN w pobliżu Genewy a druga w KEK w Japonii - postanowiły niezależnie od siebie skonstruować uniwersalne środowisko komputerowe umożliwiające symulowanie rozm a
itych procesów fizycznych. Obie grupy w 1994 roku połączyły siły. Początkowo planowa
no wykorzystać popularny w tamtym czasie język programowania FORTRAN jednak szybko zmieniono zamiary i postanowiono wykorzystać prostszy i dający dużo większe możliwości język C++. Pierwsza oficjalna wersja GEANT'a została opublikowana w 1998 roku. Obecnie najnowsza jest wersja 10.0 (w fazie testów beta), która - podobnie jak star
sze wersje - dostępna jest na serwerach CERNu [49],
Pakiet GEANT4 umożliwia nie tylko symulowanie przeróżnych procesów fizycz
nych - od prostych oddziaływań elektromagnetycznych po złożone reakcje jądrowe uwzględniające modele kwarkowe budowy nukleonów - ale również tworzenie struktur geometrycznych zbudowanych z definiowanych przez użytkownika materiałów. Możliwe jest określanie takich ich własności jak gęstość, skład pierwiastkowy/izotopowy czy nawet temperatura i ciśnienie (w przypadku gazów). Dodatkowo możliwość przeprowadzania operacji logicznych na tworzonych bryłach daje niezwykle duże możliwości kreowania układów eksperymentalnych, ograniczone jedynie wyobraźnią użytkownika i mocą obli
czeniową jego komputera. Dodatkową zaletą GEANT'a są rozbudowane bazy danych za
wierające takie informacje jak parametryzacje stosowanych modeli fizycznych (uzyskane w czasie rzeczywistych eksperymentów) czy dane dotyczące własności rozmaitych mate
riałów (na przykład bazy danych National Institute of Standard and Technology, NIST).
Dane te dostępne są w postaci zewnętrznych bibliotek takich jak G4EMLOW (dane o od działywaniach elektromagnetycznych) czy G4ELASTIC (rozpraszanie elastyczne). Biblio
teki te dostępne są na stronie CERN [49], Jak do tej pory nie jest możliwe uwzględnienie struktury molekularnej wykorzystywanych materiałów. Oznacza to, iż GEANT4 nie może być wykorzystany do eksperymentów, dla których taka informacja jest kluczowa a więc na
przykład spektrografii rentgenowskiej. Należy jednak zaznaczyć, iż kod źródłowy GE- ANT'a jest ogólnodostępny (jest to projekt otwarty) dzięki czemu każdy użytkownik może dokonywać w nim zmian. Jest to niezwykle istotne ponieważ jak każde oprogramowanie 0 tak znacznym stopniu skomplikowania, GEANT nie jest wolny od błędów. Co więcej jest to projekt niezwykle mocno rozwijany w związku z czym nie jest wykluczone, iż w nieda
lekiej przyszłości pojawi się również możliwość uwzględniania struktury molekularnej materii.