• Nie Znaleziono Wyników

Metody Monte Carlo

N/A
N/A
Protected

Academic year: 2021

Share "Metody Monte Carlo"

Copied!
33
0
0

Pełen tekst

(1)

Dr Piotr Fronczak

Metody numeryczne

Wykład nr 11

(2)

Metody Monte Carlo

Nazwa „Metody Monte Carlo” pochodzi od metod próbkowania statystycznego znanego z gier losowych granych

w kasynach np. w Monte Carlo.

Choć nazwa “Monte Carlo” została ukuta niedawno (1949) i związana jest

z wykorzystaniem komputerów, metody próbkowania statystycznego są znaczne starsze.

W czasach, gdy obliczenia numeryczne wykonywano na kartce papieru, metody

te wykorzystywano do obliczania całek, których nie moŜna policzyć analitycznie.

(3)

x x

f 1

sin )

( =

2

-2 -1 0 1 2

0.0 0.2 0.4 0.6 0.8 1.0

f( x )

x Zatem całka

=

x

dx x

f x

I

0

' ) ' ( )

(

mająca sens pola pod funkcją przybiera wartości skończone.

RozwaŜmy funkcję

Jeśli wylosujemy na wykresie punkt (a,b) leŜący wewnątrz pokazanego prostokąta, to prawdopodobieństwo, Ŝe

punkt ten leŜy poniŜej krzywej f(x) wyniesie

1 ) ( )

) (

( ↓ = = ⋅

x x I S

x P I

prostokata

Zatem

) ( )

( x = xP

PoniewaŜ I

N P M

N

N

< =

=

↓ ) lim lim

( liczba wszystkich punktów

f(a) b

których dla

punktów, liczba

otrzymujemy

N x M x

I =

N

lim

)

(

(4)

Igła Buffona – prawdopodobnie najbardziej znany przykład zastosowania metod Monte Carlo

Eksperyment w którym wartość π jest przybliŜana poprzez wielokrotne rzucanie igły na powierzchnię pokrytą równoległymi liniami

W 1777 Georges-Louis Leclerc, Comte de Buffon pokazał, Ŝe jeśli igła o długości L jest rzucana przypadkowo na równoległe odległe o d linie, to prawdopodobieństwo, Ŝe igła upadnie na jedną z linii jest równe

) 2 (

)

( d L

d

P × = L

π

Laplace w 1820 zaproponował ekperyment, w którym P(x) oszacowane jest jako stosunek rzutów, w których igła przecięła linię do wszystkich rzutów.

N M d

P L

N

=

=

× 2 lim

)

( π

Czyli

Md NL

N

lim 2

=

π

(5)

Wśród najbardziej znanych eksperymentatorów był Mario Lazzarini, który w 1901 roku ogłosił, Ŝe obliczył wartość PI=3.1415929 z eksperymentu, w którym 2,5 cm igłę

rzucał 3408 razy na kartkę papieru o liniach odległych o 3 cm.

Dokładność rzędu milionowych!

1

Inny sposób obliczenia liczby PI:

1

( )

4 1

2 1

2

[]

lim = π = π

= N

N S N

S o o

(6)

Oszacowanie błędów

Metoda prostokątów (przypomnienie z wykładu 7)

=

N

i

x

i

f h f

I

1

) ( )

(

Błąd wynikał z rozwinięcia w szereg Taylora funkcji f(x) w podobszarze o szerokości h (ta część miała błąd O(h

2

) ) i uwzględnienia duŜej liczby podobszarów (ta część dawała błąd O(h

-1

).

Ogółem błąd wynosił O(h

2

)xO(h

-1

) = O(h) PoniewaŜ liczba podprzedziałów N ~ h

-1

,

h

a b

) (

) ( )

(

1

1

=

+

hf x O N

f I

N

i

i

(7)

Metoda prostokątów w dwóch wymiarach

Dzielimy powierzchnię na N kwadratów o boku h.

Powierzchnia krzywej A jest równa

Nh

2

A =

Błąd wynika z powierzchni kwadratu na krawędzi krzywej, h

2

, (ta część daje wkład O(h

2

)) i z liczby

kwadratów na krawędzi krzywej (ta część daje wkład O(h

-1

)

PoniewaŜ liczba kwadratów N ~ h

-2

) ( )

( )

( h

2

O h

1

O h O ×

=

) (

1/2

2

+

= Nh O N

A

(8)

Metoda prostokątów w trzech wymiarach

Wypełniamy trójwymiarowy obszar N sześcianami o boku h.

Objętość obszaru V jest równa

Nh

3

V =

Błąd wynika z objętości kwadratu na powierzchni obszaru, h

3

,

(ta część daje wkład O(h

3

)) i z liczby kwadratów na powierzchni obszaru (ta część daje wkład O(h

-2

)

PoniewaŜ liczba kwadratów N ~ h

-3

) ( )

( )

( h

3

O h

2

O h O ×

=

) (

1/3

3

+

= Nh O N V

W ogólności objętość d-1 hiperpowierzchni w d wymiarach

) (

1 d/

d

O N

Nh

V = +

Czyli dla ustalonej liczby komórek N wraz ze wzrostem wymiaru wzrasta

rozmiar podprzedziałów oraz błąd obliczeń.

(9)

Błąd metody Monte Carlo

RozwaŜmy powierzchnię A leŜącą

wewnątrz prostego obszaru o powierzchni A’.

Wybierzmy w sposób losowy N’ punktów leŜących wewnątrz obszaru A’.

N z nich leŜy wewnątrz powierzchni A. Zatem oszacowanie pola powierzchni:

' A ' N A = N

KaŜdy punkt ma prawdopodobieństwo znajdowania się w obszarze A:

' A p = A

Zatem, określenie, czy dany punkt leŜy wewnątrz obszaru A jest jak pomiar zmiennej losowej mającej dwie moŜliwe wartości:

1 (punkt leŜy wewnątrz obszaru A) z prawdopodobieństwem p

0 (punkt leŜy poza obszarem a) z prawdopodobieństwem 1-p

(10)

Jeśli przeprowadzimy N’ pomiarów zmiennej losowej x, to liczba punktów leŜących w obszarze A wynosi

=

=

'

1 N

i

x N

Średnia wartość

x N x

N

N

i

'

'

1

=

= ∑

=

gdzie

p p

p

x = 1 × + 0 × ( 1 − ) =

' '

' A

N A p

N

N = =

czyli

Zatem pomiar N prowadzi średnio do właściwego wyniku.

(11)

Wariancja

Dla niezaleŜnych zmiennych losowych wariancja sumy zmiennych równa jest sumie wariancji pojedynczej zmiennej

( ) = (

2

( ) )

2

x δ x

δ

( )

'

( ) '

2

( )

1 2 '

1 2

2

N x x N x

N

i N

i

δ δ

δ

δ  = =

 

=  ∑ ∑

=

=

Zatem:

( )

2 2 2 2 2 2 2

2

x = ( xx ) = x − 2 x x + x = x − 2 x x + x = xx δ

p p

p

x

2

= 1

2

⋅ + 0

2

⋅ ( 1 − ) =

( )

2

2

x = pp δ

( ) ' ( 1 )

2

N = N pp δ

) 1

( ' '

' N p p

A A

N = N ± −

(12)

) 1

( ' '

' N p p

A A

N = N ± −

) 1

( ' '

' '

' N p p

N A A

N N

A = ± −

) 1

' ( ' '

' p p

N A N

N

A = A ± −

Czyli błąd pomiaru powierzchni skaluje się jak N

’(-1/2)

Nasze rozumowanie dotyczyło powierzchni, ale nic nie stoi na przeszkodzie, by podobnie rozwaŜać przestrzenie d-wymiarowe. W dalszym ciągu dysponując N’

losowo wybranymi punktami otrzymujemy to samo skalowanie się błędu.

) ( N

1 d/

O

W metodzie prostokątów

Zatem dla d > 2 błąd w metodzie Monte Carlo będzie mniejszy niŜ w metodzie tradycyjnej.

Wniosek: Metoda Monte Carlo nadaje się do całkowania całek wysokowymiarowych.

(13)

Obliczmy obiema metodami objętość d-wymiarowej kuli (d = 2, 3, 4) o promieniu = 1.

Obszarem obejmującym kulę jest d-wymiarowy sześcian.

d=2

d=3 d=4

Metoda prostokątów Metoda Monte Carlo

(14)

Stanisław Marcin Ulam (ur. 1909 we Lwowie, zm. 1984 w Santa Fe) Współtwórca bomby wodorowej, członek

projektu Manhattan

“Pomysł ten, nazwany później metodą Monte Carlo, wpadł mi do głowy, kiedy podczas choroby

stawiałem pasjanse. ZauwaŜyłem, ze znacznie praktyczniejszym sposobem oceniania prawdo- podobieństwa ułoŜenia pasjansa jest wykładanie kart, czyli eksperymentowanie z tym procesem i po prostu zapisywanie procentu wygranych, niŜ Próba obliczenia wszystkich moŜliwości kombi- natorycznych, których liczba rośnie wykładniczo”

“Jest to zaskakujące z intelektualnego punktu widzenia, I choć moŜe nie całkiem upokarzające, to jednak zmusza do skromności i pokazuje granice tradycyjnego, racjonalnego rozumowania. Jeśli problem jest wystarczająco złoŜony, próbowanie jest lepszym sposobem niŜ badanie wszystkich

łańcuchów moŜliwości.”

Trochę historii

(15)

THE JOURNAL OF CHEMICAL PHYSICS VOLUME 21, NUMBER 6 JUNE, 1953

Equation of State Calculations by Fast Computing Machines

NICHOLAS METROPOLIS, ARIANNA W. ROSENBLUTH, MARSHALL N. ROSENBLUTH, AND AUGUSTA H. TELLER, Los Alamos Scientific Laboratory, Los Alamos, New Mexico

AND

EDWARD TELLER, * Department of Physics, University of Chicago, Chicago, Illinois (Received March 6, 1953)

A general method, suitable for fast computing machines, for investigating such properties as equations of state for substances consisting of interacting individual molecules is described. The method consists of a modified Monte Carlo integration over configuration space. Results for the two-dimensional rigid-sphere system have been obtained on the Los Alamos MANIAC and are presented here. These results are compared to the free volume equation of state and to a four-term virial coefficient expansion.

1087

Jeden z najczęściej cytowanych artykułów naukowych w historii (ok. 12,500 cytowań

w bazie Web of Knowledge do roku 2010)

(16)

Podstawy równowagowych symulacji Monte Carlo

Celem symulacji Monte Carlo jest obliczenie wartości oczekiwanej pewnej wielkości mechanicznej <Q>. Najlepiej zrobić to uśredniając badaną wielkość po wszystkich stanach µ układu, waŜąc składniki średniej przez odpowiadające im prawdopodo- bieństwo Boltzmanna:

=

µ β µ

β µ

µ µ

E E

e e Q Q

W duŜych układach moŜemy uśredniać badaną wielkość tylko po pewnym podzbiorze wszystkich dostępnych stanów. Zatem mamy dany estymator

=

=

=

M

j

E M

i

E

M

j i i

e e Q Q

1 1

µ µ

β β µ

Gdy M  ∞, to Q

M

= 〈Q〉.

(17)

Weźmy na przykład trójwymiarowy model Isinga 10x10x10 spinów.

Liczba dostępnych stanów 2

1000

~ 10

300

Liczba stanów, które moŜemy wziąć pod uwagę przy niezłym komputerze 10

8

. Estymator moŜe zawieść (szczególnie w niskich temperaturach)

Gdybyśmy wiedzieli, które stany są waŜne, a które moŜna pominąć, dostalibyśmy dobry estymator Q

M

juŜ dla małych M.

Oto właśnie chodzi w metodach Monte Carlo:

W jaki sposób wybierać stany do naszego estymatora, by pojawiały się one w nim zgodnie z ich prawdopodobieństwem boltzmannowskim.

MoŜe losować stan zupełnie losowo i akceptować go lub odrzucać z prawdo- podobieństwem proporcjonalnym do e

-βE

?

Lepiej skorzystać z silnika do generowania właściwych stanów – procesu Markowa.

(18)

Procesy Markowa

Proces stochastyczny

– Ruch poprzez szereg dobrze zdefiniowanych stanów w sposób, który zawiera pewien element losowości

Proces Markowa

– Proces stochastyczny bez pamięci

– Wybór następnego stanu zaleŜy tylko od aktualnego stanu, nie zaleŜy od poprzednich

– Proces jest całkowicie zdefiniowany poprzez zbiór prawdopodobieństw przejść π

ij

• π ij

= prawdopodobieństwo wyboru następnego stanu j, będąc obecnie w stanie i.

• Macierz prawdopodobieństw przejść Π - elementy

πij

11 12 13

21 22 23

31 32 33

0.1 0.5 0.4 0.9 0.1 0.0 0.3 0.3 0.4

π π π

π π π

π π π

   

   

Π ≡    = 

   

   

Układ w stanie 1 przejdzie do stanu 3 z prawdopodobieństwem 0.4 Układ w stanie 1 pozostanie w stanie 1 z prawdopodobieństwem 0.1

Układ w stanie 2 nigdy nie przejdzie do stanu 3

Przykład: układ z trzema stanami:

(19)

Warunki macierzy prawdopodobieństw przejść:

– Wszystkie elementy są nieujemne i nie większe niŜ 1 – Suma elementów w wierszu równa się 1

– Prawdopodobieństwo pozostania w danym stanie moŜe być niezerowe.

Rozkład częstości odwiedzin stanów

• RozwaŜmy proces, w którym przechodzimy ze stanu do stanu zgodnie z macierzą Π

– 1→ 2 → 2 → 1 → 3 → 2 → 2 → 3 → 3 → 1 → 2 → 3 → itd.

• Histogram odwiedzin kaŜdego stanu – n

1

= 3 π

1

= 0.33 – n

2

= 5 π

2

= 0.42 – n

3

= 4 π

3

= 0.25

• Po wielu krokach otrzymujemy rozkład graniczny

1 2 3

(20)

• RozwaŜmy iloczyn dwóch takich samych macierzy Π

11 12 13 11 12 13

2

21 22 23 21 22 23

31 32 33 31 32 33

11 11 12 21 13 31 11 12 12 22 13 32

21 11 22 21 23 31 21 12 22 22 23 32

31 11 32 21 33 31 31 12 32 22

. . etc etc

π π π π π π

π π π π π π

π π π π π π

π π π π π π π π π π π π π π π π π π π π π π π π π π π π π π π π π π

   

   

Π ≡    × 

   

   

+ + + +

= + + + +

+ + + π π

33 32

etc .

 

 

 

 + 

 

Wszystkie sposoby przejścia ze stanu 1 do stanu 2 w dwóch krokach

Prawdopodobieństwo

przejścia ze stanu 3 do stanu 2 w dwóch krokach

( ) ( ) ( )

11 12 13

( ) ( ) ( )

21 22 23

( ) ( ) ( )

31 32 33

n n n

n n n

n

n n n

π π π

π π π

π π π

 

 

 

Π ≡  

 

 

W ogólności Π

n

jest macierzą prawdopodobieństw

przejść między stanami w n krokach

(21)

Rozkład graniczny dla n → ∞ - niezaleŜny od stanu początkowego

( ) ( ) ( )

(0) (0) (0)

1

1 0 0

2

0 1 0

3

0 0 1

π = π = π =

( ) ( )

( ) ( ) ( )

11 12 13

( ) (0) ( ) ( ) ( ) ( ) ( ) ( )

1 1 21 22 23 11 12 13

( ) ( ) ( )

31 32 33

1 0 0

n n n

n n n n n n n n

n n n

π π π

π π π π π π π π

π π π

 

 

 

= Π ≡ =

 

 

 

( ) ( ) ( )

1 2 3

π

= π

= π

≡ π

) 0 (

π

i

•Zdefiniujmy jako wersor stanu

•Zatem jest wektorem prawdopodobieństw znalezienia się w danym stanie po n krokach zaczynając od stanu i

n i

n

i( )

= π

(0)

Π

π

(22)

• Własność stacjonarności rozkładu granicznego p

( )

(0)

(0) 1

lim lim

n n i

n n i

π π

π π

→∞

→∞

 

=  Π 

 

=  Π  Π

= Π

i j ji

j

π = ∑ π π

1 1 2 3

2 1 2 3

3 1 2 3

1 2 3 1 2 3

0.1 0.9 0.3 0.1 0.5 0.4

0.5 .1 0.3

. . 0.9 0.1 0.0

0.4 0.0 0.4

0.3 0.3 0.4 e g

π π π π

π π π π

π π π π

π π π π π π

= + +

 

= + 0 +

 

Π =     = + +

 

+ + = + +

Nie są niezaleŜne

π jest lewostronnym wektorem własnym macierzy Π z wartością włąsną równą 1

Taki wektor własny zawsze istnieje dla macierzy, w których elementy w wierszach sumują się do jedności

Równanie na elementy wektora rozkładu granicznego

(23)

i j ji j

π = ∑ π π

i ij j ji

π π = π π

0.1 0.5 0.4 0.9 0.1 0.0 0.3 0.3 0.4 Π =

 

 

 

 

 

Dla danej macierzy Π nie zawsze moŜna spełnić warunek równowagi szczegółowej, np.:

3 32 2 23

π π ≠ π π

zero Równanie na elementy wektora rozkładu granicznego

Wystarczający (ale nie konieczny) warunek na rozwiązanie

Warunek równowagi szczegółowej

Odwracalność mikroskopowa

(24)

• Odwróćmy problem

• …mając dany rozkład graniczny π, jakie prawdopodobieństwa przejścia doprowadzą do uzyskania tego rozkładu?

NaleŜy skonstruować prawdopodobieństwa, które spełniają warunek równowagi szczegółowej

• Jest wiele moŜliwości

( 0.25 0.5 0.25 )

π =

0.97 0.02 0.01 0.01 0.98 0.01 0.01 0.02 0.97

 

 

Π =  

 

 

0 1 0

0.5 0 0.5

0 1 0

 

 

Π =  

 

 

Najmniej wydajna

Najbardziej wydajna

0.0 0.5 0.5 0.25 0.5 0.25

0.5 0.5 0.0

 

 

Π =  

 

 

Metropolis

(25)

Algorytm Metropolisa

Będąc w stanie i…

– Z prawdopodobieństwem τ

ij

, wybierz następny stan j (τ

ij

= τ

ji

) – jeśli π

j

> π

i

, zaakceptuj j jako nowy stan

– Jeśli π

j

≤ π

i

, zaakceptuj stan j z prawdopodobieństwem π

j

i

• Wylosuj liczbę R z rozkładu jednorodnego (0,1); akceptuj, gdy R < π

j

i

– Jeśli nie zaakceptowałeś j jako nowego stanu, następnym stanem będzie znowu stan i

Metropolis, Rosenbluth, Rosenbluth, Teller and Teller, J. Chem. Phys., 21 1087 (1953)

( π

ii

0 )

Najprostszy wybór prawdopodobieństw τ

ij

wyboru stanu spośród N dostępnych stanów

ij

N

= 1

τ

(26)

• Jakie są prawdopodobieństwa przejść w tym algorytmie?

– Niech i będzie stanem o większym prawdopodobieństwie

• Czy jest spełniony warunek równowagi szczegółowej?

• Tak, pod warunkiem, Ŝe macierz T prawdopodobieństw wyboru stanu jest symetryczna

– Jeśli tak nie jest, to trzeba zmienić prawdopodobieństwa akceptacji

i j

π > π

in general:

ij ij

min

j

,1

i

π τ π

π

   

 =   

 

 

?

?

i ij j ji

j

i ij j ji

i

ij ji

π π π π π τ π π τ

π τ τ

=

=

= 1

j

ij ij

i

ji ji

ii ij

j i

π τ π

π π τ

π π

= ×

=

= − ∑

W ogólności

(27)

W klasycznych układach równowagowych prawdopodobieństwo (Boltzmanna) zaistnienia stanu i

Zmiany, które prowadzą do zmniejszenia energii zawsze akceptujemy.

Zmiany zwiększające energię akceptujemy z danym prawdopodobieństwem.

Ei

i

e

Z π = 1

β

E E E E

E

i

j

e e

Z e

Z

e

j i

i

j − − − ∆

=

=

= β β β

β

π

π

( )

/ /

Zatem

jeśli π

j

> π

i

, zaakceptuj j jako nowy stan

Jeśli π

j

≤ π

i

, zaakceptuj stan j z prawdopodobieństwem π

j

i

W algorytmie mamy

WyraŜenie zaleŜy tylko od zmiany energii.

-4 -2 0 2 4

0.0 0.5 1.0

P akcept

∆E

(28)

or N

S +1

N S

-1

Model Isinga

Model opisuje prosty materiał magnetyczny składający się ze zbioru spinów na siatce regularnej. MoŜliwe wartości spinów

± 1

i

= s

Energia układu zdefiniowana jest poprzez Hamiltonian

+

=

i i j

i

j

i

s h s

s J H

,

Zewnętrzne pole magnetyczne Energia oddziaływań

międzyspinowych

Stan podstawowy (o najniŜszej energii)

=

=

j i j

i

J H

J H

, ,

) 1 ( ) 1 ( lub

)

1

(

)

1

(

(29)

Model Isinga - implementacja

 Macierz N zmiennych ±1

 Warunki brzegowe periodyczne – wszystkie spiny mają tę samą liczbę sąsiadów (symetria translacyjna).

 Wybieramy temperaturę (czyli β)

 Wybieramy warunki początkowe

 Uruchamiamy symulację

 Wybieramy losowo jeden spin i liczymy zmianę energii układu przy odwróceniu spinu

µ µ υ

υ µ

υ j

j i

i j

j i

i

s J s s

s J

E

E ∑ ∑

>

<

>

<

+

=

, ,

Uwaga: większość par s

i

s

j

nie zmienia się – tylko sąsiedztwo wybranego spinu.

) (

) (

µ υ

µ µ

υ k k

k S i

i

s s

s J

E

E − = − ∑ −

µ υ

i

i

s

s = 2 1

to 1

Jesli s

kµ

= + s

υk

= − ⇒ s

υk

s

kµ

= − 2 1

to 1

Jesli s

kµ

= − s

υk

= + ⇒ s

υk

s

kµ

= +

µ µ

υ

k k

k

s s

s − = − 2

(30)

=

=

=

) ( )

( )

(

2 2

) (

k S i

i k

k k

S i

i k

k k

S i

i

s s J s s Js s

s J

E

E

υ µ µ υ µ µ µ µ µ

µ µ

υ

k k

k

s s

s − = − 2

 

 − >

=

wypadku przeciwnym

w

E E jesli

P e

E E

1 ) 0 (

) (

µ υ

β υ µ

υ µ

Wylosuj liczbę R z rozkładu jednorodnego [0,1) i zaakceptuj zmianę stanu, gdy

) ( υ µ β E E

e

R <

Uwaga: liczba kombinacji E

υ

- E

µ

jest skończona. Dla siatki kwadratowej

∑ =

S(k) i

s

iµ

sk

sk

sk

sk

sk

4 2 0 -2 -4

Zatem E

υ

E

µ

= 2 J ( ± 1 )( 4 ∨ 2 ∨ 0 ∨ − 2 ∨ − 4 ) Wartości ∆E > 0:

2 2 4

2 J J

e i

e

β β

2 2 4

2 JJ

Czyli musimy zapamiętać dwa wykładniki:

(31)

Wyniki

http://www.pha.jhu.edu/~javalab/ising/ising.html

(32)

Model elektroforezy

Chrom&Elpho.swf

E=0 π( )

π( ) = 1 E>0

π( )

π( )

/2

2 /

E E

e e

=

(33)

Eksperyment Symulacje Monte Carlo

ZaleŜność prędkości dryftu od natęŜenia pola elektrycznego i długości łańcucha DNA

Cytaty

Powiązane dokumenty

Rozwiązania nadal poszukujemy generując łańcuch (ciąg) sfer z jednoczesnym szacowaniem wartości potencjału w środku każdej sfery, czyli:. Zauważmy, że potencjał w środku

Pro- mieniowanie UV powoduje błyskawiczną reakcję fotochemiczną w kwasie dezoksy- rybonukleinowym (DNA) i rybonukleinowym (RNA), które decydują o życiu

Innym przykładem związanym z analizowaniem i odszumianiem obrazów cy- frowych jest wykorzystanie metod MCMC w obróbce obrazów otrzymanych w tomografii komputerowej SPECT i PET

Rozkład Bernoulliego, 95 rozkład chi kwadrat, 97 rozkład dwumianowy, 95 Rozkład Erlanga, 97 rozkład Frécheta, 98 rozkład gamma, 97 rozkład geometryczy, 96 rozkład Gumbela,

As a criterion of approximation of the group of the engi- ne operation static states under the HDDTT dynamic test con- ditions, without taking into account states of negative engine

Wieczorami zastanawiam się, co zyskałem podczas pię- ciu lat poruszania się w pasjonującym świecie metod Monte Carlo.. W mojej dotychczasowej pracy naukowej mentalnie

Simulation of growth processes A challenge to perform such growth simulations is the large range of relevant length and time scales. The features interesting for device

Growth of rough surfaces – Stochastic differential equations The simplest time-dependent description of a stochastic surface is afforded by the Edwards–Wilkinson (EW) equation