• Nie Znaleziono Wyników

R. Poissona, relaksacje, metody wielosiatkowe

N/A
N/A
Protected

Academic year: 2021

Share "R. Poissona, relaksacje, metody wielosiatkowe"

Copied!
48
0
0

Pełen tekst

(1)

równanie Poissona jako modelowe eliptyczne

funkcjonał działania zbieżność relaksacje wielosiatkowe

funkcjonał działania, zbieżność, relaksacje wielosiatkowe

Eliptyczne: opisuje stany stacjonarne

1) Rozkład potencjału elektrostatycznego 1) Rozkład potencjału elektrostatycznego

[minimum działania w układzie ładunek/pole]

2) Rozkład temperatury przy stacjonarnym przepływie ciepła [ granica czasowa problemu parabolicznego ]

[ granica czasowa problemu parabolicznego ] ...

wnętrze

na brzegu musimy określić wartość

rozwiązania lub jego pochodnej normalnej

brzeg

rozwiązania lub jego pochodnej normalnej lub związek między nimi

(2)

Warto wiedzieć: (zasada maximum)

rozwiązanie równanie Laplace’a osiąga wartości rozwiązanie równanie Laplace a osiąga wartości

ekstremalne na brzegach (dowód np. u Weinbergera)

wnętrze

dla metody RS:

brzeg

0

skoro każdy punkt z wewnątrz

obszaru całkowania jest średnią arytmetyczną z sąsiadów nigdy nie będzie większy od żadnego z nich

(3)

Schemat Metropolisa a równania różniczkowe

- wariacyjna metoda MC rozwiązywania równania Poissona

przypomnienie

y=+1

pokażemy (w swoim czasie), że dla u - rozwiązania r Poissona

na brzegu u=0

że dla u rozwiązania r.Poissona minimalna jest całka:

x=+1 y=-1

x=-1 rozwiązanie próbne:

r. dokładne:

C,a – parametry wariacyjne

(4)

Z elektrostatyki poprzez metodę różnic skończonych do równania Poissona i metod relaksacji i nadrelaksacji .

Działanie dla układu ładunek ( ρ ) + pole :

j j

( ρ ) p

(to nie jest energia układu energia będzie gdy znak

b d i )

potencjał pola elektrycznego

rozkład ładunku

przy ρ będzie +)

funkcja podcałkowa:

tzw lagranżjan układu pole - ładunek

wektor pola elektrycznego tzw. lagranżjan układu pole ładunek

Działanie jest najmniejsze dla potencjału, który spełnia równanie Poissona Zobaczymy to w 1D:

(5)

działanie a równanie Poissona w 1D

Z k i b i t Di i hl t

Z warunkami brzegowymi typu Dirichleta

Dla jakiego wartość działania jest ekstremalna ? (w praktyce minimalna, bo maksymalna nie istnieje). Ogólny problem minimum funkcjonału (całki funkcjonalnej)

optymalny potencjał: minimalizuje działanie „bliski” optymalnemu

i spełniający te same warunki brzegowe dowolna funkcja

i ł h d

ciągła z pochodną mały parametr

(6)

z definicji:

Wartość α=0 jest optymalna:

Pochodna pod całkę:

(7)

pochodna iloczynu [całkowanie przez części] dz d l dowolna czyli: v(-d/2)=v(d/2)=0 równanie Eulera-Lagrange’a

na funkcję dla której całka funkcjonalna minimalna

(8)

Równanie Eulera-Lagrange’a dla energii układu ładunek+pole

minimalne działanie dostajemy dla potencjału spełniającego równanie Poissona

(9)

Działanie na siatce różnicowej

z

Zdyskretyzowane działanie

najprostszy iloraz różnicowy pierwszej pochodnej

(10)

d lt i K k wysumowane z deltami Kroneckera:

(11)

d lt i K k wysumowane z deltami Kroneckera:

z zasady najmniejszego działania

na siatce dostaliśmy dokładnie takie samo na siatce dostaliśmy dokładnie takie samo równanie, jak po bezpośredniej dyskretyzacji równania Poissona:

(12)

wartość działania:

pozwala ocenić zbieżność procedur iteracyjnych pozwala ocenić zbieżność procedur iteracyjnych ponadto: nieoceniona do kontroli jakości

rozwiązania w metodzie elementów skończonych

( bó l tó bó f k ji k t łt )

(13)

Zbieżność procedury relaksacyjnej

Przepis relaksacyjny

Działanie:

Przyczynek do a od punktu i:

Wyliczmy zmianę funkcjonału działania jeśli iteracji poddany zostanie TYLKO i-ty punkt siatki.

Relaksacja potencjału w każdym z punktów prowadzi do obniżenia wartości działania! ...

Relaksacja potencjału w każdym z punktów prowadzi do obniżenia wartości działania! [równanie P. zostanie rozwiązane gdy działanie obniży się do minimalnego]

(14)

Nadrelaksacja i podrelaksacja

Uogólnijmy schemat relaksacyjny:g j y yj y

do postaci:

( l d j k (wygląda jak

część starego rozwiązania+część nowego)

Wracamy do równania na zmianę działania:

<0 dla ω ∈(0,2)

...

ω =1 relaksacja

ω ∈(0,1) – podrelaksacja - mniej „nowego” rozwiązania akceptowane w iteracji ω ∈(1 2) nadrelaksacja stare rozwiązanie jest usuwane z funkcji

ω ∈(1,2) – nadrelaksacja – stare rozwiązanie jest usuwane z funkcji uwaga: dotyczy relaksacji punktowej (nie globalnej) !

(15)

nad-, pod- i relaksacja w praktyce (laboratorium) Rozwiązanie:

φ

= 0

ρ=1 ρ=0 ρ pętla po i pętla po j

(16)

Zdyskretyzowane równanie Poissona jako układ równań liniowych 1D

z

Δz

φ(-d/2) φ(d/2)

Metoda różnic skończonych Układ równań Au=b Układ równań Au=b

(17)

niezerowe elementy w macierzy A (N na N), dla 3D równania Laplace’a

6

macierze są duże: rozmiar dla 3D: N= 106 już w najprostszych zastosowaniach

(100 na 100 na 100),

macierz 106 x 106 - około 1 TB,

ale do zapamiętania tylko 7 przekątnych czyli najwyżej 7 × 10y j y j 6 × 8 bajtów = 55 MBj faktycznie dla równania Laplace’a

wystarczy pamiętać strukturę (kilka liczb) wystarczy pamiętać strukturę (kilka liczb)

(18)

Rozwiązujemy raczej metodą iteracyjną a nie dokładną:

metody „dokładne”:

•przepis dający rozwiązanie w ściśle określonej liczbie kroków

ą j y j ą yj ą ą

•przepis dający rozwiązanie w ściśle określonej liczbie kroków •złożoność rzędu N3 [(operacje na macierzy El. Gaussa, LU N3)

podstawienie – N2]

j i i j j dk

• operacje na macierzy – niszczą jej rzadką, pasmową

strukturę (ogólna macierz double 106 na 106 - około 1 TB)

metody „iteracyjne”: x:=Mx+c y „ yj (dla układu Ax=b, ( ,

macierz iteracji M, różna od A) • każda iteracja N2 operacji

• nie zmienia struktury macierzynie zmienia struktury macierzy

(19)

układ równań:

Ax=b

x:=Mx+c

metody iteracyjne, postać ogólna:

konstrukcja M: dokładne rozwiązanie układu musi spełniać

przepis iteracyjny

x=Mx+c

dobrze gdy M rzadka (dla Jakobiego jest, ale dla GS – nie)

równanie własne

metody iteracyjne zbieżne wtedy i tylko wtedy, gdy promień

spektralny macierzy iteracji M [największy moduł wartości własnej]

(20)

metody iteracyjne zbieżne wtedy i tylko wtedy, gdy promień

spektralny macierzy iteracji M [największy moduł wartości własnej]

ρ(M)<1

uzasadnienie:

wektor w k-tej iteracji błąd w k-tej iteracji

dokładne rozwiązanie

Ax=b

oraz

x=Mx+c

wektory własne = użyjemy jako bazy potęga

index index

błąd znika do zera z k – nieskończonym wtedy i tylko wtedy, gdy całe widmo mniejsze co do modułu od jedynki

(21)

Jak budujemy macierz iteracji? tak, żeby , y

1) dokładne rozwiązanie x spełniało: Ax=b oraz x=Mx+c

2) ρ(M) <1 i tak małe jak to możliwe

asymptotyczny wskaźnik (tempo) zbieżności: R =- log10[ρ(M)] asymptotyczny wskaźnik (tempo) zbieżności: R log10[ρ(M)]

(rate of convergence)

konstrukcja iteracji tak aby Ax=b, x=Mx+c Metoda Jakobiego dla równań

A=B+C (B+C)x=b

B b C (B i i bli )

Metoda Jakobiego dla równań

produkowanych przez 1D Poissona:

Bx=b-Cx (B – musi nieosobliwa) x:= - B-1Cx +B-1b

M= -B-1C, c=B-1b

(22)

wybór Jakobiego: B=D, C=(L+U),

x:= - B-1Cx +B-1b

x:= - D-1(L+U)x +D-1b

W równaniu występują dwa wektory (dla iteracji k i k+1) Metoda Jakobiego to relaksacja globalna

Czy zbieżna? (na laboratorium – zobaczymy, że tak)

(23)

wybór Jakobiego: B=D, C=(L+U)

M= -B-1C, c=B-1b

Mv=

λ

v

1 0

widmo wartości własnych: (N=20)

0.3 0.4 składowa bł d b l v

0 5

1.0

0 4 8 12 16 20 0.0 0.1 0.2 0 4 błędu b. wolno gasnąca w iteracji t d bi ż !

0.0

0.5

i -0.2 0.0 0.2 0.4 składowe błędu o przeciętnej zmienności przestrzennej najszybciej

λ

metoda zbieżna!

-0.5

0 4 8 12 16 20 i -0.4 przestrzennej najszybciej gasną w iteracji 0.0 0.2 0.4 0.0 0.2 0.4 b.wolno zgaśnie

-1.0

0 4 8 12 16 20 i -0.4 -0.2 0 4 8 12 16 20 i -0.4 -0.2 zgaśnie, przy iteracjach zmienia znak

(24)

macierz iteracji Jakobiego: formuły analityczne na wektory i wartości własne

k=1,N

N – liczba oczek siatki

0.2 0.3 0.4 1.0 0 4 8 12 16 20 i 0.0 0.1 -0.2 0.0 0.2 0.4 0.5 0 4 8 12 16 20 i -0.4 0.2 0.4 -0.5 0.0 λ 0 4 8 12 16 20 i -0.4 -0.2 0.0 0 4 8 k12 16 20 -1.0 -0 2 0.0 0.2 0.4 0 4 8 12 16 20 i -0.4 0.2

(25)

macierz iteracji Jakobiego: formuły analityczne na wektory i wartości własne

k=1,N

N – liczba oczek siatki

0.2 0.3 0.4 1.0 0 4 8 12 16 20 i 0.0 0.1 -0.2 0.0 0.2 0.4 0.5 0 4 8 12 16 20 i -0.4 0.2 0.4

im gęstsza siatka, tym argument cosinusa dla k=1 bliższy 0: -0.5 0.0 λ 0 4 8 12 16 20 i -0.4 -0.2 0.0 bliższy 0: 0 4 8 k12 16 20 -1.0 -0 2 0.0 0.2 0.4

bardzo przykra wiadomość: iteracja tym wolniejsza

0 4 8 12 16 20

i

-0.4 0.2

im gęstsza siatka!

(26)

Ax=b

Bx=b-Cx

B (L+D) C U

Gauss-Seidel :

B=(L+D), C=U

(L+D)x

k+1

=b-Ux

k

w zastosowaniu do równania z dyskretyzacji Laplasjanu:

(*)

(średnia arytmetyczna: z sąsiada z prawej strony z poprzedniej iteracji

oraz z sąsiada z lewej stronyą j y z iteracji bieżącej)

równość (*) możemy stosować jak przepis iteracyjny bo sąsiad z lewej już policzony

(27)

Jacobi:

Jacobi: (relaksacja globalna całego potencjału) for i=1,N for i 1,N xn[i]=(x[i+1]+x[i-1])/2 x=xn GS: GS: (relaksacja punktowa)( j p ) for i=1,N x[i]=(x[i+1]+x[i-1])/2

mniej pamięci wymaga,

Zobaczmy na laboratorium że jest również szybsza Zobaczmy na laboratorium, że jest również szybsza spójrzmy na rozwiązanie problemu własnego

(28)

A=B+C (B – musi nieosobliwa) (B+C)x=b

Bx=b-Cx

w metodzie GS faktycznie

M się stosuje już rozbitą na składowe

dl t b li i

Bx b Cx

x:= - B-1Cx +B-1b

M= -B-1C, c=B-1b

dla potrzeb analizy musimy ją jednak skonstruować Gaussa-Seidla: B=(L+D), C=U 1.0 (dla dyskretyzacji 0.6 0.8 λ| (dla dyskretyzacji

operatora Laplace’a) jest zbieżna!

0.2 0.4 |λ 0 4 8 12 16 20 nr 0.0

GS (im większa wartość własna

0.8 1.2

8 GS – (im większa wartość własna

tym wolniejsza zmienność wektora własnego) 0.0 0.4 Re [V] 1 2 8 relaksacja GS ma własność

wygładzania błędu (error smoothener)

0 4 8 12 16 20 -0.4

(29)

metoda Jakobiego vs relaksacja Gaussa Seidla .987

977 t i j t łki ł óż i dl t i it ji

1.00

1.0

.977 to nie jest całkiem mała różnica, dla tysiąca iteracji: .987^1000=2e-6, .977^1000=8e-11 0.80

0.8

0.60

0.6

|

0.40

0.4

|

0.20

0.2

0.00 4.00 8.00 12.00 16.00 20.00 0.00

0

4

8

12

16

20

0.0

nr

uwaga:

(30)

Jakość „rozwiązania”: Ax=b

przykład numeryczny

pozostałość (residuum): r=Ax-b

problem modelowy: 200 punktów

start od

φ=0

0.00

problem modelowy:

φ

( )

φ

( )

start od

φ=0

200 punktów

-0.04

φ

(-1)=

φ

(1)=0

ρ

=exp(-100 x

2

)

GS

-0.08

R=suma r

i R 0.10 Jacobi

-0.12

0.06 0.08 Jacobi

0 20

-0.16

0.02 0.04

0

10000

20000

30000

iter

-0.20

-1.00 -0.50 0.00 0.50 1.00 0.00

(31)

GS vs Jacobi: start od wektora najkrótszej „długości fali” k=N 20000.00 40000.00 1-sza iteracja 20000.00 40000.00 -20000.00 0.00 -20000.00 0.00 r r druga -1.00 -0.50 0.00 0.50 1.00 -40000.00 -1.00 -0.50 0.00 0.50 1.00 -40000.00 200 punktów druga 40000.00 p 0.00 20000.00 r GS: szybkozmienny błąd szybko tłumi smoothener -40000.00 -20000.00

10 iteracja Jacobi: wolno gasi zarówno najszybsze

-1.00 -0.50 0.00 0.50 1.00

zarówno najszybsze jak i najwolniejsze błędy

(32)

GS - smoothener: start od superpozycji wektorów z k=1 i k=N 0 80 1.20 0 80 1.20

gdy relaksacja zwalnia błąd jest superpozycją 0.40 0.80 0.40 0.80 1 i j

wektorów własnych o niskich wartościach własnych -1.00 -0.50 0.00 0.50 1.00 0.00 -1.00 -0.50 0.00 0.50 1.00 0.00 1.20 1.20 1 - iteracja 2 - iteracja

004

0.00

0.80 0.80

-0.08

-0.04

R GS 0.40 0.40 5 - iteracja

-0.16

-0.12

R -1.00 -0.50 0.00 0.50 1.00 0.00 -1.00 -0.50 0.00 0.50 1.00 0.00 5 iteracja 10 - iteracja

0

10000

20000

30000

iter

-0.20

(33)

Error of initial guess

Error after 5 relaxation sweeps

Error after 10 relaxations Error after 15 relaxations

Achi Brandt

Fast error smoothing

slow solution

Achi Brandt

The Weizmann Institute of Science UCLA

(34)

10 iteracja, relaksacja a nadrelaksacja i gaszenie błędów 1.20 w=1 1.20 w=1.5 0.80 0.80 0.40 0.40 -1.00 -0.50 0.00 0.50 1.00 0.00 -1.00 -0.50 0.00 0.50 1.00 0.00

(35)

GS i J: im gęstsza siatka tym wynik dokładniejszy

ale iteracja bardziej kosztowna (N2) , co gorzej - wolniej zbieżna

w GS - metodzie wygładzającej błąd szybkozmienny znika najszybciej

Metoda zagęszczania siatki (najprostsza wielosiatkowa):

Rozwiązanie najpierw na rzadkiej: eliminacja błędu wolnozmiennego, który można opisać na siatce rzadkiej.

0 8 1.2 0.0 0.4 0.8 Re [V] 1 2 3 8 wek.w 1 na siatce rzadkiej opiszemy b bl

Rozwiązanie przepisane na gęstszą jako punkt startowy do nowego rachunku: przy starcie ujawni się błąd szybkozmienny z przepisania Możemy liczyć że

0 4 8 12 16 20 -0.4

3

bez problemu

przy starcie ujawni się błąd szybkozmienny z przepisania. Możemy liczyć, że szybko zgaśnie.

(36)

Metoda globalnego zagęszczania siatki:

Najpierw rozwiązać „tanie” równanie na rzadkiej siatce, dopiero następnie na gęstszej

unikamy pojawienia się wolnozmiennego i wolnozbieżnego błędu na najgęstszej siatce

Przykład 2D: siatka (N na N) = N2 punktów, macierz N2 na N2

laboratorium

1) Rozwiązujemy zdyskretyzowane równanie różniczkowe

i t

Δ

( kt ) (it j d bi ż ś i)

na siatce

Δ

x (czerwone punkty) (iterujemy do zbieżności) 2) Oszacowujemy wartość funkcji na punktach rozłożonych

na siatce o skoku

Δ

x/2 (nowe-niebieskie punkty) 3) Rozwiązujemy równanie na nowej siatce

(czerwone+niebieskie) (iterujemy do zbieżności) 4) itd. aż po N podziałach dojdziemy do ) p p j y

Δ

x/2N

(37)

laboratorium

rozwiązanie na siatce 9 x 9 (czarne kwadraty) i nowa siatka 17 x 17 (czarne+puste kwadraty) i nowa siatka 17 x 17 (czarne puste kwadraty)

Start do iteracji na gęstszej siatce:

Punkty stare – zostawiamy bez zmian

Nowe punkty między dwoma starymi średnia arytmetyczna z

dwóch czarnych sąsiadów

Pozostałe nowe-średnia z czterech sąsiadów leżących w narożnikach kwadratu

(38)

10000

laboratorium

8000 10000

uznajemy że zbieżność

osiągnięta gdy energia

6000 8000 c zne g o

ąg ę g y

g

pola z iteracji na iterację

zmienia się mniej niż 10

-9

6000

pola elektr

y

c

start na siatce docelowej

4000 energia 2000 1 10 100 1000 10000 nr iteracji 0

zagęszczanie siatki

zagęszczanie siatki

(39)

10000

8000 10000

uznajemy że zbieżność

osiągnięta gdy energia

6000 8000 c zne g o

ąg ę g y

g

pola z iteracji na iterację

zmienia się mniej niż 10

-9

6000

pola elektr

y

c

start na siatce docelowej

4000 energia 2000 1 10 100 1000 10000 nr iteracji 0

zagęszczanie siatki

zagęszczanie siatki

(40)

580 o

zagęszczanie siatki:

570 k tryczneg o a pola ele k

129 na 129

560 en er gi a

33 na 33

9 na 9

17 na 17

65 na 65

0 100 200 300 nr iteracji 550 nr iteracji

na najgęstszej siatce wykonujemy około 40 iteracji zamiast 6500

(41)

zagęszczanie siatki dla równania Laplace’a 2D (przepływ stagnacyjny) 10 10 0 2 4 6 8 0 2 4 6 8

Chcemy rozwiązać równanie Laplace’a na potencjał przepływu

dla (x y)∈[ 3 2 3 2] na siatce o skoku Δx=Δy=0 05 (siatka 129 na 129 punktów)

start od zera wewnątrz pudła:

-8 -6 -4 -2 -8 -6 -4 -2

dla (x,y)∈[-3.2,3.2] na siatce o skoku Δx=Δy=0.05 (siatka 129 na 129 punktów).

Monitorujemy sumę kwadratów pozostałości (∇2φ)

U j ż i i j t i i t d R2 10 9

-10 -8 -6 -4 -2 0 2 4 6 8 10 -10

-10 -8 -6 -4 -2 0 2 4 6 8 10

-10 Uznajemy, że rozwiązanie jest osiągnięte gdy R2 < 10 –9.

błąd w funkcji numeru iteracji

GS

Zbieżność przy zastosowaniu zagęszczania 1E+1 1E+2 5 5 1E+2 1E+3

1E+4 start na siatce docelowej

Iteracja na pełnej

siatce 400 razy szybsza. (czas spędzony 1E 4 1E-3 1E-2 1E-1 1E+0 5 na 5 9 na 9 17 na 17 |R|2 1E 3 1E-2 1E-1 1E+0 1E+1 1E+2 ( pę y na rzadszych siatkach zaniedbywalny) 1E-8 1E-7 1E-6 1E-5 1E-4 35 na 35 17 na 17 129 na 129 |R| 1E 8 1E-7 1E-6 1E-5 1E-4 1E-3 129 na 129 1 10 100 1E-10 1E-9 1E 8129 na 129 1 10 100 1000 10000 1E-101E-9 1E-8

(42)

Metody wielosiatkowe - idea:

rachunki na 2 lub więcej siatkach (różnej gęstości, Δx, 2Δx) 1) rachunek na gęstej siatce przy pomocy iteracji wygładzającej) gę j p y p y j yg ją j

= błąd szybkozmienny szybko gaśnie (wykonujemy kilka iteracji, nie walczymy o zbieżność) 2) błąd wolnozmienny – rzutowany na rzadką siatkę

2) błąd wolnozmienny rzutowany na rzadką siatkę

(udaje się go prawie dokładnie wyrzutować bo jest wolnozmienny) i eliminowany przez iterację

na rzadkiej siatce [iterowanie do zbieżności najlepiej nadrelaksacją] na rzadkiej siatce [iterowanie do zbieżności, najlepiej nadrelaksacją] 3) wartości na siatce gęstej – poprawione o błąd wolnozmienny

(43)

Metoda dwusiatkowa Ax=c (V – cycle)

Dwie siatki, ze skokiem

Δ

x i 2

Δ

x.

1. Iterujemy równanie x:=Mx+b na gęstej siatce ν1 razy dla wygładzenia błędów.

uzyskane przybliżenie wynik dokładny błąd

uzyskane przybliżenie wynik dokładny błąd

ó i bł d

2. Liczymy pozostałość

c

równanie na błąd

gdy znamy rozwiązanie Ae=r, znamy również rozwiązanie Ax=c. ALE: Ae=r wystarczy rozwiązać na rzadszej siatce bo e jest gładki ALE: Ae=r wystarczy rozwiązać na rzadszej siatce, bo e jest gładki 3. Rzutujemy pozostałość na siatkę rzadką

(44)

3. Rzutujemy pozostałość na siatkę 2Δx

rozwiązujemy (iterujemy aż do zbieżności) 4. Przenosimy uzyskany błąd na siatkę gęstą

operator przedłużenia (prolongation) i poprawiamy rozwiązanie

5. Powyższy zabieg wprowadza nowy błąd (rzutowania I nie są dokładne)

- iterujemy równanie ν2 razy na gęstszej siatce dla usunięcia szybkozmiennej części błędu

Δx 2Δx 2Δx

(45)

macierzowa forma najprostszych operatorów restrykcji i przedłużenia: przybliżenie liniowe (równanie Laplace’a 1D)

z czerwonych i niebieskich do czerwonych

h d i bi ki h i h

(46)

pozostałość w kwadracie dla iterowanego V-cyklu -4 -2 0 2 4 6 8 10 -4 -2 0 2 4 6 8 10

1E+4

5 iteracji wygładzających na siatce 129 na 129

-10 -8 -6 -4 -2 0 2 4 6 8 10 -10 -8 -6 -10 -8 -6 -4 -2 0 2 4 6 8 10 -10 -8 -6

1E+3

rozwiązanie zbieżne na odcięcie błędu

1E+2

R

2

siatce 65 na 65

1E+1

R

1E+0

1

2

3

4

5

1E-1

(47)

V-cycle z wielosiatkowym rozwiązaniem na siatce o skoku 2Δx Δx 2Δx 2Δx 3Δx 4Δx

Równanie na błąd (na rzadszej siatce) rachunki na siatkacht h kilk Równanie na błąd (na rzadszej siatce)

ma tę samą formę co problem oryginalny – można je rozwiązać w ten sam sposób

gęstszych – po kilka iteracji wygładzających -do zbieżności relaksowana można je rozwiązać w ten sam sposób –

(48)

Aby chronić prywatność użytkownika, program PowerPoint uniemożliwił automatyczne pobranie tego zewnętrznego obrazu. Aby pobrać i wyświetlić ten obraz, kliknij przycisk Opcje na pasku komunikatów, a następnie kliknij opcję Włącz zawartość zewnętrzną.

lokalne zagęszczanie siatki dla równania Laplace’a 2D

Komora drutowa: detektor cząstek – cienkie druty (anody) w dużym pudle (katodzie) Co zrobić jeśli interesuje nas tylko bliskie otoczenie

jednego z drutów?

Można dać bardzo gęstą siatkę. Może nie starczyć pamięci. Można dać bardzo gęstą siatkę. Może nie starczyć pamięci.

Lepszy pomysł: wyliczyć potencjał metodą kolejnych powiększeń

WB dla każdego powiększenia wyliczyć zgodnie z metodą zagęszczania siatki.g ą gę

Mamy uziemione pudło metalowe o rozmiarach 1cm na 1cm. Dwa druty o promieniu 1.2 mm w środku pudła. y p p

Odległe o 6 mm względem siebie. Na lewy podajemy potencjał +1, na prawy +1. Wyznaczyć rozkład potencjału w środku pudła.

Wynik: 0.1 0.2 0.3 0.4 0.5 0.05 0.1 0.15 0.2 0.25 0.05 0.1 0.02 0.04 0.06 Wynik: -0.3 -0.2 -0.1 0 -0.15 -0.1 -0.05 0 -0.05 0 -0.04 -0.02 0 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 0.5 -0.5 -0.4 -0.25 -0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2 0.25 -0.25 -0.2 -0.1 -0.05 0 0.05 0.1 -0.1 -0.06 -0.04 -0.02 0 0.02 0.04 0.06 -0.06

Cytaty

Powiązane dokumenty

Porównano więc rezultaty algorytmu koewolucyjnego z wynikami niezależnych przebiegów algorytmu genetycznego dla oddzielonych od siebie nisz.. Sprawdzono też, czy wymiana

Granular cell tumors ( GCTs), or Abrikossoff tumors, are very seldom, usually reported in the literature as single cases, occurring in abo- ut 0.02% of human neoplasms and

Zastosowanie metody funkcji dolnej do badania zbieżności algorytmów genetycznych.. Pamięci Profesora

Stąd wynika, że rozwartość trójkątowa zbioru E jest nie większa od rozwartości trójkątowej odcinka L... Последовательность alf

Żółty i biały kwadrat pokazują obszary wewnątrz których należy uśredniać gęstość na rzadkiej siatce (wartości średnie liczone są na najgęstszej siatce ale przypisywane są

nufoflex 2x zaprawa klejowa na siatce winyl.. nufoflex 2x zaprawa klejowa na

także obejmował zmianę leku i wzmocnienie; jako leki do zmiany kuracji wykorzystywano nortryptylinę lub mirtazapinę, jako leki do potencjalizacji lit lub hormony

Motywacją we- wnętrzną studenci kierowali się, gdy „rzadkość” języka szwedzkiego stanowiła argument związany z ich potrze- bami indywidualnymi (np. chęć rozwoju osobistego),