• Nie Znaleziono Wyników

Zlozonosc obliczeniowa problemow ciaglych

N/A
N/A
Protected

Academic year: 2021

Share "Zlozonosc obliczeniowa problemow ciaglych"

Copied!
100
0
0

Pełen tekst

(1)

Materialy do wykladu:

Zlozonosc obliczeniowa problemow ciaglych

Leszek Plaskota

Instytut Matematyki Stosowanej i Mechaniki Uniwersytet Warszawski

13 czerwca 2014

(2)
(3)

Spis tre´ sci

1 Podstawowe pojecia, 1

1.1 Zadanie, informacja, algorytm . . . 1 1.2 Algorytmy optymalne . . . 3 1.3 Gdy zadanie jest liniowe... . . 6

2 Algorytmy afiniczne dla funkcjona l´ow 9

2.1 Funkcjona l Minkowskiego . . . 9 2.2 Afiniczne algorytmy optymalne . . . 10 2.3 Gdy zadanie nie jest funkcjona lem... . . 13

3 Optymalno´s´c algorytm´ow splajnowych 17

3.1 Algorytmy splajnowe . . . 17 3.2 Splajny w przestrzeniach Hilberta . . . 18 3.3 Klasyczne funkcje splajnowe . . . 20

4 Informacja optymalna 25

4.1 Minimalny promie´n i optymalna informacja . . . 25 4.2 Informacja optymalna w przestrzeniach Hilberta . . . 26 4.3 Ca lkowanie funkcji r-g ladkich . . . 29

5 Algorytmy adaptacyjne 33

5.1 Informacja adaptacyjna a nieadaptacyjna . . . 33 5.2 Kiedy adaptacja nie pomaga? . . . 34 5.3 Adaptacyjna kwadratura Simpsona . . . 36

6 Ca lkowanie funkcji z osobliwo´sciami 43

6.1 G l´owny wynik . . . 43 6.2 Pomocnicze lematy . . . 45

iii

(4)

6.3 Algorytm adaptacyjny . . . 48

7 Przypadek asymptotyczny 51 7.1 B lad asymptotyczny, . . . 51

7.2 Twierdzenie o r´ownowa˙zno´sci . . . 52

7.3 Istotno´s´c za lo˙ze´n . . . 54

8 Ca lkowanie w [0, 1]d 57 8.1 Sformu lowanie zadania . . . 57

8.2 Interpolacja na siatkach regularnych . . . 58

8.2.1 Posta´c wielomianu interpolacyjnego . . . 58

8.2.2 B lad interpolacji, . . . 61

8.3 Kwadratury interpolacyjne . . . 63

8.3.1 Kwadratury proste . . . 63

8.3.2 Kwadratury z lo˙zone . . . 64

8.4 Przekle´nstwo wymiaru . . . 65

9 Metody Monte Carlo 69 9.1 Wstep, metody niedeterministyczne . . . ., 69

9.2 Klasyczna metoda Monte Carlo . . . 70

9.2.1 Definicja i b lad . . . ., 70

9.2.2 Ca lkowanie z waga . . . ., 72

9.3 Redukcja wariancji . . . 73

9.3.1 Losowanie warstwowe . . . 73

9.3.2 Funkcje kontrolne . . . 76

9.4 Generowanie liczb (pseudo-)losowych . . . 78

9.4.1 Liniowy generator kongruencyjny . . . 79

9.4.2 Odwracanie dystrybuanty i ‘akceptuj albo odrzu´c’ . . . 79

9.4.3 Metoda Box-Muller dla rozk ladu gaussowskiego . . . . 81

10 Metody quasi-Monte Carlo 83 10.1 Co to sa metody quasi-Monte Carlo? . . . ., 83

10.2 Dyskrepancja . . . 84

10.3 B lad quasi-Monte Carlo, . . . 86

10.3.1 Formu la Zaremby . . . 86

10.3.2 Nier´owno´s´c Koksmy-Hlawki . . . 88

10.4 Ciagi o niskiej dyskrepancji, . . . 91

10.4.1 Ciag Van der Corputa . . . ., 91

(5)

SPIS TRE´SCI v 10.4.2 Konstrukcje Haltona i Sobol’a . . . 92 10.4.3 Sieci (t, m, d) i ciagi (t, d), . . . 93

(6)
(7)

Rozdzia l 1

Podstawowe poj ecia ,

1.1 Zadanie, informacja, algorytm

Nasze zadanie numeryczne bedziemy opisywa´, c jako aproksymacje operatora, S : F → G,

gdzie F jest pewna przestrzeni, a liniow, a, a G przestrzeni, a unormowan, a z, norma k · k. Dok ladniej, chcemy aproksymowa´, c warto´sci S(f ) dla wszystkich element´ow

f ∈ E ⊆ F,

gdzie E jest ustalonym zbiorem w przestrzeni F . Zdanie “f nale˙zy do E”

interpretujemy jako informacje a priori (pocz, atkow, a) o zadaniu.,

Zak ladamy, ˙ze opr´ocz informacji a priori dysponujemy r´ownie˙z informacja, a posteriori o elemencie f , kt´ora jest postaci y = N (f ), gdzie

N : F → Y

jest operatorem informacji. Chocia˙z formalnie Y mo˙ze by´c dowolnym zbio- rem to zwykle Y = Rn albo jest pozbiorem zbioru wszystkich sko´nczonych ciag´, ow rzeczywistych. ´Zr´od lo informacji y nie jest istotne. Mo˙ze ona pocho- dzi´c np. z obserwacji albo wcze´sniejszych oblicze´n.

Ostatecznie, element rozwiazania S(f ) aproksymowany jest jako, S(f ) = ϕ(y)˜

gdzie odwzorowanie

ϕ : Y → G 1

(8)

jest algorytmem (u˙zywajacym informacji N ). Mo˙zemy wi, ec napisa´, c, ˙ze ope- rator rozwiazania S jest aproksymowany przez z lo˙zenie,

S = ϕ ◦ N.˜

Przyklad 1.1 Niech F bedzie zbiorem funkcji f : [0, 1] → R spe lniaj, acych,

warunek Lipschitza, a E ⊂ F podzbiorem funkcji, dla kt´orych sta la Lip- schitza wynosi 1, tzn. dla dowolnych x, y ∈ [0, 1]

|f (x) − f (y)| ≤ |x − y|.

Informacja y = N (f ) o funkcji f ∈ F dana jest przez warto´sci f w sko´nczonej liczbie punkt´ow, tzn. N : F → Rn oraz

N (f ) = [f (t1), f (t2), . . . , f (tn)],

gdzie ti ∈ [0, 1], 1 ≤ i ≤ n. W przestrzeni F funkcji lipschitzowskich rozpa- trzymy dwa zadania: ca lkowanie i aproksymacje jednostajn, a funkcji.,

W zadaniu ca lkowania operator rozwiazania S = Int : F → G = R, wyra˙za sie wzorem,

Int(f ) = Z 1

0

f (x) dx.

Algorytm wykorzystujacy informacj, e o f dany jest jako ϕ : R, n → R. Na przyk lad, ϕ mo˙ze by´c kwadratura,,

ϕ([f (t1), . . . , f (tn)]) =

n

X

i=1

aif (ti).

W zadaniu aproksymacji jednostajnej mamy G = C([0, 1]) z norma, kf k = kf kC= max

0≤x≤1|f (x)|,

a operator rozwiazania dany jest jako S = App : F → C([0, 1]),, App(f ) = f.

Tutaj algorytm ϕ : Rn → C([0, 1]) konstruuje przybli˙zenie funkcji f , kt´ore jest funkcja ci, ag l, a. Na przyk lad, ϕ(N (f )) mo˙ze by´, c kawa lkami liniowa in-, terpolacja funkcji f w punktach t, i, 1 ≤ i ≤ n.

(9)

1.2. ALGORYTMY OPTYMALNE 3

1.2 Algorytmy optymalne

Zauwa˙zmy, ˙ze algorytm jest funkcja jedynie y, a to oznacza, ˙ze wszystkie, elementy zbioru

SN−1y := { S(f1) : f1 ∈ E, N (f1) = y }

sa aproksymowane t, a sam, a warto´sci, a ϕ(y). St, ad, je´sli zbi´, or SN−1y jest wieloelementowy, to zwykle S(f ) 6= ϕ(N (f )), czyli mamy do czynienia z nieuchronnym b ledem aproksymacji. Dla danej f b l, ad ten wynosi,

kS(f ) − ϕ(N (f ))k.

Jasne jest, ˙ze chcemy skonstruowa´c algorytm “najlepszy” z mo˙zliwych.

W tym celu musimy mie´c kryterium por´ownywania r´o˙znych algorytm´ow.

Spo´sr´od wielu mo˙zliwo´sci wybierzemy kryterium b ledu najgorszego (pesymi-, stycznego). Dok ladniej, b lad najgorszy (ang. worst case error) algorytmu ϕ, korzystajacego z informacji N wyra˙za si, e wzorem,

ewor(N, ϕ) = sup

f ∈E

kS(f ) − ϕ(N (f ))k.

Definicja 1.1 Algorytm ϕ nazywamy optymalnym dla danej informacji N je´sli ma najmniejszy b lad spo´, sr´od wszystkich algorytm´ow wykorzystujacych, informacje N , tzn.,

ewor(N, ϕ) = inf

ϕ ewor(N, ϕ)

Podamy teraz wygodna interpretacj, e geometryczn, a algorytmu optymal-, nego. W tym celu, przypomnijmy najpierw, ˙ze promieniem (Czebyszewa) zbioru A ⊆ G nazywamy wielko´s´c

r(A) = inf

g∈Gsup

g1∈A

kg − g1k.

Je´sli dla pewnego g ∈ G mamy r(A) = supg1∈Akg− g1k to g jest centrum zbioru A.

Definicja 1.2 Promieniem informacji N nazywamy wielko´s´c rad(N ) = sup

y∈N (E)

r(SN−1y).

(10)

Twierdzenie 1.1 Dla danej informacji N mamy

infϕ ewor(N, ϕ) = rad(N ). (1.1) Algorytm optymalny ϕ istnieje wtedy i tylko wtedy gdy dla ka˙zdego y ∈ N (E) warunek r(SN−1y) = rad(N ) implikuje, ˙ze zbi´or SN−1y ma centrum. W szczeg´olno´sci, je´sli dla ka˙zdego y ∈ N (E) istnieje centrum gy zbioru SN−1y to algorytm centralny

ϕ(y) = gy ∀y ∈ N (E) jest optymalny.

Dow´od. Rozpisujac (faktoryzuj, ac) b l, ad dowolnego algorytmu ϕ wzgl, edem, informacji mamy

ewor(N, ϕ) = sup

y∈N (E)

sup

f ∈E∩N−1y

kS(f ) − ϕ(y)k

= sup

y∈N (E)

sup

g∈SN−1y

kg − ϕ(y)k.

Z definicji promienia zbioru mamy, ˙ze dla ka˙zdego y inf

ϕ(y) sup

g∈SN−1y

kg − ϕ(y)k = r(SN−1y), a stad (1.1).,

Aby pokaza´c pozosta la cz, e´s´, c tezy, wystarczy zauwa˙zy´c, ˙ze je´sli dla pew- nego y mamy r(SN−1y) < rad(N ) i centrum nie istnieje to mo˙zna znale´z´c ˜gy dla kt´orego

r(SN−1y) < sup

g∈SN−1y

kg − ˜gyk ≤ rad(N ).

Dlatego w tym przypadku mo˙zna przyja´,c ϕ(y) = ˜gy.

Z drugiej strony, je´sli dla pewnego y mamy r(SN−1y) = rad(N ) i centrum nie istnieje to algorytm optymalny nie istnieje, bo wtedy dla dowolnego ϕ(y)

sup

g∈SN−1y

kg − ϕ(y)k > r(SN−1y) = rad(N ). 

Nie zawsze latwo jest znale´z´c centrum zbioru, a tym samym algorytm optymalny. Poka˙zemy teraz klase algorytm´, ow, kt´ore sa bliskie optymalnym,, ale sa prostsze w konstrukcji.,

(11)

1.2. ALGORYTMY OPTYMALNE 5 Definicja 1.3 Algorytm ϕI nazywamy interpolacyjnym je´sli

ϕI(y) = S(fy) ∀y ∈ N (E)

gdzie fy jest dowolnym elementem interpolujacym dane, tzn. spe lniaj, acym, fy ∈ E oraz N (fy) = y.

Zanim poka˙zemy formu le na b l, ad algorytmu interpolacyjnego, przypo-, mnimy, ˙ze ´srednica zbioru A ⊂ G nazywamy wielko´s´, c

d(A) = sup

g1,g2∈A

kg1− g2k.

Latwo wykaza´c, ˙ze r(A) ≤ d(A) ≤ 2 · r(A) (patrz ´cwiczenie 1.1).

Definicja 1.4 ´Srednica informacji N nazywamy wielko´, s´c diam(N ) = sup

y∈N (E)

d(SN−1y).

Oczywi´scie

rad(N ) ≤ diam(N ) ≤ 2 · rad(N ).

Ponadto, je´sli S jest funkcjona lem to diam(N ) = 2 rad(N ).

Twierdzenie 1.2 Dla algorytmu interpolacyjnego ϕI korzystajacego z infor-, macji N mamy

ewor(N, ϕI) ≤ diam(N ) ≤ 2 · rad(N ).

Dow´od. Z definicji algorytmu interpolacyjnego oraz ´srednicy zbioru wy- nika, ˙ze dla dowolnego f ∈ E o informacji y = N (f ),

kS(f ) − ϕI(y)k = kS(f ) − S(fy)k ≤ d(SN−1y) ≤ diam(N ). 

Przyklad 1.2 Rozpatrzmy zadania ca lkowania i aproksymacji jednostajnej z przyk ladu 1.1. Dla danej informacji y = [y1, y2, . . . , yn] interpretowanej jako warto´sci pewnej funkcji z E w punktach odpowiednio

0 ≤ t1 < t2 < · · · < tn≤ 1,

(12)

definujemy koperte g´, orna f, y+ i koperte doln, a f, y jako fy+(x) = min

1≤i≤n yi+ |x − ti|, fy(x) = max

1≤i≤n yi− |x − ti|.

Latwo zauwa˙zy´c, ˙ze fy+, fy ∈ N−1y oraz je´sli f ∈ N−1y to fy ≤ f ≤ fy+. Stad,

ϕInt(y) = Int(fy+) + Int(fy) 2

jest algorytmem centralnym dla ca lkowania.

Z kolei dla aproksymacji jednostajnej algorytmem centralnym jest ϕApp(y) = fy++ fy

2 .

1.3 Gdy zadanie jest liniowe...

Zadanie nazywamy liniowym gdy operatory rozwiazania S i informacji N s, a, odwzorowaniami liniowymi. Oczywi´scie, wtedy r´ownie˙z przeciwdziedzina Y operatora N musi by´c przestrzenia liniow, a, na przyk lad Y = R, n. Dla zada´n liniowych formu ly na promie´n i ´srednice informacji znacznie si, e upraszczaj, a.,

Dla zbioru A ⊂ F definiujemy zbi´or bal(A) = a1− a2

2 : a1, a2 ∈ A

 .

Latwo zauwa˙zy´c, ˙ze niezale˙znie od A, zbi´or bal(A) jest zbalansowany, czyli symetryczny wzgledem zera. Ponadto, je´sli A jest wypuk ly i zbalansowany, to bal(A) = A (´cwiczenie 1.5).

Twierdzenie 1.3 Je´sli operatory rozwiazania S i informacji N s, a liniowe, to

diam(N ) = 2 · sup

h∈bal(E)∩ker(N )

kShk.

Je´sli, dodatkowo, zbi´or E jest wypuk ly i zbalansowany to diam(N ) = 2 · sup

h∈E∩ker(N )

kShk.

(13)

1.3. GDY ZADANIE JEST LINIOWE... 7 Dow´od. Niech f1, f2 ∈ E, N f1 = N f2. Wtedy (f1 − f2)/2 ∈ bal(E) i N ((f1− f2)/2) = 0. Stad,

kSf1− Sf2k = 2 ·

S f1− f2 2



≤ 2 · sup{ kShk : h ∈ bal(E), N h = 0 } i wobec dowolno´sci f1, f2 nier´owno´s´c “≤” jest udowodniona.

Aby pokaza´c nier´owno´s´c w druga stron, e zauwa˙zmy, ˙ze je´sli h ∈ bal(E),, N h = 0 to istnieja f, 1, f2 ∈ E takie, ˙ze h = (f1 − f2)/2 i N f1 = N f2 =: y.

Stad,

2 · kShk = kSf1− Sf2k ≤ d(SN−1y) ≤ diam(N ) i teza wynika z dowolno´sci h.

Pozosta la cze´s´, c twierdzenia wynika z faktu, ˙ze je´sli A jest wypuk ly i zbalansowany to bal(A) = A. 

Przyklad 1.3 Zadania ca lkowania i aproksymacji jednostajnej, zdefiniowa- ne w przyk ladzie 1.1 sa zadaniami liniowymi., Ponadto, zbi´or E funkcji spe lniajacych warunek Lipschitza ze sta l, a 1 jest wypuk ly i zbalansowany., Dlatego mo˙zemy zastosowa´c twierdzenie 1.3.

Przypominajac, ˙ze przez f, 0+ oznaczyli´smy koperte g´, orna dla informacji, zerowej, dla ca lkowania mamy

diamInt(N ) = 2 Z 1

0

f0+(x) dx = t21+ (1 − tn)2+1 2

n

X

i=2

(ti− ti−1)2,

a dla aproksymacji jednostajnej diamApp(N ) = 2 max

0≤x≤1f0+(x) = max { 2t1, 2(1 − tn), ti− ti−1, 2 ≤ i ≤ n } . Poniewa˙z Int jest funkcjona lem to mamy radInt(N ) = diamInt(N )/2. Sto- sujac interpretacje geometryczne mo˙zna pokaza´, c, ˙ze r´ownie˙z radApp(N ) = diamApp(N )/2 (´cwiczenie 1.7).

Cwiczenia ´

Cw. 1.1 Wyka˙z, ˙ze dla dowolnego zbioru A ⊆ G mamy r(A) ≤ d(A) ≤ 2 · r(A).

(14)

Cw. 1.2 Znajd´z przyk lad przestrzeni G o nastepuj, acej w lasno´sci: dla do-, wolnego 1 ≤ c ≤ 2 istnieje zbi´or Ac ⊂ G taki, ˙ze d(A) = c · r(A).

Cw. 1.3 Podaj przyk lad przestrzeni G i zbioru A ⊂ G dla kt´orego (i) centrum nie istnieje,

(ii) centrum nie jest wyznaczone jednoznacznie.

Cw. 1.4 Za l´o˙zmy, ˙ze je´sli zbi´or A ⊂ G ma ´srodek symetrii, tzn. istnieje g ∈ G takie, ˙ze je´sli g ∈ A to 2g− g ∈ A. Wyka˙z, ˙ze wtedy g jest centrum A oraz r(A) = d(A)/2.

Cw. 1.5 Wyka˙z, ˙ze dla dowolnego A ⊆ G zbi´or bal(A) jest (i) zbalansowany,

(ii) wypuk ly o ile A jest wypuk ly,

(iii) r´owny A o ile A jest wypuk ly i zbalansowany.

Cw. 1.6 Wyka˙z, ˙ze je´sli dla dw´och informacji liniowych N1, N2 : F → Rn mamy ker N1 = ker N2 to dla dowolnego zadania S na dowolnym zbiorze E mamy rad(N1) = rad(N2). Czy implikacja odwrotna jest r´ownie˙z prawdziwa?

Cw. 1.7 Wyka˙z, ˙ze dla zadania aproksymacji jednostajnej z przyk ladu 1.1 mamy diamApp(N ) = 2 radApp(N ) oraz interpolacja kawa lkami liniowa oparta na n wez lach t, i jest algorytmem optymalnym.

(15)

Rozdzia l 2

Algorytmy afiniczne dla funkcjona l´ ow

Jasne jest, ˙ze zale˙zy nam na istnieniu algorytm´ow ϕ, kt´ore sa nie tylko opty-, malne, albo bliskie optymalnym, ale jednocze´snie sa proste w realizacji. Do, takich algorytm´ow nale˙za algorytmy liniowe lub afiniczne, tzn. takie kt´, ore liniowo albo afinicznie zale˙za od uzyskanej informacji y o elemencie f . Na, przyk lad, dla zadania ca lkowania algorytmami liniowymi sa dobrze znane, kwadratury. W tym rozdziale poka˙zemy istnienie takich algorytm´ow dla aproksymacji funkcjona low liniowych S na podstawie informacji liniowej N . Najpierw jednak przypomnimy pojecie funkcjona lu Minkowskiego (ang., gauge function), kt´ore bedzie pe lni´, c wa˙zna rol, e w naszych rozwa˙zaniach.,

2.1 Funkcjona l Minkowskiego

Niech X bedzie dowoln, a przestrzeni, a liniow, a., Zbi´or B ⊆ X nazywamy poch laniajacym gdy dla ka˙zdego x ∈ X istnieje α > 0 taka, ˙ze αx ∈ B.,

Niech B ⊆ X bedzie zbiorem wypuk lym, zbalansowanym i poch laniaj, a-, cym. Dla x ∈ X definiujemy funkcjona l Minkowskiego

pB(x) = inf{ t > 0 : x/t ∈ B }, Poniewa˙z B jest poch laniajacy to 0 ≤ p, B(x) < ∞.

Lemat 2.1 Funkcjona l pB jest seminorma na podprzestrzeni X., 9

(16)

Dow´od. Je´sli α = 0 to pB(αx) = pB(0) = 0 = αpB(x). Je´sli za´s α 6= 0 to pB(αx) = |α| inf{t/|α| > 0 : |α|x/t ∈ B}

= |α| inf{s > 0 : x/s ∈ B} = |α|pB(x).

Aby pokaza´c nier´owno´s´c tr´ojkata zauwa˙zmy najpierw, ˙ze je´sli x/t, y/s ∈ B, to wobec wypuk lo´sci B mamy

x + y t + s =

 t t + s



·x t +

 s t + s



· y s ∈ B.

Dlatego

pB(x) + pB(y) = inf{t > 0 : x/t ∈ B} + inf{s > 0 : y/s ∈ B}

= inf{t + s > 0 : x/t, y/s ∈ B}

≥ inf{t + s > 0 : (x + y)/(t + s) ∈ B}

= pB(x + y). 

2.2 Afiniczne algorytmy optymalne

Jeste´smy ju˙z gotowi, aby pokaza´c g l´owne twierdzenie tego rozdzia lu.

Twierdzenie 2.1 Niech S : F → R bedzie funkcjona lem liniowym, a N :, F → Y informacja liniow, a, przy czym Y = R, n. (i) Je´sli E jest zbiorem wypuk lym i zbalansowanym to istnieje algorytm optymalny, kt´ory jest liniowy.

(ii) Je´sli E jest wypuk ly to istnieje algorytm optymalny, kt´ory jest afiniczny.

Dow´od.

(i) Bez zmniejszenia og´olno´sci mo˙zemy za lo˙zy´c, ˙ze E jest te˙z poch laniajacy., Inaczej mogliby´smy ograniczy´c sie do podprzestrzeni rozpi, etej przez wszyst-, kie elementy zbioru E, wzgledem kt´, orej E jest poch laniajacy.,

Oznaczmy przez r promie´n informacji N , r := rad(N ) = sup

h∈E∩ker(N )

|Sh|.

Je´sli r = 0 to dla ka˙zdego y ∈ N (F ) zbi´or SN−1y jest jednoelementowy.

Algorytm ϕ(y) = SN−1y jest wiec dobrze okre´slony, liniowy i dok ladny.,

(17)

2.2. AFINICZNE ALGORYTMY OPTYMALNE 11 Za l´o˙zmy wiec, ˙ze r > 0. Niech,

B := { (N f, Sf ) : f ∈ E } ⊂ bY := Y × R

oraz pB bedzie funkcjona lem Minkowskiego zbioru B. Niech dalej P b, edzie, jednowymiarowa podprzestrzeni, a b, Y element´ow postaci (0, g) dla g ∈ R.

Zauwa˙zmy, ˙ze dla ka˙zdego x = (0, g) ∈ P mamy pB(x) = |g|/r, co wy- nika bezpo´srednio z definicji zbioru B i promienia informacji. Przestrze´n bY roz lo˙zymy na sume prost, a,,

Y = bb Y0⊕ bY1,

gdzie bY0 = {x ∈ bY : pB(x) = 0}, a bY1 jest dope lnieniem bY0 do bY zawie- rajacym P . Dalej b, edziemy traktowa´, c bY1 jako przestrze´n unormowana z, norma p, B.

Na podprzestrzeni P definiujemy teraz funkcjona l liniowy ξ1(0, g) = g/r.

Jego norma na P (indukowana przez pB) wynosi 1. Zgodnie z twierdzeniem Hahna-Banacha o rozszerzaniu funkcjona l´ow, ξ1 mo˙zna rozszerzy´c do funk- cjona lu ξ2 okre´slonego na bY1 nie zwiekszaj, ac jego normy, tzn. takiego, ˙ze,

1. ξ2(x) = ξ1(x) dla x ∈ P , oraz 2. |ξ2(x)| ≤ pB(x) dla x ∈ bY1.

Funkcjona l ξ2 rozszerzymy teraz po raz drugi, tym razem do funkcjona lu ξ3 okre´slonego na ca lej przestrzeni bY . Mianowicie, dla x = x0 + x1, x0 ∈ bY0, x1 ∈ bY1 k ladziemy

ξ3(x) = ξ2(x1).

Poniewa˙z, z nier´owno´sci tr´ojkata,,

pB(x1) = pB(x1) − pB(x0) ≤ pB(x) ≤ pB(x1) + pB(x0) = pB(x1), to pB(x) = pB(x1), a stad,

3(x)| = |ξ2(x1)| ≤ pB(x1) = pB(x).

Funkcjona l ξ3 przedstawimy w postaci

ξ3(y, g) = ξ3(y, 0) + ξ3(0, g) = ϕ1(y) + g/r, gdzie ϕ1(y) = ξ3(y, 0).

Dla dowolnego f ∈ E mamy (N f, Sf ) ∈ B i dlatego

3(N f, Sf )| =

ϕ1(N f ) + Sf r

≤ 1,

(18)

Podstawiajac ϕ = −rϕ, 1 otrzymujemy ostatecznie

|Sf − ϕ(N f )| ≤ r,

a to oznacza, ˙ze ϕ jest poszukiwanym optymalnym algorytmem liniowym.

(ii) Rozpatrzmy to samo zadanie S z taka sam, a informacj, a N , ale ze zbio-, rem bal(E) zamiast E. Oczywi´scie promie´n informacji sie nie zmienia i wy-, nosi r. Poniewa˙z bal(E) jest wypuk ly i zbalansowany, istnieje algorytm li- niowy ϕ, kt´ory jest optymalny. Dla dowolnych f1, f2 ∈ E mamy wiec,

S f1− f2 2



− ϕ



N f1− f2 2



≤ r, albo

|(Sf1− ϕ(N f1)) − (Sf2− ϕ(N f2)| ≤ 2r, a stad,

sup

f ∈E

(Sf − ϕ(N f )) − inf

f ∈E(Sf − ϕ(N f )) ≤ 2r.

Przesuwajac algorytm ϕ o ´srodek odcinka o ko´, ncach wyznaczonych przez powy˙zsze ‘sup’ i ‘inf’ otrzymujemy algorytm afiniczny, kt´orego b lad wynosi, r, czyli jest optymalny. 

Przyklad 2.1 Powr´o´cmy na moment to zadania ca lkowania funkcji lipschit- zowskich z przyk ladu 1.1, na podstawie warto´sci funkcji podca lkowej w punk- tach t1 < · · · < tn. Jak wiemy, w tym przypadku algorytm optymalny (a nawet centralny) ϕ jest ´srednia arytmetyczn, a ca lek z koperty dolnej i ko-, perty g´ornej. Latwo zauwa˙zy´c, ˙ze ϕ to nic innego jak z lo˙zona kwadratura trapez´ow

φ([f (t1), . . . , f (tn)])

= t1f (t1) +

n

X

i=2

(ti− ti−1) f (ti−1) + f (ti) 2



+ (1 − tn)f (tn)

= f (t1) t1+ t2 2

 +

n−1

X

i=2

f (ti) ti−1+ ti+1 2



+ f (tn)



1 − tn−1+ tn 2

 ,

kt´ora jest oczywi´scie algorytmem liniowym.

(19)

2.3. GDY ZADANIE NIE JEST FUNKCJONA LEM... 13

2.3 Gdy zadanie nie jest funkcjona lem...

Je´sli zadanie S nie jest funkcjona lem, a operatorem liniowym to twierdze- nie 2.1 nie jest w og´olno´sci prawdziwe. Podamy teraz ekstremalny przyk lad zadania liniowego korzystajacego z informacji liniowej, z wypuk lym i zbalan-, sowanym zbiorem E, dla kt´orego b lad dowolnego algorytmu liniowego jest, niesko´nczony, a promie´n informacji jest dowolnie ma ly.

Niech X1 bedzie przestrzeni, a Hilberta z iloczynem skalarnym h·, ·i. Ro-, zwa˙zmy liniowe i r´o˙znowarto´sciowe przekszta lcenie M : X1 → X1 spe lniajace,

M (X1) 6= X1 oraz M (X1) = X1.

Niech F = M (X1) i niech X2 bedzie przestrzeni, a unormowan, a, tak, a ˙ze X, 1 ⊂ X2 i norma w X2 jest s labsza od normy w X1, tzn. k · kX2 ≤ αk · kX1 dla pewnej α > 0. Okre´slamy przestrze´n G jako X1 z norma,

kgkG = kM gkX2 ∀g ∈ X1. Operator rozwiazania S : F → G definiujemy jako,

S(f ) = g ⇐⇒ M g = f.

Zdefiniujemy teraz zbi´or E. We´zmy f1 ∈ X1\ F . Poniewa˙z F jest podprze- strzenia X, 1 to mo˙zemy zak lada´c bez zmniejszenia og´olno´sci, ˙ze kf1kX1 = 1.

Rozwa˙zmy rzut prostopad ly T w X1 dany r´ownaniem T f = f − hf, f1if1 ∀f ∈ X1. Zbi´or E definiujemy jako

E = {f ∈ F : kT f kX1 ≤ 1 }.

Oczywi´scie, E jest wypuk ly i zbalansowany. Wa˙zna dla p´, o´zniejszych rozwa˙za´n w lasno´scia zbioru E jest, ˙ze chocia˙z f, 1 nie nale˙zy do E to pewna wielokrotno´s´c afa aproksymacji fa elementu f1 ju˙z nale˙zy do E. Istotnie, dla ka˙zdego dodatniego a, wobec gesto´sci F w X, 1, istnieje fa ∈ F taki, ˙ze kfa− f1kX1 ≤ a−1. Poniewa˙z T f1 = 0, mamy

kT (afa)kX1 = akT (fa− f1)kX1 ≤ akfa− f1kX1 ≤ 1.

Stad af, a ∈ E.

Niech teraz N = [L1, L2, . . . , Ln] bedzie informacj, a nieadaptacyjn, a, gdzie, Li sa pewnymi funkcjona lami liniowymi.,

(20)

Lemat 2.2 Dla dowolnego algorytmu liniowego ϕL(N (f )) = Pn

j=1Lj(f )gj, gdzie gj ∈ G, mamy

eworL, N ) = +∞.

Dow´od. Niech afa ∈ E, kfa− f1kX1 ≤ a−1. Wtedy eworL, N ) ≥ kafa

n

X

j=1

Lj(afa)gjkG

= a kafa

n

X

j=1

Lj(afa)M gjkX

2

≥ a kf1

n

X

j=1

Lj(fa)M gjkX

2 − akfa− f1kX2

≥ a inf

x∈Akf1− xkX2 − 1,

gdzie A = span(M g1, M g2, . . . , M gn) ⊂ F . Poniewa˙z A jest sko´nczenie wy- miarowa i f1 ∈ A, infimum w ostatnim wzorze jest dodatnie. Wobec do-/ wolno´sci a mamy wiec e, worL, N ) = +∞. 

Teraz zdefiniujemy algorytm nieliniowy o b ledzie sko´, nczonym, kt´ory ko- rzysta z informacji N . Zak ladamy, ˙ze funkcjona ly Lj sa postaci L, j = h·, fji, gdzie fj sa wzajemnie prostopad le, tzn. hf, i, fji = δi,j, oraz f2, f3, . . . , fn

nale˙za do F, 1. (Przypomnijmy, ˙ze f1 ∈ F/ 1.) Niech ρ(N ) = sup

h∈X1∩ker N

khkX2 khkX1.

Poniewa˙z X1 jest ciag lym zanurzeniem w X, 2, ρ(N ) jest sko´nczone i dodatnie.

Nieliniowy algorytm ϕN definiujemy nastepuj, aco. Ustalamy δ > 0. Wo-, bec gesto´sci F w X, 1, istnieje u1 = u1(N (f )) ∈ F takie, ˙ze

kM u1− f1kX2 ≤ δρ(N )

|hf, f1i|.

Poniewa˙z f2, . . . , fn ∈ M (X1), istnieja u, 2, . . . , un takie, ˙ze M uj = fj dla j = 2, 3, . . . , n. Definiujemy algorytm

ϕN(N (f )) = hf, f1iu1(N (f )) +

n

X

j=2

hf, fjiuj.

(21)

2.3. GDY ZADANIE NIE JEST FUNKCJONA LEM... 15 Zauwa˙zmy, ˙ze algorytm ϕN jest “ lagodnie” nieliniowy, poniewa˙z dla ustalo- nego hf, f1i jest on afiniczny ze wzgledu na hf, f, 1i, . . . , hf, fni. Poka˙zemy,

˙ze

eworN, N ) ≤ (1 + δ)ρ(N ).

W tym celu, dla f ∈ E ustalamy

e(f ) = kS(f ) − ϕN(N (f ))kG = kf − hf, f1iM u1

n

X

j=2

hf, fjikX

2. Mo˙zemy napisa´c, ˙ze f = hf, f1if1 + g, gdzie g = T f . Zatem hg, f1i = 0.

Poniewa˙z hf1, fji = 0, mamy hf, fji = hg, fji dla j = 2, . . . , n. K ladac, h = g −Pn

j=2hg, fjifj dostajemy e(f ) ≤ |hf, f1i| kf1− M u1kX2 + kg −

n

X

j=2

hg, fjifjkX

2 ≤ δρ(N ) + khkX2. Poniewa˙z hfi, fji = δi,j, mamy hh, fji = 0 dla j = 1, 2, . . . , n. Stad h ∈ ker N ., Ponadto,

khk2X

1 = kgk2X

1 − 2

n

X

j=2

hg, fji2+

n

X

j=2

hg, fji2 ≤ kgk2X

1 = kT f k2X

1 ≤ 1.

Stad khk, X2 ≤ ρ(N ) i e(f ) ≤ (1 + δ)ρ(N ). Poniewa˙z jest to prawda dla, dowolnych f ∈ E to mamy eworN, N ) ≤ (1 + δ)ρ(N ).

Promie´n informacji rad(N ) jest r´owny ρ(N ). Rzeczywi´scie, rad(N ) ≥ 1

2diam(N ) = sup{kS(h)k : h ∈ E ∩ ker N }

= sup{khkX2 : h ∈ F ∩ ker N, kT hkX1 = khkX1 ≤ 1 }

= supnkhkX2

khkX1 : h ∈ X1∩ ker No

= ρ(N ).

Z drugiej strony, rad(N ) ≤ eworN, N ) ≤ (1 + δ)ρ(N ). Poniewa˙z δ mo˙ze by´c dowolna liczb, a dodatni, a, rad(N ) = ρ(N ).,

W ko´ncu poka˙zemy, ˙ze promie´n informacji rad(N ) mo˙ze by´c dowolnie ma ly. Rzeczywi´scie, niech S : X1 → X bedzie w lo˙zeniem, Sh = h ∀h., Wtedy rad(N ) = kSkker N. Je´sli S jest zwarty to mo˙zemy wybra´c f2, . . . , fn tak, ˙ze rad(N ) da˙zy do zera gdy n → ∞.,

(22)

Cwiczenia ´

Cw. 2.1 Wyka˙z, ˙ze zadanie aproksymacji funkcjona lu liniowego na podsta- wie informacji liniowej danym zbiorze wypuk lym E jest tak trudne jak trudne jest najtrudniejsze podzadanie jednowymiarowe, tzn.

rad(E; N ) = sup

I⊂E

rad(I; N ), gdzie I oznacza odcinek domkniety.,

Cw. 2.2 Rozpatrzmy zadanie ca lkowania z waga wyk ladnicz, a,, S(f ) =

Z 0

f (x) exp(−x) dx,

w klasie E funkcji f : R+ → R, f(0) = 0, spe lniajacych warunek Lipschitza,

ze sta la 1, na podstawie informacji,

N (f ) = [f (x1), f (x2), . . . , f (xn)],

0 ≤ x1 < x2 < · · · < xn. Znajd´z promie´n informacji N i wska˙z, je´sli istnieje, algorytm optymalny, kt´ory jest liniowy.

Cw. 2.3 Wyka˙z, ˙ze z lo˙zona kwadratura trpez´ow nie jest algorytmem opty- malnym dla zadania ca lkowania z Cw 2.2.

Cw. 2.4 Niech E bedzie klas, a funkcji f ∈ C, 1([0, 1]) takich, ˙ze

|f0(x)| ≤ ψ(x),

gdzie ψ jest nieujemna, niemalejaca i ci, ag la., Zak ladajac, ˙ze informacja, N (f ) = [f (0), f (1)], wska˙z, o ile istnieja, algorytm centralny oraz algorytm, optymalny, kt´ory jest liniowy, dla zada´n

(i) ca lkowania,

(ii) aproksymacji f w normie jednostajnej k · k. Ile wynosi promie´n informacji dla obu zada´n?

(23)

Rozdzia l 3

Optymalno´ s´ c algorytm´ ow splajnowych

W klasycznym ujeciu splajny, czyli funkcje sklejane, to funkcje kawa lkami, wielomianowe i do pewnego stopnia g ladkie w punktach ich sklejania. Natu- ralne czy periodyczne funkcje sklejane interpolujace dane posiadaj, a r´, owno- cze´snie pewne w lasno´sci minimalizacyjne, kt´ore przypomnimy w sekcji 3.3 i kt´ore sa punktem wyj´scia do uog´, olnienia pojecia splajnu.,

3.1 Algorytmy splajnowe

Rozpatrujemy zadanie liniowe S : F → G z informacja liniow, a N : F → R, n. Zak ladamy, ˙ze w F zdefiniowana jest seminorma k · kF.

Definicja 3.1 Niech ρ ≥ 1. Dla danej informacji y, element s(y) nazywamy splajnem je´sli minimalizuje seminorme w´, sr´od wszystkich element´ow interpo- lujacych dane, tzn.,

(i) N (s(y)) = y,

(ii) ks(y)kF ≤ ρ · inf{kf kF : f ∈ F, N f = y }.

Algorytm ϕspl(y) = S(s(y)) dla y ∈ N (F ), nazywamy algorytmem splajno- wym.

Zauwa˙zmy, ˙ze splajn (a tym samym algorytm splajnowy) zawsze istnieje gdy ρ > 1, ale wtedy nie jest wyznaczony jednoznacznie.

17

(24)

Twierdzenie 3.1 Niech E = {f ∈ F : kf kF ≤ 1} bedzie kul, a jednostkow, a, w F . Wtedy dla ka´zdego f ∈ E mamy

kSf − ϕspl(N f )k ≤ c(f ) · diam(N ), gdzie c(f ) = (1 + ρ)kf kF/2. Stad,

ewor(N, ϕspl) ≤ 1 + ρ

2 · diam(N ).

(Przyjmujemy, ˙ze je´sli kf kF = 0 i diam(N ) = ∞ to c(f )diam(N ) = ∞.) Dow´od. Bez zmniejszenia og´olno´sci mo˙zemy za lo˙zy´c, ˙ze je´sli khkF = 0 i N h = 0 to Sh = 0, bo w przeciwnym przypadku promie´n informacji jest niesko´nczony.

Z w lasno´sci (i) splajnu mamy, ˙ze N (f − s(N f )) = 0, a z w lasno´sci (ii),

˙ze ks(N f )kF ≤ ρkf kF. Stad, je´sli kf − s(N f )k, F = 0 to Sf − ϕspl(N f ) = S(f − s(N f )) = 0, a je´sli kf − s(N f )kF 6= 0 to

kSf − ϕspl(N f )k = kf − s(N f )kF · S

 f − s(N f ) kf − s(N f )kF



≤ (kf kF + ks(N f )kF) · sup{kShk : khkF ≤ 1, N h = 0}

= 1 + ρ

2 kf kF · diam(N ).

Druga cze´s´, c tezy wynika z faktu, ˙ze kf kF ≤ 1. 

Algorytmy splajnowe sa wi, ec co najwy˙zej dwa razy gorsze od optymalnych, o ile zadanie liniowe jest zdefiniowane na kuli jednostkowej.

3.2 Splajny w przestrzeniach Hilberta

Za l´o˙zmy teraz, ˙ze F jest przestrzenia Hilberta z iloczynem skalarnym h·, ·i, F i norma kf k, F = phf, fiF, a informacja jest nie tylko liniowa, ale r´ownie˙z ciag la (co implikuje, ˙ze jej j, adro jest podprzestrzeni, a domkni, et, a). Okazuje, sie, ˙ze wtedy splajn jest wyznaczony jednoznacznie i zale˙zy liniowo od danych, y. Rzeczywi´scie, przedstawmy przestrze´n F w postaci sumy prostej,

F = ker N ⊕ F1,

(25)

3.2. SPLAJNY W PRZESTRZENIACH HILBERTA 19 gdzie F1 jest uzupe lnieniem ortogonalnym podprzestrzeni ker N do F . Niech dalej eN : F1 → N (F ) bedzie obci, eciem N do podprzestrzeni F, 1, tzn. eN f = N f , ∀f . Oczywi´scie, eN jest bijekcja, a je´sli tak to odwzorowanie odwrotne, Ne−1 : N (F ) → F1 istnieje i jest liniowe. Jednocze´snie, fy := eN−1y jest jedynym elementem splajnowym. Je´sli bowiem N f = y i f 6= fy to f = f0+ fy, gdzie 0 6= f0 ∈ ker N , i z twierdzenia Pitagorasa dostajemy

kf k2F = kf0k2F + kfyk2F > kfykF.

Za l´o˙zmy teraz, dla uproszczenia, ˙ze dimN (F ) = n. Wtedy N f = [hf, ξ1iF, hf, ξ2iF, . . . , hf, ξniF],

gdzie ξi sa liniowo niezale˙zne. (Z twierdzenia Riesza wynika, ˙ze takie ξ, j istnieja.) Wtedy,

F1 = span{ξ1, ξ2, . . . , ξn},

bo jadro sk lada si, e z element´, ow prostopad lych do wszystkich ξj. Element splajnowy mo˙zna wyznaczy´c jako s(y) = Pn

j=1ajξj, gdzie a = (a1, . . . , an) jest rozwiazaniem uk ladu r´, owna´n liniowych Ga = y z macierza,

G = (hξi, ξji)ni,j=1 i prawa stron, a y = (y, 1, . . . , yn).

Wzory te przyjmuja szczeg´, olnie prosta posta´, c gdy elementy ξj tworza, uk lad ortonormalny. Wtedy bowiem a = y oraz

s(y) =

n

X

j=1

yjξj.

Twierdzenie 3.2 Niech S : F → G bedzie zadaniem liniowym, a N in-, formacja liniow, a i ci, ag l, a. Je´, sli ponadto F jest przestrzenia Hilberta, a E, kula jednostkow, a w F , to algorytm splajnowy ϕ, spl jest jedynym algorytmem optymalnym,

ewor(N, ϕspl) = rad(N ) = 1

2diam(N ) = sup{ kShk : h ∈ ker N, khkF ≤ 1 }.

Dow´od. Wobec tego, ˙ze

E ∩ N−1y = { s(y) + h : h ∈ ker N, khk2F ≤ 1 − ks(y)k2F},

(26)

mamy

S(E ∩ N−1y) = { S(s(y)) + Sh : h ∈ ker N, khk2F ≤ 1 − ks(y)k2F}.

To oznacza, ˙ze S(E ∩ N−1y) jest symetryczny wok´o l S(s(y)) = ϕspl(y). A je´sli tak, to ϕspl(y) jest jego centrum (patrz. ´cwiczenie 1.4) oraz

r(S(E ∩ N−1y) = sup{ kShk : h ∈ ker N, khk2F ≤ 1 − ks(y)k2F}, co ko´nczy dow´od. 

3.3 Klasyczne funkcje splajnowe

W tym podrozdziale poka˙zemy, ˙ze klasyczne splajny wielomianowe sa te˙z, splajnami w og´olniejszym sensie, zdefiniowanym na poczatku tego rozdzia lu., Ograniczymy sie przy tym do naturalnych splajn´, ow wielomianowych, chocia˙z fakty pokazane poni˙zej sa prawdziwe r´, ownie˙z dla splajn´ow okresowych.

Niech a < b oraz dane bed, a w, ez ly,

a = t0 ≤ t1 < t2 < · · · < tn≤ tn+1= b.

Niech Πk bedzie przestrzeni, a wielomian´, ow stopnia co najwy˙zej k.

Definicja 3.2 Splajnem naturalnym rzedu r ≥ 1 odpowiadaj, acym w, ez lom, ti, 1 ≤ i ≤ n, nazywamy funkcje p : R → R spe lniaj, ac, a warunki:,

(a) p ∈ Π2r−1 na ka˙zdym z podprzedzia l´ow (ti, ti+1), 0 ≤ i ≤ n, (b) p ma pochodne rzedu do 2r − 2 w l, acznie na ca lej prostej R,, (c) p ∈ Πr−1 na p´o lprostych (−∞, t1] i [tn, ∞).

Niech Wr(a, b) bedzie przestrzeni, a Sobolewa funkcji f : [a, b] → R posia-, dajacych pochodn, a rz, edu r − 1, kt´, ora jest bezwzglednie ci, ag la, 1 i f(r) jest ca lkowalna z kwadratem,

Wr(a, b) = {f : [a, b] → R : f(r−1) bezwgl. ciag la i f, (r)∈ L2(a, b) }.

Oczywi´scie, splajny naturalne rzedu r ograniczone do przedzia lu [a, b] tworz, a, sko´nczenie wymiarowa podprzestrze´, n liniowa w W, r, kt´ora oznaczymy przez, Sr.

1Przypomnujmy, ˙ze g : [a, b] → R jest bezwzglednie ci, ag la gdy istnieje funkcja, ca lkowalna h taka, ˙ze g(x) = g(a) +Rx

a h(t) dt. Funkcje h nazywamy (uog´, olniona) po-, chodna g, 0 funkcji g.

(27)

3.3. KLASYCZNE FUNKCJE SPLAJNOWE 21 Lemat 3.1 Niech f ∈ Wr(a, b),

f (ti) = 0, 1 ≤ i ≤ n.

Wtedy dla dowolnego naturalnego splajnu p rzedu r mamy, Z b

a

f(r)(x)p(r)(x) dx = 0,

tzn. f jest prostopad la do Sr wzgledem semi-iloczynu skalarnego, hf1, f2iF :=

Z b a

f1(r)(x)f2(r)(x2) dx.

Dow´od. Ca lkujac przez cz, e´sci mamy, Z b

a

f(r)(x)p(r)(x) dx =f(r−1)(x)p(r)(x)b

a− Z b

a

f(r−1)(x)p(r+1)(x) dx.

Zauwa˙zmy, ˙zef(r−1)(x)p(r)(x)b

a = 0, poniewa˙z p(r)zeruje sie na p´, o lprostych (−∞, t1] i [tn, +∞). Postepuj, ac indukcyjnie dostajemy,

Z b a

f(r)(x)p(r)(x) dx = − Z b

a

f(r−1)(x)p(r+1)(x) dx

= f(r−2)(x)p(r+1)(x)b

a− Z b

a

f(r−2)(x)p(r+2)(x) dx

= · · · = (−1)i Z b

a

f(r−i)(x)p(r+i)(x) dx

= Z b

a

f0(x)p(2r−1)(x) dx.

Funkcja p(2r−1) jest sta la na ka˙zdym pododcinku [ti, ti+1]. Oznaczajac przez, pi jej warto´s´c na [ti, ti+1] otrzymujemy ostatecznie

Z b a

f0(x)p(2r−1)(x) dx =

n−1

X

i=1

pi(f (ti−1) − f (ti)) = pmf (b) − p1f (a) = 0. 

(28)

Lemat 3.2 Dla dowolnej funkcji f ∈ Wr(a, b) istnieje naturalny splajn pf rzedu r interpoluj, acy f w punktach t, i, tzn.

pf(ti) = f (ti), 1 ≤ i ≤ n.

Dodatkowo, je´sli n ≥ r to pf jest wyznaczony jednoznacznie oraz kpfkF ≤ kf kF,

gdzie kgkF =phg, giF = qRb

a (g(r)(x))2 dx.

Dow´od. Je´sli n < r to jako pf mo˙zemy wzia´,c dowolny wielomian stopnia r − 1 interpolujacy f . Niech wi, ec n ≥ r.,

Najpierw poka˙zemy, ˙ze pf ≡ 0 jest jedynym splajnem interpolujacym, dane zerowe, tzn. pf(ti) = 0 ∀i. Rzeczywi´scie, stosujac lemat 3.1 z f =, p ∈ Sr mamy kpkF = 0. To implikuje, ˙ze p jest wielomianem stopnia co najwy˙zej r − 1 znikajacym w n > r − 1 punktach, czyli p ≡ 0.,

Zauwa˙zmy teraz, ˙ze aby znale´z´c wsp´o lczynniki wielomianu pf zale˙zy rozwiaza´, c uk lad r´owna´n z macierza kwadratow, a. Poniewa˙z, jak pokazali´smy,, uk lad jednorodny ma jednoznaczne rozwiazanie, p, f interpolujacy f istnieje, i jest wyznaczony jednoznacznie.

Aby zako´nczy´c dow´od, zauwa˙zmy, ˙ze wobec lematu 3.1 mamy hpf, f − pfiF = 0, a stad,

kf k2F = k(f − pf) + pfk2F = kf − pfk2F + kpfk2F ≥ kpfk2F. 

Niech teraz F = Wr(a, b), E = {f ∈ F : kf kF ≤ 1}, a informacja N f = [f (t1), . . . , f (tn)].

Wtedy, zgodnie za nasza teori, a na temat optymalno´sci algorytm´, ow splajno- wych mamy, ˙ze dla dowolnego zadania liniowego S : F → G optymalnym algorytmem jest ϕ(N f ) = S(pf), gdzie pf jest splajnem naturalnym inter- polujacym f w punktach t, i, 1 ≤ i ≤ n.

Cwiczenia ´

Cw. 3.1 Je´sli w definicji splajnu naturalnego warunek (c) zastapimy przez, warunek, ˙ze p i wszystkie jej pochodne rzedu do 2r − 2 w l, acznie s, a (b − a),

(29)

3.3. KLASYCZNE FUNKCJE SPLAJNOWE 23 okresowe to m´owimy o splajnach okresowych. Wyka˙z, ˙ze lematy 3.1 i 3.2 zachodza r´, ownie˙z dla splajn´ow okresowych i okresowych funkcji, tzn. gdy f ∈ fWr(a, b), gdzie

Wfr(a, b) = {f ∈ Wr(a, b) : f(i)(a) = f(i)(b), 0 ≤ i ≤ r − 1}.

(30)
(31)

Rozdzia l 4

Informacja optymalna

Dotychczas zajmowali´smy sie algorytmami optymalnymi dla zadanej infor-, macji. W wielu zadaniach mamy mo˙zliwo´s´c doboru informacji, np. w za- daniu numerycznego ca lkowania zwykle mo˙zemy dobra´c punkty, w kt´orych obliczamy warto´sci funkcji.

4.1 Minimalny promie´ n i optymalna informa- cja

Bedziemy zak lada´, c, ˙ze rozwiazuj, ac zadanie S : F → G mamy do dyspozycji, jedynie informacje Nn : F → Rnz pewnej klasy Nn, parametryzowanej indek- sem n. Na przyk lad, dla zada´n zdefiniowanych na przestrzeniach funkcyjnych mo˙zemy zak lada´c, ˙ze mo˙zliwe sa jedynie obliczenia n warto´sci funkcji, a dla, zada´n zdefiniowanych na przestrzeniach Hilberta F obliczenia dowolnych n funkcjona l´ow.

Definicja 4.1 Niech Nn, n ≥ 1, bedzie rodzin, a informacji dopuszczalnych., Wielko´s´c

r(n) = inf

Nn∈Nnrad(Nn) nazywamy n-tym minimalnym promieniem informacji.

Informacje N, n nazywamy n-ta optymaln, a je´, sli Nn ∈ Nn oraz rad(Nn) = r(n).

25

(32)

Przyklad 4.1 Rozpatrzmy zadania ca lkowania i aproksymacji jednostajnej funkcji z przyk ladu 1.1, gdzie klasa Nn dopuszczalnych informacji sk lada sie, z oblicze´n n warto´sci funkcji,

Nn(f ) = [f (t1), . . . , f (tn)]

dla dowolnych tj ∈ [0, 1]. Formu ly na promie´n informacji zosta ly obliczone w przyk ladzie 1.3 i wynosza,

radInt(Nn) = t21+ (1 − tn)2+1 2

n

X

i=2

(ti− ti−1)2,

radApp(Nn) = max { 2t1, 2(1 − tn), ti− ti−1, 2 ≤ i ≤ n } .

Minimalizujac oba promienie w standardowy spos´, ob ze wzgledu na punkty, ti dostajemy, ˙ze w obu przypadkach optymalna informacja

Nn = [f (t1), . . . , f (tn)], gdzie

ti = i − 1/2

n , 1 ≤ j ≤ n.

Odpowiednie minimalne promienie wynosza, r(Int; n) = 1

4n, r(App; n) = 1 2n.

4.2 Informacja optymalna w przestrzeniach Hilberta

Rozpatrzmy teraz zadanie opisywane ciag lym operatorem liniowym S : F →, G dzia lajacym z o´srodkowej przestrzeni Hilberta F z iloczynem skalarnym, h·, ·iF w przestrze´n Hilberta G z iloczynem skalarnym h·, ·i.

Uwaga 4.1 Przypomnijmy, ˙ze przestrze´n F jest o´srodkowa wtedy i tylko wtedy gdy istnieje w niej przeliczalny zbi´or, kt´ory jest gesty. Konsekwencj, a, tego jest istnienie przeliczalnej i ortonormalnej bazy zupe lnej, tzn. takiego ciagu {f, j}j=1, ˙ze hfi, fjiF = δi,j (delta Kroneckera) oraz dla ka˙zdego f ∈ F

f =

X

j=1

hf, fjiFfj,

(33)

4.2. INFORMACJA OPTYMALNA W PRZESTRZENIACH HILBERTA27 przy czym zbie˙zno´s´c szeregu rozumiemy tutaj jako zbie˙zno´s´c w normie prze- strzeni F .

Zak ladamy dalej, ˙ze klasa Nn dopuszczalnych informacji sk lada sie z ob-, licze´n n funkcjona l´ow liniowych ciag lych, tzn. N, n∈ Nn gdy

Nn(f ) = [hf, ξ1iF, hf, ξ2iF, . . . , hf, ξniF], dla dowolnych ξj ∈ F .

Aby znale´z´c n-ty minimalny promie´n i informacje optymaln, a, pos lu˙zymy, sie pewnymi faktami z Analizy Funkcjonalnej. Niech S, : G → F bedzie, przekszta lceniem sprze˙zonym do S, jednoznacznie zdefiniowanym r´, owno´scia,

hSf, gi = hf, SgiF, ∀f ∈ F ∀g ∈ G.

Uwaga 4.2 Istnienie operatora sprze˙zonego wynika z twierdzenie Riesza., Rzeczywi´scie, wobec ciag lo´sci S, funkcjona l hS(·), gi, F jest na przestrzeni F ciag ly dla ka˙zdego g ∈ G, a jego repezentantem jest w la´snie S, g. Latwo sprawdzi´c, ˙ze odwzorowanie przyporzadkowuj, ace g element S, g jest r´ownie˙z liniowe i ciag le.,

Oznaczmy

W := SS : F → F.

Operator W jest samosprze˙zony, bo,

hW f1, f2iF = hSSf1, f2iF = hSf1, Sf2iF = hf1, SSf2iF = hf1, W f2iF. W jest r´ownie˙z nieujemnie okre´slony, bo

hW f, f iF = kSf k2 ≥ 0.

A je´sli tak to istnieje w F przeliczalna, ortonormalna i zupe lna baza {ξj}j≥1

sk ladajaca si, e z wektor´, ow w lasnych operatora W . W dodatku, odpowia- dajace im warto´sci w lasne λ, j sa nieujemne,,

W ξj = λjξj, j ≥ 1.

Na podstawie twierdzenia 3.2 mamy, ˙ze

rad(Nn)2 = sup{kShk2 : h ∈ ker Nn, khkF ≤ 1}

= sup{hW h, hiF : h ∈ ker Nn, khkF ≤ 1}.

Cytaty

Powiązane dokumenty

Zauważmy, że istnieje wzajemnie jednoznaczna odpowiedniość między wyborami składników z kolejnych (2n − 1) nawiasów a wyborami opisanych powyżej konfi- guracji... Może

Dany jest kwadrat ABCD o boku długości 10 oraz trójkąt ostrokątny ECD o tej własności, że jego część wspólna z kwadratem ABCD ma pole równe 80.. trójkąt ten musi być zawarty

[r]

Zbadamy teraz zbie˙zno´ s´ c szeregu w kra´ ncach otrzymanego przedzia

[r]

Warto´ s´ c oczekiwana zmiennej losowej X = liczba E(X) b¸ed¸ aca ´srednia wa˙zon¸ a rozk ladu prawdopodobie´ nstwa przy za lo˙zeniu, ˙ze wag¸ a jest prawdopodobie´ nstwo

Do jakiego przedzia lu powinny nale˙ze´ c warto´sci statystyki chi-kwadrat aby przy poziomie istotno´sci α = 0.05 nie by lo podstaw do odrzucenia hipotezy m´ owi¸ acej, ˙ze

Funkcja analityczna przyjmuje w dowolnie ma lym nak lutym otoczeniu punktu istotnie osobli- wego ka˙zd a warto´ , s´ c z wyj atkiem co najwy˙zej jednej w niesko´ , nczenie