Materialy do wykladu:
Zlozonosc obliczeniowa problemow ciaglych
Leszek Plaskota
Instytut Matematyki Stosowanej i Mechaniki Uniwersytet Warszawski
13 czerwca 2014
Spis tre´ sci
1 Podstawowe pojecia, 1
1.1 Zadanie, informacja, algorytm . . . 1 1.2 Algorytmy optymalne . . . 3 1.3 Gdy zadanie jest liniowe... . . 6
2 Algorytmy afiniczne dla funkcjona l´ow 9
2.1 Funkcjona l Minkowskiego . . . 9 2.2 Afiniczne algorytmy optymalne . . . 10 2.3 Gdy zadanie nie jest funkcjona lem... . . 13
3 Optymalno´s´c algorytm´ow splajnowych 17
3.1 Algorytmy splajnowe . . . 17 3.2 Splajny w przestrzeniach Hilberta . . . 18 3.3 Klasyczne funkcje splajnowe . . . 20
4 Informacja optymalna 25
4.1 Minimalny promie´n i optymalna informacja . . . 25 4.2 Informacja optymalna w przestrzeniach Hilberta . . . 26 4.3 Ca lkowanie funkcji r-g ladkich . . . 29
5 Algorytmy adaptacyjne 33
5.1 Informacja adaptacyjna a nieadaptacyjna . . . 33 5.2 Kiedy adaptacja nie pomaga? . . . 34 5.3 Adaptacyjna kwadratura Simpsona . . . 36
6 Ca lkowanie funkcji z osobliwo´sciami 43
6.1 G l´owny wynik . . . 43 6.2 Pomocnicze lematy . . . 45
iii
6.3 Algorytm adaptacyjny . . . 48
7 Przypadek asymptotyczny 51 7.1 B lad asymptotyczny, . . . 51
7.2 Twierdzenie o r´ownowa˙zno´sci . . . 52
7.3 Istotno´s´c za lo˙ze´n . . . 54
8 Ca lkowanie w [0, 1]d 57 8.1 Sformu lowanie zadania . . . 57
8.2 Interpolacja na siatkach regularnych . . . 58
8.2.1 Posta´c wielomianu interpolacyjnego . . . 58
8.2.2 B lad interpolacji, . . . 61
8.3 Kwadratury interpolacyjne . . . 63
8.3.1 Kwadratury proste . . . 63
8.3.2 Kwadratury z lo˙zone . . . 64
8.4 Przekle´nstwo wymiaru . . . 65
9 Metody Monte Carlo 69 9.1 Wstep, metody niedeterministyczne . . . ., 69
9.2 Klasyczna metoda Monte Carlo . . . 70
9.2.1 Definicja i b lad . . . ., 70
9.2.2 Ca lkowanie z waga . . . ., 72
9.3 Redukcja wariancji . . . 73
9.3.1 Losowanie warstwowe . . . 73
9.3.2 Funkcje kontrolne . . . 76
9.4 Generowanie liczb (pseudo-)losowych . . . 78
9.4.1 Liniowy generator kongruencyjny . . . 79
9.4.2 Odwracanie dystrybuanty i ‘akceptuj albo odrzu´c’ . . . 79
9.4.3 Metoda Box-Muller dla rozk ladu gaussowskiego . . . . 81
10 Metody quasi-Monte Carlo 83 10.1 Co to sa metody quasi-Monte Carlo? . . . ., 83
10.2 Dyskrepancja . . . 84
10.3 B lad quasi-Monte Carlo, . . . 86
10.3.1 Formu la Zaremby . . . 86
10.3.2 Nier´owno´s´c Koksmy-Hlawki . . . 88
10.4 Ciagi o niskiej dyskrepancji, . . . 91
10.4.1 Ciag Van der Corputa . . . ., 91
SPIS TRE´SCI v 10.4.2 Konstrukcje Haltona i Sobol’a . . . 92 10.4.3 Sieci (t, m, d) i ciagi (t, d), . . . 93
Rozdzia l 1
Podstawowe poj ecia ,
1.1 Zadanie, informacja, algorytm
Nasze zadanie numeryczne bedziemy opisywa´, c jako aproksymacje operatora, S : F → G,
gdzie F jest pewna przestrzeni, a liniow, a, a G przestrzeni, a unormowan, a z, norma k · k. Dok ladniej, chcemy aproksymowa´, c warto´sci S(f ) dla wszystkich element´ow
f ∈ E ⊆ F,
gdzie E jest ustalonym zbiorem w przestrzeni F . Zdanie “f nale˙zy do E”
interpretujemy jako informacje a priori (pocz, atkow, a) o zadaniu.,
Zak ladamy, ˙ze opr´ocz informacji a priori dysponujemy r´ownie˙z informacja, a posteriori o elemencie f , kt´ora jest postaci y = N (f ), gdzie
N : F → Y
jest operatorem informacji. Chocia˙z formalnie Y mo˙ze by´c dowolnym zbio- rem to zwykle Y = Rn albo jest pozbiorem zbioru wszystkich sko´nczonych ciag´, ow rzeczywistych. ´Zr´od lo informacji y nie jest istotne. Mo˙ze ona pocho- dzi´c np. z obserwacji albo wcze´sniejszych oblicze´n.
Ostatecznie, element rozwiazania S(f ) aproksymowany jest jako, S(f ) = ϕ(y)˜
gdzie odwzorowanie
ϕ : Y → G 1
jest algorytmem (u˙zywajacym informacji N ). Mo˙zemy wi, ec napisa´, c, ˙ze ope- rator rozwiazania S jest aproksymowany przez z lo˙zenie,
S = ϕ ◦ N.˜
Przyklad 1.1 Niech F bedzie zbiorem funkcji f : [0, 1] → R spe lniaj, acych,
warunek Lipschitza, a E ⊂ F podzbiorem funkcji, dla kt´orych sta la Lip- schitza wynosi 1, tzn. dla dowolnych x, y ∈ [0, 1]
|f (x) − f (y)| ≤ |x − y|.
Informacja y = N (f ) o funkcji f ∈ F dana jest przez warto´sci f w sko´nczonej liczbie punkt´ow, tzn. N : F → Rn oraz
N (f ) = [f (t1), f (t2), . . . , f (tn)],
gdzie ti ∈ [0, 1], 1 ≤ i ≤ n. W przestrzeni F funkcji lipschitzowskich rozpa- trzymy dwa zadania: ca lkowanie i aproksymacje jednostajn, a funkcji.,
W zadaniu ca lkowania operator rozwiazania S = Int : F → G = R, wyra˙za sie wzorem,
Int(f ) = Z 1
0
f (x) dx.
Algorytm wykorzystujacy informacj, e o f dany jest jako ϕ : R, n → R. Na przyk lad, ϕ mo˙ze by´c kwadratura,,
ϕ([f (t1), . . . , f (tn)]) =
n
X
i=1
aif (ti).
W zadaniu aproksymacji jednostajnej mamy G = C([0, 1]) z norma, kf k = kf kC= max
0≤x≤1|f (x)|,
a operator rozwiazania dany jest jako S = App : F → C([0, 1]),, App(f ) = f.
Tutaj algorytm ϕ : Rn → C([0, 1]) konstruuje przybli˙zenie funkcji f , kt´ore jest funkcja ci, ag l, a. Na przyk lad, ϕ(N (f )) mo˙ze by´, c kawa lkami liniowa in-, terpolacja funkcji f w punktach t, i, 1 ≤ i ≤ n.
1.2. ALGORYTMY OPTYMALNE 3
1.2 Algorytmy optymalne
Zauwa˙zmy, ˙ze algorytm jest funkcja jedynie y, a to oznacza, ˙ze wszystkie, elementy zbioru
SN−1y := { S(f1) : f1 ∈ E, N (f1) = y }
sa aproksymowane t, a sam, a warto´sci, a ϕ(y). St, ad, je´sli zbi´, or SN−1y jest wieloelementowy, to zwykle S(f ) 6= ϕ(N (f )), czyli mamy do czynienia z nieuchronnym b ledem aproksymacji. Dla danej f b l, ad ten wynosi,
kS(f ) − ϕ(N (f ))k.
Jasne jest, ˙ze chcemy skonstruowa´c algorytm “najlepszy” z mo˙zliwych.
W tym celu musimy mie´c kryterium por´ownywania r´o˙znych algorytm´ow.
Spo´sr´od wielu mo˙zliwo´sci wybierzemy kryterium b ledu najgorszego (pesymi-, stycznego). Dok ladniej, b lad najgorszy (ang. worst case error) algorytmu ϕ, korzystajacego z informacji N wyra˙za si, e wzorem,
ewor(N, ϕ) = sup
f ∈E
kS(f ) − ϕ(N (f ))k.
Definicja 1.1 Algorytm ϕ∗ nazywamy optymalnym dla danej informacji N je´sli ma najmniejszy b lad spo´, sr´od wszystkich algorytm´ow wykorzystujacych, informacje N , tzn.,
ewor(N, ϕ∗) = inf
ϕ ewor(N, ϕ)
Podamy teraz wygodna interpretacj, e geometryczn, a algorytmu optymal-, nego. W tym celu, przypomnijmy najpierw, ˙ze promieniem (Czebyszewa) zbioru A ⊆ G nazywamy wielko´s´c
r(A) = inf
g∈Gsup
g1∈A
kg − g1k.
Je´sli dla pewnego g∗ ∈ G mamy r(A) = supg1∈Akg∗− g1k to g∗ jest centrum zbioru A.
Definicja 1.2 Promieniem informacji N nazywamy wielko´s´c rad(N ) = sup
y∈N (E)
r(SN−1y).
Twierdzenie 1.1 Dla danej informacji N mamy
infϕ ewor(N, ϕ) = rad(N ). (1.1) Algorytm optymalny ϕ∗ istnieje wtedy i tylko wtedy gdy dla ka˙zdego y ∈ N (E) warunek r(SN−1y) = rad(N ) implikuje, ˙ze zbi´or SN−1y ma centrum. W szczeg´olno´sci, je´sli dla ka˙zdego y ∈ N (E) istnieje centrum gy zbioru SN−1y to algorytm centralny
ϕ∗(y) = gy ∀y ∈ N (E) jest optymalny.
Dow´od. Rozpisujac (faktoryzuj, ac) b l, ad dowolnego algorytmu ϕ wzgl, edem, informacji mamy
ewor(N, ϕ) = sup
y∈N (E)
sup
f ∈E∩N−1y
kS(f ) − ϕ(y)k
= sup
y∈N (E)
sup
g∈SN−1y
kg − ϕ(y)k.
Z definicji promienia zbioru mamy, ˙ze dla ka˙zdego y inf
ϕ(y) sup
g∈SN−1y
kg − ϕ(y)k = r(SN−1y), a stad (1.1).,
Aby pokaza´c pozosta la cz, e´s´, c tezy, wystarczy zauwa˙zy´c, ˙ze je´sli dla pew- nego y mamy r(SN−1y) < rad(N ) i centrum nie istnieje to mo˙zna znale´z´c ˜gy dla kt´orego
r(SN−1y) < sup
g∈SN−1y
kg − ˜gyk ≤ rad(N ).
Dlatego w tym przypadku mo˙zna przyja´,c ϕ∗(y) = ˜gy.
Z drugiej strony, je´sli dla pewnego y mamy r(SN−1y) = rad(N ) i centrum nie istnieje to algorytm optymalny nie istnieje, bo wtedy dla dowolnego ϕ(y)
sup
g∈SN−1y
kg − ϕ(y)k > r(SN−1y) = rad(N ).
Nie zawsze latwo jest znale´z´c centrum zbioru, a tym samym algorytm optymalny. Poka˙zemy teraz klase algorytm´, ow, kt´ore sa bliskie optymalnym,, ale sa prostsze w konstrukcji.,
1.2. ALGORYTMY OPTYMALNE 5 Definicja 1.3 Algorytm ϕI nazywamy interpolacyjnym je´sli
ϕI(y) = S(fy) ∀y ∈ N (E)
gdzie fy jest dowolnym elementem interpolujacym dane, tzn. spe lniaj, acym, fy ∈ E oraz N (fy) = y.
Zanim poka˙zemy formu le na b l, ad algorytmu interpolacyjnego, przypo-, mnimy, ˙ze ´srednica zbioru A ⊂ G nazywamy wielko´s´, c
d(A) = sup
g1,g2∈A
kg1− g2k.
Latwo wykaza´c, ˙ze r(A) ≤ d(A) ≤ 2 · r(A) (patrz ´cwiczenie 1.1).
Definicja 1.4 ´Srednica informacji N nazywamy wielko´, s´c diam(N ) = sup
y∈N (E)
d(SN−1y).
Oczywi´scie
rad(N ) ≤ diam(N ) ≤ 2 · rad(N ).
Ponadto, je´sli S jest funkcjona lem to diam(N ) = 2 rad(N ).
Twierdzenie 1.2 Dla algorytmu interpolacyjnego ϕI korzystajacego z infor-, macji N mamy
ewor(N, ϕI) ≤ diam(N ) ≤ 2 · rad(N ).
Dow´od. Z definicji algorytmu interpolacyjnego oraz ´srednicy zbioru wy- nika, ˙ze dla dowolnego f ∈ E o informacji y = N (f ),
kS(f ) − ϕI(y)k = kS(f ) − S(fy)k ≤ d(SN−1y) ≤ diam(N ).
Przyklad 1.2 Rozpatrzmy zadania ca lkowania i aproksymacji jednostajnej z przyk ladu 1.1. Dla danej informacji y = [y1, y2, . . . , yn] interpretowanej jako warto´sci pewnej funkcji z E w punktach odpowiednio
0 ≤ t1 < t2 < · · · < tn≤ 1,
definujemy koperte g´, orna f, y+ i koperte doln, a f, y− jako fy+(x) = min
1≤i≤n yi+ |x − ti|, fy−(x) = max
1≤i≤n yi− |x − ti|.
Latwo zauwa˙zy´c, ˙ze fy+, fy− ∈ N−1y oraz je´sli f ∈ N−1y to fy− ≤ f ≤ fy+. Stad,
ϕ∗Int(y) = Int(fy+) + Int(fy−) 2
jest algorytmem centralnym dla ca lkowania.
Z kolei dla aproksymacji jednostajnej algorytmem centralnym jest ϕ∗App(y) = fy++ fy−
2 .
1.3 Gdy zadanie jest liniowe...
Zadanie nazywamy liniowym gdy operatory rozwiazania S i informacji N s, a, odwzorowaniami liniowymi. Oczywi´scie, wtedy r´ownie˙z przeciwdziedzina Y operatora N musi by´c przestrzenia liniow, a, na przyk lad Y = R, n. Dla zada´n liniowych formu ly na promie´n i ´srednice informacji znacznie si, e upraszczaj, a.,
Dla zbioru A ⊂ F definiujemy zbi´or bal(A) = a1− a2
2 : a1, a2 ∈ A
.
Latwo zauwa˙zy´c, ˙ze niezale˙znie od A, zbi´or bal(A) jest zbalansowany, czyli symetryczny wzgledem zera. Ponadto, je´sli A jest wypuk ly i zbalansowany, to bal(A) = A (´cwiczenie 1.5).
Twierdzenie 1.3 Je´sli operatory rozwiazania S i informacji N s, a liniowe, to
diam(N ) = 2 · sup
h∈bal(E)∩ker(N )
kShk.
Je´sli, dodatkowo, zbi´or E jest wypuk ly i zbalansowany to diam(N ) = 2 · sup
h∈E∩ker(N )
kShk.
1.3. GDY ZADANIE JEST LINIOWE... 7 Dow´od. Niech f1, f2 ∈ E, N f1 = N f2. Wtedy (f1 − f2)/2 ∈ bal(E) i N ((f1− f2)/2) = 0. Stad,
kSf1− Sf2k = 2 ·
S f1− f2 2
≤ 2 · sup{ kShk : h ∈ bal(E), N h = 0 } i wobec dowolno´sci f1, f2 nier´owno´s´c “≤” jest udowodniona.
Aby pokaza´c nier´owno´s´c w druga stron, e zauwa˙zmy, ˙ze je´sli h ∈ bal(E),, N h = 0 to istnieja f, 1, f2 ∈ E takie, ˙ze h = (f1 − f2)/2 i N f1 = N f2 =: y.
Stad,
2 · kShk = kSf1− Sf2k ≤ d(SN−1y) ≤ diam(N ) i teza wynika z dowolno´sci h.
Pozosta la cze´s´, c twierdzenia wynika z faktu, ˙ze je´sli A jest wypuk ly i zbalansowany to bal(A) = A.
Przyklad 1.3 Zadania ca lkowania i aproksymacji jednostajnej, zdefiniowa- ne w przyk ladzie 1.1 sa zadaniami liniowymi., Ponadto, zbi´or E funkcji spe lniajacych warunek Lipschitza ze sta l, a 1 jest wypuk ly i zbalansowany., Dlatego mo˙zemy zastosowa´c twierdzenie 1.3.
Przypominajac, ˙ze przez f, 0+ oznaczyli´smy koperte g´, orna dla informacji, zerowej, dla ca lkowania mamy
diamInt(N ) = 2 Z 1
0
f0+(x) dx = t21+ (1 − tn)2+1 2
n
X
i=2
(ti− ti−1)2,
a dla aproksymacji jednostajnej diamApp(N ) = 2 max
0≤x≤1f0+(x) = max { 2t1, 2(1 − tn), ti− ti−1, 2 ≤ i ≤ n } . Poniewa˙z Int jest funkcjona lem to mamy radInt(N ) = diamInt(N )/2. Sto- sujac interpretacje geometryczne mo˙zna pokaza´, c, ˙ze r´ownie˙z radApp(N ) = diamApp(N )/2 (´cwiczenie 1.7).
Cwiczenia ´
Cw. 1.1 Wyka˙z, ˙ze dla dowolnego zbioru A ⊆ G mamy r(A) ≤ d(A) ≤ 2 · r(A).
Cw. 1.2 Znajd´z przyk lad przestrzeni G o nastepuj, acej w lasno´sci: dla do-, wolnego 1 ≤ c ≤ 2 istnieje zbi´or Ac ⊂ G taki, ˙ze d(A) = c · r(A).
Cw. 1.3 Podaj przyk lad przestrzeni G i zbioru A ⊂ G dla kt´orego (i) centrum nie istnieje,
(ii) centrum nie jest wyznaczone jednoznacznie.
Cw. 1.4 Za l´o˙zmy, ˙ze je´sli zbi´or A ⊂ G ma ´srodek symetrii, tzn. istnieje g∗ ∈ G takie, ˙ze je´sli g ∈ A to 2g∗− g ∈ A. Wyka˙z, ˙ze wtedy g∗ jest centrum A oraz r(A) = d(A)/2.
Cw. 1.5 Wyka˙z, ˙ze dla dowolnego A ⊆ G zbi´or bal(A) jest (i) zbalansowany,
(ii) wypuk ly o ile A jest wypuk ly,
(iii) r´owny A o ile A jest wypuk ly i zbalansowany.
Cw. 1.6 Wyka˙z, ˙ze je´sli dla dw´och informacji liniowych N1, N2 : F → Rn mamy ker N1 = ker N2 to dla dowolnego zadania S na dowolnym zbiorze E mamy rad(N1) = rad(N2). Czy implikacja odwrotna jest r´ownie˙z prawdziwa?
Cw. 1.7 Wyka˙z, ˙ze dla zadania aproksymacji jednostajnej z przyk ladu 1.1 mamy diamApp(N ) = 2 radApp(N ) oraz interpolacja kawa lkami liniowa oparta na n wez lach t, i jest algorytmem optymalnym.
Rozdzia l 2
Algorytmy afiniczne dla funkcjona l´ ow
Jasne jest, ˙ze zale˙zy nam na istnieniu algorytm´ow ϕ, kt´ore sa nie tylko opty-, malne, albo bliskie optymalnym, ale jednocze´snie sa proste w realizacji. Do, takich algorytm´ow nale˙za algorytmy liniowe lub afiniczne, tzn. takie kt´, ore liniowo albo afinicznie zale˙za od uzyskanej informacji y o elemencie f . Na, przyk lad, dla zadania ca lkowania algorytmami liniowymi sa dobrze znane, kwadratury. W tym rozdziale poka˙zemy istnienie takich algorytm´ow dla aproksymacji funkcjona low liniowych S na podstawie informacji liniowej N . Najpierw jednak przypomnimy pojecie funkcjona lu Minkowskiego (ang., gauge function), kt´ore bedzie pe lni´, c wa˙zna rol, e w naszych rozwa˙zaniach.,
2.1 Funkcjona l Minkowskiego
Niech X bedzie dowoln, a przestrzeni, a liniow, a., Zbi´or B ⊆ X nazywamy poch laniajacym gdy dla ka˙zdego x ∈ X istnieje α > 0 taka, ˙ze αx ∈ B.,
Niech B ⊆ X bedzie zbiorem wypuk lym, zbalansowanym i poch laniaj, a-, cym. Dla x ∈ X definiujemy funkcjona l Minkowskiego
pB(x) = inf{ t > 0 : x/t ∈ B }, Poniewa˙z B jest poch laniajacy to 0 ≤ p, B(x) < ∞.
Lemat 2.1 Funkcjona l pB jest seminorma na podprzestrzeni X., 9
Dow´od. Je´sli α = 0 to pB(αx) = pB(0) = 0 = αpB(x). Je´sli za´s α 6= 0 to pB(αx) = |α| inf{t/|α| > 0 : |α|x/t ∈ B}
= |α| inf{s > 0 : x/s ∈ B} = |α|pB(x).
Aby pokaza´c nier´owno´s´c tr´ojkata zauwa˙zmy najpierw, ˙ze je´sli x/t, y/s ∈ B, to wobec wypuk lo´sci B mamy
x + y t + s =
t t + s
·x t +
s t + s
· y s ∈ B.
Dlatego
pB(x) + pB(y) = inf{t > 0 : x/t ∈ B} + inf{s > 0 : y/s ∈ B}
= inf{t + s > 0 : x/t, y/s ∈ B}
≥ inf{t + s > 0 : (x + y)/(t + s) ∈ B}
= pB(x + y).
2.2 Afiniczne algorytmy optymalne
Jeste´smy ju˙z gotowi, aby pokaza´c g l´owne twierdzenie tego rozdzia lu.
Twierdzenie 2.1 Niech S : F → R bedzie funkcjona lem liniowym, a N :, F → Y informacja liniow, a, przy czym Y = R, n. (i) Je´sli E jest zbiorem wypuk lym i zbalansowanym to istnieje algorytm optymalny, kt´ory jest liniowy.
(ii) Je´sli E jest wypuk ly to istnieje algorytm optymalny, kt´ory jest afiniczny.
Dow´od.
(i) Bez zmniejszenia og´olno´sci mo˙zemy za lo˙zy´c, ˙ze E jest te˙z poch laniajacy., Inaczej mogliby´smy ograniczy´c sie do podprzestrzeni rozpi, etej przez wszyst-, kie elementy zbioru E, wzgledem kt´, orej E jest poch laniajacy.,
Oznaczmy przez r promie´n informacji N , r := rad(N ) = sup
h∈E∩ker(N )
|Sh|.
Je´sli r = 0 to dla ka˙zdego y ∈ N (F ) zbi´or SN−1y jest jednoelementowy.
Algorytm ϕ(y) = SN−1y jest wiec dobrze okre´slony, liniowy i dok ladny.,
2.2. AFINICZNE ALGORYTMY OPTYMALNE 11 Za l´o˙zmy wiec, ˙ze r > 0. Niech,
B := { (N f, Sf ) : f ∈ E } ⊂ bY := Y × R
oraz pB bedzie funkcjona lem Minkowskiego zbioru B. Niech dalej P b, edzie, jednowymiarowa podprzestrzeni, a b, Y element´ow postaci (0, g) dla g ∈ R.
Zauwa˙zmy, ˙ze dla ka˙zdego x = (0, g) ∈ P mamy pB(x) = |g|/r, co wy- nika bezpo´srednio z definicji zbioru B i promienia informacji. Przestrze´n bY roz lo˙zymy na sume prost, a,,
Y = bb Y0⊕ bY1,
gdzie bY0 = {x ∈ bY : pB(x) = 0}, a bY1 jest dope lnieniem bY0 do bY zawie- rajacym P . Dalej b, edziemy traktowa´, c bY1 jako przestrze´n unormowana z, norma p, B.
Na podprzestrzeni P definiujemy teraz funkcjona l liniowy ξ1(0, g) = g/r.
Jego norma na P (indukowana przez pB) wynosi 1. Zgodnie z twierdzeniem Hahna-Banacha o rozszerzaniu funkcjona l´ow, ξ1 mo˙zna rozszerzy´c do funk- cjona lu ξ2 okre´slonego na bY1 nie zwiekszaj, ac jego normy, tzn. takiego, ˙ze,
1. ξ2(x) = ξ1(x) dla x ∈ P , oraz 2. |ξ2(x)| ≤ pB(x) dla x ∈ bY1.
Funkcjona l ξ2 rozszerzymy teraz po raz drugi, tym razem do funkcjona lu ξ3 okre´slonego na ca lej przestrzeni bY . Mianowicie, dla x = x0 + x1, x0 ∈ bY0, x1 ∈ bY1 k ladziemy
ξ3(x) = ξ2(x1).
Poniewa˙z, z nier´owno´sci tr´ojkata,,
pB(x1) = pB(x1) − pB(x0) ≤ pB(x) ≤ pB(x1) + pB(x0) = pB(x1), to pB(x) = pB(x1), a stad,
|ξ3(x)| = |ξ2(x1)| ≤ pB(x1) = pB(x).
Funkcjona l ξ3 przedstawimy w postaci
ξ3(y, g) = ξ3(y, 0) + ξ3(0, g) = ϕ1(y) + g/r, gdzie ϕ1(y) = ξ3(y, 0).
Dla dowolnego f ∈ E mamy (N f, Sf ) ∈ B i dlatego
|ξ3(N f, Sf )| =
ϕ1(N f ) + Sf r
≤ 1,
Podstawiajac ϕ = −rϕ, 1 otrzymujemy ostatecznie
|Sf − ϕ(N f )| ≤ r,
a to oznacza, ˙ze ϕ jest poszukiwanym optymalnym algorytmem liniowym.
(ii) Rozpatrzmy to samo zadanie S z taka sam, a informacj, a N , ale ze zbio-, rem bal(E) zamiast E. Oczywi´scie promie´n informacji sie nie zmienia i wy-, nosi r. Poniewa˙z bal(E) jest wypuk ly i zbalansowany, istnieje algorytm li- niowy ϕ, kt´ory jest optymalny. Dla dowolnych f1, f2 ∈ E mamy wiec,
S f1− f2 2
− ϕ
N f1− f2 2
≤ r, albo
|(Sf1− ϕ(N f1)) − (Sf2− ϕ(N f2)| ≤ 2r, a stad,
sup
f ∈E
(Sf − ϕ(N f )) − inf
f ∈E(Sf − ϕ(N f )) ≤ 2r.
Przesuwajac algorytm ϕ o ´srodek odcinka o ko´, ncach wyznaczonych przez powy˙zsze ‘sup’ i ‘inf’ otrzymujemy algorytm afiniczny, kt´orego b lad wynosi, r, czyli jest optymalny.
Przyklad 2.1 Powr´o´cmy na moment to zadania ca lkowania funkcji lipschit- zowskich z przyk ladu 1.1, na podstawie warto´sci funkcji podca lkowej w punk- tach t1 < · · · < tn. Jak wiemy, w tym przypadku algorytm optymalny (a nawet centralny) ϕ∗ jest ´srednia arytmetyczn, a ca lek z koperty dolnej i ko-, perty g´ornej. Latwo zauwa˙zy´c, ˙ze ϕ∗ to nic innego jak z lo˙zona kwadratura trapez´ow
φ∗([f (t1), . . . , f (tn)])
= t1f (t1) +
n
X
i=2
(ti− ti−1) f (ti−1) + f (ti) 2
+ (1 − tn)f (tn)
= f (t1) t1+ t2 2
+
n−1
X
i=2
f (ti) ti−1+ ti+1 2
+ f (tn)
1 − tn−1+ tn 2
,
kt´ora jest oczywi´scie algorytmem liniowym.
2.3. GDY ZADANIE NIE JEST FUNKCJONA LEM... 13
2.3 Gdy zadanie nie jest funkcjona lem...
Je´sli zadanie S nie jest funkcjona lem, a operatorem liniowym to twierdze- nie 2.1 nie jest w og´olno´sci prawdziwe. Podamy teraz ekstremalny przyk lad zadania liniowego korzystajacego z informacji liniowej, z wypuk lym i zbalan-, sowanym zbiorem E, dla kt´orego b lad dowolnego algorytmu liniowego jest, niesko´nczony, a promie´n informacji jest dowolnie ma ly.
Niech X1 bedzie przestrzeni, a Hilberta z iloczynem skalarnym h·, ·i. Ro-, zwa˙zmy liniowe i r´o˙znowarto´sciowe przekszta lcenie M : X1 → X1 spe lniajace,
M (X1) 6= X1 oraz M (X1) = X1.
Niech F = M (X1) i niech X2 bedzie przestrzeni, a unormowan, a, tak, a ˙ze X, 1 ⊂ X2 i norma w X2 jest s labsza od normy w X1, tzn. k · kX2 ≤ αk · kX1 dla pewnej α > 0. Okre´slamy przestrze´n G jako X1 z norma,
kgkG = kM gkX2 ∀g ∈ X1. Operator rozwiazania S : F → G definiujemy jako,
S(f ) = g ⇐⇒ M g = f.
Zdefiniujemy teraz zbi´or E. We´zmy f1 ∈ X1\ F . Poniewa˙z F jest podprze- strzenia X, 1 to mo˙zemy zak lada´c bez zmniejszenia og´olno´sci, ˙ze kf1kX1 = 1.
Rozwa˙zmy rzut prostopad ly T w X1 dany r´ownaniem T f = f − hf, f1if1 ∀f ∈ X1. Zbi´or E definiujemy jako
E = {f ∈ F : kT f kX1 ≤ 1 }.
Oczywi´scie, E jest wypuk ly i zbalansowany. Wa˙zna dla p´, o´zniejszych rozwa˙za´n w lasno´scia zbioru E jest, ˙ze chocia˙z f, 1 nie nale˙zy do E to pewna wielokrotno´s´c afa aproksymacji fa elementu f1 ju˙z nale˙zy do E. Istotnie, dla ka˙zdego dodatniego a, wobec gesto´sci F w X, 1, istnieje fa ∈ F taki, ˙ze kfa− f1kX1 ≤ a−1. Poniewa˙z T f1 = 0, mamy
kT (afa)kX1 = akT (fa− f1)kX1 ≤ akfa− f1kX1 ≤ 1.
Stad af, a ∈ E.
Niech teraz N = [L1, L2, . . . , Ln] bedzie informacj, a nieadaptacyjn, a, gdzie, Li sa pewnymi funkcjona lami liniowymi.,
Lemat 2.2 Dla dowolnego algorytmu liniowego ϕL(N (f )) = Pn
j=1Lj(f )gj, gdzie gj ∈ G, mamy
ewor(ϕL, N ) = +∞.
Dow´od. Niech afa ∈ E, kfa− f1kX1 ≤ a−1. Wtedy ewor(ϕL, N ) ≥ kafa−
n
X
j=1
Lj(afa)gjkG
= a kafa−
n
X
j=1
Lj(afa)M gjkX
2
≥ a kf1−
n
X
j=1
Lj(fa)M gjkX
2 − akfa− f1kX2
≥ a inf
x∈Akf1− xkX2 − 1,
gdzie A = span(M g1, M g2, . . . , M gn) ⊂ F . Poniewa˙z A jest sko´nczenie wy- miarowa i f1 ∈ A, infimum w ostatnim wzorze jest dodatnie. Wobec do-/ wolno´sci a mamy wiec e, wor(ϕL, N ) = +∞.
Teraz zdefiniujemy algorytm nieliniowy o b ledzie sko´, nczonym, kt´ory ko- rzysta z informacji N . Zak ladamy, ˙ze funkcjona ly Lj sa postaci L, j = h·, fji, gdzie fj sa wzajemnie prostopad le, tzn. hf, i, fji = δi,j, oraz f2, f3, . . . , fn
nale˙za do F, 1. (Przypomnijmy, ˙ze f1 ∈ F/ 1.) Niech ρ(N ) = sup
h∈X1∩ker N
khkX2 khkX1.
Poniewa˙z X1 jest ciag lym zanurzeniem w X, 2, ρ(N ) jest sko´nczone i dodatnie.
Nieliniowy algorytm ϕN definiujemy nastepuj, aco. Ustalamy δ > 0. Wo-, bec gesto´sci F w X, 1, istnieje u1 = u1(N (f )) ∈ F takie, ˙ze
kM u1− f1kX2 ≤ δρ(N )
|hf, f1i|.
Poniewa˙z f2, . . . , fn ∈ M (X1), istnieja u, 2, . . . , un takie, ˙ze M uj = fj dla j = 2, 3, . . . , n. Definiujemy algorytm
ϕN(N (f )) = hf, f1iu1(N (f )) +
n
X
j=2
hf, fjiuj.
2.3. GDY ZADANIE NIE JEST FUNKCJONA LEM... 15 Zauwa˙zmy, ˙ze algorytm ϕN jest “ lagodnie” nieliniowy, poniewa˙z dla ustalo- nego hf, f1i jest on afiniczny ze wzgledu na hf, f, 1i, . . . , hf, fni. Poka˙zemy,
˙ze
ewor(ϕN, N ) ≤ (1 + δ)ρ(N ).
W tym celu, dla f ∈ E ustalamy
e(f ) = kS(f ) − ϕN(N (f ))kG = kf − hf, f1iM u1−
n
X
j=2
hf, fjikX
2. Mo˙zemy napisa´c, ˙ze f = hf, f1if1 + g, gdzie g = T f . Zatem hg, f1i = 0.
Poniewa˙z hf1, fji = 0, mamy hf, fji = hg, fji dla j = 2, . . . , n. K ladac, h = g −Pn
j=2hg, fjifj dostajemy e(f ) ≤ |hf, f1i| kf1− M u1kX2 + kg −
n
X
j=2
hg, fjifjkX
2 ≤ δρ(N ) + khkX2. Poniewa˙z hfi, fji = δi,j, mamy hh, fji = 0 dla j = 1, 2, . . . , n. Stad h ∈ ker N ., Ponadto,
khk2X
1 = kgk2X
1 − 2
n
X
j=2
hg, fji2+
n
X
j=2
hg, fji2 ≤ kgk2X
1 = kT f k2X
1 ≤ 1.
Stad khk, X2 ≤ ρ(N ) i e(f ) ≤ (1 + δ)ρ(N ). Poniewa˙z jest to prawda dla, dowolnych f ∈ E to mamy ewor(ϕN, N ) ≤ (1 + δ)ρ(N ).
Promie´n informacji rad(N ) jest r´owny ρ(N ). Rzeczywi´scie, rad(N ) ≥ 1
2diam(N ) = sup{kS(h)k : h ∈ E ∩ ker N }
= sup{khkX2 : h ∈ F ∩ ker N, kT hkX1 = khkX1 ≤ 1 }
= supnkhkX2
khkX1 : h ∈ X1∩ ker No
= ρ(N ).
Z drugiej strony, rad(N ) ≤ ewor(ϕN, N ) ≤ (1 + δ)ρ(N ). Poniewa˙z δ mo˙ze by´c dowolna liczb, a dodatni, a, rad(N ) = ρ(N ).,
W ko´ncu poka˙zemy, ˙ze promie´n informacji rad(N ) mo˙ze by´c dowolnie ma ly. Rzeczywi´scie, niech S : X1 → X bedzie w lo˙zeniem, Sh = h ∀h., Wtedy rad(N ) = kSkker N. Je´sli S jest zwarty to mo˙zemy wybra´c f2, . . . , fn tak, ˙ze rad(N ) da˙zy do zera gdy n → ∞.,
Cwiczenia ´
Cw. 2.1 Wyka˙z, ˙ze zadanie aproksymacji funkcjona lu liniowego na podsta- wie informacji liniowej danym zbiorze wypuk lym E jest tak trudne jak trudne jest najtrudniejsze podzadanie jednowymiarowe, tzn.
rad(E; N ) = sup
I⊂E
rad(I; N ), gdzie I oznacza odcinek domkniety.,
Cw. 2.2 Rozpatrzmy zadanie ca lkowania z waga wyk ladnicz, a,, S(f ) =
Z ∞ 0
f (x) exp(−x) dx,
w klasie E funkcji f : R+ → R, f(0) = 0, spe lniajacych warunek Lipschitza,
ze sta la 1, na podstawie informacji,
N (f ) = [f (x1), f (x2), . . . , f (xn)],
0 ≤ x1 < x2 < · · · < xn. Znajd´z promie´n informacji N i wska˙z, je´sli istnieje, algorytm optymalny, kt´ory jest liniowy.
Cw. 2.3 Wyka˙z, ˙ze z lo˙zona kwadratura trpez´ow nie jest algorytmem opty- malnym dla zadania ca lkowania z Cw 2.2.
Cw. 2.4 Niech E bedzie klas, a funkcji f ∈ C, 1([0, 1]) takich, ˙ze
|f0(x)| ≤ ψ(x),
gdzie ψ jest nieujemna, niemalejaca i ci, ag la., Zak ladajac, ˙ze informacja, N (f ) = [f (0), f (1)], wska˙z, o ile istnieja, algorytm centralny oraz algorytm, optymalny, kt´ory jest liniowy, dla zada´n
(i) ca lkowania,
(ii) aproksymacji f w normie jednostajnej k · k∞. Ile wynosi promie´n informacji dla obu zada´n?
Rozdzia l 3
Optymalno´ s´ c algorytm´ ow splajnowych
W klasycznym ujeciu splajny, czyli funkcje sklejane, to funkcje kawa lkami, wielomianowe i do pewnego stopnia g ladkie w punktach ich sklejania. Natu- ralne czy periodyczne funkcje sklejane interpolujace dane posiadaj, a r´, owno- cze´snie pewne w lasno´sci minimalizacyjne, kt´ore przypomnimy w sekcji 3.3 i kt´ore sa punktem wyj´scia do uog´, olnienia pojecia splajnu.,
3.1 Algorytmy splajnowe
Rozpatrujemy zadanie liniowe S : F → G z informacja liniow, a N : F → R, n. Zak ladamy, ˙ze w F zdefiniowana jest seminorma k · kF.
Definicja 3.1 Niech ρ ≥ 1. Dla danej informacji y, element s(y) nazywamy splajnem je´sli minimalizuje seminorme w´, sr´od wszystkich element´ow interpo- lujacych dane, tzn.,
(i) N (s(y)) = y,
(ii) ks(y)kF ≤ ρ · inf{kf kF : f ∈ F, N f = y }.
Algorytm ϕspl(y) = S(s(y)) dla y ∈ N (F ), nazywamy algorytmem splajno- wym.
Zauwa˙zmy, ˙ze splajn (a tym samym algorytm splajnowy) zawsze istnieje gdy ρ > 1, ale wtedy nie jest wyznaczony jednoznacznie.
17
Twierdzenie 3.1 Niech E = {f ∈ F : kf kF ≤ 1} bedzie kul, a jednostkow, a, w F . Wtedy dla ka´zdego f ∈ E mamy
kSf − ϕspl(N f )k ≤ c(f ) · diam(N ), gdzie c(f ) = (1 + ρ)kf kF/2. Stad,
ewor(N, ϕspl) ≤ 1 + ρ
2 · diam(N ).
(Przyjmujemy, ˙ze je´sli kf kF = 0 i diam(N ) = ∞ to c(f )diam(N ) = ∞.) Dow´od. Bez zmniejszenia og´olno´sci mo˙zemy za lo˙zy´c, ˙ze je´sli khkF = 0 i N h = 0 to Sh = 0, bo w przeciwnym przypadku promie´n informacji jest niesko´nczony.
Z w lasno´sci (i) splajnu mamy, ˙ze N (f − s(N f )) = 0, a z w lasno´sci (ii),
˙ze ks(N f )kF ≤ ρkf kF. Stad, je´sli kf − s(N f )k, F = 0 to Sf − ϕspl(N f ) = S(f − s(N f )) = 0, a je´sli kf − s(N f )kF 6= 0 to
kSf − ϕspl(N f )k = kf − s(N f )kF · S
f − s(N f ) kf − s(N f )kF
≤ (kf kF + ks(N f )kF) · sup{kShk : khkF ≤ 1, N h = 0}
= 1 + ρ
2 kf kF · diam(N ).
Druga cze´s´, c tezy wynika z faktu, ˙ze kf kF ≤ 1.
Algorytmy splajnowe sa wi, ec co najwy˙zej dwa razy gorsze od optymalnych, o ile zadanie liniowe jest zdefiniowane na kuli jednostkowej.
3.2 Splajny w przestrzeniach Hilberta
Za l´o˙zmy teraz, ˙ze F jest przestrzenia Hilberta z iloczynem skalarnym h·, ·i, F i norma kf k, F = phf, fiF, a informacja jest nie tylko liniowa, ale r´ownie˙z ciag la (co implikuje, ˙ze jej j, adro jest podprzestrzeni, a domkni, et, a). Okazuje, sie, ˙ze wtedy splajn jest wyznaczony jednoznacznie i zale˙zy liniowo od danych, y. Rzeczywi´scie, przedstawmy przestrze´n F w postaci sumy prostej,
F = ker N ⊕ F1,
3.2. SPLAJNY W PRZESTRZENIACH HILBERTA 19 gdzie F1 jest uzupe lnieniem ortogonalnym podprzestrzeni ker N do F . Niech dalej eN : F1 → N (F ) bedzie obci, eciem N do podprzestrzeni F, 1, tzn. eN f = N f , ∀f . Oczywi´scie, eN jest bijekcja, a je´sli tak to odwzorowanie odwrotne, Ne−1 : N (F ) → F1 istnieje i jest liniowe. Jednocze´snie, fy := eN−1y jest jedynym elementem splajnowym. Je´sli bowiem N f = y i f 6= fy to f = f0+ fy, gdzie 0 6= f0 ∈ ker N , i z twierdzenia Pitagorasa dostajemy
kf k2F = kf0k2F + kfyk2F > kfykF.
Za l´o˙zmy teraz, dla uproszczenia, ˙ze dimN (F ) = n. Wtedy N f = [hf, ξ1iF, hf, ξ2iF, . . . , hf, ξniF],
gdzie ξi sa liniowo niezale˙zne. (Z twierdzenia Riesza wynika, ˙ze takie ξ, j istnieja.) Wtedy,
F1 = span{ξ1, ξ2, . . . , ξn},
bo jadro sk lada si, e z element´, ow prostopad lych do wszystkich ξj. Element splajnowy mo˙zna wyznaczy´c jako s(y) = Pn
j=1ajξj, gdzie a = (a1, . . . , an) jest rozwiazaniem uk ladu r´, owna´n liniowych Ga = y z macierza,
G = (hξi, ξji)ni,j=1 i prawa stron, a y = (y, 1, . . . , yn).
Wzory te przyjmuja szczeg´, olnie prosta posta´, c gdy elementy ξj tworza, uk lad ortonormalny. Wtedy bowiem a = y oraz
s(y) =
n
X
j=1
yjξj.
Twierdzenie 3.2 Niech S : F → G bedzie zadaniem liniowym, a N in-, formacja liniow, a i ci, ag l, a. Je´, sli ponadto F jest przestrzenia Hilberta, a E, kula jednostkow, a w F , to algorytm splajnowy ϕ, spl jest jedynym algorytmem optymalnym,
ewor(N, ϕspl) = rad(N ) = 1
2diam(N ) = sup{ kShk : h ∈ ker N, khkF ≤ 1 }.
Dow´od. Wobec tego, ˙ze
E ∩ N−1y = { s(y) + h : h ∈ ker N, khk2F ≤ 1 − ks(y)k2F},
mamy
S(E ∩ N−1y) = { S(s(y)) + Sh : h ∈ ker N, khk2F ≤ 1 − ks(y)k2F}.
To oznacza, ˙ze S(E ∩ N−1y) jest symetryczny wok´o l S(s(y)) = ϕspl(y). A je´sli tak, to ϕspl(y) jest jego centrum (patrz. ´cwiczenie 1.4) oraz
r(S(E ∩ N−1y) = sup{ kShk : h ∈ ker N, khk2F ≤ 1 − ks(y)k2F}, co ko´nczy dow´od.
3.3 Klasyczne funkcje splajnowe
W tym podrozdziale poka˙zemy, ˙ze klasyczne splajny wielomianowe sa te˙z, splajnami w og´olniejszym sensie, zdefiniowanym na poczatku tego rozdzia lu., Ograniczymy sie przy tym do naturalnych splajn´, ow wielomianowych, chocia˙z fakty pokazane poni˙zej sa prawdziwe r´, ownie˙z dla splajn´ow okresowych.
Niech a < b oraz dane bed, a w, ez ly,
a = t0 ≤ t1 < t2 < · · · < tn≤ tn+1= b.
Niech Πk bedzie przestrzeni, a wielomian´, ow stopnia co najwy˙zej k.
Definicja 3.2 Splajnem naturalnym rzedu r ≥ 1 odpowiadaj, acym w, ez lom, ti, 1 ≤ i ≤ n, nazywamy funkcje p : R → R spe lniaj, ac, a warunki:,
(a) p ∈ Π2r−1 na ka˙zdym z podprzedzia l´ow (ti, ti+1), 0 ≤ i ≤ n, (b) p ma pochodne rzedu do 2r − 2 w l, acznie na ca lej prostej R,, (c) p ∈ Πr−1 na p´o lprostych (−∞, t1] i [tn, ∞).
Niech Wr(a, b) bedzie przestrzeni, a Sobolewa funkcji f : [a, b] → R posia-, dajacych pochodn, a rz, edu r − 1, kt´, ora jest bezwzglednie ci, ag la, 1 i f(r) jest ca lkowalna z kwadratem,
Wr(a, b) = {f : [a, b] → R : f(r−1) bezwgl. ciag la i f, (r)∈ L2(a, b) }.
Oczywi´scie, splajny naturalne rzedu r ograniczone do przedzia lu [a, b] tworz, a, sko´nczenie wymiarowa podprzestrze´, n liniowa w W, r, kt´ora oznaczymy przez, Sr.
1Przypomnujmy, ˙ze g : [a, b] → R jest bezwzglednie ci, ag la gdy istnieje funkcja, ca lkowalna h taka, ˙ze g(x) = g(a) +Rx
a h(t) dt. Funkcje h nazywamy (uog´, olniona) po-, chodna g, 0 funkcji g.
3.3. KLASYCZNE FUNKCJE SPLAJNOWE 21 Lemat 3.1 Niech f ∈ Wr(a, b),
f (ti) = 0, 1 ≤ i ≤ n.
Wtedy dla dowolnego naturalnego splajnu p rzedu r mamy, Z b
a
f(r)(x)p(r)(x) dx = 0,
tzn. f jest prostopad la do Sr wzgledem semi-iloczynu skalarnego, hf1, f2iF :=
Z b a
f1(r)(x)f2(r)(x2) dx.
Dow´od. Ca lkujac przez cz, e´sci mamy, Z b
a
f(r)(x)p(r)(x) dx =f(r−1)(x)p(r)(x)b
a− Z b
a
f(r−1)(x)p(r+1)(x) dx.
Zauwa˙zmy, ˙zef(r−1)(x)p(r)(x)b
a = 0, poniewa˙z p(r)zeruje sie na p´, o lprostych (−∞, t1] i [tn, +∞). Postepuj, ac indukcyjnie dostajemy,
Z b a
f(r)(x)p(r)(x) dx = − Z b
a
f(r−1)(x)p(r+1)(x) dx
= f(r−2)(x)p(r+1)(x)b
a− Z b
a
f(r−2)(x)p(r+2)(x) dx
= · · · = (−1)i Z b
a
f(r−i)(x)p(r+i)(x) dx
= Z b
a
f0(x)p(2r−1)(x) dx.
Funkcja p(2r−1) jest sta la na ka˙zdym pododcinku [ti, ti+1]. Oznaczajac przez, pi jej warto´s´c na [ti, ti+1] otrzymujemy ostatecznie
Z b a
f0(x)p(2r−1)(x) dx =
n−1
X
i=1
pi(f (ti−1) − f (ti)) = pmf (b) − p1f (a) = 0.
Lemat 3.2 Dla dowolnej funkcji f ∈ Wr(a, b) istnieje naturalny splajn pf rzedu r interpoluj, acy f w punktach t, i, tzn.
pf(ti) = f (ti), 1 ≤ i ≤ n.
Dodatkowo, je´sli n ≥ r to pf jest wyznaczony jednoznacznie oraz kpfkF ≤ kf kF,
gdzie kgkF =phg, giF = qRb
a (g(r)(x))2 dx.
Dow´od. Je´sli n < r to jako pf mo˙zemy wzia´,c dowolny wielomian stopnia r − 1 interpolujacy f . Niech wi, ec n ≥ r.,
Najpierw poka˙zemy, ˙ze pf ≡ 0 jest jedynym splajnem interpolujacym, dane zerowe, tzn. pf(ti) = 0 ∀i. Rzeczywi´scie, stosujac lemat 3.1 z f =, p ∈ Sr mamy kpkF = 0. To implikuje, ˙ze p jest wielomianem stopnia co najwy˙zej r − 1 znikajacym w n > r − 1 punktach, czyli p ≡ 0.,
Zauwa˙zmy teraz, ˙ze aby znale´z´c wsp´o lczynniki wielomianu pf zale˙zy rozwiaza´, c uk lad r´owna´n z macierza kwadratow, a. Poniewa˙z, jak pokazali´smy,, uk lad jednorodny ma jednoznaczne rozwiazanie, p, f interpolujacy f istnieje, i jest wyznaczony jednoznacznie.
Aby zako´nczy´c dow´od, zauwa˙zmy, ˙ze wobec lematu 3.1 mamy hpf, f − pfiF = 0, a stad,
kf k2F = k(f − pf) + pfk2F = kf − pfk2F + kpfk2F ≥ kpfk2F.
Niech teraz F = Wr(a, b), E = {f ∈ F : kf kF ≤ 1}, a informacja N f = [f (t1), . . . , f (tn)].
Wtedy, zgodnie za nasza teori, a na temat optymalno´sci algorytm´, ow splajno- wych mamy, ˙ze dla dowolnego zadania liniowego S : F → G optymalnym algorytmem jest ϕ(N f ) = S(pf), gdzie pf jest splajnem naturalnym inter- polujacym f w punktach t, i, 1 ≤ i ≤ n.
Cwiczenia ´
Cw. 3.1 Je´sli w definicji splajnu naturalnego warunek (c) zastapimy przez, warunek, ˙ze p i wszystkie jej pochodne rzedu do 2r − 2 w l, acznie s, a (b − a),
3.3. KLASYCZNE FUNKCJE SPLAJNOWE 23 okresowe to m´owimy o splajnach okresowych. Wyka˙z, ˙ze lematy 3.1 i 3.2 zachodza r´, ownie˙z dla splajn´ow okresowych i okresowych funkcji, tzn. gdy f ∈ fWr(a, b), gdzie
Wfr(a, b) = {f ∈ Wr(a, b) : f(i)(a) = f(i)(b), 0 ≤ i ≤ r − 1}.
Rozdzia l 4
Informacja optymalna
Dotychczas zajmowali´smy sie algorytmami optymalnymi dla zadanej infor-, macji. W wielu zadaniach mamy mo˙zliwo´s´c doboru informacji, np. w za- daniu numerycznego ca lkowania zwykle mo˙zemy dobra´c punkty, w kt´orych obliczamy warto´sci funkcji.
4.1 Minimalny promie´ n i optymalna informa- cja
Bedziemy zak lada´, c, ˙ze rozwiazuj, ac zadanie S : F → G mamy do dyspozycji, jedynie informacje Nn : F → Rnz pewnej klasy Nn, parametryzowanej indek- sem n. Na przyk lad, dla zada´n zdefiniowanych na przestrzeniach funkcyjnych mo˙zemy zak lada´c, ˙ze mo˙zliwe sa jedynie obliczenia n warto´sci funkcji, a dla, zada´n zdefiniowanych na przestrzeniach Hilberta F obliczenia dowolnych n funkcjona l´ow.
Definicja 4.1 Niech Nn, n ≥ 1, bedzie rodzin, a informacji dopuszczalnych., Wielko´s´c
r(n) = inf
Nn∈Nnrad(Nn) nazywamy n-tym minimalnym promieniem informacji.
Informacje N, n∗ nazywamy n-ta optymaln, a je´, sli Nn∗ ∈ Nn oraz rad(Nn∗) = r(n).
25
Przyklad 4.1 Rozpatrzmy zadania ca lkowania i aproksymacji jednostajnej funkcji z przyk ladu 1.1, gdzie klasa Nn dopuszczalnych informacji sk lada sie, z oblicze´n n warto´sci funkcji,
Nn(f ) = [f (t1), . . . , f (tn)]
dla dowolnych tj ∈ [0, 1]. Formu ly na promie´n informacji zosta ly obliczone w przyk ladzie 1.3 i wynosza,
radInt(Nn) = t21+ (1 − tn)2+1 2
n
X
i=2
(ti− ti−1)2,
radApp(Nn) = max { 2t1, 2(1 − tn), ti− ti−1, 2 ≤ i ≤ n } .
Minimalizujac oba promienie w standardowy spos´, ob ze wzgledu na punkty, ti dostajemy, ˙ze w obu przypadkach optymalna informacja
Nn∗ = [f (t∗1), . . . , f (t∗n)], gdzie
t∗i = i − 1/2
n , 1 ≤ j ≤ n.
Odpowiednie minimalne promienie wynosza, r(Int; n) = 1
4n, r(App; n) = 1 2n.
4.2 Informacja optymalna w przestrzeniach Hilberta
Rozpatrzmy teraz zadanie opisywane ciag lym operatorem liniowym S : F →, G dzia lajacym z o´srodkowej przestrzeni Hilberta F z iloczynem skalarnym, h·, ·iF w przestrze´n Hilberta G z iloczynem skalarnym h·, ·i.
Uwaga 4.1 Przypomnijmy, ˙ze przestrze´n F jest o´srodkowa wtedy i tylko wtedy gdy istnieje w niej przeliczalny zbi´or, kt´ory jest gesty. Konsekwencj, a, tego jest istnienie przeliczalnej i ortonormalnej bazy zupe lnej, tzn. takiego ciagu {f, j}∞j=1, ˙ze hfi, fjiF = δi,j (delta Kroneckera) oraz dla ka˙zdego f ∈ F
f =
∞
X
j=1
hf, fjiFfj,
4.2. INFORMACJA OPTYMALNA W PRZESTRZENIACH HILBERTA27 przy czym zbie˙zno´s´c szeregu rozumiemy tutaj jako zbie˙zno´s´c w normie prze- strzeni F .
Zak ladamy dalej, ˙ze klasa Nn dopuszczalnych informacji sk lada sie z ob-, licze´n n funkcjona l´ow liniowych ciag lych, tzn. N, n∈ Nn gdy
Nn(f ) = [hf, ξ1iF, hf, ξ2iF, . . . , hf, ξniF], dla dowolnych ξj ∈ F .
Aby znale´z´c n-ty minimalny promie´n i informacje optymaln, a, pos lu˙zymy, sie pewnymi faktami z Analizy Funkcjonalnej. Niech S, ∗ : G → F bedzie, przekszta lceniem sprze˙zonym do S, jednoznacznie zdefiniowanym r´, owno´scia,
hSf, gi = hf, S∗giF, ∀f ∈ F ∀g ∈ G.
Uwaga 4.2 Istnienie operatora sprze˙zonego wynika z twierdzenie Riesza., Rzeczywi´scie, wobec ciag lo´sci S, funkcjona l hS(·), gi, F jest na przestrzeni F ciag ly dla ka˙zdego g ∈ G, a jego repezentantem jest w la´snie S, ∗g. Latwo sprawdzi´c, ˙ze odwzorowanie przyporzadkowuj, ace g element S, ∗g jest r´ownie˙z liniowe i ciag le.,
Oznaczmy
W := S∗S : F → F.
Operator W jest samosprze˙zony, bo,
hW f1, f2iF = hS∗Sf1, f2iF = hSf1, Sf2iF = hf1, S∗Sf2iF = hf1, W f2iF. W jest r´ownie˙z nieujemnie okre´slony, bo
hW f, f iF = kSf k2 ≥ 0.
A je´sli tak to istnieje w F przeliczalna, ortonormalna i zupe lna baza {ξj∗}j≥1
sk ladajaca si, e z wektor´, ow w lasnych operatora W . W dodatku, odpowia- dajace im warto´sci w lasne λ, j sa nieujemne,,
W ξj∗ = λjξj∗, j ≥ 1.
Na podstawie twierdzenia 3.2 mamy, ˙ze
rad(Nn)2 = sup{kShk2 : h ∈ ker Nn, khkF ≤ 1}
= sup{hW h, hiF : h ∈ ker Nn, khkF ≤ 1}.