Aproksymacja
Marcin Orchel
1 Wstęp
Wygładzanie. Zadanie polega na znalezieniu wartości stałych x1, . . . , xn. Gdy nie możemy mierzyć bezpośrednio tych wartości, ale możemy mierzyć wartości y zależne od tych stałych i innych dodatkowych warunków próbnych z
y = f (z; x1, . . . , xn) (1)
Przeprowadzamy eksperymenty dla m różnych warunków próbnych mierząc y
yk= f (zk; x1, . . . , xn) (2) dla k = 1, 2, . . . , m. Chcemy znaleźć xi tak aby były spełnione powyższe równania. Dla m > n układ równań jest układem nadokreślonym, który zwykle nie ma rozwiązania, ponieważ wartości yi zawierają w sobie również błąd pomiaru. Jak rozwiązać ten układ możliwie dobrze i jak to zdefiniować.
Dwa przykłady definicji to minimalizacja wyrażenia ky − f (x)k2=
m
X
k=1
(yk− fk(x1, . . . , xn))2 (3) lub
max
1≤k≤m|yk− fk(x1, . . . , xn)| (4)
gdzie
fk(x1, . . . , xn) := f (zk; x1, . . . , xn) (5) Pierwsze zagadnienie to minimalizacja normy błędu i metoda zwana jest metodą naj- mniejszych kwadratów, a drugie zagadnienie to dyskretne zagadnienie Czebyszewa.
Jeśli funkcje fkmają ciągłe pochodne cząstkowe względem wszystkich zmiennych xi, to warunek konieczny minimalizacji to
∂
∂xi
m
X
k=1
(yk− fk(x1, . . . , xn))2 = 0 (6)
dla i = 1, . . . , n. Jest to układ normalny względem x. Przypadek szczególny liniowe zagadnienie wygładzania jesli funkcje fk są funkcjami liniowymi zmiennych xi, wtedy istnieje macierz A m × n taka, że
f1(x1, . . . , xn) ... fm(x1, . . . , xn)
= Ax (7)
Układ normalny po podstawieniu powyższego to
gradx(y − Ax)T(y − Ax)= 2ATAx − 2ATy = 0 (8)
ATAx = ATy (9)
Dowód.
ky − Axk2 = (y − Ax)T (y − Ax) = yTy − xTATy − yTAx + xTATAx (10) Możemy zauważyć, że
xTATyT = yTAx (11) ma rozmiar 1 na 1 (liczba kolumn y jest równa 1), dlatego jest to skalar, i dlatego jest równy swojej transpozycji,
xTATy = yTAx (12)
i otrzymujemy
yTy − 2xTATy + xTATAx (13) Następnie różniczkujemy powyższe po x i otrzymujemy
− ATy + ATAx = 0 (14)
Formalnie będziemy rozpatrywać normę kxk :=
√
xTx. Mamy macierz A, m × n, y ∈ Rm i funkcjonał do minimalizacji
ky − Axk2 = (y − Ax)T (y − Ax) (15)
Twierdzenie 1. Zadanie liniowego wygładzania, tzn. określenie
x∈Rminnky − Axk (16)
ma co najmniej jedno rozwiązanie x0. Jeśli x1 jest innym rozwiązaniem, to Ax0 = Ax1. Reszta r := y − Ax0 jest określona jednoznacznie i spełnia równanie ATr = 0. Każde rozwiązanie x0 jest także rozwiązaniem układu normalnego i na odwrót.
Jeśli kolumny macierzy A są liniowo niezależne, tzn. z tego, że x 6= 0 wynika, że Ax 6= 0, to macierz ATA jest macierzą nieosobliwą (i dodatnio określoną). W przeciwnym razie istniałby wektor x 6= 0 taki, że ATAx = 0 i wynikałoby stąd nie tylko Ax 6= 0, lecz także w sprzeczności z tym 0 = xTATAx = kAxk2. Układ normalny ma wtedy jednoznacznie określone rozwiązanie
x =ATA−1ATy (17)
1.1 Interpretacja statystyczna
Zakładamy, że składowe yi dla i = 1, . . . , m są niezależnymi zmiennymi losowymi z wartością średnią µi i każda z nich ma taką samą wariancję σ2, czyli
E [yi] = µi (18)
E [(yi− µi) (yk− µk)] =
( σ2 dla i = k
0 w pozostałych przypadkach (19) Macierzowo
E [y] = µ (20)
Eh(y − µ) (y − µ)Ti= σ2I (21) Ta ostatnia to macierz kowariancji. Wyprowadzone wcześniej optymalne rozwiązanie też jest wektorem losowym, wartość średnia to
E [x] = E
ATA−1ATy
=ATA−1ATE [y] =ATA−1ATµ (22) Macierz kowariancji rozwiązania to
Eh(x − E (x)) (x − E (x))Ti (23)
= E
"
ATA−1ATy −ATA−1ATµ
ATA−1ATy −ATA−1ATµ
T# (24)
= E
"
ATA−1AT (y − µ)
ATA−1AT (y − µ)
T#
(25)
= E
ATA−1AT (y − µ) (y − µ)T AATA−1
= (26)
ATA−1ATEh(y − µ) (y − µ)TiAATA−1 = (27)
ATA−1ATσ2IAATA−1 = (28)
σ2ATA−1ATIAATA−1 = (29) σ2ATA−1ATAATA−1= (30)
σ2ATA−1 (31)
Regresja jest zdefiniowana jako
r (x) = E (Y |X = x) (32)
1.2 Aproksymacja parametryczna funkcji Wartość funkcji przybliżającej obliczana jest ze wzoru
h (x) = F (φ (x) , w) (33)
gdzie F : Rn+1× Rm→ R, gdzie n to liczba cech i φn(x) = 1, w to wektor wag, gdzie m to jego rozmiar, a φ(x) to funkcje.
Celem jest minimalizacja błędu średniokwadratowego ε (hw) = X
x∈T
1
2(f (x) − h (x))2 (34)
gdzie T to zbiór treningowy, f (x) to wartość funkcji docelowej dla przykładu x.
Aby minimalizować ten błąd za pomocą metody spadku gradientu, gdzie modyfiku- jemy wagi w w następujący sposób:
∆w= −β∇wε (hw) (35)
czyli
w := w + ∆w (36)
gdzie ∇ oznacza wektor pochodnych cząstkowych ε(hw) względem poszczególnych wag.
Dla pojedynczej wagi
∆wi = −β∂ε (hw)
∂wi
(37) gdzie β to parametr z przedziału (0, 1]) nazywany rozmiarem kroku. Wagi zmieniane są dopiero po przetworzeniu całego zbioru uczącego (epoka). Procedura powtarzana jest dla kolejnych epok. Możemy przekształcić dalej pochodną
∂ε (hw)
∂wi = X
x∈T
(f (x) − h (x))
−∂hw(x)
∂wi
(38) i stąd
∆wi = X
x∈T
β (f (x) − hw(x))∂hw(x)
∂wi (39)
w zapisie wektorowym
∆w= X
x∈T
β (f (x) − hw(x)) ∇whw(x) (40) Możemy to zapisać inaczej
∆w = X
x∈T
∆w(x) (41)
gdzie ∆w(x) to modyfikacja wag po przetworzeniu pojedynczego przykładu x ∈ T obli- czana jako
∆w(x) = β (f (x) − hw(x)) ∇whw(x) (42) Powyższe można zastosować do aktualizacji wag w po przetworzeniu każdego przykładu
w := w + ∆w(x) (43)
1.3 Aproksymacja liniowa
hw(x) =
n
X
i=0
φi(x) wi (44)
i w zapisie wektorowym
hw(x) = wTφ (x) (45)
Przyjmujemy, że φn(x) ≡ 1. Możemy wyliczyć
∂ε (hw)
∂wi = φi(x) (46)
czyli
∇whw(x) = φ (x) (47)
otrzymujemy regułę delta
∆w= X
x∈T
β (f (x) − hw(x)) φ (x) (48)
W wersji inkrementacyjnej
∆w(x) = β (f (x) − hw(x)) φ (x) (49) Dla pojedynczej wagi
∆wi = X
x∈T
β (f (x) − hw(x)) φi(x) (50)
∆wi(x) = β (f (x) − hw(x)) φi(x) (51) Czasami stosuje się dodatkowo normalizację:
∆w =X
x∈T
β (f (x) − hw(x)) φ (x) Pn
i=0wi
(52)
∆w(x) = β (f (x) − hw(x)) φ (x) Pn
i=0wi
(53) Przykład: Dane są punkty (1, 1), (3, 2), (4, 4), (6, 4), (8, 5), (9, 7), (11, 8), (14, 9).
Znaleźć aproksymację
hw(x) = w0x + w1· 1 = w0x + w1 (54) Początkowe wagi mają wartości w0 = w1 = 0, β = 0, 1. W trybie inkrementacyjnym modyfikujemy wagi najpierw dla pierwszego punktu
w0= 0 + 0, 1 · (1 − 0) · 1 = 0, 1 (55) w1= 0 + 0, 1 · (1 − 0) · 1 = 0, 1 (56)
1.4 Metoda najmniejszych kwadratów
Inne nazwy procedura aproksymacji w normie kwadratowej, metoda kwadratu błędu Gaussa.
Zagadnienie ciągłe. Aproksymacja funkcji f (x) funkcją g (x) w przedziale [a, b] polega na minimalizacji wyrażenia
F = Z b
a
w (x) (f (x) − g (x))2dx (57)
gdzie w (x) – funkcja gęstości (waga), taka, że w (x) > 0 w przedziale całkowania. Po- stulujemy rozwiązanie przybliżone g (x) postaci:
g (x) =
n
X
i=0
aigi(x) (58)
gdzie g0(x) , g1(x) , . . . , gn(x) to liniowo niezależne funkcje. Zbiór funkcji liniowo nieza- leżnych to taki zbiór funkcji, że żadnej z nich nie można przedstawić w postaci kombinacji liniowej innych funkcji z tego zbioru. Przykład: układ funkcji potęgowych y = xn jest układem liniowo niezależnym. Zadanie aproksymacji polega na znalezieniu współczynni- ków ai. Warunkiem koniecznym minimum F jest zerowanie się pochodnych cząstkowych:
∂F
∂ak
= 0 (59)
dla k = 0, 1, . . . , n. Wyprowadzenie w Appendix2.3. Wprowadzając oznaczenia
(gi, gk) =
b
Z
a
w (x) gi(x) gk(x) dx (60)
(f, gk) =
b
Z
a
w (x) f (x) gk(x) dx (61)
otrzymujemy tzw. układ normalny
n
X
i=0
ai(gi, gk) = (f, gk) (62) dla k = 0, 1, . . . , n.
W postaci macierzowej dla uproszczonej funkcji g(x), pierwsza kolumna X zawiera jedynki. Wyprowadzenie podane wcześniej.
Wprowadzone oznaczenia to iloczyny skalarne dwóch funkcji występujących w całce.
Układ równań ma jednoznaczne rozwiązanie, ze względu na założenie o liniowej nieza- leżności funkcji gi(x). Macierz współczynników tego układu jest symetryczna. Przykład dla n = 2.
(g0, g0) (g1, g0) (g2, g0) (g0, g1) (g1, g1) (g2, g1) (g0, g2) (g1, g2) (g2, g2)
(63)
Rozwiązanie możemy znaleźć metodą Cholesky’ego. Jeśli układ postulowanych funkcji bazowych jest ortogonalny, tzn. jeśli: (gi, gk) = 0, dla i 6= k to otrzymujemy macierz diagonalną i współczynniki ai możemy znaleźć za pomocą wzorów:
ak(gk, gk) = (f, gk) (64)
ak= (f, gk)
(gk, gk) (65)
dla k = 0, 1, . . . , n. Układ bazowych funkcji jest ortonormalny, jeśli (gi, gk) = 0 dla i 6= k oraz (gi, gk) = 1 dla i = k. Przy spełnieniu powyższych warunków wzory na współczynniki wyglądają następująco:
ak= (f, gk) dla k = 0, 1, . . . , n.
Przykład. Dane są punkty (1, 1), (3, 2), (4, 4), (6, 4), (8, 5), (9, 7), (11, 8), (14, 9).
Znaleźć aproksymację dla
g (x) = a0x0+ a1x1= a0+ a1x (66) Układ normalny jest następujący
a0(1, 1) + a1(x, 1) = (f, 1) (67) a0(1, x) + a1(x, x) = (f, x) (68) Mamy
(1, 1) = n + 1 = 8 (69)
(x, 1) =
n
X
i=0
xi= 56 (70)
(f, 1) =
n
X
i=0
f (xi) =
n
X
i=0
yi= 40 (71)
(x, x) =
n
X
i=0
x2i = 524 (72)
(f, x) =
n
X
i=0
f (xi) xi =
n
X
i=0
yixi = 364 (73)
Układ normalny to
8a0+ 56a1 = 40 (74)
56a0+ 524a1 = 364 (75)
Rozwiązanie
a0 = 5 − 7a1 (76)
56 (5 − 7a1) + 524a1 = 364 (77)
280 − 392a1+ 524a1= 364 (78)
132a1 = 84 (79)
a1 = 7
11 (80)
a0 = 5 − 77 11 = 6
11 (81)
A więc
g (x) = 6 11 + 7
11x (82)
Przykładowo błąd bezwzględny dla punktu (1, 1) wynosi 13/11 − 1 = 0.18, a względny 18%.
Przykład dla funkcji kwadratowej.
1.4.1 Ortogonalizacja układu funkcji liniowo niezależnych Funkcję potęgową xi dla i = 0, 1, . . . , n można zortogonalizować:
• dla przedziału [−1, 1], w (x) = 1, otrzymujemy wielomiany Legendre’a Pn(x) = 1
2nn!
dn dxn
x2− 1n (83)
• dla przedziału [−1, 1], w (x) = 1/√
1 − x2, otrzymujemy wielomiany Czebyszewa Tn(x), zdefiniowane jako
T0(x) = 1 (84)
T1(x) = x (85)
Tn(x) = 2xTn−1(x) − Tn−2(x) (86) dla n = 2, 3, 4, . . . Czyli
T2(x) = 2x2− 1 (87)
T3(x) = 4x3− 3x (88)
Przykładowo, jeśli funkcja g jest postaci:
a0+ a1x + a2x2 (89)
wielomiany gi są postaci: 1, x, x2, to gdy przybliżamy w przedziale [−1, 1], w (x) = 1 to wielomiany gi wybieramy następująco (Legendre’a): g0 = 1, g1 = x, g2 = 1/2 3x2− 1 Czy rzeczywiście te wielomiany są ortogonalne? sprawdźmy czy (g1, g2) = 0
1 2
1
Z
−1
x3x2− 1dx =
1 2
Z1
−1
3x3− xdx =
3 2
1
Z
−1
x3dx −1 2
1
Z
−1
xdx =
3 2
1 4x4
1
−1
− 1 2
"
x2 2
#1
−1
= 0 A więc szukana funkcja g jest postaci:
a001 + a01x + a021/23x2− 1 (90) Każdy dowolny przedział [a, b] można ścieśnić lub rozszerzyć do przedziału [−1, 1]. Robi się to następująco: a ——- x ——- b, -1 —- t —— 1, aby x leżał w drugim przedziale tak samo daleko od początku proporcjonalnie do całości musi być spełniony następujący warunek:
x − a
b − a = t + 1
2 (91)
t = 2x − a
b − a − 1 = 2
b − ax −a + b
b − a (92)
x = (t + 1) (b − a)
2 + a = b − a
2 t + a + b
2 (93)
Przykład. Aproksymacja funkcji y = sin x na przedziale h0, π/2i wielomianem stopnia co najwyżej drugiego za pomocą wielomianów Legendre’a.
Najpierw musimy przekształcić przedział do [−1, 1], czyli zamieniamy zmienną x na zmienną t i otrzymujemy
t = 4
πx − 1 (94)
Aproksymujemy funkcję
P (t) = sinπ (t + 1)
4 (95)
wielomianem
W (t) = a0P0(t) + a1P1(t) + a2P2(t) (96) W (t) = a0+ a1t + a2
3t2− 1/2 . (97) Współczynniki wynoszą:
a0= (f, 1) (1, 1) =
R1
−1sinπ4 (t + 1) dt
2 = 2
π (98)
a1= (f, t)
(t, t) = 3R−11 t sinπ4 (t + 1) dt
2 = 24
π2 − 6
π (99)
a2= f, 3/2t2− 1/2
(3/2t2− 1/2, 3/2t2− 1/2) = 5R−11 3/2t2− 1/2sinπ4(t + 1) dt
2 = −480
π3 +120 π2 +10
π (100) Na końcu zastępujemy t wyrażeniem z x.
Przykład aproksymacji: funkcja ex. Chcemy ją przybliżyć wielomianem drugiego stopnia g postaci (90).
a00 = (ex, 1)
(1, 1) = e −1e
2 ≈ 1, 17505
a01 = (ex, x) (x, x) =
1
R
−1
exxdx
2 ≈ 0, 736
2 = 0, 368 Obliczenie całki przez części:
1
Z
−1
exxdx = [ex(x − 1)]1−1= 2
e ≈ 0, 736
a02=
ex,12 3x2− 1
1
2(3x2− 1) ,12(3x2− 1)
= ...
1.5 Aproksymacja jednostajna (Czebyszewa)
Przypadek ciągły. W przedziale a ≤ x ≤ b funkcję f (x) aproksymujemy funkcją g (x) = g (x; a0, a1, . . . , an) w taki sposób, że największy co do wartości bezwzględnej błąd
max
a≤x≤b|f (x) − g (x; a0, a1, . . . , an)| = φ (a0, a1, . . . , an)
przy odpowiednim wyborze parametrów aistaje się możliwie mały. Zapis g (x; a0, a1, ..., an) oznacza, że funkcja g jest zależna od parametrów ai dla i = 0, 1, . . . , n. Jeśli dla f (x) tak przybliżona funkcja istnieje, to maksymalna wartość odchylenia jest przyjmowana, ze zmieniającym się znakiem, w co najmniej n + 2 punktach xv rozważanego przedziału, tzw. alternantach. Jest to twierdzenie o alternantach.
Bardziej ściśle.
Twierdzenie 2. Wielomian p∗ ∈ Pn jest najlepszą aproksymacją dla f ∈ C[a, b] wtedy i tylko wtedy, gdy istnieje n + 2 punktów a ≤ t1 < . . . < tn+2≤ b takich, że
f (ti) − p∗(ti) = (−1)iγ (101)
|γ| = kf − p∗k (102)
to znaczy wtedy i tylko wtedy gdy różnica f (x) − p∗(x) przybiera maksymalną wartość ze zmieniającym się znakiem w co najmniej n + 2 punktach.
Przykład. Aproksymacja funkcji f (x) = xn wielomianem stopnia ≤ n − 1. Aprok- symacja funkcji f (x) = x w przedziale [−1, 1] wielomianem g (x) = a0. Jeden parametr n = 0, a więc rozwiązanie g (x) = 0, 2 alternanty na brzegach przedziału. Maksymalny błąd wtedy wynosi 1. Błąd: wielomian Czebyszewa T1(x) = x.
Dla f (x) = x2 szukana funkcja g (x) = a1x + a0 lub g (x) = a0. Rozwiązanie:
g (x) = 0.5. 3 alternanty. Maksymalny błąd wynosi 0.5. Błąd wielomian Czebyszewa T2(x) = 2x2− 1 znormalizowany do 1.
1.5.1 Rozwiązywanie zagadnienia aproksymacji Czebyszewa Funkcja przybliżona
g (x) =
n
X
i=0
aigi(x)
n + 1 liniowo niezależnych funkcji gi, a∗i dla i = 0, 1, . . . , n - współczynniki rozwiązania zagadnienia Czebyszewa,
ρ = φ (a∗0, a∗1, . . . , a∗n)
ρ - minimalizowane odchylenie. Gdy funkcje f i gi są różniczkowalne, to z twierdzenia o alternantach wynikają zależności:
n
X
i=0
a∗igi(xv) + (−1)vρ = f (xv)
n
X
i=0
a∗ig0(xv) = f0(xv)
dla v = 1, 2, . . . , n + 2. Punkty xv są alternantami, przy czym
a ≤ x1 ≤ x2 ≤ . . . ≤ xn+2 ≤ b (103) Drugi warunek mówi o tym, że pochodne w alternantach są równe (oprócz końców).
Gdyby tak nie było, to istniałyby punkty, które mają większą różnicę ρ, co jest sprzeczne z założeniem, że jest to największa różnica.
Dwa powyższe równania stanowią 2n + 4 warunków na 2n + 4 niewiadomych: n + 1 współczynników postulowanego rozwiązania, n+2 alternant i minimalizowane odchylenie ρ. Jeżeli punkty brzegowe przedziału okazują się alternantami, warunki na pochodną nie muszą tam obowiązywać.
Przykład: Dla y = x2. Chcemy przybliżyć wielomianem pierwszego stopnia y = a1x + a0 przy założeniu, że punkty brzegowe są alternantami, a zatem x0 = −1, x2 = 1.
a1x0+ a0+ ρ = x20 (104)
a1x1+ a0− ρ = x21 (105)
a1x2+ a0+ ρ = x22 (106)
a1 = 2x1 (107)
− a1+ a0+ ρ = 1 (108)
a1x1+ a0− ρ = x21 (109)
a1+ a0+ ρ = 1 (110)
a1 = 2x1 (111)
4 równania z 4 niewiadomymi
ρ = 1 + a1− a0 (112)
a1x1+ a0− 1 − a1+ a0 = x21 (113) Podstawiając ρ do 3
2a1 = 0 (114)
a1 = 0 (115)
A więc z ostatniego
x1= 0 (116)
A więc mamy z drugiego i trzeciego
a0− ρ = 0 (117)
a0+ ρ = 1 (118)
2a0 = 1 (119)
a0 = 0.5 (120)
I z pierwszego
ρ = 1 + 0 − 0.5 = 0.5 (121)
1.6 Aproksymacja nieliniowa
Funkcje fk mogą być nieliniowe. Rozwiązanie przez linearyzację. Sprowadzamy do ciągu zadań wygładzania nieliniowego.
Jeśli prawie każda funkcja fk ma ciągłą pochodną i mamy macierz funkcyjną w punkcie x = ξ
Df (ξ) =
∂f1
∂x1 . . . ∂x∂f1
n
. . . . . . . . .
∂fm
∂x1 . . . ∂f∂xm
n
x=ξ
(122)
to ze wzoru Taylora (AppendixB)
f (¯x) = f (x) + Df (x) (¯x − x) + h (123) gdzie
khk = o (k¯x − xk) (124)
Jeśli x jest przybliżeniem rozwiązania optymalnego, to rozwiązanie optymalne ¯x za- dania
min
z∈Rnky − f (x) − Df (x) (z − x)k2 = kr (x) − Df (x) (¯x − x)k2 (125) gdzie r (x) := y − f (x) będzie na ogół lepszym rozwiązaniem zadania aproksymacji nieliniowej niż x to znaczy
ky − f (¯x)k2< ky − f (x)k2 (126) Bardziej ściśle zachodzi dla
s = s (x) := ¯x − x (127)
istnieje λ > 0, taka, że funkcja
φ (τ ) := ky − f (x + τ s)k2 (128)
dla każdego 0 ≤ τ ≤ λ jest monotonicznie ściśle malejąca. W szczególności
φ (λ) = ky − f (x + λs)k2< φ (0) = ky − f (x)k2 (129) Algorytm iteracyjny
1. Dla x(i) obliczamy rozwiązanie s(i) zadania aproksymacji liniowej min
s∈Rn
rx(i)− Dfx(i)s 2 (130) 2. Niech
φ (τ ) := y − fx(i)+ τ s(i) 2 (131) i k ≥ 0 niech będzie najmniejszą liczbą całkowitą taką, że
φ2−k< φ (0) = rx(i) 2 (132) Definiujemy
x(i+1) := x(i)+ 2−ks(i) (133)
Przykład. Dla podanych punktów (1, 0), (2, 1), (3, 1). Szukamy funkcji liniowej aproksymacyjnej. Wybieramy jakiś wektor początkowy np. x(0) = (1, 1). Rozwiązujemy zadanie aproksymacji liniowej
s∈Rminn
y − fx(0)− Dfx(0)s 2 (134) Znajdziemy s(1). Następnie szukamy k i wyliczamy x(1).
2 Zadania
2.1 Zadania na 3.0
• Dla funkcji y = f (x) określonej za pomocą punktów, znaleźć wielomian aproksy- mujący stopnia pierwszego za pomocą aproksymacji średniokwadratowej: dla grup 1 i 2 punkty to
(0, 2.9) , (1, 2.8) , (2, 2.7) , (3, 2.3) , (4, 2.1) , (5, 2.1) , (6, 1.7) (135) dla grup 3 i 4 punkty to
(2, 76) , (3, 82) , (587) , (7, 94) , (9, 103) (136) Narysować wykres funkcji aproksymującej wraz z punktami.
Wskazówki
• Do narysowania wykresu można wykorzystać wolframalpha.com (wtedy należy za- mieścić również linki do wolframalpha.com).
2.2 Zadania na 4.0
• Dokonać aproksymacji średniokwadratowej wielomianem stopnia trzeciego przy użyciu bazy wielomianów Legendre’a funkcji y = sin x określonej na przedziale h0; π/2i. Narysować wykres funkcji aproksymowanej i aproksymującej.
Wskazówki:
•
g3(x) = 1 2
5x3− 3x (137)
2.3 Zadania na 5.0
• Dokonać aproksymacji jednostajnej wielomianem pierwszego stopnia funkcji 2x2+1 za pomocą odpowiedniego układu równań. Narysować wykres funkcji aproksymo- wanej i aproksymującej.
• Udowodnić, że aproksymacja średniokwadratowa dla dowolnych punktów balan- suje punkty, to znaczy, że suma różnic między wartością poszukiwanej funkcji, a wartością w punktach jest równa 0.
A Wyprowadzenie
F =
b
Z
a
w (x) (f (x) − g (x))2dx (138)
F =
b
Z
a
w (x)f (x)2− 2f (x) g (x) + g (x)2dx (139)
F = Zb
a
w (x) f (x)2dx − 2 Zb
a
w (x) f (x) g (x) dx + Zb
a
w (x) g (x)2dx (140) Po podstawieniu (58)
F = Zb
a
w (x) f (x)2dx − 2 Zb
a
w (x) f (x)
n
X
i=0
aigi(x)dx + Zb
a
w (x)
n
X
i=0
aigi(x)
!2
dx (141)
∂F
∂ak = −2
b
Z
a
w (x) f (x) gk(x) dx +
b
Z
a
w (x) (akgk(x))2dx
0
(142)
+
2 Zb
a
w (x)
n
X
i=0i6=k
aiakgi(x) gk(x)dx
0
(143)
∂F
∂ak = −2
b
Z
a
w (x) f (x) gk(x) dx + 2
b
Z
a
w (x) akgk(x)2dx (144)
+ 2 Zb
a
w (x)
n
X
i=0i6=k
aigi(x) gk(x)dx (145)
∂F
∂ak = −2
b
Z
a
w (x) f (x) gk(x) dx + 2
b
Z
a
w (x)
n
X
i=0
aigi(x) gk(x)dx (146) Podstawiamy do (59)
− 2
b
Z
a
w (x) f (x) gk(x) dx + 2
b
Z
a
w (x)
n
X
i=0
aigi(x) gk(x)dx = 0 (147)
Zb
a
w (x)
n
X
i=0
aigi(x) gk(x)dx = Zb
a
w (x) f (x) gk(x) dx (148)