• Nie Znaleziono Wyników

1Wstęp Aproksymacja

N/A
N/A
Protected

Academic year: 2021

Share "1Wstęp Aproksymacja"

Copied!
17
0
0

Pełen tekst

(1)

Aproksymacja

Marcin Orchel

1 Wstęp

Wygładzanie. Zadanie polega na znalezieniu wartości stałych x1, . . . , xn. Gdy nie możemy mierzyć bezpośrednio tych wartości, ale możemy mierzyć wartości y zależne od tych stałych i innych dodatkowych warunków próbnych z

y = f (z; x1, . . . , xn) (1)

Przeprowadzamy eksperymenty dla m różnych warunków próbnych mierząc y

yk= f (zk; x1, . . . , xn) (2) dla k = 1, 2, . . . , m. Chcemy znaleźć xi tak aby były spełnione powyższe równania. Dla m > n układ równań jest układem nadokreślonym, który zwykle nie ma rozwiązania, ponieważ wartości yi zawierają w sobie również błąd pomiaru. Jak rozwiązać ten układ możliwie dobrze i jak to zdefiniować.

Dwa przykłady definicji to minimalizacja wyrażenia ky − f (x)k2=

m

X

k=1

(yk− fk(x1, . . . , xn))2 (3) lub

max

1≤k≤m|yk− fk(x1, . . . , xn)| (4)

gdzie

fk(x1, . . . , xn) := f (zk; x1, . . . , xn) (5) Pierwsze zagadnienie to minimalizacja normy błędu i metoda zwana jest metodą naj- mniejszych kwadratów, a drugie zagadnienie to dyskretne zagadnienie Czebyszewa.

Jeśli funkcje fkmają ciągłe pochodne cząstkowe względem wszystkich zmiennych xi, to warunek konieczny minimalizacji to

∂xi

m

X

k=1

(yk− fk(x1, . . . , xn))2 = 0 (6)

(2)

dla i = 1, . . . , n. Jest to układ normalny względem x. Przypadek szczególny liniowe zagadnienie wygładzania jesli funkcje fk są funkcjami liniowymi zmiennych xi, wtedy istnieje macierz A m × n taka, że

f1(x1, . . . , xn) ... fm(x1, . . . , xn)

= Ax (7)

Układ normalny po podstawieniu powyższego to

gradx(y − Ax)T(y − Ax)= 2ATAx − 2ATy = 0 (8)

ATAx = ATy (9)

Dowód.

ky − Axk2 = (y − Ax)T (y − Ax) = yTy − xTATy − yTAx + xTATAx (10) Możemy zauważyć, że

xTATyT = yTAx (11) ma rozmiar 1 na 1 (liczba kolumn y jest równa 1), dlatego jest to skalar, i dlatego jest równy swojej transpozycji,

xTATy = yTAx (12)

i otrzymujemy

yTy − 2xTATy + xTATAx (13) Następnie różniczkujemy powyższe po x i otrzymujemy

− ATy + ATAx = 0 (14)

Formalnie będziemy rozpatrywać normę kxk :=

xTx. Mamy macierz A, m × n, y ∈ Rm i funkcjonał do minimalizacji

ky − Axk2 = (y − Ax)T (y − Ax) (15)

Twierdzenie 1. Zadanie liniowego wygładzania, tzn. określenie

x∈Rminnky − Axk (16)

ma co najmniej jedno rozwiązanie x0. Jeśli x1 jest innym rozwiązaniem, to Ax0 = Ax1. Reszta r := y − Ax0 jest określona jednoznacznie i spełnia równanie ATr = 0. Każde rozwiązanie x0 jest także rozwiązaniem układu normalnego i na odwrót.

Jeśli kolumny macierzy A są liniowo niezależne, tzn. z tego, że x 6= 0 wynika, że Ax 6= 0, to macierz ATA jest macierzą nieosobliwą (i dodatnio określoną). W przeciwnym razie istniałby wektor x 6= 0 taki, że ATAx = 0 i wynikałoby stąd nie tylko Ax 6= 0, lecz także w sprzeczności z tym 0 = xTATAx = kAxk2. Układ normalny ma wtedy jednoznacznie określone rozwiązanie

x =ATA−1ATy (17)

(3)

1.1 Interpretacja statystyczna

Zakładamy, że składowe yi dla i = 1, . . . , m są niezależnymi zmiennymi losowymi z wartością średnią µi i każda z nich ma taką samą wariancję σ2, czyli

E [yi] = µi (18)

E [(yi− µi) (yk− µk)] =

( σ2 dla i = k

0 w pozostałych przypadkach (19) Macierzowo

E [y] = µ (20)

Eh(y − µ) (y − µ)Ti= σ2I (21) Ta ostatnia to macierz kowariancji. Wyprowadzone wcześniej optymalne rozwiązanie też jest wektorem losowym, wartość średnia to

E [x] = E



ATA−1ATy



=ATA−1ATE [y] =ATA−1ATµ (22) Macierz kowariancji rozwiązania to

Eh(x − E (x)) (x − E (x))Ti (23)

= E

"

ATA−1ATy −ATA−1ATµ

 

ATA−1ATy −ATA−1ATµ

T# (24)

= E

"

ATA−1AT (y − µ)



ATA−1AT (y − µ)

T#

(25)

= E



ATA−1AT (y − µ) (y − µ)T AATA−1



= (26)

ATA−1ATEh(y − µ) (y − µ)TiAATA−1 = (27)

ATA−1ATσ2IAATA−1 = (28)

σ2ATA−1ATIAATA−1 = (29) σ2ATA−1ATAATA−1= (30)

σ2ATA−1 (31)

Regresja jest zdefiniowana jako

r (x) = E (Y |X = x) (32)

(4)

1.2 Aproksymacja parametryczna funkcji Wartość funkcji przybliżającej obliczana jest ze wzoru

h (x) = F (φ (x) , w) (33)

gdzie F : Rn+1× Rm→ R, gdzie n to liczba cech i φn(x) = 1, w to wektor wag, gdzie m to jego rozmiar, a φ(x) to funkcje.

Celem jest minimalizacja błędu średniokwadratowego ε (hw) = X

x∈T

1

2(f (x) − h (x))2 (34)

gdzie T to zbiór treningowy, f (x) to wartość funkcji docelowej dla przykładu x.

Aby minimalizować ten błąd za pomocą metody spadku gradientu, gdzie modyfiku- jemy wagi w w następujący sposób:

w= −β∇wε (hw) (35)

czyli

w := w + ∆w (36)

gdzie ∇ oznacza wektor pochodnych cząstkowych ε(hw) względem poszczególnych wag.

Dla pojedynczej wagi

wi = −β∂ε (hw)

∂wi

(37) gdzie β to parametr z przedziału (0, 1]) nazywany rozmiarem kroku. Wagi zmieniane są dopiero po przetworzeniu całego zbioru uczącego (epoka). Procedura powtarzana jest dla kolejnych epok. Możemy przekształcić dalej pochodną

∂ε (hw)

∂wi = X

x∈T

(f (x) − h (x))



∂hw(x)

∂wi



(38) i stąd

wi = X

x∈T

β (f (x) − hw(x))∂hw(x)

∂wi (39)

w zapisie wektorowym

w= X

x∈T

β (f (x) − hw(x)) ∇whw(x) (40) Możemy to zapisać inaczej

w = X

x∈T

w(x) (41)

gdzie ∆w(x) to modyfikacja wag po przetworzeniu pojedynczego przykładu x ∈ T obli- czana jako

w(x) = β (f (x) − hw(x)) ∇whw(x) (42) Powyższe można zastosować do aktualizacji wag w po przetworzeniu każdego przykładu

w := w + ∆w(x) (43)

(5)

1.3 Aproksymacja liniowa

hw(x) =

n

X

i=0

φi(x) wi (44)

i w zapisie wektorowym

hw(x) = wTφ (x) (45)

Przyjmujemy, że φn(x) ≡ 1. Możemy wyliczyć

∂ε (hw)

∂wi = φi(x) (46)

czyli

whw(x) = φ (x) (47)

otrzymujemy regułę delta

w= X

x∈T

β (f (x) − hw(x)) φ (x) (48)

W wersji inkrementacyjnej

w(x) = β (f (x) − hw(x)) φ (x) (49) Dla pojedynczej wagi

wi = X

x∈T

β (f (x) − hw(x)) φi(x) (50)

wi(x) = β (f (x) − hw(x)) φi(x) (51) Czasami stosuje się dodatkowo normalizację:

w =X

x∈T

β (f (x) − hw(x)) φ (x) Pn

i=0wi

(52)

w(x) = β (f (x) − hw(x)) φ (x) Pn

i=0wi

(53) Przykład: Dane są punkty (1, 1), (3, 2), (4, 4), (6, 4), (8, 5), (9, 7), (11, 8), (14, 9).

Znaleźć aproksymację

hw(x) = w0x + w1· 1 = w0x + w1 (54) Początkowe wagi mają wartości w0 = w1 = 0, β = 0, 1. W trybie inkrementacyjnym modyfikujemy wagi najpierw dla pierwszego punktu

w0= 0 + 0, 1 · (1 − 0) · 1 = 0, 1 (55) w1= 0 + 0, 1 · (1 − 0) · 1 = 0, 1 (56)

(6)

1.4 Metoda najmniejszych kwadratów

Inne nazwy procedura aproksymacji w normie kwadratowej, metoda kwadratu błędu Gaussa.

Zagadnienie ciągłe. Aproksymacja funkcji f (x) funkcją g (x) w przedziale [a, b] polega na minimalizacji wyrażenia

F = Z b

a

w (x) (f (x) − g (x))2dx (57)

gdzie w (x) – funkcja gęstości (waga), taka, że w (x) > 0 w przedziale całkowania. Po- stulujemy rozwiązanie przybliżone g (x) postaci:

g (x) =

n

X

i=0

aigi(x) (58)

gdzie g0(x) , g1(x) , . . . , gn(x) to liniowo niezależne funkcje. Zbiór funkcji liniowo nieza- leżnych to taki zbiór funkcji, że żadnej z nich nie można przedstawić w postaci kombinacji liniowej innych funkcji z tego zbioru. Przykład: układ funkcji potęgowych y = xn jest układem liniowo niezależnym. Zadanie aproksymacji polega na znalezieniu współczynni- ków ai. Warunkiem koniecznym minimum F jest zerowanie się pochodnych cząstkowych:

∂F

∂ak

= 0 (59)

dla k = 0, 1, . . . , n. Wyprowadzenie w Appendix2.3. Wprowadzając oznaczenia

(gi, gk) =

b

Z

a

w (x) gi(x) gk(x) dx (60)

(f, gk) =

b

Z

a

w (x) f (x) gk(x) dx (61)

otrzymujemy tzw. układ normalny

n

X

i=0

ai(gi, gk) = (f, gk) (62) dla k = 0, 1, . . . , n.

W postaci macierzowej dla uproszczonej funkcji g(x), pierwsza kolumna X zawiera jedynki. Wyprowadzenie podane wcześniej.

Wprowadzone oznaczenia to iloczyny skalarne dwóch funkcji występujących w całce.

Układ równań ma jednoznaczne rozwiązanie, ze względu na założenie o liniowej nieza- leżności funkcji gi(x). Macierz współczynników tego układu jest symetryczna. Przykład dla n = 2.

(g0, g0) (g1, g0) (g2, g0) (g0, g1) (g1, g1) (g2, g1) (g0, g2) (g1, g2) (g2, g2)

(63)

(7)

Rozwiązanie możemy znaleźć metodą Cholesky’ego. Jeśli układ postulowanych funkcji bazowych jest ortogonalny, tzn. jeśli: (gi, gk) = 0, dla i 6= k to otrzymujemy macierz diagonalną i współczynniki ai możemy znaleźć za pomocą wzorów:

ak(gk, gk) = (f, gk) (64)

ak= (f, gk)

(gk, gk) (65)

dla k = 0, 1, . . . , n. Układ bazowych funkcji jest ortonormalny, jeśli (gi, gk) = 0 dla i 6= k oraz (gi, gk) = 1 dla i = k. Przy spełnieniu powyższych warunków wzory na współczynniki wyglądają następująco:

ak= (f, gk) dla k = 0, 1, . . . , n.

Przykład. Dane są punkty (1, 1), (3, 2), (4, 4), (6, 4), (8, 5), (9, 7), (11, 8), (14, 9).

Znaleźć aproksymację dla

g (x) = a0x0+ a1x1= a0+ a1x (66) Układ normalny jest następujący

a0(1, 1) + a1(x, 1) = (f, 1) (67) a0(1, x) + a1(x, x) = (f, x) (68) Mamy

(1, 1) = n + 1 = 8 (69)

(x, 1) =

n

X

i=0

xi= 56 (70)

(f, 1) =

n

X

i=0

f (xi) =

n

X

i=0

yi= 40 (71)

(x, x) =

n

X

i=0

x2i = 524 (72)

(f, x) =

n

X

i=0

f (xi) xi =

n

X

i=0

yixi = 364 (73)

Układ normalny to

8a0+ 56a1 = 40 (74)

56a0+ 524a1 = 364 (75)

Rozwiązanie

a0 = 5 − 7a1 (76)

(8)

56 (5 − 7a1) + 524a1 = 364 (77)

280 − 392a1+ 524a1= 364 (78)

132a1 = 84 (79)

a1 = 7

11 (80)

a0 = 5 − 77 11 = 6

11 (81)

A więc

g (x) = 6 11 + 7

11x (82)

Przykładowo błąd bezwzględny dla punktu (1, 1) wynosi 13/11 − 1 = 0.18, a względny 18%.

Przykład dla funkcji kwadratowej.

1.4.1 Ortogonalizacja układu funkcji liniowo niezależnych Funkcję potęgową xi dla i = 0, 1, . . . , n można zortogonalizować:

• dla przedziału [−1, 1], w (x) = 1, otrzymujemy wielomiany Legendre’a Pn(x) = 1

2nn!

dn dxn

x2− 1n (83)

• dla przedziału [−1, 1], w (x) = 1/

1 − x2, otrzymujemy wielomiany Czebyszewa Tn(x), zdefiniowane jako

T0(x) = 1 (84)

T1(x) = x (85)

Tn(x) = 2xTn−1(x) − Tn−2(x) (86) dla n = 2, 3, 4, . . . Czyli

T2(x) = 2x2− 1 (87)

T3(x) = 4x3− 3x (88)

Przykładowo, jeśli funkcja g jest postaci:

a0+ a1x + a2x2 (89)

wielomiany gi są postaci: 1, x, x2, to gdy przybliżamy w przedziale [−1, 1], w (x) = 1 to wielomiany gi wybieramy następująco (Legendre’a): g0 = 1, g1 = x, g2 = 1/2 3x2− 1 Czy rzeczywiście te wielomiany są ortogonalne? sprawdźmy czy (g1, g2) = 0

1 2

1

Z

−1

x3x2− 1dx =

(9)

1 2

Z1

−1

3x3− xdx =

3 2

1

Z

−1

x3dx −1 2

1

Z

−1

xdx =

3 2

1 4x4

1

−1

1 2

"

x2 2

#1

−1

= 0 A więc szukana funkcja g jest postaci:

a001 + a01x + a021/23x2− 1 (90) Każdy dowolny przedział [a, b] można ścieśnić lub rozszerzyć do przedziału [−1, 1]. Robi się to następująco: a ——- x ——- b, -1 —- t —— 1, aby x leżał w drugim przedziale tak samo daleko od początku proporcjonalnie do całości musi być spełniony następujący warunek:

x − a

b − a = t + 1

2 (91)

t = 2x − a

b − a − 1 = 2

b − ax −a + b

b − a (92)

x = (t + 1) (b − a)

2 + a = b − a

2 t + a + b

2 (93)

Przykład. Aproksymacja funkcji y = sin x na przedziale h0, π/2i wielomianem stopnia co najwyżej drugiego za pomocą wielomianów Legendre’a.

Najpierw musimy przekształcić przedział do [−1, 1], czyli zamieniamy zmienną x na zmienną t i otrzymujemy

t = 4

πx − 1 (94)

Aproksymujemy funkcję

P (t) = sinπ (t + 1)

4 (95)

wielomianem

W (t) = a0P0(t) + a1P1(t) + a2P2(t) (96) W (t) = a0+ a1t + a2

3t2− 1/2 . (97) Współczynniki wynoszą:

a0= (f, 1) (1, 1) =

R1

−1sinπ4 (t + 1) dt

2 = 2

π (98)

a1= (f, t)

(t, t) = 3R−11 t sinπ4 (t + 1) dt

2 = 24

π2 6

π (99)

(10)

a2= f, 3/2t2− 1/2

(3/2t2− 1/2, 3/2t2− 1/2) = 5R−11 3/2t2− 1/2sinπ4(t + 1) dt

2 = −480

π3 +120 π2 +10

π (100) Na końcu zastępujemy t wyrażeniem z x.

Przykład aproksymacji: funkcja ex. Chcemy ją przybliżyć wielomianem drugiego stopnia g postaci (90).

a00 = (ex, 1)

(1, 1) = e −1e

2 ≈ 1, 17505

a01 = (ex, x) (x, x) =

1

R

−1

exxdx

2 0, 736

2 = 0, 368 Obliczenie całki przez części:

1

Z

−1

exxdx = [ex(x − 1)]1−1= 2

e ≈ 0, 736

a02=

ex,12 3x2− 1

1

2(3x2− 1) ,12(3x2− 1)

= ...

1.5 Aproksymacja jednostajna (Czebyszewa)

Przypadek ciągły. W przedziale a ≤ x ≤ b funkcję f (x) aproksymujemy funkcją g (x) = g (x; a0, a1, . . . , an) w taki sposób, że największy co do wartości bezwzględnej błąd

max

a≤x≤b|f (x) − g (x; a0, a1, . . . , an)| = φ (a0, a1, . . . , an)

przy odpowiednim wyborze parametrów aistaje się możliwie mały. Zapis g (x; a0, a1, ..., an) oznacza, że funkcja g jest zależna od parametrów ai dla i = 0, 1, . . . , n. Jeśli dla f (x) tak przybliżona funkcja istnieje, to maksymalna wartość odchylenia jest przyjmowana, ze zmieniającym się znakiem, w co najmniej n + 2 punktach xv rozważanego przedziału, tzw. alternantach. Jest to twierdzenie o alternantach.

Bardziej ściśle.

Twierdzenie 2. Wielomian p ∈ Pn jest najlepszą aproksymacją dla f ∈ C[a, b] wtedy i tylko wtedy, gdy istnieje n + 2 punktów a ≤ t1 < . . . < tn+2≤ b takich, że

f (ti) − p(ti) = (−1)iγ (101)

|γ| = kf − pk (102)

to znaczy wtedy i tylko wtedy gdy różnica f (x) − p(x) przybiera maksymalną wartość ze zmieniającym się znakiem w co najmniej n + 2 punktach.

(11)

Przykład. Aproksymacja funkcji f (x) = xn wielomianem stopnia ≤ n − 1. Aprok- symacja funkcji f (x) = x w przedziale [−1, 1] wielomianem g (x) = a0. Jeden parametr n = 0, a więc rozwiązanie g (x) = 0, 2 alternanty na brzegach przedziału. Maksymalny błąd wtedy wynosi 1. Błąd: wielomian Czebyszewa T1(x) = x.

Dla f (x) = x2 szukana funkcja g (x) = a1x + a0 lub g (x) = a0. Rozwiązanie:

g (x) = 0.5. 3 alternanty. Maksymalny błąd wynosi 0.5. Błąd wielomian Czebyszewa T2(x) = 2x2− 1 znormalizowany do 1.

1.5.1 Rozwiązywanie zagadnienia aproksymacji Czebyszewa Funkcja przybliżona

g (x) =

n

X

i=0

aigi(x)

n + 1 liniowo niezależnych funkcji gi, ai dla i = 0, 1, . . . , n - współczynniki rozwiązania zagadnienia Czebyszewa,

ρ = φ (a0, a1, . . . , an)

ρ - minimalizowane odchylenie. Gdy funkcje f i gi są różniczkowalne, to z twierdzenia o alternantach wynikają zależności:

n

X

i=0

aigi(xv) + (−1)vρ = f (xv)

n

X

i=0

aig0(xv) = f0(xv)

dla v = 1, 2, . . . , n + 2. Punkty xv są alternantami, przy czym

a ≤ x1 ≤ x2 ≤ . . . ≤ xn+2 ≤ b (103) Drugi warunek mówi o tym, że pochodne w alternantach są równe (oprócz końców).

Gdyby tak nie było, to istniałyby punkty, które mają większą różnicę ρ, co jest sprzeczne z założeniem, że jest to największa różnica.

Dwa powyższe równania stanowią 2n + 4 warunków na 2n + 4 niewiadomych: n + 1 współczynników postulowanego rozwiązania, n+2 alternant i minimalizowane odchylenie ρ. Jeżeli punkty brzegowe przedziału okazują się alternantami, warunki na pochodną nie muszą tam obowiązywać.

Przykład: Dla y = x2. Chcemy przybliżyć wielomianem pierwszego stopnia y = a1x + a0 przy założeniu, że punkty brzegowe są alternantami, a zatem x0 = −1, x2 = 1.

a1x0+ a0+ ρ = x20 (104)

a1x1+ a0− ρ = x21 (105)

a1x2+ a0+ ρ = x22 (106)

a1 = 2x1 (107)

(12)

− a1+ a0+ ρ = 1 (108)

a1x1+ a0− ρ = x21 (109)

a1+ a0+ ρ = 1 (110)

a1 = 2x1 (111)

4 równania z 4 niewiadomymi

ρ = 1 + a1− a0 (112)

a1x1+ a0− 1 − a1+ a0 = x21 (113) Podstawiając ρ do 3

2a1 = 0 (114)

a1 = 0 (115)

A więc z ostatniego

x1= 0 (116)

A więc mamy z drugiego i trzeciego

a0− ρ = 0 (117)

a0+ ρ = 1 (118)

2a0 = 1 (119)

a0 = 0.5 (120)

I z pierwszego

ρ = 1 + 0 − 0.5 = 0.5 (121)

1.6 Aproksymacja nieliniowa

Funkcje fk mogą być nieliniowe. Rozwiązanie przez linearyzację. Sprowadzamy do ciągu zadań wygładzania nieliniowego.

Jeśli prawie każda funkcja fk ma ciągłą pochodną i mamy macierz funkcyjną w punkcie x = ξ

Df (ξ) =

∂f1

∂x1 . . . ∂x∂f1

n

. . . . . . . . .

∂fm

∂x1 . . . ∂f∂xm

n

x=ξ

(122)

to ze wzoru Taylora (AppendixB)

f (¯x) = f (x) + Df (x) (¯x − x) + h (123) gdzie

khk = o (k¯x − xk) (124)

(13)

Jeśli x jest przybliżeniem rozwiązania optymalnego, to rozwiązanie optymalne ¯x za- dania

min

z∈Rnky − f (x) − Df (x) (z − x)k2 = kr (x) − Df (x) (¯x − x)k2 (125) gdzie r (x) := y − f (x) będzie na ogół lepszym rozwiązaniem zadania aproksymacji nieliniowej niż x to znaczy

ky − f (¯x)k2< ky − f (x)k2 (126) Bardziej ściśle zachodzi dla

s = s (x) := ¯x − x (127)

istnieje λ > 0, taka, że funkcja

φ (τ ) := ky − f (x + τ s)k2 (128)

dla każdego 0 ≤ τ ≤ λ jest monotonicznie ściśle malejąca. W szczególności

φ (λ) = ky − f (x + λs)k2< φ (0) = ky − f (x)k2 (129) Algorytm iteracyjny

1. Dla x(i) obliczamy rozwiązanie s(i) zadania aproksymacji liniowej min

s∈Rn

rx(i)− Dfx(i)s 2 (130) 2. Niech

φ (τ ) := y − fx(i)+ τ s(i) 2 (131) i k ≥ 0 niech będzie najmniejszą liczbą całkowitą taką, że

φ2−k< φ (0) = rx(i) 2 (132) Definiujemy

x(i+1) := x(i)+ 2−ks(i) (133)

Przykład. Dla podanych punktów (1, 0), (2, 1), (3, 1). Szukamy funkcji liniowej aproksymacyjnej. Wybieramy jakiś wektor początkowy np. x(0) = (1, 1). Rozwiązujemy zadanie aproksymacji liniowej

s∈Rminn

y − fx(0)− Dfx(0)s 2 (134) Znajdziemy s(1). Następnie szukamy k i wyliczamy x(1).

(14)

2 Zadania

2.1 Zadania na 3.0

• Dla funkcji y = f (x) określonej za pomocą punktów, znaleźć wielomian aproksy- mujący stopnia pierwszego za pomocą aproksymacji średniokwadratowej: dla grup 1 i 2 punkty to

(0, 2.9) , (1, 2.8) , (2, 2.7) , (3, 2.3) , (4, 2.1) , (5, 2.1) , (6, 1.7) (135) dla grup 3 i 4 punkty to

(2, 76) , (3, 82) , (587) , (7, 94) , (9, 103) (136) Narysować wykres funkcji aproksymującej wraz z punktami.

Wskazówki

• Do narysowania wykresu można wykorzystać wolframalpha.com (wtedy należy za- mieścić również linki do wolframalpha.com).

2.2 Zadania na 4.0

• Dokonać aproksymacji średniokwadratowej wielomianem stopnia trzeciego przy użyciu bazy wielomianów Legendre’a funkcji y = sin x określonej na przedziale h0; π/2i. Narysować wykres funkcji aproksymowanej i aproksymującej.

Wskazówki:

g3(x) = 1 2

5x3− 3x (137)

2.3 Zadania na 5.0

• Dokonać aproksymacji jednostajnej wielomianem pierwszego stopnia funkcji 2x2+1 za pomocą odpowiedniego układu równań. Narysować wykres funkcji aproksymo- wanej i aproksymującej.

• Udowodnić, że aproksymacja średniokwadratowa dla dowolnych punktów balan- suje punkty, to znaczy, że suma różnic między wartością poszukiwanej funkcji, a wartością w punktach jest równa 0.

(15)

A Wyprowadzenie

F =

b

Z

a

w (x) (f (x) − g (x))2dx (138)

F =

b

Z

a

w (x)f (x)2− 2f (x) g (x) + g (x)2dx (139)

F = Zb

a

w (x) f (x)2dx − 2 Zb

a

w (x) f (x) g (x) dx + Zb

a

w (x) g (x)2dx (140) Po podstawieniu (58)

F = Zb

a

w (x) f (x)2dx − 2 Zb

a

w (x) f (x)

n

X

i=0

aigi(x)dx + Zb

a

w (x)

n

X

i=0

aigi(x)

!2

dx (141)

∂F

∂ak = −2

b

Z

a

w (x) f (x) gk(x) dx +

b

Z

a

w (x) (akgk(x))2dx

0

(142)

+

2 Zb

a

w (x)

n

X

i=0i6=k

aiakgi(x) gk(x)dx

0

(143)

∂F

∂ak = −2

b

Z

a

w (x) f (x) gk(x) dx + 2

b

Z

a

w (x) akgk(x)2dx (144)

+ 2 Zb

a

w (x)

n

X

i=0i6=k

aigi(x) gk(x)dx (145)

∂F

∂ak = −2

b

Z

a

w (x) f (x) gk(x) dx + 2

b

Z

a

w (x)

n

X

i=0

aigi(x) gk(x)dx (146) Podstawiamy do (59)

− 2

b

Z

a

w (x) f (x) gk(x) dx + 2

b

Z

a

w (x)

n

X

i=0

aigi(x) gk(x)dx = 0 (147)

Zb

a

w (x)

n

X

i=0

aigi(x) gk(x)dx = Zb

a

w (x) f (x) gk(x) dx (148)

Cytaty

Powiązane dokumenty

• obliczyć punkt przecięcia wykresu funkcji z osią OY , czyli pod x wstawić 0, do wzoru danej funkcji Zobaczmy jak to wygląda na

Aby sporz dzi wykres funkcji liniowej nale y wyznaczy dwa punkty, które nale do jej wykresu a nast pnie poprowadzi przez nie prost.. Tworzymy tabelk i w jej górnym

Aby sporządzić wykres funkcji liniowej należy wyznaczyć dwa punkty, które należą do jej wykresu a następnie poprowadzić przez nie prostą.. Tworzymy tabelkę i w jej górnym

y=3x+3 3 funkcja liniowa jest rosnąca (bo współczynnik a jest większy od zera) y= 4x-11 funkcja liniowa jest ……… (bo współczynnik a jest ………od zera) y= -2x+5

y=2x+3 2 funkcja liniowa jest rosnąca (bo współczynnik a jest większy od zera) y= 7x-11 7 funkcja liniowa jest rosnąca (bo współczynnik a jest większy od zera) y= -9x+5

Proszę zapoznać się z materiałem z poniższego linka i na podstawie zamieszczonych tam przykładów zróbcie zadania:. na podstawie przykładu 1 proszę zrobić zad 8.68/213

a) D f = ( -, 4&gt; wykres nie jest ciągły, ale jak prześledzimy za koleją iksy od minus nieskończoności do coraz to bardziej w prawo, i w prawo …to dla każdego iksa jest

Jest to więc, w istocie, zadanie punktowej aproksymacji funkcji, z tym, że w tym przypadku poszukuje się nie tylko zbioru parametrów (współczynników) dla założonego modelu