• Nie Znaleziono Wyników

Wykład z algebry liniowej dla I roku matematyki - Część 2, G.Gromadzki, M.Stukow, B.Szepietowski, UG

N/A
N/A
Protected

Academic year: 2021

Share "Wykład z algebry liniowej dla I roku matematyki - Część 2, G.Gromadzki, M.Stukow, B.Szepietowski, UG"

Copied!
18
0
0

Pełen tekst

(1)

Niech V1, . . . , Vn będą przestrzeniami liniowymi nad ciałem K.

Przekształce-nie F : V1 × . . . × Vn → K nazywamy funkcjonałem n-liniowym lub formą

n-liniową gdy dla każdego i = 1, . . . , n oraz dla każdego układu wektorów v1, . . . , vi−1, vi+1, . . . , vn, gdzie vi ∈ Vi przekształcenie

F (v1, . . . , vi−1, −, vi+1, . . . , vn) : Vi → K

jest przekształceniem liniowym.

Przykład. V przestrzeń liniowa nad ciałem K, V = L(V, K) przestrzeń dualna. Wtedy

ϕ : V∗× V → K; ϕ(f, v) = f (v) jest 2-liniowe.

Niech V1 = . . . = Vn = V . Formę n-liniową F : V × . . . ×V → K nazywamyn

alternującą o ile F (v1, . . . , vn) = 0 gdy vi = vi+1 dla pewnego i ¬ n − 1.

Przykład. Niech V1 = . . . = Vn = Kn. Definiujemy F : Kn× . . . ×Kn n → K

następująco F (v1, . . . , vn) = det(A) gdzie A jest macierzą w której j-tą

ko-lumną są współrzędne wektora vj. Z warunków (1) i (2) definicji wyznacznika

wynika, że tak zdefiniowane przekształcenie jest formą alternującą n-liniową.

Wniosek 1.1 Wyznacznikiem stopnia n nazywamy dowolną formę

alternu-jącą n-liniową

F : Kn×. . . ×Kn n → K

spełniającą F (e1, . . . , en) = 1. 

Lemat 1.2 Niech F : Kn× . . . ×Kn n → K będzie formą alternującą

n-liniową, zaś σ ∈ Snpermutacją. Wtedy F (vσ(1), . . . , vσ(n)) = sgn(σ)F (v1, . . . , vn)

Dowód. Dla dowolnych v1, . . . , vn ∈ Kn mamy

0 = F (v1, . . . , vi−1, vi+ vi+1, vi+ vi+1, vi+2. . . , vn)

= F (v1, . . . , vi, vi, vi+2. . . , vn) + F (v1, . . . , vi−1, vi, vi+1, vi+2. . . , vn)+

F (v1, . . . , vi−1, vi+1, vi, vi+2. . . , vn) + F (v1, . . . , vi−1, vi+1, vi+1, . . . , vn)

(2)

Stąd F (v1, . . . , vi−1, vi+1, vi, vi+2. . . , vn) = −F (v1, . . . , vi−1, vi, vi+1, vi+2. . . , vn)

a zatem lemat jest prawdziwy dla dowolnej transpozycji elementów

sąsied-nich σ = (i, i + 1). 

Teza w ogólnym przypadku wynika z faktu, że dowolna permutacja σ jest złożeniem transpozycji elementów sąsiednich σ = σ1. . . σl. Stosując zatem

(1) l razy i wiedząc, że sgn(σ) = (−1)l otrzymujemy tezę lematu.

Twierdzenie 1.3 (o strukturze form alternujących wieloliniowych)

Dla dowolnej bazy v1, . . . , vn przestrzeni Kn i dowolnej formy alternującej

n-liniowej F : Kn× . . . ×Kn n → K mamy F (w

1, . . . , wn) = F (v1, . . . , vn) det A

gdzie A = (αij) jest macierzą taką, że wi =Pnj=1αjivj

Dowód. F (w1, . . . , wn) = F (Pnj=1αj1vj, . . . ,Pnj=1αjnvj) = Pn j1=1 Pn j2=1. . . Pn jn=1αj11αj22. . . αjnnF (vj1, . . . , vjn) = P σ∈Snασ(1)1ασ(2)2. . . ασ(n)nF (vσ(1), . . . , vσ(n)) = P σ∈Snsgn(σ)ασ(1)1ασ(2)2. . . ασ(n)nF (v1, . . . , vn) = F (v1, . . . , vn)Pσ∈Snsgn(σ)ασ(1)1ασ(2)2. . . ασ(n)n = F (v1, . . . , vn) det A. 

Wniosek 1.4 Dla dowolnej formy alternującej n-liniowej F : Kn×. . . ×Kn n

K istnieje λ ∈ K takie że F = λ det

Dowód. Wystarczy przyjąć λ = F (e1, . . . , en) 

Uwaga. Zbiór wszystkich funkcjonałów dwuliniowych V1× V2 → K z

dzia-łaniami ”po współrzędnych”

ξ1⊕ ξ2 : V1× V2 → K; (ξ1⊕ ξ2)(v1, v2) = ξ1(v1, v2) + ξ2(v1, v2)

α ξ : V1 × V2 → K; (α ξ)(v1, v2) = α · ξ(v1, v2)

tworzy przestrzeń liniową oznaczaną przez L(V1, V2; K).

Definicja 1.5 Niech V będzie przestrzenią liniową nad ciałem K.

Funkcjo-nał dwuliniowy ξ : V × V → K nazywamy uogólnionym iloczynem skalarnym o ile jest symetryczny, tzn.

(3)

Jeżeli ponadto K jest podciałem ciała liczb rzeczywistych R zaś ξ jest do-datnio określony tzn.

∀06=v∈V ξ(v, v) > 0

to ξ nazywamy iloczynem skalarnym.

Przykład 1. ξ : R3 × R3 → R zadane formułą ((x

1, x2, x3), (y1, y2, y3)) =

x1y1+ x2y2+ x3y3 jest iloczynem skalarnym.

Przykład 2. ξ : R3 × R3 → R zadane formułą ((x

1, x2, x3), (y1, y2, y3)) =

x1y1+ x2y2 jest tylko uogólnionym iloczynem skalarnym.

Definicja 1.6 Przestrzenią ortogonalną (euklidesową) nazywamy parę (V, ξ),

gdzie V jest przestrzenią liniową nad ciałem k (⊆ R), zaś ξ jest uogólnionym iloczynem skalarnym (iloczynem skalarnym).

Stwierdzenie 1.7 Podprzestrzeń W przestrzeni ortogonalnej (euklidesowej)

(V, ξ) jest przestrzenią ortogonalną (euklidesową) z iloczynem skalarnym ξ0 = ξ|W ×W

Dowolny funkcjonał dwuliniowy ξ : V1 × V2 → K indukuje dwa

przekształ-cenia liniowe

ξ1 : V1 → V2∗; ξ(v1)(v2) = ξ(v1, v2)

ξ2 : V2 → V1∗; ξ(v2)(v1) = ξ(v1, v2)

Lemat 1.8 Niech V będzie niezerową przestrzenią liniową skończonego

wy-miaru, zaś ξ : V × V → K funkcjonałem dwuliniowym. Wtedy następujące warunki są równoważne

(1) ξ1 : V → V∗ jest izomorfizmem

(2) ∀06=v∈V∃w∈V ξ(v, w) 6= 0

Dowód. (1) ⇒ (2) 0 6= v ∈ V . ξ1 : V → V∗ jest izomorfizmem więc ξ1(v) 6= 0

a zatem w szczególności istnieje w ∈ V takie, że 0 6= ξ1(v)(w) = ξ(v, w).

(2) ⇒ (1) dim V = dim V∗. Wystarczy pokazać, że rmKerξ1 = 0 (bo

dim V = dim Imξ1 = dim ker ξ1). Niech v ∈ ker ξ1. Wtedy ξ1(v) = 0 a zatem

dla dowolnego w ∈ V , 0 = ξ1(v)(w) = ξ(v, w). Zatem na mocy (2) v = 0. 

Definicja 1.9 Przestrzeń ortogonalną (V, ξ) nazywamy niezdegenerowaną o

(4)

Wniosek 1.10 Przestrzeń euklidesowa jest niezdegenerowana Definicja 1.11 (V, ξ) przestrzeń ortogonalna.

(1) Wektory v1, v2 ∈ V nazywamy prostopadłymi (co zapisujemy v1⊥v2) gdy

ξ(v1, v2) = 0.

(2) Podzbiory A1, A2 ⊆ V nazywamy prostopadłymi (co zapisujemy A1⊥A2)

gdy ξ(v1, v2) = 0 dla dowolnych vi ∈ Ai.

(3) Wektor v ∈ V nazywamy prostopadłym do podzbioru A ⊆ V (co zapisu-jemy v⊥A) gdy ξ(v, w) = 0 dla dowolnego w ∈ A.

(4) Dla podzbioru A ⊆ V definiujemy A⊥= {v ∈ V | v⊥A}.

Przykład 1. ξ : R2× R2 → R ξ((x 1, x2), (y1, y2)) = x1y1+ x2y2 (0, 1)⊥(1, 0), (1, 1)⊥(−1, 1)⊥(1, −1). Jeśli jednak ξ((x1, x2), (y1, y2)) = x1y1+ x1y2+ x2y1 to (0, 1) 6 ⊥(1, 0), (1, 1) 6 ⊥(−1, 1), ⊥(−1, 1)⊥(1, −1). Przykład 2. ξ : R3× R3 → R ξ((x 1, x2, x3), (y1, y2, y3)) = x1y1+ x2y2+ x3y3

Wtedy dla A = {(1.0.0)} mamy

A⊥= {(0, y, z) | y, z ∈ R} = lin({(0, 1, 0), (0, 0, 1)}) a dla B = {(1.0.0), (1, 1, 0)} mamy

B⊥= {(0, 0, z) | z ∈ R} = lin({0, 0, 1)}).

Stwierdzenie 1.12 Niech A będzie podzbiorem przestrzeni V oraz niech W

będzie podprzestrzenią rozpiętą na A. Wtedy A⊥= W⊥.

Dowód. Ponieważ A ⊆ W więc W ⊆ A⊥. Niech teraz v ∈ A i niech

w ∈ W będą dowolnymi elementami. Wtedy w = α1v1 + . . . + αnvn dla

pewnych v1, . . . vn∈ A oraz α1, . . . , αn∈ K. Wtedy jednak Wtedy ξ(v, w) =

ξ(v, α1v1+ . . . + αnvn) = α1ξ(v, v1) + . . . αnξ(v, vn) = 0. ] 

Stwierdzenie 1.13 Dla dowolnego podzbioru A przestrzeni V A jest pod-przestrzenią

Dowód. Niech w1, w2 ∈ A⊥, α1, α2 ∈ K. Wtedy dla dowolnego v ∈ A mamy

ξ(α1w1+ α2w2, v) = α1ξ(w1, v) + α2ξ(w2, v) = 0 a stąd α1w1+ α2w2 ∈ A⊥.

Twierdzenie 1.14 Dowolny układ niezerowych, parami prostopadłych

(5)

Dowód. v1, . . . , vn ∈ V , vi⊥vj dla i 6= j. Niech α1v1 + . . . + αnvn = 0.

Wtedy dla dowolnego i ¬ n, 0 = ξ(α1v1+ . . . + αnvn, vi) = α1ξ(v1, vi) + . . . +

αnξ(vn, vi) = αiξ(vi, vi). Ponieważ vi 6= 0 więc ξ(vi, vi) > 0 a stąd αi = 0 dla

i = 1, . . . , n. 

Definicja 1.15 Mówimy, że przestrzeń ortogonalna (V, ξ) jest sumą

ortogo-nalną podprzestrzeni V1 i V2 co oznaczmy V = V1 .

⊥ V2 o ile

(1) V = V1⊕ V2

(2) V1⊥V2.

O przestrzeni V1 mówimy wtedy, że jest dopełnieniem ortogonalnym

prze-strzeni V2 a o przestrzeni V2, że jest dopełnieniem ortogonalnym V1.

Twierdzenie 1.16 Niech (V, ξ) będzie przestrzenią ortogonalną skończonego

wymiaru, zaś W podprzestrzenią niezdegenerowaną. Wtedy istnieje dokładnie jedno dopełnienie ortogonalne W i jest nim W⊥.

Dowód. Pokażemy, najpierw, że V = W ⊥ W. ⊥. Jeśli w ∈ W ∩ W⊥ to ξ(w, w0) = 0 dla dowolnego w0 ∈ W a zatem w = 0 i tym samym pokazaliśmy, że W ∩ W⊥ = 0. Niech teraz v ∈ V będzie dowolnym wektorem. Wtedy ξ1(v) : V → K jest funkcjonałem liniowym i a zatem ξ1(v)|W : W → K jest

też elementem W∗. Z drugiej strony z tego, że że (W, ξ0), gdzie ξ0 = ξ|W ×W jest

przestrzenią niezdegenerowaną wynika, że ξ10 : W → W∗ jest izomorfizmem a zatem istnieje w ∈ W taki, że ξ10(w) = ξ1(v)|W. Pokażemy, że u = v − w ∈

W⊥. Istotnie dla dowolnego w0 ∈ W mamy ξ(u, w0) = ξ(v, w0) − ξ(w, w0) =

ξ1(v)(w0) − ξ10(w)(w

0) = 0 a zatem u ∈ W. Stąd v ∈ W + W i tym samym

V = W ⊕ W⊥. Z definicji W⊥, V = W ⊥ W. .

Jedyność. Niech V = W ⊥ W. 0. Pokażemy najpierw, że W0 ⊆ W⊥

. Niech w ∈ W0. Wtedy w⊥W a stąd w ∈ W⊥. Niech teraz w ∈ W⊥. Wtedy w = u1+ u2,

gdzie u1 ∈ W, u2 ∈ W0 ⊆ W⊥. Zatem u1 = w − u2 ∈ W⊥∩ W = 0 a stąd

w = u2 ∈ W0. 

Definicja 1.17 Powyższe twierdzenie pozwala zdefiniować homomorfizm π :

V → W taki ze π|W = idW, zwany rzutem ortogonalnym V na W

Definicja 1.18 Niech (V, ξ) będzie przestrzenią ortogonalną. Bazę v1, . . . , vn

przestrzeni V nazywamy prostopadłą lub ortogonalną o ile wektory v1, . . . , vn

są parami prostopadłe. Bazę tą nazywamy unormowaną (na wpół unormo-waną) o ile dodatkowo ξ(vi, vi) = +1 ( ξ(vi, vi) = ±1 ) dla dowolnego i ¬ n.

(6)

Twierdzenie 1.19 Każda przestrzeń euklidesowa posiada bazę prostopadłą. Dowód. Indukcja na n = dim V . Dla n = 1 twierdzenie jest oczywiste bo

dowolny niezerowy wektor tworzy bazę prostopadłą. Załóżmy, że twierdzenie jest prawdziwe dla przestrzeni wymiaru < n i niech n = dim V . Niech v ∈ V będzie dowolnym niezerowym wektorem i niech V1 = lin (v). Wtedy V1 jest

niezdegenerowana a zatem na podstawie twierdzenia 1.16 istnieje dopełnie-nie ortogonalne V2 przestrzeni V1. Mamy dim V2 = n − 1 a zatem na mocy

założenia indukcyjnego istnieje baza prostopadła v1, . . . , vn−1 przestrzeni V2.

Wtedy jednak v, v1, . . . , vn−1 jest bazą prostopadłą przestrzeni V . 

Twierdzenie 1.20 Każda przestrzeń ortogonalna nad ciałem

charakterysty-ki 6= 2 posiada bazę prostopadłą.

Dowód. Indukcja na n = dim V . Dla n = 1 twierdzenie jest oczywiste bo

dowolny niezerowy wektor tworzy bazę prostopadłą. Załóżmy, że twierdze-nie jest prawdziwe dla przestrzeni wymiaru < n i twierdze-niech n = dim V . Jeżeli ξ(v, v0) = 0 dla dowolnych v, v0 ∈ V to dowolna baza V jest bazą ortogonalną. Niech zatem ξ(v, v0) 6= 0. Pokażemy, że istnieje w ∈ V taki, że ξ(w, w) 6= 0. Istotnie gdy ξ(v, v) = ξ(v0, v0) = 0 to wtedy ξ(v + v0, v + v0) = 2ξ(v, v0) 6= 0. Niech V1 = lin(v1). Wtedy V = W1

.

⊥ W1 na mocy twierdzenia 1.16 i na

mocy założenia indukcyjnego istnieje baza ortogonalna v2, . . . , vn przestrzeni

W1⊥. Wtedy w, v2, . . . , vn jest szukaną bazą prostopadłą. 

Ortogonalizacja Schmidta

Twierdzenie 1.21 Niech v1, . . . , vnbędzie bazą przestrzeni ortogonalnej (V, ξ)

taką, że ξ(vi, vi) 6= 0 dla dowolnego i. Wtedy istnieje baza prostopadła u1, . . . , un

taka, że dla dowolnego k ¬ n, lin (v1, . . . , vk) = lin (u1, . . . , uk).

Dowód. Wybieramy u1 = v1 i niech dla pewnego s (1 < s < n), u1, . . . , us

będzie układem wektorów parami prostopadłych i takich, że lin (v1, . . . , vt) =

lin (u1, . . . , ut) = dla dowolnego t ¬ s. Szukamy us+1 w postaci

us+1 = vs+1+ α1u1+ . . . + αsus

Ponieważ us+1⊥ui więc 0 = ξ(us+1, ui) = ξ(vs+1, ui) + αiξ(ui, ui) a stąd

αi = ξ(vs+1, ui)/ξ(ui, ui) dla dowolnego i ¬ s. Dla αi tak dobranych us+1 6=

(7)

lin (v1, . . . , vs) wbrew założeniu, że v1, . . . , vn jest bazą przestrzeni V .

Po-nadto lin (u1, . . . , us+1) = lin (u1, . . . , us, vs+1) = lin (v1, . . . , vs+1) a zatem

twierdzenie jest prawdziwe na mocy indukcji. 

Uwaga. Wektor us+1 w powyższym dowodzie jest rzutem prostopadłym vs+1

na lin(v1, . . . , vs).

Wniosek 1.22 Niech v1, . . . , vn będzie bazą przestrzeni euklidesowej (V, ξ).

Wtedy istnieje baza prostopadła u1, . . . , un taka, że dla dowolnego k ¬ n,

lin (v1, . . . , vk) = lin (u1, . . . , uk).

Wniosek 1.23 Niech (V, ξ) będzie przestrzenią euklidesową wymiaru n, zaś

W podprzestrzenią wymiaru k. Wtedy istnieje baza prostopadła v1, . . . , vn

przestrzeni V taka, że v1, . . . , vk jest bazą W .

Dowód. Na mocy twierdzenia Steinitza istnieje baza w1, . . . , wn

przestrze-ni V taka, że w1, . . . , wk jest bazą W . Wystarczy teraz zastosować proces

Schmidta.  Przykład. Niech V = R3, ξ(x, y) =P xiyioraz W = lin (w1 = (1, −1, 0), w2 = (1, 0, 1), w3 = (0, 1, 0)). Mamy det    1 −1 0 1 0 1 0 1 0    = −1

a zatem w1, w2, w3 są liniowo niezależne czyli W = V . Niech u1 = w1.

Szu-kamy u2 w postaci u2 = w2 + αu1 = (1 + α, −α, 1). Mamy u2⊥u1 a zatem

1 + α = α = 0 Skąd α = −1/2. Zatem u2 = 1/2, 1/2, 1).

Szukamy teraz u3 w postaci u3 = w3 = βu1+ γu2 = (β + γ/2, 1 − β +

γ/2, γ). Ponieważ u3⊥u1 więc 0 = (β + γ/2) − (1 − β + γ/2) = 2β − 1 skąd

β = 1/2. W końcu u3⊥u2 skąd 0 = (β/2 + γ/4) + (1/2 − β/2 + γ/4 + γ) =

3/2γ + 1/2 a stąd γ = −1/3. Tym samym u3 = (1/3, 1/3, −1/3).

Twierdzenie 1.24 Niech (V, ξ) będzie przestrzenią ortogonalną nad ciałem

K. Wówczas

(∗) Jeżeli każdy element α ∈ K posiada pierwiastek kwadratowy to istnieje baza unormowana przestrzeni V

(∗∗) Jeżeli dla każdego α ∈ K istnieje pierwiastek kwadratowy z α lub −α to istnieje baza na wpół unormowana.

(8)

Dowód. Niech v1, . . . , vn będzie bazą ortogonalną przestrzeni V . Przyjmu-jemy (∗) wi =  1/qξ(vi, vi) 

vi. Wtedy w1, . . . , wn jest bazą unormowaną

(∗∗) wi =  1/qξ(vi, vi)  vilub wi =  1/q−ξ(vi, vi)  vi. Wtedy w1, . . . , wn

jest bazą na wpół unormowaną. 

Przykład. K = C posiada własność (∗), K = R posiada własność (∗∗),

K = Q nie posiada własności (∗), (∗∗)

Wniosek 1.25 Przestrzeń euklidesowa nad ciałem liczb rzeczywistych R

po-siada bazę ortonormalną.

Niech (V, ξ) będzie przestrzenią ortogonalną zaś B bazą przestrzeni V . Wtedy macierz (αij), gdzie αij = ξ(vi, vj), nazywamy macierzą funkcjonału

ξ w bazie B i oznaczamy AξB.

Lemat 1.26 Niech (V, ξ) będzie przestrzenią ortogonalną zaś B1 i B2 bazami

przestrzeni V . Niech ponadto M↑B2

B1 będzie macierzą przejścia od B1 do B2.

Wtedy AξB2 = M tAξ B1M Dowód. Oznaczmy AξB1 = A = (αij), A ξ B2 = B = (βij) oraz M = (γij). Wtedy βij = ξ(wi, wj) = ξ(Pn s=1γsivs,Pnt=1γt,jvt) = Pn s=1 Pn t=1γsiγt,jξ(vs, vt) = Pn s=1 Pn t=1γsiγt,jαst = Pn s=1γsiPnt=1αstγtj = Pn s=1(Mt)is(AM )sj = (Mt(AM )) ij. Zatem istotnie AξB2 = MtAξ B1M 

Wniosek 1.27 Rząd macierzy funkcjonału nie zależy od wyboru bazy i

na-zywamy go rzędem funkcjonału

Wniosek 1.28 Jeżeli A ∈ Matn×n(K) jest symetryczna to istnieje macierz

nieosobliwa B ∈ Matn×n(K) taka, że BtAB jest diagonalna. Jeżeli przy tym

K ma własność (∗) to B można wybrać tak aby na przekątnej stały +1 lub 0, jeżeli natomiast K ma własność (∗∗) to B można wybrać tak aby na prze-kątnej stały +1, −1 lub 0.

(9)

Mówimy, że macierze A, B ∈ Matn×n(K) są podobne o ile A = MtBM

dla pewnej macierzy nieosobliwej M ∈ Matn×n(K).

Definicja 1.29 Wektor v przestrzeni ortogonalnej (V, ξ) nazywamy

izotro-powym o ile ξ(v, v) = 0.

Wniosek 1.30 Niech V, ξ) będzie przestrzenią liniową ortogonalną. Liczby

izotropowych wektorów dwóch dowolnych baz prostopadłych są takie same i są rowne dimV⊥. W szczególności rząd ξ jest równy dim V − dimV⊥.

Dowód. Niech v1, . . . , vn będzie bazą ortogonalną przestrzeni V . Wtedy

P

αivi ∈ V⊥ wtedy i tylko wtedy gdy ξ(Pαivi, vj) = 0 dla j = 1, . . . , n

tj. gdy αjξ(vj, vj) = 0 dla j = 1, . . . , n. Zatem V⊥ jest rozpięta na

izotropo-wych wektorach bazy prostopadłej. 

Definicja 1.31 Izomorfizm ϕ : V1 → V2 przestrzeni ortogonalnych V1 i V2 z

iloczynami ξ1 i ξ2 odpowiednio nazywamy izomorfizmem ortogonalnym o ile

∀v,v0∈V

1ξ1(v, v

0

) = ξ2(ϕ(v), ϕ(v0))

Przykład. Niech (V, ξ) będzie przestrzenią ortogonalną i niech w ∈ V będzie

wektorem nieizotropowym. Definiujemy σw : V → V wzorem

σw(v) = v − 2

ξ(v, w) ξ(w, w)w.

Wtedy σw jest przekształceniem liniowym i σw ◦ σw = idV. Ponadto σw

jest przekształceniem ortogonalnym. Zachodzi ponadto σw(w) = −w oraz

σw(v) = v dla dowolnego wektora v prostopadłego do w. σw jest więc

odbi-ciem prostopadłym.

Twierdzenie 1.32 Niech (V, ξ) będzie przestrzenią ortogonalną

niezdegene-rowaną i niech B = {v1, . . . , vn} będzie jej bazą ortonormalną. Wtedy

izo-morfizm ϕ : V → V jest przekształceniem ortogonalnym wtedy i tylko wtedy gdy jego macierz A w bazie B jest macierzą ortogonalną tzn AAt = AtA = I.

Dowód. B0 = {ϕ(v1), . . . , ϕ(vn)} jest bazą V i M↑B

0

B = MB(ϕ) i mamy Wtedy

I = AξB = MtAξ

(10)

Twierdzenie 1.33 Typ izomorficzny przestrzeni ortogonalnej (V, ξ) nad

cia-łem K charakterystyki 6= 2 w którym każdy element posiada pierwiastek kwa-dratowy jest zdeterminowany przez wymiar V i rząd ξ. W szczególności ist-nieje dokładnie n + 1 typów przestrzeni ortogonalnych wymiaru n i dowolne dwie przestrzenie niezdegenerowane wymiaru n są tego samego typu.

Dowód. Niech (V1, ξ1) oraz (V2, ξ2) będą izomorficznymi przestrzeniami

or-togonalnymi oraz niech ϕ : V1 → V2 będzie ortogonalnym izomorfizmem.

Wtedy dla bazy B1 = {v1, . . . , vn} przestrzeni V1, B2 = {ϕ(v1), . . . , ϕ(vn)}

jest bazą przestrzeni V2, i funkcjonały ξ1 i ξ2 w tych bazach mają tę same

macierze. Jednak rząd macierzy funkcjonału nie zależy od wyboru bazy na mocy wniosku 1.27 a zatem ξ1 i ξ2 mają ten sam rząd.

Odwrotnie załóżmy, że dim V1 = dim V2 = n oraz ξ1 i ξ2 mają ten sam

rząd k. Niech B1 = {v1, . . . , vn} oraz B2 = {v10, . . . , v 0

n} będą bazami

ortonor-malnymi przy czym pierwsze k wektorów w obu bazach są nieizotropowe a pozostałe n−k izotropowe. Wtedy przyporządkowanie ϕ(vi) = vi0, i = 1, . . . , n

indukuje ortogonalny izomorfizm. 

Twierdzenie 1.34 (Kryterium Sylwestera) Niech (V, ξ) będzie

przestrze-nią ortogonalną wymiaru n nad ciałem liczb rzeczywistych R, B = {v1, . . . , vn}

jej bazą, zaś A = AξB macierzą tego funkcjonału w tej bazie. Wtedy (V, ξ) jest przestrzenią euklidesową wtedy i tylko wtedy gdy det(A(i)) > o dla

dowol-nego i = 1, . . . n, gdzie A(i) oznacza macierz powstałą z A przez skreślenie ostatnich n − i wierszy i kolumn.

Dowód. Indukcja na n. Dla n = 1 twierdzenie jest oczywiste. Załóżmy

że twierdzenie jest prawdziwe dla przestrzeni wymiaru < n. Niech V0 =

lin (v1, . . . , vn−1). Wtedy V0, ξ|V0×V0) jest przestrzenią ortogonalną, zaś zbiór

{v1, . . . , vn−1} jej bazą i macierzą ξ|V0×V0) w tej bazie jest A

(n−1). Na mocy

założenia indukcyjnego wiemy, że V0 jest euklidesowa ⇔ det((A(n−1))(i)) > 0

dla i = 1, . . . n − 1, przy czym (A(n−1))(i)= A(i).

⇒: Jeżeli (V, ξ) jest euklidesowa to V0, ξ|V0×V0) jest też euklidesowa. Wtedy

det((A(n−1))(i)) > 0 dla dowolnego i = 1, . . . n − 1. Ponadto istnieje

rzeczywi-sta macierz nieosobliwa B taka, że BtAB jest macierzą identycznościową I.

Wtedy jednak 1 = det(BtAB) = det(B)2det(A) a zatem także det(A(n)) > 0 gdyż A(n)= A.

⇐: Niech det(A(i)) > 0 dla dowolnego i = 1, . . . n. Wtedy w szczególności

det(A(i)) > 0 dla dowolnego i = 1, . . . n − 1 a stąd na mocy założenia

(11)

Wobec tego na mocy Twierdzenia 1.16 V = V0 .

⊥ V0⊥. Pokażemy, że (V 0 , ξ|)

jest euklidesowa. Dla dowolnego 0 6= v ∈ V0⊥, v 6∈ V0. Zatem {v1, . . . , vn−1, v}

jest bazą przestrzeni V . Z postaci macierzy A0 funkcjonału ξ w tej bazie wy-nika, że det(A0) = det(A0(n−1))ξ(v, v) = det(A(n−1))ξ(v, v) Z drugiej strony,

A0 = BtAB dla pewnego B. Zatem det(A0) = det(B)2det(A) > 0 a stąd

ξ(v, v) > 0 i tym samym V⊥ jest euklidesowa. W końcu dla v ∈ V mamy 0 6= v = v0+ v1 dla pewnego v0 ∈ V0 oraz v1 ∈ V0⊥. Wtedy v0 6= 0 lub v1 6= 0

a stąd ξ(v, v) = ξ(v0, v0) + ξ(v1, v1) > 0 i tym samym V jest euklidesowa. 

Długość wektora w przestrzeniach euklidesowych

Niech V będzie n-wymiarową przestrzenią euklidesową nad R z iloczynem skalarnym ξ. Dla v ∈ V , ξ(v, v) ­ 0 i można zdefiniować kvk = qξ(v, v). Oznaczmy ξ(v, w) = hv, wi. Skalar kvk tak zdefiniowany nazywamy długością lub normą wektora v. Mamy zatem funkcją

k k : V → R

którą nazywamy normą euklidesową przestrzeni V .

Stwierdzenie 1.35 (Własności normy) Niech v, w ∈ V oraz α ∈ R.

Wtedy

(1) kvk ­ 0 oraz kvk = 0 ⇔ v = 0 (2) kαvk = |α|kvk

(3) (nierówność Schwartza) |hv, wi| ¬ kvkkwk, przy czym dla v, w liniowo niezależnych zachodzi nierówność ostra.

(4) kv + wk ¬ kvk + kwk

(5) (tw. Pitagorasa) Jeśli v⊥w to kv + wk2 = kvk2+ kwk2

(6) (uogólnione tw. Pitagorasa) Jeśli v1, . . . , vn są parami ortogonalne to

kP

vik2 =Pkvik2

Dowód. (1) oczywiste. (2) Ponieważ lewa i prawa strona są nieujemne więc

wystarczy pokazać równość ich kwadratów. Mamy kαvk2 = ξ(αv, αv) =

α2ξ(v, v) = (|α|kvk)2.

(3) Jeżeli v i w są liniowo zależne to w = αv. Zatem hv, wi = αhv, vi a zatem |hv, wi|2 = α2hv, vi2 = α2hv, vihv, vi = hαv, αvihv, vi = kvkkwk a stąd

(12)

przestrzeni W = lin (v, w) przy czym (W, ξ|) jest przestrzenią euklidesową.

Zatem na mocy kryterium Sylwestera

0 < det ξ(v, v) ξ(v, w) ξ(w, v) ξ(w, w)

!

= ξ(v, v)ξ(w, w) − ξ(w, v)2

a zatem kvk2kwk2 > ξ(v, w)2. Stąd |ξ(v, w)| < kvkkwk.

Istnieje również dowód bardziej bezpośredni tej nierówności. Mamy dla dowolnego t ∈ R, 0 ¬ ξ(v + tw, v + tw) = t2ξ(w, w) + 2tξ(v, w) + ξ(v, v) co

oznacza, że wyznacznik tego wielomianu jest nie większy od zera co daje z kolei nierówność Schwarza.

(4) kv + wk2 = hv + w, v + wi = hv, vi + hw, wi + 2hv, wi = kvk2+ kwk2+

2hv, wi ¬ kvk2+kwk2+2kvkkwk = (kvk+kwk)2 a stąd kv+wk ¬ kvk)+kwk. (5) Wynika z dowodu (4) gdyż dla v⊥w, ξ(v, w) = 0, zaś (6) wynika

induk-cyjnie z (5). 

Kąty w przestrzeniach euklidesowych

Automorfizmem przestrzeni liniowej V nazywamy dowolny izomorfizm ϕ : V → V . Zbiór wszystkich automorfizmów z działaniem superpozycji tworzy grupę oznaczaną przez Aut(V ).

Automorfizmem przestrzeni euklidesowej (V, ξ) nazywamy dowolny automor-fizm ϕ ∈ Aut(V ) zachowujący iloczyn skalarny ξ tzn.

∀v,w∈Vξ(ϕ(v), ϕ(w)) = ξ(v, w).

Zbiór wszystkich automorfizmów przestrzeni euklidesowej (V, ξ) tworzy grupę oznaczaną przez Aut(V, ξ).

Niech X będzie zbiorem wszystkich podzbiorów dwuelementowych {v, w}, przy czym v 6= 0, w 6= 0. Na zbiorze tym wprowadzamy relację

{v, w} ∼ {v0, w0} ⇔ ∃ϕ∈Aut(V,ξ)∃α,β∈Rα, β > 0 and ϕ(v) = αv0, ϕ(w) = βw0

Relacja ta jest zwrotna symetryczna i przechodnia a zatem jest relacją równo-ważności. Jej klasy abstrakcji nazywamy kątami niezorientowanymi w prze-strzeni (V, ξ). Klasę abstrakcji do której należy zbiór {v, w} oznaczać będzie-my ∠{v, w} i nazywać kątem niezorientowanym między v i w.

(13)

Przykład. V = R2, ξ((x

1, x2), (y1, y2)) = x1y1+ x2y2. Niech

v1 = (1, 0), v2 = (1, 1), v3 = (1, 0)

w1 = (0, 2), w2 = (−1, 1), w3 = (1, 1)

Pokażemy, że ∠{v1, w1} ={v2, w2} oraz{v1, w1} 6={v3, w3} co pokrywa

się z intuicją.

Niech ϕ(x1, x2) =

2/2(x1 − x2, x1 + x2). Wtedy ϕ zachowuje iloczyn

skalarny a ponadto ϕ(v1) = 2/2v2 i ϕ(w1) = 2w2 a zatem istotnie ∠{v1, w1} ={v2, w2}

Przypuśćmy teraz, że∠{v1, w1} ={v3, w3}. Wtedy istnieje ϕ ∈ Aut(V, ξ)

taki, że ϕ(v1) = αv3 i ϕ(w1) = βw3 dla pewnych liczb rzeczywistych

dodat-nich α i β. Niech

a11 a12

a21 a22

!

będzie macierzą ϕ w bazach standardowych. Wtedy (α, 0) = αv3 = ϕ(v1) =

ϕ(e1) = a11e1+ a21e2 = (a11, a21) a zatem a21 = 0 i a11= α > 0. Analogicznie

(β, β) = βw3 = ϕ(w1) = ϕ(2e2) = 2(a12e1 + a22e2) = 2(a12, a22) a zatem

a12 = a22= β/2 > 0. Stąd

A = α β/2

0 β/2

!

a zatem ϕ(x, y) = (αx + βy, βy) dla pewnych α, β > 0.

Wtedy 1 = ξ(e1, e1) = ξ(ϕ(e1), ϕ(e1)) = ξ(αe1, αe1) = α2ξ(e1, e1) = α2, a

zatem α = 1. Ponadto 1 = ξ(e2, e2) = ξ(ϕ(e2), ϕ(e2)) = ξ((β/2, β/2), (β/2, β/2)) =

β2/2 skąd β =2 Zatem ϕ(x, y) = (x +2/2y,2/2y). Wtedy jednak 2 =

ξ((1, 1), (1, 1)) = ξ(ϕ(1, 1), ϕ(1, 1)) = ξ((1+√2/2,√2/2), (1+√2/2,√2/2)) = (1 +√2/2)2 + (√2/2)2 = 2 +2, sprzeczność. Zatem istotnie ∠{v1, w1} 6=

{v3, w3}.

Miara kąta niezorientowanego

Niech (V, ξ) będzie przestrzenią euklidesową, 0 6= v, w ∈ V . Z nierówności Schwartza mamy

|ξ(v, w)| ¬ kvk · kwk. Zatem

(14)

a stąd istnieje dokładnie jedna liczba rzeczywista 0 ¬ α ¬ π taka, że cos α = ξ(v, w)/kvk · kwk

Liczbę tę oznaczać będziemy przez arc{v, w} i nazywać miarą łukową kąta

{v, w}

Twierdzenie 1.36 Niech v, w, v0, w0 ∈ V będą dowolnymi wektorami. Wtedy

{v, w} ={v0, w0} wtedy i tylko wtedy gdy arc{v, w} = arc{v0, w0}

Dowód. ⇒: Istnieje ϕ ∈ Aut(V, ξ) oraz a > 0, b > 0 takie, że ϕ(v) =

av0, ϕ(w) = bw0. Wtedy ξ(v, w) = ξ(ϕ(v), ϕ(w)) = ξ(av0, bw0) = abξ(v0, w0). Analogicznie ξ(v, v) = a2ξ(v0, v0), ξ(w, w) = b2ξ(w0, w0). Zatem kvk = akv0k, kwk =

bkw0k a stąd ξ(v, w)/kvkkwk = abξ(v0, w0)/akv0kbkw0k = ξ(v0, w0)/kv0kkw0k

⇐: Pokażemy najpierw, że v, w są liniowo zależne wtedy i tylko wtedy gdy cos(arc{v, w}) = ±1

⇒: Mamy w = αv lub v = αw. W pierwszym przypadku ξ(v, w)/kvkkwk = αξ(v, v)/kvkαkvk = ±1 i analogicznie w drugim przypadku.

⇐: Wynika z dowodu nierówności Schwarza gdyż pokazaliśmy tam, że jeżeli v, w są liniowo niezależne to |ξ(v, w)| < kvkkwk.

Z powyższej równoważności widzimy zatem, że v, w są liniowo zależne wtedy i tylko wtedy gdy v0, w0 są liniowo zależne. Niech V0 = lin (v, w), W0 =

lin (v0, w0). Wtedy dim V0 = dim W0. Niech V = V0 .

⊥ V0⊥, V = W0 .

⊥ W0.

Wtedy dim V0⊥= dim W0⊥. Niech v1, . . . vkoraz w1, . . . , wkbędą bazami

unor-mowanymi V0 i W0 odpowiednio. Definiujemy ϕ(vi) = wi dla i = 1, . . . k.

Jeżeli v i w są liniowo niezależne to przyjmujemy ϕ(v) = (kvk/kv0k)v0, ϕ(w) =

(kwk/kw0k)w0. Wtedy ξ(v

i, v) = 0 = ξ(wi, v0), ξ(vi, w) = 0 = ξ(wi, w0) oraz

ξ(ϕ(v), ϕ(w)) = (kvkkwk/kv0kkw0kξ(v0, w0) = kvkkwk/kvkkwk)ξ(v, w) =

ξ(v, w). Zatem ϕ rozszerza się do automorfizmu przestrzeni V takiego, że ϕ(v) = αv0, ϕ(w) = βw0 dla α, β > 0. Wobec tego{v, w} ={v0, w0}

Jeżeli natomiast v i w są liniowo zależne to w = αv. Wtedy w0 = βv0 a stąd

ξ(v, w)/(kvkkwk) = αξ(v, v)/|α|kvk2 = α/|α| oraz

ξ(v0, w0)/kv0kkw0k = βξ(v0, v0)/|β|kv0k2 = β/|β|

Zatem α i β mają ten sam znak. Wtedy jednak (β/α) > 0 i dla ϕ(v) = (β/α)v0 mamy ϕ(w) = ϕ(αv) = αϕ(v) = βv0 = w0. Zatem ∠{v, w} =

(15)

Orientacja przestrzeni liniowej nad ciałem R

Niech V będzie przestrzenią liniową nad ciałem R wymiaru n i niech (v1, . . . , vn oraz (w1, . . . , wn będą dwiema bazami uporządkowanymi V .

Mó-wimy, że bazy te są zorientowane zgodnie o ile wyznacznik macierzy przejścia od jednej bazy do drugiej jest dodatni. Relacja ta jest relacją równoważno-ści na zbiorze wszystkich uporządkowanych baz. Dowolna klasa abstrakcji tej relacji nazywa się orientacją przestrzeni V . Przestrzenią zorientowaną nazywamy przestrzeń z ustaloną orientacją.

Przykład. V = R2 B

1 = {v1 = (1, 0), v2 = (0, 1)}, B2 = {w1 = (1, 0), w2 =

(1, −1)}, B3 = {u1 = (1, 1), w2 = (−1, 1)}. Wtedy B1 i B2 są zorientowane

przeciwnie, zaś B1 i B3 są zorientowane zgodnie.

Niech (V = R2, ξ) będzie przestrzenią euklidesową, zaś Z zbiorem wszystkich

uporządkowanych par (v, w) złożonych z niezerowych wektorów przestrzeni V . Definiujemy relację na Z

Jeżeli w = αv to (v, w) ∼ (v0, w0) ⇔ w0 = βv0, gdzie α i β mają ten sam znak. Jeżeli natomiast v, w są liniowo niezależne to (v, w) ∼ (v0, w0) ⇔

{v, w} ={v0, w0} oraz (v, w) i (v0, w0) są zorientowane zgodnie.

Jest to relacja równoważności a jej klasy abstrakcji nazywamy kątami zorientowanymi i oznaczamy(v, w)

Wyznacznik Gramma

Niech (V, ξ) będzie przestrzenią euklidesową, zaś (v1, . . . , vk) ciągiem

wek-torów z V . Liczbę rzeczywistą det(ξ(vi, vj)) nazywamy wyznacznikiem

Gram-ma ciągu (v1, . . . , vk) i oznaczać będziemy przez W (v1, . . . , vk)

Twierdzenie 1.37 Niech (v1, . . . , vn) będzie ciągiem wektorów przestrzeni

euklidesowej (V, ξ). Wtedy

(a) W (v1, . . . , vn) = W (vσ(1), . . . , vσ(n)) dla dowolnej permutacji σ

(b) W (v1, . . . , vk) = W (e1v1, . . . , ekvk) dla dowolnych ei = ±1.

Dowód. (a) Macierz (ξ(vσ(i), vσ(j)) powstaje z macierzy ξ(vi, vj) przez

za-mianę wierszy a następnie kolumn przy pomocy permutacji σ a zatem jej wyznacznik nie zmienia się.

(b) Niech najpierw ej = −1 oraz niech dla pozostałych i, ei = +1. Mamy

(16)

przez −1 a inne wiersze i kolumny są nie zmienione. Wtedy jednak wyznacz-nik macierzy nowej jest przemnożeniem wyznaczwyznacz-nika macierzy starej przez −1 dwa razy wiec w konsekwencji wyznacznik macierzy nie zmienia się. Za-łóżmy teraz że twierdzenie jest prawdziwe dla k wartości ei równych −1 i

niech ei1 = . . . = eik+1 = −1 oraz ei = +1 dla pozostałych wartości i. Niech

fi = ei dla i ∈ {i1, . . . , ik} oraz fi = +1 dla pozostałych i. Niech ponadto

gik+1 = −1 i niech gi = +1 dla pozostałych i. Wtedy

W (e1v1, . . . , envn) = W (g1f1v1, . . . , gnfnvn)

= W (f1v1, . . . , fnvn)

= W (v1, . . . , vn).



Twierdzenie 1.38 Niech (v1, . . . , vk+1) będzie ciągiem wektorów

przestrze-ni euklidesowej (V, ξ) i przestrze-niech h będzie normą rzutu prostopadłego vk+1 na

lin(v1, . . . , vk)⊥. Wtedy

W (v1, . . . , vk+1) = h2W (v1, . . . , vk)

Dowód. Niech v0k+1 będzie rzutem vk+1 na lin(v1, . . . , vk)⊥. Wówczas v0k+1=

vk+1− vk+100 , gdzie vk+100 ∈ lin(v1, . . . , vk). Niech vk+100 =

P αivi. Wtedy W (v1, . . . , vk+1) = W (v1, . . . , vk+10 + v 00 k+1) = det          ξ(v1, v1) . . . ξ(v1, vk) ξ(v1, vk+100 ) ξ(v2, v1) . . . ξ(v2, vk) ξ(v2, vk+100 ) .. . ξ(vk, v1) . . . ξ(vk, vk) ξ(vk, v00k+1) ξ(vk+100 , v1) . . . ξ(v00k+1, vk) ξ(vk+10 , v 0 k+1) + ξ(v 00 k+1, v 00 k+1)          = det          ξ(v1, v1) . . . ξ(v1, vk) Pαiξ(v1, vi) ξ(v2, v1) . . . ξ(v2, vk) Pαiξ(v2, vi) .. . ξ(vk, v1) . . . ξ(vk, vk) Pαiξ(vk, vi) ξ(vk+100 , v1) . . . ξ(vk+100 , vk) Pαiξ(vk+100 , vi)          + + det          ξ(v1, v1) . . . ξ(v1, vk) 0 ξ(v2, v1) . . . ξ(v2, vk) 0 .. . ξ(vk, v1) . . . ξ(vk, vk) 0 ξ(vk+100 , v1) . . . ξ(v00k+1, vk) ξ(vk+10 , v 0 k+1)          .

(17)

Pierwszy składnik jest równy zero bo ostatnia kolumna jest kombinacją li-niową pozostałych kolumn, zaś drugi jest równy ξ(vk+10 , vk+10 )W (v1, . . . , vn) =

h2W (v1, . . . , vn).

Uwaga. Powyższe twierdzenie oraz indukcja na n pozwala interpretować

wartość W (v1, . . . , vn) jako objętość równoległoboku zbudowanego na

wek-torach v1, . . . , vn.

Wniosek 1.39 W (v1, . . . , vn) ­ 0 oraz W (v1, . . . , vn) = 0 wtedy i tylko

wte-dy gwte-dy v1, . . . , vn są liniowo zależne.

Wniosek 1.40 Niech v1, . . .)vn będzie bazą przestrzeni euklidesowej (V, ξ)

oraz niech w1, . . . , wn będzie bazą prostopadłą otrzymaną metodą Schmidta.

Wtedy W (v1, . . . , vn) = W (w1, . . . , wn) = ξ(w1, w1) . . . ξ(wn, wn).

Indukcja na n. Dla n = 1 twierdzenie jest oczywiste bo wtedy w1 = v1.

Wiemy teraz, że wn jest rzutem prostopadłym na lin(v1, . . . , vn−1) więc

W (v1, . . . , vn) = W (v1, . . . , vn−1)ξ(wn, wn)

= W (w1, . . . , wn−1)ξ(wn, wn)

= ξ(w1, w1) . . . ξ(wn, wn)



Iloczyny wektorowe

Definicja 1.41 m-iloczynem wektorowym w przestrzeni euklidesowej V nad

ciałem K. nazywamy dowolne przekształcenie m-liniowe ψ : V ×. . . ×V → Vm

spełniające warunki

(1) ψ(v1, . . . , vm) = 0 ⇔ v1, . . . , vm są liniowo zależne.

(2) dla dowolnych v1, . . . , vm ∈ V , ψ(v1, . . . , vm) ∈ lin (v1, . . . , vm)

Twierdzenie 1.42 Niech (V, ξ) będzie przestrzenią euklidesową wymiaru n.

Wtedy istnieje n − 1-iloczyn skalarny na V .

Dowód. Ustalamy orientację V i definiujemy ψ : V ×n−1. . . ×V → V

następu-jąco

(18)

• jeżeli v1, . . . , vn−1są liniowo niezależne to ψ(v1, . . . , vn−1) jest wektorem

zdeterminowanym przez warunki

– ψ(v1, . . . , vn−1)⊥lin (v1, . . . , vn−1)

– kψ(v1, . . . , vn−1)k2 = W (v1, . . . , vn−1)

– v1, . . . , vn−1, ψ(v1, . . . , vn−1) jest bazą zorientowaną dodatnio.

Spełnienie warunków (1) i (2) jest oczywiste. Dowód tego, że ψ jest n − 1 liniowe jest trudniejszy i pomijamy go.

Przykład. Dla n = 3 ψ(v1, v2) ozn

= v1× v2 jest wyznaczony przez warunki:

(a) v1× v2 ⊥ vi, i = 1, 2,

(b) kv1× v2k jest polem równoległoboku zbudowanego na wektorach v1, v2

(c) v1, v2, v1× v2 są zorientowane dodatnio.

Dowodu wymaga jedynie (b). Mamy kv1× v2k2 = W (v1, v2). Z kolei

W (v1, v2) = ξ(v1, v1)ξ(v2, v2) − ξ(v1, v2)ξ(v2, v1)

= kv1k2kv2k2− (ξ(v1, v2))2

= kv1k2kv2k2(1 − cos2(arc{v1, v2}))

= kv1k2kv2k2sin2(arc{v1, v2})

= (pole równoległoboku (v1, v2))2

Twierdzenie 1.43 Niech R3 będzie przestrzenią euklidesową ze zwykłym

ilo-czynem skalarnym i orientacją wyznaczoną przez bazę standardową S. Niech v1 = (x1, x2, x3), v2 = (y1, y2, y3). Wtedy v1× v2 = x2 x3 y2 y3 , − x1 x3 y1 y3 , x1 x2 y1 y2 !

Cytaty

Powiązane dokumenty

Uwaga: ka˙zdy podpunkt ma warto´s´c 10 punkt´ow, niezale˙znie od stopnia

[r]

Mając to pojęcie możemy wypowiedzieć następujące twierdzenie, które pozwala nam wyznaczać macierz odwrotną przy pomocy operacji elementarnych:..

Ponieważ wartości własne macierzy są (parami) różne, zatem macierz A jest diagonalizowalna..

(10) Ostatnie twierdzenie dostarcza praktycznej metody wyznaczania macierzy odwrotnych.. Sprawdzamy, że wynik ten zgadza się z

Pojęcie wyznacznika macierzy (lub przekształcenia liniowego reprezentowanego przez macierz) definiuje się tylko dla macierzy

Na wierszach otrzymanej w ten spos´ ob macierzy blokowej [A|I n ] wykonujemy operacje elementarne a˙z do uzyskania ma- cierzy blokowej postaci [I

Wyznaczanie macierzy odwrotnej.