Noter til Lineær Algebra · 1.6 Skift af basis Den naturlige basis for R2 er de to...

25
Noter til Lineær Algebra – Eksamensnoter til LinAlg Martin Sparre, www.logx.dk, August 2007, Version π 8 9450 .

Transcript of Noter til Lineær Algebra · 1.6 Skift af basis Den naturlige basis for R2 er de to...

Noter til Lineær Algebra

– Eksamensnoter til LinAlg

Martin Sparre, www.logx.dk,

August 2007,

Version π8

9450.

INDHOLD 2

Indhold

0.1 Om disse noter . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1 Abstrakte vektorrum 4

1.1 Definition af et vektorrum . . . . . . . . . . . . . . . . . . . . 4

1.2 Underrum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3 En matrices nulrum . . . . . . . . . . . . . . . . . . . . . . . 5

1.4 Lineær uafhængighed . . . . . . . . . . . . . . . . . . . . . . . 6

1.5 Basis og dimension . . . . . . . . . . . . . . . . . . . . . . . . 7

1.6 Skift af basis . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.7 Rækkerum og søjlerum . . . . . . . . . . . . . . . . . . . . . . 9

2 Lineære afbildninger 11

2.1 Definition af en lineær afbildning . . . . . . . . . . . . . . . . 11

2.2 Matrixrepræsentation af lineære afbildninger . . . . . . . . . 12

2.3 Similære matricer . . . . . . . . . . . . . . . . . . . . . . . . . 14

3 Egenværdier 15

3.1 Egenværdier og egenvektorer . . . . . . . . . . . . . . . . . . 15

3.2 Diagonalisering . . . . . . . . . . . . . . . . . . . . . . . . . . 16

4 Ortogonalisering 17

4.1 Skalarproduktet i Rn . . . . . . . . . . . . . . . . . . . . . . . 17

4.2 Indre produkt rum . . . . . . . . . . . . . . . . . . . . . . . . 17

4.3 Ortonormale systemer . . . . . . . . . . . . . . . . . . . . . . 19

4.4 Ortogonale matricer . . . . . . . . . . . . . . . . . . . . . . . 20

4.5 Gram-Schmidt ortogonalisering . . . . . . . . . . . . . . . . . 21

5 Fourieranalyse 23

5.1 Ortonormal basis . . . . . . . . . . . . . . . . . . . . . . . . . 23

5.2 Fourierrækker . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

5.3 Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . 25

INDHOLD 3

0.1 Om disse noter

Disse noter indeholder en stor del af eksamensensum til LinAlg-kurset pa

Københavns Universitet (2006). Dog er emnerne lineære ligningssystemer,

Gauss-Elimination/Gauss-Jordan Elimination, matrixalgebra og determi-

nanter ikke medtaget.

Versionsnummeret er givet ved

∞∑

k=1

1

k2p, hvor p stiger med 1, nar der

udkommer en ny version.

Martin Sparre

www.logx.dk

1 ABSTRAKTE VEKTORRUM 4

1 Abstrakte vektorrum

1.1 Definition af et vektorrum

Lad mængden V være et vektorrum og lad x,y ∈ V . Da gælder

αx ∈ V, α ∈ R og x + y ∈ V.

For x,y, z ∈ V og α, β ∈ R opstilles følgende aksiomer:

(x + y) + z = x + (y + z)

y + 0 = y (0 kaldes 0-elementet)

x + (−x) = 0

x + y = y + x

α(x + y) = αx + αy

(α + β)x = αx + βx

(αβ)x = α(βx)

1x = x.

Elementerne i et vektorrum kaldes for vektorer.

Her følger nogle eksempler pa vektorrum og elementer i disse:

Eksempel 1 (Vektorrummet Rn) Talrummene R

n er vektorrum. Her er

et eksempel pa vektorer i henholdsvis R3 og R

5:

x =

4

7

42

, y =

−12

5

1

9

1

. ⊳

Eksempel 2 (Vektorrummet Rm×n) Mængden af alle m × n matricer

er et vektorrum og betegnes Rm×n. Her er et eksempel pa en vektor i R

3×2:

A =

42 13

2 4

−1 9801

. ⊳

1 ABSTRAKTE VEKTORRUM 5

Eksempel 3 (Vektorrummet Pn) Med Pn betegnes mængden af poly-

nomier af grad strengt mindre end n. Der gælder, at Pn er et vektorrum.

Her ses eksempler pa en vektor i P3:

p(x) = 2x2 − 4x − 12. ⊳

Eksempel 4 (Vektorrummet C[a, b]) Det kan vises, at mængden, som

bestar af alle kontinuerte funktioner defineret pa et interval [a; b], udgør et

vektorrum. Dette vektorrum betegnes C[a, b]. Et eksempel pa en vektor i

C[−1, 1]:

f(x) = tan(x). ⊳

Eksempel 5 (Vektorrummet Cn[a, b] ) Mængden af alle n gange konti-

nuert differentiable funktioner pa et interval [a; b] udgør et vektorrum, kaldet

Cn[a, b]. ⊳

1.2 Underrum

Lad V være et vektorrum og lad S ⊆ V . Hvis S er en ikke-tom delmængde

af V , sa kaldes S et underrum af V , hvis følgende gælder:

αx ∈ S, for alle x ∈ S og alle α ∈ R, (i)

x + y ∈ S for alle x,y ∈ S. (ii)

Betingelses (i) siger, at S er lukket under skalarmultiplikation og (ii) siger,

at S er lukket under addition af elementer i S.

I ethvert vektorrum V gælder der, at V og {0} er underrum. Disse to

vektorrum kaldes trivielle underrum.

Der gælder generelt, at alle underrum i sig selv er vektorrum.

1.3 En matrices nulrum

Lad A være en m× n matrix. Sa betegner N(A) mængden af alle løsninger

til ligningen Ax = 0. Der gælder, at

N(A) = {x ∈ Rn|Ax = 0} .

1 ABSTRAKTE VEKTORRUM 6

Til at finde nulrummet for en matrix udføres Gauss elimination eller Gauss-

Jordan elimination og herudfra bestemmes løsningsrummet N(A) til lignig-

nen Ax = 0.

Eksempel 6 (Bestemmelse af nulrum) Lad

A =

(

1 1 1 0

2 1 0 1

)

.

Efter Gauss-Jordan elimination fas:(

1 0 −1 1

0 1 2 −1

)

.

Ligningssystemet tilsvarende denne matrix er:

x1 = x3 − x4

x2 = −2x3 + x4.

Ved at sætte x3 = α og x4 = β fas, at

N(A) = span

1

−2

1

0

,

−1

1

0

1

,

hvor span angiver mængden, som udspændes af de to vektorer. ⊳

1.4 Lineær uafhængighed

Definition 1 (Lineær uafhængighed) Vektorerne v1,v2, . . . ,vn ∈ V er

lineært uafhængige hvis udsagnet,

α1v1 + α2v2 + . . . + αnvn = 0,

kun er sandt, nar α1, α2, . . . , αn er 0. ⊳

Definition 2 (Lineær afhængighed) Vektorerne v1,v2, . . . ,vn ∈ V er

lineært afhængige, hvis udsagnet er sandt,

α1v1 + α2v2 + . . . + αnvn = 0,

selvom ikke alle α1, α2, . . . , αn er 0. ⊳

1 ABSTRAKTE VEKTORRUM 7

For at afgøre om n vektorer, x1,x2, . . . ,xn i Rn er lineært afhængige kan

man opskrive matricen,

X = (x1,x2, . . . ,xn) .

Vektorerne er lineært afhængige hvis og kun hvis det (X) = 0.

En anden made at teste, hvorvidt en samling af vektorer er lineært af-

hængige, er, at opskrive en matrix med de givne vektorer som søjlevektorer.

Efter Gauss-elimination af matricen er der en nulrække, hvis og kun hvis de

givne vektorer er lineært afhængige.

Hvis man har m vektorer i Rn og m > n er de m vektorer altid lineært

afhængige.

1.5 Basis og dimension

Definition 3 (En basis for et vektorrum) Vektorerne v1,v2, . . . ,vn er

en basis for vektorrummet V , hvis og kun hvis

(i) v1,v2, . . . ,vn er lineært uafhængige,

(ii) v1,v2, . . . ,vn udspænder V. ⊳

Definition 4 (Dimensionen af et vektorrum) Lad V være et vektor-

rum. Hvis V har en basis, der bestar af n vektorer, sa har V dimension n.

Specielt defineres at underrummet {0} af V har dimension 0. ⊳

1.6 Skift af basis

Den naturlige basis for R2 er de to standardenhedsvektorer e1, e2. I stedet

for disse kunne man vælge at beskrive vektorer i R2 ud fra en anden basis;

eksempelvis vektorerne,

u1 =

(

3

2

)

, u2 =

(

1

1

)

,

som her er angivet i forhold til den naturlige basis.

Ved at bruge u1 og u2 som basisvektorer vil man ofte fa brug for at løse

følgende problemer:

1 ABSTRAKTE VEKTORRUM 8

1. Givet en vektor x = (x1, x2)T mht. e1 og e2, find dennes koordinater

mht. u1 og u2.

2. Givet en vektor c1u1 + c2u2 find dennes koordinater mht. e1 og e2.

Først løses problem 2. Det ses, at

u1 = 3e1 + 2e2,

u2 = e1 + e2.

Dvs.,

c1u1 + c2u2 = 3c1e1 + 2c1e2 + c2e1 + c2e2

= (3c1 + c2)e1 + (2c1 + c2)e2.

Ved at sætte U = (u1,u2) og c = (c1, c2)T fas:

x = U c. (1.1)

Nu er problem 2 saledes løst.

U er sammensat af lineært uafhængige basisvektorer, hvorfor U er inver-

tibel. Det følger af (1.1), at løsningen til problem 1 er

c = U−1 x.

Nu betragtes et mere generelt basisskift fra [v1,v2] til [u1,u2]. For at ga

fra [v1,v2] til [e1, e2] skal den oprindelige koordinatvektor multipliceres med

V . For at ga fra [e1, e2] til [u1,u2] skal der multpliceres med U−1 saledes,

at koordinattransformationsmatricen bliver U−1V . Koordinattransformatio-

nen illustreres her:

[v1,v2]V

//

U−1V %%K

K

K

K

K

K

K

K

K

[e1, e2]

U−1

��

[u1,u2]

.

I det netop gennemregnede eksempel optradte, der vektorer i R2. Proceduren

mht. basisskift kan dog let oversættes til ethvert andet endelig dimensionalt

vektorrum;

1 ABSTRAKTE VEKTORRUM 9

Definition 5 Lad V være et vektorrum med den tilhørende ordnede basis

E = [v1,v2, . . . ,vn]. Hvis v er et element i V , sa kan v skrives som

v = c1v1 + c2v2 + . . . + cnvn,

hvor c1, c2, . . . , cn er skalarer. Vektoren v ∈ V kan præsenteres af vektoren

c = (c1, c2, . . . , cn)T i Rn. Vektoren c kaldes koordinatvektoren af v mht. den

ordnede base E og betegnes [v]E . ci’erne er koordinaterne af v med hensyn

til E. ⊳

1.7 Rækkerum og søjlerum

I dette delafsnit præsenteres en række af de vigtigste sætninger og defini-

tioner angaende rækkerum og søjlerum. Først præsenteres definitionen af

rækkerum og søjlerum;

Definition 6 Lad A være en m × n matrix. Underrummet af R1×n som

udspændes af matricens rækkevektorer kaldes rækkerummet for A. Under-

rummet af Rm, som udspændes af søjlevektorerne i A, kaldes søjlerummet

for A. ⊳

Sætning 1 To rækkeækvivalente matricer har samme rækkerum. ⊳

Definition 7 (Rang) Rangen af en matrix A er dimensionen af rækkerum-

met for matricen A. ⊳

Eksempel 7 Lad

A =

1 −2 3

2 −5 1

1 −4 −7

.

Ved at udføre Gauss-elimination fas

U =

1 −2 3

0 1 5

0 0 0

.

Rækkerummet for matricerne A og U er saledes udspændt af de to vektorer

(1,−2, 3)T og (0, 1, 5)T . Rangen af begge matricer er 2. ⊳

1 ABSTRAKTE VEKTORRUM 10

Sætning 2 (Konsistens af lineære systemer) Et lineært system Ax =

b er konsistent, hvis og kun hvis b er indeholdt i søjlerummet for A. ⊳

I øvrigt gælder der, at summen af rangen og dimensionen af nulrummet

altid er lig antallet af søjler i en matrix.

Sætning 3 Hvis A er m×n, sa er dimensionen af rækkerummet lig dimen-

sionen af søjlerummet. ⊳

2 LINEÆRE AFBILDNINGER 11

2 Lineære afbildninger

2.1 Definition af en lineær afbildning

Definition 8 En afbildning L : V −→ W er en lineær afbildning, hvis

L(αv1 + βv2) = αL(v1) + βL(v2),

for alle v1,v2 ∈ V og for alle skalarer α og β. ⊳

Heraf følger, at en afbildning er lineær, hvis og kun hvis den opfylder

følgende:

1. L(v1 + v2) = L(v1) + L(v2).

2. L(αv) = αL(v).

Eksempel 8 Betragt operatoren L : R2 −→ R

2 defineret ved

L(x) = (−x2, x1)T .

Det kan let eftervises, at L er en lineær afbildning:

L(αx + βy) =

(

−αx2 − βy2

αx1 + βy1

)

=

(

−αx2

αx1

)

+

(

−βy2

βy1

)

= αL(x) + βL(y)

Det er hermed vist, at afbildningen er lineær. ⊳

Definition 9 (Kernen af en lineær afbildning) Lad L : V −→ W væ-

re en lineær afbildning. Kernen af L er givet ved

ker(L) = {v ∈ V |L(v) = 0W} . ⊳

2 LINEÆRE AFBILDNINGER 12

2.2 Matrixrepræsentation af lineære afbildninger

Der gælder, at enhver lineær afbildning af typen L : Rn −→ R

m kan repræ-

senteres af en m × n matrix. Dette følger af denne sætning:

Sætning 4 Hvis L er en lineær afbildning fra Rn ind i nymodens R

m, sa

eksisterer der netop en m × n matrix A sa

L(x) = Ax,

for alle x ∈ Rn.

Den j’e søjle i A er givet ved

aj = L(ej). ⊳

Eksempel 9 Lad L : R3 −→ R

2 være defineret ved

L(x) = (x1 + x2, x2 + x3)T .

Nu skal matricen tilsvarende denne lineære afbildning findes. Nar L virker

pa de tre naturlige basisvektorer i R3 fas følgende for de tre søjlevektorer i

A:

L(e1) =

(

1

0

)

L(e2) =

(

1

1

)

L(e3) =

(

0

1

)

Det følger nu af sætning 4, at

A =

(

1 1 0

0 1 1

)

. ⊳

I den følgende sætning betragtes mere generelle lineære afbildninger fra et

vektorrum V med basen E = [v1,v2, . . . ,vn] til et andet vektorrum W med

basen F = [w1,w2, . . . ,wm]:

2 LINEÆRE AFBILDNINGER 13

Sætning 5 Lad E = [v1,v2, . . . ,vn] og F = [w1,w2, . . . ,wm] være ordnede

baser for henholdsvis V og W . Til enhver lineær afbildning L : V −→ W er

der en m × n matrix A saledes, at

[L(v)]F = A[v]E

for alle v ∈ V .

A er her matricen, som repræsenterer L mht. de ordnede baser E og F .

Der gælder, at

aj = [L(vj)]F . ⊳

Eksempel 10 Lad L : R3 −→ R

2 være defineret ved

L(x) = x1b1 + (x2 + x3)b2,

hvor

b1 =

(

1

1

)

og b2 =

(

−1

1

)

Nu skal matricen A, der repræsenterer den lineære afbildning mht. de ord-

nede baser [e1, e2, e3] og [b1,b2], findes.

Der gælder, at

L(e1) = 1b1 + 0b2 =⇒ [L(e1)]F = (1, 0)T

L(e2) = 0b1 + 1b2 =⇒ [L(e2)]F = (0, 1)T

L(e3) = 0b1 + 1b2 =⇒ [L(e3)]F = (0, 1)T .

Af sætning 5 følger det nu, at

A = ([L(e1)]F , [L(e2)]F , [L(e3)]F ) =

(

1 0 0

0 1 1

)

. ⊳

Sætning 6 Lad E = [u1,u2, . . . ,un] og F = [b1,b2, . . . ,bm] være baser

for henholdsvis Rn og R

m. Hvis L : Rn −→ R

m er en lineær afbildning, sa

er den j’e søjle i matricen A, som repræsenterer L mht. E og F , givet ved

aj = B−1L(uj),

hvor B = [b1,b2, . . . ,bm]. ⊳

2 LINEÆRE AFBILDNINGER 14

Sætning 7 Hvis A repræsenterer den lineære afbildning L : Rn −→ R

m

mht. til baserne

E = [u1,u2, . . . ,un] og F = [b1,b2, . . . ,bm],

sa er den reducerede rækkeechelonform af (b1, . . . ,bm|L(u1), . . . , L(un)) gi-

vet ved (I |A) ⊳

Se eksempel 6 side 190 i Leon.

2.3 Similære matricer

Sætning 8 Lad E = [v1, . . . ,vn] og F = [w1, . . . ,wn] være ordnede baser

for et vektorrum V og lad L være en lineær operator pa V . Transformations-

matricen, der repræsenterer skiftet fra F til E, kaldes S. Hvis A repræsente-

rer den lineære afbildning mht. basen E, sa er matricen, der repræsenterer

L mht. F givet ved

B = S−1AS. ⊳

Definition 10 Lad A og B være m × n matricer. B er similær til A, hvis

der findes en invertibel matrix S saledes, at

B = S−1AS. ⊳

Det skal bemærkes, at hvis B er similær til A, sa følger det, at A er similær

til B.

3 EGENVÆRDIER 15

3 Egenværdier

3.1 Egenværdier og egenvektorer

Definition 11 Lad A være en n × n matrix. En skalar λ er en egenværdi

til A, hvis der findes en egentlig vektor x 6= 0, sa

Ax = λx. (3.1)

x er da en egenvektor, som hører til λ. ⊳

(3.1) kan omskrives til

(A − λI)x = 0.

Denne ligning har en ikke triviel løsning, hvis og kun hvis A−λI er singulær.

Dvs., hvis

det(A − λI) = 0.

Det karakterristiske polynomium defineres ved

p(λ) = det(A − λI).

Rødderne til dette polynomium er egenværdierne til n× n matricen A. Det

karakterristiske polynomium vil altid have n komplekse rødder (talt med

multiplicitet).

For en n × n matrix A er følgende udsagn ækvivalente:

1. λ er en egenværdi for A.

2. (A − λI)x = 0 har en ikke-triviel løsning.

3. N(A − λI) 6= {0}.

4. A − λI er singulær.

5. det(A − λI) = 0.

Eksempel 11 Lad

A =

(

3 2

3 −2

)

.

3 EGENVÆRDIER 16

For at finde egenværdierne til A opskrives det karakterristiske polynomium:

p(λ) =

3 − λ 2

3 −2 − λ

= λ2 − λ − 12.

Dette giver egenværdierne λ1 = 4 og λ2 = −3.

Enhver vektor, der er element i nulrummet N(A + 3I) er en egenvektor

tilsvarende egenværdien −3. Enhver vektor, der er et element i nulrummet

N(A − 4I) er en egenvektor tilsvarende egenværdien 4. ⊳

3.2 Diagonalisering

Definition 12 En n × n matrix A er diagonaliserbar, hvis der findes en

invertibel matrix X og en diagonalmatrix D sa

X−1AX = D.

Man siger, at X diagonaliserer A. ⊳

Sætning 9 En n × n matrix A er diagonaliserbar, hvis og kun hvis A har

n lineært uafhængige egenvektorer. ⊳

Vigtige bemærkninger:

1. Hvis A er diagonaliserbar, sa er søjlevektorerne i diagonaliseringsma-

tricen X egenvektorer for A. Diagonalelementerne af D er de til egen-

vektorerne tilsvarende egenværdier.

2. Diagonaliseringsmatricen X er ikke unik. Ved at ombytte søjler for

diagonaliseringsmatricen eller ved at multiplicere med en skalar, der

er forskellig fra 0, kan man konstruere en ny diagonaliseringsmatrix.

3. Hvis A er n×n og A har n forskellige egenværdier, sa kan A diagonali-

seres. Hvis der er flere ækvivalente egenværdier sa er A diagonaliserbar

afhængigt af om, der er n lineært uafhængige egenvektorer (Se sætning

9).

4. Hvis A er diagonaliserbar, sa kan A skrives som produktet X D X−1.

5. Ak = X DkX−1.

4 ORTOGONALISERING 17

4 Ortogonalisering

4.1 Skalarproduktet i Rn

Skalarproduktet mellem to vektorer a,b ∈ Rn defineres ved aTb. Dvs.,

a · b ≡n∑

i=1

aibi.

Normen af en vektor defineres ved

||a|| ≡√

a · a.

Projektionen af en vektor a pa en vektor b er givet ved

ab =a · b||b||2

b

og størrelsen af projektionen er

||ab|| =a · b||b|| .

To vektorer a og b er defineret til at være ortogonale, hvis a ·b = 0. Vinklen

mellem a og b er

cos θ =a · b

||a|| ||b|| .

4.2 Indre produkt rum

Definition 13 (Indre produkt) Et indre produkt pa en vektor i et ab-

strakt vektorrum V er en operator pa V , der til ethvert par af vektorer

x,y ∈ V tildeler en skalar 〈x,y〉, som opfylder

I 〈x,x〉 ≥ 0, med lighed hvis og kun hvis x = 0.

II 〈x,y〉 = 〈y,x〉.

III 〈αx + βy, z〉 = α〈x, z〉 + β〈y, z〉 for alle x,y, z ∈ V og alle skalarer

α, β. ⊳

Et vektorrum V med et indre produkt kaldes et indre produkt rum. Her

følger en række eksempler pa indre produkter:

4 ORTOGONALISERING 18

Eksempel 12 (Rn) Skalarproduktet i Rn er et indre produkt;

〈x,y〉 = xT y.

Et andet eksempel pa et indre produkt i Rn er

〈x,y〉 =

n∑

i=1

wixiyi,

hvor w1, w2, . . . , wn er skalarer. ⊳

Eksempel 13 (Rm×n) For A,B ∈ Rm×n kan man definere et indre pro-

dukt ved

〈A,B〉 =m∑

i=1

n∑

j=1

aijbij. ⊳

Eksempel 14 (C[a, b]) Et eksempel pa et indre produkt for f, g ∈ C[a, b]

er

〈f, g〉 =

∫ b

a

f(x)g(x) dx.

Hvis en funktion w(x) er kontinuert pa [a, b] kan et indre produkt ogsa

defineres som

〈f, g〉 =

∫ b

a

f(x)g(x)w(x) dx. ⊳

Eksempel 15 (Pn) Lad x1, x2, . . . , xn være forskellige skalarer. For ethvert

par af polynomier af mindre grad end n kan man definere:

〈p, q〉 =

n∑

i=0

p(xi)q(xi). ⊳

Der gælder, at normen af en vektor i et indre produkt rum kan defineres

ved:

||x|| =√

〈x, x〉.

Definition 14 (Projektion) Lad u og v være vektorer i et indre produkt

rum. Projektionen af u pa v er

uv =〈u,v〉||v||2

v. ⊳

4 ORTOGONALISERING 19

4.3 Ortonormale systemer

Definition 15 (Ortogonalt system) Lad v1,v2, . . . ,vn være vektorer for-

skellig fra nulvektoren i et indre produkt rum V . Hvis 〈vi,vj〉 = 0, nar i 6= j,

sa er basen {v1,v2, . . . ,vn} et ortogonalt system. ⊳

Definition 16 (Ortonormalt system) Et ortonormalt system af vekto-

rer er et ortogonalt sæt af enhedsvektorer. ⊳

Et system u1,u2, . . . ,un er saledes ortonormalt, hvis og kun hvis

〈ui,uj〉 =

{

1 hvis i = j

0 hvis i 6= j.

Hvis man har et ortogonalt system {v1,v2, . . . ,vn} kan man definere

ui =vi

||vi||.

Da udgør {u1,u2, . . . ,un} er ortonormalt system.

Her følger tre sætninger angaende ortonormale baser:

Sætning 10 Lad u1,u2, . . . ,un være en ortonormal basis for et indre pro-

dukt rum V . Hvis

v =n∑

i=1

ciui,

sa er

ci = 〈v,ui〉. ⊳

Af denne sætning følger det, at hvis man ønsker at skrive en vektor, som

x = c1u1 + c2u2 + . . . + cnun,

hvor u1,u2, . . . ,un er en ortonormal basis, sa er ci givet ved

ci = 〈x,ui〉.

Sætning 11 Lad u1,u2, . . . ,un være en ortonormal basis for et indre pro-

dukt rum V . Hvis u =∑n

i=1 aiui og v =∑n

i=1 biui, sa er

〈u,v〉 =

n∑

i=1

aibi. ⊳

4 ORTOGONALISERING 20

Sætning 12 (Parseval’s formel) Hvis u1,u2, . . . ,un er en ortonormal ba-

sis for et indre produkt rum V og v =∑n

i=1 ciui, sa er

||v||2 =

n∑

i=1

c2i . ⊳

Eksempel 16 Lad {u1,u2,u3} være en ortonormal basis for et indre pro-

dukt rum V . Betragt de to vektorer,

u = u1 + 2u2 + 2u3,

v = u1 + 7u3.

Ifølge sætning 11 er

〈a,b〉 = 1 · 1 + 2 · 0 + 2 · 7 = 15.

Og ifølge Parseval’s formel er

||u|| =√

12 + 22 + 22 = 3,

||v|| =√

12 + 72 = 5√

2.

Om vinklen mellem de to vektorer gælder:

cos θ =〈a,b〉

||a|| ||b|| =15

3 · 5√

2=

1√2.

Hermed er θ = π4. ⊳

4.4 Ortogonale matricer

Definition 17 (Ortogonal matrix) En reel matrix Q er en ortogonal ma-

trix, hvis søjlevektorerne i Q udgør et ortonormalt sæt i Rn. ⊳

Sætning 13 En n × n matrix Q er ortogonal, hvis og kun hvis

QT Q = I. ⊳

Af denne sætning følger umiddelbart, at QT = Q−1.

I øvrigt gælder altid, at 〈Qx, Qy〉 = 〈x,y〉. Hvis 〈x,y〉 = xTy gælder

desuden, at ||Qx|| = ||x||.

4 ORTOGONALISERING 21

Sætning 14 Hvis A er en reel symmetrisk matrix, sa findes der en ortogonal

matrix U , som diagonaliserer A. Dvs.,

D = UT AU,

hvor D er en diagonalmatrix. ⊳

En symmetrisk matrix er opfylder, at AT = A.

Hvis A er en reel n × n matrix, sa er følgende betingelser ækvivalente:

1. Der findes en orthonormal basis for Rn bestaende af egenvektorer for

A.

2. Der findes en matrix U , sa UT AU er diagonal med egenværdier for A

i diagonalen (U kan bestemmes ved at køre Gram-Schmidt pa egen-

vektorerne i A. Søjlevektorerne i U er da vektorerne i den ortonormale

basis).

3. A er symmetrisk; dvs., AT = A.

4.5 Gram-Schmidt ortogonalisering

I dette kapitel beskrives Gram-Schmidt ortogonaliseringsmetoden. Ved hjælp

af denne metode kan man ud fra enhver basis,

[x1,x2, . . . ,xn] ,

danne en ortonormal basis,

[u1,u2, . . . ,un] ,

som opfylder, at

span{[u1,u2, . . . ,un]} = span{[x1,x2, . . . ,xn]}.

Den første vektor i den ortonormale basis fas ved at normere x1:

u1 =x1

||x1||.

4 ORTOGONALISERING 22

For at konstruere den anden vektor i den ortonormale basis opskrives pro-

jektionen af x2 pa nymodens u1 (Denne vektor kaldes p1):

p1 = 〈x2,u1〉u1

Der ma af geometriske arsager gælde, at (x2 − p1) ⊥ u1. Ved at normere

x2 −p1 denne kan man saledes danne en ny vektor i den ortonormale basis:

u2 =x2 − p1

||x2 − p1||.

Den tredje vektor i den ortonormale basis kan konstrueres ved at definere

vektoren,

p2 = 〈x3,u1〉u1 + 〈x3,u2〉u2,

og sa er

u3 =x3 − p2

||x3 − p2||.

Følgende sætning beskriver Gram-Schmidt Ortogonaliseringsmetoden:

Sætning 15 (Gram-Schmidt) Lad [x1,x2, . . . ,xn] være en ortogonal ba-

sis for et indre produkt rum V . Lad

u1 =x1

||x1||

og definer u2,u3 . . . ,un rekursivt ved

uk+1 =xk+1 − pk

||xk+1 − pk||,

hvor

pk = 〈xk+1,u1〉u1 + 〈xk+1,u2〉u2 + . . . + 〈xk+1,uk〉uk

er projektionen af xk+1 pa spannet af [u1,u2, . . . ,uk].

Der gælder, at [u1,u2, . . . ,un] er en ortonormal basis for V . ⊳

Bemærk at i udledning af Gram-Schmidt-metoden anvendte vi vores

geometriske intuition om vektorer i Rn. Metoden er dog ikke begrænset til

vektorer i Rn, men kan anvendes i alle abstrakte vektorrum.

5 FOURIERANALYSE 23

5 Fourieranalyse

5.1 Ortonormal basis

I dette delafsnit forklares den teoretiske baggrund for fourierrækker.

Betragte et indre produkt rum, hvor det indre produkt mellem to funk-

tion f og g er defineret ved

〈f, g〉 ≡ 2

L

∫ L

0

f(x)g(x)dx.

Betragt funktionerne

cos

(

2πr

Lx

)

, cos

(

2πs

Lx

)

, sin

(

2πr

Lx

)

, sin

(

2πs

Lx

)

,

hvor r og s er ikke-negative heltal og L er en skalar. Ved at udregne indre

produkter fas:

cos

(

2πr

Lx

)

, sin

(

2πs

Lx

)⟩

=2

L

∫ L

0

cos

(

2πr

Lx

)

sin

(

2πs

Lx

)

dx

= 0,⟨

cos

(

2πr

Lx

)

, cos

(

2πs

Lx

)⟩

=2

L

∫ L

0

cos

(

2πr

Lx

)

cos

(

2πs

Lx

)

dx

=

2 for r = s = 0

1 for r = s > 0

0 for r 6= s⟨

sin

(

2πr

Lx

)

, sin

(

2πs

Lx

)⟩

=2

L

∫ L

0

sin

(

2πr

Lx

)

sin

(

2πs

Lx

)

dx

=

0 for r = s = 0

1 for r = s > 0

0 for r 6= s

Ud fra de netop udregnede indre produkter ses det, at enhver funktion (der

er uendeligt mange gange differentiabel) kan opskrives i en ortonormal basis

saledes

f(x) =a0

2+

∞∑

r=1

[

ar cos

(

2πr

Lx

)

+ br sin

(

2πr

Lx

)]

,

5 FOURIERANALYSE 24

hvor de r’e koefficienter er givet ved projektionen af f pa de r’e basisvektorer

saledes:

ar =

f, cos

(

2πr

Lx

)⟩

=2

L

∫ x0+L

x0

f(x) cos

(

2πr

Lx

)

dx

br =

f, sin

(

2πr

Lx

)⟩

=2

L

∫ x0+L

x0

f(x) sin

(

2πr

Lx

)

dx.

I det næste delafsnit opskrives dette resultat pa mere stringent vis.

5.2 Fourierrækker

En funktion f kan udvikles vha. fourierrækker, hvis den opfylder Dirichlets

betingeler :

i) f er periodisk,

ii) f skal være kontinuert. Dog er det tilladt med et endeligt antal disko-

ninuitetspunkter,

iii) f skal have et endeligt antal maksimum- og minimumpunkter inden for

en enkelt periode,

iv) Integralet over en periode af |f(x)| skal konvergere.

Hvis Dirichlets betingelser er opfyldt er fourierrækken for f givet ved

f(x) =a0

2+

∞∑

r=1

[

ar cos

(

2πr

Lx

)

+ br sin

(

2πr

Lx

)]

,

hvor Fourier koefficienterne er givet ved

ar =2

L

∫ x0+L

x0

f(x) cos

(

2πr

Lx

)

dx

br =2

L

∫ x0+L

x0

f(x) sin

(

2πr

Lx

)

dx.

Lige og ulige funktioner

For en funktion f gælder:

hvis f er lige er f(−x) = f(x)

hvis f er ulige er f(−x) = −f(x)

5 FOURIERANALYSE 25

Eksempelvis er f(x) = x2 en lige funktion og f(x) = x3 er en ulige funktion.

For enhver funktion gælder:

f(x) =1

2[f(x) + f(−x)] +

1

2[f(x) − f(−x)]

= flige(x) + fulige(x)

For en fourierrække repræsenterer ar de lige led (I ar indgar cosinus og

cosinus er en lige funktion) og br repræsentere de ulige led (I br indgar sinus

og sinus er en ulige funktion).

For en ulige funktion er alle a-leddene saledes 0 og tilsvarende er alle

b-leddene 0 for en lige funktion. For en maclaurin-række gælder i øvrigt det

samme.

5.3 Fouriertransformation

Den fouriertransformerede af en funktion f(t) er givet ved

f(ω) =1√2π

−∞

f(t)e−iωt dt.

Den inverse er:

f(t) =1√2π

−∞

f(ω)eiωt dω.