LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V...

of 126 /126
Teil 1 LINEARE ALGEBRA I 1

Transcript of LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V...

Page 1: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

Teil 1

LINEARE ALGEBRA I

1

Page 2: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien
Page 3: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

Kapitel I

Vektorraume

§ 1 Gruppen, Ringe, Korper

1.1 Definition

Gegeben seien zwei nichtleere Mengen M und N . Unter einer Abbildung ! von M nach N ver-stehen wir eine Zuordnungsvorschrift

! : M ! N , x "! !(x) := y ,

die jedem x # M genau ein y # N zuordnet. Die Menge aller Abbildungen von M nach Nbezeichnen wir kurz mit Abb(M, N) .Eine Abbildung ! # Abb(M,N) heißt surjektiv, wenn !(M) = N ist1; und ! heißt injektiv,wenn aus !(x) = !(y) mit x, y # M stets folgt: x = y . Eine Abbildung ! heißt bijektiv, wenn! injektiv und zugleich surjektiv ist.

1.2 Definition

Unter einer (inneren) Verknupfung auf einer Menge H $= ! verstehen wir eine Abbildung

! : H %H ! H , (a, b) "! a ! b .

(Dabei ist H %H die Menge aller geordneten Paare (a, b) mit a # H und b # H .)Eine Halbgruppe H ist ein Paar (H, !) , bestehend aus einer nichtleeren Menge H und einerinneren Verknupfung ! auf H mit der Eigenschaft

(G1) Assoziativitat : (a ! b) ! c = a ! (b ! c) fur alle a, b, c # H .

Eine Halbgruppe (G, !) heißt Gruppe, wenn zusatzlich gilt:

(G2) Es gibt ein neutrales Element e # G mit e ! a = a fur alle a # G .

(G3) Fur jedes a # G existiert ein inverses Element a! # G (zu a) mit a! ! a = e .

Eine Gruppe (G, !) heißt kommutativ oder abelsch2, wenn fur alle a, b # G gilt: a ! b = b ! a .Wenn aus dem Zusammenhang klar hervorgeht, welche Verknupfung G zu einer Halbgruppeoder Gruppe macht, schreiben wir kurz G statt (G, !) und meist a b statt a ! b .

1Soll ! : M ! N surjektiv sein, so nennen wir ! auch eine Abbildung von M auf N .2Niels Henrik Abel, norwegischer Mathematiker (!05.08.1802, †06.04.1829)

3

Page 4: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

4 KAPITEL I. VEKTORRAUME

1.3 Bemerkungen

Es sei G eine Gruppe. Dann gilt:

(i) Ist a! # G inverses Element zu a # G, dann gilt auch: a a! = e .

(ii) Ist e # G ein neutrales Element, so gilt fur alle a # G auch: a e = a .

(iii) Es gibt genau ein neutrales Element e # G .

(iv) Zu jedem a # G gibt es genau ein inverses Element a! # G , das wir auch mit a"1

bezeichnen.

(v) Es gilt fur alle a, a1, a2, . . . , an"1, an # G :

(a"1)"1 = a und (a1 ! a2 ! . . . ! an"1 ! an)"1 = an"1 ! an"1

"1 ! . . . ! a2"1 ! a1

"1 .

Dabei ist die mehrfache Verknupfung a1 ! a2 ! . . . ! an"1 ! an induktiv definiert durch

a1 ! a2 ! . . . ! an"1 ! an := (a1 ! a2 ! . . . ! an"1) ! an .

Beweis:

zu (i): Zu a! # G existiert nach Axiom (G3) ein Inverses a!! # G mit a!! a!(")= e . Daraus folgt:

a a!(G2)= e (a a!) (")= (a!! a!) (a a!) (G1)= a!! (a! (a a!)) =(G1)= a!! ((a! a) a!) (G3)= a!! (e a!) (G2)= a!! a!

(")= e .

zu (ii): Ist a # G und a! # G mit a! a = e , so folgt:

a e(G3)= a (a! a) (G1)= (a a!) a

(i)= e a(G2)= a .

zu (iii): Sei e! ein weiteres neutrales Element von G , d. h. es gelte: e! a(")= a fur alle a # G .

Dann folgt: e! e(")= e , da e! neutral ist, und e e!

(G2)= e! , da e neutral ist. Wegen (ii) gilt:e! = e e! = e! e = e , also ist insgesamt e = e! .

zu (iv): Es seien a! # G und a!! # G inverse Elemente zu a # G . Dann gilt:

a!!(ii)= a!! e

(i)= a!! (a a!) (G1)= (a!! a) a!(G3)= e a!

(G2)= a! .

zu (v): Nach (iv) gibt es zu a"1 # G genau ein inverses Element b # G mit a"1 b = b a"1 = e .Wegen a"1 a = a a"1 = e ist somit b = (a"1)"1 = a .Sei nun n = 2 ; dann ist zu zeigen, daß a2

"1 a1"1 das inverse Element zu a1 a2 ist, d. h.:

(a1 a2)"1 = a2"1 a1

"1 . Nun gilt:

(a2"1 a1

"1) (a1 a2)(G1)= a2

"1 (a1"1 (a1 a2))

(G1)= a2"1 ((a1

"1 a1) a2) =(G3)= a2

"1 (e a2)(G2)= a2

"1 a2(G3)= e .

Durch vollstandige Induktion nach n ergibt sich die Behauptung fur jedes n & 2 . !

"

Page 5: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 1. GRUPPEN, RINGE, KORPER 5

1.4 Satz

Eine Menge G $= ! zusammen mit einer Verknupfung ! ist genau dann eine Gruppe, wenn dasAxiom (G1) gilt und zu je zwei Elementen a, b # G stets Elemente x # G und y # G existierenmit a x = b und y a = b . Diese x und y sind dann (nach Bemerkung 1.3) eindeutig bestimmtdurch

x = a"1 b und y = b a"1 .

Beweis:

”'“: Sei (G, !) eine Gruppe. Setzen wir x = a"1 b und y = b a"1 , so folgt: a x = b und y a = b .Sind x!, y! # G weitere Elemente mit a x! = b und y! a = b , so gilt:

x! = e x! = (a"1 a) x! = a"1 (a x!) = a"1 b = x

und y! = y! e = y! (a a"1) = (y! a) a"1 = b a"1 = y .

”(“: Zu je zwei Elementen a, b # G gebe es x, y # G mit a x = b und y a = b . Speziell zueinem a # G gibt es ein e # G mit e a = a . Ist nun b # G beliebig, so folgt:

e b = e (a x) (G1)= (e a) x = a x = b .Also ist das Axiom (G2) erfullt. Zu jedem a # G gibt es nach Voraussetzung ein a! # Gmit a! a = e . Also ist auch das Axiom (G3) erfullt. Damit ist (G, !) eine Gruppe.

"

1.5 Bemerkung

Wird die Verknupfung der Gruppe G multiplikativ geschrieben, so bezeichnen wir das neutraleElement mit ”1“, genannt Einselement.Bei abelschen Gruppen wird haufig die additive Schreibweise bevorzugt, wobei dann das neutraleElement mit ”0“, genannt Nullelement, und das zu a # G inverse Element mit ”)a“ bezeichnetwird. Ferner schreiben wir a) b anstelle von a + ()b) .

1.6 Beispiele

a) Die Menge IN := {0, 1, 2, 3, . . . } der naturlichen Zahlen bildet mit der Addition +als Verknupfung eine Halbgruppe, sogar eine kommutative Halbgruppe mit 0 # IN alsneutralem Element. (IN,+) ist aber keine Gruppe, da das Gruppenaxiom (G3) verletztwird. Das Paar (IN#,+) mit IN# := IN \ {0} als Menge aller naturlichen Zahlen ohne dieNull, bildet mit der Addition auch eine kommutative Halbgruppe.

b) Die Menge ZZ der ganzen Zahlen bildet mit + eine abelsche Gruppe; ebenso sind (Q,+)und (IR, +) abelsche Gruppen, wobei Q fur die Menge aller rationalen Zahlen und IR furdie Menge der reellen Zahlen stehe.

c) Die Menge Q# := Q \ {0} bildet mit der Multiplikation · als Verknupfung eine abelscheGruppe. Neutrales Element ist 1 , und inverses Element zu jedem q # Q# ist 1

q # Q# .Ebenso ist mit IR# := IR \ {0} das Paar (IR#, ·) eine kommutative Gruppe.

Page 6: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

6 KAPITEL I. VEKTORRAUME

d) Fur M,N,P $= ! seien ! # Abb(M, N) und " # Abb(N, P ) zwei Abbildungen; dannwird die sogenannte Komposition " * ! von ! und " definiert durch3

(" * !)(x) := "(!(x)) fur alle x # M .

Also ist " * ! # Abb(M, P ) . Bezeichnen wir mit

S(M) := {! # Abb(M,M) | ! ist bijektiv}

die bijektiven Abbildungen auf einer Menge M , so bildet ( S(M), *) mit der obigen Kom-position als Verknupfung eine Gruppe. Neutrales Element ist die identische Abbildung idM

mit idM (x) := x fur alle x # M . Inverses Element zu jedem bijektiven ! # S(M) ist dieUmkehrabbildung !"1 # S(M) mit ! * !"1 = !"1 * ! = idM . Im allgemeinen ist S(M)nicht abelsch. Und S(M) heißt die symmetrische Gruppe der Menge M .Speziell im Fall M = {1, 2, . . . , n} schreiben wir Sn fur die symmetrische Gruppe S(M)und nennen jede Abbildung ! # Sn eine Permutation (der Zahlen 1, 2, . . . , n ).

e) Ist G eine endliche Menge, so kann man die Verknupfung in G durch eine sogenann-te Verknupfungstafel beschreiben. Ist G z. B. eine dreielementige Menge, die durch eineVerknupfung · zu einer Gruppe gemacht werden soll, so muß G ein neutrales Element eenthalten. Also konnen wir annehmen, daß G = {e, a, b} ist mit paarweise verschiedenenElementen e, a, b . Dann mussen wir alle Verknupfungen c ·d mit c, d # G angeben. Hierzubilden wir zunachst folgende unvollstandige Tabelle:

· e a be e a ba ab b

Nun ist a ·a zu bestimmen. Wegen Satz 1.4 kommt dafur nur e oder b in Frage. Ware abera a = e , so mußte a b = b sein im Widerspruch zu e b = b . Also folgt: a a = b und weiter:a b = e , b a = e sowie b b = a ; d. h. wir erhalten fur G als Verknupfungstafel:

· e a be e a ba a b eb b e a

1.7 Definition

Eine Menge R mit zwei Verknupfungen +, · : R%R ! R heißt ein Ring, wenn folgendes gilt:

(R1) (R,+) ist eine abelsche Gruppe.

(R2) (R, ·) ist eine Halbgruppe.

(R3) Es gelten die Distributivgesetze fur alle a, b, c # R :

(D1) a · (b + c) = (a · b) + (a · c) = a · b + a · c

und

(D2) (a + b) · c = (a · c) + (b · c) = a · c + b · c .

3Man nennt die Komposition " " ! auch Hintereinanderausfuhrung ; Sprechweise:”" komponiert mit !“.

Page 7: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 1. GRUPPEN, RINGE, KORPER 7

Ein Ring (R,+, ·) heißt kommutativ, wenn fur alle a, b # R gilt: a · b = b · a .Wir sprechen von einem Ring mit Eins, wenn ein Einselement 1 # R existiert mit 1 · a = aund a · 1 = a fur alle a # R .

1.8 Beispiel

Die ganzen Zahlen (ZZ,+, ·) bilden einen kommutativen Ring mit 1 .

1.9 Definition

Eine Menge K mit zwei Verknupfungen +, · : K %K ! K heißt ein Korper, wenn gilt:

(K1) (K,+) ist eine abelsche Gruppe.

(K2) (K \ {0} , ·) ist eine (kommutative) Gruppe.

(K3) Es gelten die Distributivgesetze (D1) und (D2).

Ist die Gruppe (K \{0} , ·) kommutativ, so heißt (K,+, ·) oder K auch kommutativ. Ist dagegen(K \ {0} , ·) nicht kommutativ, dann heißt K stets ein Schiefkorper.

Verabredung: Wir schreiben ofta

bstatt a · b"1 fur Elemente eines kommutativen Korpers.

1.10 Bemerkungen

Es sei K ein Korper oder ein Schiefkorper; dann gilt:

(i) 0 · a = a · 0 = 0 fur alle a # K .

(ii) Sind a, b # K mit a b = 0 , so ist stets a = 0 oder b = 0 .

(iii) a ()b) = ()a) b = )(a b) , ()a) ()b) = a b fur alle a, b # K .

Beweis:

zu (i): Es ist 0 · a = (0 + 0) · a (D2)= 0 · a + 0 · a , also nach (G2): 0 · a = 0 . Entsprechend folgt ausa · 0 = a · (0 + 0) (D1)= a · 0 + a · 0 auch: a · 0 = 0 .

zu (ii): Angenommen, es ware a $= 0 und b $= 0 , so liefert (K2) sofort: a b $= 0 .

zu (iii): Es gilt:a b + a ()b) (D1)= a (b + ()b)) = a · 0 (i)= 0 , also: a ()b) (")= )(a b) .

Entsprechend gilt:

a b + ()a) b(D2)= (a + ()a)) b = 0 · b (i)= 0 , also: ()a) b

("")= )(a b) .

Ferner ist dann:

()a) ()b) (")= )(()a) b) ("")= )() (a b)) Bem. 1.3(v)= a b .

"

Page 8: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

8 KAPITEL I. VEKTORRAUME

1.11 Beispiele

a) Die Menge Q der rationalen Zahlen bildet mit + und · einen Korper, ebenso ist (IR, +, ·)ein Korper.

b) Ist K = {0, 1, 2} , und definieren wir + bzw. · auf K durch die folgenden Verknupfungs-tafeln:

+ 0 1 20 0 1 21 1 2 02 2 0 1

· 1 21 1 22 2 1

so ist (K,+, ·) ein Korper.

c) Wir betrachten die Menge IR% IR und definieren darauf die Verknupfungen + durch

(a, b) + (a!, b!) := (a + a! , b + b!)

sowie · durch(a, b) · (a!, b!) := (a a! ) b b! , a b! + a! b) .

Dann ist (IR%IR, +) eine abelsche Gruppe mit (0, 0) als neutralem Element. Und ()a,)b)ist bezuglich + inverses Element zu (a, b) . Ferner ist (IR%IR\{(0, 0)}, ·) eine kommutativeGruppe mit dem Einselement (1, 0) und dem zu (a, b) # IR%IR\{(0, 0)} gehorigen inversenElement

(a, b)"1 =! a

a2 + b2,

)b

a2 + b2

".

Außerdem gelten die Distributivgesetze (D1) und (D2). Also ist (IR% IR, +, ·) ein kommu-tativer Korper; wir nennen ihn den Korper der komplexen Zahlen und bezeichnen ihn mit(C,+, ·) oder kurz: C .Ist z := (a, b) # C , so gilt:

z = (a, 0) + (0, b) = (a, 0) + (b, 0) · (0, 1) .

Setzen wir zur Abkurzung i := (0, 1) # C , dann erhalten wir:

z = (a, 0) + (b, 0) · i mit i2 = )(1, 0) .

Betrachten wir nun ! : IR ! IR% {0} mit !(a) := (a, 0) fur alle a # IR , so ist ! bijektivmit

!(a + a!) = !(a) + !(a!) und !(a · a!) = !(a) · !(a!) .

Also ist IR durch die Abbildung ! als Teilmenge von C auffaßbar, und !(IR) + C istein Korper. Identifizieren wir die reelle Zahl a # IR mit der speziellen komplexen Zahl!(a) = (a, 0) # C , so konnen wir fur jedes z = (a, b) # C schreiben4:

z = a + b i .

Die Multiplikation von zwei komplexen Zahlen z = a + b i und z! = a! + b! i ergibt sichdann nach dem in IR bekannten Distributivgesetz unter Berucksichtigung von i2 = )1 .

4Man nennt Re z := a den Realteil und Im z := b den Imaginarteil von z sowie i auch die imaginare Einheit.

Page 9: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 2. VEKTORRAUME UND UNTERVEKTORRAUME 9

Diese Einfuhrung von C geht auf W. R. Hamilton5 und das Jahr 1835 zuruck. C. F. Gauß6

schreibt 1837 an F. Bolyai7, daß ihm die Darstellung durch geordnete Paare seit 1831 ge-laufig sei. Das Adjektiv komplex geht auf Gauß (1831) zuruck; bis dahin sprach auch er vonimaginaren Zahlen. Formal korrekt gerechnet wurde schon vorher mit komplexen Zahlen;es existierte nur keine ”geometrische“ Vorstellung dieser Objekte. So schreibt zum BeispielG. W. Leibniz8 bereits im Jahre 1702:

#Imaginare Wurzeln sind eine feine und wunderbare Zuflucht des gottlichenGeistes, beinahe ein Zwitterwesen zwischen Sein und Nichtsein.$

§ 2 Vektorraume und Untervektorraume

Um nicht zu sehr differenzieren zu mussen, sei von nun an stets (K,+, ·) ein kommutativerKorper; wir werden dies kunftig nicht mehr explizit erwahnen.

2.1 Definition

Es sei K ein Korper; eine nichtleere Menge V bzw. ein Tripel (V,+, ·) heißt ein K–Vektorraumoder Vektorraum uber K, wenn zwei Verknupfungen + : V % V ! V und · : K % V ! Vgegeben sind mit folgenden Eigenschaften:

(V1) (V,+) ist eine abelsche Gruppe mit dem neutralen Element 0 # V , dem sogenanntenNullvektor, und dem zu jedem Vektor v # V inversen Element )v # V , dem zu v negativen Vektor.

(V2) Fur alle Vektoren v, w # V und alle sogenannten Skalare #, µ # K gilt:

a) (# + µ) · v = # · v + µ · v .b) # · (v + w) = # · v + # · w .c) (# µ) · v = # · (µ · v) .d) 1 · v = v .

(Die innere Verknupfung + auf V heißt Vektoraddition. Die zweite, außere Verknupfung · nenntman Multiplikation mit Skalaren und laßt den Punkt fast immer weg.)Wir schreiben kurz: V # VRK , wenn V ein Vektorraum uber dem Korper K sein soll.

2.2 Bemerkungen

Ist V # VRK , so gelten die Aussagen:

(i) Es ist stets 0 · v = 0 fur alle v # V und # · 0 = 0 fur alle # # K .

(ii) Ist # v = 0 fur ein # # K und ein v # V , dann gilt: # = 0 oder v = 0 .

(iii) Es ist ()1) v = )v fur alle v # V .5Sir William Rowan Hamilton, irischer Mathematiker, Physiker und Astronom (!04.08.1805, †02.09.1865)6Carl Friedrich Gauß, deutscher Mathematiker, Astronom, Geodat und Physiker (!30.04.1777, †23.02.1855)7Farkas (Wolfgang von) Bolyai, ungarischer Professor fur Mathematik, Physik und Chemie; auch als fort-

schrittlicher Padagoge und Literat hoch geschatzt (!09.02.1775, †20.11.1856)8Gottfried Wilhelm von Leibniz, deutscher Philosoph, Mathematiker, Jurist und Universalgelehrter

(!01.07.1646, †14.11.1716)

Page 10: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

10 KAPITEL I. VEKTORRAUME

Beweis zu Bemerkung 2.2:

zu (i): Es ist 0 v(K1)= (0 + 0) v

(V2a)= 0 v + 0 v , also: 0 v = 0 ;ferner gilt: #0 (V1)= # (0 + 0) (V2b)= #0 + #0 , also: #0 = 0 .

zu (ii): Aus # v(")= 0 und # $= 0 folgt:

v(V2d)= 1 v

(K2)= (#"1 #) v(V2c)= #"1 (# v) (")= #"1 0 (i)= 0 .

zu (iii): Es gilt:v + ()1) v

(V2d)= 1 v + ()1) v(V2a)= (1 + ()1)) v

(K1)= 0 v(i)= 0 ,

also ist ()1) v = )v .

"

2.3 Beispiele

a) Ist K ein Korper und Kn := K %K % . . .%K# $% &n-mal

die Menge aller geordneten n-Tupel mit

Elementen aus K, so wird Kn durch folgende Verknupfungen zu einem K–Vektorraum:

(x1, x2, . . . , xn) + (y1, y2, . . . , yn) := (x1 + y1 , x2 + y2 , . . . , xn + yn)und # · (x1, x2, . . . , xn) := (# x1, #x2, . . . ,# xn)

fur alle (x1, x2, . . . , xn), (y1, y2, . . . , yn) # Kn und # # K .

b) Ist X $= ! eine Menge und K ein Korper, so kann Abb(X, K) durch folgende Verknupfun-gen zu einem K–Vektorraum gemacht werden:

(f + g)(x) := f(x) + g(x) fur alle f, g # Abb(X, K) und x # X ,(# · f)(x) := # · f(x) fur alle # # K , f # Abb(X, K) und x # X .

Der Nullvektor 0 ist die Nullabbildung 0 # Abb(X, K) mit 0(x) := 0 fur beliebige x # X .Ferner ist )f mit ()f)(x) = )f(x) fur alle x # X invers zu f # Abb(X, K) .

c) Speziell fur n = 1 ergibt sich aus a), daß man etwa Q , IR oder C jeweils als Vektorraumuber sich selbst auffassen kann. Ferner ist IR ein Q–Vektorraum und C ein IR–Vektorraum.

2.4 Definition

Es sei V # VRK und W + V . Dann heißt W ein Untervektorraum oder kurz: Unterraum von V ,wenn folgendes gilt:

(UV1) Es ist W $= ! .

(UV2) Fur alle v, w # W ist stets v + w # W .

(UV3) Fur alle v # W und # # K ist stets # · v # W .

Das Axiom (UV2) bedeutet, daß + eine innere Verknupfung auf W sein muß, und Axiom (UV3)besagt, daß · # Abb(K %W, W ) eine Skalarmultiplikation auf W ist. (Man spricht auch vonder Abgeschlossenheit von W bezuglich + und · ).

Page 11: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 2. VEKTORRAUME UND UNTERVEKTORRAUME 11

2.5 Bemerkung

Ist V # VRK und W + V ein Untervektorraum, so ist W mit der Addition aus V und derskalaren Multiplikation mit Elementen aus K selbst ein K–Vektorraum.

Beweis:

Die Eigenschaften (V2) sowie das Assoziativgesetz und das Kommutativgesetz gelten in W , dasie auch in der ”großeren“ Menge V gelten. Der Nullvektor 0 # W existiert, da es nach (UV1)stets ein v # W gibt, woraus nach (UV3) folgt: 0 = 0 v # W gemaß Bemerkung 2.2(i). Undfur jedes w # W ist mit (UV3) auch )w = ()1) w # W nach Bemerkung 2.2(iii). "

2.6 Satz

Es sei V # VRK und I $= ! eine beliebige (Index)Menge. Fur jedes i # I sei Wi + V einUntervektorraum von V ; dann ist auch der Durchschnitt

W :='

i$I

Wi

ein Untervektorraum von V .

Beweis:

Wegen 0 # Wi fur alle i # I ist auch 0 # W , d. h.: W $= ! . Sind v, w # W , so sindv, w # Wi fur alle i # I ; wegen Wi # VRK folgt dann auch: v + w # Wi fur alle i # I unddamit: v + w # W . Entsprechend ergibt sich fur alle # # K und v # W auch: # v # W . "

2.7 Beispiele

a) Fur K = C ist Abb(C, C) nach Beispiel 2.3b) ein C–Vektorraum. Fur festes n # INdefinieren wir

Πn :=(

f # Abb(C, C)))) f(x) =

n*

k=0

ak xk fur alle x # C+

,

wobei die von f abhangigen Konstanten a0, a1, a2, . . . , an # C die Koe!zienten von f ge-nannt werden. Dann ist Πn ein Untervektorraum von Abb(C, C) . Es ist namlich 0 # Πn ,wenn wir ak = 0 wahlen fur jedes 0 , k , n . Ferner gilt fur alle f, g # Πn , etwa mitf(x) =

n,

k=0ak xk und g(x) =

n,

k=0bk xk stets:

(f + g)(x) =n*

k=0

ak xk +n*

k=0

bk xk =n*

k=0

(ak + bk)xk

und (# f)(x) = # ·n*

k=0

ak xk =n*

k=0

(# ak) xk mit # # C .

Also ist f +g # Πn und # f # Πn . Die Elemente aus Πn heißen Polynome vom Grad , n .

Page 12: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

12 KAPITEL I. VEKTORRAUME

b) Fur n # IN mit n & 2 sei

W := {(x1, x2, . . . , xn) # Kn | x1 = x2 - xk = 0 fur k & 3 }= {(x, x, 0, 0, . . . , 0) # Kn | x # K} .

Dann ist W ein Unterraum von Kn .

c) Ist daruber hinaus U := {(x, 0, 0, . . . , 0) # Kn | x # K} , so gilt: U .W = {0} .

§ 3 Lineare Abhangigkeit, Basis, Dimension

3.1 Definition

Es sei V # VRK und ! $= A + V ; dann heißt jede endliche Summen*

i=1

$i xi mit $i # K und xi # A

eine Linearkombination von Elementen aus A.Dabei ist

n,i=1

$i xi = $1 x1 + $2 x2 + $3 x3 + . . . + $n xn .

Eine Linearkombination heißt trivial, wenn alle $i = 0 sind fur i = 1, 2, 3, . . . , n .Ist A keine Teilmenge von V , sondern eine Familie9 von Vektoren aus V , bei der also einVektor aus V mehrfach in A auftauchen kann, so seien die Begriffe Linearkombination undtriviale Linearkombination entsprechend erklart. Fur eine Familie schreiben wir haufig (xi)i$I ;dabei kann die Indexmenge I endlich, abzahlbar–unendlich oder uberabzahlbar–unendlich sein.

3.2 Definition

Ist A = (xi)i$I eine beliebige Familie von Vektoren xi aus V # VRK , so bezeichnen wir dendurch alle Linearkombinationen von A erzeugten Untervektorraum mit <A> . Ein solches Aheißt dann ein Erzeugendensystem von <A>, und <A> selbst heißt der von A aufgespannteUnterraum10.Ein V # VRK heißt endlich erzeugt, falls es eine endliche Teilmenge A + V gibt mit V = <A>.Ist A = {x1, x2, . . . , xr} , so schreiben wir auch <x1, x2, . . . , xr> statt11 <A> .Ist A = ! , so sei <!> := {0} = <0> .

3.3 Bemerkungen

(i) Ist V # VRK , so gilt wegen x = 1 · x fur alle x # V stets: A +<A> .

(ii) Eine Teilmenge ! $= A + V # VRK ist genau dann ein Untervektorraum von V , wennA = <A> gilt.

(iii) Fur A + B + V gilt stets: <A> +<B>

(iv) Fur alle A + V # VRK gilt:

<A> ='{U | U ist Untervektorraum von V mit A + U } =: A! .

9Zum Begri! der Familie siehe Abschnitt 1.4.1 aus [12].10An Stelle von <A> benutzt man auch die Bezeichnung span(A) fur den Aufspann von A .11Entsprechend schreibt man fur <x1, x2, . . . , xr> oftmals span(x1, x2, . . . , xr) .

Page 13: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 3. LINEARE ABHANGIGKEIT, BASIS, DIMENSION 13

Beweis zu Bemerkung 3.3:

zu (i): ist klar. !

zu (ii):

”'“: Ist A ein Unterraum von V , so ist jede Linearkombination von Elementen aus Awieder in A enthalten, d. h.: <A> + A . Mit (i) folgt also: A = <A> .

”(“: Wegen <A> # VRK ist sofort auch A # VRK .

zu (iii): ist ebenfalls klar. !

zu (iv): Ist U ein beliebiger Unterraum von V mit A + U , so liefert (iii): <A> + <U> .Und (ii) ergibt: <A> + U , woraus <A> + A! folgt. Andererseits ist <A> einUnterraum von V mit A +<A> , also gilt auch: A! +<A> . Zusammen folgt daraus:<A> = A! .

"

3.4 Definition

Eine endliche Familie (xi)i=1,2,...,n von Vektoren xi aus V # VRK heißt linear unabhangig,wenn sich der Nullvektor nur als triviale Linearkombination durch die x1, x2, . . . , xn darstellenlaßt, d. h. wenn aus

n,i=1

$i xi = 0 mit $i # K stets folgt: $i = 0 fur alle i = 1, 2, . . . , n .

Eine beliebige Familie (xi)i$I von Vektoren xi aus V heißt linear unabhangig, wenn jede endlicheTeilfamilie linear unabhangig ist.Ist eine Familie von Vektoren nicht linear unabhangig, so heißt sie linear abhangig.

3.5 Satz

Es sei V # VRK und (xi)i=1,2,...,n eine endliche Familie von Vektoren xi # V . Dann sindfolgende Aussagen aquivalent:

a) (xi)i=1,2,...,n ist linear unabhangig.

b) Jeder Vektor x #<x1, x2, . . . , xn> besitzt eine eindeutige Darstellung x =n,

i=1$i xi mit

$i # K fur 1 , i , n .

Beweis:

”a) ' b)“: Ein x # <x1, x2, . . . , xn> besitze zwei Darstellungen x =n,

i=1$i xi =

n,i=1

%i xi mit

$i, %i # K ; dann folgt:n,

i=1($i ) %i) xi = 0 . Wegen der linearen Unabhangigkeit von

(xi)i=1,2,...,n ergibt sich hieraus: $i ) %i = 0 oder $i = %i fur alle i = 1, 2, . . . , n .

Page 14: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

14 KAPITEL I. VEKTORRAUME

”b) ' a)“: Angenommen, (x1, x2, . . . , xn) wurde eine linear abhangige Familie bilden, d. h. es gilt:n,

i=1$i xi = 0, wobei nicht fur alle i = 1, 2, . . . , n die $i = 0 waren. Wegen der Eindeutigkeit

der Darstellung aller x #<x1, x2, . . . , xn> ist dies jedoch ein Widerspruch zu:n,

i=10 ·xi =

0 . Also kann (xi)1%i%n nur linear unabhangig sein.

"

3.6 Definition

Es sei V # VRK und (xi)i$I eine Familie von Vektoren xi # V . (xi)i$I heißt eine Basis von V ,wenn (xi)i$I linear unabhangig ist und <(xi)i$I> = V gilt, wenn also zugleich V von (xi)i$I

aufgespannt wird.Ist I eine endliche Menge, so heißt die exakte Anzahl der Elemente von I die Lange der Basis,kurz: |I| . Ist I unendlich, so spricht man von einer Basis unendlicher Lange : |I| = / .

3.7 Beispiel

Im Vektorraum Kn definieren wir fur jedes i = 1, 2, . . . , n den i-ten kanonischen Einheitsvektorals Zeilenvektor

ei := (0, 0, . . . , 0, 1, 0, 0, . . . , 0) ,

wobei jeweils die 1 # K an der i-ten Stelle stehe. Dann sind alle kanonischen Einheitsvektorene1, e2, . . . , en linear unabhangig. Denn: Sind namlich $1, $2, . . . ,$n # K mit

n*

i=1

$i ei = 0 = (0, 0, . . . , 0) ,

so bedeutet dies wegen $1 e1 + $2 e2 + . . . + $n en = ($1, $2, . . . ,$n) sofort: $1 = $2 = . . .. . . = $n = 0 . Ferner gilt fur jedes v # Kn , etwa v = ($1, $2, . . . ,$n) mit $i # K dieDarstellung:

v = $1 e1 + $2 e2 + . . . + $n en .

Also gilt: Kn = <e1, e2, . . . , en> , und damit ist (ei)i=1,2,...,n eine Basis des Vektorraumes Kn.Diese Basis heißt die kanonische Basis des Kn. Dies ist nicht jedoch die einzige Basis des Kn .Im IR3 bilden zum Beispiel die Vektoren

a1 = (1, 1, 0) , a2 = (1, 0, 1) , a3 = (0, 1, 1)

ebenfalls eine Basis des IR3 . Ist aber etwa K nur ein Korper mit genau vier Elementen (vgl.Ubungsaufgabe 1–13), so sind a1, a2, a3 im K3 linear abhangig wegen x+x = 0 fur alle x # K .

3.8 Lemma (Austauschlemma)

Es sei V # VRK mit der Basis (vi)i=1,2,...,n ; ferner sei ein w # V gegeben mit

w =n*

i=1

#i vi .

Gilt dann #k $= 0 fur ein k # {1, 2, . . . , n} , so bilden auch die Vektoren v1, v2, . . . , vk"1, w, vk+1,vk+2, . . . , vn eine Basis von V .

Page 15: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 3. LINEARE ABHANGIGKEIT, BASIS, DIMENSION 15

Beweis zu Lemma 3.8:

Durch eventuelle Umnumerierung konnen wir ohne Beschrankung der Allgemeinheit k = 1voraussetzen. Es ist also zu zeigen, daß (w, v2, v3, . . . , vn) eine Basis von V ist. Zum Beweis der

linearen Unabhangigkeit gehen wir von $ w+n,

i=2$i vi = 0 mit $,$2, $3, . . . ,$n # K aus. Durch

Einsetzen der Linearkombination von w erhalten wir: $#1 v1 +n,

i=2($#i + $i) vi = 0 . Die lineare

Unabhangigkeit von (v1, v2, . . . , vn) liefert: $#1 = 0 und $#i + $i = 0 fur alle i = 2, 3, . . . , n .Wegen #1 $= 0 ist $ = 0 und damit: $2 = $3 = . . . = $n = 0 . Also sind w, v2, v3, . . . , vn linearunabhangig.

Wir zeigen nun, daß sich jedes x # V als Linearkombination der Familie (w, v2, v3, . . . , vn)

darstellen laßt: Ist x # V , so gilt: x =n,

i=1%i vi mit %i # K . Wegen #1 $= 0 liefert die

Voraussetzung: v1 = 1!1

(w )n,

i=2#i vi) , und daraus folgt:

x = %1

- 1#1

!w )

n*

i=2

#i vi

".+

n*

i=2

%i vi =%1

#1w +

n*

i=2

!%i )

%1

#1#i

"vi .

"

3.9 Satz (Austauschsatz von Steinitz12)

Es seien V # VRK und (vi)i=1,2,...,n eine Basis von V sowie w1, w2, . . . , wk linear unabhangigeVektoren aus V . Dann gilt: k , n , und es gibt Indizes i1, i2, . . . , ik # {1, 2, . . . , n} derart, daßnach Austausch von vi1 gegen w1 , von vi2 gegen w2 , . . . usw. und von vik gegen wk wieder eineBasis von V entsteht. Numeriert man so um, daß i1 = 1, i2 = 2, . . . , ik = k ist, dann bedeutetdie obige Aussage, daß (w1, w2, . . . , wk, vk+1, vk+2, . . . , vn) wieder eine Basis von V bildet.

Beweis:

Wir fuhren den Beweis durch vollstandige Induktion nach k .

Der Induktionsanfang k = 1 liefert fur w1 $= 0 die Darstellung w1 =n,

i=1$i vi mit $i # K , wobei

nicht alle $i = 0 sind, d. h. mindestens eines von Null verschieden ist. Ohne Einschrankung sei$1 $= 0 ; dann ergibt das Austauschlemma 3.8, daß (w, v2, v3, . . . , vn) eine Basis von V ist.Induktionsvoraussetzung: Der Satz sei bewiesen fur ein k & 1 .Induktionsschluß: Sei (w1, w2, . . . , wk+1) linear unabhangig; dann sind auch w1, w2, . . . , wk linearunabhangig. Nach Induktionsvoraussetzung ist k , n , und nach geeigneter Numerierung bildenw1, w2, . . . , wk, vk+1, vk+2, . . . , vn eine Basis von V . Wir zeigen nun, daß k < n gilt. (Warek = n , also (w1, w2, . . . , wk) eine Basis von V , so ließe sich wk+1 als Linearkombination vonw1, w2, . . . , wk darstellen im Widerspruch zur linearen Unabhangigkeit der w1, w2, . . . , wk+1.)Daher gilt: k < n , also: k + 1 , n . Da (w1, w2, . . . , wk, vk+1, vk+2, . . . , vn) eine Basis von V ist,

gilt weiter: wk+1 =k,

i=1#i wi +

n,

i=k+1#i vi . (0)

12Ernst Steinitz, deutscher Mathematiker (!13.06.1871, †29.09.1928)

Page 16: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

16 KAPITEL I. VEKTORRAUME

Dann existiert ein i # {k + 1, k + 2, . . . , n} mit #i $= 0 . (Denn: Ware #k+1 = #k+2 = . . .. . . = #n = 0 , so wurde (0) der linearen Unabhangigkeit von (w1, w2, . . . , wk+1) widersprechen.)Ohne Beschrankung der Allgemeinheit sei #k+1 $= 0. Schließlich folgt aus Lemma 3.8, daß durch(w1, w2, . . . , wk, wk+1, vk+2, vk+3, . . . , vn) eine Basis von V angegeben wird.

"

3.10 Korollar

a) Besitzt V # VRK eine Basis endlicher Lange, so hat jede Basis von V endliche Lange.

b) Je zwei Basen endlicher Lange eines Vektorraumes V # VRK haben stets die gleicheLange.

Beweis:

zu a): Es sei (v1, v2, . . . , vn) eine Basis endlicher Lange und (wi)i$I eine beliebige Basis vonV . Ware nun I nicht endlich, so gabe es Indizes i1, i2, . . . , in, in+1 # I derart, daßwi1 , wi2 , . . . , win , win+1 linear unabhangig sind. Das widerspricht jedoch dem Austausch-satz 3.9. Also muß gelten: |I| < / .

zu b): Sind (v1, v2, . . . , vn) und (w1, w2, . . . , wm) zwei Basen von V , so liefert Satz 3.9 zweimalangewandt: m , n und n , m , also: m = n .

"

3.11 Definition

Ist V # VRK ein K–Vektorraum, so definieren wir:

dimK V :=

/01

02

0 , falls V = {0} ist.n , falls V eine Basis der Lange n # IN# besitzt./ , falls V keine Basis endlicher Lange besitzt.

dimK V (oder kurz: dimV ) heißt die Dimension von V (uber K ). In den ersten beiden Fallenheißt V endlich–dimensional , sonst unendlich–dimensional .

3.12 Satz

Jeder Vektorraum besitzt eine Basis.

Beweis:

Die Behauptung wird auf folgenden allgemeinen Basis–Erganzungssatz zuruckgefuhrt:

Ist (vi)i$I eine linear unabhangige Familie in einem Vektorraum V # VRK , danngibt es eine Basis (vi)i$J von V , welche die Familie (vi)i$I als Teilfamilie enthalt.

Diese Aussage wird mit Hilfe des Zorn’schen13 Lemmas bewiesen. Ist V endlich erzeugt, so laßtsich ein Beweis ohne Zorn’sches Lemma angeben, wie der nachste Satz zeigt. (")

13Max August Zorn, deutsch–amerikanischer Mathematiker (!06.06.1906, †09.03.1993)

Page 17: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 3. LINEARE ABHANGIGKEIT, BASIS, DIMENSION 17

3.13 Satz (Basis–Erganzungssatz)

Es sei {0} $= V # VRK endlich erzeugt. Sind w1, w2, . . . , wk aus V linear unabhangig, dann istentweder (w1, w2, . . . , wk) bereits eine Basis von V , oder es gibt Elemente wk+1, wk+2, . . . , wn

aus V derart, daß (w1, w2, . . . , wn) eine Basis von V ist.

Beweis:

Es sei V = <v1, v2, . . . , vm> ; wir zeigen zuerst, daß k , m gilt. Dazu beweisen wir durchvollstandige Induktion nach r # {1, 2, . . . ,m} : Sind w1, w2, . . . , wm, wm+1 linear unabhangig, sogilt: V = <w1, w2, . . . , wr, vr+1, vr+2, . . . , vm> .

Induktionsanfang r = 1 : Wegen w1 $= 0 und w1 =m,

i=1$i vi mit $i # K existiert mindestens

ein Index i # {1, 2, . . . ,m} mit $i $= 0 . Ohne Einschrankung sei dies $1 $= 0 , dann ist

v1 =1$1

-w1 )

m*

i=2

$i vi

.;

also: v1 # U := <w1, v2, v3, . . . , vm> und damit: U = V .Induktionsvoraussetzung fur ein r # {1, 2, . . . ,m) 1} :

V = <w1, w2, . . . , wr, vr+1, vr+2, . . . , vm> . (0)Induktionsschluß von r auf r + 1 : Wegen (0) existieren %1, %2, . . . ,%r, &r+1, &r+2, . . . , &m # Kmit

wr+1 =r*

i=1

%i wi +m*

i=r+1

&i vi .

Da w1, w2, . . . , wm+1 linear unabhangig sind, gibt es ein i # {r + 1, r + 2, . . . ,m} mit &i $= 0 .Ohne Beschrankung der Allgemeinheit sei &r+1 $= 0 . Wie im Induktionsanfang folgt:

vr+1 #<w1, w2, . . . , wr, wr+1, vr+2, vr+3, . . . , vm>und damit: V = <w1, w2, . . . , wr+1, vr+2, . . . , vm> .

Speziell fur r = m erhalten wir: V = <w1, w2, . . . , wm> und dadurch mit wm+1 =m,

i=1#i wi

einen Widerspruch zur linearen Unabhangigkeit von (w1, w2, . . . , wm, wm+1) . Also gilt gewiß dieBehauptung: k , m .

Nun zum eigentlichen Beweis des Satzes:Haben wir: V = <w1, w2, . . . , wk> , so bleibt nichts zu zeigen. Gilt dagegen:

U := <w1, w2, . . . , wk> +%=

V ,

so existiert ein Vektor wk+1 # V mit wk+1 /# U . Dann sind w1, w2, . . . , wk, wk+1 linear un-

abhangig. (Denn: Waren w1, w2, . . . , wk+1 linear abhangig, etwa:k+1,i=1

$i wi = 0 und nicht alle

$i = 0 , so folgte: $k+1 $= 0 und damit: wk+1 = ) 1"k+1

k,i=1

$i wi # U im Widerspruch zu obiger

Aussage wk+1 /# U .)Ist jetzt <w1, w2, . . . , wk, wk+1> = V , so sind wir fertig; sonst setzen wir das Verfahren fort.Und dieses Verfahren bricht schließlich ab, denn nach unserer Voruberlegung sind m+1 Elementeaus V stets linear abhangig. "

Page 18: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

18 KAPITEL I. VEKTORRAUME

3.14 Bemerkung

Die Lineare Algebra beschaftigt sich im wesentlichen mit endlich–dimensionalen Vektorrau-men. Deshalb haben wir auf den vollstandigen Beweis von Satz 3.12 verzichtet. Ist namlichV # VRK unendlich–dimensional, so stellt sich haufig die Frage nach unendlichen Linearkom-binationen. Dafur benotigt man einen eigenen Konvergenzbegriff, der Untersuchungsgegenstandsogenannter topologischer Vektorraume ist.

3.15 Beispiele

a) Nach Beispiel 3.7 ist dimK Kn = n .

b) Es ist dimQ Q = dimIR IR = dimC C = 1 .

c) Es ist dimIR C = 2 , denn (1, 0) und (0, 1) bilden eine Basis von C . (Nach Beispiel 1.11c)gilt fur jedes z = (a, b) # C der Zusammenhang: z = a (1, 0)+ b (0, 1) mit a, b # IR . Alsogilt: C = <(1, 0) , (0, 1)> . Ferner sind (1, 0) und (0, 1) auch linear unabhangig.)

d) Es ist dimQ IR = / . (Der Beweis folgt spater; siehe Beispiel 72.5c) in Algebra II.)

3.16 Bemerkungen

Es sei V # VRK mit dimK V = n < / .

(i) Sind v1, v2, . . . , vn # V linear unabhangig, dann ist (v1, v2, . . . , vn) eine Basis von V .

(ii) Ist W ein Unterraum von V , so gelten die Aussagen:

(a) dimK W , dimK V .

(b) dimK W = dimK V ' W = V .

Beweis:

zu (i): ist die Aussage von Satz 3.9 fur k = n . !

zu (ii): Gilt: W = {0} , so ist nichts zu zeigen. Gilt: W $= {0} und w1 # W \{0} , so laßt sich (w1)zu einer Basis (w1, w2, . . . , wm) von W erganzen mit m , n (vgl. Beweis zu Satz 3.13).Daraus folgt Aussage (a). Ist m = n , so bilden w1, w2, . . . , wm nach Teil (i) eine Basis vonV , woraus (b) folgt.

"

3.17 Bemerkung

Ist V # VRK mit dimK V = / , so ist die Aussage (b) aus Bemerkung 3.16(ii) im allgemeinennicht mehr gultig.

Page 19: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 4. SUMMEN UND DIREKTE SUMMEN 19

§ 4 Summen und direkte Summen

In Satz 2.6 haben wir gezeigt, daß der Durchschnitt von Unterraumen U1, U2 eines VektorraumesV # VRK wieder ein Untervektorraum ist. Fur die Vereinigung von Unterraumen ist das imallgemeinen nicht richtig! Zum Beispiel sind (die ”Koordinatenachsen“)

U1 := {(x, 0) | x # IR} und U2 := {(0, y) | y # IR}

zwar fur sich Unterraume des IR2 , aber (das ”Koordinatenkreuz“) U1 1 U2 ist kein Unterraumdes IR2 ; denn mit (1, 0) # U1 und (0, 1) # U2 folgt: (1, 0) + (0, 1) = (1, 1) /# U1 1 U2 imWiderspruch zu (UV2).

4.1 Definition

Sind U1 und U2 zwei Untervektorraume von V # VRK , so heißt

U1 + U2 := {u1 + u2 | u1 # U1 , u2 # U2}

die Summe (oder der Summenraum) von U1 und U2.

4.2 Bemerkungen

(i) U1 + U2 ist ein Untervektorraum von V .

(ii) Es ist stets U1 + U2 = U2 + U1 = <U1 1 U2> .

Beweis:

zu (i): ist klar. !

zu (ii): Die eine Behauptung U1 + U2 + <U1 1 U2> ist ebenfalls klar. Fur die umgekehrteInklusion sei w # <U1 1 U2> ; dann existieren #1, #2, . . . ,#k, µ1, µ2, . . . , µl # K undvi1 # U1 , vj2 # U2 mit

w =k*

i=1

#i vi1 +l*

j=1

µj vj2 # U1 + U2 .

" Wir berechnen nun im endlichen Fall dimK V = n < / die Dimension der Summe.

4.3 Satz (Dimensionsformel)

Ist V # VRK endlich–dimensional, und sind V1, V2 zwei Untervektorraume von V , so gilt:

dimK(V1 + V2) = dimK V1 + dimK V2 ) dimK(V1 . V2) .

Page 20: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

20 KAPITEL I. VEKTORRAUME

Beweis zu Satz 4.3:

Es sei V1 . V2 $= {0} und (v1, v2, . . . , vn) eine Basis von V1 . V2 . Nach dem Basis–Erganzungs-satz 3.13 existieren Vektoren w11, w12, . . . , w1k # V1 und w21, w22, . . . , w2l # V2 derart, daßv1, v2, . . . , vn, w11, w12, . . . , w1k eine Basis von V1 und v1, v2, . . . , vn, w21, w22, . . . , w2l eine Ba-sis von V2 bilden. Wir zeigen gleich, daß (v1, v2, . . . , vn, w11, w12, . . . , w1k, w21, w22, . . . , w2l) eineBasis von V1 + V2 ist; denn dann folgt die Behauptung aus:

dim (V1 + V2) = n + k + l = (n + k) + (n + l)) n

= dim V1 + dim V2 ) dim (V1 . V2) .

Diese Argumentation gilt auch im Fall: V1 . V2 = {0} , d. h. fur n = 0 .

Zum Beweis der linearen Unabhangigkeit der vermuteten Basis von V1 + V2 sei

n*

i=1

$i vi +k*

i=1

#i w1i +l*

j=1

µj w2j = 0 ;

wir setzen zur Abkurzung v :=n,

i=1$i vi +

k,i=1

#i w1i , dann ist v # V1 . Daraus folgt ferner:

v = )l,

j=1µj w2j # V2 , d. h.: v # V1 . V2 . Damit existieren Skalare %1, %2, . . . ,%n # K

mit v =n,

i=1%i vi . Und Satz 3.5 liefert die Eindeutigkeit aller auftretenden Koeffizienten, also:

$1 = %1, $2 = %2, . . . ,$n = %n und #1 = #2 = . . . = #k = 0. Wegen der linearen Unabhangigkeitvon (v1, v2, . . . , vn, w21, w22, . . . , w2l) folgt damit auch: $1 = $2 = . . . = $n = 0 sowieµ1 = µ2 = . . . = µl = 0 .Es bleibt noch zu zeigen: V1 +V2 = <v1, v2, . . . , vn, w11, w12, . . . , w1k, w21, w22, . . . , w2l> =: W .

Ist dazu w # W , etwa w =n,

i=1$i vi +

k,i=1

#i w1i +l,

j=1µj w2j , so gilt mit den Abkurzungen

x :=n,

i=1$i vi +

k,i=1

#i w1i # V1 und y :=l,

j=1µj w2j # V2 sofort: w = x + y . Also ist die eine

Richtung W + V1 + V2 gezeigt.Umgekehrt sei w # V1 + V2 , d. h.: w = x + y mit x # V1 und y # V2 ; dann existieren

$1, $2, . . . ,$n , %1, %2, . . . ,%n , #1, #2, . . . ,#k , µ1, µ2, . . . , µl # K mit x =n,

i=1$i vi +

k,i=1

#i w1i

und y =n,

i=1%i vi +

l,j=1

µj w2j , also:

w = x + y =n*

i=1

($i + %i) vi +k*

i=1

#i w1i +l*

j=1

µj w2j # W .

Damit ist V1 + V2 + W . Und insgesamt gilt: V1 + V2 = W . "

4.4 Definition

Es sei V # VRK ein beliebiger Vektorraum (nicht notwendig endlich–dimensional) mit zweiUntervektorraumen V1 und V2 . Die Summe V1 + V2 heißt direkt, falls V1 . V2 = {0} gilt.Wir schreiben dann: V1 2 V2 statt V1 + V2 .

Page 21: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 4. SUMMEN UND DIREKTE SUMMEN 21

4.5 Bemerkungen

(i) Die Summe V1 + V2 ist genau dann direkt, wenn sich jedes v # V1 + V2 eindeutig alsSumme von v1 # V1 und v2 # V2 darstellen laßt.

(ii) Sind V1, V2, V3 Unterraume von V # VRK , so gilt: (V1 + V2) + V3 = V1 + (V2 + V3) ;ist dabei (V1 2 V2)2 V3 oder V1 2 (V2 2 V3) definiert, so stimmen beide Terme uberein.

Beweis:

zu (i):

”'“: Sei v = v1 + v2 = v1! + v2

! mit v1, v1! # V1 und v2, v2

! # V2 . Dann istv1 ) v1

! = v2! ) v2 # V1 . V2 , also gilt: v1 = v1

! und v2 = v2! wegen V1 . V2 = {0} .

”(“: Angenommen, es existierte ein v # V1 . V2 mit v $= 0 ; dann galte:0 = 0 + 0 = v ) v . Also besaße der Nullvektor 0 in V1 + V2 zwei verschiedeneDarstellungen im Widerspruch zur Voraussetzung.

zu (ii): Der erste Teil der Behauptung ist klar; der zweite Teil folgt mit (i). !

"

4.6 Satz

Es sei V # VRK und V1 ein Untervektorraum von V ; dann gibt es einen Untervektorraum V2

von V mit V = V1 2 V2 .

Beweis:

Es sei (vi)i$J eine Basis von V1 . Nach dem allgemeinen Basis–Erganzungssatz gibt es eine Basis(vi)i$I von V mit J + I . Betrachten wir nun V2 := <(vi)i$I\J> , so ist V = V1 2 V2 . "

4.7 Definition

Ist V # VRK und V = V1 2 V2 mit zwei Untervektorraumen V1 und V2 , so heißt V2 ein zu V1

komplementarer Unterraum, oder V1 und V2 heißen komplementare Unterraume.

4.8 Bemerkungen

(i) Ist V2 ein zu V1 komplementarer Unterraum, so ist V2 nicht eindeutig bestimmt.

(ii) Ist (Vi)i$I eine Familie von Unterraumen von V , so sei,i$I

Vi := < 3i$I

Vi> ,

genannt die Summe der Unterraume Vi. Im endlichen Fall I = {1, 2, . . . , n} schreiben wirauch: V1 + V2 + . . . + Vn .Die Summe heißt direkt, wenn fur jedes i # I gilt: Vi .

,

j$I\{i}Vj = {0} .

Dann schreibt man:4i$I

Vi anstatt,i$I

Vi .

Page 22: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

22 KAPITEL I. VEKTORRAUME

Beweis zu Bemerkung 4.8(i):

Ist etwa V = IR2 , V1 = {(x, 0) | x # IR} und V2 = {(0, y) | y # IR} , so ist V = V12 V2 . Es giltaber auch: V = V1 2 {(x,)x) | x # IR} wegen (x, y) = (x + y , 0) + ()y, y) . "

§ 5 Affine Unterraume

5.1 Definition

Gegeben seien V # VRK und eine Teilmenge X + V . X heißt ein a!ner Unterraum von V ,wenn es einen Vektor v # V und einen Untervektorraum W von V gibt mit

X = v + W , wobei v + W := {v + w | w # W} ist.

Die leere Menge ! wollen wir auch einen affinen Unterraum (von V ) nennen.

5.2 Beispiele

a) Die Teilmenge X = {(x, 1) | x # IR} ist ein affiner Unterraum des IR2 , denn es istX = (0, 1) + {(x, 0) | x # IR} .

b) Und X = {(x + 1 , y + 2 , 3) | x, y # IR} ist ein affiner Unterraum des IR3 wegenX = (1, 2, 3) + {(x, y, 0) | x, y # IR} .

5.3 Bemerkungen

(i) Ist X = v+W ein affiner Unterraum von V # VRK und v! # X , so gilt auch: X = v!+W .

(ii) Ist X = v + W ein affiner Unterraum von V # VRK , v! # V und W ! ein Teilraum vonV mit v + W = v! + W ! , so folgt: W = W ! und v! ) v # W .

Beweis:

zu (i): Ist v! = v + w! mit w! # W , so gelten die Inklusionen:

zu (a): X + v! + W .zu (b): v! + W + X .

zu (a): Ist x # X , etwa x = v + w mit w # W , so folgt:x = v! + (v + w ) v!) = v! + (w ) w!) # v! + W .

zu (b): Ist x # v! + W , d. h.: x = v! + w mit w # W , dann gilt:x = v + v! + w ) v = v + (v! ) v + w) = v + (w + w!) # v + W = X .

Also ist insgesamt: v! + W = X .

zu (ii): Es sei X )X := {x) x! | x, x! # X} die Menge der Differenzen; dann gilt: X )X = Wund X ) X = W ! , also: W = W ! . Und wegen v + W = v! + W ergibt sich weiter:v! = v + w mit einem w # W , also ist auch v! ) v = w # W .

"

Page 23: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 5. AFFINE UNTERRAUME 23

5.4 Definition

Ist X = v +W ein affiner Unterraum eines K–Vektorraumes V , dann heißt die naturliche ZahldimK X := dimK W die Dimension von X.Ist dimK X = 0 , so sprechen wir von einem Punkt in V ; ist dimK X = 1 , so nennen wir Xeine Gerade in V ; ist dimK X = 2 , so heißt X eine Ebene in V .Ist V endlich–dimensional, und gilt: dimK X = dimK V )1 , dann sprechen wir bei X von einerHyperebene in V .

Zwei affine Unterraume Xi = vi + Wi mit i = 1, 2 von V # VRK heißen parallel , wenn W1

ein Untervektorraum von W2 ist, oder wenn W2 ein Untervektorraum von W1 ist.

5.5 Satz

Es sei K ein Korper, in dem 1 + 1 $= 0 gilt. Eine beliebige Teilmenge X $= ! eines K–Vektor-raumes V ist genau dann ein affiner Unterraum von V , wenn fur alle x, y # X und alle # # Kgilt:

# x + (1) #) y = y + # (x) y) # X .

Beweis:

”'“: Ist X = v + W und sind x = v + w sowie y = v + w! aus X , so folgt:

# x + (1) #) y = v + w! + # (w ) w!) # v + W = X .

”(“: Wir definieren fur ein festes x0 # X die Menge W := X ) x0 = {x ) x0 | x # X} undzeigen, daß W ein Untervektorraum von V ist. Wegen 0 # W ist W $= ! . Ferner gilt furbeliebige # # K und w = x) x0 # W :

# w(")= # (x) x0) = x0 + # (x) x0)# $% &

$X

)x0 # X ) x0 = W .

Sei nun noch w! := x! ) x0 # W . Wir wahlen c := 1 + 1 aus K ; wegen c $= 0 existiertc"1 = 1

c , und es ist 1c + 1

c = 1 . Damit folgt:

w + w! = c ·!1

c(x) x0) +

1c

(x! ) x0)"

= c ·!1

c(x + x!)) 1

c(1 + 1) x0

"

= c ·! 1

cx +

1c

x!

# $% &$X

)x0

"# c ·W

(")+ W .

Also ist X ) x0 = W + V ein Untervektorraum und somit x0 + W = X ein affinerUnterraum von V .

"

Page 24: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

Kapitel II

Matrizen und lineareGleichungssysteme

§ 6 Matrizen

6.1 Definition

Gegeben seien ein Korper K (oder allgemeiner: ein kommutativer Ring mit 1 $= 0 ) sowiekonstante Großen m, n # IN# . Ein rechteckiges Schema der Gestalt

A := ($ij)1%i%m1%j%n

= ($ij) :=

5

6666667

$11 $12 $13 · · · $1n

$21 $22 $23 · · · $2n

$31 $32 $33 · · · $3n...

......

...$m1 $m2 $m3 · · · $mn

8

999999:

mit $ij # K heißt eine (m% n)-Matrix uber K oder eine Matrix mit m Zeilen und n Spalten.Ein Element $ij # K nennt man Eintrag der Matrix A zum Zeilenindex i und Spaltenindex j.Statt Eintrag sagen wir auch Koe!zient von A. Ferner sei

Ai := ($i1, $i2, . . . ,$in) fur 1 , i , m

der i-te Zeilenvektor von A und

Aj :=

5

66667

$1j

$2j...

$mj

8

9999:fur 1 , j , n

der j-te Spaltenvektor von A.Generell heißt eine (1 % n)-Matrix ein Zeilenvektor und eine (m % 1)-Matrix ein Spaltenvektor.Die (1 % n)-Matrizen konnen mit den Elementen von Kn identifiziert werden, also speziell die(1% 1)-Matrizen mit den skalaren Korper- bzw. Ringelementen.Zwei Matrizen A = ($ij) und B = (%kl) heißen gleich — wir schreiben: A = B —, wenn Aund B beide (m% n)-Matrizen sind mit $ij = %ij fur jedes 1 , i , m und jedes 1 , j , n .Die Menge aller (m% n)-Matrizen uber K bezeichnen wir mit Mat(m, n;K) .

24

Page 25: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 6. MATRIZEN 25

6.2 Satz

Ist K ein Korper, so bildet die Menge Mat(m, n;K) zusammen mit der Matrizenaddition

+ : Mat(m, n;K)%Mat(m, n;K) ! Mat(m, n;K) , (A, B) "! A + B := ($ij + %ij)1%i%m1%j%n

und der Skalarmultiplikation

· : K %Mat(m, n;K) ! Mat(m, n;K) , (#, A) "! # ·A = # A := (# $ij)1%i%m1%j%n

fur alle A = ($ij) , B = (%ij) und # # K einen K–Vektorraum mit der sogenanntenNullmatrix

0 :=

5

66667

0 0 · · · 00 0 · · · 0...

......

0 0 · · · 0

8

9999:# Mat(m, n;K)

als Nullvektor.

Beweis:

Fur Mat(m, n;K) sind die beiden Vektorraumaxiome (V1) und (V2) sicherzustellen. (")

6.3 Definition

Ist A = ($ij) # Mat(m, n;K) , so heißt die (n%m)-Matrix

At := ($jit) 1%j%n

1%i%m

mit $jit := $ij die zu A transponierte Matrix.

6.4 Satz

Die Transposition t : Mat(m, n;K) ! Mat(n, m;K) , t(A) := At ist bijektiv mit (At)t = Afur alle A # Mat(m, n;K) . Ferner gilt fur alle A, B # Mat(m, n;K) und alle #, µ # K :

(# A + µB)t = # At + µBt .

(Dies gilt auch, wenn K nur ein kommutativer Ring mit 1 $= 0 ist und wenn dabei Additionund Skalarmultiplikation wie in Satz 6.2 definiert sind.)

Beweis:

Ubung. (")

6.5 Satz

Der Vektorraum (Mat(m, n;K),+, · ) hat die Dimension m · n .

Page 26: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

26 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Beweis zu Satz 6.5:

Wir definieren eine kanonische Basis durch die Matrizen Ekl fur 1 , k , m und 1 , l , n mit

Ekl = ('(k,l)ij )1%i%m

1%j%nund '(k,l)

ij :=;

1 , falls i = k und j = l .0 sonst.

Dann gilt fur A = ($ij) # Mat(m, n;K) :

A =

5

66667

$11 0 · · · 00 0 · · · 0...

......

0 0 · · · 0

8

9999:+

5

66667

0 $12 · · · $1n

$21 $22 · · · $2n...

......

$m1 $m2 · · · $mn

8

9999:

= $11 · E11 + $12 · E12 + . . . + $1n · E1n + $21 · E21 + $22 · E22 + . . . + $mn · Emn

=m*

i=1

n*

j=1

$ij Eij .

Ferner sind E11, E12, . . . , Emn linear unabhangig. Also gilt: dimK Mat(m, n;K) = m · n . "

6.6 Definition

Sind A = ($ij) # Mat(m, n;K) und B = (%jk) # Mat(n, p;K) Matrizen, so heißt die MatrixC = (&ik) # Mat(m, p;K) mit

&ik :=n*

j=1

$ij %jk fur 1 , i , m und 1 , k , p

das Matrixprodukt von A und B ; wir schreiben: C = A ·B .Ist speziell m = 1 und p = 1 , so heißt die (1% 1)-Matrix

A ·B = ($11, $12, . . . ,$1n) ·

5

66667

%11

%21...

%n1

8

9999:

auch das Skalarprodukt des Zeilenvektors A mit dem Spaltenvektor B.In derselben Situation heißt die (n% n)-Matrix B ·A das dyadische Produkt von A und B.

6.7 Bemerkungen

(i) Es ist &ik = Ai ·Bk das Skalarprodukt des Zeilenvektors Ai mit dem Spaltenvektor Bk .

(ii) Fur A, A! # Mat(m, n;K) , B, B! # Mat(n, p;K) , # # K und C # Mat(p, q;K) geltendie folgenden Distributivgesetze:

A · (B + B!) = A ·B + A ·B! und(A + A!) ·B = A ·B + A! ·B .

Page 27: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 6. MATRIZEN 27

Ferner sind die folgenden Assoziativgesetze fur das Matrixprodukt bzw. die Skalarmulti-plikation gultig:

A · (# B) = (# A) ·B = # (A ·B) ,A · (B · C) = (A ·B) · C .

Außerdem gilt fur die Transposition:

(A ·B)t = Bt ·At .

Beweis zu Bemerkung 6.7(ii):

Ist A = ($ij) und B = (%jk) , dann gilt:

(A ·B)t = (&kit) 1%k%p

1%i%mmit &ki

t = &ik =n*

j=1

$ij %jk sowie

Bt ·At = ('ki) 1%k%p1%i%m

mit 'ki =n*

j=1

%kjt $ji

t =n*

j=1

%jk $ij = &kit ,

d. h.: (A ·B)t = Bt ·At .Die anderen Gesetze ergeben sich aufgrund der entsprechenden Regeln in K . ! "

6.8 Definition

Fur m = n ist Mat(n, n;K) der K–Vektorraum der quadratischen (n% n)-Matrizen.Das n-Tupel ($11, $22, . . . ,$nn) einer quadratischen Matrix A = ($ij)1%i,j%n heißt die Haupt-

diagonale von A, und sp(A) :=n*

i=1

$ii nennt man die Spur von A.

Ist dabei A = At , so heißt A symmetrisch ; gilt nur: A = )At , so nennt man A schiefsymme-trisch.Ist $ij = 0 fur alle i $= j , so heißt A eine Diagonalmatrix. Speziell mit $ii = 1 fur jedes1 , i , n und sonst $ij = 0 erhalten wir die (n% n)-Einheitsmatrix

En :=

5

6666667

1 0 0 · · · 00 1 0 · · · 00 0 1 . . . ......

... . . . . . . 00 0 · · · 0 1

8

999999:.

Eine quadratische Matrix A # Mat(n, n;K) heißt regular (oder invertierbar), falls eine quadra-tische Matrix A! # Mat(n, n;K) existiert mit A · A! = A! · A = En . Ist A nicht regular, sonennen wir A singular (oder nicht–invertierbar).Die Menge aller regularen Matrizen aus Mat(n, n;K) bezeichnen wir mit GL(n;K) .

6.9 Bemerkung

Die Menge Mat(n, n;K) besitzt mit den Verknupfungen + und · aus Satz 6.2 und der Matrizen–Multiplikation aus Definition 6.6, d. h. mit ((A, B) := A ·B , folgende Eigenschaften:

Page 28: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

28 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

(1) (Mat(n, n;K),+, · ) ist ein K–Vektorraum der Dimension n2 .

(2) (Mat(n, n;K),+, () ist ein Ring mit Einselement. (Dabei braucht K nur ein kommutativerRing mit 1 $= 0 zu sein.)

(3) Dieser Ring (Mat(n, n;K),+, () ist fur n & 2 nicht kommutativ.

Beweis zu Bemerkung 6.9:

zu (1): ist ein Spezialfall von Satz 6.5. !

zu (2): Die Axiome (R1) – (R3) fur einen Ring sind nach (1) bzw. Bemerkung 6.7(ii) erfullt.Mit En · A = A · En = A gemaß Bemerkung 6.7(i) hat man als Einselement sofort die(n% n)-Einheitsmatrix.

zu (3): Ist n & 2 , so betrachten wir als Gegenbeispiel die kanonischen Matrizen E12 und E11 ausdem Beweis zu Satz 6.5 (fur m = n ); dann gilt: E12 ·E11 = 0 und E11 ·E12 = E12 , also:E12 · E11 $= E11 · E12 .

"

6.10 Definition

Man sagt, (Mat(n, n;K),+, · , () bilde eine Algebra uber K (mit Einselement), weil gilt:

(1) (Mat(n, n;K),+, · ) ist ein K–Vektorraum.

(2) (Mat(n, n;K),+, () ist ein Ring (mit Einselement).

(3) Es ist # (A ·B) = (# A) ·B = A · (# B) fur alle # # K und A, B # Mat(n, n;K) .

6.11 Satz

(a) Das Paar (GL(n;K), () bildet eine Gruppe, die sogenannte allgemeine lineare Gruppe14.Das neutrale Element ist die Einheitsmatrix En . Statt A! schreiben fur das inverse Elementvon A # GL(n;K) in Zukunft stets: A"1 .

(b) Fur alle A, B # GL(n;K) gilt: (A ·B)"1 = B"1 ·A"1 .

(c) Mit A # GL(n;K) ist auch At # GL(n;K) , und es gilt: (At)"1 = (A"1)t .

(d) Fur alle A # GL(n;K) gilt: (A"1)"1 = A .

14Engl.: general linear group

Page 29: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 7. LINEARE GLEICHUNGSSYSTEME 29

Beweis zu Satz 6.11:

zu (a) & (b): Sind A, B # Mat(n, n;K) regular, so existieren Inversen A!, B! # Mat(n, n;K) mitA ·A! = A! ·A = En und B ·B! = B! ·B = En . Das Assoziativgesetz liefert dann:

(A ·B) · (B! ·A!) = A · ((B ·B!) ·A!) = A · (En ·A!) = A ·A! = En

und entsprechend:(B! ·A!) · (A ·B) = En ;

also ist auch A ·B regular mit (A ·B)"1 = B"1 ·A"1 . Daher ist ( eine Verknupfung aufGL(n;K) , welche die Axiome (G1) – (G3) erfullt.

zu (c): Aus A ·A"1 = A"1 ·A = En folgt gemaß Bemerkung 6.7(ii):

(A"1)t ·At = At · (A"1)t = Ent = En .

Also ist At # GL(n;K) mit (At)"1 = (A"1)t .

zu (d): (A"1)"1 = A ergibt sich dann als Spezialfall aus Bemerkung 1.3(v).

"

6.12 Bemerkung

Fur A # GL(n;K) und # # K \ {0} ist auch # A # GL(n;K) mit (# A)"1 = 1! A"1 .

Beweis:

Nach Bemerkung 6.7(ii) gilt: (# A) · ( 1! A"1) = ( 1

! A"1) · (# A) = ( 1! #) (A ·A"1) = En . "

§ 7 Lineare Gleichungssysteme

7.1 Definition

Vorgegeben seien eine feste Matrix A := ($ij) # Mat(m, n;K) und ein fester Spaltenvektorb := (%1, %2, . . . ,%m)t # Km . (Zur Abkurzung bezeichnen wir kunftig Mat(m, 1;K) mit Km

und entsprechend Mat(n, 1;K) mit Kn .) Dann heißt ein Schema

$11 x1 + $12 x2 + . . . + $1n xn = %1

$21 x1 + $22 x2 + . . . + $2n xn = %2...

......

...$m1 x1 + $m2 x2 + . . . + $mn xn = %m

ein lineares Gleichungssystem mit der Koe!zientenmatrix A, der rechten Seite b und denVariablen (oder Unbestimmten) x1, x2, . . . , xn # K . Setzt man x := (x1, x2, . . . , xn)t , so laßtsich das lineare Gleichungssystem in der Form

A · x = b

Page 30: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

30 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

schreiben. Ein Spaltenvektor x # Kn heißt Losung des linearen Gleichungssystems, falls er dieGleichung A · x = b erfullt.Das lineare Gleichungssystem A · x = b heißt homogen, falls die rechte Seite b = 0 # Km ist;sonst heißt das lineare Gleichungssystem inhomogen. A · x = 0 heißt dann das zu A · x = bgehorige homogene lineare Gleichungssystem.

7.2 Bemerkung

Ein lineares Gleichungssystem A · x = b laßt sich auch in der Form

(0) x1 ·A1 + x2 ·A2 + . . . + xn ·An = b

mit den Spalten Aj # Km aus A schreiben. Die Frage der Losbarkeit von A · x = b istalso aquivalent zur Frage der Darstellbarkeit der rechten Seite b als Linearkombination vonA1, A2, . . . , An . Es stellen sich daher die folgenden Fragen:

(A) Losbarkeit, d. h. unter welchen Bedingungen an A1, A2, . . . , An und b gibt es ein x # Kn ,das die Gleichung (0) erfullt?

(B) Universelle Losbarkeit, d. h. unter welchen Voraussetzungen an A1, A2, . . . , An ist (0) los-bar fur alle moglichen rechten Seiten b # Km ?

(C) Berechnung aller Losungen von (0), falls (0) uberhaupt losbar ist.

(D) Eindeutige Losbarkeit von (0).

Bevor wir uns den Fragen (A) – (D) zuwenden, wollen wir den Zusammenhang zwischen denLosungen des Gleichungssystems A · x = b und denen des zugehorigen homogenen Systemsherstellen.

7.3 Satz

Es sei A # Mat(m, n;K) . Dann gilt:

a) Die LosungsmengeW := {x # Kn |A · x = 0}

des homogenen linearen Gleichungssystems ist ein Untervektorraum von (Kn,+, ·) . Insbe-sondere ist stets 0 # W , genannt die triviale Losung.

b) Ist b # Km die rechte Seite, so ist die Losungsmenge

X := {x # Kn |A · x = b}

des inhomogenen linearen Gleichungssytems entweder leer oder ein affiner Unterraum von(Kn,+, ·) der Form y + W ; hierbei ist y # Kn eine spezielle Losung von A · x = b undW der in a) definierte Losungsraum des zugehorigen homogenen Systems.

Page 31: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 7. LINEARE GLEICHUNGSSYSTEME 31

Beweis zu Satz 7.3:

zu a): Wegen 0 # W ist W $= ! . Mit w1, w2 # W ist auch w1 + w2 # W und # w1 # W furbeliebige # # K wegen

A · (w1 + w2) = A · w1 + A · w2 = 0 + 0 = 0und A · (# w1) = # (A · w1) = # · 0 = 0 .

zu b): Ist X $= ! , so existiert ein y # X , d. h. es gibt ein y # Kn mit A · y = b .Ist nun x # X beliebig, so betrachte man w := x) y ; dann gilt:

A · w = A · (x) y) = A · x)A · y = b) b = 0 ,

also: w # W , d. h.: x = y + w # y + W .Ist umgekehrt x # y + W , d. h. x = y + w mit A · w = 0 , so folgt:

A · x = A · (y + w) = A · y + A · w = b + 0 = b ,

also: x # X .

"

7.4 Definition

Ist A # Mat(m, n;K) , und sind A1, A2, . . . , An # Km die Spaltenvektoren von A , so heißt

rg(A) := dimK <A1, A2, . . . , An>

der Rang von A. Ist weiter b = (%1, %2, . . . ,%m)t # Km und A = ($ij) , dann nennt man

(A | b) :=

5

66667

$11 $12 · · · $1n %1

$21 $22 · · · $2n %2...

......

...$m1 $m2 · · · $mn %m

8

9999:= (A1, A2, . . . , An, b) # Mat(m , n + 1 ; K)

die erweiterte Matrix (oder Systemmatrix ) des linearen Gleichungssystems A · x = b .

7.5 Satz (Losbarkeit)

Fur A # Mat(m, n;K) und b # Km sind folgende Aussagen aquivalent:

a) Das lineare Gleichungssystem A · x = b ist losbar.

b) Es ist b #<A1, A2, . . . , An> .

c) Es gilt: rg(A) = rg(A | b) .

Page 32: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

32 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Beweis zu Satz 7.5:

”a) 3 b)“: a) und b) sind aquivalent nach Bemerkung 7.2. !

”b) ' c)“: Es gilt:rg(A | b) = dimK <A1, A2, . . . , An, b>

b)= dimK <A1, A2, . . . , An> = rg(A) .

”c) ' b)“: Es ist W1 := <A1, A2, . . . , An> ein Unterraum von W2 := <A1, A2, . . . , An, b> . NachVoraussetzung gilt: dimK W1 = dimK W2 , also gemaß Bemerkung 3.16(ii): W1 = W2 .

"

7.6 Satz

Ist A # Mat(m, n;K) , so gilt fur den Losungsraum W := {x # Kn | A · x = 0} die Dimensi-onsformel :

dimK W = n) rg(A) .

Beweis:

Ist W = {0} , so besitzt A · x = 0 nur die triviale Losung x = 0 ; also sind A1, A2, . . . , An

linear unabhangig, d. h. es gilt: dimK <A1, A2, . . . , An> = n = rg(A) .Ist W $= {0} , so sei (w1, w2, . . . , wk) mit k , n eine Basis von W ; wir erganzen sie (nachSatz 3.13) zu einer Basis von Kn durch (wk+1, wk+2, . . . , wn) . Dann sind die Spaltenvektoren

A · wk+1 , A · wk+2 , . . . , A · wn linear unabhangig. (Ist namlich:n,

i=k+1$i A · wi = 0 , d. h.:

A ·! n,

i=k+1$i wi

"= 0 , so bedeutet dies:

n,

i=k+1$i wi # W , also:

n,

i=k+1$i wi = 0 . Und wegen der

linearen Unabhangigkeit aller wk+1, wk+2, . . . , wn folgt daraus: $k+1 = $k+2 = . . . = $n = 0 .)Also ist dimK <A · wk+1, A · wk+2, . . . , A · wn> = n ) k . Fur jedes x # Kn gilt nun mitgeeigneten $i # K :

A · x =n*

i=1

xi ·Ai = A ·! n*

i=1

$i wi

"=

= A ·! k*

i=1

$i wi +n*

i=k+1

$i wi

"=

=k*

i=1

$i A · wi

# $% &= 0

+n*

i=k+1

$i A · wi =n*

i=k+1

$i A · wi

# <A · wk+1, A · wk+2, . . . , A · wn> .

Damit gilt: <A1, A2, . . . , An> = <A · wk+1, A · wk+2, . . . , A · wn> , also stimmen auch dieDimensionen uberein: dimK <A1, A2, . . . , An> = rg(A) = n) k . "

Page 33: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 7. LINEARE GLEICHUNGSSYSTEME 33

7.7 Satz (Universelle Losbarkeit)

Fur A # Mat(m, n;K) sind folgende Aussagen aquivalent:

a) Das lineare Gleichungssystem A · x = b ist universell losbar.

b) Es gilt: rg(A) = m .

Beweis:

Nach Satz 7.5 ist die universelle Losbarkeit aquivalent zu b #<A1, A2, . . . , An> fur alle rechtenSeiten b # Km , d. h. zu Km = <A1, A2, . . . , An> oder zur Bedingung:rg(A) = dimK <A1, A2, . . . , An> = dimK Km = m . "

7.8 Satz (Eindeutige Losbarkeit)

Sind A # Mat(m, n;K) und b # Km derart vorgegeben, daß A · x = b losbar ist, so sindfolgende Aussagen aquivalent:

a) A · x = b ist eindeutig losbar.

b) Es gilt: rg(A) = n .

c) Das zugehorige homogene Gleichungssystem besitzt nur die triviale Losung x = 0 .

Beweis:

”a) 3 c)“: siehe Satz 7.3. !

”b) 3 c)“: folgt sofort aus der Dimensionsformel in Satz 7.6. !"

7.9 Satz

Fur eine quadratische Matrix A # Mat(n, n;K) sind folgende Aussagen aquivalent:

a) A · x = b ist fur jedes b # Kn losbar.

b) A · x = b ist fur ein b # Kn eindeutig losbar.

c) A · x = 0 besitzt nur die triviale Losung x = 0 .

d) A · x = b ist fur jedes b # Kn eindeutig losbar.

e) A ist regular.

Ist dies der Fall, so erhalten wir die Losung durch: x = A"1 · b .

Page 34: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

34 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Beweis zu Satz 7.9:

Die Aquivalenz der Aussagen a) – d) ergibt sich aufgrund der bereits bewiesenen Satze. !Es bleibt nur zu zeigen, daß die Eigenschaften a) – d) zu e) aquivalent sind:

”d)' e)“: Wir betrachten fur alle i = 1, 2, . . . , n die linearen Gleichungssysteme A · x = eit

(vgl. Beispiel 3.7). Zu jedem i # {1, 2, . . . , n} existiert nach Voraussetzung genau einLosungsvektor Xi := (x(i)

1 , x(i)2 , . . . , x(i)

n )t # Kn mit A · Xi = eit . Damit bilden wir die

Matrix A! := (X1, X2 . . . , Xn) # Mat(n, n;K) ; es gilt also: A · A! = En . Es bleibt nochzu zeigen, daß A! · A = En gilt. Dazu beweisen wir, daß rg(A!) = n ist. (Angenommen,es ware rg(A!) < n , etwa: dimK <X1, X2, . . . ,Xn> = m < n . Sei nun (w1, w2, . . . , wm)eine Basis von <X1, X2, . . . ,Xn> . Dann gilt fur jedes x # Kn :

A! · x =m*

i=1

$i wi woraus folgt: A ·A! · x = A ·! m*

i=1

$i wi

"=

m*

i=1

$i A · wi .

Dies bedeutet aber: rg(A ·A!) < n im Widerspruch zu: rg(A ·A!) = rg(En) = n .)Und Satz 7.7 liefert mit Satz 7.8 die universelle eindeutige Losbarkeit des linearen Glei-chungssystems A! · x = b . Nach unseren bisherigen Uberlegungen existiert also einA!! # Mat(n, n;K) mit A! ·A!! = En . Daraus folgt schließlich:

A!! = En ·A!! = (A ·A!) ·A!! = A · (A! ·A!!) = A · En = A .

”e)' c)“: Sei x # Kn eine Losung von A · x = 0 ; dann folgt:

x = En · x = (A"1 ·A) · x = A"1 · (A · x) = A"1 · 0 = 0 .

"

7.10 Korollar

Fur eine quadratische Matrix A # Mat(n, n;K) sind folgende Aussagen aquivalent:

a) A ist regular.

b) Es gilt: rg(A) = n .

c) Die Zeilenvektoren A1, A2, . . . , An von A sind linear unabhangig.

Beweis:

Die Aussagen a) und b) sind nach Satz 7.9 aquivalent. !

”a)' c)“: Angenommen, es existierte eine Linearkombination $1 A1+$2 A2+ . . .+$n An = 0 , wobeinicht alle $i = 0 sind. Das wurde dann fur A = ($ij) bedeuten:

5

66667

$11 $21 · · · $n1

$12 $22 · · · $n2...

......

$1n $2n · · · $nn

8

9999:·

5

66667

$1

$2...

$n

8

9999:=

5

66667

00...0

8

9999:(' At ·

5

66667

$1

$2...

$n

8

9999:= 0 .

Also besaße das homogene Gleichungssystem At · x = 0 eine nicht–triviale Losung. UndSatz 7.9 lieferte, daß At singular ware im Widerspruch zu Satz 6.11(c).

Page 35: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 8. ELEMENTARE UMFORMUNGEN UND ELEMENTARMATRIZEN 35

”c)' a)“: Sind A1, A2, . . . , An linear unabhangig, so besitzt das homogene lineare GleichungssystemAt · x = 0 nur die triviale Losung x = 0 . Daher ist At nach Satz 7.9 regular, was mit(At)t = A und Satz 6.11(c) die Regularitat von A impliziert.

"

7.11 Definition

Ist A # Mat(m, n;K) eine Matrix, so heißt dimK <A1, A2, . . . , Am> der Zeilenrang von A;wir schreiben dafur auch: Zrg(A) .

§ 8 Elementare Umformungen und Elementarmatrizen

Wir wollen uns nun der Losung eines linearen Gleichungssystems A · x = b zuwenden. Zuerstuberlegen wir uns, welche Veranderungen des Systems keine Anderung der Losungsmenge nachsich ziehen.

8.1 Hilfssatz

Ist A # Mat(m, n;K) und b # Km , so bleibt die Losungsmenge von A · x = b invariant unterfolgenden Operationen:

(EZ1) Multiplikation einer Gleichung mit einem Skalar # # K# := K \ {0} .

(EZ2) Addition einer Gleichung $i1 x1 + $i2 x2 + . . . + $in xn = %i zu einer anderen Gleichung$j1 x1 + $j2 x2 + . . . + $jn xn = %j mit j $= i .

(EZ3) Vertauschen zweier Gleichungen.

Beweis:

Ubung. (")

8.2 Bemerkungen

(i) In der Koeffizientenmatrix entsprechen die elementaren Zeilenumformungen (EZ1) – (EZ3)aus Hilfssatz 8.1 folgenden Umformungen:

(EZ1) entspricht der Multiplikation einer Zeile von A mit # # K# .

(EZ2) entspricht der Addition von Ai zu Aj fur i $= j .

(EZ3) entspricht der Vertauschung von Ai mit Aj (fur i $= j ).

(ii) (EZ3) ergibt sich durch wiederholte Anwendung von (EZ1) und (EZ2).

Page 36: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

36 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Beweis zu Bemerkung 8.2(ii):

Die Behauptung erhalt man aus folgendem Schema:<

Ai

Aj

=(EZ1))!

<Ai

)Aj

=(EZ2))!

<Ai

Ai )Aj

=(EZ1))!

<Ai

Aj )Ai

=(EZ2))!

(EZ2))!<

Ai + (Aj )Ai)Aj )Ai

=

=<

Aj

Aj )Ai

=(EZ1))!

<Aj

Ai )Aj

=(EZ2))!

<Aj

Ai

=

.

"

8.3 Definition

Fur m # IN# , 1 , i, j , m mit i $= j und # # K# definieren wir die folgenden Matrizen ausdem Ring Mat(m, m;K) :

Si(#) :=

5

666667

1 . . . 01#

10 . . .

1

8

99999:4 i-te Zeile

5i-te Spalte

, Qji :=

5

6666667

1 . . . 01 1. . .

10 . . .

1

8

999999:

4 i-te Zeile

5j-te Spalte

und P ji :=

5

666666666667

1 . . . 010 1

1 . . . 11 0

10 . . .

1

8

99999999999:

4 i-te Zeile

4 j-te Zeile

5i-te Spalte

5j-te Spalte

.

Außer den eingetragenen oder durch Punkte angedeuteten Koeffizienten sollen hierbei alle an-deren Koeffizienten gleich Null sein. Diese Matrizen Si(#) , Qj

i und P ji fur alle 1 , i, j , m

heißen Elementarmatrizen.

8.4 Bemerkungen

(i) Entsteht AI , AII bzw. AIII aus A durch diejenigen Zeilenumformungen, die den Opera-tionen (EZ1), (EZ2) bzw. (EZ3) gemaß Bemerkung 8.2(i) entsprechen, so gilt:

AI = Si(#) ·A ,

AII = Qij ·A

und AIII = P ji ·A .

(ii) Entsprechend den Uberlegungen zu Bemerkung 8.2(ii) gilt:

P ji = Qi

j · Sj()1) ·Qji · Sj()1) ·Qi

j · Sj()1) .

Page 37: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 8. ELEMENTARE UMFORMUNGEN UND ELEMENTARMATRIZEN 37

(iii) Die Multiplikation mit Sj( 1!) · Qj

i · Sj(#) von links an A entspricht der Addition des#-fachen der j-ten Zeile von A zur i-ten Zeile von A .

8.5 Lemma

Die Elementarmatrizen Si(#) , Qji und P j

i aus Definition 8.3 sind invertierbar, und ihre Inversensind wieder Elementarmatrizen. Genauer gilt:

(Si(#))"1 = Si( 1!) fur # # K# ,

(Qji )"1 = Sj()1) ·Qj

i · Sj()1) (fur i $= j )und (P j

i )"1 = P ji .

Beweis:

Multiplikation der rechten Seite der Behauptung mit Si(#) , Qji bzw. mit P j

i ergibt jeweils dieEinheitsmatrix; z. B. gilt:

Qji · Sj()1) =

5

666666667

1 . . . 01 )1. . .

1)1

10 . . .

1

8

99999999:

4 i-te Zeile

4 j-te Zeile

5j-te Spalte

,

also: Sj()1) ·Qji · Sj()1) =

5

6666667

1 . . . 01 )1. . .

10 . . .

1

8

999999:

4 i-te Zeile

5j-te Spalte

und damit:Qj

i · Sj()1) ·Qji · Sj()1) = Sj()1) ·Qj

i · Sj()1) ·Qji = Em .

"

8.6 Bemerkungen

(i) Es gilt: Qji = Em+Eij und Si(#) = Em+(#)1) Eii mit den kanonischen (m%m)-Matrizen

aus dem Beweis zu Satz 6.5.

(ii) Merkregel: Multiplikation von links mit Elementarmatrizenbewirkt elementare Zeilenumformungen.

Page 38: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

38 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

(iii) Sind Si(#), Qji , P

ji # GL(n;K) , und entsteht jeweils

AI aus A durch Multiplikation der i-ten Spalte von A mit # # K# ,AII aus A durch Addition der i-ten Spalte zur j-ten Spalte von A sowieAIII aus A durch Vertauschen der i-ten und j-ten Spalte aus A , so gilt:

AI = A · Si(#) ,

AII = A ·Qji

und AIII = A · P ji .

Merkregel: Multiplikation von rechts mit Elementarmatrizenbewirkt elementare Spaltenumformungen.

(iv) Sind B1, B2, . . . , Bs"1, Bs # GL(m;K) gewisse Elementarmatrizen, und gilt fur eine Ma-trix A # GL(m;K) der Zusammenhang: Bs · Bs"1 · . . . · B2 · B1 · A = Em , dann istA"1 = Bs ·Bs"1 · . . . ·B2 ·B1 .

Wie verhalt sich nun der Rang einer Matrix bei elementaren Zeilenumformungen? — Dazu zeigenwir:

8.7 Lemma

Sind w1, w2, . . . , wµ # Km linear unabhangig, und ist R # GL(m;K) , so sind auch die Spal-tenvektoren R · w1 , R · w2 , . . . , R · wµ linear unabhangig.

Beweis:

Es seiµ,

i=1$i R · wi = 0 mit $1, $2, . . . ,$µ # K ; dann folgt:

R ·! µ*

i=1

$i wi

"= 0 , also auch:

µ*

i=1

$i wi = R"1 ·R ·! µ*

i=1

$i wi

"= R"1 · 0 = 0 .

Und die lineare Unabhangigkeit von (w1, w2, . . . , wµ) ergibt: $i = 0 fur alle 1 , i , µ . "

8.8 Satz

Ist A # Mat(m, n;K) und entsteht >A aus A durch elementare Zeilenumformungen, so gilt stets:rg( >A ) = rg(A) .

Beweis:

Nach Bemerkung 8.4 und Lemma 8.5 gilt: >A = R · A mit R # GL(m;K) . Ist rg(A) = µ und(w1, w2, . . . , wµ) eine Basis von <A1, A2, . . . , An> , so gilt fur jedes x # Kn mit geeigneten$i # K :

(R ·A) · x = R · (A · x) = R ·! µ*

i=1

$i wi

"=

µ*

i=1

$i R · wi .

Page 39: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 9. DER GAUSS–ALGORITHMUS 39

Die lineare Unabhangigkeit von (R · w1, R · w2, . . . , R · wµ) nach Lemma 8.7 liefert dann die

Behauptung: rg(R ·A) = µ . (Denn die Annahme: (R ·A) ·x =#,

j=1%j vj mit linear unabhangigen

v1, v2, . . . , v# und ) < µ ergabe: A · x =#,

j=1%j R"1 · vj , d. h.: rg(A) , ) im Widerspruch zur

Voraussetzung rg(A) = µ .) "

§ 9 Der Gauß–Algorithmus

Im folgenden finden wir eine konkrete Antwort auf die noch offene Frage (C) aus Bemerkung 7.2.

Besonders leicht ist eine Losung des linearen Gleichungssystems A · x = b anzugeben, wenn dieKoeffizienten $ij = 0 sind fur alle j < i . Zum Beispiel erhalten wir bei

5

671 2 30 4 50 0 6

8

9: ·

5

67x1

x2

x3

8

9: =

5

67696

8

9:

aus der letzten Gleichung sofort: x3 = 1 und damit aus der vorletzten Gleichung:4 x2 = 9) 5 x3 = 4 (' x2 = 1 . Das liefert schließlich: x1 = 6) 2 x2 ) 3 x3 = 1 .

Ein solches Vorgehen nennt man Rucksubstitution.

Unser Ziel ist es jetzt, allgemein eine derartige ”Dreiecksform“ der Koeffizientenmatrix A = ($ij)durch elementare Zeilenumformungen zu erreichen.

9.1 Hilfssatz

Ist A # Mat(m, n;K) und $11 $= 0 , so laßt sich das lineare Gleichungssystem A · x = b (mitb # Km ) durch elementare Zeilenumformungen, angewandt auf die erweiterte Matrix (A | b) , inein lineares Gleichungssystem >A · x = >b mit

>A =

5

6666667

$11 $12 $13 · · · $1n

0 >$22 >$23 · · · >$2n

0 >$32 >$33 · · · >$3n...

......

...0 >$m2 >$m3 · · · >$mn

8

999999:und

5

6666667

%1>%2>%3...

>%m

8

999999:= >b

umwandeln. Hierbei erhalten wir >A und >b durch die erste Stufe des Gauß–Algorithmus :

>$ij := $ij )$i1

$11$1j 6j=1,2,3,...,n

>%i := %i )$i1

$11%1

?00@

00Afur alle i = 2, 3, . . . ,m .

Page 40: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

40 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

9.2 Bemerkung

In Matrixschreibweise haben wir also:

>A =

5

666666666666667

A1

A2 ) $21

$11A1

A3 ) $31

$11A1

...

Am ) $m1

$11A1

8

99999999999999:

und >b =

5

666666666666667

%1

%2 )$21

$11%1

%3 )$31

$11%1

...

%m )$m1

$11%1

8

99999999999999:

.

9.3 Hilfssatz

Ist A # Mat(m, n;K) und A1 $= 0 , so kann A · x = b durch Vertauschung zweier Gleichungenin ein System >A · x = >b mit >$11 $= 0 umgewandelt werden.

9.4 Hilfssatz

Ist A # Mat(m, n;K) nicht die Nullmatrix, so kann das lineare Gleichungssystem A·x = b durchUmnumerierung der Variablen stets in ein aquivalentes Gleichungssystem >A · >x = b mit >A1 $= 0umgewandelt werden. Dabei ist >xi := x$(i) fur jedes i = 1, 2, . . . , n mit einer Permutation* # Sn (vgl. Beispiel 1.6d).

9.5 Satz

Es seien A # Mat(m, n;K) mit A $= 0 und b # Km vorgegeben.

a) Das lineare Gleichungssystem A · x = b laßt sich durch elementare Zeilenumformungenund eventuell notwendige Umnumerierung der Variablen in die Gestalt >A · >x = >b mit

>A =

5

66667

>$11 >$12 · · · >$1n

0... B0

8

9999:, >b =

5

6667

>%1

c

8

999:

sowie B # Mat(m) 1, n) 1;K) , c # Km"1 und >$11 $= 0 umwandeln.

b) Im Fall m & 2 ist das System >A · >x = >b (und damit A · x = b ) genau dann losbar, wenndas ”kleinere“ lineare Gleichungssystem B ·y = c losbar ist. Im Falle der Losbarkeit erhaltman dann die Losungen von A · x = b aus den Losungen von B · y = c . Ferner gilt:

rg(A) = rg( >A ) = rg(B) + 1 und rg(A | b) = rg( >A | >b ) = rg(B | c) + 1 .

Page 41: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 9. DER GAUSS–ALGORITHMUS 41

Beweis zu Satz 9.5:

zu a): folgt unmittelbar aus den Hilfssatzen 9.4, 9.3 und 9.1. !zu b): Ist >A · >x = >b losbar, so auch B · y = c .

Ist umgekehrt B · y = c losbar, dann ergibt sich aus der ersten Zeile von >A :

>x1 = >%1 )! >$12

>$11y1 +

>$13

>$11y2 + . . . +

>$1n

>$11yn"1

".

Damit ist >A · >x = >b losbar, also auch A ·x = b . Da >A aus A zunachst durch eventuelleSpaltenvertauschungen (was per Definition 7.4 den Rang nicht andert) und danndurch elementare Zeilenumformungen hervorgeht, was nach Satz 8.8 den Rang nichtandert, ist rg( >A ) = rg(A) . Ebenso ergibt sich: rg(A | b) = rg( >A | >b ) .Nun gilt:

n*

i=1

>xi · >Ai =n*

i=1

>xi ·

5

66667

>$1i

0...0

8

9999:+

n*

j=2

>xj ·

5

6667

0

Bj"1

8

999:

=n*

i=1

>xi >$1i ·

5

66667

10...0

8

9999:+

n*

j=2

>xj ·

5

6667

0

Bj"1

8

999: ,

wobei >Ai die i-te Spalte von >A mit 1 , i , n und Bj"1 die (j)1)-te Spalte von Bmit 2 , j , n bezeichnet. Ist etwa rg(B) = µ und (w1, w2, . . . , wµ) eine Basis von

<B1, B2, . . . , Bn"1> im Km"1 , so bilden die Vektoren<

0w1

=

,

<0w2

=

, . . . ,

<0

=

eine

Basis von <<

0B1

=

,

<0

B2

=

, . . . ,

<0

Bn"1

=

> . Dann sind die Vektoren

5

710...0

8

: ,

<0w1

=

, . . .

. . . ,

<0

=

linear unabhangig im Km und bilden eine Basis von <5

710...0

8

: ,

<0w1

=

, . . .

. . . ,

<0

=

> . Also gilt: rg( >A ) = rg(B) + 1 . Entsprechend folgt die zweite Behaup-

tung: rg( >A | >b ) = rg(B | c) + 1 .

"

9.6 Satz

Es seien A # Mat(m, n;K) und b # Km .

a) Das lineare Gleichungssystem A · x = b laßt sich durch elementare Zeilenumformungenund Umnumerierung der Variablen auf die Form >A · >x = >b bringen mit >A # Mat(m, n;K)und >b # Km , wobei gilt:

Page 42: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

42 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

>A =

5

666666666667

>$11 >$12 >$13 · · · >$1n

>$22 >$23 · · · >$2n. . . . . . ...0

>$µµ >$µ,µ+1 · · · >$µn

0

8

99999999999:

B

m" µ Zeilen

,

>b =

5

6666666667

>%1...>%µ

c

8

999999999:

B

m" µ Komponenten

und >$ii $= 0 fur alle i = 1, 2, . . . , µ .

b) Es gilt: rg(A) = rg( >A ) = µ .

c) A · x = b ist genau dann losbar, wenn µ = m gilt oder c # Km"µ der Nullvektor ist.

d) Im Fall µ = n besitzt A · x = b hochstens eine Losung.

Beweis zu Satz 9.6:

zu a): Ist A die Nullmatrix, so erhalten wir die Behauptung mit µ = 0 . Gilt: A $= 0 , soliefert Satz 9.5 das aquivalente System >A · >x = >b . Ist B = 0 , dann erhalten wir dieBehauptung mit µ = 1 . Im Fall B $= 0 wenden wir Satz 9.5 auf B an und erhaltenso sukzessive fortfahrend die Behauptung.

zu b): Die Rangbedingung folgt direkt aus Satz 9.5. !zu c): Gemaß Satz 9.5 ist A · x = b genau dann losbar, wenn >A · >x = >b losbar ist. Nach

Satz 7.5 ist dies genau dann der Fall, wenn rg( >A ) = rg( >A | >b ) gilt. Mit Teil b) hatman: rg( >A | >b ) = µ und damit die Behauptung.

zu d): Ist µ = n , so ergibt sich die Matrix zu

>A =

5

66666667

>$11 0 0. . . 0

0 >$nn

0

8

9999999:

und die rechte Seite als >b =

5

66666667

>%1...>%n

c

8

9999999:

.

Ist c # Km"µ ungleich 0 , so ist A · x = b nicht losbar. Gilt: c = 0 , so ist A · x = baquivalent zu 5

67

>$11 0 0. . . 0

0 >$nn

8

9: ·

5

67>x1...

>xn

8

9: =

5

67

>%1...>%n

8

9:

mit >$ii $= 0 fur alle 1 , i , n . Und Satz 7.8 liefert die Behauptung."

Page 43: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 9. DER GAUSS–ALGORITHMUS 43

9.7 Der Gauß–Algorithmus

Aus Satz 9.6 ergibt sich ein Eliminationsverfahren, das am besten mittels folgendem Rechen-schema durchgefuhrt wird:

x1 x2 x3 · · · xn b

$11 $12 $13 · · · $1n %1

$21 $22 $23 · · · $2n %2

A ......

......

...

$m1 $m2 $m3 · · · $mn %m Zeilenvertauschung und/oder

Umindizierung zu $(0)11 $= 0x$(1) x$(2) x$(3) · · · x$(n) b(0)

$(0)11 $(0)

12 $(0)13 · · · $(0)

1n %(0)1

$(0)21 $(0)

22 $(0)23 · · · $(0)

2n %(0)2

A(0) ......

......

...

$(0)m1 $(0)

m2 $(0)m3 · · · $(0)

mn %(0)m

Elimination in der ersten Spaltex$(1) x$(2) x$(3) · · · x$(n)>b(1)

$(0)11 $(0)

12 $(0)13 · · · $(0)

1n %(0)1

0 >$(0)22 >$(0)

23 · · · >$(0)2n

>%(0)2

>A(1) ......

......

...

0 >$(0)m2 >$(0)

m3 · · · >$(0)mn

>%(0)m Zeilenvertauschung und/oder Umindizie-

rung der letzten m) 1 Zeilen zu $(1)22 $= 0x$(1) x%(2) x%(3) · · · x%(n) b(1)

$(0)11 $(1)

12 $(1)13 · · · $(1)

1n %(0)1

0 $(1)22 $(1)

23 · · · $(1)2n %(1)

2

A(1) ......

......

...

0 $(1)m2 $(1)

m3 · · · $(1)mn %(1)

m

Elimination in der zweiten Spaltex$(1) x%(2) x%(3) · · · x%(n)>b(2)

$(0)11 $(1)

12 $(1)13 · · · $(1)

1n %(0)1

0 $(1)22 $(1)

23 · · · $(1)2n %(1)

2

>A(2) 0 0 >$(1)33 · · · >$(1)

3n>%(1)3

......

......

...

0 0 >$(1)m3 · · · >$(1)

mn>%(1)m und so weiter . . .

Page 44: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

44 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Dabei bezeichne * # Sn eine Permutation auf {1, 2, 3, . . . , n} und + # Sn"1 eine Permutationauf {*(2), *(3), . . . ,*(n)} , so daß + # Sn"1 diejenige Permutation auf {2, 3, . . . , n} ist, welchedurch Einschrankung von + * * auf {2, 3, . . . , n} entsteht.

Nach µ Schritten dieses Verfahrens erhalt man dann ein Tableau:

x&(1) x&(2) x&(3) · · · x&(n)>b(µ)

$(0)11 $(1)

12 $(2)13 · · · $(µ"1)

1n %(0)1

0 $(1)22 $(2)

23 · · · $(µ"1)2n %(1)

2

0 0 $(2)33 · · · $(µ"1)

3n %(2)3

...... . . . . . . ...

...>A(µ)

0 0 · · · 0 $(µ"1)µµ · · · $(µ"1)

µn %(µ"1)µ

0 0 · · · 0 0 · · · 0 %(µ"1)µ+1

......

......

......

0 0 · · · 0 0 · · · 0 %(µ"1)m

in sogenannter Zeilenstufenform mit nicht–verschwindenden Koeffizienten $(0)11 , $(1)

22 , . . . ,$(µ"1)µµ

und einer Permutation , # Sn mit ,(1) = *(1) , ,(2) = +(2) , . . . usw. Ist dabei µ = m oder%(µ"1)

µ+1 = %(µ"1)µ+2 = . . . = %(µ"1)

m = 0 , so erhalt man eine Losung (x&(1), x&(2), . . . , x&(n)) durchRucksubstitution; andernfalls existiert keine Losung des Systems.

9.8 Beispiel

Gegeben sei das (reelle) lineare Gleichungssystem A · x = b durch:

x1 + 3 x2 ) 4 x3 + 3 x4 = 93 x1 + 9 x2 ) 2 x3 ) 11 x4 = )34 x1 + 12 x2 ) 6 x3 ) 8 x4 = 62 x1 + 6 x2 + 2 x3 ) 14 x4 = )12 .

Das Gauß’sche Losungsverfahren 9.7 liefert hier das folgende Schema:

x1 x2 x3 x4 b

1 3 )4 3 93 9 )2 )11 )3A = A(0)

4 12 )6 )8 62 6 2 )14 )12 Zeilenvertauschung oder Umindizierung

nicht notwendig wegen $(0)11 = 1 $= 0x1 x2 x3 x4

>b(1)

1 3 )4 3 90 0 10 )20 )30>A(1)

0 0 10 )20 )300 0 10 )20 )30 Wegen >$(0)

22 = 0 mußumindiziert werden

Page 45: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 9. DER GAUSS–ALGORITHMUS 45

x1 x3 x2 x4 b(1)

1 )4 3 3 90 10 0 )20 )30A(1)

0 10 0 )20 )300 10 0 )20 )30 Elimination in der

zweiten Spaltex1 x3 x2 x4

>b(2)

1 )4 3 3 90 10 0 )20 )30>A(2)

0 0 0 0 00 0 0 0 0

Hieraus ergibt sich: rg(A) = rg( >A(2)) = 2 , also nach Satz 7.6 fur den Losungsraum W deszugehorigen homogenen Systems: dimIR W = 4) 2 = 2 .Wie erhalt man nun zwei linear unabhangige Losungen aus W ? Durch Betrachtung zweierspezieller (y1, y2, y3, y4)t mit y3 = 1 , y4 = 0 bzw. y3 = 0 , y4 = 1 erhalten wir als linearunabhangige Losungen des homogenen Gleichungssystems >A(2) ·y = 0 die Vektoren ()3, 0, 1, 0)t

und (5, 2, 0, 1)t . Unter Berucksichtigung der Spaltenvertauschung ergibt das fur W :

W = <(5, 0, 2, 1)t , ()3, 1, 0, 0)t> .

Eine spezielle Losung des inhomogenen linearen Gleichungssystems >A(2) · y = >b(2) erhalt manals y = ()3,)3, 0, 0)t ; und damit lautet der Losungsraum von A · x = b :

X = ()3, 0,)3, 0)t + W .

Also laßt sich jedes x = (x1, x2, x3, x4)t # X in der Form

x = ()3, 0,)3, 0)t + # (5, 0, 2, 1, )t + ) ()3, 1, 0, 0)t

schreiben mit beliebigen Parametern #, ) # IR , d. h. die Losungen lauten:

x = ()3 + 5 #) 3 ) , ) , )3 + 2 # , #)t .

9.9 Bemerkungen

(i) Der Gauß–Algorithmus liefert ein numerisches Verfahren zur Berechnung des Ranges rg(A)einer Matrix A # Mat(m, n;K) .

(ii) Wenn >A aus A durch elementare Zeilenumformungen hervorgeht, gilt: Zrg(A) = Zrg( >A );nun ist aber: Zrg( >A ) = µ (falls >A die Form aus Satz 9.6 besitzt). Also gilt fur jedebeliebige Matrix A # Mat(m, n;K) :

rg(A) = Zrg(A) .

(Und Spaltenvertauschungen lassen diese Gleichheit unverandert.)

Page 46: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

46 KAPITEL II. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

(iii) Ist A # Mat(n, n;K) und µ = n , d. h.:

>A =

5

6667

>$11 >$12 · · · >$1n

0 >$22 · · · >$2n... . . . . . . ...0 · · · 0 >$nn

8

999: ,

so laßt sich >A durch elementare Zeilenumformungen auf die Form En bringen. Es gilt alsomit geeigneten Elementarmatrizen B1, B2, . . . , Bs"1, Bs # GL(n;K) :

Bs ·Bs"1 · . . . ·B2 ·B1 ·A = En (' A"1 = Bs ·Bs"1 · . . . ·B2 ·B1 · En .

9.10 Beispiel

Berechne die Inverse von

A =

5

670 1 )41 2 )11 1 2

8

9: .

Nach Bemerkung 9.9(iii) erhalten wir folgendes Schema, indem wir die elementaren Zeilenum-formungen, welche A letztlich zur Einheitsmatrix E3 transformieren, simultan auch auf dieMatrix E3 anwenden:

0 1 )4 1 0 0A 1 2 )1 0 1 0

1 1 2 0 0 1 / I # II1 2 )1 0 1 00 1 )4 1 0 01 1 2 0 0 1 / III) I1 2 )1 0 1 00 1 )4 1 0 00 )1 3 0 )1 1 / III + II1 2 )1 0 1 00 1 )4 1 0 00 0 )1 1 )1 1 / III · ()1)1 2 )1 0 1 00 1 )4 1 0 00 0 1 )1 1 )1 / I) 2 · II1 0 7 )2 1 00 1 )4 1 0 00 0 1 )1 1 )1 / I) 7 · III / II + 4 · III1 0 0 5 )6 7

E3 0 1 0 )3 4 )40 0 1 )1 1 )1

Also gilt:

A"1 =

5

675 )6 7

)3 4 )4)1 1 )1

8

9: .

Page 47: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

Kapitel III

Determinanten

Ziel in diesem Kapitel ist unter anderem die ”Beschreibung“ der Losung eines linearen Glei-chungssystems A ·x = b bei regularem A # Mat(n, n;K) mit Hilfe sogenannter Determinanten.

§ 10 Permutationen

Fur eine Permutation * # Sn = {! : {1, 2, . . . , n}! {1, 2, . . . , n} | ! ist bijektiv}(vgl. hierzu Beispiel 1.6d) schreiben wir auch:

* =<

1 2 3 · · · n*(1) *(2) *(3) · · · *(n)

=

oder kurz: * = (*(1) *(2) *(3) · · · *(n)) .

Fur zwei Permutationen *, + # Sn ist dann die Komposition erklart durch:

+ * * = (+(1) +(2) +(3) · · · +(n)) * (*(1) *(2) *(3) · · · *(n))= ( +(*(1)) +(*(2)) +(*(3)) · · · +(*(n)) ) .

So gilt zum Beispiel fur n = 3 :

(2 3 1) * (1 3 2) = (2 1 3) und (1 3 2) * (2 3 1) = (3 2 1) .

Insbesondere ist also die symmetrische Gruppe (Sn, *) fur n = 3 nicht abelsch.

10.1 Bemerkungen

(i) Die symmetrische Gruppe Sn enthalt genau n! = 1 · 2 · 3 · . . . · n Elemente.

(ii) S1 und S2 sind abelsch; und fur alle n & 3 ist Sn nicht abelsch.

Beweis:

zu (i): einfache Induktion nach n . !zu (ii): Es ist S1 = {id{1}} und S2 = {(1 2) , (2 1)} , also gilt:

(1 2) * (2 1) = (2 1) * (1 2) = (2 1) .Fur n & 3 betrachte etwa * := (1 3 2 4 5 6 · · · n) und + := (2 3 1 4 5 6 · · · n) ;dann ist

+ * * = (2 1 3 4 5 6 · · · n) $= (3 2 1 4 5 6 · · · n) = * * + .

"

47

Page 48: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

48 KAPITEL III. DETERMINANTEN

10.2 Definition

Eine Permutation + # Sn heißt eine Transposition, wenn + genau zwei Elemente aus {1, 2, . . . , n}vertauscht, d. h. wenn es Zahlen k, l # {1, 2, . . . , n} mit k $= l gibt derart, daß gilt:

(1) +(k) = l - +(l) = k .

(2) +(i) = i fur alle anderen i # {1, 2, . . . , n} \ {k, l} .

10.3 Satz

Ist n & 2 , so gibt es zu jedem * # Sn Transpositionen +1, +2, . . . , +k # Sn mit

* = +1 * +2 * . . . * +k .

Diese Transpositionen sind nicht eindeutig bestimmt.

Beweis:

Ist * = id{1,2,...,n} und + # Sn irgendeine Transposition, so gilt: id = + * +"1 = + * + .Ist * $= id . so gibt es ein i1 # {1, 2, . . . , n} mit *(i) = i fur alle i = 1, 2, . . . , i1 ) 1 und*(i1) $= i1 , also: *(i1) > i1 .Sei jetzt +1 diejenige Transposition, die i1 mit *(i1) vertauscht, und sei *1 := +1 * * . Dann ist*1(i) = i fur alle i = 1, 2, . . . , i1 . Entweder ist nun *1 = id , oder es gibt ein i2 mit i2 > i1 und*1(i) = i fur jedes i = 1, 2, . . . , i2)1 sowie *1(i2) > i2 . Entsprechend zum ersten Schritt erhaltman +2 und *2 mit *2 = +2 **1 = +2 * +1 ** . So fortfahrend ergeben sich k , n Transpositionen+1, +2, . . . , +k"1, +k # Sn mit *k = id und *k = +k * +k"1 * . . . * +2 * +1 * * = id , d. h.:

* = (+k * +k"1 * . . . * +2 * +1)"1 = +1"1 * +2

"1 * . . . * +k"1"1 * +k

"1 = +1 * +2 * . . . * +k"1 * +k .

"

10.4 Bemerkung

Es sei n & 2 und +0 :=!1 2 3 4 · · · n

2 1 3 4 · · · n

"# Sn . Dann gibt es zu jeder beliebigen Transposition

+ # Sn eine Permutation * # Sn mit

+ = * * +0 * *"1 .

Beweis:

Die Transposition + # Sn vertausche die Elemente k und l . Dann gilt fur jedes * # Sn mit*(1) = k und *(2) = l der Zusammenhang: + = * * +0 * *"1 .(Denn: Wegen *"1(k) = 1 und *"1(l) = 2 ist namlich *(+0(*"1(k))) = *(2) = l und*(+0(*"1(l))) = *(1) = k ; ferner gilt fur alle i # {1, 2, . . . , n} \ {k, l} auch:*"1(i) # {1, 2, . . . , n} \ {1, 2} , also: *(+0(*"1(i))) = *(*"1(i)) = i .) "

Page 49: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 10. PERMUTATIONEN 49

10.5 Definition

Ist * # Sn eine Permutation, so heißt jedes Paar (i, j) # {1, 2, . . . , n}2 mit i < j und *(i) > *(j)ein Fehlstand von *. Wir definieren damit das Signum von * durch

sign* :=;

+1 , falls * eine gerade Anzahl von Fehlstanden besitzt.)1 , falls * eine ungerade Anzahl von Fehlstanden besitzt.

Eine Permutation * # Sn heißt gerade, falls sign* = +1 ist; und * heißt ungerade, fallssign* = )1 ist.

Beispiel

Fur * =!1 2 3

2 3 1"

ist sign* = 1 , da die Anzahl der Fehlstande von * genau 2 betragt.

Wie berechnet man nun das Signum einer beliebigen Permutation?

10.6 Hilfssatz

Fur jedes * # Sn gilt:

sign* =nC

i,j=1i<j

*(j)) *(i)j ) i

=n"1C

i=1

nC

j=i+1

*(j)) *(i)j ) i

.

Beweis:

Ist m die exakte Anzahl der Fehlstande von * # Sn , so gilt:

nDi,j=1i<j

(*(j)) *(i)) =nD

i,j=1 & i<j$(i)<$(j)

(*(j)) *(i)) · ()1)m ·nD

i,j=1 & i<j$(i)>$(j)

|*(j)) *(i)|

= ()1)m ·nD

i,j=1i<j

|*(j)) *(i)| .

Nun ist aber auch:nD

i,j=1i<j

|*(j)) *(i)| =nD

i,j=1i<j

(j ) i) , da beide Produkte (abgesehen von der

Reihenfolge) die gleichen Faktoren enthalten.Zum Beispiel gilt fur * =

!1 2 32 3 1

":

2Di=1

3Dj=i+1

(j ) i) = (2) 1) · (3) 1) · (3) 2) = 1 · 2 · 1 = 2

und2D

i=1

3Dj=i+1

|*(j)) *(i)| = |3) 2| · |1) 2| · |1) 3| = 1 · 1 · 2 = 2

sowie m = 2 . "

Page 50: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

50 KAPITEL III. DETERMINANTEN

10.7 Satz

Fur alle Permutationen *, + # Sn gilt:

sign(+ * *) = sign + · sign* ,

insbesondere ist fur jedes * # Sn :

sign*"1 = sign* .

Beweis:

Nach Hilfssatz 10.6 gilt:

sign(+ * *) =nC

i,j=1i<j

+(*(j))) +(*(i))j ) i

=nC

i,j=1i<j

+(*(j))) +(*(i))*(j)) *(i)

·nC

i,j=1i<j

*(j)) *(i)j ) i

=nC

i,j=1i<j

+(*(j))) +(*(i))*(j)) *(i)

· sign* .

Nun ist

nC

i,j=1i<j

+(*(j))) +(*(i))*(j)) *(i)

=C

i<j$(i)<$(j)

+(*(j))) +(*(i))*(j)) *(i)

·C

i<j$(i)>$(j)

+(*(j))) +(*(i))*(j)) *(i)

=C

i<j$(i)<$(j)

+(*(j))) +(*(i))*(j)) *(i)

·C

i>j$(i)<$(j)

+(*(j))) +(*(i))*(j)) *(i)

=C

$(i)<$(j)

+(*(j))) +(*(i))*(j)#$%&=:k

)*(i)#$%&=:l

=nC

k,l=1l<k

+(k)) +(l)k ) l

= sign + .

"

10.8 Korollar

Es sei n & 2 vorgegeben.

a) Ist + # Sn eine beliebige Transposition, so gilt: sign + = )1 .

b) Ist * # Sn und * = +1 * +2 * . . . * +k mit Transpositionen +1, +2, . . . , +k # Sn , so gilt:sign* = ()1)k .

Page 51: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 11. DETERMINANTE EINER MATRIX 51

Beweis zu Korollar 10.8:

zu a): Ist +0 die Transposition!1 2 3 4 · · · n

2 1 3 4 · · · n

", so ist sign +0 = )1 , da +0 genau einen

Fehlstand besitzt. Ist + eine beliebige Transposition, so existiert nach Bemerkung 10.4ein * # Sn mit + = * * +0 * *"1 . Und Satz 10.7 liefert die Behauptung:

sign + = (sign*) · (sign +0) · (sign*"1) = (sign *)2 · (sign +0) = sign +0 = )1 .

zu b): folgt mit Teil a) direkt aus Satz 10.7. !

"

10.9 Definition

Es sei An := {* # Sn | sign* = +1} ; dann bildet An mit der Verknupfung * eine Gruppe, diesogenannte alternierende Gruppe.Es ist A1 = S1 ; und fur alle n & 2 enthalt (An, *) genau 1

2 n! Elemente.

§ 11 Determinante einer Matrix

11.1 Definition

Es seien K ein Korper, n # IN# und A1, A2, . . . , An die Zeilen einer quadratischen MatrixA # Mat(n, n;K) . Eine Abbildung

det : Mat(n, n;K) ! K , A "! det A

heißt Determinante, falls folgende Eigenschaften gelten:

(D1) det ist bezuglich jeder Zeile linear, d. h. es gilt fur alle 1 , i , n :

det

5

666667

A1

...Ai + >Ai

...An

8

99999:= det

5

66667

A1

...Ai

...An

8

9999:+ det

5

666667

A1

...>Ai

...An

8

99999:

und fur alle # # K :

det

5

66667

A1

...# Ai

...An

8

9999:= # · det

5

7A1

...An

8

: = # · det A .

(D2) det ist alternierend, d. h. es gilt fur alle 1 , i , n :

det

5

6666667

...Ai

...Ai

...

8

999999:= 0 .

(D3) det ist normiert mit det En = 1 .

Page 52: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

52 KAPITEL III. DETERMINANTEN

Bevor wir zeigen, daß eine solche Abbildung uberhaupt existiert, ziehen wir ein paar Schlußfol-gerungen:

11.2 Satz

Erfullt eine Abbildung det : Mat(n, n;K) ! K die Eigenschaften (D1) – (D3) aus Definiti-on 11.1, so gilt fur alle A # Mat(n, n;K) auch folgendes:

(D4) Es gilt fur alle # # K : det(# A) = #n detA .

(D5) Ist Ai = (0, 0, . . . , 0) fur ein i # {1, 2, . . . , n} , so gilt: det A = 0 .

(D6) Ist B = P ji ·A , so gilt: detB = )detA .

(D7) Ist B = Sj( 1!) ·Qj

i · Sj(#) ·A fur # $= 0 und i $= j , so gilt: detB = detA .

(D8) Sind e1, e2, . . . , en die kanonischen Basisvektoren des Kn , so gilt fur jedes * # Sn :

det

5

67

e$(1)e$(2)...e$(n)

8

9: = sign* .

(D9) Ist $ij = 0 fur alle i < j (bzw. fur alle i > j ), d. h. ist A eine obere (bzw. eine

untere) Dreiecksmatrix, so gilt: det A =nC

i=1

$ii .

(D10) Es gilt genau dann: detA = 0 , wenn die Zeilenvektoren A1, A2, . . . , An von A linearabhangig sind.

(D11) Es gilt genau dann: detA $= 0 , wenn A # GL(n;K) ist.

(D12) Es gilt der Determinanten–Multiplikationssatz :

det (A ·B) = det A · detB

fur alle A, B # Mat(n, n;K) ; speziell folgt fur A # GL(n;K) :

detA"1 =1

det A.

(D13) Im allgemeinen gilt nicht: det (A + B) = detA + det B .

Beweis:

zu (D4) & (D5): folgen direkt aus (D1). !

Page 53: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 11. DETERMINANTE EINER MATRIX 53

zu (D6): Die Behauptung det B = )detA ergibt sich aus (D1) und (D2) wegen

detA + det B = det

5

6666667

...Ai

...Aj

...

8

999999:+ det

5

6666667

...Aj

...Ai

...

8

999999:

(D2)= det

5

6666667

...Ai

...Ai

...

8

999999:+ det

5

6666667

...Ai

...Aj

...

8

999999:+ det

5

6666667

...Aj

...Ai

...

8

999999:+ det

5

6666667

...Aj

...Aj

...

8

999999:

(D1)= det

5

6666667

...Ai

...Ai + Aj

...

8

999999:+ det

5

6666667

...Aj

...Ai + Aj

...

8

999999:

(D1)= det

5

6666667

...Ai + Aj

...Ai + Aj

...

8

999999:

(D2)= 0 .

zu (D7): folgt ebenfalls aus (D1) und (D2) mit

det B = det

5

6666667

...Ai + # Aj

...Aj

...

8

999999:

(D1)= det

5

6666667

...Ai

...Aj

...

8

999999:+ # det

5

6666667

...Aj

...Aj

...

8

999999:

(D2)= det A .

zu (D8): Ist , # Sn beliebig und + # Sn eine Transposition, so liefert (D6) zunachst:

det

5

67

e%(&(1))e%(&(2))...e%(&(n))

8

9: = )det

5

67

e&(1)e&(2)...e&(n)

8

9: .

Zu gegebenem * # Sn existieren nach Satz 10.3 Transpositionen +1, +2, . . . , +k # Sn

mit * = +1 * +2 * . . . * +k; also gilt fur j = 2, 3, . . . , k bei sukzessiver Anwendungobiger Voruberlegung mit , := +j * . . . * +k weiter:

det

5

67

e$(1)e$(2)...e$(n)

8

9: = )det

5

67

e(%2'...'%k)(1)e(%2'...'%k)(2)...e(%2'...'%k)(n)

8

9:

Page 54: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

54 KAPITEL III. DETERMINANTEN

(' det

5

67

e$(1)e$(2)...e$(n)

8

9: = ()1)2 det

5

67

e(%3'...'%k)(1)e(%3'...'%k)(2)...e(%3'...'%k)(n)

8

9:

= . . . = ()1)k"1 det

5

67

e%k(id(1))e%k(id(2))...e%k(id(n))

8

9:

= ()1)k det

5

67

e1e2...en

8

9: = ()1)k det En

= ()1)k = sign* .

zu (D9): Es sei A eine obere Dreiecksmatrix. Ist $ii = 0 fur ein i # {1, 2, . . . , n} , so laßt sichA durch elementare Zeilenumformungen von der Form

A =

5

6666667

$11 . . . 0$i"1,i"1

0$i+1,i+1

0 . . .$nn

8

999999:in die Form B :=

5

6666667

$11 . . . 0$i"1,i"1

00 . . .

00 0 · · · 0

8

999999:

uberfuhren. Mit (D6) und (D7) folgt dann: det B = ±det A . Und nach (D5) giltwegen der Nullzeile: det B = 0 , also haben wir auch: detA = 0 .

Ist $ii $= 0 fur alle i # {1, 2, . . . , n} , so laßt sich A durch elementare Zeilenumfor-mungen (EZ1) und (EZ2) auf die Form

B :=

5

667

1 0 · · · 01 . . . .... . . 0

0 1

8

99: und dann in die Gestalt En =

5

667

1 01. . .

0 1

8

99:

bringen mit

det A(D1)= $11 · $22 · . . . · $nn · det B = $11 · $22 · . . . · $nn · det En =

nC

i=1

$ii .

Die Argumentation verlauft entsprechend fur eine untere Dreiecksmatrix. !zu (D10) & (D11): Ist A gegeben, so laßt sich A durch elementare Zeilenumformungen in eine

Matrix B uberfuhren mit

B :=

5

667

%11 0 · · · 0%22

. . . .... . . 00 %nn

8

99: .

(Dabei ist nicht notwendigerweise %ii $= 0 fur samtliche 1 , i , n .) Nach Satz 8.8 giltnun: rg(A) = rg(B) . Es ist A # GL(n;K) genau dann, wenn rg(A) = rg(B) = n gilt(gemaß Korollar 7.10); und die Zeilenvektoren B1, B2, . . . , Bn sind genau dann linearunabhangig, wenn alle %ii $= 0 sind fur 1 , i , n . Wegen (D9) ist das wiederumaquivalent zu: det B $= 0 . Mit detA = ±detB ergibt sich daraus die Behauptung.

Page 55: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 11. DETERMINANTE EINER MATRIX 55

zu (D12): Es sei rg(A) = n , d. h. A # GL(n;K) . Nach Bemerkung 9.9 gibt es Elementarma-trizen B1, B2, . . . , Bs"1, Bs # GL(n;K) mit Bs · Bs"1 · . . . · B2 · B1 · A = En odermit

A = (Bs · . . . ·B2 ·B1)"1 = B1"1 ·B2

"1 · . . . ·Bs"1 =: C1 · C2 · . . . · Cs .

Wegen Lemma 8.5 sind C1, C2, . . . , Cs wieder Elementarmatrizen. Gemaß Bemer-kung 8.4(ii) konnen wir annehmen, daß C1, C2, . . . , Cs von der Form Si(#) oderQj

i sind. Also mussen wir nur zeigen, daß fur solche Elementarmatrizen C gilt:det (C ·B) = det C · det B .

Nach (D9) (vgl. Definition 8.3) ist detSi(#) = # und detQji = 1 . Und wegen (D1)

gilt:

det (Si(#) ·B) = # det B ' det (Si(#) ·B) = # · det B = det (Si(#)) · detB .

Ferner liefert (D7) mit # = 1 : det (Qji ·B) = detB , also:

det (Qji ·B) = detB = detQj

i · detB .

(Dabei ist im Fall i > j zu berucksichtigen, daß Qji zu einer unteren Dreiecksmatrix

wird, fur die ja (D9) auch gilt.)Es sei nun m := rg(A) < n und (w1, w2, . . . , wm) eine Basis von <A1, A2, . . . , An> ;

dann gilt fur jedes y # Kn die Darstellung: A · y =m,

i=1$i wi , also fur alle x # Kn ,

d. h. fur jedes y = B · x # Kn :

A ·B · x = A · (B · x) = A · y =m*

i=1

$i wi.

Daraus folgt: dim<(A ·B)1, (A ·B)2, . . . , (A ·B)n> = rg(A · B) , rg(A) < n .Und (D10) liefert schließlich: det (A ·B) = 0 = det A · det B .

zu (D13): Wir betrachten etwa fur n = 2 das Gegenbeispiel: A =-

1 00 0

.und B =

-0 00 1

..

Dann ist det A = detB = 0 und det (A + B) = det E2 = 1 .

"

11.3 Satz

Zu jedem n # IN# gibt es genau eine Determinante

det : Mat(n, n;K) ! K , A "! det A .

Und zwar gilt fur alle A = ($ij) # Mat(n, n;K) die sogenannte Leibniz’sche Formel :

det A =*

$$Sn

sign* · $1,$(1) · $2,$(2) · . . . · $n,$(n) .

Beweis:

Wir zeigen zuerst, daß hochstens eine Determinante fur jedes n # IN# existiert.

Page 56: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

56 KAPITEL III. DETERMINANTEN

Ist det : Mat(n, n;K) ! K eine Determinante im Sinne von Definition 11.1, so gilt fur alle

Zeilenvektoren von A die Darstellung: Ai =n,

j=1$ij ej . Also ergibt (D1):

detA = det

5

7A1

...An

8

: = det

5

66667

n,j=1

$1j ej

A2

...An

8

9999:=

n*

j=1

$1j det

5

667

ej

A2

...An

8

99: .

Und wiederholte Anwendung von (D1) liefert:

det A =n*

j1=1

$1,j1

n*

j2=1

$2,j2 det

5

66667

ej1ej2

A3

...An

8

9999:= . . . =

=n*

j1=1

n*

j2=1

· · ·n*

jn=1

$1,j1 · $2,j2 · . . . · $n,jn det

5

67

ej1ej2...ejn

8

9: .

Nach (D2) ist die letzte Determinante genau dann ungleich Null, wenn die Indizes j1, j2, . . . , jn

paarweise verschiedene Zahlen zwischen 1 und n sind, d. h. wenn eine Permutation * # Sn

existiert mit j1 = *(1) , j2 = *(2) , . . . , jn = *(n) . Von den ursprunglich nn Summanden sindalso hochstens n! Summanden ungleich Null. Damit gilt:

det A =*

$$Sn

$1,$(1) · $2,$(2) · . . . · $n,$(n) · det

5

667

e$(1)e$(2)

...e$(n)

8

99: .

Und (D8) liefert dann die behauptete Formel.

Wir mussen nun zeigen, daß die oben definierte Abbildung det tatsachlich die Eigenschaf-ten (D1) – (D3) erfullt.

zu (D1): Sind A = ($ij) und >A = (>$ij) gleich bis auf die i-te Zeile, so gilt:

det

5

666667

A1

...Ai + >Ai

...An

8

99999:=

*

$$Sn

(sign*) · $1,$(1) · $2,$(2) · . . . · ($i,$(i) + >$i,$(i)) · . . . · $n,$(n)

=*

$$Sn

(sign*) · $1,$(1) · $2,$(2) · . . . · $i,$(i) · . . . · $n,$(n) +

+*

$$Sn

(sign*) · $1,$(1) · $2,$(2) · . . . · >$i,$(i) · . . . · $n,$(n)

Page 57: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 11. DETERMINANTE EINER MATRIX 57

(' det

5

666667

A1

...Ai + >Ai

...An

8

99999:= det

5

66667

A1

...Ai

...An

8

9999:+ det

5

666667

A1

...>Ai

...An

8

99999:

und entsprechend:

det

5

66667

A1

...# Ai

...An

8

9999:= # ·

*

$$Sn

(sign*) · $1,$(1) · $2,$(2) · . . . · $i,$(i) · . . . · $n,$(n)

= # · detA .

zu (D2): Angenommen, die i-te und die j-te Zeile von A seien gleich. Dabei sei ohne Be-schrankung der Allgemeinheit i < j . Wir betrachten die Transposition + # Sn , diegenau i und j vertauscht. Dann gilt die Zerlegung:

An 1An+ = Sn mit An .An+ = !

fur An+ := {* * + | * # An} . (Ist namlich * # Sn mit sign * = )1 , so giltwegen + = +"1 und sign + = )1 nach Satz 10.7: sign(* * +"1) = +1 . Also ist* = (* * +"1) * + # An+ . Fur jedes * # An+ ist sign * = )1 , also: An .An+ = ! .)Damit gilt:

det A =*

$$An

sign* · $1,$(1) · $2,$(2) · . . . · $n,$(n) +

+*

$$An

sign(* * +) · $1,$(%(1)) · $2,$(%(2)) · . . . · $n,$(%(n))

=*

$$An

$1,$(1) · $2,$(2) · . . . · $n,$(n) +

)*

$$An

$1,$(%(1)) · $2,$(%(2)) · . . . · $n,$(%(n)) .

Da die i-te und j-te Zeile von A ubereinstimmen, gilt nach Konstruktion von + furalle * # An :

$1,$(%(1)) · $2,$(%(2)) · . . . · $i,$(%(i)) · . . . · $j,$(%(j)) · . . . · $n,$(%(n)) == $1,$(1) · $2,$(2) · . . . · $i,$(j) · . . . · $j,$(i) · . . . · $n,$(n)

= $1,$(1) · $2,$(2) · . . . · $j,$(j) · . . . · $i,$(i) · . . . · $n,$(n)

und damit die Behauptung: detA = 0 .

zu (D3): Ist -ij das sogenannte Kronecker–Symbol15, d. h.:

-ij :=;

0 fur alle i $= j1 , falls i = j

,

15Leopold Kronecker, deutscher Mathematiker (!07.12.1823, †29.12.1891)

Page 58: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

58 KAPITEL III. DETERMINANTEN

so gilt:

-1,$(1) · -2,$(2) · . . . · -n,$(n) =;

0 fur alle * # Sn mit * $= id1 , falls * = id # Sn

.

Also folgt:

detEn = det (-ij)1%i,j%n

=*

$$Sn

(sign*) · -1,$(1) · -2,$(2) · . . . · -n,$(n)

= sign (id{1,2,...,n}) = 1 .

"

11.4 Bemerkungen

(i) Fur A = ($ij)1%i,j%n schreiben wir als Determinante auch:)))))))

$11 $12 · · · $1n$21 $22 · · · $2n...

......

$n1 $n2 · · · $nn

)))))))statt detA .

(ii) Ist n = 1 , so gilt: detA = det ($11) = $11 ;im Falle n = 2 erhalten wir:

))))$11 $12$21 $22

)))) = $11 $22 ) $12 $21 .

Und fur n = 3 ist)))))

$11 $12 $13$21 $22 $23$31 $32 $33

))))) = $11 $22 $33 ) $11 $23 $32 ) $12 $21 $33 ++ $12 $23 $31 + $13 $21 $32 ) $13 $22 $31 .

Fur letztere Formel gibt es eine Merkregel — die Regel von Sarrus16:

$11 $12 $13 $11 $12" ##" ##" ##

$21 $22 $23 $21 $22## ##" ##" "

$31 $32 $33 $31 $32

Dazu schreibe man die erste und zweite Spalte noch einmal hinter die Matrix ( ), bildedie Produkte langs der drei ”Hauptdiagonalen“ ("), addiere sie und subtrahiere davon dieProdukte langs der drei ”Nebendiagonalen“ (##).Beachte: Diese Regel gilt nur fur n = 3 .Manchmal ist es gunstiger, erst elementare Zeilenumformungen durchzufuhren, dabei dieEigenschaften einer Determinante nach Satz 11.2 auszunutzen und ggf. dann die Regel vonSarrus anzuwenden; zum Beispiel:

)))))

0 1 23 2 11 1 0

)))))(D6)= )

)))))

1 1 03 2 10 1 2

)))))(D7)= )

)))))

1 1 00 )1 20 1 2

)))))(D7)= )

)))))

1 1 00 )1 10 0 3

)))))(D9)= 3 .

16Pierre Frederic Sarrus, franzosischer Mathematiker (!1798, †1861)

Page 59: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 11. DETERMINANTE EINER MATRIX 59

11.5 Satz

Ist A # Mat(n, n;K) , so gilt stets: det At = detA .

Beweis:

Ist A = ($ij) , so gilt nach Definition 6.3: At = ($jit) mit $ji

t = $ij . Damit folgt:

det At =*

$$Sn

(sign*) · $1,$(1)t · $2,$(2)

t · . . . · $n,$(n)t

=*

$$Sn

(sign*) · $$(1),1 · $$(2),2 · . . . · $$(n),n .

Ist * # Sn und z. B. k # {1, 2, . . . , n} mit *(k) = 1, d. h. *"1(1) = k, so folgt: $$(k),k = $1,$&1(1),also insgesamt:

$$(1),1 · $$(2),2 · . . . · $$(n),n(")= $1,$&1(1) · $2,$&1(2) · . . . · $n,$&1(n) .

Weiter ist sign* = sign *"1 (gemaß Satz 10.7.). Und es gilt: Sn = {*"1 | * # Sn} , d. h. alsLaufindex fur die Summe kann man statt * # Sn auch , := *"1 # Sn wahlen. Daraus ergibtsich mit (0) die Behauptung:

det At =*

$$Sn

(sign*"1) · $1,$&1(1) · $2,$&1(2) · . . . · $n,$&1(n)

=*

&$Sn

(sign ,) · $1,&(1) · $2,&(2) · . . . · $n,&(n) = detA .

"

Wir wollen nun unsere bisherigen Ergebnisse auf Beispiel 2.7a) anwenden.

11.6 Beispiel

Die sogenannten Monome ek mit ek(x) := xk bilden fur alle 0 , k , n auf jeder Menge mitmindestens n + 1 Elementen eine linear unabhangige Familie; d. h. ist M + C eine Mengemit mindestens n + 1 Elementen, so sind e0, e1, e2, . . . , en als Vektoren aus Abb(M, C) linearunabhangig. Daraus folgt fur den Polynomraum Πn = <e0, e1, e2, . . . , en> + Abb(M, C) dieEigenschaft:

dimC Πn = n + 1 .

Beweis:

Um die lineare Unabhangigkeit von (e0, e1, e2, . . . , en) zu zeigen, mussen wir ausn,

k=0$k ek = 0

mit $k # C stets folgern: $0 = $1 = $2 = . . . = $n = 0 .

Ist nunn,

k=0$k ek = 0 , so gilt fur alle x # M :

n,

k=0$k ek(x) =

n,

k=0$k xk = 0 ; speziell folgt also

fur n + 1 paarweise verschiedene Elemente x0, x1, x2, . . . , xn # M :n*

k=0

$k xik = 0 mit i = 0, 1, 2, . . . , n .

Page 60: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

60 KAPITEL III. DETERMINANTEN

Diese n+1 Gleichungen konnen wir bei gegebenen x0, x1, x2, . . . , xn auch als lineares Gleichungs-system fur die Variablen $0, $1, $2, . . . ,$n auffassen, namlich in der Form:

5

666667

1 x0 x02 x0

3 · · · x0n

1 x1 x12 x1

3 · · · x1n

1 x2 x22 x2

3 · · · x2n

......

......

...1 xn xn

2 xn3 · · · xn

n

8

99999:·

5

66667

$0

$1

$2...$n

8

9999:=

5

66667

000...0

8

9999:.

Lineare Unabhangigkeit der Monome e0, e1, e2, . . . , en liegt genau dann vor, wenn dieses homo-gene Gleichungssystem nur die triviale Losung besitzt. Nach Satz 7.8 ist dies aquivalent zurRangbedingung:

rg

5

666667

1 x0 x02 x0

3 · · · x0n

1 x1 x12 x1

3 · · · x1n

1 x2 x22 x2

3 · · · x2n

......

......

...1 xn xn

2 xn3 · · · xn

n

8

99999:= n + 1 .

Mit Satz 7.9 und Satz 11.2 erhalten wir dann: e0, e1, e2, . . . , en # Abb(M, C) sind genau dannlinear unabhangig, wenn fur je n + 1 paarweise verschiedene Elemente x0, x1, x2, . . . , xn aus Mgilt:

V (x0, x1, x2, . . . , xn) := det

5

666667

1 x0 x02 x0

3 · · · x0n

1 x1 x12 x1

3 · · · x1n

1 x2 x22 x2

3 · · · x2n

......

......

...1 xn xn

2 xn3 · · · xn

n

8

99999:$= 0 .

Dazu beweisen wir durch vollstandige Induktion nach n , daß fur die obige Vandermonde–Deter-minante17 gilt:

V (x0, x1, x2, . . . , xn) =C

0%i<j%n

(xj ) xi) .

Induktionsanfang: Fur n = 0 ist diese Aussage offensichtlich richtig, da das leere Produkt immerden Wert 1 hat.

Induktionsschluß von n auf n + 1 : Wir formen hierbei die Spalten um (was elementaren Zeilen-umformungen in der transponierten Matrix entspricht, welche gemaß Bemerkung 9.9(ii) ja dengleichen Rang hat), indem wir fur jedes j = 1, 2, . . . , n das x0-fache der j-ten Spalte von der

17Alexandre Theophile Vandermonde, franzosischer Gewerbemuseumsdirektor, publizierte nur vier mathemati-sche Arbeiten (!28.02.1735, †01.01.1796)

Page 61: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 11. DETERMINANTE EINER MATRIX 61

(j + 1)-ten Spalte subtrahieren:

V (x0, x1, x2, . . . , xn, xn+1) =

= det

5

66667

1 0 0 0 · · · 01 x1)x0 x1

2)x0 x1 x13)x0 x1

2 · · · x1n+1)x0 x1

n

1 x2)x0 x22)x0 x2 x2

3)x0 x22 · · · x2

n+1)x0 x2n

......

......

...1 xn+1)x0 xn+1

2)x0 xn+1 xn+13)x0 xn+1

2 · · · xn+1n+1)x0 xn+1

n

8

9999:

=*

$$Sn+2

(sign*) · $1,$(1) · $2,$(2) · $3,$(3) · . . . · $n+2,$(n+2)

=*

$$Sn+2

$(1)=1

(sign*) · $11 · $2,$(2) · $3,$(3) · . . . · $n+2,$(n+2)

=*

$$Sn+2

$(1)=1

(sign*) · $2,$(2) · $3,$(3) · . . . · $n+2,$(n+2)

= det

5

666667

x1)x0 x1 (x1)x0) x12 (x1)x0) · · · x1

n (x1)x0)x2)x0 x2 (x2)x0) x2

2 (x2)x0) · · · x2n (x2)x0)

x3)x0 x3 (x3)x0) x32 (x3)x0) · · · x3

n (x3)x0)...

......

...xn+1)x0 xn+1 (xn+1 ) x0) xn+1

2 (xn+1)x0) · · · xn+1n (xn+1)x0)

8

99999:

= (x1)x0) · (x2)x0) · (x3)x0) · . . . · (xn+1)x0) · det

5

666667

1 x1 x12 · · · x1

n

1 x2 x22 · · · x2

n

1 x3 x32 · · · x3

n

......

......

1 xn+1 xn+12 · · · xn+1

n

8

99999:

=n+1C

j=1

(xj ) x0) · V (x1, x2, x3, . . . , xn+1)

=n+1C

j=1

(xj ) x0) ·C

1%i<j%n+1

(xj ) xi) gemaß Induktionsvoraussetzung

=C

0%i<j%n+1

(xj ) xi) .

Und da die Punkte x0, x1, x2, . . . , xn als paarweise verschieden aus M gewahlt worden sind, istdie Vandermonde–Determinante V (x0, x1, x2, . . . , xn) $= 0 .Damit sind die Monome e0, e1, e2, . . . , en (uber M ) tatsachlich linear unabhangig, bilden alsoeine Basis von Πn . "

Wir lernen jetzt noch eine weitere Regel kennen, mit der man Determinanten schneller undbequemer berechnen kann als mit der Leibniz’schen Formel.

Page 62: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

62 KAPITEL III. DETERMINANTEN

§ 12 Der Entwicklungssatz von Laplace

Vorgegeben sei fur festes n > 1 eine quadratische Matrix

A = ($ij) =

5

667

A1

A2

...An

8

99: = (A1, A2, . . . , An) ;

wir ersetzen darin Ai durch ej und Aj durch eit und erhalten so die (n% n)-Matrix

Aij :=

5

6666666666667

$11 $12 · · · $1,j"1 0 $1,j+1 $1,j+2 · · · $1n$21 $22 · · · $2,j"1 0 $2,j+1 $2,j+2 · · · $2n...

......

......

......

$i"1,1 $i"1,2 · · · $i"1,j"1 0 $i"1,j+1 $i"1,j+2 · · · $i"1,n

0 0 · · · 0 1 0 0 · · · 0$i+1,1 $i+1,2 · · · $i+1,j"1 0 $i+1,j+1 $i+1,j+2 · · · $i+1,n$i+2,1 $i+2,2 · · · $i+2,j"1 0 $i+2,j+1 $i+2,j+2 · · · $i+2,n

......

......

......

...$n1 $n2 · · · $n,j"1 0 $n,j+1 $n,j+2 · · · $nn

8

999999999999:

.

Streichen ( ) wir daraus die i-te Zeile und die j-te Spalte, dann ergibt sich die Matrix

A !ij :=

5

666667

$11 · · · $1j · · · $1n...

......

$i1 · · · $ij · · · $in...

......

$n1 · · · $nj · · · $nn

8

99999:# Mat(n)1 , n)1 ;K) .

12.1 Bemerkungen

(i) Es gilt: det Aij = ()1)i+j detA !ij fur alle 1 , i, j , n .

(ii) Es ist det Aij = det (A1, A2, . . . , Aj"1, eit, Aj+1, Aj+2, . . . , An) fur alle 1 , i, j , n .

Beweis:

zu (i): Durch i) 1 Vertauschungen benachbarter Zeilen und j ) 1 Vertauschungen benach-barter Spalten kann man Aij auf die Form

-1 00 A !

ij

.

bringen. Nach (D6) folgt:

det-

1 00 A !

ij

.= ()1)(i"1)+(j"1) detAij = ()1)i+j det Aij .

Wie im Beweis zu Beispiel 11.6 (oder in Ubungsaufgabe 11/13–7) ergibt sich dann:

det A !ij = ()1)i+j det Aij .

Page 63: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 12. DER ENTWICKLUNGSSATZ VON LAPLACE 63

zu (ii): Die Matrix (A1, A2, . . . , Aj"1, eit, Aj+1, Aj+1, . . . , An) unterscheidet sich von Aij in

der i-ten Zeile; diese lautet:

($i1, $i2, . . . ,$i,j"1, 1, $i,j+1, $i,j+2, . . . ,$in) .

Durch Addition des ()$ik)-fachen der j-ten Spalte zur k-ten Spalte fur jedes1 , k , n mit k $= j laßt sich die gegebene Matrix in die Matrix Aij uberfuhren.Und gemaß (D7) andert sich dabei ihre Determinante nicht.

"

12.2 Definition

Ist fur n & 2 eine Matrix A = ($ij) # Mat(n, n;K) vorgegeben, dann nennt man die obendefinierte ((n)1)% (n)1))-Matrix A !

ij die Streichungsmatrix von A (zum Index (i, j) );ist weiter >$ij := detAji , so heißt >A = (>$ij) die zu A komplementare Matrix.

12.3 Lemma

Es gilt: >A ·A = A · >A = (detA) · En .

Beweis:

Nach Definition gilt fur die Koeffizienten von >A ·A :

n*

j=1

>$ij · $jk =n*

j=1

$jk · det Aji

Bem. 12.1(ii)=n*

j=1

$jk · det (A1, A2, . . . , Ai"1, ejt, Ai+1, Ai+2, . . . , An)

(D1)= det!A1, A2, . . . , Ai"1,

n,j=1

$jk ejt, Ai+1, Ai+2, . . . , An

"

= det!A1, A2, . . . , Ai"1,

- "1k"2k..."nk

., Ai+1, Ai+2, . . . , An

"

= det (A1, A2, . . . , Ai"i, Ak, Ai+1, Ai+1, . . . , An)(D2)= -ik · det A .

Also ist >A ·A = detA · (-ik)1%i,k%n = (detA) · En .Entsprechend berechnet man auch: A · >A = (detA) · En . "

Als Folgerung erhalten wir hieraus:

Page 64: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

64 KAPITEL III. DETERMINANTEN

12.4 Satz (Entwicklungssatz von Laplace18)

Ist n & 2 und A # Mat(n, n;K) , so gilt mit der Streichungsmatrix A !ij fur jedes i # {1, 2, . . . , n} :

det A =n*

j=1

()1)i+j · $ij · det A !ij

und fur jedes j # {1, 2, . . . , n} :

det A =n*

i=1

()1)i+j · $ij · detA !ij .

Bei der Determinante spricht man im ersten Fall von der Entwicklung nach der i-ten Zeile, imzweiten Fall von der Entwicklung nach der j-ten Spalte.

Beweis:

Nach dem vorhergehenden Lemma 12.3 gilt:

det A =n*

j=1

$ij >$ji =n*

j=1

$ij · det Aij ;

und Bemerkung 12.1(i) liefert:

det A =n*

j=1

()1)i+j $ij det A !ij .

Entsprechend folgt:

det A =n*

i=1

>$ji $ij =n*

i=1

$ij · det Aij =n*

i=1

$ij · ()1)i+j det A !ij .

"

12.5 Bemerkung

Der Vorzeichenfaktor ()1)i+j im Entwicklungssatz von Laplace bewirkt gewissermaßen eineVerteilung von + und ) im ”Schachbrettmuster“:

+ ) + )

) + ) +

+ ) + )

) + ) +

18Pierre Simon Laplace, franzosischer Physiker und Mathematiker (!28.03.1749, †05.03.1827)

Page 65: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 13. DIE CRAMER’SCHE REGEL 65

12.6 Folgerung

Ist A # GL(n;K) und B = (%ij) # Mat(n, n;K) , definiert durch %ij := ()1)i+j det A !ij , so

gilt19:

A"1 =1

det A·Bt .

Beweis: folgt direkt aus Lemma 12.3. und Bemerkung 12.1(i). ! "

12.7 Beispiel

Ist speziell n = 2 und A =-

a bc d

.# GL(2;K) , dann gilt:

A"1 =1

a d) b c

-d )b)c a

..

§ 13 Die Cramer’sche Regel

Durch Zusammenfassen der Ergebnisse aus §7 und §12 erhalten wir folgenden — fur die Theoriewichtigen — Satz:

13.1 Satz (Cramer’sche20 Regel)

Ist A # GL(n;K) , b # Kn und x # Kn die eindeutig bestimmte Losung des linearen Glei-chungssystems A · x = b , so gilt:

xi =1

det A· det (A1, A2, . . . , Ai"1, b, Ai+1, Ai+2, . . . , An) fur alle 1 , i , n .

Beweis:

Ist die Koeffizientenmatrix A regular, so gilt nach Satz 7.9: x = A"1 · b .Sind die Eintrage von A"1 die Elemente &ij # K , dann haben wir gemaß Folgerung 12.6:

&ij =1

det A· %ji =

1detA

· ()1)i+j detA!ji .

Und Bemerkung 12.1 liefert:

&ij(i)=

det Aji

det A(ii)=

1detA

det (A1, A2, . . . , Ai"1, ejt, Ai+1, Ai+2, . . . , An) .

19Bei dieser Methode zur Matrix–Inversion spricht man auch vom Verfahren der Adjungierten.20Gabriel Cramer, schweizerischer Mathematiker und Astronom (!31.07.1704, †04.01.1752)

Page 66: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

66 KAPITEL III. DETERMINANTEN

Daraus folgt jeweils fur die i-te Komponente von A"1 · b :

xi =n*

j=1

&ij · bj

=1

det A· det

!A1, A2, . . . , Ai"1,

n,j=1

bj ejt , Ai+1, Ai+2, . . . , An

"

=1

det A· det (A1, A2, . . . , Ai"1, b, Ai+1, Ai+2, . . . , An) .

"

13.2 Beispiel

Wir betrachten das lineare Gleichungssystem A · x = b mit

A =

5

671 1 00 1 13 2 1

8

9: und b =

5

67110

8

9: .

Dann ist det A = 1 · ()1)) 1 · ()3) = )1 + 3 = 2 , also gilt nach Satz 13.1:

x1 =12

)))))))

1 1 01 1 10 2 1

)))))))= 1

2 · (1 · ()1)) 1 · 1) = )1 ,

x2 =12

)))))))

1 1 00 1 13 0 1

)))))))= 1

2 · (1 · 1) 1 · ()3)) = 2

und x3 =12

)))))))

1 1 10 1 13 2 0

)))))))= 1

2 · (1 · ()2)) 0 + 3 · 0) = )1 .

13.3 Bemerkung

In der Praxis wird die Cramer’sche Regel jedoch kaum angewandt, weil die Berechnung von De-terminanten meistens numerisch viel aufwendiger ist als Algorithmen anderer Losungsverfahren.

Page 67: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

Kapitel IV

Lineare Abbildungen

§ 14 Der Vektorraum der linearen Abbildungen

14.1 Definition

Gegeben seien zwei beliebige K–Vektorraume V,W # VRK ; eine Abbildung F : V ! W heißtK–linear oder kurz: linear, wenn fur alle Skalare $,% # K und alle Vektoren v, w # V gilt21:

(L) F ($ v + % w) = $ F (v) + % F (w) .

Dabei steht links vom Gleichheitszeichen die Verknupfung + in V und rechts die Verknupfung +in W . Wir wahlen hier der Bequemlichkeit halber (auch fur die Skalarmultiplikation) keineunterschiedlichen Bezeichnungen.

14.2 Bemerkungen

Es sei F : V ! W eine K–lineare Abbildung; dann gilt:

(i) F (0V ) = 0W und F ()v) = )F (v) fur alle v # V .Dabei bezeichne 0V das neutrale Element der abelschen Gruppe (V,+) und 0W dasneutrale Element der abelschen Gruppe (W, +) .

(ii) Ist (vi)i$I eine linear abhangige Familie in V , so ist auch (F (vi))i$I linear abhangigin W .

(iii) Ist (F (vi))i$I linear unabhangig in W , so ist auch (vi)i$I linear unabhangig in V .

(iv) Ist G : W ! X ebenfalls K–linear, so ist auch die Komposition G * F : V ! X eineK–lineare Abbildung.

21Das Axiom (L) fordert die Additivitat ( # = $ = 1 ) und die Homogenitat ( $ = 0 oder w = 0 ) von jederlinearen Abbildung.

67

Page 68: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

68 KAPITEL IV. LINEARE ABBILDUNGEN

Beweis zu Bemerkung 14.2:

zu (i): Es gilt: F (0V ) = F (0 · 0V ) = 0 · F (0V ) = 0W und0W = F (0V ) = F (v + ()v)) = F (v) + F ()v) fur alle v # V .

zu (ii): Seien i1, i2, . . . , ik # I und #i1 , #i2 , . . . ,#ik # K mit 0 $= (#i1 , #i2 , . . . ,#ik) # Kk

undk,

j=1#ij vij = 0V . Daraus folgt:

k,j=1

#ij F (vij ) = F! k,

j=1#ij vij

"= F (0V ) = 0W .

zu (iii): ist aquivalent zu (ii). !zu (iv): Sind $,% # K und v, w # V , so folgt:

(G * F )($ v + % w) = G(F ($ v + % w))= G($ F (v) + % F (w))= $ G(F (v)) + % G(F (w))= $ (G * F )(v) + % (G * F )(w) .

"

14.3 Beispiele

a) Fur 1 , i , m und 1 , j , n seien aij # K ; ist A = (aij) # Mat(m, n;K) , so wird eineAbbildung F : Kn ! Km definiert durch F (x) := A·x fur alle x = (x1, x2, . . . , xn)t # Kn .Dann ist F linear.

b) Sei X $= ! eine Menge und ! : X ! X eine beliebige Abbildung. Dann ist durch dieFestlegung F (f) := f * ! eine lineare Abbildung von Abb(X, K) in sich definiert.

Beweis:

zu a): Sind $,% # K und x, y # Kn , so gilt mit §6:

F ($ x + % y) = A · ($ x + % y) = $ A · x + % A · y = $ F (x) + % F (y) .

zu b): Sind $,% # K und f, g # Abb(X, K) , dann gilt:

F ($ f + % g) = ($ f + % g) * ! = $ f * ! + % g * ! = $ F (f) + % F (g) ;

denn fur alle x # X ist (vgl. Beispiel 2.3b):

(($ f + % g) * !)(x) = ($ f)(!(x)) + (% g)(!(x)) = $ f(!(x)) + % g(!(x)) .

"

14.4 Satz

Sind V,W # VRK Vektorraume, so bildet die Menge

HomK(V,W ) := {F # Abb(V,W ) | F ist K–linear}

einen Untervektorraum von (Abb(V,W ),+, ·) .

Page 69: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 14. DER VEKTORRAUM DER LINEAREN ABBILDUNGEN 69

Beweis zu Satz 14.4:

Nach Beispiel 2.3b) ist (Abb(V,W ),+, ·) ein K–Vektorraum.Zunachst ist HomK(V,W ) $= ! , denn die Nullabbildung 0 mit 0(v) = 0W fur alle v # V istK–linear. Seien nun F,G # HomK(V,W ) und # # K , dann gilt fur alle $,% # K und allev, w # V :

(F + G)($v + %w) = F ($v + %w) + G($v + %w)= $ F (v) + % F (w) + $ G(v) + % G(w) , da F und G linear= $(F (v) + G(v)) + %(F (w) + G(w))= $ (F + G)(v) + % (F + G)(w)

' F + G # HomK(V,W )

sowie

(# F )($v + %w) = # F ($v + %w)= #($ F (v) + % F (w)) , da F linear= $ (# F )(v) + % (# F )(w)

' # F # HomK(V,W ) .

"

14.5 Definition

Die Elemente aus HomK(V,W ) heißen Homomorphismen (oder genauer: Vektorraum–Homo-morphismen)22. Ein Homomorphismus F # HomK(V,W ) heißt ein (Vektorraum–)Monomorphismus, wenn F injektiv ist;Epimorphismus, wenn F surjektiv ist;Isomorphismus, wenn F bijektiv ist;Endomorphismus, wenn V = W ist — wir schreiben dafur: F # EndK(V ) := HomK(V, V ) ;Automorphismus, wenn V = W und zugleich F bijektiv ist.

14.6 Satz

Es seien V,W # VRK mit (vi)i$I als Basis von V und (wi)i$I eine beliebige Familie in W .Dann gibt es genau eine lineare Abbildung F # HomK(V,W ) mit F (vi) = wi fur alle i # I .Fur dieses F gilt:

a) F ist genau dann ein Monomorphismus, wenn (wi)i$I in W linear unabhangig ist.

b) Es gilt: F (V ) = <(wi)i$I> ; also ist F genau dann ein Epimorphismus, wenn (wi)i$I einErzeugendensystem von W ist.

c) F ist genau dann ein Isomorphismus, wenn (wi)i$I eine Basis von W bildet.

22Ein Homomorphismus transportiert die (lineare) Struktur von V nach W .

Page 70: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

70 KAPITEL IV. LINEARE ABBILDUNGEN

Beweis zu Satz 14.6:

Wir zeigen zunachst die Eindeutigkeit (1) und Existenz (2) von F :

(1) Es sei F # HomK(V,W ) mit F (vi) = wi fur alle i # I .Ist v # V \ {0} , so gibt es (nach Satz 3.5) eindeutig bestimmte Indizes i1, i2, . . . , ir # I ,linear unabhangige Vektoren vi1 , vi2 , . . . , vir # V und Skalare #1, #2, . . . ,#r # K# mit der

Darstellung v =r,

k=1#k vik . Die Linearitat von F liefert dann:

F (v) =r*

k=1

#k F (vik) =r*

k=1

#k wik . (0)

(2) Um die Existenz von F nachzuweisen, definieren wir F (v) fur v =r,

k=1#k vik , wobei nicht

notwendig alle #k # K ungleich Null sein mussen, durch (0). Wir zeigen, daß dann Flinear ist.Sind namlich v, w # V , etwa: v =

r,

k=1#k vik und w =

s,

l=1µl vjl , sowie $,% # K , so sei

R := {i1, i2, . . . , ir} , S := {j1, j2, . . . , js} mit T := R1S , etwa: T = {)1, )2, . . . , )n} also:

$ v + % w =n*

i=1

&i v#i mit

/01

02

&i = $ #& + % µ$ fur alle )i # R . S - )i = i& = j$

&i = $ #& fur alle )i # T \ S - )i = i&&i = % µ$ fur alle )i # T \R - )i = j$

.

Damit gilt:

F ($ v + % w) (")=n*

i=1

&i F (v#i)

=n*

i=1#i$R(S

($ #& + % µ$) F (v#i) +

+n*

i=1#i$T\S

$ #& F (v#i) +n*

i=1#i$T\R

% µ$ F (v#i)

= $n*

i=1#i$R(S

#& F (v#i) + $n*

i=1#i$T\S

#& F (v#i) +

+ %n*

i=1#i$R(S

µ$ F (v#i) + %n*

i=1#i$T\R

µ$ F (v#i)

= $r*

k=1

#k F (vik) + %s*

l=1

µl F (vjl)

= $ F (v) + % F (w) .

zu a):

”'“: Sei F injektiv undr,

k=1#ik wik = 0W . Dann gilt wegen wik = F (vik) :

F! r*

k=1

#ik vik

"= 0W = F (0V ) ;

Page 71: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 14. DER VEKTORRAUM DER LINEAREN ABBILDUNGEN 71

und wegen der Injektivitat von F folgt:

r*

k=1

#ik vik = 0V ' #ik = 0 6k=1,2,...,r ,

da die vik in V linear unabhangig sind.

”(“: Sei nun umgekehrt (F (vi))i$I linear unabhangig und F (v) = F (w) mit v, w # V .Dann folgt: F (v ) w) = 0W . Zu zeigen ist: v ) w =: x

!= 0V .

Sei dazu x =r,

k=1#ik vik mit #ik # K , so liefert F (x) = F (v ) w) = 0W :

r*

k=1

#ikF (vik) = 0W ' #i1 = #i2 = . . . = #ir = 0 ,

da (F (vi))i$I linear unabhangig in W ist; also folgt: x = 0V (' v = w .

zu b): Es sei W ! := <(wi)i$I> .

”+“: Nach Definition von F ist stets F (V ) + W ! .

”7“: Ist w =r,

k=1#ik wik # W ! , dann folgt:

w =r*

k=1

#ikF (vik) = F! r*

k=1

#ik vik

"# F (V ) .

Damit gilt also insgesamt: W ! = F (V ) .

zu c): folgt direkt aus der Definition in Verbindung mit Teil a) und b). !

"

14.7 Korollar

Es seien V,W # VRK mit dimK V = dimK W = n < / sowie F # HomK(V,W ) . Dann sindfolgende Aussagen aquivalent:

a) F ist injektiv, also ein Monomorphismus.

b) F ist surjektiv, also ein Epimorphismus.

c) F ist bijektiv, also ein Isomorphismus.

Beweis:

”a) ' b)“: Sei (v1, v2, . . . , vn) eine Basis von V ; wir setzen wi = F (vi). Durch die Injektivitatvon F sind w1, w2, . . . , wn linear unabhangig in W . Mit dimW = dimV = nfolgt daraus, daß (w1, w2, . . . , wn) eine Basis von W bildet. Satz 14.6b) liefertdann die Surjektivitat von F .

Page 72: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

72 KAPITEL IV. LINEARE ABBILDUNGEN

”b) ' c)“: Ist F surjektiv und (v1, v2, . . . , vn) eine Basis von V , so gilt:

<F (v1), F (v2), . . . , F (vn)> = W .

Wegen dim W = n folgt die lineare Unabhangigkeit von (F (v1), F (v2), . . .. . . , F (vn)) . Also ist F nach Satz 14.6a) injektiv und damit bijektiv.

”c) ' a)“: ist trivial. !"

14.8 Bemerkung

Wir wenden nun Satz 14.6 auf lineare Gleichungssysteme an. Bei gegebener KoeffizientenmatrixA # Mat(m, n;K) und rechter Seite b # Km ist ein Losungsvektor x # Kn gesucht mitF (x) := A·x = b. Ein solches x # Kn existiert genau dann, wenn b # F (Kn) ist. Fur jede rechteSeite b gibt es genau dann eine Losung, wenn F surjektiv ist, d. h. wenn (A·e1

t, A·e2t, . . . , A·en

t)ein Erzeugendensystem von Km ist. Also ist ein lineares Gleichungssystem, bei dem die Anzahln der Variablen kleiner ist als die Anzahl m der Gleichungen, nicht fur jede rechte Seite losbar.Das homogene Gleichungssystem A·x = 0 ist genau dann eindeutig losbar, wenn (A·e1

t, A·e2t, . . .

. . . , A · ent) linear unabhangig ist. Somit besitzt ein homogenes lineares Gleichungssystem mit

mehr Variablen als Gleichungen stets eine nicht–triviale Losung. Korollar 14.7 liefert ferner, daßein homogenes lineares Gleichungssystem mit gleich vielen Variablen wie Gleichungen genaudann eine nicht–triviale Losung hat, wenn wenigstens eine rechte Seite existiert, fur die dasentsprechende inhomogene lineare Gleichungssystem nicht losbar ist.

14.9 Beispiel

Es sei Abb(IN, IR) der Vektorraum der reellen Zahlenfolgen undc = c(IR) := {(an)n)0 # Abb(IN, IR) | (an)n)0 ist konvergent}

der Untervektorraum der konvergenten Zahlenfolgen in IR .Wir definieren F : c ! IR durch F ((an)n)0) := lim

n*+an . Dann liefern die Grenzwertsatze aus

der Analysis die Linearitat von F . F ist surjektiv, aber F ist nicht injektiv; denn z. B. gilt:F

!( 1

n+1)n)0

"= 0 = F

!(()1)n · 1

n+1)n)0

".

§ 15 Kern und Bild

Sind V,W # VRK und F # HomK(V,W ) , so ist das Urbild"1F(0W ) := {v # V | F (v) = 0W }

ein Untervektorraum von V wegen 0V #"1F(0W ) und F (v1) + F (v2) = 0W sowie

F (# v) = # F (v) = 0W fur alle v, v1, v2 #"1F(0W ) und # # K .

Ferner ist F (V ) ein Untervektorraum von W (vgl. Satz 14.6).

15.1 Definition

Unter den obigen Voraussetzungen heißt

Ker F :="1F(0W ) der Kern23 von F und Im F := F (V ) das Bild24 von F .

23Engl. kernel = Kern24Engl. image = Bild

Page 73: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 15. KERN UND BILD 73

Im Beweis zu Satz 14.6 haben wir schon implizit gezeigt, daß F # HomK(V,W ) genau danninjektiv ist, wenn KerF = {0V } gilt. Und F ist genau dann surjektiv, wenn Im F = W ist.

15.2 Satz (Dimensionsformel)

Es seien V,W # VRK , V endlich–dimensional und F # HomK(V,W ) . Dann sind auch Ker Fund Im F endlich–dimensional, und es gilt:

dimK V = dimK Ker F + dimK Im F .

Beweis:

(Siehe hierzu auch den Beweis zu Satz 7.6).Als Untervektorraum von V hat Ker F hat endliche Dimension; ist etwa (v1, v2, . . . , vn) eineBasis von V , so gilt nach Satz 14.6:

Im F = <F (v1), F (v2), . . . , F (vn)> , also: dimK Im F , dimK V = n < / .

Nach eventueller Umnumerierung konnen wir annehmen, daß (F (v1), F (v2), . . . , F (vr)) eine Ba-sis von Im F bildet. Daruber hinaus sei (w1, w2, . . . , ws) eine Basis von KerF . Wir zeigen nun,daß dann (v1, v2, . . . , vr, w1, w2, . . . , ws) eine Basis von V ist. Zum Nachweis der linearen Un-

abhangigkeit seir,

&=1$& v& +

s,$=1

%$ w$ = 0V mit $&, %$ # K fur alle 1 , , , r bzw. 1 , * , s .

Anwendung von F auf beiden Seiten liefert:

r*

&=1

$& F (v&) +s*

$=1

%$ F (w$) = 0W ('r*

&=1

$& F (v&) = 0W .

Wegen der linearen Unabhangigkeit von (F (v1), F (v2), . . . , F (vr)) in W folgt: $1 = $2 = . . .

. . . = $r = 0 . Damit ists,

$=1%$ w$ = 0V , also: %1 = %2 = . . . = %s = 0 wegen der linearen

Unabhangigkeit von (w1, w2, . . . , ws) in KerF + V .Zu zeigen bleibt noch, daß(v1, v2, . . . , vr, w1, w2, . . . , ws) auch tatsachlich ein Erzeugendensystem

fur V bildet. Sei dazu x # V ; dann ist F (x) =r,

&=1$& F (v&) mit $& # K . Es ergibt sich:

x)r,

&=1$& v& # Ker F ; also existieren %1, %2, . . . ,%s # K mit x)

r,&=1

$& v& =s,

$=1%$ w$ , woraus

die Behauptung folgt. "

15.3 Folgerung

Sind V,W # VRK endlich–dimensional, so sind folgende Aussagen aquivalent:

a) dimK V = dimK W .

b) Es existiert ein Isomorphismus F : V ! W .

Page 74: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

74 KAPITEL IV. LINEARE ABBILDUNGEN

Beweis:

”a) ' b)“: Ist (v1, v2, . . . , vn) eine Basis von V , so ist F # HomK(V,W ) mit F (vi) = wi

fur eine Basis (w1, w2, . . . , wn) von W nach Satz 14.6c) ein Isomorphismus.

”b) ' a)“: Ist F # HomK(V,W ) ein Isomorphismus, so liefert die Dimensionsformel 15.2:

dimK V = dimK Ker F + dimK Im FF inj.= dimK Im F

F surj.= dimK W .

"

15.4 Bemerkung

Ist V # VRK ein n-dimensionaler Vektorraum, so ist V stets isomorph zu Kn, d. h. es existiertein Isomorphismus F : V ! Kn , in Zeichen: V 8= Kn .

15.5 Definition

Sind V,W # VRK und F # HomK(V,W ) , so heißt dimK Im F der Rang von F , und wird kurzmit rg(F ) bezeichnet.

15.6 Bemerkung

Ist F # HomK(Kn, Km) diejenige lineare Abbildung, welche gemaß Beispiel 14.3a) durch ei-ne Koeffizientenmatrix A # Mat(m, n;K) induziert wird, so ist Ker F der Losungsraum deshomogenen linearen Gleichungssystemes A · x = 0 . Die Dimensionsformel 15.2 liefert dann:

dimK Ker F = n) dimK Im F .

Und ein Vergleich mit Satz 7.6 zeigt, daß gilt: rg(F ) = rg(A) .

§ 16 Lineare Abbildungen und Matrizen

Es sei V # VRK mit dimK V = n und einer Basis (v1, v2, . . . , vn) . Nach Folgerung 15.3 (undSatz 14.6) existiert genau eine lineare Abbildung Φ : V ! Kn mit Φ(vi) := ei

t fur alle 1 , i , n;

diese Abbildung ist ein Isomorphismus. Es gilt fur v =n,

i=1$i vi :

Φ(v) =n*

i=1

$i Φ(vi) =n*

i=1

$i eit = ($1, $2, . . . ,$n)t .

Wollen wir zum Ausdruck bringen, daß Φ bezuglich der Basis A := (v1, v2, . . . , vn) von V gebildetwird, so schreiben wir auch ΦA statt Φ . Ist außerdem W # VRK endlich–dimensional mit einerBasis B := (w1, w2, . . . , wm) , so sei F # HomK(V,W ) gegeben durch F (vj) # W 61%j%n .Zu jedem j # {1, 2, . . . , n} existieren daher Korperelemente $1j , $2j , . . . ,$mj # K mit

F (vj) =m,

i=1$ij wi . Dadurch erhalten wir eine Matrix A = ($ij) # Mat(m, n;K) ; wir schreiben

kunftig ΦAB (F ) := ($ij) und bekommen so eine Abbildung

ΦAB : HomK(V,W ) ! Mat(m, n;K) .

Page 75: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 16. LINEARE ABBILDUNGEN UND MATRIZEN 75

Ist umgekehrt A = ($ij) # Mat(m, n;K) vorgegeben, so existiert nach Satz 14.6 genau ein

F # HomK(V,W ) mit F (vj) =m,

i=1$ij wi fur alle 1 , j , n . Setzen wir dann ΨA

B (A) := F ,

so ergibt sich eine Abbildung

ΨAB : Mat(m, n;K) ! HomK(V,W ) .

Ziel ist es nun, einen Isomorphismus ΦAB zu haben mit (ΦA

B )"1 = ΨAB .

Wir erlautern vorher noch die Definition von ΦAB und ΨA

B in spezieller Situation:Ist V = Kn und W = Km , K := (e1

t, e2t, . . . , en

t) die kanonische Basis von Kn undK! := (e!1t, e!2

t, . . . , e!mt) die kanonische Basis von Km sowie A # Mat(m, n;K) , dann gilt:

ΨKK'(A)(ej

t) =m*

i=1

$ij e!it = ($1j , $2j , . . . ,$mj)t # Km .

Merkregel: Die Spaltenvektoren Aj der Matrix A sind die Bilder der Basis-vektoren ej

t unter der Abbildung F = ΨKK'(A) .

Ist x = (x1, x2, . . . , xn)t # Kn , so gilt mit F = ΨKK'(A) :

ΨKK'(A)(x) = F

! n*

j=1

xj ejt"

=n*

j=1

xj F (ejt) =

n*

j=1

xj

5

667

$1j$2j...

$mj

8

99: = A · x .

Sind nun V,W # VRK beliebige endlich–dimensionale Vektorraume und ΦA : V ! Kn bzw.ΦB : W ! Km die obigen Isomorphismen, so erhalten wir fur jedes x = (x1, x2, . . . , xn)t # Kn :

(ΦB *ΨAB (A) * ΦA

"1)(x) = (ΦB *ΨAB (A))

! n*

j=1

xj vj

"= ΦB

! n*

j=1

xj ΨAB (A)(vj)

"

= ΦB! n*

j=1

xj

m*

i=1

$ij wi

"= ΦB

- m*

i=1

E n*

j=1

$ij xj

Fwi

.

=! n,

j=1$1j xj ,

n,j=1

$2j xj , . . . ,n,

j=1$mj xj

"t

= A · x = ΨKK'(A)(x)

(' ΨAB (A) = ΦB

"1 *ΨKK'(A) * ΦA

oder folgendes sogenannte kommutative Diagramm:

VΨAB (A)! W

ΦA

"

#

"

ΦB

Kn !ΨKK'(A)

Km

Page 76: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

76 KAPITEL IV. LINEARE ABBILDUNGEN

Das Symbol # soll hierbei andeuten, daß das Diagramm kommutativ ist; d. h. um etwa von Vnach Km zu gelangen, kann man beide moglichen ”Wege“ nehmen.

Mit den oben eingefuhrten Bezeichnungen ergibt sich:

16.1 Satz

Die Abbildung ΨAB : Mat(m, n;K) ! HomK(V,W ) ist ein Isomorphismus mit (ΨA

B )"1 = ΦAB .

Beweis:

Zur Abkurzung sei Ψ := ΨAB und Φ := ΦA

B . Sind nun A, B # Mat(m, n;K) sowie #, µ # K ,dann zeigen wir zunachst:

Ψ(# A + µ B) = # Ψ(A) + µΨ(B) .

Dazu verwenden wir die Abbildungen ΦA : V ! Kn und ΦB : W ! Km . Ist noch v # V undx := ΦA(v) # Kn , so gilt:

(Ψ(# A + µ B))(v) = (Ψ(# A + µB))(ΦA"1(x))

= (ΦB"1(# A + µB))(x) (nach Voruberlegung)

= ΦB"1(# A · x + µB · x) (gemaß §6)

= ΦB"1(# A · x) + ΦB

"1(µB · x) (Additivitat von ΦB"1 )

= # ΦB"1(A · x) + µΦB

"1(B · x) (Homogenitat von ΦB"1 )

= # (ΦB"1 *A)(x) + µ (ΦB

"1 *B)(x)= # Ψ(A)(ΦA

"1(x)) + µΨ(B)(ΦA"1(x))

= # Ψ(A)(v) + µΨ(B)(v) .

Also ist Ψ linear.Nach der Definition von Φ und Ψ ist Φ(Ψ(A)) = (%ij) 1(i(m

1(j(n, wobei Ψ(A)(vj) =

m,i=1

%ij wi ist.

Nun gilt fur A # Mat(m, n;K) :

Ψ(A)(vj) = ΦB"1(A(ΦA(vj))) = ΦB

"1(A · ejt)

= ΦB"1

5

667

$1j$2j...

$mj

8

99: =m*

i=1

$ij wi ,

also: (%ij) = ($ij) oder Φ(Ψ(A)) = A .Andererseits ist fur F # HomK(V,W ) die Matrix Φ(F ) = A # Mat(m, n;K) definiert durch

F (vj) =m,

i=1$ij wi mit A = ($ij) 1(i(m

1(j(n. Daraus folgt, daß Ψ(Φ(F )) = Ψ(A) das Element

G # HomK(V,W ) ist mit G(vj) =m,

i=1$ij wi . Wegen der eindeutigen Bestimmtheit einer

linearen Abbildung auf den Basisvektoren ist schließlich F = G , d. h.: Ψ(Φ(F )) = F . Damitgilt insgesamt: Φ*Ψ = idMat(m,n;K) und Ψ*Φ = idHomK(V,W ) . Daraus folgt die Bijektivitat

Page 77: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 16. LINEARE ABBILDUNGEN UND MATRIZEN 77

von Ψ mit Ψ"1 = Φ . (Sind namlich A1, A2 # Mat(m, n;K) mit Ψ(A1) = Ψ(A2) , so folgt:A1 = Φ(Ψ(A1)) = Φ(Ψ(A2)) = A2 ; also ist Ψ injektiv. Ist F # HomK(V,W ) beliebig, so setzeman A := Φ(F ) , dann ist Ψ(A) = Ψ(Φ(F )) = F ; somit ist Ψ auch surjektiv. Nun ist dieUmkehrabbildung Ψ"1 schließlich eindeutig bestimmt wegenΦ = Φ * idHomK(V,W ) = Φ * (Ψ *Ψ"1) = (Φ *Ψ) *Ψ"1 = idMat(m,n;K) *Ψ"1 = Ψ"1 .) "

16.2 Definition

ΦAB (F ) heißt die dem Homomorphismus F # HomK(V,W ) bezuglich der Basen A und B zuge-

ordnete Matrix oder: die darstellende Matrix von F bezuglich A und B.

16.3 Bemerkung

Ist V = Kn und W = Km mit den kanonischen Basen K bzw. K! , so erhalten wir einenIsomorphismus

ΨKK' : Mat(m, n;K) ! HomK(Kn, Km) .

Man kann also (m%n)-Matrizen und lineare Abbildungen von Kn nach Km miteinander ”iden-tifizieren“. Wegen ΦK = idKn und ΦK' = idKm erhalt man: ΨK

K'(A)(x) = A · x .

Sind nun V und W endlich–dimensionale Vektorraume uber K mit den Basen A bzw. B undden Isomorphismen ΦA bzw. ΦB , dann ergibt sich folgendes kommutative Diagramm fur einenHomomorphismus F = ΨA

B (A) # HomK(V,W ) :

V F ! W

ΦA

"

#

"

ΦB

Kn !AKm

16.4 Beispiele

(i) Ist F : IR3 ! IR2 gegeben durch F ((x, y, z)t) = (3x + z , y + 2z)t , so wird F dargestellt

bezuglich der kanonischen Basen durch ΨKK'(F ) = A =

-3 0 10 1 2

., und es gilt:

F ((x, y, z)t) = A · (x, y, z)t .

(ii) Wenn eine lineare Abbildung F : IR2 ! IR2 existiert, welche die Spiegelung an derersten Winkelhalbierenden beschreibt, so ist diese Abbildung durch die Bilder zweierBasisvektoren eindeutig bestimmt. Bezuglich der kanonischen Basis K = (e1

t, e2t) gilt

dann: F (e1t) = e2

t , F (e2t) = e1

t . Fur die darstellende Matrix von F erhalten wir:

A =-

0 11 0

.. Es gilt mit (x1, x2)t # IR2 :

F ((x1, x2)t) = F (x1 e1t + x2 e2

t) = x1 e2t + x2 e1

t =<

x2

x1

=

.

Page 78: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

78 KAPITEL IV. LINEARE ABBILDUNGEN

Wahlen wir nun eine andere Basis des IR2 , zum Beispiel v1 := e1t + e2

t =<

11

=

und

v2 := )e1t +e2

t =<)1

1

=

, so gilt wegen F (v1) = v1 und F (v2) = )v2 fur die darstellende

Matrix von F bezuglich A = (v1, v2) : ΦAA(F ) =

-1 00 )1

.. Wir wollen uns noch

klarmachen, daß auch hierdurch F beschrieben wird.Ist namlich v = x1 e1

t + x2 e2t , dann gilt: v = 1

2 (x1 + x2) v1 + 12 (x2 ) x1) v2 , also:

F (v) = (ΦA"1 * ΦA

A(F ) * ΦA)(v)

= (ΦA"1 * ΦA

A(F ))<

12 (x1 + x2)12 (x2 ) x1)

=

= ΦA"1

-12

-1 00 )1

.·-

x1 + x2x2 ) x1

..

= ΦA"1

-12

-x1 + x2x1 ) x2

..

= 12 (x1 + x2) v1 + 1

2 (x1 ) x2) v2

=<

12 (x1 + x2)) 1

2 (x1 ) x2)12 (x1 + x2) + 1

2 (x1 ) x2)

=

=<

x2

x1

=

.

16.5 Satz

Gegeben seien nunmehr drei Vektorraume U, V, W # VRK mit den endlichen DimensionendimK U = r , dimK V = n und dimK W = m sowie F # HomK(U, V ) und G # HomK(V,W ) .Damit ist G * F # HomK(U, W ) , und es gilt fur die darstellende Matrix bezuglich der BasenA = (u1, u2, . . . , ur) von U , B = (v1, v2, . . . , vn) von V und C = (w1, w2, . . . , wm) von W :

ΦAC (G * F ) = ΦB

C (G) · ΦAB (F ) . (0)

Sind umgekehrt A # Mat(n, r;K) und B # Mat(m, n;K) , so gilt:ΨAC (B ·A) = ΨB

C (B) *ΨAB (A) . (00)

U F ! V

! ""

G * F

G ! W

ΦA

"

#

"

ΦB #

"

ΦC

Kr !AKn

# $#B ·A

!BKm

Beweis zu Satz 16.5:

Ist A := ΦAB (F ) und B := ΦB

C (G) , dann erhalten wir durch Anwendung des IsomorphismusΨAC : Mat(m, r;K) ! HomK(U,W ) auf beide Seiten von (0):

G * F = ΨAC (B ·A) (' ΨB

C (B) *ΨAB (A) = ΨA

C (B ·A) , also (00) .

Page 79: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 17. BASISWECHSEL 79

Damit bleibt nur (0) zu zeigen. Ist dazu u # U , so seien x := ΦA(u) # Kr undz := ΦC((G * F )(u)) # Km . Dann ist (0) aquivalent zu z = (B ·A) · x .Wegen (G * F )(u) = G(F (u)) gilt aber: z = B · (A · x) . Das Assoziativgesetz fur die Matrix-multiplikation liefert dann: z = (B ·A) · x . "

§ 17 Basiswechsel

Gegeben sei V # VRK mit dimK V = n und Basis A = (v1, v2, . . . , vn) , dann gibt eseinen Isomorphismus ΦA : V ! Kn . Ist A! = (v!1, v!2, . . . , v!n) eine weitere Basis von V undΦA' : V ! Kn der entsprechende Isomorphismus, so stellt sich als erstes die Frage, wie fur einv # V die ”Koordinaten“ ΦA'(v) aus den ”Koordinaten“ ΦA(v) berechnet werden konnen. Manerhalt das Diagramm:

V

$$

$$

$$%

ΦA #

&&

&&

&&'

ΦA'

Kn !TKn

das durch die lineare Abbildung T := ΦA' * ΦA"1 kommutativ wird.

Dann ist T ein Isomorphismus; gemaß Bemerkung 16.3 konnen wir T mit einer (n% n)-Matrixidentifizieren, und es gilt: T = ΦA

A'(idV ) .Ist nun v # V und x = ΦA(v) sowie y = ΦA'(v), dann gilt: T ·x = ΦA'(ΦA

"1(x)) = ΦA'(v) = y .

Gilt fur jedes v!i # V : v!i :=n,

j=1&ij vj 6i=1,2,...,n , so bilden wir die Matrix SV = S := Ct = (&ij)t.

Damit ist S # GL(n;K) , und wegen ΦA"1(ej

t) = vj erhalten wir:

ΦA"1(S · ei

t) = ΦA"1

5

667

&i1&i2...

&in

8

99: =n*

j=1

&ij vj = v!i .

Andererseits ist ΦA'"1(ei

t) = v!i , also: ΦA'"1(ei

t) = ΦA"1(S · ei

t) oder ΦA'"1 = ΦA

"1 * S .Daher ist auch das Diagramm

V

$$

$$

$$%

ΦA' #

&&

&&

&&'

ΦA

Kn !SVKn

kommutativ mit SV = S = ΦA * ΦA'"1 .

Als Ergebnis halten wir fest:

Page 80: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

80 KAPITEL IV. LINEARE ABBILDUNGEN

17.1 Lemma (Basiswechsel)

Ist V # VRK endlich–dimensional, sind A = (v1, v2, . . . , vn) und A! = (v!1, v!2, . . . , v!n) zwei

Basen von V , und ist v!i =n,

j=1&ij vj fur alle i = 1, 2, . . . , n mit einer invertierbaren Matrix

C = (&ij) # GL(n;K) , so gilt fur die Koordinaten x = ΦA(v) bzw. y = ΦA'(v) eines Vek-tors v # V :

x = S · y mit S = Ct .

Beweis:

Nach den Voruberlegungen ist:

x = ΦA(v) = ΦA(ΦA'"1(y)) = ΦA(ΦA

"1(S · y)) = S · y .

"

Nun sei noch W # VRK endlich–dimensional, etwa mit dimK W = m , und F : V ! Wlinear. Bezuglich der Basen A = (v1, v2, . . . , vn) von V und B = (w1, w2, . . . , wm) von Wbesitze F die darstellende Matrix ΦA

B (F ) . Wahlt man neue Basen A! = (v!1, v!2, . . . , v!n) inV und B! = (w!1, w!2, . . . , w!m) in W , so erhalten wir die darstellende Matrix ΦA'

B' (F ) (vgl.Beispiel 16.4(ii)). Wie hangen diese beiden darstellenden Matrizen also zusammen?Dazu greifen wir auf die obigen kommutativen Diagramme zuruck:

KnA := ΦA

B (F ) ! Km

&&

&&

&&(

ΦA #

$$

$$

$$)

ΦB

SV

#

# V F ! W #

#

SW

$$

$$

$$%

ΦA' #&

&&

&&

&'

ΦB'

Kn !B := ΦA'

B' (F )Km

und erhalten:

17.2 Satz (Transformationsformel fur darstellende Matrizen)

Unter den obigen Voraussetzungen und Bezeichnungen gilt: B = SW"1 ·A · SV .

Page 81: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 17. BASISWECHSEL 81

Beweis:

Aus dem Diagramm entnimmt man:

F = ΦB"1 *A *ΦA = ΦB'

"1 *B *ΦA' und SV = ΦA *ΦA'"1 sowie SW = ΦB *ΦB'

"1 .

Daraus folgt:

B = ΦB' * F * ΦA'"1 = ΦB' * ΦB

"1 *A * ΦA * ΦA'"1 = SW

"1 ·A · SV .

"

17.3 Folgerung

Ist F # HomK(V, V ) ein Endomorphismus, kurz: F # EndK(V ) , und sind A und A! zwei Basen

von V , etwa A = (v1, v2, . . . , vn) und A! = (v!1, v!2, . . . , v!n) , mit v!i =n,

j=1&ij vj 61%i%n , so gilt:

ΦA'A'(F ) = S"1 · ΦA

A(F ) · S mit S = Ct = (&ij)t .

17.4 Definition

Zwei Matrizen A, B # Mat(m, n;K) heißen aquivalent, wenn es Matrizen S # GL(m;K) undT # GL(n;K) gibt mit B = S"1 ·A · T .Zwei quadratische Matrizen A, B # Mat(n, n;K) heißen ahnlich, wenn es eine MatrixS # GL(n;K) gibt mit B = S"1 ·A · S .

17.5 Beispiel

Nach Beispiel 11.6 bilden die Monome e0, e1, e2, . . . , en mit ek(x) = xk fur x # IR eine Basisdes Polynomraumes Πn = <e0, e1, e2, . . . , en> + Abb(IR, IR) . Wir definieren nun Funktionen

f0, f1, f2, . . . , fn durch fk(x) :=k"1Dj=0

(x) j) fur alle x # IR ; dann gilt:

f0(x) = 1 = e0(x) , f1(x) = x = e1(x) , f2(x) = x (x) 1) , f3(x) = x (x) 1) (x) 2) , . . . .

Man kann zeigen, daß auch die Familie (f0, f1, f2, . . . , fn) eine Basis von Πn bildet (vgl. Ubungs-

aufgabe 16–1a). Deshalb existieren Zahlen Si,j # IR mit ei =i,

j=0Si,j fj und Zahlen si,j # IR

mit fi =i,

j=0si,j ej . Die si,j heißen Stirling’sche25 Zahlen erster Art und Si,j Stirling’sche Zah-

len zweiter Art. Die daraus gebildeten Matrizen (sij)0%i,j%n und (Sij)0%i,j%n sind regular. Teil-weise konnen diese Zahlen berechnet oder durch Rekursionsformeln bestimmt werden. (Vgl.hierzu auch §53 aus Algebra I.)

25James Stirling, schottischer Mathematiker (! Mai 1692, †05.12.1770)

Page 82: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

82 KAPITEL IV. LINEARE ABBILDUNGEN

§ 18 Der Dualraum

18.1 Definition

Es sei V # VRK ; dann heißt V # := HomK(V,K) der zugehorige (algebraische) Dualraum oderkurz: Dual. Jedes Element ! # V # heißt eine Linearform (oder ein (lineares) Funktional) auf V .

18.2 Beispiel

Ist V = Kn , und sind a1, a2, . . . , an # K , so wird durch die Abbildung ! : Kn ! K mit

!(x) = !((x1, x2, . . . , xn)t) := (a1, a2, . . . , an) ·

5

667

x1x2...

xn

8

99: eine Linearform ! # (Kn)# definiert;

es gilt: !(x) = a1 x1 + a2 x2 + . . . + an xn . Ein lineares Gleichungssystem laßt sich also in derForm

!1(x) = $11 x1 + $12 x2 + . . . + $1n xn = %1

!2(x) = $21 x1 + $22 x2 + . . . + $2n xn = %2...

...!m(x) = $m1 x1 + $m2 x2 + . . . + $mn xn = %m

schreiben. Die Losungsmenge des zugehorigen homogenen linearen Gleichungssystems ist dieMenge Ker !1 .Ker !2 . . . . .Ker !m .Aus den Uberlegungen in §15 folgt: (V #,+, ·) bildet einen K–Vektorraum mit der DimensiondimK V # = dimK V . Also ist fur endlich–dimensionale V der zugehorige Dualraum V # stetsisomorph zu V .

18.3 Satz

Ist V # VRK endlich–dimensional, etwa A = (v1, v2, . . . , vn) eine Basis von V , dann existiereneindeutig bestimmte Linearformen !1, !2, . . . ,!n # V # mit !i(vj) = -ij fur alle 1 , i, j , n .Und (!1, !2, . . . ,!n) ist eine Basis von V # , genannt die zu A duale Basis.

Beweis:

Nach Satz 14.6 gibt es fur jedes i # {1, 2, . . . , n} genau ein !i # V # mit !i(vj) = -ij . Es bleibtzu zeigen, daß (!1, !2, . . . ,!n) auch eine Basis von V # bildet. Sei dazu ! # V # beliebig; fur

1 , i , n definieren wir #i := !(vi) und setzen " :=n,

i=1#i !i . Dann gilt fur alle 1 , j , n :

"(vj) =n*

i=1

#i !i(vj) = #j = !(vj) .

Also stimmen ! und " auf einer Basis und damit auf ganz V # uberein. Somit gilt:

V # = <!1, !2, . . . ,!n> .

Zur linearen Unabhangigkeit sein,

i=1#i !i = 0 , d. h.

n,i=1

#i !i(v) = 0 fur jedes v # V . Durch

Einsetzen der Basisvektoren aus (v1, v2, . . . , vn) erhalten wir: #1 = #2 = . . . = #n = 0 . "

Page 83: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 18. DER DUALRAUM 83

18.4 Folgerung

Es sei V # VRK endlich–dimensional. Dann gilt:

a) Zu jedem v # V mit v $= 0 existiert ein lineares Funktional ! # V # mit !(v) $= 0 .

b) Ist v # V , und gilt: !(v) = 0 fur alle ! # V # , so ist v = 0 .

(Andere Sprechweise: ”Annullierung“ von v durch alle Funktionale ! # V # .)

Beweis:

a) und b) sind aquivalent. Es sei A = (v1, v2, . . . , vn) eine Basis von V und A# = (!1, !2, . . . ,!n)

die duale Basis zu A . Ist nun v # V , etwa: v =n,

i=1#i vi , und v $= 0 , so existiert ein Index

i0 # {1, 2, . . . , n} mit #i0 $= 0 . Dann gilt: !i0(v) =n,

i=1#i !i0(vi) = #i0 $= 0 . "

18.5 Definition

Ist V # der Dualraum eines V # VRK , so heißt V ## := (V #)# der Bidual(raum) von V . DieElemente von V ## sind Linearformen auf V # , sie ordnen also jedem Funktional ! # V # einenSkalar aus dem Korper K zu.

18.6 Satz

Es sei V # VRK und Φ : V ! V ## definiert durch Φ(v)(!) := !(v) fur ein ! # V # . Dann ist Φein Monomorphismus. Ist V zusatzlich endlich–dimensional, so ist Φ sogar ein Isomorphismus.

Beweis:

Wir zeigen zuerst, daß Φ(v) linear ist fur jedes v # V . Seien dazu !1, !2 # V # und #, µ # K ;dann gilt:

Φ(v)(# !1 + µ!2) = (# !1 + µ!2)(v)= # !1(v) + µ!2(v)= # Φ(v)(!1) + µΦ(v)(!2) .

Also ist Φ(v) # V ## fur alle v # V . Nun zeigen wir die Linearitat von Φ gemaß Axiom (L).Dazu seien v1, v2 # V und #, µ # K beliebig. Dann gilt fur alle Funktionale ! # V # :

Φ(# v1 + µ v2)(!) = !(# v1 + µ v2)= # !(v1) + µ!(v2)= # Φ(v1)(!) + µΦ(v2)(!)= (# Φ(v1) + µΦ(v2))(!)

' Φ(# v1 + µ v2) = # Φ(v1) + µΦ(v2) .

Page 84: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

84 KAPITEL IV. LINEARE ABBILDUNGEN

Die Injektivitat von Φ # HomK(V, V ##) ergibt sich durch Betrachtung von v # V mit Φ(v) = 0,d. h.: Φ(v)(!) = 0 6'$V " , also mit !(v) = 0 6'$V " . Daher ergibt sich aus Folgerung 18.4b),die auch im unendlich–dimensionalen Fall gilt: v = 0 . Ist V endlich–dimensional, so gilt:

dimK V = dimK V # = dimK V ## .

Und Folgerung 15.3 liefert die Bijektivitat von Φ . "

18.7 Definition

Es sei V # VRK ; eine Linearform ! # V # und ein Vektor v # V heißen zueinander orthogonal ,wenn !(v) = 0 gilt. Wir schreiben dann: v 9 ! .Ist nun ! $= M + V eine Teilmenge, so sei

M, := {! # V # | v 9 ! fur alle v # M} ;

und fur ! $= M# + V # sei

M#, := {v # V | v 9 ! fur alle ! # M#} .

18.8 Satz

Ist V # VRK und ! $= M + V , dann gilt:

a) M, ist ein Untervektorraum von V # mit M, = <M>, .

b) dimK V = dimK <M>+ dimK M, .

c) <M> ist ein Unterraum von (M,), : <M> : (M,), .Gleichheit gilt genau dann, wenn <M> endlich–dimensional ist.

Beweis: Ubung. (")

18.9 Definition

Gegeben seien V,W # VRK und F # HomK(V,W ) ; dann ist die duale Abbildung (oder trans-ponierte Abbildung) F # : W # ! V # auf folgende Art und Weise definiert:

Ist " # W # , so sei F #(") = " * F , d. h. F #(")(v) = "(F (v)) fur jedes v # V .

Wir erhalten das Diagramm:

V F ! W% % % % % % % % % % % % % % % % % % % % % % % % % % %'

F #(") = " * F

"

"

K

welches durch F #(") kommutativ wird.Es laßt sich leicht zeigen, daß F # # HomK(W #, V #) ist.

Page 85: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 18. DER DUALRAUM 85

18.10 Lemma

Sind V,W # VRK endlich–dimensional, so gilt fur ein F # HomK(V,W ) :

Im F # = (KerF ), .

Beweis:

”+“: Es sei ! # Im F # ; dann existiert ein " # W # mit ! = F #(") , d. h. ! = " * F . Istv # Ker F , so folgt:

!(v) = "(F (v)) = "(0) = 0 , also: ! # (KerF ), .

”7“: Sei ! # (KerF ), ; gesucht ist ein " # W # mit ! = F #(") , d. h. mit ! = " * F .Zur Konstruktion von " wahlen wir verschiedene Basen (u1, u2, . . . , us, v1, v2, . . . , vr) vonV und (w1, w2, . . . , wr, wr+1, . . . , wm) von W derart, daß (u1, u2, . . . , us) eine Basis vonKer F sowie (w1, w2, . . . , wr) eine Basis von Im F bildet und wi = F (vi) gilt fur allei = 1, 2, . . . , r (vgl. Beweis zu Satz 15.2). Wir definieren nun " durch

"(wj) :=;

!(vj) fur j = 1, 2, . . . , r0 fur j = r+1, r+2, . . . ,m ;

dann ist " # W # . Wegen ui # Ker F und ! # (KerF ), folgt:

F #(")(ui) = "(F (ui)) = "(0) = 0 = !(ui) fur alle i = 1, 2, . . . , ssowie F #(")(vj) = "(F (vj)) = "(wj) = !(vj) fur alle j = 1, 2, . . . , r .

Damit stimmen ! und F #(") auf einer Basis uberein, sind also gleich.

"

Page 86: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

Kapitel V

Eigenwerte

Von nun an sei K ein Korper der Charakteristik charK = 0 , d. h. in K gelte stets:

1 + 1 + . . . + 1# $% &n Summanden

$= 0

fur alle n # IN# . (Naheres hierzu siehe Definition 55.11 in Algebra I.)

Wir stellen uns fur K speziell Q , IR oder C vor.Jeder Korper der Charakteristik 0 enthalt unendlich viele Elemente (vgl. auch Satz 57.9a).

§ 19 Grundlegende Begriffe

Unser Ziel in diesem Kapitel ist die Beschreibung von linearen Abbildungen F # EndK(V ) mitdimK V = n < / , die moglichst ”einfache“ darstellende Matrizen ΦB

A(F ) bzw. ΦBB(F ) besitzen.

Grundlegend ist hierbei die Transformationsformel 17.2: B = S"1 ·A · S , wenn im Urbildraumund im Bildraum die gleiche Basis B bzw. B! gewahlt wird sowie A = ΦB

B(F ) bzw. B = ΦB'B'(F )

ist. Gesucht wird nun eine Basis B! von V derart, daß B moglichst ”einfache“ Gestalt hat; fernerist eine Methode gefragt, wie man die Transformationsmatrix S finden kann.

Als Beispiel betrachten wir die Spiegelung F # EndIR(IR2) an der ersten Winkelhalbierenden(vgl. Beispiel 16.4(ii)). Bezuglich der Basis A = (v1, v2) := ((1, 1)t, ()1, 1)t) hat die darstellendeMatrix A = ΦA

A(F ) # Mat(2, 2; IR) eine einfache Gestalt. Es gilt namlich:

F (v1) = v1 , F (v2) = )v2 und damit: F ($ v1 + % v2) = $ v1 ) % v2 6",($IR

sowie A =<

1 00 )1

=

. Immer dann, wenn F (vi) = #i vi ist, ergibt sich eine Diagonalmatrix

als darstellende Matrix von F .

Wir wollen diese Beobachtung verallgemeinern:

19.1 Definition

Es seien V # VRK ein K–Vektorraum und F # EndK(V ) ein Endomorphismus. Ein Skalar# # K heißt ein Eigenwert von F , wenn ein Vektor x # V \ {0} mit F (x) = # x existiert. Ein

86

Page 87: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 19. GRUNDLEGENDE BEGRIFFE 87

solches x nennt man dann einen Eigenvektor von F zum Eigenwert # .Der Untervektorraum

V (#) = V! := {x # V | F (x) = # x} = Ker (# idV )F )

von V heißt der Eigenraum von F zum Eigenwert # .

19.2 Bemerkung

Ist V # VRK und dimK V = n sowie F # EndK(V ) , so sind folgende Aussagen aquivalent:

(i) Es gibt eine Basis von V , die nur aus Eigenvektoren von F besteht.

(ii) Es existiert eine Basis B von V derart, daß ΦBB(F ) eine Diagonalmatrix ist, d. h. daß gilt:

ΦBB(F ) =

5

667

#1 0#2

. . .0 #n

8

99: .

Beweis:

Ist etwa B = (v1, v2, . . . , vn) eine Basis von V , dann gilt nach §16 fur die darstellende Matrix

A = ($ij) = ΦBB(F ) von F : F (vj) =

n,i=1

$ij vi , d. h. die Spalten von A sind die Koordinaten-

vektoren von F (v1), F (v2), . . . , F (vn) bezuglich (v1, v2, . . . , vn) .

”(i) ' (ii)“: Ist jedes vj ein Eigenvektor von F , so existiert zu jedem j # {1, 2, . . . , n} ein#j # K mit F (vj) = #j vj ; daraus ergibt sich fur die j-te Spalte von A dieDarstellung:

Aj = (0, 0, . . . , 0, #j , 0, 0, . . . , 0)t .

Dabei steht der Eigenwert #j jeweils in der j-ten Zeile von A .

”(ii) ' (i)“: folgt entsprechend aus der Voruberlegung. !"

Leider besitzt im allgemeinen nicht jedes F # EndK(V ) die Eigenschaft, daß V eine Basis auslauter Eigenvektoren hat. Wir konnen aber ein hinreichendes Kriterium fur die Existenz einersolchen Basis angeben:

19.3 Lemma

(i) Sind v1, v2, . . . , vm Eigenvektoren zu paarweise verschiedenen Eigenwerten #1, #2, . . . ,#m

von F # EndK(V ) , so sind v1, v2, . . . , vm linear unabhangig.

(ii) Ist speziell dimK V = n , und besitzt F paarweise verschiedene Eigenwerte #1, #2, . . . ,#n ,dann gibt es stets eine Basis von V aus Eigenvektoren.

Page 88: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

88 KAPITEL V. EIGENWERTE

Beweis zu Lemma 19.3:

zu (i): Wir zeigen die Behauptung durch vollstandige Induktion nach m .Der Fall m = 1 ist wegen v1 $= 0 klar. Sei nun m & 2 und das Lemma fur dieAussage mit m) 1 bewiesen. Ist dann

m,i=1

$i vi = 0 mit $1, $2, . . . ,$m # K , so folgtaus

0 = #m 0 = #m

m*

i=1

$i vi =m*

i=1

#m $i vi und 0 = F (0) =m*

i=1

$i F (vi) =m*

i=1

$i #i vi

durch Subtraktion:

0 =m*

i=1

$i (#m ) #i) vi =m"1*

i=1

$i (#m ) #i) vi .

Nach Induktionsvoraussetzung sind v1, v2, . . . , vm"1 linear unabhangig; also erhaltman: $i (#m ) #i) = 0 fur alle i = 1, 2, . . . ,m) 1 . Wegen #m ) #i $= 0 ergibt sichdaraus: $1 = $2 = . . . = $m"1 = 0 , und aus $m vm = 0 folgt wegen vm $= 0 auch:$m = 0 .

zu (ii): ist ein Sonderfall von (i). (Man verwende Bemerkung 3.16(i).) !"

Wie erhalt man nun die Eigenwerte eines Endomorphismus? — Dazu stellen wir folgende Uber-legung an:Ist F # EndK(V ) und # # K sowie V! = Ker (# idV )F ) , so ist # genau dann ein Eigenwertvon F , wenn V! $= {0} ist, d. h. wenn die lineare Abbildung # idV )F # HomK(V, V ) nichtinjektiv ist. Gilt: dimK V = n < / , so ist dies (nach Korollar 14.7) aquivalent dazu, daß# idV )F nicht bijektiv ist. Im allgemeinen ist die letztere Bedingung schwacher.Das fuhrt zu:

19.4 Definition

Ist V # VRK und F # EndK(V ) , so heißt # # K ein Spektralwert von F , wenn # idV )Fnicht bijektiv ist, d. h. kein Automorphismus auf V ist.Die Menge aller Spektralwerte von F heißt das Spektrum von F und wird mit *(F ) bezeichnet.

19.5 Bemerkung

Die Menge aller Eigenwerte eines Endomorphismus ist stets eine Teilmenge des Spektrums. Istdabei dimK V = n < / , so stimmen beide Mengen uberein.Gilt: dimK V = n und G # EndK(V ) , dann ergibt sich aus der Kommutativitat des Diagramms

V G ! V

ΦB

"

#

"

ΦB

Kn !ΦBB(G)

Kn

Page 89: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 19. GRUNDLEGENDE BEGRIFFE 89

daß G genau dann bijektiv wird, wenn ΦBB(G) eine bijektive Abbildung von Kn in sich beschreibt,

d. h. wenn die darstellende Matrix von G regular ist.Dies wenden wir auf G := # idV )F an.

19.6 Lemma

Es sei dimK V = n mit V # VRK . Dann sind fur F # EndK(V ) und # # K folgende Aussagenaquivalent:

(i) # ist Eigenwert von F , d. h.: # # *(F ) .

(ii) Es gilt: det (# En)A) = 0 , wobei A die darstellende Matrix von F bezuglich irgendeinerBasis von V ist.

Beweis:

Nach den Voruberlegungen ist # genau dann ein Eigenwert von F , wenn # idV )F nicht bijektivist. Ist nun B = (v1, v2, . . . , vn) eine beliebige Basis von V und A = ΦB

B(F ) , so ergibt sich diebehauptete Aquivalenz daraus, daß die darstellende Matrix

ΦBB(# idV )F ) = ΦB

B(# idV )) ΦBB(F )

= # · ΦBB(idV )) ΦB

B(F )

= # En )A

singular ist. Dies ist aquivalent dazu, daß det (# En )A) = 0 gilt. "

19.7 Definition

Es sei dimK V = n . Ein Endomorphismus F # EndK(V ) heißt diagonalisierbar, wenn V eineBasis aus Eigenvektoren von F besitzt. Ist A = ΦB

B(F ) die darstellende Matrix von F bezuglicheiner Basis B von V , so heißt die Abbildung pA : K ! K mit

pA(t) := det (t En )A) fur alle t # K

das charakteristische Polynom von A.Wenn wir zeigen konnen, daß pA unabhangig ist von der Wahl der Basis B , so konnen wir pA

auch das charakteristische Polynom von F nennen. Wir schreiben dann statt dessen: pF .

19.8 Lemma

Sind A, B # Mat(n, n;K) zwei ahnliche Matrizen, so gilt stets: pA = pB .Speziell ist also das charakteristische Polynom unabhangig von der Wahl der Basis B in V .

Page 90: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

90 KAPITEL V. EIGENWERTE

Beweis zu Lemma 19.8:

Nach Definition 17.4 gilt: B = S"1 · A · S mit einem S # GL(n;K) ; fur jedes t # K folgtdaher: t En = S"1 · t En · S , also:

t En )B = S"1 · t En · S ) S"1 ·A · S = S"1 · (t En )A) · S .

Und der Determinanten–Multiplikationssatz (D12) aus Satz 11.2 liefert fur alle t # K :

pB(t) = det (t En )B) = det S"1 · det (t En )A) · detS

= detS"1 · det S · pA(t)

= det (S"1 · S) · pA(t) = det En · pA(t) (D3)= pA(t) .

"

19.9 Bemerkung

Ist K = {0, 1} der Korper mit zwei Elementen, und besitzt F # EndK(K2) die darstellende

Matrix A =<

1 00 0

=

bezuglich der kanonischen Basis K von K2 , so gilt: pA(t) = t (t) 1)

mit pA(0) = pA(1) = 0 . Also ist pA das Nullpolynom, obwohl die Koeffizienten von pA nichtverschwinden. Um dieses Phanomen zu vermeiden, hatten wir charK = 2 , also 1 + 1 = 0 ,anfangs ausgeschlossen durch die generelle Voraussetzung charK = 0 .

§ 20 Diagonalisierbarkeit

In §19 haben wir bisher von diagonalisierbaren Homomorphismen, von Eigenwerten und Eigen-vektoren sowie Eigenraumen von Homomorphismen gesprochen.Wir wollen diese Begriffe Eigenwert, Eigenvektor und Eigenraum auf quadratische Matrizenubertragen bzw. von einer diagonalisierbaren Matrix A sprechen, wenn die analoge Eigenschaftfur den ”kanonischen“ Homomorphismus ΨK

K(A) = F gilt bezuglich der kanonischen Basis Kvon Kn , d. h. hier fur den Endomorphismus F # EndK(Kn) mit F (x) = A · x .(Die entsprechenden Begriffe fur eine Matrix A entnehme man also einfach den Definitionen 19.7und 19.1 fur endlich–dimensionales V .)Zur Bestimmung von Eigenwerten von A wird das charakteristische Polynom pA der Matrixherangezogen. Ist denn pA uberhaupt ein Polynom im ublichen Sinne? — Nach der Leibniz’schenFormel aus Satz 11.3 erhalten wir fur eine quadratische Matrix A = ($ij) # Mat(n, n;K) :

pA(t) = det (t En )A) = ()1)n · det (A) t En)

= ()1)n ·

)))))))))))

$11)t $12 $13 · · · $1n

$21 $22)t $23 · · · $2n

$31 $32 $33)t . . . ......... . . . . . . $n"1,n

$n1 $n2 · · · $n,n"1 $nn)t

)))))))))))

= ()1)n ·- nC

i=1

($ii ) t) +*

$$Sn\{id}sign* · %1,$(1) · %2,$(2) · . . . · %n,$(n)

.

Page 91: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 20. DIAGONALISIERBARKEIT 91

mit %ij := $ij fur alle i $= j und %ii := $ii) t . Fur jedes * # Sn\{id} existieren (mindestens)zwei Indizes k, l # {1, 2, . . . , n} mit k $= *(k) und l $= *(l) . Daher gilt fur alle t # K weiter:

()1)n · pA(t) =nC

i=1

($ii ) t) + >qA(t)

mit >qA # Πn"2 . Also folgt fur ein geeignetes qA # Πn"2 :

pA(t) =nC

i=1

(t) $ii) + qA(t) .

Damit hat das charakteristische Polynom pA einer (n% n)-Matrix A die Form:

pA(t) =n*

i=0

$i ti

mit Koeffizienten

$n = 1 , $n"1 = )n*

i=1

$ii = ) sp(A) und $0 = pA(0) = det ()A) = ()1)n · detA ,

ist also tatsachlich ein Polynom pA # Πn vom Grad , n im Sinne von Beispiel 2.7a).

Wir wollen nun noch einige Eigenschaften von Polynomen zusammenstellen:

20.1 Bemerkung

Es sei kurz Π :=3

n)0Πn mit dem Polynomraum Πn + Abb(K, K) entsprechend zu Bei-

spiel 2.7a). Ist p # Π ein Polynom, etwa: p(t) :=n,

i=0$i ti mit Koeffizienten $i # K sowie mit

t # K , dann heißt

grad p :=;)/ , falls $0 = $1 = $2 = . . . = $n = 0max{i # IN | $i $= 0}

der Grad von p.

Sind p, q # Π zwei Polynome, etwa p mit der Darstellung wie oben und q(t) =m,

j=0%j tj mit

%j # K , so gilt fur alle t # K :

(p · q)(t) =n+m*

i=0

&i ti mit &i :=

i*

k=0

$k %i"k fur jedes i = 0, 1, 2, . . . , n + m ,

wobei $k = 0 fur alle k > n und %i"k = 0 fur alle i) k > m sein soll. Dann ist

grad(p · q) = grad p + grad q

mit )/+ m = n + ()/) = )/+ ()/) = )/ als Vereinbarung.Ferner gilt: grad(p + q) , max{grad p , grad q} .

Page 92: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

92 KAPITEL V. EIGENWERTE

20.2 Satz (Division mit Rest)

Zu P,Q # Π mit grad Q & 0 existieren eindeutig bestimmte Polynome q, r # Π mit

P = Q · q + r und grad r < gradQ .

Beweis:

(i) Zur Eindeutigkeit: Es seien q, r, q!, r! # Π mit P = Q·q+r = Q·q!+r! und grad r < gradQsowie grad r! < gradQ . Dann folgt:

(q ) q!) ·Q = r! ) r mit grad(r! ) r) , max{grad r! , grad r} < gradQ .

Ware nun q ) q! $= 0 , so mußte folgen:

grad(r! ) r) = grad ((q ) q!) ·Q) = grad(q ) q!) + gradQ & gradQ

im Widerspruch zu grad(r! ) r) < gradQ . Also ist stets q ) q! = 0 und damit auchr! ) r = 0 .

(ii) Zur Existenz: Ist P = 0 das Nullpolynom oder gradP < gradQ , so wahle man einfach:

q = 0 . Gilt jedoch: gradP & gradQ — d. h. fur P (t) =n,

i=0$i ti und Q(t) =

m,j=0

%j tj

mit $n $= 0 und %m $= 0 ist n & m —, so definieren wir ein Polynom P1 # Π durch

P1(t) := P (t)) $n

%mtn"m ·Q(t) .

Dann ist entweder P1 = 0 , d. h. gradP1 = )/ , oder gradP1 =: n1 < n . Gilt: n1 < m ,so setzt man q(t) :=

$n

%mtn"m . Im Falle n1 & m wiederholen wir den obigen Schritt mit

P1 statt mit P , d. h.:

P2(t) := P1(t))&n1

%mtn1"m ·Q(t) fur P1(t) =

n1*

i=0

&i ti mit &n1 $= 0 .

Dann gilt: gradP2 =: n2 < n1 und

P2(t) = P (t))E$n

%mtn"m +

&n1

%mtn1"m

F·Q(t) .

Ist dabei nun n2 = gradP2 < m , so setze man fur q(t) den obigen Term in eckigenKlammern. Anderenfalls fuhre man diesen oben gemachten Schritt noch einmal aus. Nachendlich vielen Schritten bricht das Verfahren schließlich ab, und wir erhalten das Ergebnisder Division P ÷Q mit Rest r .

"

Page 93: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 20. DIAGONALISIERBARKEIT 93

20.3 Beispiel

Es seien K = IR sowie P (t) = 3 t3 + 2 t + 1 und Q(t) = t2 ) 4 t zwei Polynome. Der Beweiszu Satz 20.2 ergibt die Polynomdivision:

(3 t3 + 0·t2 + 2 t + 1) : (t2 ) 4 t) = 3 t + 12 +50 t + 1t2 ) 4 t) (3 t3 ) 12 t2)

12 t2 + 2 t [= P1(t)]) (12 t2 ) 48 t)

50 t + 1 [= P2(t)]

oder:P (t) = 3 t2 + 2 t + 1 = (t2 ) 4 t) · (3 t + 12) + (50 t + 1) = Q(t) · q(t) + r(t) .

20.4 Korollar

(i) Zu jedem Polynom P # Π und jedem # # K gibt es stets ein q # Π mit

P (t) = (t) #) · q(t) + P (#) fur alle t # K .

(ii) Ist # # K eine Nullstelle von P # Π mit gradP & 1 , d. h. gilt: P (#) = 0 , so gibt es einPolynom q # Π mit

P (t) = (t) #) · q(t) fur alle t # K .

(iii) Jedes Polynom P # Π mit grad P & 0 hat hochstens gradP Nullstellen in K .

Beweis:

zu (i): Man setze Q(t) := t)# fur alle t # K . Mit Satz 20.2 gilt: P (t) = (t)#) · q(t)+ r(t)mit grad r < 1 , d. h.: r = 0 oder r(t) = $ $= 0 . Und t = # eingesetzt, ergibt:$ = r(#) = P (#) .

zu (ii): folgt direkt aus (i). !

zu (iii): Mehrmalige Anwendung von (ii) liefert: P (t) =mD

i=1(t ) #i) · q(t) , wobei q # Π ein

Polynom ohne Nullstellen in K ist. Nach der Grad–Formel aus Bemerkung 20.1 lautetdann die Anzahl der Nullstellen: m = grad

! mDi=1

(t) #i)", gradP .

"

20.5 Definition

Ist P # Π ein Polynom mit gradP & 0 und # # K , so heißt

µ(P ;#) := max {r # IN | P (t) = (t) #)r ·Q(t) mit Q # Π}

die Vielfachheit der Nullstelle # von P .

Page 94: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

94 KAPITEL V. EIGENWERTE

Ein Korper K heißt algebraisch abgeschlossen, falls jedes Polynom P # Π mit gradP & 1 eineNullstelle # # K besitzt.

Uber derartigen Korpern kann man Polynome stets vollstandig in Linearfaktoren zerlegen. Dasbedeutet:Fur ein Polynom der Form P (t) =

n,i=0

ai ti mit n & 1 und an $= 0 , gilt nach unseren

Voruberlegungen fur alle t # K :

P (t) = an

nC

i=1

(t) #i) = an

kC

j=1

(t) #ij )rj ,

wobei #i1 , #i2 , . . . ,#ik # K die k paarweise verschiedenen Nullstellen von P seien (also mitk , n ) und wobei jeweils rj := µ(P ;#ij ) die Vielfachheit von #ij fur jedes j = 1, 2, . . . , k sei.

Aus ”Gradgrunden“ ist dann:k,

j=1rj = n = gradP . Und ein solches q(t) = (t) #i) nennt man

einen Linearfaktor von P (wegen grad q = 1 ).

Meistens beweist man mit Hilfsmitteln der Funktionentheorie (etwa in Analysis IV):

20.6 Satz (Fundamentalsatz der Algebra)

Der Korper K = C der komplexen Zahlen ist algebraisch abgeschlossen.

Als Folgerung daraus erhalten wir:

20.7 Satz

(i) Jeder Endomorphismus F # HomC(V, V ) mit dimC V = n besitzt genau n Eigenwertein C .

(ii) Ist F # HomIR(V, V ) und dimIR V = n ungerade, so hat F (mindestens) einen Eigenwertin IR .

(iii) Ist A # Mat(n, n; C) eine Matrix mit reellen Eintragen und # # C ein Eigenwert von A ,so ist auch26 # ein Eigenwert von A ; ferner gilt: µ(pA;#) = µ(pA;#) .

(iv) Ist A # Mat(n, n; C) mit27 AH := At = A , so besitzt A nur reelle Eigenwerte.

Beweis:

zu (i): liefert der Fundamentalsatz der Algebra. !zu (ii): zeigt man z. B. in Analysis I.

26Mit % := a# b i $ C bezeichnet man die zu % = a + b i konjugiert komplexe Zahl. Somit: A := (#ij) .27Man spricht von Hermite’schen Matrizen; vgl. hierzu Definition 26.4 in Lineare Algebra II.

Page 95: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 20. DIAGONALISIERBARKEIT 95

zu (iii): Aus A · x = # x mit Eigenvektor x # Cn \ {0} folgt fur reelles A :

A · x = A · x = A · x = # x = # x

mit x # Cn \ {0} . Also ist auch # ein Eigenwert von A .Um die andere Behauptung zu zeigen, genugt es zu beweisen, daß aus µ(pA;#) & kfur k # IN# stets µ(pA;#) & k folgt.Fur # = # ist die behauptete Aussage trivial; im Falle # $= # betrachten wir dasPolynom Q! # Π2 mit reellen Koeffizienten:

Q!(t) := (t) #) · (t) #) = t2 ) (# + #) t + # # = t2 ) 2 (Re #) t + |#|2 .

Dann ist pA(t) = qA(t) ·Q!(t) fur ein Polynom qA # Πn"2 mit reellen Koeffizienten.Durch vollstandige Induktion nach k zeigt man nun, daß aus µ(pA;#) & k folgt:

pA(t) = Pk(t) · (Q!(t))k

mit einem weiteren Polynom Pk mit reellen Koeffizienten. Also ist µ(pA;#) & k . Istnun µ(pA;#) = k, so ergibt unsere Voruberlegung: µ(pA;#) = k. Denn: Angenommen,es ware µ(pA;#) > k , so folgte: µ(pA;#) = µ(pA;#) > k im Widerspruch zurVoraussetzung µ(pA;#) = k.(Nun ein paar Hinweise zu den verwendeten Darstellungen pA(t) = qA(t) ·Q!(t) undpA(t) = Pk(t) · (Q!(t))k :Nach Satz 20.2 existieren zu pA und Q! Polynome qA und r mit reellen Koeffizientenund

pA = Q! · qA + r sowie grad r < gradQ! = 2 .

Fassen wir diese Polynome als Polynome mit komplexen Koeffizienten auf, so giltdiese Beziehung ebenfalls. Durch Einsetzen von # und # folgt: r(#) = r(#) = 0 .Wegen # $= # muß r = 0 sein. Dies ergibt die erste gesuchte Faktorisierung furk = 1 , indem wir P1 = qA wahlen.Zur zweiten Aussage: Ist k > 1 , so gilt nach Induktionsvoraussetzung:

pA(t) = Pk"1(t) · (Q!(t))k"1 ;

wegen µ(pA;#) & k muß dabei Pk"1(#) = 0 sein. Da Pk"1 reelle Koeffizientenbesitzt, ist auch Pk"1(#) = 0 . Wenden wir schließlich unsere oben durchgefuhrtenUberlegungen auf Pk"1 statt auf pA an, so folgt: Pk"1 = Pk ·Q! mit einem PolynomPk mit reellen Koeffizienten. Insgesamt erhalten wir also durch Einsetzen:

pA(t) = Pk"1(t) · (Q!(t))k"1 = Pk(t) ·Q!(t) · (Q!(t))k"1 = Pk(t) · (Q!(t))k .)

zu (iv): Ist # # C ein beliebiger Eigenwert von A mit Eigenvektor x # Cn \ {0} , d. h. istA · x = # x , so folgt:

# xH · x = xH · (# x) = xH · (A · x) = (xH ·AH) · x = (x t ·A t) · x =

= (A · x)t · x = (# x)t · x = (# x t) · x = # (x t · x) = # xH · x .

Nun gilt fur x = (x1, x2, . . . , xn)t # Cn \ {0} :

xH · x = (x1, x2, . . . , xn) ·

5

667

x1x2...

xn

8

99: =n*

i=1

xi xi =n*

i=1

|xi|2 > 0 ;

Page 96: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

96 KAPITEL V. EIGENWERTE

also ergibt sich aus # xH ·x = # xH ·x mit Division auf beiden Seiten durch den SkalarxH · x > 0 die Behauptung: # = # , d. h.: # # IR .

"

Zur Vorbereitung fur die Charakterisierung der Diagonalisierbarkeit beweisen wir:

20.8 Lemma

Ist V # VRK endlich–dimensional, F # HomK(V, V ) und # # K ein Eigenwert von F , so giltfur pA als charakteristisches Polynom von F stets: µ(pA;#) & dimK V (#) .

Beweis:

Ist (v1, v2, . . . , vr) eine Basis des Eigenraums V (#) von F , so erganzen wir diese zu einer BasisB := (v1, v2, . . . , vr, vr+1, vr+2, . . . , vn) von V . Fur die darstellende Matrix A = ΦB

B(F ) giltdann:

A =

5

6666667

# 0# 0. . .0 #

0 A!

8

999999:

?0@

0Ar Zeilen

+n" r Zeilen

.

Damit ist (gemaß Ubungsaufgabe 11/13–7):

pA(t) = det (t En )A) = det (t Er ) # Er) · det (t En"r )A!) = (t) #)r · det (t En"r )A!) .

Also folgt sofort die behauptete Ungleichung: µ(pA;#) & r = dimK V (#) . "

20.9 Beispiel

Ist F # HomIR(IR2, IR2) gegeben durch F!

xy

"=

!y0"

und K die kanonische Basis des IR2 , sogilt nach der aus §16 bekannten Merkregel:

A = ΦKK(F ) =

<0 10 0

=

und damit: pA(t) = det<

t )10 t

=

= t2 .

Also haben wir: µ(pA; 0) = 2. Andererseits liefert V (0) = KerF =(!

x0" ))) x # IR

+als Dimension

dimIR V (0) = 1 . Es gilt also hier: µ(pA; 0) > dimV (0) . Somit ist F nicht diagonalisierbar; dennsonst ware A zur Nullmatrix ahnlich: A = S"1 · 0 · S = 0 im Widerspruch zu A $= 0 .

Page 97: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 20. DIAGONALISIERBARKEIT 97

Allgemein erhalten wir das Theorem:

20.10 Satz

Es seien V # VRK ein Vektorraum mit endlicher Dimension dimK V = n und F # EndK(V )ein Endomorphismus. Dann sind folgende Aussagen aquivalent:

(i) F ist diagonalisierbar.

(ii) a) Das charakteristische Polynom von F zerfallt in Linearfaktoren, d. h. fur alle t # Kgilt:

pF (t) =kC

j=1

(t) #j)rj

mit paarweise verschiedenen Nullstellen #1, #2, . . . ,#k # K und zugehorigen Viel-

fachheiten rj # IN# fur jedes j = 1, 2, . . . , k sowiek,

j=1rj = n .

b) Es ist µ(pF ;#j) = dimK V (#j) fur alle j = 1, 2, . . . , k .

(iii) Es gilt: V = V (#1)2 V (#2)2 . . .2 V (#k) , d. h. (gemaß Bemerkung 4.8(ii)):

V = V (#1) + V (#2) + . . . + V (#k) mit V (#i) .k*

j=1j -=i

V (#j) = {0} 61%i%k .

Beweis:

Es seien #1, #2, . . . ,#k die paarweise verschiedenen Eigenwerte von F sowie Wj := V (#j) derjeweilige Eigenraum mit Dimension sj := dimK Wj und Basis (v(j)

1 , v(j)2 , . . . , v(j)

sj ) . Dann bildet

B := (v(1)1 , v(1)

2 , . . . , v(1)s1

, v(2)1 , v(2)

2 , . . . , v(2)s2

, . . . , v(k)1 , v(k)

2 , . . . , v(k)sk

)

eine linear unabhangige Familie in V . Denn aus

s1*

j=1

$(1)j v(1)

j

# $% &=:w1$W1

+s2*

j=1

$(2)j v(2)

j

# $% &=:w2$W2

+ . . . +sk*

j=1

$(k)j v(k)

j

# $% &=:wk$Wk

= 0

folgt mit Lemma 19.3: w1 = w2 = . . . = wk = 0 und daraus: $(j)1 = $(j)

2 = . . . = $(j)sj = 0 fur

alle 1 , j , k . Ferner gilt nach Lemma 19.3 fur jedes i = 1, 2, . . . , k :

(0) Wi .k*

j=1j -=i

Wj = {0} .

Also ist W :=k,

j=1Wj eine direkte Summe, d. h.: W =

k4j=1

Wj , und sukzessive Anwendung von

Satz 4.3 liefert:

Page 98: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

98 KAPITEL V. EIGENWERTE

dimK W =k*

j=1

dimK Wj . (00)

Nach Lemma 20.8 ist

s :=k*

j=1

sj ,k*

j=1

µ(pF ;#j) , grad pF = dimK V = n . (000)

”(i) 3 (ii)“: F ist genau dann diagonalisierbar, wenn B eine Basis von V bildet, d. h. wenns = n gilt. Dies ist gemaß (000) aquivalent zu (ii).

”(i) 3 (iii)“: Wegen s = dimK W (vgl. (00)) ist s = n gleichbedeutend mit der Aussage:W = W1 + W2 + . . . + Wk = V , was nach (0) zu (iii) aquivalent ist.

"

20.11 Beispiel

Sei F : IR3 ! IR3 gegeben durch F ((x, y, z)t) = A · (x, y, z)t mit A :=

5

670 )1 1

)3 )2 3)2 )2 3

8

9: . Danngilt:

pA(t) =

)))))))

t 1 )13 t + 2 )32 2 t) 3

)))))))= t3 ) t2 ) t + 1 = (t) 1)2 · (t + 1) .

Also sind #1 = 1 und #2 = )1 die einzigen Eigenwerte von F . Bezuglich der kanonischenBasis K des IR3 haben wir:

V (1) = {x # IR3 | (E3 )A) · x = 0} =(x # IR3

)))

5

671 1 )13 3 )32 2 )2

8

9: · x = 0+

.

Der Losungsraum dieses homogenen linearen Gleichungssystems ergibt sich etwa mit Hilfe desGauß–Algorithmus aus §9. Wegen rg(E3 ) A) = 1 gilt: dimIR V (1) = 3 ) 1 = 2 = µ(pA; 1) .Eine Basis von V (1) ist z. B. ((1, 0, 1)t, ()1, 1, 0)t) . Ferner ist dimIR V ()1) = 1 = µ(pA;)1);und eine Basis von V ()1) erhalten wir mit Hilfe des Gleichungssystemes ()E3 ) A) · x = 0 ,also aus: 5

67)1 1 )1

3 1 )32 2 )4

8

9: · x = 0 .

Der Gauß–Algorithmus liefert dafur:5

67)1 1 )1

0 4 )60 0 0

8

9: · x =

5

67000

8

9:

und damit als Basis von V ()1) z. B. den Vektor (1, 3, 2)t . Daher ist

B :=!

5

67101

8

9: ,

5

67)1

10

8

9: ,

5

67132

8

9:"

Page 99: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 20. DIAGONALISIERBARKEIT 99

eine Basis des IR3 aus lauter Eigenvektoren. Bezuglich dieser Basis hat F die darstellende Matrix

ΦBB(F ) =

5

671 0 00 1 00 0 )1

8

9: .

Wie sieht nun die Transformationsmatrix fur den Basiswechsel von der kanonischen Basis K zurBasis B im IR3 aus? — Tragen wir die Komponenten der Basis B als Spaltenvektoren in eineMatrix ein, d. h. ist

T :=

5

671 )1 10 1 31 0 2

8

9: # GL(3; IR) ,

so gilt nach Lemma 17.1 fur die Koordinaten bezuglich B der Zusammenhang: y = T · x .Die Inversion von T ergibt:

T"1 =12

5

67)2 )2 4)3 )1 3

1 1 )1

8

9: .

Wenn wir richtig gerechnet haben, muß gelten: ΦBB(F ) = T"1 ·A · T .

(Man kann zur Probe auch die Koordinatenvektoren von B uberprufen. So hat (1, 0, 1)t bezug-lich B die Koordinaten (1, 0, 0)t , ()1, 1, 0)t hat die Koordinaten (0, 1, 0)t , und (1, 3, 2)t besitztdie Koordinaten (0, 0,)1)t .)

20.12 Beispiel

Wir betrachten eine Drehung F" : IR2 ! IR2 um den Nullpunkt des IR2 mit dem Winkel $gegen den Uhrzeigersinn; dann ist

F"(e1t) = (cos $ , sin$)t und F"(e2

t) = () sin$ , cos $)t ,

wie wir etwa aus folgender Skizze entnehmen konnen:

! x

#y

!e1

t

#e2t

....................................

....................................

...................................*

...........................................................................................................

+

& .................................

$

F"(e1t)

F"(e2t)

Damit ist

ΦKK(F") =

<cos $ ) sin$sin$ cos $

=

=: A"

die darstellende Matrix. Die Additionstheoreme fur Sinus und Cosinus (aus Analysis I) liefern:

ΦKK(F" * F() = ΦK

K(F( * F") = ΦKK(F"+() =

<cos($ + %) ) sin($ + %)sin($ + %) cos($ + %)

=

.

Wann besitzt F" nun Eigenwerte? — Wir erhalten das charakteristische Polynom als

pF"(t) = pA"(t) =

)))))t) cos $ sin$) sin$ t) cos $

))))) = t2 ) 2 t · cos $ + 1 .

Page 100: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

100 KAPITEL V. EIGENWERTE

Und pA" hat genau dann eine reelle Nullstelle, wenn gilt:

cos2 $) 1 & 0 , d. h.: cos2 $ = 1 , also: cos $ = 1 (' $ = 0 ; $ = ( (mod 2() .

Somit ist F" also nur dann diagonalisierbar, wenn (modulo 360') entweder gar nicht (0') oderum 180' gedreht wird. Alle anderen Drehungen sind nicht diagonalisierbar.

§ 21 Trigonalisierbarkeit

In Satz 20.10 haben wir gesehen, daß die Diagonalisierbarkeit zu zwei Bedingungen aquivalent ist.Welche Eigenschaft besitzt nun ein Endomorphismus F # HomK(V, V ) bzw. seine darstellendeMatrix, wenn in Satz 20.10 nur die Teilaussage (ii) a) erfullt ist?

21.1 Definition

Es sei F # EndK(V ) mit dimK V = n ; dann heißt F trigonalisierbar, wenn eine Basis B vonV existiert, so daß ΦB

B(F ) = ($ij) eine obere Dreiecksmatrix ist, d. h.:

ΦBB(F ) =

5

6667

$11 $12 · · · $1n

0 $22 · · · $2n... . . . . . . ...0 · · · 0 $nn

8

999: .

Eine quadratische Matrix A # Mat(n, n;K) heißt trigonalisierbar, wenn der EndomorphismusΨKK(A) trigonalisierbar ist. Nach der Transformationsformel 17.2 ist dies aquivalent zur Existenz

einer Matrix T # GL(n;K) mit

T"1 ·A · T =

5

6667

$11 $12 · · · $1n

$22 · · · $2n. . . ...0

$nn

8

999: .

21.2 Satz

Sei dimK V = n und F # EndK(V ) . Dann sind folgende Aussagen aquivalent:

(i) Der Endomorphismus F ist trigonalisierbar.

(ii) Das charakteristische Polynom von F zerfallt in Linearfaktoren.

Beweis:

”(i) ' (ii)“: Es gilt fur alle t # K einfach:

pF (t) = det

5

66667

t)$11 )$12 · · · )$1n

t)$22. . . .... . . )$n"1,n0

t)$nn

8

9999:(D9)=

nC

i=1

(t) $ii) .

Page 101: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 21. TRIGONALISIERBARKEIT 101

”(ii) ' (i)“: Beweis durch vollstandige Induktion nach n :

Fur n = 1 ist nichts zu zeigen. !Sei n > 1 und #1 # K ein Eigenwert von F mit Eigenvektor v1 # V . Wir erganzen(v1) nach Satz 3.13 zu einer Basis von V , etwa B := (v1, w2, w3, . . . , wn) , und definierenV1 := <v1> sowie W := <w2, w3, . . . , wn> . Wir spalten die eingeschrankte AbbildungF |W in zwei Abbildungen G : W ! V1 und H : W ! W auf mit F |W = G + H . Ist

dazu w # W , so gibt es Skalare µ1, µ2, . . . , µn # K mit F (w) = µ1 v1 +n,

i=2µi wi ; wir

setzen weiter: G(w) := µ1 v1 , H(w) :=n,

i=2µi wi und erhalten so: G # HomK(W, V1) und

H # HomK(W, W ) . Nun gilt mit den Koordinaten von F (wi) bezuglich der Basis B dieDarstellung:

F (v1).

F (w2).

F (w3).

··· F (wn).

A = ΦBB(F ) =

5

6666667

#1 0 0 · · · 000... B

0

8

999999:

fur ein B # Mat(n)1 , n)1 ;K) . Ist B! = (w2, w3, . . . , wn) eine Basis von W , dann giltmit den Koordinaten von H(wi) entsprechend:

ΦB'B'(H) = B .

Nach Induktionsvoraussetzung existiert ein T # GL(n)1 ;K) mit

T"1 ·B · T =

5

6667

%11 %12 · · · %1,n"1

%22 · · · %2,n"1. . . ...0

%n"1,n"1

8

999: .

Setzen wir schließlich S :=

5

6667

1 0 · · · 00... T0

8

999: , so folgt: S # GL(n;K) mit

S"1 =

5

6667

1 0 · · · 00... T"1

0

8

999: wegen

S · S"1 =

5

66667

1 0 · · · 00... T0

8

9999:·

5

66667

1 0 · · · 00... T"1

0

8

9999:=

5

66667

1 0 · · · 00... T ·T"1

0

8

9999:= En .

Page 102: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

102 KAPITEL V. EIGENWERTE

Damit gilt:

S"1 ·A · S =

5

66667

1 0 · · · 00... T"1

0

8

9999:·

5

66667

#1 0 · · · 00... B0

8

9999:·

5

66667

1 0 · · · 00... T0

8

9999:

=

5

66667

#1 0 · · · 00... T"1 ·B ·T0

8

9999:=

5

6667

#1 0 · · · 00 %11 · · · %1,n"1... . . . ...0 0 %n"1,n"1

8

999: .

"

21.3 Korollar

Ist V # VRC mit dimC V = n , so ist jeder Endomorphismus F : V ! V trigonalisierbar.

21.4 Bemerkung

Der Beweis von Satz 21.2 liefert uns ein Konstruktionsverfahren zur Trigonalisierung eines En-domorphismus F auf V # VRK mit dimK V = n . Sei dazu B := (w1, w2, . . . , wn) eine Basisvon V und A := ΦB

B(F ) die darstellende Matrix von F bezuglich B .

1. Schritt: Setze W1 := V , B1 := B und A1 := A ; bestimme einen Eigenvektor v1 # W1

zu einem Eigenwert #1 # K von F1 := F . Nach dem Austauschlemma 3.8existiert ein Index j1 # {1, 2, . . . , n} derart, daß

B2 := (v1, w1, w2, . . . , Gwj1 , . . . , wn) := (v1, w1, w2, . . . , wj1"1, wj1+1, . . . , wn)

wieder eine Basis von V ist28. Dann gilt:

ΦB2B2

(F ) =

5

66667

#1 0 · · · 00... A2

0

8

9999:.

Ist W2 := <w1, w2, . . . , Gwj1 , . . . , wn> , so betrachte den durch A2 beschrie-benen Endomorphismus

F2 := ΨB'2B'2

(A2) # HomK(W2, W2) mit B!2 = (w1, w2, . . . , Gwj1 , . . . , wn) .

2. Schritt: Bestimme einen Eigenvektor v2 # W2 zu einem Eigenwert #2 # K von F2 .(Dann ist #2 auch Eigenwert von F1 .) Nun wahle man einen weiteren Indexj2 # {1, 2, . . . , n} \ {j1} derart, daß

B3 := (v1, v2, w1, w2, . . . , Gwj1 , . . . , Gwj2 , . . . , wn)28Dabei bedeute also jeweils das

”Dach“ uber dem j#-ten Basisvektor, daß dieser ausgelassen werden soll.

Page 103: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 21. TRIGONALISIERBARKEIT 103

eine Basis von V bildet. Dann berechnet man die darstellende Matrix

ΦB3B3

(F ) =

5

6666667

#1 0 0 · · · 00 #2 0 · · · 00 0...

... A3

0 0

8

999999:.

Ist W3 := <w1, w2, . . . , Gwj1 , . . . , Gwj2 , . . . , wn> mit entsprechender Wahlvon B!3, so beschreibt A3 einen Endomorphismus

F3 := ΨB'3B'3

(A3) # HomK(W3, W3) .

)-ter Schritt: So fortfahrend erreicht man nach maximal n) 1 Schritten die gewunschteDreiecksgestalt.

21.5 Beispiel

Es sei A =

5

673 4 3

)1 0 )11 2 3

8

9: eine darstellende Matrix; wir erhalten pA(t) = (t)2)3 als charak-

teristisches Polynom (mit t # IR ). Damit ist A trigonalisierbar mit dem dreifachen Eigenwert# = 2 . Wegen

V (2) =(x # IR3

)))

5

671 4 3

)1 )2 )11 2 1

8

9: · x = 0+

ist dimIR V (2) = 1 , also A nicht diagonalisierbar.

Der 1. Schritt des Trigonalisierungsverfahrens aus Bemerkung 21.4 liefert mit dem Eigenvektorv1 = (1,)1, 1)t zu # = 2 etwa die neue Basis B2 = (v1, e2

t, e3t) des IR3 . Beschreibt nun S1

den Basiswechsel von B1 = (e1t, e2

t, e3t) zu B2 , so gilt:

S1 =

5

671 0 0

)1 1 01 0 1

8

9: , also: S1"1 =

5

671 0 01 1 0

)1 0 1

8

9: ,

und damit fur F mit F (x) := A · x :

ΦB2B2

(F ) = S1"1 ·A · S1 =

5

672 4 30 4 20 )2 0

8

9: =:

5

672 4 300 A2

8

9: .

Wir betrachten nun W2 := <e2t, e3

t> und F2 : W2 ! W2 mit F2(y) := A2 ·!

y2y3

"fur alle

y = y2 e2t + y3 e3

t # W2 .Der 2. Schritt liefert uns fur y das lineare Gleichungssystem

(A2 ) 2 E2) · y =<

2 2)2 )2

=

· y = 0 ;

Page 104: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

104 KAPITEL V. EIGENWERTE

hieraus lesen wir ab, daß v2 = (0,)1, 1)t = )e2t + e3

t ein Eigenvektor von F2 zum Eigenwert# = 2 ist. Wir setzen daher B3 := (v1, v2, e3

t) und erhalten fur die Transformationsmatrix S2

von B2 zu B3 im IR3 :

S2 =

5

671 0 00 )1 00 1 1

8

9: , also: S2"1 =

5

671 0 00 )1 00 1 1

8

9: .

Damit ist

ΦB3B3

(F ) = S2"1 · ΦB2

B2(F ) · S2 =

5

672 )1 30 2 )20 0 2

8

9:

die gewunschte Trigonalisierung von F (bzw. von A ).

Bemerkung

Im Zusammenhang mit numerischen Verfahren ist es haufig wichtig, die Potenzen Ak einerquadratischen Matrix zu betrachten. Ist A = S"1 ·B ·S , dann folgt sofort: Ak = S"1 ·Bk ·S . IstA trigonalisierbar, so mussen also die Potenzen einer oberen Dreiecksmatrix berechnet werden.Dafur schreibt man die obere Dreiecksmatrix B in der Form B = D + N , wobei D eineDiagonalmatrix und N = (nij) eine echte obere Dreiecksmatrix ist, d. h. es gilt: nij = 0 furalle i $ j . Uber die Form von N kann noch Genaueres ausgesagt werden.

21.6 Definition

Ist # # K (ein Eigenwert), so heißt

J := # En + N # Mat(n, n;K)

mit einer echten oberen Dreiecksmatrix N # Mat(n, n;K) eine Jordan–Matrix 29 zu #.Eine quadratische Matrix A # Mat(n, n;K) heißt nilpotent, wenn es einen Exponenten r # IN#

gibt mit Ar = 0 .

Als Vorbereitung beweisen wir:

21.7 Hilfssatz

Sind M # Mat(p, p;K) und N # Mat(q, q;K) zwei nilpotente Matrizen und C # Mat(p, q;K)vorgegeben, so existiert genau eine Matrix X # Mat(p, q;K) mit X = M ·X )X ·N + C .

Beweis:

Die obige Gleichung stellt ein lineares Gleichungssystem aus p · q Gleichungen fur die p · q Ein-trage von X dar. Dieses Gleichungssystem ist genau dann eindeutig losbar, wenn das zugehorigehomogene System

X = M ·X )X ·N (0)29Camille Marie Ennemond Jordan, franzosischer Mathematiker (!05.01.1838, †21.01.1922)

Page 105: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 21. TRIGONALISIERBARKEIT 105

nur die triviale Losung besitzt. Sei also X eine (noch unbekannte) Losung von (0). Dann folgtdurch Einsetzen von X auf der rechten Seite:

X = M · (M ·X )X ·N)) (M ·X )X ·N) ·N = M2 ·X ) 2 M ·X ·N + X ·N2 .

Durch vollstandige Induktion nach t kann man zeigen, daß gilt:

X =t*

%=0

()1)%

<t

+

=

M t"% ·X ·N % .

Da M und N nilpotent sind, existieren r, s # IN# mit M r = 0 und N s = 0 . Fur t = r + s istdann in der obigen Summe entweder t) + & r oder + & s , also stets X = 0 . "

Durch genauere Betrachtung des Beweises zu Satz 21.2 erhalten wir:

21.8 Satz

Ist A # Mat(n, n;K) trigonalisierbar mit pA(t) =kD

j=1(t ) #j)rj , so ist A ahnlich zu einer

sogenannten Kastchen–Diagonalmatrix der Form5

666667

A1 0 · · · 0

0 A2. . . ...

... . . . . . . 00 · · · 0 Ak

8

99999:,

..............................................

............................................

.............................

wobei jedes Aj := #j Erj + Nj fur j = 1, 2, . . . , k eine (rj % rj)-Jordan–Matrix zu #j # K sei.

Beweis:

Wir beweisen die Behauptung durch vollstandige Induktion nach n .

Fur n = 1 ist nichts zu zeigen. !Induktionsschluß n) 1 ! n : Nach Satz 21.2 ist A ahnlich zu einer Matrix

5

66667

#1 0 · · · 00... B0

8

9999:

mit B # Mat(n) 1, n) 1;K) , und es gilt: pA(t) = (t) #1) · pB(t) . Nach Induktionsvorausset-zung ist B ahnlich zu einer Matrix

5

666667

A#1 0 · · · 0

0 A2. . . ...

... . . . . . . 00 · · · 0 Ak

8

99999:

Page 106: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

106 KAPITEL V. EIGENWERTE

mit ”Kastchen–Eintragen“ Aj = #j Erj + Nj # Mat(rj , rj ;K) fur jedes j = 2, 3, . . . , k undA#

1 := #1 Er1"1 + N#1 # Mat(r1 ) 1 , r1 ) 1 ; K) . Im Fall r1 = 1 tritt dabei A#

1 gar nicht auf.Insgesamt ergibt sich so die Ahnlichkeit von A zu

C :=

5

66666667

A1 C2 C3 · · · Ck

0 A2 0 · · · 0

0 0 A3. . . ...

...... . . . . . . 0

0 0 · · · 0 Ak

8

9999999:

mit Jordan–Matrizen Aj # Mat(rj , rj ;K) fur j = 1, 2, 3, . . . , k und Cj # Mat(r1, rj ;K) furj = 2, 3, . . . , k . Wir versuchen nun durch den Ansatz W"1 · C · W , die gesuchte Kastchen–Diagonalgestalt zu erreichen. Dazu schreiben wir W in der Form

W :=

5

66666667

Er1 W2 W3 · · · Wk

0 Er2 0 · · · 0

0 0 Er3

. . . ......

... . . . . . . 00 0 · · · 0 Erk

8

9999999:

und erhalten aus

C ·W = W ·

5

666667

A1 0 · · · 0

0 A2. . . ...

... . . . . . . 00 · · · 0 Ak

8

99999:

die Bedingung: A1 ·Wj )Wj ·Aj + Cj = 0 fur alle j = 2, 3, . . . , k .Setzen wir hierin Aj = #j Erj + Nj ein, dann ergibt sich:

(#1 ) #j)Wj + N1 ·Wj )Wj ·Nj + Cj = 0 (' Wj =1

#j ) #1[N1 ·Wj )Wj ·Nj + Cj ]

fur j = 2, 3, . . . , k . Wegen der vorausgesetzten Nilpotenz von N1, N2, . . . , Nk existieren nachHilfssatz 21.7 stets Matrizen W2, W3, . . . ,Wk mit den geforderten Eigenschaften. "

21.9 Bemerkungen

(i) Der Begriff der Jordan–Matrix wird in der Literatur nicht einheitlich benutzt. Manspricht haufig nur dann von Jordan–Matrizen J , wenn J von folgender Form ist:

J =

5

666666667

# 1 0 0 · · · 0# 1 0 · · · 0

. . . . . . . . . ...# 1 0

# 10#

8

99999999:

.

Page 107: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 21. TRIGONALISIERBARKEIT 107

(ii) Ist A trigonalisierbar, so heißt die Kastchen–Diagonalmatrix aus Satz 21.8 bzw. die Ma-trix B fur

B =

5

666667

J1 0 · · · 0

0 J2. . . ...

... . . . . . . 00 · · · 0 Jl

8

99999:

mit obigen Jordan–Matrizen J1, J2, . . . , Jl die Jordan’sche Normalform von A.Fur praktische Zwecke reicht die Darstellung aus Satz 21.8. Hier, bei der zweiten Form,

ist der Fall l & k erlaubt; denn z. B. hat A =<

2 00 2

=

nur den zweifachen Eigenwert

# = 2 , also: k = 1 , es ist aber l = 2 .

(iii) Ist F # HomK(V, V ) bzw. A # Mat(n, n;K) trigonalisierbar, so existiert eine Basis Bvon V bzw. Kn derart, daß ΦB

B(F ) Jordan’sche Normalform hat.(Siehe hierzu auch [12], Anhang B.)

21.10 Satz (Satz von Cayley30–Hamilton)

Es sei V # VRK mit K = IR oder K = C sowie dimK V = n . Ist F # HomK(V, V ) undA = ΦB

B(F ) bezuglich einer Basis B , so gilt:

pA(A) = 0 .

Beweis:

Sei zunachst K = C ; somit existiert eine Basis von V derart, daß die darstellende Matrix AKastchen–Diagonalgestalt hat. Dann gilt:

pA(t) =kC

j=1

(t) #j)rj , also: pA(A) =kC

j=1

(A) #j En)rj

mit

A) #j En =

5

666667

A1)#jEr1 0 · · · 0

0 A2)#jEr2

. . . ...... . . . . . . 00 · · · 0 Ak)#jErk

8

99999:.

Daraus folgt:

(A) #j En)rj =

5

666667

(A1)#jEr1)rj 0 · · · 0

0 (A2)#jEr2)rj. . . ...

... . . . . . . 00 · · · 0 (Ak)#jErk)rj

8

99999:,

30Arthur Cayley, englischer Mathematiker und Jurist (!16.08.1821, †26.01.1895)

Page 108: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

108 KAPITEL V. EIGENWERTE

also:

pA(A) =

5

666667

pA(A1) 0 · · · 0

0 pA(A2). . . ...

... . . . . . . 00 · · · 0 pA(Ak)

8

99999:

mit

pA(Al) =l"1C

j=1

(Al ) #j Erl)rj · (Al ) #l Erl)

rl ·kC

j=l+1

(Al ) #j Erl)rj

und(Al ) #l Erl)

rl = (#l Erl + Nl ) #l Erl)rl = Nl

rl = 0

fur alle l = 1, 2, . . . , k . Damit erhalt man die Behauptung pA(A) = 0 .

Ist nun K = IR und B irgendeine Basis von V sowie A = ΦBB(F ) , dann fassen wir A als Element

von Mat(n, n; C) auf und erhalten aus dem ersten Teil des Beweises: pA(A) = 0 . "

21.11 Folgerung

Ist A # GL(n; C) , so laßt sich A"1 mit Hilfe des charakteristischen Polynoms berechnen.

Beweis:

Es sei pA(t) =n,

k=0ak tk ; wegen der Regularitat von A ist # = 0 kein Eigenwert von A , also

stets a0 $= 0 . Der Satz von Cayley–Hamilton liefert:

pA(A) =n*

k=0

ak Ak = 0

oder (durch Multiplikation mit A"1 von rechts):

a0 A"1 = )n*

k=1

ak Ak"1 (' A"1 = )n*

k=1

ak

a0Ak"1 .

"

21.12 Definition

Es sei A # Mat(n, n;K) mit K = IR oder K = C . Dann heißt die reelle Zahl

,(A) := max {|#| ; # # K ist Eigenwert von A}

der Spektralradius von A.

Der Spektralradius ,(A) ist wohldefiniert fur alle A # Mat(n, n; C) . Es gilt zum Beispiel:,(µA) = |µ| ,(A) . Jedoch ist , keine Norm auf Mat(n, n; C) .

Page 109: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

Kapitel VI

Aquivalenzrelationen in derLinearen Algebra

§ 22 Der Begriff der Aquivalenzrelation

22.1 Definition

Gegeben sei eine beliebige Menge X $= ! . Eine Teilmenge R + X %X heißt eine Aquivalenz-relation auf X, wenn folgende Eigenschaften fur alle Elemente x, y, z # X erfullt sind:

(A1) (x, x) # R (R ist reflexiv).

(A2) (x, y) # R ' (y, x) # R (R ist symmetrisch).

(A3) (x, y) # R - (y, z) # R ' (x, z) # R (R ist transitiv).

An Stelle von (x, y) # R schreiben wir auch: x 8R y oder einfach: x 8 y , wenn klar ist, umwelche Relation R es sich handelt. Wir sagen: x ist aquivalent zu y.

22.2 Beispiele

(i) Es sei X = ZZ und ein n # IN# gewahlt; wir legen eine Relation R fest durch: Es geltea 8 b genau dann, wenn a ) b durch n teilbar ist. Hiermit wird eine Aquivalenzrelationauf ZZ definiert.

(ii) Ist V # VRK und W + V ein Untervektorraum, so definiert ” v 8 w :(' v)w # W “eine Aquivalenzrelation auf V .

(iii) Auf Mat(n, n;K) entsteht eine Aquivalenzrelation 8 durch die Festlegung:A 8 B :(' A und B sind ahnlich .

(iv) Ist V # VRIR endlich–dimensional, so definieren wir auf der Menge aller Basen von V eineAquivalenzrelation durch: Es sei A = (v1, v2, . . . , vn) 8 B = (w1, w2, . . . , wn) genau dann,wenn fur die Matrix S , die den Basiswechsel von A nach B beschreibt, gilt: detS > 0 .Wir nennen dann A und B gleich orientiert. Andernfalls heißen A und B entgegengesetztorientiert.

109

Page 110: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

110 KAPITEL VI. AQUIVALENZRELATIONEN IN DER LINEAREN ALGEBRA

Beweis zu Beispiel 22.2:

zu (i): Das Axiom (A1) ist klar; (A2) ebenso. !

zu (A3): Gilta) b

n# ZZ und

b) c

n# ZZ , so folgt direkt:

a) c

n=

(a) b) + (b) c)n

=a) b

n+

b) c

n# ZZ + ZZ = ZZ .

zu (ii):zu (A1): ist sofort klar wegen v ) v = 0 # W .zu (A2): Mit v ) w # W ist auch w ) v = )(v ) w) # W .zu (A3): Aus u) v # W und v ) w # W folgt: u) w = (u) v) + (v ) w) # W .

zu (iii): Nach Definition 17.4 gilt: A 8 B genau dann, wenn ein S # GL(n;K) existiert mitB = S"1 ·A · S .

zu (A1): ist trivial mit S = En .zu (A2): Aus B = S"1 ·A · S folgt fur T := S"1 direkt: T"1 ·B · T = A .zu (A3): Gilt B = S"1 ·A · S und C := T"1 ·B · T , so hat man:

C = T"1 · S"1 ·A · S · T = R"1 ·A ·R mit R := S · T # GL(n;K) .zu (iv): Es seien x die Koordinaten von v # V bezuglich einer Basis A von V ,

y die Koordinaten von v # V bezuglich einer Basis B von Vund z die Koordinaten von v # V bezuglich einer Basis C von V .

zu (A1): Es gilt: A 8 A wegen x = En · x mit detEn = 1 > 0 .zu (A2): Ist A 8 B , d. h.: y = T · x mit detT > 0 , so folgt: x = T"1 · y mit

det T"1 =1

detT> 0 .

zu (A3): Gilt A 8 B und B 8 C , d. h. ist y = T · x und z = S · y mit det T > 0 sowiedet S > 0 , dann folgt: z = S · T · x mit det (S · T ) = detS · detT > 0 .

"

Eine Aquivalenzrelation definiert stets eine Partition auf der zugrundeliegenden Menge X ; dasist eine Zerlegung von X =

3i$I

Xi in paarweise disjunkte Teilmengen Xi $= ! mit einer

geeigneten Indexmenge I $= ! .(Vgl. Definition 53.1 in Algebra I.)

Dazu legen wir fest:

22.3 Definition

Gegeben sei eine Menge X mit einer Aquivalenzrelation R . Eine Teilmenge A + X heißteine Aquivalenzklasse (bezuglich R ), falls gilt:

(AK1) A $= ! .(AK2) x, y # A impliziert x 8 y .(AK3) x # A , y # X und x 8 y impliziert y # A .

Page 111: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 22. DER BEGRIFF DER AQUIVALENZRELATION 111

22.4 Bemerkung

Ist R eine Aquivalenzrelation auf X , so gehort jedes a # X zu genau einer Aquivalenzklasse.Insbesondere gilt fur zwei beliebige Aquivalenzklassen A und A! bezuglich R entweder: A = A!

oder: A .A! = ! .

Beweis:

Sei a # X fest vorgegeben; wir definieren eine Teilmenge Ka := {x # X | x 8R a} .Dann ist Ka eine Aquivalenzklasse auf X . Denn es gilt: Ka $= ! wegen a 8 a , also daher:a # Ka . Ferner folgt aus x, y # Ka direkt: x 8 a und y 8 a , d. h. gemaß (A2) und (A3):x 8 y . Sind x 8 a und y # X mit x 8 y , so folgt ebenfalls nach (A2) und (A3): y 8 a , d. h.:y # Ka . Also liegt jedes a # X mindestens in einer Aquivalenzklasse. Angenommen, es seien Aund A! zwei Aquivalenzklassen mit A . A! $= ! , etwa: a # A . A! . Wir zeigen nun: A + A!

und A! + A , d. h.: A!= A! . Sei dazu x # A ; dann ist x 8 a , und wegen a # A! folgt auch:

x # A! mit (AK3). Umgekehrt folgt aus x # A! entsprechend: x # A . "

22.5 Definition

Gegeben sei X mit einer Aquivalenzrelation R . Mit X/R bezeichnen wir die Menge allerAquivalenzklassen bezuglich R . Dieses X/R heißt die Quotientenmenge von X nach R.Durch die Zuordnung X < a "! Ka # X/R entsteht die kanonische Abbildung (mit dem obendefinierten Ka ). Und jedes x # Ka heißt ein Reprasentant der Aquivalenzklasse Ka.

22.6 Beispiel

Wir betrachten die Aquivalenzrelation aus Beispiel 22.2(iv). Die Menge M aller Basen einesVektorraums V # VRIR (mit dimIR V = n & 1 ) wird in zwei Aquivalenzklassen M1 1 M2

zerlegt. Dabei sind je zwei Basen aus Mi gleich orientiert. Diese beiden Mengen M1 und M2

heißen daher die Orientierungen von V .

Sei v, w # IR3 , etwa v = (x1, x2, x3)t und w = (y1, y2, y3)t ; dann wird v % w # IR3 definiertdurch die bekannte symbolische Merkregel des Vektorprodukts im IR3 :

v % w :=! )))))

x2 x3

y2 x3

))))) , ))))))

x1 x3

y1 y3

))))) ,

)))))x1 x2

y1 y2

)))))

"tH=

)))))))

e1t e2

t e3t

x1 x2 x3

y1 y2 y3

)))))))# IR3 .

mit den kanonischen Einheitsvektoren e1t, e2

t, e3t # IR3 .

Sind nun v und w linear unabhangig, so sind (e1t, e2

t, e3t) und (v, w, v % w) gleich orientierte

Basen. Zunachst zeigen wir, daß (v, w, v % w) tatsachlich eine Basis des IR3 bildet, daß alsov, w, v % w linear unabhangig sind.Aus $ v + % w + & (v%w) = 0 erhalten wir ein lineares Gleichungssystem fur die Variablen

Page 112: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

112 KAPITEL VI. AQUIVALENZRELATIONEN IN DER LINEAREN ALGEBRA

$,%, & # IR mit der (3% 3)-Koeffizientenmatrix

A :=

5

6666666667

x1 y1

)))))x2 x3

y2 y3

)))))

x2 y2 ))))))

x1 x3

y1 y3

)))))

x3 y3

)))))x1 x2

y1 y2

)))))

8

999999999:

.

Dieses homogene Gleichungssystem besitzt genau dann nur die triviale Losung $ = % = & = 0 ,wenn detA $= 0 gilt. Nun ist (entwickelt nach der 3. Spalte)

det A =

)))))x2 x3

y2 y3

)))))

2

+

)))))x1 x3

y1 y3

)))))

2

+

)))))x1 x2

y1 y2

)))))

2

;

und det A = 0 gilt genau dann, wenn v, w linear abhangig sind, wahrend lineare Unabhangigkeitvorausgesetzt war. Die Transformationsmatrix von (e1

t, e2t, e3

t) zu (v, w, v % w) ist also geradedurch A # GL(3; IR) gegeben.

§ 23 Der Quotientenraum

23.1 Definition

Ist V # VRK und W + V ein Untervektorraum, so bezeichnen wir mit V /W die Quotien-tenmenge bezuglich der Aquivalenzrelation:

v 8 w :(' v ) w # W .Wir schreiben fur die Aquivalenzklassen bezuglich 8 , d. h. fur die Teilmengen

Kv = {w # V | v ) w # W} ,auch: v + W := {u # V | es existiert ein w # W mit u = v + w } .(Ist namlich u # Kv , dann gilt: )w := v)u # W , also: u = v + w mit w # W ; ist umgekehrtu = v + w # v + W , so folgt: v ) u = )w # W , d. h.: u # Kv .)Hierbei wurde also die Aquivalenzrelation 8 aus Beispiel 22.2(ii) verwendet; Skizze fur V = IR2 :

V

#v

,u --

---.v ) u&

0

!!

!!

!!

!!

!!

!!W

23.2 Hilfssatz

Ist V # VRK und W + V ein Untervektorraum, so sind fur alle Vektoren a, b # V folgendeAussagen aquivalent:

(i) a + W + b + W .

(ii) a + W = b + W .

(iii) a) b # W .

Page 113: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 23. DER QUOTIENTENRAUM 113

Beweis zu Hilfssatz 23.2:

”(i) ' (iii)“: Wegen a # a + W und a + W + b + W existiert ein w # W mit a = b + w ,d. h. es gilt: a) b = w # W .

”(iii) ' (ii)“: Nach Voraussetzung existiert ein w # W mit a ) b = w , also mit a = b + w .Fur beliebiges v # W folgt damit:

a + v = (b + w) + v = b + (w + v) # b + W , d. h.: a + W + b + W .

Andererseits folgt wegen b) a = )w # W fur alle v # W auch:

b + v = a + ()w) + v = a + (v ) w) # a + W , d. h.: b + W + a + W .

”(ii) ' (i)“: ist klar. !

"

23.3 Satz

Ist V # VRK und W + V ein Untervektorraum, so kann V /W durch die Addition(+) (a + W ) + (b + W ) := (a + b) + W

und die Skalarmultiplikation( · ) $ · (a + W ) := $ a + W fur alle $ # K

zu einem Vektorraum uber K gemacht werden.

Beweis:

Zuerst mussen wir zeigen, daß durch + und · innere Verknupfungen definiert werden. Dazuuberlegen wir uns, daß die rechten Seiten von (+) bzw. ( · ) von der Wahl der Reprasentanten a, bbzw. a aus V unabhangig sind. Mit a+W = a!+W und b+W = b!+W folgt nach Hilfssatz 23.2sofort: a) a! # W und b) b! # W . Damit ist (a + b)) (a! + b!) = (a) a!) + (b) b!) # W , alsogemaß Hilfssatz 23.2: (a + b) + W = (a! + b!) + W .Entsprechend folgt aus a+W = a!+W sofort: a)a! # W und damit: $ a)$ a! = $ (a)a!) # W ,also: $ a + W = $ a! + W .Der Nachweis der Vektorraumaxiome (V1) und (V2) wird auf die Gultigkeit der Axiome in Vzuruckgefuhrt. So ist etwa W = 0 + W neutrales Element bezuglich + und )a + W inversesElement zu a + W . Ferner gilt z. B.: 1 · (a + W ) = 1 · a + W = a + W mit Einselement 1 # K .

"

23.4 Bemerkung

Die in Satz 23.3 definierten Verknupfungen sind die einzigen derart, daß die kanonische Abbil-dung ( : V ! V /W , ((a) := a + W linear wird.

Page 114: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

114 KAPITEL VI. AQUIVALENZRELATIONEN IN DER LINEAREN ALGEBRA

Beweis zu Bemerkung 23.4:

Aus ((a) = a+W , ((b) = b+W und ((a+ b) = (a+ b)+W folgt mit der Additivitat von ( :

(a + W ) + (b + W ) = (a + b) + W .

Aus ((a) = a + W und $ # K sowie (($ a) = $ a + W folgt wegen der Homogenitat von ( :

$ (a + W ) = $ a + W .

"

23.5 Bemerkungen

Es sei V # VRK und W + V ein Untervektorraum. Dann gilt bezuglich der Verknupfungenaus Satz 23.3:

(i) Ker( = W .

(ii) Im ( = V /W .

(iii) dimK V /W = dimK V ) dimK W , falls dimV < / ist.

Beweis:

zu (i): Es gilt: ((a) = 0V/W= W genau dann, wenn a + W = W ist, d. h. gemaß Hilfs-

satz 23.2 genau dann, wenn a # W ist.

zu (ii): ( ist nach Definition surjektiv. !zu (iii): Nach der Dimensionsformel 15.2 gilt mit (i) und (ii):

dimV = dim Im ( + dim Ker( = dimV /W + dim W .

"

23.6 Definition

Die Quotientenmenge V /W mit der Vektorraumstruktur aus Satz 23.3 heißt der Quotienten-raum von V nach W . Die Dimension von V /W nennt man auch die Kodimension von W in V .Wir schreiben dafur: codimV W = codimK,V W := dimK V /W .Alle Unterraume W von V mit codimV W = 1 heißen auch Hyperebenen (in V ).

(Beachte: Auch wenn V und W jeweils unendlich–dimensional sind, kann V /W endlich–dimen-sional sein.)

Page 115: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 23. DER QUOTIENTENRAUM 115

23.7 Satz

Gegeben seien zwei Vektorraume U, V # VRK und ein Untervektor-raum W + U sowie eine lineare Abbildung F : U ! V . Mit ( bezeich-nen wir die kanonische Abbildung ( : U ! U/W . Gilt: W + Ker F ,so existiert genau eine lineare Abbildung FW : U/W ! V mit

F = FW * ( .

FW ist genau dann injektiv, wenn KerF = W gilt. Und FW ist genaudann surjektiv, wenn F surjektiv ist. Außerdem gilt der Zusammen-hang:

Ker FW = Ker F/W .

U ( ! U/W

F

"

%%%%%%%%%%%%%%%%%%%%%%%%%%%%FW

V

Beweis:

Zur Existenz:Wir definieren den Vektorraum–Homomorphismus FW durch FW (a + W ) := F (a) ;und wir mussen zeigen, daß F reprasentanten-unabhangig definiert ist. Sei dazu a+W = b+W ,d. h. a ) b # W ; wegen W + Ker F folgt: F (a) ) F (b) = F (a ) b) = 0 , d. h.: F (a) = F (b)und damit: FW (a + W ) = FW (b + W ) .Wegen

FW ((a + W ) + (b + W )) = FW ((a + b) + W ) = F (a + b)= F (a) + F (b) = FW (a + W ) + FW (b + W )

und FW ($ (a + W )) = FW ($ a + W ) = F ($ a)= $ F (a) = $ FW (a + W )

ist FW linear. Ferner gilt fur alle a # U : (FW *()(a) = FW (a+W ) = F (a) , d. h.: F = FW *( .Zur Eindeutigkeit:Ist nun GW : U/W ! V eine weitere lineare Abbildung mit F = GW * ( , so gilt fur jedesa + W # U/W :

GW (a + W ) = (GW * ()(a) = F (a) = FW (a + W ) , d. h. stets: GW = FW .

Also ist FW durch F bereits eindeutig bestimmt.Zur weiteren Behauptung:Wegen FW (U/W ) = FW (((U)) = (FW * ()(U) = F (U) ist FW genau dann surjektiv, wennF selbst surjektiv ist. Da KerF ein Untervektorraum von U ist und da W ein Unterraum vonKer F ist, folgt:

Ker F/W = {u + W | u # Ker F}ist definiert und ein Untervektorraum von U/W . Weiter ist jedes a + W # U/W ein Elementvon Ker F/W . Dies ist aquivalent zu:

a # Ker F (' F (a) = 0 (' (FW *()(a) = 0 (' FW (a+W ) = 0 (' a+W # Ker FW .

Damit ist FW genau dann injektiv, wenn KerFW = {0} + U/W , d. h. Ker F/W = {0} gilt.Das ist wiederum aquivalent zu Ker F/W = {u + W | u # Ker F} = {W} = {0 + W} . NachHilfssatz 23.2 bedeutet dies: u # W fur alle u # Ker F oder: KerF + W . Zusammen mit derVoraussetzung W + Ker F folgt also: W = KerF . "

Page 116: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

116 KAPITEL VI. AQUIVALENZRELATIONEN IN DER LINEAREN ALGEBRA

23.8 Folgerung (Homomorphiesatz fur Vektorraume)

Sind U, V # VRK und F # HomK(U, V ) , so gilt:

Im F 8= U/Ker F ,

d. h. es existiert ein Isomorphismus ! : U/Ker F ! Im F .

Beweis:

Mit W := Ker F gilt nach Satz 23.7: F = FW * ( mit einer injektiven AbbildungFW : U/Ker F ! V . Und wegen FW (U/Ker F ) = F (U) ist FW auch eine surjektive Abbildungauf das Bild Im F , also ein Vektorraum–Isomorphismus ! von U/Ker F auf Im F . "

§ 24 Nilpotente Endomorphismen

Wir wollen uns jetzt noch einmal mit der Frage beschaftigen, wie aus der darstellenden Kastchen–Diagonalmatrix in §21 (im Fall der Trigonalisierbarkeit) durch eine Basistransformation eineKastchen–Diagonalgestalt mit Jordan–Matrizen der Form

5

666666667

# 1 0 0 · · · 0# 1 0 · · · 0

. . . . . . . . . ...# 1 0

# 10#

8

99999999:

gewonnen werden kann. Gilt (etwa bei K = C ) fur die darstellende Matrix:

A =

5

666667

A1 0 · · · 0

0 A2. . . ...

... . . . . . . 00 · · · 0 Ak

8

99999:

mit Aj = #j Erj + Nj , so ist also eine Transformationsmatrix S # GL(n; C) gesucht mitS"1 ·A · S = B , wobei B eine Kastchen–Diagonalmatrix mit obigen Jordan–Eintragen sei. Wirmachen dazu den Ansatz:

S :=

5

666667

S1 0 · · · 0

0 S2. . . ...

... . . . . . . 00 · · · 0 Sk

8

99999:

mit Matrizen Sj # GL(rj ; C) ; dann lautet die Inverse:

S"1 :=

5

666667

S1"1 0 · · · 0

0 S2"1 . . . ...

... . . . . . . 00 · · · 0 Sk

"1

8

99999:.

Page 117: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 24. NILPOTENTE ENDOMORPHISMEN 117

Also folgt:

S"1 ·A · S =

5

666667

S1"1 ·A1 ·S1 0 · · · 0

0 S2"1 ·A2 ·S2

. . . ...... . . . . . . 00 · · · 0 Sk

"1 ·Ak ·Sk

8

99999:.

Und wegen Aj = #j Erj + Nj ergibt sich dabei fur alle j = 1, 2, . . . , k :

Sj"1 ·Aj · Sj = #j Erj + Sj

"1 ·Nj · Sj .

Wir werden nun zeigen, daß eine echte obere Dreiecksmatrix zu einer Kastchen–Diagonalmatrixvon Matrizen der Form 5

6667

0 1 00 . . .

. . . 100

8

999:

ahnlich ist. Wir werden hierfur unser Ergebnis in der ”Endomorphismen–Sprache“ formulieren,um auf §23 zuruckgreifen zu konnen.

24.1 Definition

Es sei V # VRK und F : V ! V ein Endomorphismus. F heißt nilpotent, wenn ein r # IN#

existiert mit F r = 0 .

24.2 Bemerkung

Ist F : V ! V nilpotent, so gibt es zu jedem Vektor a # V \ {0} eine kleinste naturliche Zahlm = m(F, a) # IN# mit Fµ(a) $= 0 fur alle 0 , µ < m und mit Fµ(a) = 0 fur alle µ & m .(Gilt: F (a) = 0 , so ist m(F, a) = 1 .) Damit bildet (a, F (a), F 2(a), . . . , Fm"1(a)) eine Basis von<(Fµ(a))µ)0> . Gilt namlich:

m"1*

µ=0

$µ Fµ(a) = $0 a + $1 F (a) + $2 F 2(a) + . . . + $m"1 Fm"1(a) = 0 ,

dann ergibt sich durch aufeinanderfolgendes Anwenden von Fm"1, Fm"2, . . . , F 2, F auf dieseSumme der Reihe nach: $0 = 0 , $1 = 0 , $2 = 0 , . . . , $m"2 = 0 , $m"1 = 0 .

24.3 Definition

Es sei F : V ! V ein Endomorphismus; fur beliebiges a # V sei U(F, a) := <(Fµ(a))µ)0> .Ein Untervektorraum U von V heißt F -zyklisch, wenn es ein a # V \{0} gibt mit U = U(F, a) .(Gilt: F = 0 , so sind die F -zyklischen Untervektorraume von V genau die eindimensionalenUnterraume.)

Wir benotigen im folgenden ein paar Vorbereitungen.

Page 118: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

118 KAPITEL VI. AQUIVALENZRELATIONEN IN DER LINEAREN ALGEBRA

24.4 Hilfssatz

Es sei F : V ! V nilpotent mit Fm = 0 und a # V mit Fm"1(a) $= 0 ; ferner sei U := U(F, a) .Ist dann F k(b) # U fur ein b # V und ein k # IN# , so existiert ein b! # b+U mit F k(b!) = 0 .

Beweis:

Sei c := F k(b) ; dann existieren $0, $1, . . . ,$m"1 # K mit c =m"1,i=0

$i F i(a) . Wegen Fm(b) = 0

gilt: Fm"k(c) = 0 . Wenden wir der Reihe nach Fm"1, Fm"2, . . . , Fm"k auf c an, so folgt:$0 = 0 , $1 = 0 , . . . , $k"1 = 0 . Also gilt: c = F k(c!) mit

c! = $k a + $k+1 F (a) + $k+2 F 2(a) + . . . + $m"1 Fm"k"1(a) # U .

Und fur b! := b) c! # b + U folgt: F k(b!) = F k(b)) F k(c!) = c) c = 0 . "

24.5 Hilfssatz

Ist dimK V = n , F : V ! V nilpotent mit Fm = 0 und U wie in Hilfssatz 24.4, so existiertein Vektorraum W # VRK , ein G # HomK(V,W ) und ein H # HomK(W, W ) mit folgendenEigenschaften:

dimK V = m + dimK W , Ker G = U , Im G = W , G * F = H *G und Hm = 0 .

Beweis:

Wahle W := V /U und G := ( : V ! V /U . Wir definierenH : V /U ! V /U durch H(v + U) := F (v) + U . Dann ist Hwohldefiniert; denn aus v + U = w + U , d. h. w ) v # U , folgtwegen F (U) + U :

F (w)) F (v) # U oder H(w + U) = F (w) + U = F (v) + U .

Außerdem ist H linear mit

(H *G)(v) = H(v + U) = F (v) + U = G(F (v)) = (G * F )(v) .

V F ! V

G

"

#

"

G

W !HW

Weiter gilt dann fur jedes k & 2 :

Hk *G = Hk"1 * (H *G) = Hk"1 * (G * F ) == Hk"2 * (H *G) * F = Hk"2 * (G * F ) * F == (Hk"2 *G) * F 2 = . . . = Hk *G = G * F k ,

also: Hm *G = 0 . Wegen der Surjektivitat von G folgt dann: Hm = 0 . "

24.6 Hilfssatz

Wir ubernehmen die Voraussetzungen und Bezeichnungen aus den vorhergehenden Hilfssatzen.Ist W = W12W22 . . .2Ws mit H-zyklischen Unterraumen Wi von W , so existieren Vektorena1, a2, . . . , as # V derart, daß fur alle i = 1, 2, . . . , s gilt:

Page 119: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 24. NILPOTENTE ENDOMORPHISMEN 119

a) Wi = U(H,G(ai)) .

b) G : U(F, ai) ! Wi ist ein Isomorphismus.

Beweis:

Nach Voraussetzung existieren Vektoren bi # W mit Wi = U(H, bi) fur alle i = 1, 2, . . . , s . Istmi := dimK Wi , so ist mi = m(H, bi) und Hmi(bi) = 0 . Da G surjektiv ist, gibt es ai # Vmit bi = G(ai) ; und es gilt ebenfalls: G(ai + u) = G(ai) = bi fur alle u # U . Wegen

0 = Hmi(bi) = (Hmi *G)(ai) = (G * Fmi)(ai) = G(Fmi(ai)) = 0

ist Fmi(ai) # Ker G = U . Nach Hilfssatz 24.4 existiert somit ein a!i # ai +U mit Fmi(a!i) = 0 .Also sei ohne Beschrankung der Allgemeinheit: Fmi(ai) = 0 mit ai # V . Aus F k(ai) = 0 folgtnun:

Hk(bi) = (Hk *G)(ai) = (G * F k)(ai) = 0 , also: k & mi .

Damit ist dimU(F, ai) = mi = dimU(H,G(ai)) . Und wegen G(U(F, ai)) + U(H, bi) = Wi

erhalt man die Behauptung. "

24.7 Satz

Ist V # VRK , dimK V = n und F # EndK(V ) nilpotent, so gilt: V = U12U22 . . .2Ur mitF -zyklischen Unterraumen U1, U2, . . . , Ur von V .

Beweis: durch vollstandige Induktion nach n .

Der Fall n = 1 ist klar. !Ist F = 0 und (b1, b2, . . . , bn) eine Basis von V , so gilt direkt: V = <b1>2<b2>2 . . .2<bn>.Ist nun F $= 0 , so gibt es ein m # IN mit m & 2 und Fm"1 $= 0 sowie Fm = 0 . Wir wahlenein a # V mit Fm"1(a) $= 0 ; dann ist U = U(F, a) ein F -zyklischer Unterraum von V ,und es gilt: m(F, a) = m . Ist U = V , so ist nichts mehr zu zeigen. Im Falle U $= Vwahlen wir W # VRK mit dimK W < dimK V = n und H # HomK(W, W ) mit Hm = 0gemaß Hilfssatz 24.5. Nach Induktionsvoraussetzung gilt dann: W = W1 2W2 2 . . .2Ws mitH-zyklischen Unterraumen Wi von W . Nach Hilfssatz 24.6 existieren somit a1, a2, . . . , as # Vmit Wi = U(H,G(ai)) und den Isomorphismen G # HomK (U(F, ai), Wi) . Wir betrachtenjetzt den Summenraum >U := U + U1 + U2 + . . . + Us mit Ui := U(F, ai) . Sind dann u # U

und ui # Ui fur i = 1, 2, . . . , s gegeben mit u +s,

i=1ui = 0 , so ergibt sich durch Anwendung

von G :s,

i=1G(ui) = 0 mit G(ui) # Wi . Da die Summe W1 + W2 + . . . + Ws direkt ist, folgt:

G(ui) = 0 fur 1 , i , s . Wegen der Bijektivitat von G auf U(F, ai) folgt weiter: ui = 0 fur

alle i = 1, 2, . . . , s und damit auch: u = 0 . Also ist auch die Summe >U direkt: >U = U 2s4

i=1Ui .

Wegen

dim >U = dimU +s*

i=1

dimUi = m +s*

i=1

dimWi = m + dim W = m + (dimV )m) = dim V

folgt schließlich: >U = V . "

Page 120: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

120 KAPITEL VI. AQUIVALENZRELATIONEN IN DER LINEAREN ALGEBRA

24.8 Definition

Fur m # IN# definieren wir jeweils Matrizen Nm # Mat(m, m;K) durch

N1 := ( 0 ) , N2 :=<

0 10 0

=

, N3 :=

5

670 1 00 0 10 0 0

8

9: , . . . , Nm :=

5

66666667

0 1 0 · · · 00 0 1 . . . ...... . . . . . . . . . 0... . . . 0 10 · · · · · · 0 0

8

9999999:

und nennen solche Matrizen Nm nilzyklisch.

24.9 Bemerkung

Ist K = (e1t, e2

t, . . . , emt) die kanonische Basis des Km , so gilt: Nm · ei

t = ei"1t fur 1 < i , m

und Nm · e1t = 0 . Insbesondere folgt daraus: Nm

m = 0 , und Km ist Nm-zyklisch, d. h.ΨKK(Nm)-zyklisch; es ist z. B.: Km = <(Nµ(em

t))µ)0> .

Umgekehrt gilt:

24.10 Lemma

Ist F : V ! V nilpotent und U + V ein F -zyklischer Unterraum, so gibt es eine Basis B vonU derart, daß fur die Einschrankung F |U : U ! U gilt: ΦB

B(F |U ) = Nm , wobei m = dimK Uist.

Beweis:

Sei a # U mit U = U(F, a) und m = m(F, a) , d. h. U = <a , F (a) , F 2(a) , . . . , Fm"1(a)> .Wir setzen bi := Fm"i(a) fur alle 1 , i , m und erhalten fur die darstellende MatrixA = ($ij) = ΦB

B(F |U ) bezuglich B = (b1, b2, . . . , bm) :

F (bj) =m*

i=1

$ij bi fur 1 , j , m .

Und wegen

F (bj) =;

Fm"j+1(a) = Fm"(j"1)(a) = bj"1 fur 1 < j , m0 fur j = 1

ergibt sich: $i1 = 0 sowie $ij = -i,j"1 fur alle 1 , i , m und 1 < j , m . "

24.11 Lemma

Ist V # VRK und F # HomK(V, V ) sowie V = U1 2 U2 2 . . . 2 Ur mit F -zyklischenUntervektorraumen U1, U2, . . . , Ur von V , und sind A1, A2, . . . , Ar darstellende Matrizen von

Page 121: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 24. NILPOTENTE ENDOMORPHISMEN 121

G1 := F |U1 , G2 := F |U2 , . . . , Gr := F |Ur bezuglich der Basen B1,B2, . . . ,Br von U1, U2, . . . , Ur ,so ist jede darstellende Matrix von F zur Kastchen–Diagonalmatrix

A =

5

666667

A1 0 · · · 0

0 A2. . . ...

... . . . . . . 00 · · · 0 Ar

8

99999:

ahnlich.

Beweis:

Wir geben eine Basis B von V derart an, daß ΦBB(F ) = A ist. Dazu wahlen wir mit Hilfe von

B1 = (b1, b2, . . . , bm1) , B2 = (bm1+1, bm1+2, . . . , bm2) , . . . , Br = (bmr&1+1, bmr&1+2, . . . , bmr) dieBasis B := (b1, b2, . . . , bm1 , bm1+1, . . . , bm2 , bm2+1, . . . , bmr) von V . Dann gilt: ΦB

B(F ) = A . "

24.12 Satz

Ist V # VRK , dimK V = n und F # HomK(V, V ) nilpotent, so ist jede F zugeordnete Matrixahnlich zu einer Kastchen–Diagonalmatrix A aus nilzyklischen Matrizen A& .

Beweis:

Nach Satz 24.7 ist V = U12U22 . . .2Ur mit F -zyklischen Unterraumen U1, U2, . . . , Ur . NachLemma 24.10 existiert jeweils eine Basis B& von U& derart, daß die darstellenden Matrizen vonF |U$ bezuglich B& nilzyklisch sind. Und Lemma 24.11 liefert dann die Behauptung. "

24.13 Folgerung

Ist N eine nilpotente Matrix, so ist N stets ahnlich zu einer Kastchen–Diagonalmatrix vonnilzyklischen Matrixblocken.

24.14 Bemerkung

Sei nun A # Mat(n, n; C) und # # C ein Eigenwert von A mit der Vielfachheit n . Dann istA ahnlich zu einer oberen Dreiecksmatrix # En + N . Ohne Beschrankung der Allgemeinheitsei A = # En + N ; dann ist N nilpotent, also ahnlich zu einer Kastchen–Diagonalmatrixaus nilzyklischen Matrizen. Der zugehorige Endomorphismus F # EndC(Cn) ist dann gegebendurch F (x) := N · x = (A ) # En) · x . Nach Satz 24.7 gilt: Cn = U1 2 U2 2 . . . 2 Ur ,wobei Ui = U(F, ai) = <ai , F (ai) , F 2(ai) , . . . , Fni"1(ai)> und ni = dimC Ui ist fur alle1 , i , r . Wegen Fni(ai) = F (Fni"1(ai)) = 0 ist Fni"1(ai) ein Eigenvektor von F zumEigenwert # . Ist nun dimC V (#) = m , so folgt, weil in jedem Unterraum Ui + Cn bis aufskalares Vielfaches genau ein Eigenvektor zum Eigenwert # liegt: m = r . Also ist die Anzahlder Jordan–Kastchen in der Kastchen–Diagonalmatrix aus nilzyklischen Matrizen gerade dieDimension des Eigenraumes V (#) . Ist s # IN# die kleinste Zahl mit F s = 0 , d. h. N s = 0 ,so gilt: ni , s fur alle 1 , i , r . Damit ist das großte Jordan–Kastchen eine (s % s)-Matrix.

Page 122: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

122 KAPITEL VI. AQUIVALENZRELATIONEN IN DER LINEAREN ALGEBRA

Im Fall n , 6 genugen die Zahlen m und s , um die Jordan’sche Normalform (bis auf einePermutation der Kastchen) explizit anzugeben (unter Verwendung von Beispiel 22.2(iii)):

Ist n = 2 und m = 2 , so ist A diagonalisierbar.

m = 1 , d. h. s = 2 , also: A 8<

# 10 #

=

.

Ist n = 3 und m = 3 , so ist A diagonalisierbar.

m = 2 , d. h. s = 2 , also: A 8

5

67# 0 00 # 10 0 #

8

9: .

m = 1 , d. h. s = 3 , also: A 8

5

67# 1 00 # 10 0 #

8

9: .

Ist n = 4 und m = 4 , so ist A diagonalisierbar.

m = 3 , d. h. s = 2 , also: A 8

5

6667

# 0 0 00 # 0 00 0 # 10 0 0 #

8

999: .

m = 2 und s = 3 , so folgt: A 8

5

6667

# 0 0 00 # 1 00 0 # 10 0 0 #

8

999: .

m = 2 und s = 2 , so folgt: A 8

5

6667

# 1 0 00 # 0 00 0 # 10 0 0 #

8

999: .

m = 1 und s = 4 , so folgt: A = # E4 + N4 =

5

6667

# 1 0 00 # 1 00 0 # 10 0 0 #

8

999: .

Entsprechend ergeben sich die Normalformen fur n = 5 und n = 6 in Abhangigkeit von mund s . Im Fall n = 7 , m = 3 und s = 3 gibt es zwei nicht–ahnliche Matrizen, namlich:

5

66666666667

# 1 00 # 1 0 00 0 #

# 1 00 0 # 1 0

0 0 #0 0 #

8

9999999999:

und

5

66666666667

# 1 00 # 1 0 00 0 #

0# 1

00 #

0 0# 10 #

8

9999999999:

.

Page 123: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 24. NILPOTENTE ENDOMORPHISMEN 123

24.15 Beispiel

Wir betrachten die Matrix A =

5

673 4 3

)1 0 )11 2 3

8

9: aus Beispiel 21.5. Nach Bemerkung 24.14 ist

A ahnlich zu

5

672 1 00 2 10 0 2

8

9: wegen dim V (2) = 1. Wir wollen die Basistransformation berechnen.

A ist trigonalisierbar mit der oberen Dreiecksgestalt: S"1 · A · S =

5

672 )1 30 2 )20 0 2

8

9: . Es geht

nun darum, die Matrix N =

5

670 )1 30 0 )20 0 0

8

9: zu transformieren. Es gilt: N2 =

5

670 0 20 0 00 0 0

8

9:

und N3 = 0 . Gemaß dem Beweis zu Satz 24.7 ist ein a # C3 gesucht mit N2 · a $= 0 . Wahlenwir etwa a = e3

t , so ist N2 · e3t = (2, 0, 0)t ; also gilt:

U = U(N, e3t) = <e3

t , N · e3t , N2 · e3

t> = <e3t , (3,)2, 0)t , 2 e1

t> = C3 .

Nach dem Beweis zu Lemma 24.10 wahlen wir jetzt als Basis des C3:

b1 := N2 · e3t = 2 e1

t ,b2 := N · e3

t = (3,)2, 0)t ,b3 := e3

t

und erhalten als darstellende Matrix bezuglich B = (b1, b2, b3) die nilzyklische Matrix N3 . AlsTransformationsmatrix ergibt sich:

T =

5

672 3 00 )2 00 0 1

8

9: ' T"1 =14

5

672 3 00 )2 00 0 4

8

9: .

Damit gilt tatsachlich:

T"1 · (S"1 ·A · S) · T = (S · T )"1 ·A · (S · T ) =

5

672 1 00 2 10 0 2

8

9: = 2E3 + N3

mit

S = S1 · S2 =

5

671 0 0

)1 1 01 0 1

8

9: ·

5

671 0 00 )1 00 1 1

8

9: =

5

671 0 0

)1 )1 01 1 1

8

9:

und S"1 =

5

671 0 0

)1 )1 00 1 1

8

9: . Durch Zusammenfassen ergibt sich schließlich:

S · T =

5

672 3 0

)2 )1 02 1 1

8

9: und (S · T )"1 =14

5

67)1 )3 0

2 2 00 4 4

8

9: .

Page 124: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

124 KAPITEL VI. AQUIVALENZRELATIONEN IN DER LINEAREN ALGEBRA

24.16 Bemerkung

Ist A # Mat(n, n;K) ahnlich zur Jordan’schen Normalform

B =

5

666667

J1 0 · · · 0

0 J2. . . ...

... . . . . . . 00 · · · 0 Jl

8

99999:

mit Jordan–Matrizen Ji = #i Eri + Nri , so entspricht einer anderen Anordnung der Jordan–Kastchen entlang der Diagonalen eine Permutation der Basis; also erhalt man so eine ahnlicheMatrix. Umgekehrt kann man zeigen, daß zwei Matrizen in Jordan’scher Normalform (mit obigenJordan–Kastchen) nur dann ahnlich sind, wenn sie durch eine Permutation der Jordan–Kastchenineinander ubergefuhrt werden konnen. Erst dadurch ist der Name Jordan’sche Normalformgerechtfertigt.

§ 25 Korper der Bruche

Wir wollen den Ubergang von ZZ zu Q allgemein beschreiben. Dazu benotigen wir:

25.1 Definition

Es sei (R,+, ·) ein kommutativer Ring (vgl. Definition 1.7). Ein Element a # R heißt ein Null-teiler in R, wenn es ein b # R \ {0} gibt mit: a · b = 0 . Ist a # R \ {0} ein Nullteiler, so heißta ein eigentlicher Nullteiler in R.Den Ring R nennt man nullteilerfrei, wenn R keine eigentlichen Nullteiler enthalt. Und R heißtein Integritatsring (oder Integritatsbereich), wenn R nullteilerfrei ist und ein von 0 verschiedenesEinselement 1 besitzt.

25.2 Bemerkungen

(i) Ist ein Ring nullteilerfrei, so gilt fur a $= 0 die Kurzungsregel : a · b = a · c ' b = c .

(ii) Wir betrachten fur festes n # IN# auf ZZ die Aquivalenzrelation aus Beispiel 22.2(i):a 8 b :(' a) b ist durch n teilbar .

Mit ZZn := {K0, K1, K2, . . . ,Kn"1} bezeichnen wir die Menge aller Aquivalenzklassenbezuglich dieser Aquivalenzrelation 8 . Wir konnen dann auf ZZn eine Addition und eineMultiplikation einfuhren durch

Ka + Kb := Ka+b bzw. Ka ·Kb := Ka·b .

Man kann zeigen, daß dadurch ZZn zu einem kommutativen Ring (ZZn,+, ·) mit Nullele-ment K0 und Einselement K1 wird.ZZn ist genau dann nullteilerfrei, wenn n eine Primzahl ist. Etwa in ZZ6 ist K2 ·K3 = K0 ;in ZZ12 gilt z. B.: K2 · K3 = K2 · K9 , obwohl K3 $= K9 ist. Ist n & 2 eine Primzahl, soist ZZn sogar ein Korper.

(iii) Die ganzen Zahlen ZZ bilden einen Integritatsbereich.

Page 125: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

§ 25. KORPER DER BRUCHE 125

25.3 Satz

Es sei R ein Integritatsring. Dann gibt es einen Korper K und einen injektiven Ring–Homomor-phismus ! : R ! K , d. h. mit

!(a + b) = !(a) + !(b) und !(a · b) = !(a) · !(b) fur alle a, b # R .

Beweis:

Wir konstruieren K aus R genauso, wie Q aus ZZ konstruiert wird. Dazu sei festgelegt:X := {(a, b) | a # R - b # R \ {0}} ; wir definieren auf X eine Aquivalenzrelation durch:

(a, b) 8 (c, d) :(' a · d = b · c .(Dann ist 8 reflexiv und symmetrisch. Aus (a, b) 8 (c, d) und (c, d) 8 (e, f) folgt der Reihenach: a d · f = b c · f und b · c f = b · d e ; also: a · d · f = b · d · e . Die Kurzungsregel 25.2(i)liefert wegen d $= 0 sofort: a · f = b · e oder (a, b) 8 (e, f) . Also ist 8 auch transitiv.)

Mit K bezeichnen wir die Menge aller Aquivalenzklassen von X bezuglich 8 . Statt K(a,b)

schreiben wir:Ia

b

J. Auf K fuhren wir eine Addition + und eine Multiplikation · ein derart, daß

K dadurch zu einem Korper wird.

Zuvor stellen wir folgende Hilfsuberlegung an: Ist c # R \ {0} und (a, b) # X , dann gilt:(a, b) 8 (a c , b c) ; denn es ist a (b c) = (a b) c = (b a) c = b (a c) .

Auf K definieren wir:Ia

b

J+

I c

d

J:=

Ia d + b c

b d

Jund

Ia

b

J·I c

d

J:=

Ia c

b d

J.

Diese beiden Definitionen sind sinnvoll, weil mit b $= 0 und d $= 0 auch b d $= 0 folgt. Außerdemsind sie reprasentanten-unabhangig. Ist namlich (a, b) 8 (a!, b!) und (c, d) 8 (c!, d!) , dann folgt:

a b! = b a! sowie c d! = d c! und somit:Ia! d! + b! c!

b! d!

J=

Ia d + b c

b d

Jwegen

(a! d! + b! c!) b d = a! b d d! + b b! c! d = a b! d d! + b b! c d! = b! d! (a d + b c) ;

ferner istIa! c!

b! d!

J=

Ia c

b d

Jwegen a! c! b d = a! b c! d = a b! c d! = a c b! d! .

Man rechnet sofort nach, daß (K,+) eine abelsche Gruppe ist mit dem NullelementI01

J; ferner

erhalten wir )Ia

b

J=

I)a

b

Jals Inverses zu jedem

Ia

b

J. Die Multiplikation · ist kommutativ und

assoziativ. Ferner gelten die Distributivgesetze (D1) und (D2); zum Beispiel istIa

b

J·!I c

d

J+

I e

f

J"=

Ia

b

J·Ic f + d e

d f

J=

Ia (c f + d e)b (d f)

J

und Ia

b

J·I c

d

J+

Ia

b

J·I e

f

J=

Ia c

b d

J+

Ia e

b f

J=

Ia c · b f + b d · a e

b d · b f

J.

Aufgrund der Hilfsuberlegung stimmen dabei die rechten Seiten uberein, indem man durch b $= 0

kurzt. MitI11

Jerhalt man das Einselement. Um zu zeigen, daß K ein Korper ist, betrachten

Page 126: LINEARE ALGEBRA I - uni-due.dehn213me/sk/knoop/Linal1.pdf · LINEARE ALGEBRA I 1. Kapi tel I V ektor r¬aume ¤ 1 Gr upp en, Ri nge, K ¬or p er 1 .1 Def ini tio n Gegeb en seien

126 KAPITEL VI. AQUIVALENZRELATIONEN IN DER LINEAREN ALGEBRA

wirIa

b

J# K \ {

I01

J}; dann ist a · 1 $= b · 0 = 0 und damit a $= 0 . Somit ist auch (b, a) # X und

I b

a

J# K mit

Ia

b

J·I b

a

J=

Ia b

b a

J=

I11

J.

Wir definieren nun ! : R ! K durch !(a) :=Ia

1

J; dann gilt fur alle a, a! # R :

!(a + a!) =Ia + a!

1

J=

Ia · 1 + 1 · a!

1 · 1J

=Ia

1

J+

Ia!

1

J= !(a) + !(a!)

und!(a · a!) =

Ia a!

1

J=

Ia · a!

1 · 1J

=Ia

1

J·Ia!

1

J= !(a) · !(a!) .

Also ist ! tatsachlich ein Ring–Homomorphismus. Und ! ist eine injektive Abbildung; denn aus

!(a) =Ia

1

J=

I01

Jfolgt sofort: a · 1 = 1 · 0 , d. h.: a = 0 .

Damit ist der Satz bewiesen. "

Wir halten noch folgende Beziehung fest fur b # R \ {0} :

Ia

b

J· !(b) =

Ia

b

J·I b

1

J=

Ia b

b

J=

Ia

1

J= !(a) ('

Ia

b

J= !(a) · !(b)"1 .

Haufig ersetzt man namlich die Elemente von Im ! aus K durch die Elemente von R . Dann istR ein Unterring von K .

25.4 Definition

Der zum Integritatsbereich (R,+, ·) gebildete Korper (K,+, ·) heißt der Quotientenkorper oderKorper der Bruche von R.

25.5 Bemerkung

Der oben konstruierte Quotientenkorper (K,+, ·) ist der kleinste Oberkorper, in den sich derIntegritatsring (R,+, ·) homomorph einbetten laßt.

(Genaueres zu den hier bereits verwendeten Begriffen findet sich in §55 und §57 aus Algebra I.)