Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra...

141
Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut für Mathematik Version vom 9. Juli 2014

Transcript of Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra...

Page 1: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Hans-Peter Gittel

Lineare Algebra

(für Informatiker/Grundschullehrer)

Sommersemester 2014

Universität Leipzig, Institut für Mathematik

Version vom 9. Juli 2014

Page 2: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Es wird keinerlei Gewähr für die Richtigkeit und Vollständigkeit der hier vorliegenden Mit-schrift gegeben.

Diese Mitschrift wurde ursprünglich von Roy Mennicke mit Hilfe von LATEX2ε im Winter-semester 2003/2004 gesetzt. Die jeweils aktuellste Version ist erhältlich unter:

http://www.math.uni-leipzig.de/∼gittel/LinAlg14.html

Page 3: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut
Page 4: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Inhaltsübersicht

1 Algebraische Grundbegriffe 1

2 Algebraische Strukturen in Zahlbereichen 11

3 Vektorräume und lineare Abbildungen 25

4 Matrizen und lineare Gleichungssysteme 55

5 Euklidische Vektorräume 87

6 Eigenwerttheorie 107

iii

Page 5: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut
Page 6: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Inhaltsverzeichnis

1 Algebraische Grundbegriffe 11.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.0.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 11.1.0.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 2

1.1.1 Grundlegende Bezeichnungen . . . . . . . . . . . . . . . . . . . . . 41.2 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2.0.0.1 Definition einer Relation: . . . . . . . . . . . . . 41.2.1 Wichtige Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2.1.0.1 Äquivalenzrelation: . . . . . . . . . . . . . . . . . 51.2.1.0.2 Ordnungsrelation: . . . . . . . . . . . . . . . . . . 5

1.2.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.3 Satz über Äquivalenzklassen . . . . . . . . . . . . . . . . . . . . . . 6

1.2.3.0.3 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 71.2.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3.1 Definition (Gruppenaxiome) . . . . . . . . . . . . . . . . . . . . . . 71.3.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3.3 Eindeutigkeit von neutralen und inversen Element in (G, ∗) . . . . . 81.3.4 Abbildung von Gruppen . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3.4.1 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.4 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.4.0.1.1 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 91.4.0.1.2 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 10

1.4.0.2 Bezeichung . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Algebraische Strukturen in Zahlbereichen 112.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.1.0.0.1 Behauptung: . . . . . . . . . . . . . . . . . . . . 112.1.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.1.1.1 Eigenschaften von τ . . . . . . . . . . . . . . . . . . . . . 122.2 Ring der ganzen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.2.1 Definition eines Rings . . . . . . . . . . . . . . . . . . . . . . . . . 132.2.1.0.1 Satz: . . . . . . . . . . . . . . . . . . . . . . . . . 13

v

Page 7: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

2.2.2 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2.3 Definition des größten gemeinsamen Teilers . . . . . . . . . . . . . . 13

2.2.3.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 132.2.4 Euklidischer Algorithmus in der einfachen Form . . . . . . . . . . . 14

2.2.4.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 142.2.4.0.2 Behauptung: . . . . . . . . . . . . . . . . . . . . 142.2.4.0.3 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 14

2.2.5 Anwendung (Konstruktion von endlichen Körpern) . . . . . . . . . 152.2.5.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 152.2.5.0.2 Satz über die Existenz endlicher Körper: . . . . . 15

2.3 Körper der komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . 152.3.1 Einführung der komplexen Zahlen . . . . . . . . . . . . . . . . . . . 15

2.3.1.0.1 Geometrische Darstellung: . . . . . . . . . . . . . 162.3.2 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.3.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 162.3.2.1 Bestimmung von z−1 . . . . . . . . . . . . . . . . . . . . . 17

2.3.2.1.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 172.3.2.1.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 18

2.3.2.2 Division . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.3.2.2.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 18

2.3.3 Geometrische Deutung der Rechenoperationen in C . . . . . . . . . 192.3.3.1 Trignometrische Darstellung komplexer Zahlen . . . . . . 20

2.3.3.1.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 202.3.3.1.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 22

2.3.4 Konvergenzbegriff in C . . . . . . . . . . . . . . . . . . . . . . . . . 222.3.4.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.3.4.1.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 232.3.4.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.3.4.2.1 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 232.3.5 Komplexe Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.3.5.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Vektorräume und lineare Abbildungen 253.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.1.1 Definition des Vektorraums . . . . . . . . . . . . . . . . . . . . . . 253.1.1.0.1 Verknüpfung von Vektoren: . . . . . . . . . . . . 253.1.1.0.2 Verknüpfung von Skalaren und Vektoren: . . . . . 26

3.1.1.1 Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . 263.1.1.2 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 263.1.1.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.1.2 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283.1.2.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 283.1.2.0.2 Unterraumkriterium: . . . . . . . . . . . . . . . . 28

Page 8: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.1.2.0.3 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 293.1.2.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.1.2.1.1 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 293.1.3 Operationen mit Unterräumen . . . . . . . . . . . . . . . . . . . . . 30

3.1.3.0.1 Durchschnitt: . . . . . . . . . . . . . . . . . . . . 303.1.3.0.2 Summe: . . . . . . . . . . . . . . . . . . . . . . . 303.1.3.0.3 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 313.1.3.0.4 Behauptung: . . . . . . . . . . . . . . . . . . . . 313.1.3.0.5 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 31

3.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.2.1 Definition der linearen Unabhängigkeit . . . . . . . . . . . . . . . . 32

3.2.1.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.2.2 Charakterisierung der linearen Abhängigkeit . . . . . . . . . . . . . 33

3.2.2.1 Weitere Folgerungen . . . . . . . . . . . . . . . . . . . . . 343.2.3 Definition eines Erzeugendensystems . . . . . . . . . . . . . . . . . 34

3.2.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.2.4 Eigenschaften einer Basis . . . . . . . . . . . . . . . . . . . . . . . . 35

3.2.4.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 353.2.4.0.2 Satz über die Existenz einer Basis: . . . . . . . . 353.2.4.0.3 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 36

3.2.4.1 Wieviele Elemente hat eine Basis? . . . . . . . . . . . . . 363.2.4.1.1 Austauschlemma: . . . . . . . . . . . . . . . . . . 363.2.4.1.2 Ergänzung zum Austauschlemma: . . . . . . . . . 373.2.4.1.3 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 373.2.4.1.4 Austauschsatz von Steinitz (1913): . . . . . . . . 37

3.2.4.2 Wichtige Folgerungen aus dem Austauschsatz . . . . . . . 383.3 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.3.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.3.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443.3.3 Weitere wichtige lineare Abbildung . . . . . . . . . . . . . . . . . . 45

3.3.3.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 453.3.4 Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463.3.5 Bestimmung von linearen Abbildungen . . . . . . . . . . . . . . . . 473.3.6 Dimensionsformel für lineare Abbildungen . . . . . . . . . . . . . . 49

3.3.6.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 503.4 Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3.4.1 Eigenschaften affiner Unterräume . . . . . . . . . . . . . . . . . . . 503.4.1.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 503.4.1.0.2 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 513.4.1.0.3 Satz über die Gleichheit von affinen Unterräumen: 51

3.4.1.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 523.4.1.1.1 Parameterdarstellung von A = a0 + U : . . . . . . 52

3.4.2 Parallele Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . 52

Page 9: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.4.2.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 523.4.2.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

3.4.3 Erzeugung affiner Unterräume . . . . . . . . . . . . . . . . . . . . . 543.4.3.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 54

4 Matrizen und lineare Gleichungssysteme 554.1 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

4.1.1 Definition einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . 554.1.1.0.1 Spezialfälle: . . . . . . . . . . . . . . . . . . . . . 554.1.1.0.2 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 55

4.1.2 Operationen mit Matrizen . . . . . . . . . . . . . . . . . . . . . . . 564.1.3 Zusammenhang zwischen linearen Abbildungen und Matrizen . . . 59

4.1.3.0.1 Darstellungssatz: . . . . . . . . . . . . . . . . . . 594.1.3.1 Interpretation der Matrizenoperationen . . . . . . . . . . . 604.1.3.2 Spezialfälle . . . . . . . . . . . . . . . . . . . . . . . . . . 614.1.3.3 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 61

4.1.3.3.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 624.1.3.3.2 Anwendung: . . . . . . . . . . . . . . . . . . . . . 62

4.2 Rangbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 624.2.1 Definition des Rangs einer Matrix . . . . . . . . . . . . . . . . . . . 62

4.2.1.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 624.2.1.0.2 Satz: . . . . . . . . . . . . . . . . . . . . . . . . . 624.2.1.0.3 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 634.2.1.0.4 Hilfssatz: . . . . . . . . . . . . . . . . . . . . . . 634.2.1.0.5 Bedeutung des Hilfssatzes: . . . . . . . . . . . . . 644.2.1.0.6 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 64

4.2.2 Elementare Umformungen von Matrizen . . . . . . . . . . . . . . . 654.2.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 654.2.2.0.2 Eigenschaft: . . . . . . . . . . . . . . . . . . . . . 654.2.2.0.3 Anwendung: . . . . . . . . . . . . . . . . . . . . . 65

4.2.2.1 Behauptungen . . . . . . . . . . . . . . . . . . . . . . . . 664.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

4.3.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 674.3.1.0.1 Fragen: . . . . . . . . . . . . . . . . . . . . . . . 68

4.3.2 Struktur der Lösungsräume . . . . . . . . . . . . . . . . . . . . . . 684.3.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 69

4.3.3 Lösbarkeitskriterium . . . . . . . . . . . . . . . . . . . . . . . . . . 704.3.4 Dimension des Lösungsraumes . . . . . . . . . . . . . . . . . . . . . 70

4.3.4.0.1 Folgerungen: . . . . . . . . . . . . . . . . . . . . 714.3.5 Gaußscher Algorithmus zum Lösen linearer Gleichungssysteme . . . 71

4.3.5.0.1 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 734.3.5.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 73

4.3.6 Numerische Lösung linearer Gleichungssysteme . . . . . . . . . . . 74

Page 10: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.3.6.0.1 Idee: . . . . . . . . . . . . . . . . . . . . . . . . . 744.3.6.0.2 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 74

4.3.6.1 Wahl von P . . . . . . . . . . . . . . . . . . . . . . . . . . 744.3.6.1.1 Konvergenzsatz: . . . . . . . . . . . . . . . . . . . 76

4.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 764.4.0.1.1 Zur Erinnerung: . . . . . . . . . . . . . . . . . . . 76

4.4.1 Definition einer Determinante . . . . . . . . . . . . . . . . . . . . . 764.4.1.0.1 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 77

4.4.2 Eigenschaften von Det(A) . . . . . . . . . . . . . . . . . . . . . . . 774.4.2.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 79

4.4.2.1.1 Determinante einer oberen Dreiecksmatrix: . . . . 804.4.2.1.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 81

4.4.3 Multiplikationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . 814.4.3.0.1 Determinante einer regulären (invertierbaren) Matrix: 824.4.3.0.2 Ergänzung: . . . . . . . . . . . . . . . . . . . . . 83

4.4.4 Adjungierte Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 834.4.4.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 83

4.4.4.1 Laplacesche Entwicklungssatz (Laplace 1749-1827) . . . . 834.4.4.1.1 Anwendung: . . . . . . . . . . . . . . . . . . . . . 844.4.4.1.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 84

4.4.4.2 Definition der adjungierten Matrix . . . . . . . . . . . . . 844.4.4.2.1 Satz: . . . . . . . . . . . . . . . . . . . . . . . . . 844.4.4.2.2 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 854.4.4.2.3 Anwendung: . . . . . . . . . . . . . . . . . . . . . 85

5 Euklidische Vektorräume 875.1 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

5.1.1 Definition des Skalarprodukts . . . . . . . . . . . . . . . . . . . . . 875.1.1.0.1 Bemerkungen: . . . . . . . . . . . . . . . . . . . . 885.1.1.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 88

5.1.2 Euklidische Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . 885.1.2.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 885.1.2.0.2 Spezialfall: . . . . . . . . . . . . . . . . . . . . . 88

5.1.3 Cauchy-Schwarzsche Ungleichung . . . . . . . . . . . . . . . . . . . 895.1.3.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 89

5.1.3.1.1 Geometrische Deutung des Standardskalarprodukts in R2: 915.1.4 Kriterium für lineare Unabhängigkeit in Euklidischem Vektorraum . 92

5.2 Orthogonale Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 935.2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

5.2.1.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 935.2.1.0.2 Entwicklung nach Orthonormalbasis: . . . . . . . 93

5.2.2 Orthogonale Unterräume . . . . . . . . . . . . . . . . . . . . . . . . 945.2.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 94

Page 11: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.2.2.1 Eigenschaften von M⊥ . . . . . . . . . . . . . . . . . . . . 955.2.2.2 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 96

5.2.2.2.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 975.2.3 Konstruktion einer Orthonormalbasis . . . . . . . . . . . . . . . . . 98

5.2.3.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 995.2.3.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 99

5.3 Orthogonale Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . 1005.3.0.0.1 Motivation: . . . . . . . . . . . . . . . . . . . . . 1005.3.0.0.2 Definition: . . . . . . . . . . . . . . . . . . . . . . 101

5.3.1 Eigenschaften orthogonaler Abbildungen . . . . . . . . . . . . . . . 1015.3.2 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 102

5.3.2.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 1025.3.2.0.2 Charakterisierung orthogonaler Matrizen: . . . . 1035.3.2.0.3 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 103

5.3.2.1 Bestimmung aller Elemente von O(2) . . . . . . . . . . . . 1045.3.2.1.1 Satz: . . . . . . . . . . . . . . . . . . . . . . . . . 1045.3.2.1.2 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 1045.3.2.1.3 Zusammenfassung. . . . . . . . . . . . . . . . . . 105

6 Eigenwerttheorie 1076.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 107

6.1.0.0.1 Fragen: . . . . . . . . . . . . . . . . . . . . . . . 1076.1.0.0.2 Definition: . . . . . . . . . . . . . . . . . . . . . . 1086.1.0.0.3 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 108

6.1.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1086.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1086.1.3 Diagonalisierbare Matrizen . . . . . . . . . . . . . . . . . . . . . . . 109

6.1.3.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 1106.1.3.0.2 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 110

6.1.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1106.1.4 Eigenschaften von Eigenvektoren . . . . . . . . . . . . . . . . . . . 111

6.1.4.0.1 Satz: . . . . . . . . . . . . . . . . . . . . . . . . . 1116.1.4.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 1116.1.4.2 Verfahren zur Diagonalisierbarkeit von A ∈ Rn×n . . . . . 112

6.1.4.2.1 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 1136.2 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . 113

6.2.0.0.1 Satz: . . . . . . . . . . . . . . . . . . . . . . . . . 1136.2.0.0.2 Definition: . . . . . . . . . . . . . . . . . . . . . . 1136.2.0.0.3 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 113

6.2.0.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1136.2.1 Grundlegendes über Polynome . . . . . . . . . . . . . . . . . . . . . 114

6.2.1.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 1156.2.1.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 115

Page 12: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.2.2 Anwendung auf charakteristisches Polynom . . . . . . . . . . . . . . 1166.2.2.0.1 Darstellung des charakteristischen Polynoms: . . 1166.2.2.0.2 Zusammenhang zwischen mk und den geometr. Vielfachheiten nk1166.2.2.0.3 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 117

6.2.3 Bemerkung zu komplexen Eigenwerten einer MatrixA ∈ Rn×n . . . 1176.2.4 Eigenwerte orthogonaler Matrizen A ∈ Rn×n . . . . . . . . . . . . . 117

6.2.4.0.1 Interpretation: . . . . . . . . . . . . . . . . . . . 1196.2.4.0.2 Allgemein: . . . . . . . . . . . . . . . . . . . . . . 120

6.3 Hauptachsentransformation symmetrischer Matrizen . . . . . . . . . . . . . 1206.3.1 Eigenschaften symmetrischer Matrizen A ∈ Rn×n . . . . . . . . . . 121

6.3.1.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 1226.3.1.0.2 Hauptachsensatz: . . . . . . . . . . . . . . . . . . 122

6.3.1.1 Schema zur Durchführung der Hauptachsentransformation symmetrischer Matrizen6.3.1.2 Beispiel zur Hauptachsentransformation . . . . . . . . . . 124

6.3.2 Anwendung der Hauptachsentransformation bei Kurven zweiter Ordnung1256.3.2.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 125

6.3.2.1 Klassifikation: . . . . . . . . . . . . . . . . . . . . . . . . . 1266.3.2.2 Normalformen von Kurven 2. Ordnung . . . . . . . . . . . 126

6.3.2.2.1 Beispiel einer Kurve 2. Ordnung: . . . . . . . . . 127

Page 13: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut
Page 14: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Literaturverzeichnis

[1] Beutelspacher, A.: Lineare Algebra. Vieweg 1995

[2] Eisenreich, G.: Lineare Algebra und Analytische Geometrie. Akademie-Verlag 1989

[3] Fischer, G.: Lernbuch Lineare Algebra und Analytische Geometrie. Springer 2012

[4] Jänich, K.: Lineare Algebra. Springer 1993

[5] Kreußler, B. und Pfister, G.: Mathematik für Informatiker. Springer 2009

[6] Manteuffel, K., Seiffart, E. und K. Vetters: Lineare Algebra. Teubner 1989

[7] Walter, R.: Einführung in die Lineare Algebra. Vieweg 1990

[8] Witt, K.-U.: Lineare Algebra für die Informatik. Springer 2013

xiii

Page 15: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Kapitel 1

Algebraische Grundbegriffe

1.1 Einleitung

In der Schulgeometrie ging es oft um Lagebeziehungen von ebenen Figuren, Fragen nachbestimmten Schnittpunkten, Geraden und ähnliches wurden behandelt.

1.1.0.0.1 Beispiel: Schnittpunkt S zweier gegebener Geraden g1, g2. Es gibt zwei Mög-lichkeiten den Schnittpunkt zu bestimmen.

1) Lösung durch Konstruktion (Zeichnung). Die Geraden werden soweit verlängert, bissie sich schneiden.

2) Einführung eines rechtwinkligen Koordinatensystems:

Gerade g1 wird beschrieben durch die Gleichung: y =1

2x ,

Gerade g1 wird beschrieben durch die Gleichung: y = 2x− 3 ,

S = (xS, yS) bestimmt sich dann durch zwei Gleichungen für zwei Unbekannte. Sliegt auf g1 und g2, somit gilt:

yS =1

2xS yS = 2xS − 3

1

2xS = 2xS − 3 , also xS = 2, yS = 1

Damit haben wir das geometrische Problem in ein algebraisches überführt, welchesmittels analytischen Hilfsmitteln gelöst wurde.

1

Page 16: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

2 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE

x

y

0

1

1

S

g2

g1

Umgekehrt: Kann man jedes algebraische Problem geometrisch deuten?

Bei der Behandlung vielfältiger Anwendungen stößt man bei der mathematischen Model-lierung auf Gleichungen welche „linear“ sind, das heißt die Unbekannten treten in denGleichungen höchstens in der ersten Potenz auf.

1.1.0.0.2 Beispiel: Eine Getränkefabrik stellt durch Mischung eines Grundstoffes mitzwei Zusatzstoffen Z1, Z2 die Endprodukte P1, P2 und P3 her. Durch Zumischung von 4lZ1 und 3l Z2 zum Grundstoff ergeben sich 100l P1. Durch Zumischung von 2l Z1 und 5l Z2

erhält man 100l P2. Durch Zumischung von 1l Z1 und 2l Z2 erhält man 100l P3.

Folglich braucht man für x1hlI P1, x2hl P2 und x3hl P3:

b1 = 4x1 + 2x2 + x3 l Zusatzstoff Z1

b2 = 3x1 + 5x2 + 2x3 l Zusatzstoff Z2

(System von 2 linearenGleichungen)

Ihl – Hektoliter

Page 17: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

1.1. EINLEITUNG 3

Verschiedene Fragestellungen:

1) Es werden 7hl P1, 8hl P2 und 13hl P3 benötigt. Wieviel Liter Zusatzstoffe werdenverwendet?

Antwort: Durch Einsetzen in die beiden Gleichungen erhält man b1 = 57 und b2 = 87.

2) Es stehen 80l Z1 und 90l Z2 zur Verfügung. Wieviel Hektorliter der Endprodukte P1,P2 und P3 kann man damit herstellen?

Aus den beiden Gleichungen folgt ein lineares Gleichungssystem:

80 = 4x1 + 2x2 + x3

90 = 3x1 + 5x2 + 2x3(1.1.0.1)

Gegenstand der linearen Algebra: Untersuchung solcher linearen Gleichungssystemeauf Lösbarkeit sowie Aussagen über Struktur der Lösungsmenge tätigen.

Was ist die Lösung des linearen Gleichungssystems (1.1.0.1)? 3 Werte für x1, x2 undx3, so dass beide Gleichungen erfüllt sind. Zum Beispiel:

x1 = 14, x2 = 0, x3 = 24 aber auch

x1 =27

2, x2= −5

2, x3 = 31II

Die Lösung für das lineare Gleichungssystem (1.1.0.1) ist ein geeordnetes TripelIII

(x1, x2, x3) von reellen Zahlen x1, x2, x3, so dass die Gleichungen erfüllt sind.

Da es auf die Reihenfolge und Position der Koeffizienten und Absolutglieder im li-nearen Gleichungssystem ankommt, kann man es durch folgendes Schema charakte-risieren:

A :=

(4 2 13 5 2

)und b :=

(8090

)

(Koeffizientenmatrix) (Absolutglied(vektor))

von (1.1.0.1)

Zur Untersuchung der Lösungsstruktur bei linearen Gleichungssystem benutzen wir Matri-zen. Dabei spielen solche wichtigen Strukturen wie Gruppe, Körper und Vektorraum eineentscheidende Rolle.

IIDiese Werte sind allerdings ökonomisch unsinnig.IIIEine Lösung ist beispielsweise (14, 0, 24), jedoch (0, 14, 24) nicht.

Page 18: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE

1.1.1 Grundlegende Bezeichnungen

Symbol Bedeutung Definition

x ∈M x ist Element der Menge M M enthält x

x 6∈M x ist kein Element von M M enthält nicht x

∅ leere Menge Menge, die kein Element enthält

|M | Mächtigkeit der Menge M Anzahl der Elemente von M

P(M) Potenzmenge von M P(M) := {A|A ⊆M}A ⊆ B A ist Teilmenge von B Für alle x ∈ A gilt x ∈ B

(B ist Obermenge von A)

A ⊂ B A ist echte Teilmenge von B A ⊆ B,A 6= B

A ∩B Durchschnitt von A und B A ∩B := {x|x ∈ A und x ∈ B}A ∪B Vereinigung von A und B A ∪B := {x|x ∈ A oder x ∈ B}A \B Differenz von A und B A \B := {x|x ∈ A und x 6∈ B}

(Komplement von B in A zusätzlich A ⊇ B)

A× B kartesisches Produkt von A und B A×B := {(a, b)|a ∈ A, b ∈ B}

Symbol Bedeutung Definition

N Menge aller natürlichen Zahlen N := {1, 2, 3, . . .}N0 Menge aller nichtnegativen ganzen

ZahlenN0 := N ∪ {0}

Z Menge aller ganzen Zahlen Z := {. . . ,−2,−1, 0, 1, 2, . . .}Q Menge aller rationalen Zahlen Q := {x | x = p

q, p ∈ Z, q ∈ N}

R Menge aller reellen Zahlen

R+ Menge aller nichtnegativen reellenZahlen

R+ := {x ∈ R | x ≥ 0}

Rn Menge aller n-Tupel reeller Zahlen Rn := R× . . .× R

C Menge aller komplexen Zahlen C := {z = a + ib | a, b ∈ R}

1.2 Relationen

Der mathematische Begriff der Relation ist eine Verallgemeinerung von Alltagsbeziehun-gen.

1.2.0.0.1 Definition einer Relation: Eine Relation R auf einer MengeM ist definiertdurch R ⊆ M ×M . Man schreibt für (x, y) ∈ R auch xRy.

Page 19: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

1.2. RELATIONEN 5

1.2.1 Wichtige Relationen

Sei R ⊆M ×M , dann heißt die Relation R auf der Menge M

i) reflexiv falls xRx für alle x gilt

ii) transitiv, falls aus xRy, yRz folgt: xRz

iii) symmetrisch, falls aus xRy folgt: yRx

iv) antisymmetrisch, falls aus xRy, yRx folgt: x = y

Hierbei ist x, y, z ∈M .

1.2.1.0.1 Äquivalenzrelation: Die Äquivalenzrelation ist eine Verallgemeinerung von„=“ auf M . Sie ist eine Relation, die reflexiv, transitiv und symmetrisch ist.

1.2.1.0.2 Ordnungsrelation: Eine Ordnungsrelation ist eine Relation, die reflexiv,transitiv und antisymmetrisch ist.

1.2.2 Beispiele

1) Sei M die Menge der Informatik-Studenten des 1. Semesters. x, y ∈M . xRy bedeutedabei x und y besuchen die gleiche Übungsgruppe.

2) SeiM die Menge der Geraden der Ebene. xRy ⇔ Gerade x ist parallel zur Geraden y(in Zeichen: x ‖ y)

3) Sei M = N, xRy ⇔ x ≤ y.

R = {(x, y) ∈ N× N | x ≤ y} = {(1, 2), (1, 3), . . . , (4, 4), (4, 5), . . .}

Bei den Relationen in 1) und 2) handelt sich um Äquivalenzrelationen. Die Relation in 3)ist eine Ordnungsrelation auf N. Sie ist damit nicht symmetrisch.

4) R3 = {(x, y) ∈ Z× Z | 3 teilt y − x} = {(x, y) ∈ Z2| 3|(y − x)}= {(1, 1), (1, 4), (1, 7), . . . , (4,−2), (4, 1), (4, 4), . . .}Behauptung: R3 ist Äquivalenzrelation auf Z

Beweis: Es müssen die drei Eigenschaften gezeigt werden.

• Reflexivität: xR3x, weil x− x = 0 und durch 3 teilbar ist.

Page 20: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE

• Transivität: Sei xR3y, yR3z, d. h. y − x = 3m und z − y = 3n mit m,n ∈ Z

z − x = z − x+ (y − y) = (z − y) + (y − x)

= 3n+ 3m = 3(n +m) (n+m ∈ Z)

also 3|z − x⇒ xR3z

• Symmetrie: Sei xR3y, d.h. y − x = 3m⇒ x− y = 3(−m) ⇒ yR3x

5) RI = {(A,B) ∈ ℘(M)× ℘(M)|A ⊆ B} (Inklusionsrelation)

Behauptung: RI ist eine Ordnungsrelation auf ℘(M)

Beweis:

• Reflexivität: A ⊆ A nach Definition von „⊆“ (⇒ ARI A))

• Transivität: A ⊆ B, B ⊆ C laut Definition von „⊆“ folgt A ⊆ C

• Antisymmetrie: A ⊆ B,B ⊆ A⇔ A = B (Folgerung aus Definition von „⊆“)

1.2.3 Satz über Äquivalenzklassen

Sei R eine Äquivalenzrelation auf der Menge M und

[x]R := {y ∈ M | yRx} die Äquivalenzklasse von x ∈ M bezüglich R(x heißt dann Repräsentant von [x]R).

Dann gilt für x1, x2 ∈M :

a) [x1]R = [x2]R ⇔ x1Rx2 ⇔ (x1, x2) ∈ R

Beweis:

• (⇒): Sei [x1]R = [x2]R. Weil x1Rx1 ist x1 ∈ [x1]R = [x2]R. Nach Definitonbedeutet das: x1Rx2.

• (⇐): Sei x1Rx2. Für ein beliebiges y ∈ [x1]R gilt yRx1 Wegen Transivität istyRx2, also y ∈ [x2]R. Das bedeutet: [x1]R ⊆ [x2]R.Wegen der Symmetrie von R ist x2Rx1 und somit [x2]R ⊆ [x1]R. Damit folgt[x1]R = [x2]R.

b) [x1]R ∩ [x2]R = ∅ ⇔ x1 nicht in Relation zu x2 ⇔ (x1, x2) /∈ R

Behauptung ist gleichbedeutend mit

[x1]R ∩ [x2]R 6= ∅ ⇔ x1Rx2

Dabei ist (⇐) schon durch Teil 1) bewiesen.

Sei [x1]R ∩ [x2]R 6= ∅, so gibt es y ∈ M mit y ∈ [x1]R ∩ [x2]R. Also yRx1 und yRx2.Wegen Symmetrie und Transivität von R folgt daraus x1Rx2.

Page 21: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

1.3. GRUPPEN 7

1.2.3.0.3 Folgerung: Zwei Äquivalenzklassen sind entweder gleich oder disjunkt (durch-schnittsfremd). Die verschiedenen Äquivalenzklassen bilden eine Zerlegung (Partition) dergegebenen Menge M , denn jede Klasse ist nichtleer und jedes Element von M liegt ingenau einer Klasse.

1.2.4 Beispiele

1) Einteilung der Studenten in Übungsgruppen

2) Parallelitätsrelation zwischen Geraden liefert die Äquivalenzklassen „Richtung“

4) R3 auf Z liefert die Zerlegung von Z in

[0]3 := {x ∈ Z | 3|x− 0} = {x ∈ Z | x = 3m,m ∈ Z} = [3]3

[1]3 := {x ∈ Z | 3|x− 1} = {x ∈ Z | x = 3m+ 1, m ∈ Z} = [4]3

[2]3 := {x ∈ Z | 3|x− 2} = {x ∈ Z | x = 3m+ 2, m ∈ Z} = [5]3

Diese Klassen heißen Restklassen von Z mod 3 (modulo 3). Z = [0]3 ∪ [1]3 ∪ [2]3

Analog gilt für Rm, m ∈ N \ {1}, definiert durch

xRmy ⇔ m|x− y

die Zerlegung von Z in die Restklassen mod m: [0]m, [1]m, . . . , [m− 1]m

1.3 Gruppen

Wir betrachten jetzt Mengen M zusammen mit darauf erklärten Verknüpfungen (Opera-tionen):

∗ : M ×M → M

1.3.1 Definition (Gruppenaxiome)

Sei G 6= ∅ und ∗: G×G→ G eine Verknüfung auf G, dann heißt (G, ∗) eine Gruppe, falls

G1 (a ∗ b) ∗ c = a ∗ (b ∗ c) für alle a, b, c ∈ G gilt (Assoziativität),

G2 es e ∈ G gibt mit a∗e = e∗a = a für alle a ∈ G (Existenz eines neutralen Elements),

G3 es zu jedem a ∈ G ein b ∈ G gibt mit a ∗ b = b ∗ a = e (Existenz eines inversenElements).

(G, ∗) heißt kommutative bzw. abelsche Gruppe, wenn zusätzlich gilt

G4 a ∗ b = b ∗ a für alle a, b ∈ G (Kommutativität).

Page 22: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

8 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE

1.3.2 Beispiele

1) (Z,+) bildet eine additive abelsche Gruppe mit dem neutralen Element e = 0 unddem inversen Element −a zu a (a+ (−a) = 0). Ebenso (R,+), (Q,+).

2) (R \ {0}, ·) bildet eine multiplikative abelsche Gruppe mit dem neutralen Elemente = 1 und dem inversen Element 1

azu a. Ebenso (Q \ {0}, ·).

3) Sei G die Menge der Drehungen der Ebene, welche ein gegebenes Quadrat Q in sichüberführen. (Es sind nur Drehungen Dα um Winkel α um den Mittelpunkt O desQuadrats interessant.)

α

A B

CD

O

G ={D0, D±π

2, D±π, D± 3π

2, D±π, D± 5π

2, . . .

}

∗ ist hier die Hintereinanderausführung der Drehungen.

(G, ∗) ist eine abelsche Gruppe mit dem neutralen Element e = D0 und dem inversenElement D−α zu Dα.

Wegen Dα = Dα+2kπ mit k ∈ Z ist G gegeben durch

G ={D0, Dπ

2, Dπ, D 3π

2

}

1.3.3 Eindeutigkeit von neutralen und inversen Element in (G, ∗)1) Es gibt nur ein Element aus G, das G2 erfüllt.

Denn gelte für e′ ∈ G : a ∗ e′ = e′ ∗ a = a für alle a ∈ G. Mit a = e folgt danne ∗ e′ = e′ ∗ e = e. Andererseits ergibt sich aus G2 (mit a = e′): e′ ∗ e = e ∗ e′ = e′.

⇒ e = e′

2) Es gibt nur ein inverses Element zu a ∈ G.Sei a ∗ b = b ∗ a = e und a ∗ b′ = b′ ∗ a = e.

b′ =G2b′ ∗ e = b′ ∗ (a ∗ b) =

G1(b′ ∗ a) ∗ b = e ∗ b =

G2b

Page 23: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

1.4. KÖRPER 9

1.3.4 Abbildung von Gruppen

Seien (G, ∗) und (H,#) Gruppen und f : G→ H . Dann heißt f Homomorphismus, falls

f(a ∗ b) = f(a)#f(b)

Erläuterung: Homomorphismus überträgt Verknüpfung der Urbilder auf die Bilder. Ist fzusätzlich bijektiv, so heißt f Isomorphismus, und die Gruppen G und H heißen isomorph.

1.3.4.1 Beispiel

Wir betrachten die Menge Zm = {[0]m, [1]m, . . . , [m−1]m} der Restklassen modulo m ∈ N.Auf Zm kann man die Addition repräsentantenweise erklären.

[a]m + [b]m := [a + b]m a, b ∈ Z

Alle Rechengesetze von (Z,+) übertragen sich auf (Zm,+). Somit ist (Zm,+) eine additiveabelsche Gruppe. Z.B: ist (Z4,+) ist durch folgende Additionstafel gegeben:

+ [0] [1] [2] [3][0] [0] [1] [2] [3][1] [1] [2] [3] [0][2] [2] [3] [0] [1][3] [3] [0] [1] [2]

([a] := [a]4)

Folgerung: (Z4,+) ist isomorph zur Gruppe({

D0, Dπ2, Dπ, D 3π

2

}

︸ ︷︷ ︸G

, ◦)

aus Beispiel 3.

Konstruiere eine isomorphe Abbildung f : Z4 → G

f([a]4) = Daπ2

für a = 0, 1, 2, 3

f([a]4 + [b]4) = f([a+ b]4) = D(a+b)π2= Daπ

2◦Dbπ

2

1.4 Körper

Ein Körper besteht aus einer Menge K, auf der zwei Verknüpfungen + und · definiert sind,so dass

K1 (K,+) eine abelsche Gruppe mit neutralem Element 0 ist

K2 (K \ {0}, ·) eine abelsche Gruppe ist

K3 (a+ b) · c = a · c+ b · c für alle a, b, c ∈ K gilt. (Distributivität)

1.4.0.1.1 Bemerkung: Ausführliche Angabe der Körperaxiome in Analysisvorlesung,Abschnitt 2.2.

Page 24: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

10 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE

1.4.0.1.2 Beispiele: R,Q sind Körper, Z ist dagegen kein Körper.

1.4.0.2 Bezeichung

• Bezüglich der Addition ist neutrales Element 0, und (−a) das inverse Element zu a.

• Bezüglich der Multiplikation ist neutrales Element 1, und a−1 das inverse Elementzu a.

Page 25: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Kapitel 2

Algebraische Strukturen in

Zahlbereichen

2.1 Permutationen

Die Menge N der natürlichen Zahlen bildet weder bezüglich + noch bezüglich · eine Gruppe.N ist nur abgeschlossen bezüglich dieser Operationen, d.h. a+ b, a · b ∈ N für alle a, b ∈ N.Jedoch betrachtet man auf der endlichen Menge Nn = {1, 2, 3, . . . , n} ⊂ N eine wichtigeKlasse von Abbildungen, und zwar die bijektiven Abbildungen π : Nn → Nn. π heißtPermutation von 1, 2, . . . , n und die Menge aller solcher Abbildungen bildet eine Gruppe,die Gruppe der Permutationen oder auch symmetrische Gruppe Sn genannt.Schreibweise:

π :

(1 2 3 4 5 6 73 1 4 7 5 6 2

)

D.h. π(1) = 3, π(4) = 7, π(6) = 6

2.1.0.0.1 Behauptung: Es gibt genau n! Permutationen von 1, . . . , n; d.h.: |Sn| = n!,

wobei n! = n · (n− 1) · . . . · 2 · 1 = 1 · 2 · . . . · n =n∏

k=1

k (sprich: n Fakultät)

Beweis: Eine Permutation π ist eindeutig festgelegt durch die Angabe π(1), . . . , π(n).

• Für die Wahl von π(1) gibt es n Möglichkeiten.

• Für die Wahl von π(2) gibt es (n− 1) Möglichkeiten, falls π(1) festgelegt ist.

• Für die Wahl von π(3) gibt es (n− 2) Möglichkeiten, falls π(1), π(2) festgelegt sind.

• Für die Wahl von π(n− 1) gibt es 2 Möglichkeiten, falls π(1), . . . , π(n− 2) festgelegtsind.

• Für die Wahl von π(n) gibt es 1 Möglichkeit, falls π(1), . . . , π(n− 1) festgelegt sind.

Insgesamt ergeben sich n · (n− 1) · (n− 2) · . . . · 2 · 1 = n! Möglichkeiten.

11

Page 26: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

12 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN

2.1.1 Definitionen

i) Ein Paar (i, j) ∈ Nn × Nn heißt Fehlstand von π, falls i < j und π(i) > π(j). (π(i)und π(j) stehen in Inversion zueinander.)

ii) • Ist die Anzahl der Fehlstände gerade, so heißt π gerade und sig(π) = +1.

• Ist die Anzahl der Fehlstände ungerade, so heißt π ungerade und sig(π) = −1.

sig(π) heißt Signum oder Vorzeichen von π.

iii) Eine Permutation, in der nur die Position von 2 Elementen vertauscht ist, d.h. esgibt i, j ∈ Nn, i < j mit τ(i) = j, τ(j) = i und τ(k) = k für k 6= i, k 6= j, heißtTransposition.

τ =

(1 . . . i− 1 i i+ 1 . . . j − 1 j . . . n1 . . . i− 1 j i+ 1 . . . j − 1 i . . . n

)

2.1.1.1 Eigenschaften von τ

1) τ−1 = τ , m.a.W.I: τ · τ = τ 2 = idNn

2) sig(τ) = −1II, denn

• τ(i) = j steht in Inversion zu i+ 1=τ(i+1)

, . . . , j − 1=τ(j−1)

• τ(j) = i steht in Inversion zu i+ 1, . . . , j − 1

Außerdem steht τ(i) und τ(j) in Inversion. Die Anzahl der Inversionen von τ istgleich 2(j − 1− i) + 1, also ungerade.

3) sig(τ ·π) = −sig(π), denn die Anzahl der Inversionen π ändert sich um eine ungeradeAnzahl nach Anwendung von τ .

2.2 Ring der ganzen Zahlen

(Z,+) bildet abelsche Gruppe, aber Z bildet keinen Körper, sondern nur Ring. Man kannaber aus Z eine wichtige Klasse von Körpern gewinnen und zwar durch Anwendung desEuklidischen Algorithmus (Euklid, 365 – 300 v. Chr.).

Im.a.W. – mit anderen WortenIIDie Transposition ist damit ungerade.

Page 27: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

2.2. RING DER GANZEN ZAHLEN 13

2.2.1 Definition eines Rings

Ein Ring besteht aus einer Menge R, auf der zwei Verknüpfungen + und · definiert sind,so dass

R1 (R,+) eine abelsche Gruppe mit neutralen Element 0 ist,

R2 (a · b) · c = a · (b · c) für alle a, b, c ∈ R gilt (Assoziativität der Multiplikation).

R3 (a+ b) · c = ac+ b · c, a · (b+ c) = a · b+ a · c für alle a, b, c ∈ R gilt (Distributivität).

Sei Zm = {[0]m, [1]m, . . . , [m − 1]m} die Menge der Restklassen modulo m ∈ N \ {1}.Dann gilt folgender Satz (Division mit Rest):

2.2.1.0.1 Satz: Sei a ∈ Z, b ∈ Z \ {0}. Dann gibt es eindeutig bestimmte Zahlenq, r ∈ Z:

a = qb+ r mit 0 ≤ r < |b| (2.2.1.1)

Beweis: beispielsweise über vollständige Induktion nach |b|.

2.2.2 Folgerungen aus (2.2.1.1)

1) [a]b = [r]b, Schreibweise: a ≡ r mod b („a ist kongruent r modulo b“)

Beispiele:

• 13 ≡ 1 mod 4, weil 13 = 3 · 4 + 1

• 13 ≡ 3 mod 5, weil 13 = 2 · 5 + 3

2) Sei m ∈ N, so gilt m | a und m | b ⇔ m | b und m | r.

2.2.3 Definition des größten gemeinsamen Teilers

Ein g ∈ N heißt größter gemeinsamer Teiler von a, b ∈ Z

g = ggT(a, b),

falls

1) g | a und g | b

2) Für jedes n ∈ N mit n | a und n | b gilt n | g

2.2.3.0.1 Beispiel: gemeinsamer Teiler von 24 und 42: 1, 2, 3, 6 ⇒ ggT(24, 42) = 6

Page 28: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

14 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN

2.2.4 Euklidischer Algorithmus in der einfachen Form

Gegeben: Zwei ganze von Null verschiedene Zahlen a und bGesucht: Größter gemeinsamer Teiler d von a und b.

1) Setzea0 = a und a1 = b

2) Führe nach dem folgenden Schema solagen Divisionen mit Rest aus, bis ein Rest Nullentsteht.

a0 = q0a1 + a2 mit 0 < a2 < |a1|a1 = q1a2 + a3 mit 0 < a3 < |a2|...

...

am−2 = qm−2am−1 + am mit 0 < am < |am−1|am−1 = qm−1am

3) Dann ist d = am der gesuchte größte gemeinsame Teiler.

2.2.4.0.1 Beispiel: Gesucht: ggT(156, 65)

i 1 2 3aj−1 156 65 26aj 65 26 13

qj−1 2 2 2

⇒ ggT(156, 65) = 13

2.2.4.0.2 Behauptung: Der Euklidische Algorithmus liefert d := ggT(a, b), und zward = am.Beweis:

1) Der Algorithmus bricht nach endlich vielen Schritten ab, denn |a1| > a2 > a3 > . . . >am > 0 und ak ∈ N

2) am|am−1, am|am−2, . . . , am|a1 und am|a0, d. h. am ist Teiler von a und b.

3) Sei n ∈ N und n|a und n|b, so teilt n die Zahlen a0, a1, a2, . . . , am.

2.2.4.0.3 Folgerung: d = ggT(a, b) hat folgende Darstellung

d = am = am−2 − qm−2am−1

= −qm−2am−3 + (1 + qm−2qm−3)am−2

= . . .

= ka0 + la1 = ka+ lb mit k, l ∈ Z

Page 29: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

2.3. KÖRPER DER KOMPLEXEN ZAHLEN 15

2.2.5 Anwendung (Konstruktion von endlichen Körpern)

Wir definieren in Zm analog zur repräsententenweisen Addition eine Multiplikation durch

[a]m · [b]m = [a · b]m.

Wir untersuchen, ob Zm einen Körper bildet. Zunächst gibt es in Zm ein neutrales Element[1]m bezüglich der Multiplikation.

Frage: Gibt es [a]−1m für jedes a ∈ {1, . . . , m− 1}?

2.2.5.0.1 Beispiel: Multiplikationstafel von Z3

· [0] [1] [2][0] [0] · ·[1] · [1] [2][2] · [2] [1]

d.h. ([2]3)−1 = [2]3

2.2.5.0.2 Satz über die Existenz endlicher Körper: Ist p ∈ N eine Primzahl (d.h.p ist nur durch 1 und p teilbar), so ist Zp ein Körper mit genau p Elementen.

Beweis: Sei a ∈ {1, . . . , p − 1}, so ist ggT(a, p) = 1, weil p Primzahl. Nach Folgerung2.2.4.0.3 zum Euklidischen Algorithmus gilt: 1 = ka+ lp mit k, l ∈ Z, d.h.

[1]p = [ka]p + [lp]p = [ka]p + [0]p = [ka]p = [k]p[a]p.

Also [k]p = ([a]p)−1.

2.3 Körper der komplexen Zahlen

Versucht man die Gleichung x2 + 1 = 0 zu lösen, so ist das im Körper R nicht möglich.Deshalb führte schon im 16. Jahrhundert der italienische Mathematiker Bombellli dasSymbol

√−1 ein, für das L. Euler (1707 – 1783) i schrieb. Damit lässt es sich wie gewohnt

rechnen, wenn man für (a, b) ∈ R × R Addition und Multiplikation so definiert, dass einKörper C entsteht.

2.3.1 Einführung der komplexen Zahlen

Erkläre für geordnete Paare (a, b) reeller Zahlen a, b eine Addition und Multiplikation:

(a1, b1) + (a2, b2) = (a1 + a2, b1 + b2)

(a1, b1) · (a2, b2) = (a1a2 − b1b2, a1b2 + a2b1)

Spezielle Paare:

Page 30: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

16 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN

1) (a, 0) ∈ R× {0} wird mit der reellen Zahl a identifiziert (⇒ R ⊂ C).

2) i = (0, 1) heißt imaginäre Einheit und es gilt

i2 = i · i = (0, 1) · (0, 1) = (0 · 0− 1 · 1, 0 · 1 + 1 · 0) = (−1, 0) = −1 .

Daraus ergibt sich die algebraische Normalform einer komplexen Zahl z:

z = (a, b) = (a, 0) + (0, b) = a+ (b, 0) · (0, 1) = a + bi, a, b ∈ R

Dann heißt a = Rez der Realteil, b = Im z der Imaginärteil und |z| =√a2 + b2 der absolute

Betrag von z.

2.3.1.0.1 Geometrische Darstellung: von z ∈ C in der Gaußschen Zahlenebene:(C.F. Gauß: 1777 – 1855)

a

bz = (a, b) = a + bi

|z|

Re z

Im z

2.3.2 Rechenregeln

Also: Rechnen mit komplexen Zahlen bedeutet Rechnen mit Ausdrücken der Form a +bi, (a, b ∈ R) wobei die üblichen Rechenregeln für reelle Zahlen benutzt und i2 = −1beachtet werden.

2.3.2.0.1 Beispiel:

(1 + 2i)(2 + 3i) = 2 + 4i+ 3i+ 6i2 = 2− 6(−1) + 3i+ 6i = −4 + 7i

Da sich die Rechenregeln aus R unter Beachtung von i2 = −1 auf C übertragen, geltenfür die Addition und Multiplikation die Kommutativ-, Assoziativ- und Distributivgesetze.

Bezüglich der Addition ist das

• neutrale Element in C das Element 0 = (0, 0).

• inverse Element zu z das Element −z = (−a,−b).

Page 31: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

2.3. KÖRPER DER KOMPLEXEN ZAHLEN 17

Bezüglich der Multiplikation ist das

• neutrale Element in C das Element 1 = (1, 0).

• inverse Element zu z das Element?

2.3.2.1 Bestimmung von z−1

Sei z ∈ C \ {0}. Dazu bilden wir die konjugiert komplexe Zahl z zu z = a + bi, und zwardurch

z := a− bi, (Rez = Rez, Im z = −Im z)

a

b

−b

z = a+ bi

z = a− bi

|z|

|z|

Re z

Im z

Es gilt weiterhin:

zz = (a+ bi)(a− bi) = a2 − (bi)2 = a2 − b2i2 = a2 − b2(−1) = a2 + b2 = |z|2

Es handelt sich um eine Gleichung in R.

2.3.2.1.1 Folgerung:

1

|z|2(zz) = 1, (falls |z| 6= 0 ⇔ z 6= 0)

⇒ z

(1

|z|2z

)= 1 ⇒ z−1 =

1

|z|2z für z 6= 0

Andere Schreibweisen für z−1:

Page 32: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

18 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN

1)

z−1 =1

a2 + b2(a− ib) =

a

a2 + b2− b

a2 + b2i =

(a

a2 + b2,− b

a2 + b2

)

2) “Reellmachen” des Nenners:

z−1 =1

z=

1 · zz · z =

z

|z|2(Erweitern des Bruches

1

zmit z)

2.3.2.1.2 Beispiel:

(1 + 0.5i)−1 =1

1 + 0.5i=

1− 0.5i

(1 + 0.5i)(1− 0.5i)=

1− 0.5i

12 − 0.25i2

=1− 0.5i

1.25=

4

5− 2

5i = 0.8− 0.4i

2.3.2.2 Division

Bei der Quotientenbildungz1z2

rechnen wir: z1 · 1z2

= z1 ·z2z2z2

=z1z2

|z2|2.

2.3.2.2.1 Beispiel:

4 + 7i

1− i=

(4 + 7i)(1 + i)

(1− i)(1 + i)=

4 + 7i+ 4i+ 7i2

12 − i2=

−3 + 11i

2= −3

2− 11

2i

Page 33: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

2.3. KÖRPER DER KOMPLEXEN ZAHLEN 19

2.3.3 Geometrische Deutung der Rechenoperationen in C

1) Addition

❥✶

a1

b1

b2

a2

z1

z2

z1 + z2

Re z

Im z

Die Addition ist die übliche Vektoraddition der Ortsvektoren−−−−−−−−→(0, 0)(a1, b1) und

−−−−−−−−→(0, 0)(a2, b2).

Oder genauer: Konstruiere das Parallelogramm mit den Eckpunkten 0, z1, z2. Sein 4.Eckpunkt ist z1 + z2.

2) Subtraktion

Analog zur Additon: z1 − z2 = z1 + (−z2)

3) Multiplikation

✻z

φ

|z|

Re z

Im z

Page 34: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

20 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN

2.3.3.1 Trignometrische Darstellung komplexer Zahlen

Schreibt man mit einem φ ∈ R

Re z = |z| cosφ, Im z = |z| sinφ

so ergibt sich die trignometrische Normalform

z = |z|(cosφ+ i sinφ)

φ = arg z heißt ein Argument von z und ist bis auf ganzzahlige Vielfache von 2πbestimmt.

cosφ =a

|z| =Re z|z| , sinφ =

b

|z| =Im z

|z|⇒ z = a + ib = |z| cosφ+ i|z| sinφ = |z|(cosφ+ i sinφ)

2.3.3.1.1 Beispiel: z = 3 + 3i

|z| =√32 + 32 = 3

√2, φ = arg z, tanφ =

sinφ

cosφ=

Im z

Re z=

3

3= 1

⇒ φ =π

4+ 2kπ oder φ =

4+ 2kπ, k ∈ Z

Da Re z, Im z > 0 entfällt 5π4+ 2kπ.

3

3(3 + 3i)

φ = π4

|z|

Re z

Im z

Page 35: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

2.3. KÖRPER DER KOMPLEXEN ZAHLEN 21

3 + 3i = 3√2(cos

π

4+ i sin

π

4

)

Weiter zur Multiplikation (Verwendung von Additionstheoremen für die Winkelfunk-tionenIII):

z1z2 = |z1| (cosφ1 + i sinφ1) |z2| (cosφ2 + i sinφ2)

= |z1||z2| [(cosφ1 cosφ2 − sin φ1 sinφ2) + i (sinφ1 cosφ2 + sinφ2 cosφ1)]

= |z1||z2| [cos(φ1 + φ2) + i sin(φ1 + φ2)]

Re z

Im z

φ1

φ1 + φ2

φ2

|z1||z2|

|z1||z2|

z1z2

z1z2

4) Division (z2 6= 0)

z1z2

=z1z2z2z2

=1

|z2|2|z1| (cos φ1 + i sinφ1) |z2| (cosφ2 − i sinφ2)

=|z1||z2|

(cos(φ1 − φ2) + i sin(φ1 − φ2))

Multiplikation (Division) komplexer Zahlen bedeutet dann Multiplikation (Division) derBeträge und Addition (Subtraktion) der Argumente. Insbesondere gilt die folgende Formel

IIIsiehe Vorlesung Analysis, Tafelwerk o.ä.

Page 36: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

22 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN

von Moivre für Potenzen einer komplexen Zahl z:

z2 = (|z|(cosφ+ i sinφ))2 = |z|2(cos 2φ+ i sin 2φ)

...

zn = |z|n(cos(nφ) + i sin(nφ)) , n ∈ N

2.3.3.1.2 Beispiel:

(√3− i)6 = 26

(cos(−π6

)+ i sin

(−π6

))6= 64

=−1︷ ︸︸ ︷cos(−π) +i

=0︷ ︸︸ ︷sin(−π)

= −64

2.3.4 Konvergenzbegriff in C

Mit dem Betrag | · | einer komplexen Zahl ist ein Abstandsbegriff zwischen z1, z2 ∈ C

festgelegt. Damit ergibt sich die ε-Umgebung Uε(a) = {z ∈ C ||z − a| < ε} von a ∈ C alsInnneres der Kreisfläche mit Mittelpunkt a und Radius ε > 0.

2.3.4.1 Definitionen

i) Eine AbbildungN → C

∈ ∈

n 7→ an

heißt komplexe Zahlenfolge.

ii) Eine Zahlenfolge (an) ⊂ C konvergiert gegen a ∈ C (limn→∞ an = a) genau dann,wenn limn→∞ |an − a| = 0 gilt, d.h. zu jedem ε > 0 muss ein Index n0 = n0(ε)existieren, so dass

|an − a| < ε für alle n ≥ n0

erfüllt ist.Im z

Re z

a

an

ε

Uε(a) = {z ∈ C ||z − a| < ε}

Page 37: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

2.3. KÖRPER DER KOMPLEXEN ZAHLEN 23

2.3.4.1.1 Folgerung: Da beim Übergang zu komplexen Zahlenfolgen |·| nur als Betragkomplexer Zahlen zu lesen ist, übertragen sich alle Rechenregeln und Konvergenzkriterienwörtlich mit Ausnahme solcher, in denen Ordnungsrelationen zwischen den Folgegliederneine Rolle spielen (z.B. keine Monotonie!).

2.3.4.2 Beispiele

a) limn→∞

4n+ 2in2

n2 − 3i= lim

n→∞

n2(4n+ 2i

)

n2(1− 3i

n2

) =limn→∞

4n+ 2i

1− limn→∞

3in2

=0 + 2i

1− 0= 2i,

b) limn→∞ zn = 0 für z ∈ C, |z| < 1, denn

limn→∞

∈R︷︸︸︷|z| n = 0 und |z|n = |zn| = |zn − 0|.

2.3.4.2.1 Bemerkung: Dabei gilt folgende Beziehung:

limn→∞

an = a in C ⇔ limn→∞

Re an = Re a und limn→∞

Im an = Im a in R

da |an − a|2 = (Re (an − a))2 + (Im (an − a))2.

2.3.5 Komplexe Reihen

Mit dem obigen Grenzwertbegriff kann man auch unendliche Reihen mit komplexen Koef-fizienten betrachten, inbesondere Potenzreihen

P (z) :=

∞∑

n=0

an(z − z0)n, für z0, z ∈ C

mit an ∈ C. Hat P (z) einen Konvergenzradius ρ > 0, so konvergiert diese Potenzreihe füralle z ∈ Uρ(z0) (Konvergenzkreis).

2.3.5.1 Beispiele

a) Geometrische Reihe: Für z ∈ C, |z| < 1 gilt

∞∑

k=0

zk = limn→∞

n∑

k=0

zk = limn→∞

(1− zn+1

1− z

)=

1− 0

1− z=

1

1− z,

sonst Divergenz. Diese Potenzreihe hat Konvergenzradius ρ = 1.

b) Die Potenzreihen für exp, sin, cos, sinh, cosh IV haben Konvergenzradius ρ = ∞.Folglich können diese Funktionen für alle komplexen Argumente erklärt werden.

IVsiehe Vorlesung Analysis

Page 38: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

24 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN

Page 39: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Kapitel 3

Vektorräume und lineare Abbildungen

3.1 Vektorräume

3.1.1 Definition des Vektorraums

Ein Vektorraum besteht aus einer Menge V von Elementen, die wir Vektoren nennen, unddie folgenden Gesetzen genügt:

3.1.1.0.1 Verknüpfung von Vektoren: Es gibt eine Verknüpfung + auf V , die jezwei Vektoren v und w einen Vektor v + w ∈ V zuordnet, so dass für alle u, v, w ∈ V diefolgenden Eigenschaften erfüllt sind:

• Assoziativtät

u+ (v + w) = (u+ v) + w

• Existenz des Nullvektors

Es gibt einen Vektor, den wir mit 0 bezeichnen, mit folgender Eigenschaft

v + 0 = v

• Existenz negativer Vektoren

Zu jedem Vektor v gibt es einen Vektor, den wir −v nennen, mit

v + (−v) = 0

• Kommutativität

u+ v = v + u

25

Page 40: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

26 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

3.1.1.0.2 Verknüpfung von Skalaren und Vektoren: Für jeden Vektor v ∈ V undjedes Skalar λ ∈ R ist ein Vektor λ · v ∈ V definiert (das Objekt λ · v (für das wir auchkurz λv schreiben) soll also ein Element von V sein). Diese Bildung des skalaren Vielfachenist so, dass für alle λ, µ ∈ R und für alle Vektoren v, w ∈ V die folgenden Eigenschaftengelten:

• Assoziativität(λ · µ) · v = λ · (µ · v)

• Vielfachbildung mit 11 · v = v

• Distributivität(λ+ µ) · v = λ · v + µ · v

λ · (v + w) = λ · v + λ · w

3.1.1.1 Bemerkungen

1) Kurz kann man einen Vektorraum V dadurch charakterisieren, dass (V,+) eine ad-ditive abelsche Gruppe bildet und dass auf V zusätzlich eine Vielfachbildung mitSkalaren λ ∈ R erklärt ist, welche den obigen Gesetzen genügt.

2) Genauer ist V ein reeller Vektorraum oder auch ein Vektorraum über dem Körper R.

Allgemein: Vektorraum über einem Körper K (Hier wird R durch K ersetzt.)

3) Aus den Eigenschaften von Gruppen (siehe Abschnitt 1.3.3) folgt die Eindeutigkeitdes Nullelements 0 ∈ V (v + 0 = 0 + v = v für alle v ∈ V ), sowie die Eindeutigkeitdes negativen Vektors −v zu v (v + (−v) = (−v) + v = 0).

Schreibweise: v + (−w) =: v − w

3.1.1.2 Folgerungen

0 · v = 0 für alle v ∈ V

(−1) · v = −v für alle v ∈ V

3.1.1.3 Beispiele

1) In der Ebene zeichnen wir einen Ursprung O aus und identifizieren jeden PunktP mit der Verschiebung (Translation), welche O auf P abbildet. Vektoren sind dieTranslationen.

Page 41: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.1. VEKTORRÄUME 27

0

PP

Addition von Vektoren ist die Hintereinanderausführung von Translationen.

v1

v2

v1 + v2

0

Das λ-fache ist die Verschiebung um das λ-fache (Streckung).

0v1

λv1

2) Prototyp eines Vektorraums

Rn = {(x1, x2, . . . , xn) | xi ∈ R}

mit(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

undλ(x1, . . . , xn) = (λx1, . . . , λxn), λ ∈ R

3) Menge F aller reellen Funktionen, d.h. aller Abbildungen f : R → R (Vektoren sindFunktionen)

(f + g)(x) := f(x) + g(x) für x ∈ R

(λf)(x) := λ · f(x) für λ, x ∈ R

Page 42: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

28 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

3.1.2 Untervektorräume

Frage: Sind Teilmengen U ⊆ V wieder Vektorräume? Im Allgemeinen nicht, denn

+ : U × U → V ⊇ U

Zum Beispiel im R2:

v1

v2

0U

v1 + v2 /∈ U

Eine Teilmenge U ⊆ V heißt Untervektorraum, kurz Unterraum des Vektorraums V ,falls U mit den in V gegebenen Verknüpfungen selbst wieder ein Vektorraum ist.

3.1.2.0.1 Folgerung: {0} und V sind Unterräume von V .

Allgemein gilt das

3.1.2.0.2 Unterraumkriterium: U ⊆ V ist Unterraum von V genau dann, wenn

1) U 6= ∅

2) für u1, u2 ∈ U ist u1 + u2 ∈ U

3) für u ∈ U, λ ∈ R ist λu ∈ U

Beweis:

(⇒) Notwendigkeit der 3 Bedingungen klar nach Definition des Unterraums.

(⇐) Hinlänglichkeit der 3 Bedingungen: Assoziativ-, Kommutativ- und Distributivgesetzeund 1 · v = v gelten in V , also auch in U ⊆ V .

Nach den Bedingungen 2), 3) führen + und · nicht aus U hinaus. Weiterhin ist0 = 0 · u ∈ U nach Bedingung 3) und −u = (−1) · u ∈ U nach Bedingung 3) füru ∈ U .

Page 43: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.1. VEKTORRÄUME 29

3.1.2.0.3 Bemerkung: Die Bedingung 1) kann ersetzt werden durch 0 ∈ U .

3.1.2.1 Beispiele

1) R3 ⊇ E = {(x1, x2, 0) | x1, x2 ∈ R} ist Unterraum von R3

2) R2: Sei L ⊆ R2 die Lösungsmenge der Gleichung 4x + 3y = 0, d.h. L = {(x, y) |4x+ 3y = 0}. L ist Unterraum von R2.

3) F ⊇ F′ = {f : R → R | f(−1) = 0, f(16π) = 0} ist Unterraum von F .

Kein Unterraum wäre beispielsweise F ⊇ F′ = {f : R → R | f(−1) = 8, f(16π) = 0}.

4) Sind U1, U2 Unterräume von V , so ist U1 ∩ U2 wieder Unterraum von V , denn 0 ∈U1, 0 ∈ U2 ⇒ 0 ∈ U1 ∩ U2 ⇒, so dass Bedingung 1) erfüllt ist. Ebenso sind dieBedingungen 2) und 3) des Unterraumkriteriums erfüllt.

5) Seien v1, . . . , vn ∈ V . Dann ist

lin(v1, . . . , vm) = {v ∈ V | v =

∑mi=1 λivi︷ ︸︸ ︷

λ1v1 + λ2v2 + . . .+ λmvm, λi ∈ R}

die Menge aller Linearkombinationen von v1, . . . , vm und heißt lineare Hülle vonv1, . . . , vm.

Behauptung:Lm = lin(v1, . . . , vm) ist Unterraum von V ,

denn 0 = 0 · v1 + . . .+ 0 · vm ∈ Lm Damit ist Bedingung 1) des Unterraumkriteriumserfüllt.

(λ1v1 + . . .+ λmvm) + (µ1v1 + . . .+ µmvm) = (λ1 + µ1)v1 + . . .+ (λm + µm)vm ∈ Lm

Damit ist Bedingung 2) des Unterraumkriteriums erfüllt.

λ(λ1v1 + . . .+ λmvm) = (λλ1)v1 + . . .+ (λλm)vm ∈ Lm

Damit ist Bedingung 3) des Unterraumkriteriums erfüllt.

3.1.2.1.1 Beispiele:

1)

lin{(1, 0, 0), (1, 2, 1)} = {x ∈ R3 | x = (x1, x2, x3) = λ(1, 0, 0) + µ(1, 2, 1), λ, µ ∈ R}= {(x+ µ, 2µ, µ) | λ, µ ∈ R}

Page 44: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

30 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

2)

lin{(1, 0), (0, 1)} = {x ∈ R2 | x = (x1, x2) = λ(1, 0) + µ(0, 1)}= {(λ, µ) | λ, µ ∈ R} = R2

3) Lösungsmenge L = {(x, y) | 4x+ 3y = 0} ⊆ R2

L =

{(x,−4

3x

)∣∣∣∣ x ∈ R

}=

{x

(1,−4

3

)∣∣∣∣ x ∈ R

}= lin

(1,−4

3

)

(1,−4

3

)

L

3.1.3 Operationen mit Unterräumen

3.1.3.0.1 Durchschnitt: Unmittelbar aus dem Unterraumkriterium 3.1.2.0.2 ergibtsich: Sei V ein Vektorraum und U1, U2 Unterräume zu V . Dann ist U1 ∩U2 ein Unterraum.

U2

U1

0U1, U2 ⊂ R2

3.1.3.0.2 Summe: Im Allgemeinen ist U1 ∪U2 kein Unterraum. Als „Ersatz“ dient dieSumme

U1 + U2 = {v ∈ V | v = u1 + u2 mit ui ∈ U}Nach Unterraumkriterium ist U1 + U2 wieder ein Unterraum, denn

1) 0 = 0 + 0, 0 ∈ U1, 0 ∈ U2

Page 45: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.1. VEKTORRÄUME 31

2) (u1 + u2) + (u1 + u2) = (u1 + u1)︸ ︷︷ ︸∈U1

+ (u2 + u2)︸ ︷︷ ︸∈U2

falls u1, u1 ∈ U1, u2, u2 ∈ U2

3) λ(u1 + u2) = λu1︸︷︷︸∈U1

+ λu2︸︷︷︸∈U2

3.1.3.0.3 Beispiele:

• {0}+ U = U

• U + V = V

• U + U = U , denn u1 + u2 ∈ U für u1, u2 ∈ U also U + U ⊆ U . Andererseits istu = u+ 0 ∈ U + U ⇒ U ⊆ U + U .

3.1.3.0.4 Behauptung: U1 + U2 ist die Menge L aller Linearkombinationen, die manaus Elementen von U1 ∪ U2 bilden kann.

Beweis:

1) u1 + u2 ist Linearkombination zweier Elemente u1 ∈ U1 ⊆ U1 ∪ U2 und u2 ∈ U2 ⊆U1 ∪ U2 ⇒ U1 + U2 ⊆ L.

2) Sei v ∈ L. So gibt es v1, . . . , vm ∈ U1 ∪ U2, so dass

v = λ1v1 + λ2v2 + . . .+ λmvm︸ ︷︷ ︸∑mi=1 λivi

mit λi ∈ R.

O.B.d.A.I sei v1, . . . , vr ∈ U1, vr+1, . . . , vm ∈ U2.

⇒ v =

r∑

i=1

λivi

︸ ︷︷ ︸∈U1

II

+

m∑

j=r+1

λjvj

︸ ︷︷ ︸∈U2

II

also v ∈ U1 + U2.

3.1.3.0.5 Folgerung:

lin(v1, . . . , vm) = lin(v1, . . . , vr) + lin(vr+1, . . . , vm) für 1 ≤ r ≤ m− 1

IO.B.d.A. – Ohne Beschränkung der AllgemeinheitIIwegen der Unterraum-Eigenschaft von Ui

Page 46: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

32 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

3.2 Basis und Dimension

3.2.1 Definition der linearen Unabhängigkeit

Sei v1, . . . , vm ∈ V und V ein Vektorraum. Man nennt v1, . . . , vm linear unabhängig, fallszwischen ihnen nur die triviale Nullrelation gibt, d.h. aus λ1v1 + λ2v2 + . . . + λmvm = 0folgt λi = 0 für i = 1, . . . , m.

Andernfalls heißen v1, . . . , vm linear abhängig. In diesem Fall gibt es ein λj 6= 0, j ∈{1, . . . , m}, so dass 0 = λ1v1 + . . .+ λmvm.

3.2.1.1 Beispiele

1) v1 = (1, 2), v2 = (1, 1), v3 = (7, 7)

1

2

3

4

5

6

7

1 2 3 4 5 6 7

v1

v3

v2

v1, v2, v3 sind linear abhängig in R2, denn

0 · v1 + 7 · v2 + (−1) · v3

v1, v2 sind jedoch linear unabhängig, denn sei

λ1v1 + λ2v2 = (λ1 + λ2, 2λ1 + λ2) = (0, 0)

so folgtλ1 + λ2 = 02λ1 + λ2 = 0

}⇒ λ1 = 0, λ2 = 0

Page 47: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.2. BASIS UND DIMENSION 33

2) f1(x) = 2, f2(x) = x, f3(x) = 2.5x, f4(x) = x4 für x ∈ R

Dann sind f1, f2, f3, f4 linear abhängig in F := {f | f : R → R}, denn

0 · f1(x) + 2.5f2(x) + (−1)f3(x) + 0 · f4(x) = 0 für x ∈ R

m. a. W.III f3 = 2.5f2

f1, f2, f4 sind linear abhängig, denn sei

λ1f1(x) + λ2f2(x) + λ4f4(x) = 0 für alle x ∈ R

2λ1 + λx + λ4x4 = 0

speziell:

x = 0 ⇒ λ1 = 0x = ±1 ⇒ 2λ1 ± λ2 + λ4 = 0

}λ2 + λ4 = 0−λ2 + λ4 = 0

}⇒ λ4 = 0, λ2 = 0.

3.2.2 Charakterisierung der linearen Abhängigkeit

Die Vektoren v1, . . . , vm ∈ V sind linear abhängig genau dann, wenn es (mindestens) einvj , j ∈ {1, . . . , m} gibt, mit vj ∈ lin{v1, . . . , vj−1, vj+1, . . . , vm}.

Beweis:

(⇒) Seien v1, . . . , vm linear abhängig, so gibt es λj 6= 0 mit

λ1v1 + . . .+ λjvj + . . .+ λmvm = 0

vj = −λ1λjv1 − . . .− λj−1

λjvj−1 −

λj+1

λjvj+1 − . . .− λm

λjvm

⇒ vj ∈ lin(v1, . . . , vj−1, vj+1, . . . , vm).

(⇐) Sei vj ∈ lin(v1, . . . , vj−1, vj+1, . . . , vm), d.h.

vj =

m∑

i = 1,i 6= j

µivi mit µi ∈ R ⇒m∑

i = 1,i 6= j

µivi + (−1)vj = 0.

D.h. es gibt eine nichttriviale Nullrelation zwischen v1, . . . , vm.

Zum Beispiel in 1):v3 = (7, 7) = 7 · v2 + 0 · v1

also v3 ∈ lin{v1, v2}, aber v1 lässt sich nicht aus v2, v3 linear kombinieren.

IIIm. a. W. – mit anderen Worten

Page 48: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

34 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

3.2.2.1 Weitere Folgerungen

1) Enthält {v1, . . . , vm} den Nullvektor, so sind v1, . . . , vm linear abhängig.

2) v1 ist linear unabhängig ⇔ v1 6= 0.

3) v1, v2 sind linear unabhängig genau dann, wenn keine der beiden Vektoren ein Viel-faches des anderen ist.

3.2.3 Definition eines Erzeugendensystems

Man nennt {v1, . . . , vm} ein Erzeugendensystem von V , falls

V = lin(v1, . . . , vm).

Sind zusätzlich v1, . . . , vm linear unabhängig, so heißt {v1, . . . , vm} eine Basis von V .

3.2.3.1 Beispiele

Im Rn bildet die Menge {e1, . . . , en} eine Basis, wenn

e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , ei = (0, . . . , 1︸︷︷︸i-te Stelle

, . . . , 0), . . . , en = (0, . . . , 1).

• R1

0 1

e1

• R2

e1

e2

x1

x2

0

Diese Basis heißt kanonische Basis von Rn und e1, . . . , en die Einheitsvektoren.

• {e1, . . . , en} ist Erzeugendensystem, denn für jedes x ∈ Rn gilt

x = (x1, . . . , xn) = x1(1, 0, . . . , 0) + x2(0, 1, . . . , 0) + . . .+ xn(0, . . . , 0, 1) =n∑

i=1

xiei

d.h. Rn = lin(e1, . . . , en).

Page 49: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.2. BASIS UND DIMENSION 35

• e1, . . . , en sind linear unabhängig, denn aus

λ1, e1 + . . .+ λnen = (λ1, . . . , λn) = 0

folgtλ1 = λ2 = . . . = λn = 0.

Auch {e1, . . . , en, (1, 1, . . . , 1)} ist Erzeugendensystem von Rn, denn

x =n∑

i=1

xiei + 0 · (1, 1, . . . , 1) für jedes x ∈ Rn.

Aber: {e1, . . . , en, (1, 1 . . . , 1)} ist keine Basis, weil

(1, 1, . . . , 1) = e1 + . . .+ en.

3.2.4 Eigenschaften einer Basis

3.2.4.0.1 Folgerung: Jeder Vektor v ∈ V lässt sich eindeutig als Linearkombinationvon Elementen einer Basis von V darstellen.

Beweis: durch Koeffizientenvergleich (Übungsaufgabe)

3.2.4.0.2 Satz über die Existenz einer Basis: Sei V = lin(v1, . . . , vm), so besitztV eine Basis oder V = {0}.

Beweis:

1) Sind v1, . . . , vm linear unabhängig, so ist v1, . . . , vm eine Basis.

2) Andernfalls gibt es vj , j ∈ {1, . . . , m}, so dass vj ∈ lin(v1, . . . , vj−1, vj+1, . . . , vm).

Bm−1 := Bm \ {vj}Dann ist V = lin(Bm−1), denn für beliebiges v ∈ V gilt

v =m∑

i=1

λivi

Außerdem ist

vj =m∑

k = 1,k 6= j

µkvk

⇒ v = (λ1 + λjµ1)v1 + . . .+ (λj−1 + λjµj−1)vj−1

+ (λj+1 + λjµj+1)vj+1 + . . .+ (λm + λjµm)vm

V ⊆ lin(Bm−1) ⊆ lin(Bm) = V

Page 50: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

36 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

3) Sind die Vektoren aus Bm−1 linear abhängig, so verfahre wie im 2. Schritt.

4) Das Verfahren endet nach endlich vielen Schritten, weil

|Bm| = m > m− 1 = |Bm−1|

Endergebnis ist eine Menge Bn, n ∈ N von linear unabhängigen Vektoren mit

V = lin(Bn)

(also eine Basis von V ) oder mit B1 = {w}, w ∈ Bm und B1 linear abhängig.

⇒ w = 0 (V = lin{0} = {0})

3.2.4.0.3 Bemerkung: Der Beweis zeigt, dass eine Basis ein Erzeugendensystem ist,welches nicht mehr verkürzt werden kann.

3.2.4.1 Wieviele Elemente hat eine Basis?

3.2.4.1.1 Austauschlemma: Sei B = {v1, . . . , vm} eine Basis von V . Dann gibt es zujedem w ∈ V, w 6= 0 ein v ∈ B, so dass

B′ = (B \ {v}) ∪ {w}

wieder eine Basis besitzt.

Beweis:

Wegen V = lin(v1, . . . , vm) besitzt w die Darstellung

w =

m∑

j=1

λjvj (3.2.4.1)

Weil w 6= 0, muss ein λj 6= 0 sein, beispielsweise λk 6= 0 mit k ∈ {1, . . . , m}. Wir setzenv = vk und überprüfen B′ auf Basiseigenschaften:

1) B′ ist Erzeugendensystem von V , denn aus (3.2.4.1) folgt:

vk =1

λkw −

m∑

j = 1,j 6= k

λjvj ∈ lin(B′) ⇒ V = lin(v1, . . . , vm) ⊆ lin(B′) ⊆ V.

2) B′ ist linear unabhängig, denn sei

µ0w +m∑

j = 1,j 6= k

µjvj = 0.

Page 51: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.2. BASIS UND DIMENSION 37

a) µ0 = 0

⇒m∑

j = 1,j 6= k

µjvj = 0 · vk = 0 ⇒ µ1 = 0, µ2 = 0, . . . , µm = 0

wegen linearen Unabhängigkeit von v1, . . . , vm.

b) µ0 6= 0

Unter Verwendung von (3.2.4.1) ist

(µ1 + λ1µ0)v1 + . . .+ (µk−1 + λk−1µ0)vk−1 + µ0λkvk + . . .+ (µm + λmµ0)vm = 0

Das ist nichttriviale Nullrelation der Elemente aus B im Gegensatz zu linearenUnabhängiggkeit. Somit kann der Fall 2b) nicht eintreten.

3.2.4.1.2 Ergänzung zum Austauschlemma: Als v kann jeder Vektor vj genommenwerden, für den in (3.2.4.1) das λj 6= 0 ist.

3.2.4.1.3 Beispiel: R3 = lin(e1, e2, e3), w = (7,−4, 0) 6= 0, so gilt

w = 7e1 − 4e2 + 0e3

In Basis {e1, e2, e3} kann w gegen e1 bzw. gegen e2 getauscht werden.

3.2.4.1.4 Austauschsatz von Steinitz (1913): Sei B = {v1, . . . , vn} eine Basis vonV und w1, . . . , wm linear unabhängige Vektoren. Dann gibt es n − m Vektoren aus B,o.B.d.A. vm + 1, . . . , vn, so dass

{w1, . . . , wm, vm+1, . . . , vn}

wieder eine Basis von V bildet. D.h., in B können v1, . . . , vm durch w1, . . . , wm ausgetauschtwerden.

Beweis: (über vollständige Induktion nach m)

• Induktionsanfang:

m = 1: Aussage des Austauschlemmas

• Induktionsvorraussetzung:

Sei Aussage richtig für m− 1 linear unabhängige Vektoren.

• Induktionsbehauptung:

Dann gilt Satz auch für eine Menge C = {w1, . . . , wm} von linear unabhängigenVektoren.

Page 52: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

38 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

• Induktionsschluss

Auf C ′ = C \ {wm} können wir (IV) anwenden. Folglich ist

B′ = {w1, . . . , wm−1, vm, . . . , vn}

eine Basis von V .

Einbauen von wm in B′ durch Anwendung des Austauschlemmas. Beachte wm 6= 0,da C linear unabhängig ist.

⇒ (B′ \ {v}) ∪ {wm}

ist wieder Basis mit v ∈ B′. Dabei kann v ∈ {vm, . . . , vn} gewählt werden, denn inder Darstellung

wm = µ1w1 + . . .+ µm−1wm−1 + λmvm + . . .+ λnvn

können nicht alle λi = 0 sein, sonst

wm = µ1w1 + . . .+ µm−1wm−1

im Widerspruch zur linearen Unabhängigkeit von C.

Ergänzung zum Austauschlemma ergibt die Behauptung.

3.2.4.2 Wichtige Folgerungen aus dem Austauschsatz

1) Jede Menge C = {w1, . . . , wm} von linear unabhängigen Vektoren kann zu einer Basisvon V ergänzt werden (Basisergänzungssatz ).

Dabei gilt|C| = m ≤ n = |B|.

2) Alle Basen von V haben die gleiche Anzahl von Elementen. Diese Zahl heißt Dimen-sion des Vektorraums V (dimV ).

Beweis:

Aus Folgerung 1. ergibt sich für 2 Basen B1, B2:

|B2| ≤ |B1| (B = B1, C = B2)

und|B1| ≤ |B2| (B = B2, C = B1).

Zum Beispiel:Rn = lin(e1, . . . , en)

e1, . . . , en Basis ⇒ dimRn = n.

Page 53: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.2. BASIS UND DIMENSION 39

3) Sei dimV = n, so hat jede Menge C linear unabhängige Vektoren höchstens n Ele-mente. Ist |C| = n, so bildet C eine Basis von V .

Gegenbeispiel:

In F := {f | f : R → R} gibt es für jedes k ∈ N genau k linear unabhängigeElemente, beispielsweise

p1(x) = x, p2(x) = x2, . . . , pk(x) = xk, x ∈ R.

Überprüfung auf lineare Unabhängigkeit: Sei

k∑

i=1

λipi(x) =

k∑

i=1

λixi = 0 für alle x ∈ R

⇔ x(λ1 + x(λ2 + x(λ3 + . . .+ x(λk−1 + xλk ) . . .)︸ ︷︷ ︸k − 1Klam-mern

= 0

⇒ λ1 + x(λ2 + . . .+ x(λk−1 + xλk) . . .) = 0 für alle x ∈ R.

Mit x = 0 folgt: λ1 = 0

⇒ x(λ2 + . . .+ xλk) . . .) = 0 für alle x ∈ R ⇒ λ2 = 0, . . . , λk = 0.

D.h., in F gibt es Mengen linear unabhängiger Elemente beliebiger Anzahl. Somitkann F keine endliche Dimension haben. (Schreibweise: dimF = ∞)

4) Seien U1, U2 zwei Unterräume des Vektorraums V mit U1 ⊆ U2. Dann gilt dimU1 ≤dimU2.

dimU1 = dimU2 ⇔ U1 = U2.

5) Dimensionsformel:

dim(U1 + U2) = dimU1 + dimU2 − dim(U1 ∩ U2)

Beweis:

a) Wir wählen Basis {v1, . . . , vm} von U0 := U1 ∩ U2 ⊆ V und ergänzen diese zuBasen

B1 := {v1, . . . , vm, vm+1, . . . , vk} von U1

B2 := {v1, . . . , vm, wm+1, . . . , wl} von U2.

Mit C := B1 ∪ B2 = {v1, . . . , vk, wk+1, . . . , wl} gilt

|C| = |B1|+ |B2| − |B1 ∩ B2| = k + l −m

= dimU1 + dimU2 − dimU0.

Page 54: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

40 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

b) Wir zeigen C ist eine Basis von U1 + U2.

b1) Wir habenU1 + U2 = linB1 + linB2 = linC

⇒ C ist Erzeugendensystem von U1 + U2.

b2) Zur linearen Unabhängigkeit betrachten wird die Nullrelation

k∑

i=1

λivi +

l∑

j=m+1

µjwj = 0 (3.2.4.2)

−k∑

i=1

λivi

︸ ︷︷ ︸∈U1

=l∑

j=m+1

µjwj

︸ ︷︷ ︸∈U2

∈ U1 ∩ U2 = lin(v1, . . . , vm).

Folglich gilt die Darstellung

µm+1wm+1 + . . .+ µlwl = α1v1 + · · ·+ αmvm.

Wegen linearer Unabhängigkeit von B2 muss

α1 = α2 = . . . = αm = 0, µm+1 = . . . = µl = 0

sein. Damit lautet (3.2.4.2):

λ1v1 + λ2v2 + . . .+ λkvk = 0.

Wegen linearer Unabhängigkeit von B1 muss

λ1 = λ2 = . . . = λk = 0

sein, also (3.2.4.2) kann nur trivial sein und C ist Basis.

Spezialfall: Ist U1 + U2 = V und U1 ∩ U2 = {0}, so heißen U1 und U2 komplementäreUnterraum (Bezeichnung: U1 ⊕ U2 als direkte Summe von U1 und U2).

dimU1 + dimU2 = dimV.

Beispiele:

i) Im R2 sind je 2 verschiedene eindimensionale Unterraum komplementär, z.B.

lin ((1, 1))⊕ lin ((1, 2)) = R2

Page 55: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.2. BASIS UND DIMENSION 41

1

2

3

4

5

6

7

1 2 3 4 5 6 7 x1

x2 lin((1, 2))lin((1, 1))

ii) Im R3 ist jeder zweidimensionale Unterraum U1 komplementär zu jedem Unter-raum U2 = lin(v) mit v /∈ U1.

x2

x3

x1

U1

U2

v

6) Allgemein gilt: Jeder Unterraum U1 des Vektorraums V besitzt einen komplementärenUnterraum.

Page 56: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

42 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

Beweis:

a) Sei U1 ein Unterraum mit der Basis

B1 := {v1, . . . , vm}.

Ergänze diese zu einer Basis

B := {v1, . . . , vm, vm+1, . . . , vn}

von V . SetzeU2 := lin{vm+1, . . . , vn}.

Dann gilt:U1 + U2 = linB1 + lin{vm+1, . . . , vn} = linB = V.

b) Zu zeigen U1 ∩ U2 = {0}. Sei v ∈ U1 ∩ U2, so gilt

v = λ1v1 + . . .+ λmvm ∈ U1

undv = λm+1vm+1 + . . .+ λnvn ∈ U2.

Das liefert

λ1v1 + . . .+ λmvm︸ ︷︷ ︸=v

−λm+1vm+1 − . . .− λnvn︸ ︷︷ ︸=−v

= v + (−v) = 0.

Wegen linearen Unabhängigkeit von B kann diese Nullrelation nur trivial sein,also λi = 0 für alle i = 1, . . . , n

⇒ v = 0.

Bedeutung: Eindeutige Zerlegung jedes Vektors v ∈ V bezüglich komplementärerUnterraum (s. Übungsaufgabe).

Zum Beispiel:

v = (−3, 0) = λ1(1, 1) + λ2(1, 2) ⇔ −3 = λ1 + λ2

0 = λ1 + 2λ2⇒ λ2 = 3

λ1 = −6

(−3, 0) = −6(1, 1) + 3(1, 2)

Page 57: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.3. LINEARE ABBILDUNGEN 43

1

2

3

4

5

6

7

1 2 3 4 5 6 7 x1

x2 lin((1, 2))lin((1, 1))

U1 U2

-1-2-3

v

3.3 Lineare Abbildungen

Wir untersuchen hier „strukturerhaltende“ Abbildungen zwischen Vektorräumen und Fra-gestellungen wie

• Wann sind zwei Vektorräume im wesentlichen gleich?

• Durch welche Daten ist ein Vektorraum eindeutig bestimmt?

3.3.1 Definitionen

Seien V und W Vektorräume über R. Eine Abbildung f : V →W heißt lineare Abbildungoder Homomorphismus, wenn für alle v, v′ ∈ V und alle λ ∈ R gilt:

Additivität: f(v + v′) = f(v) + f(v′) ,

Homogenität: f(λv) = λf(v) .

Die Menge aller Homomorphismen von V nach W wird mit Hom(V,W ) bezeichnet.

Eine lineare Abbildung f : V →W heißt

Isomorphismus, wenn sie bijektiv,Endomorphismus, wenn V =W undAutomorphismus, wenn sie bijektiv und V = W

ist.Wir bezeichnen den Teil von W , welcher von f erfaßt wird, mit

Bild(f) := {w ∈ W | es gibt v ∈ V mit f(v) = w} ,

Page 58: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

44 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

und außerdem seiKern(f) := {v ∈ V | f(v) = 0} = f−1({0}) .

3.3.2 Eigenschaften

1) f(0) = 0, denn f(0) = f(0 · v) =Hom.

0 · f(v) = 0 mit v ∈ V

2) f ist surjektiv ⇔ Bild(f) = W

(Beweis nach Definition klar)

3) f ist injektiv ⇔ Kern(f) = {0}(Beweis siehe Übungsaufgabe)

4) Bild(f) ist Unterraum von W .

Beweis: (Anwendung des Unterraumkriteriums)

i) Bild(f) 6= ∅, weil 0 ∈ Bild(f) nach 1)

ii) Ist w ∈ Bild(f), so

λw =Def.

λf(v) =Hom.

f(λv) ⇒ λw ∈ Bild(f)

iii) Ist w1, w2 ∈ Bild(f), so

w1 + w2 =Def.

f(v1) + f(v2) =Add.

f(v1 + v2) ⇒ w1 + w2 ∈ Bild(f)

Beispiele:

a) Nullabbildung: V → {0}b) identische Abbildung idV : V → V

c) allgemeiner: Wähle festes α ∈ R und definiere f(v) = αv

d)

f : R2 → R2

(x1, x2) 7→ (x1 + x2, x1 + x2)

ist lineare Abbildung.

Bild(f) = {(y1, y2) | y1 = x1 + x2, y2 = x1 + x2 mit xi ∈ R}= {(y1, y1) | y1 ∈ R} = lin ((1, 1))

Kern(f) = {(x1, x2) | x1 + x2 = 0} = {(x1,−x1) | x1 ∈ R} = lin ((1,−1))

Page 59: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.3. LINEARE ABBILDUNGEN 45

x1

x2 y2

y1Kern(f)

Bild(f)fy

e)

f : R2 → R

(x1, x2) 7→ x1 + x2 + 4

ist kein Homomorphismus, denn

f ((0, 0)) = 4 6= 0

f)

f : R2 → R

(x1, x2) 7→ x1x2

ist kein Homomorphismus, denn

f (2(x1, x2)) = f ((2x1, 2x2)) = 2x1 · 2x2 = 4x1x2 6= 2f ((x1, x2))

5) Kern(f) ist Unterraum von V .

(Beweis siehe Übungsaufgabe)

3.3.3 Weitere wichtige lineare Abbildung

Sind U1, U2 komplementäre Unterräume des Vektorraums V , d.h. U1 + U2 = V, U1 ∩ U2 ={0}, so gilt v = u1 + u2 mit eindeutig bestimmten ui ∈ Ui.

P : V → V mit P (v) = P (u1 + u2) := u1, P = PU1

heißt Projektion von V auf U1.

3.3.3.0.1 Beispiel:

R3 = {(x1, x2, x3) | xi ∈ R}= {(x1, x2, 0) | x1, x2 ∈ R}+ {(0, 0, x3) | x3 ∈ R}= lin(e1, e2) + lin(e3)

Projektion P von R3 auf U1 ist folglich

P ((x1, x2, x3)) = (x1, x2, 0) .

Page 60: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

46 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

x2

x3

x1

e1

e2

e3

(x1, x2, x3)

(x1, x2, 0) = P ((x1, x2, x3))

Die Projektion P : V → V ist eine lineare Abbildung, denn

P (λv) = P (λ(u1 + u2)) = P (λu1︸︷︷︸∈U1

+ λu2︸︷︷︸∈U2

) = λu1 = λP (v)

P (v + v′) = P ((u1 + u2) + (u′1 + u′2))

= P ((u1 + u′1)︸ ︷︷ ︸∈U1

+ (u2 + u′2)︸ ︷︷ ︸∈U2

)

= u1 + u′1 = P (v) + P (v′)

v′ = u′1 + u′2

u′i ∈ Ui

Bild(P ) = U1,Kern(P ) = U2, denn sei

P (v) = 0 ⇔ u1 = P (u1 + u2) = 0 ⇔ v = 0 + u2

3.3.4 Bemerkungen

1) Hintereinanderausführung linearer Abbildungen ergibt wieder lineare Abbildung, denn

(g ◦ f)(λv) = g(f(λv)) = g(λf(v)) = λg(f(v)) = λ(g ◦ f)(v)(g◦f)(v+v′) = g(f(v+v′)) = g(f(v)+f(v′)) = g(f(v))+g(f(v′)) = (g◦f)(v)+(g◦f)(v′)für alle v, v′ ∈ V , λ ∈ R, wenn f, g lineare Abbildungen sind.

Page 61: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.3. LINEARE ABBILDUNGEN 47

2) Die Menge Hom(V,W ) bildet selbst einen Vektorraum, wenn man definiert:

(f1 + f2)(v) := f1(v) + f2(v)

(λf1)(v) := λf1(v)für v ∈ V , λ ∈ R

und f1, f2 ∈ Hom(V,W ). Nachweis der Linearität von f1 + f2, λf1 und Vektorraum-Eigenschaft sei Übungsaufgabe.

3.3.5 Bestimmung von linearen Abbildungen

durch die Bilder einer Basis B := {v1, . . . , vn} des Vektorraums V .

1) Es gibt zu jedem n-Tupel (w1, . . . , wn) von Vektoren wi ∈ W genau eine lineareAbbildung

f : V →W

mit f(vi) = wi. M.a.W.IV: Eine lineare Abbildung ist durch die Bilder der Basisvek-toren von V eindeutig festgelegt.

Beweis:

a) (Existenz von f)

Für v ∈ V = lin(v1, . . . , vn) gilt die eindeutige Darstellung

v = λ1v1 + . . .+ λnvn mit λi ∈ R (3.3.5.3)

Wir definierenf(v) := λ1w1 + . . .+ λnwn

Dann ist f : V →W und f linear.

f(vi) = f(0 · v1+ . . .+1 · vi+ . . .+0 · vn) = 0 ·w1+ . . .+1 ·wi+ . . .+0 ·wn = wi

b) (Eindeutigkeit von f)

Sei f, f ′ ∈ Hom(V,W ) mit f(vi) = wi und f ′(vi) = wi. Dann gilt

f(v) =(3.3.5.3)

f

(n∑

i=1

λivi

)=

n∑

i=1

λif(vi) =

n∑

i=1

λif′(vi) = f ′

(n∑

i=1

λivi

)= f ′(v)

für beliebiges v ∈ V .⇒ f = f ′

IVM.a.W. – Mit anderen Worten

Page 62: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

48 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

Bedeutung: Die gesamte Information über eine lineare Abbildung f : V → W stecktin wi ∈ W . Ist dimW = m, so sind die w1, . . . , wn durch n ·m reelle Zahlen festgelegt.Somit kann mit einer linearen Abbildung effektiv auf Computern gerechnet werden.Man versucht deshalb viele nichtlineare Probleme auf lineare zurückzuführen.

2) Die lineare Abbildung f : V → W ist genau dann ein Isomorphismus, wenn

C := {f(v1), . . . , f(vn)}eine Basis von W bilden.

Beweis:

(⇒) Sei f bijektiv. Wir prüfen C auf lineare Unabhängigkeit:Sei

n∑

i=1

µif(vi) = 0,

so

f

(n∑

i=1

µivi

)= 0,

d.h.∑n

i=1 µivi ∈ Kern(f). Da Kern(f) = {0} ist

n∑

i=1

µivi = 0,

also µi = 0 wegen linearer Unabhängigkeit von B.Wir zeigen linC =W . Sei w ∈ W , so gibt es wegen der Surjektivität von f einv ∈ V mit w = f(v). Benutze (3.3.5.3), so folgt

w = f

(n∑

i=1

λivi

)=

n∑

i=1

λif(vi)

(⇐) Sei C eine Basis vonW . Zur Überprüfung der Injektivität berechnen wir Kern(f).Sei v ∈ V mit f(v) = 0. Mit (3.3.5.3) folgt:

0 = f

(n∑

i=1

λivi

)=

n∑

i=1

λif(vi).

Wegen linearen Unabhängigkeit von C ist λ1 = λ2 = . . . = λn = 0, also v = 0.D.h. Kern(f) = {0}.Zur Surjektivität von f : Jedes w ∈ W können wir eindeutig bezüglich der Basisdarstellen:

w = α1f(v1) + . . .+ αnf(vn) = f

(n∑

i=1

αivi

)

Mit u :=∑n

i=1 αivi ist u ∈ V und w = f(u).

Page 63: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.3. LINEARE ABBILDUNGEN 49

3) Wählen wir in 1) die w1, . . . , wn als Basis von W (dimW = n), so ist f : V →W ein Isomorphismus, d.h. es gilt der Fundamentalsatz für endlich dimensionaleVektorräume:

Je zwei Vektorräume der gleichen Dimension sind isomorph.

Anwendungen:

a) Je zwei Basen eines Vektorraums V mit dimV = n können durch genau einelineare Abbildung ineinander überführt werden. Diese Abbildung ist ein Auto-morphismus (Basistransformation).

b) Wählt man W = Rn = lin(e1, . . . , en) und f(vi) = ei, so ist f ein Isomorphismusund

f(v) =(3.3.5.3)

f

(n∑

i=1

λivi

)=

n∑

i=1

λif(vi)

=

n∑

i=1

λiei = (λi, . . . , λn)

ei = (0, . . . , 1, . . . , 0)

(Vektor der Koordinaten von v bezüglich Basis v1, . . . , vn)D.h.: Rechnen in V ist dasselbe wie Rechnen mit den Koordinatenvektoren(bezüglich festgewählter Basis) im Rn.

3.3.6 Dimensionsformel für lineare Abbildungen

Sei dimV = n und f : V → W eine lineare Abbildung. Dann ist

dim(Kern(f)) + dim(Bild(f)) = n (3.3.6.4)

Beweis:

a) Sei {v1, . . . , vr} eine Basis von Kern(f). Wir ergänzen diese zu einer Basis

B := {v1, . . . , vr, vr+1, . . . , vn}

von V und setzen wi := f(vr+i), i = 1, . . . , n− r.

Für v ∈ V = lin (B) ist

f(v) = f

(n∑

i=1

λivi

)=

n∑

i=1

λif(vi)

⇒ f(v) = λi0 + . . .+ λr0 + λr+1w1 + . . .+ λnwn−r

⇒ Bild(f) = lin(w1, . . . , wn−r)

Page 64: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

50 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

b) Wir zeigen w1, . . . , wn−r ist Basis von Bild(f), d.h. die lineare Unabhängigkeit vonw1, . . . , wn−r. Sei

µ1w1 + . . .+ µn−rwn−r = 0

so

f(µ1vr+1 + . . .+ µn−rvn) =n−r∑

i=1

µiwi = 0

alsoµ1vr+1 + . . .+ µn−rvn ∈ Kern(f) = lin(v1, . . . , vr)

µ1vr+1 + . . .+ µn−rvr =r∑

i=1

αivi .

Wegen linearer Unabhängigkeit von B muss

α1 = . . . = αr = 0, µ1 = . . . = µn−r = 0

sein. Somit sind w1, . . . , wn−r linear unabhängig und

dim(Bild(f)) = n− r

3.3.6.0.1 Folgerung: Ist dimV = dimW = n, so ist f injektiv ⇔ f surjektiv, denn:

f injektiv ⇔ Kern(f) = {0} ⇔ dim Kern(f) = 0

⇔(3.3.6.4)

dim(Bild(f)) = n⇔ Bild(f) =W ⇔ f surjektiv

3.4 Affine Unterräume

Bisher beschäftigten wir uns mit speziellen Teilmengen, welche die lineare Struktur einesVektorraums V repräsentieren (nämlich die linearen Untervektorräume).Zur Erfassung der geometrischen Eigenschaften unseres Anschauungsraumes benötigen wirTeilmengen, welche die affine Struktur repräsentieren.

3.4.1 Eigenschaften affiner Unterräume

3.4.1.0.1 Definition: Eine nichtleere Teilmenge A ⊆ V heißt affiner Unterraum vonV , wenn für jedes a ∈ A die Darstellung gilt

a = a0 + u

mit einem festen a0 ∈ A und u ∈ U , wobei U ein Untervektorraum von V ist.

Schreibweise: A = a0 + U

Die Elemente von A werden in diesem Zusammenhang auch als Punkte bezeichnet (Beachte:V = 0 + V ).

Page 65: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.4. AFFINE UNTERRÄUME 51

3.4.1.0.2 Beispiele:

1) Im R3

0

Ua0 + U

a0dimU = 2

2) Im R2:

A = (1, 0) + lin(1, 1) = {(x1, x2) | (x1, x2) = (1, 0) + λ(1, 1), λ ∈ R}= {(1 + λ, λ) | λ ∈ R}

A

x2

x1−1

1

1

3.4.1.0.3 Satz über die Gleichheit von affinen Unterräumen: Zwei affine Unter-räume A = a0+U und A′ = a′0+U

′ sind gleich genau dann, wenn U = U ′ und a0−a′0 ∈ U .M.a.W.: Ein affiner Unterraum ist eindeutig festgelegt durch U und ein (beliebig gewähl-tes) Element aus A.

Beweis:

(⇒) Sei a0 + U = a′0 + U ′, so a′0 = a′0 + 0 ∈ a′0 + U ′ = a0 + U , d.h. es gibt u0 ∈ U mita′0 = a0 + u0 bzw. a′0 − a0 = u0 ∈ U .

Sei u′ ∈ U ′, so ist a′0 + u′ ∈ a′0 + U ′ = a0 + U ⇒ u′ = a0 − a′0 + u, u ∈ U ⇒u′ = u− u0 ∈ U .

Folglich: U ′ ⊆ U . Vertauschung der Rollen von a0, U und a′0, U′ ergibt U ⊆ U ′.

Page 66: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

52 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

(⇐) Sei a′0 − a0︸ ︷︷ ︸:=u0

∈ U , zu zeigen a0 + U = a′0 + U

a = a0 + u = a′0 + (a0 − a′0)︸ ︷︷ ︸=−u0∈U

+u

Also

a0 + U = {a0 + u | u ∈ U} = {a′0 − u0 + u | u ∈ U} ⊆ {a′0 + u | u ∈ U} = a′0 + U

Umgekehrt ergibt sich auch a′0 + U ⊆ a0 + U .

3.4.1.1 Folgerungen

1) In A = a0 + U ist U gegeben durch

U = {v ∈ V | v = a− a′, a, a′ ∈ A}

2) Betrachtet man Translation (Verschiebung) Tu: a 7→ a + u mit a ∈ A, u ∈ U . Dannist a+ u ∈ A, d.h. Tu bildet A in sich ab. U heißt auch Translationsraum des affinenUnterraums A.

3) dimA = dim(a0 + U) := dimU

Spezialfälle:

• dimA = 0, so heißt A Punkt (A = a0 + {0} = {a0}).• dimA = 1, so heißt A Gerade

• dimA = 2, so heißt A Ebene

• dimA = n− 1, so heißt A Hyperebene, falls dim V = n

3.4.1.1.1 Parameterdarstellung von A = a0 + U : Sei a0 ∈ A und v1, . . . , vm eineBasis von U , so besitzt jeder Punkt a ∈ A die eindeutige Darstellung

a = a0 +

m∑

i=1

λivi mit λi ∈ R

3.4.2 Parallele Unterräume

3.4.2.0.1 Definition: Zwei affine Unterräume A = a0 + U und A′ = a′0 + U ′ desVektorraums V heißen parallel, falls U ⊆ U ′ oder U ′ ⊆ U . In Zeichen: A ‖ A′

Page 67: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

3.4. AFFINE UNTERRÄUME 53

3.4.2.1 Beispiele

1) V = Rn. Parallele Gerade zu G = a0 + lin(v), v 6= 0 durch b ∈ V ist GP = b+ lin(v)(GP ist durch b eindeutig bestimmt).

x2

x1

a0b

G

GP

2) V = R3: Parallele Ebene zu E = a0 + lin(v1, v2) (v1, v2 linear unabhängig) durchb ∈ R3 ist EP = b+ lin(v1, v2).

3) V = Rn: Zu Ebene E = a0 + U, dimU = 2, sind alle Geraden G = b + lin(v) mitv ∈ U, v 6= 0, b ∈ Rn parallel.

x2

x3

x1

E

a0

b

lin(v)

G

v

Page 68: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

54 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN

3.4.3 Erzeugung affiner Unterräume

Durch je r+ 1 Punkte, die nicht in einem gemeinsamen (r− 1)-dimensionalen affinen Un-terraum liegen, geht genau ein r-dimesionaler affiner Unterraum A.

Beweis:

1) Sei für v0, . . . , vr ∈ V die Voraussetzung des Satzes erfüllt. Dann sind die Vektorenu1 := v1 − v0, u2 := v2 − v0, . . . , ur = vr − v0 linear unabhängig. Andernfalls liegenu1, . . . , ur in einem Unterraum W mit dimW = r − 1.

Dann wären vi = v0 + ui ∈ v0 +W im Widerspruch zur Voraussetzung.

2) Existenz von A: Wegen 1) ist U = lin(u1, . . . , ur) ein Unterraum der Dimension r.

⇒ vi ∈ v0 + U für i = 0, . . . , r

also A = v0 + U .

3) Eindeutigkeit von A, d.h. Eindeutigkeit von U .

Sei a0 + U und a′0 + U ′ zwei affine Unterräume mit dim U = dimU ′ = r durchv0, . . . , vr. Dann müssen ui ∈ U und ui ∈ U ′ sein.

Wegen 1) ist U = lin(u1, . . . , ur) = U = U ′, weil u1, . . . , ur eine Basis von U bzw. U ′

bilden.

3.4.3.0.1 Folgerung:

A = v0 + lin(v1 − v0, v2 − v0, . . . , vn − v0);

speziell istG := v0 + lin(v1 − v0)

die Verbindungsgerade der Punkte v0, v1 mit v0 6= v1.

Page 69: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Kapitel 4

Matrizen und lineare Gleichungssysteme

4.1 Matrizenrechnung

4.1.1 Definition einer Matrix

Eine m×n-Matrix (über R) ist eine Anordnung von m ·n reellen Zahlen in ein rechteckigesSchema aus m Zeilen und n Spalten.

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

= (aij)i = 1, . . . ,m,

j = 1, . . . , n

aij ∈ R

zi = (ai1, ai2, . . . , ain) – i-te Zeile von A, i = 1, . . . , n

sj =

a1j...amj

– j-te Spalte von A, j = 1, . . . , n

Die Menge aller reellen m× n-Matrizen wird mit Rm×n bezeichnet.

4.1.1.0.1 Spezialfälle:

• R1×n = Rn, also zi ∈ Rn

• Rm×1 = Rm, also sj ∈ Rm

4.1.1.0.2 Bemerkung: Anstelle von R können Matrizen auch über jeden beliebigenanderen Körper K betrachtet werden.

55

Page 70: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

56 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

4.1.2 Operationen mit Matrizen

i) Sind A,B ∈ Rm×n, also A = (aij), B = (bij), so definiert man

A+B := (aij + bij) (Summe von A und B)

λA := (λaij) (skalares Vielfaches von A, λ ∈ R)

Mit diesen Operationen wird Rm×n zu einem Vektorraum. Nullelement ist die Null-matrix

0 =

0 0 . . . 00 0 . . . 0...

......

0 0 . . . 0

Beispiel: (3 −1 00.5 0 2.5

),

(0 0 1−6 0 624.37

)∈ R2×3

(3 −1 00.5 0 2.5

)+

(0 0 1−6 0 624.37

)=

(0 −1 1

−5.5 0 626.87

)

λ ·(

3 −1 00.5 0 2.5

)=

(3λ −1λ 00.5λ 0 2.5λ

)

ii) Transposition: Die transponierte Matrix AT zu A ∈ Rm×n entsteht aus A, indem mandie Rollen von Zeilen und Spalten vertauscht.

AT =

a11 a21 . . . am1

a12 a22 . . . am2...

......

a1n a2n . . . amn

= (aji)j = 1, . . . , n,

i = 1, . . . ,m

, AT ∈ Rn×m , aji = aij

Beispiel:(

3 −1 00.5 0 2.5

)T

=

3 0.5−1 00 2.5

A =

z1...zm

, AT =

(zT1 , . . . , z

Tm

)

insbesondere: x =

x1...xm

∈ Rm ⇔ xT =

(x1 . . . xm

)∈ Rm

Page 71: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.1. MATRIZENRECHNUNG 57

iii) Produkt von Matrizen:

Sei A = (aij)i = 1, . . . ,m,j = 1, . . . , n

∈ Rm×n, B = (bkl)k = 1, . . . , r,l = 1, . . . , s

∈ Rr×s, so gibt es AB,

falls Spaltenanzahl n von A gleich Zeilenzahl r von B ist (A und B heißen in diesemFall verkettet) und definiert wird

AB = A · B :=

(n∑

j=1

aijbjl

)

i = 1, . . . , m,l = 1, . . . , s

⇒ AB ∈ Rm×s

...� � · · · H...

·

· · · � · · ·♦...▽

=

...· · · ��+ �♦+ · · ·+ H▽ · · ·

...

AB =

a11 . . . a1n...

...ai1 . . . ain...

...am1 . . . amn

·

b11 . . . b1l . . . b1s...

......

bn1 . . . bnl . . . bns

=

(n∑

j=1

aijbjl

)

Beispiele:

1. (3 −1 00.5 0 2.5

)·(

0 2−1 0

)existiert nicht

2. (0 2−1 0

)·(

3 −1 00.5 0 2.5

)=

(1 0 5−3 1 0

)

3. Ist x =

x1x2...xn

∈ Rn, so ist

Ax =

∑nj=1 a1jxj∑nj=1 a2jxj

...∑nj=1 amjxj

=

(n∑

j=1

aijxj

)∈ Rm

Page 72: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

58 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Anwendung: lineares Gleichungssystem mit m Gleichungen in n Unbekanntenx1, . . . , xn

a11x1 + a12x2 + . . .+ a1nxn = b1a21x1 + a22x2 + . . .+ a2nxn = b2

...am1x1 + am2x2 + . . .+ amnxn = bm

⇔ Ax = b

mit gegebenen Koeffizienten aij ∈ R und gegebenem Absolutglied(vektor)

b =

b1b2...bm

∈ Rm.

4. Für x ∈ Rn und y ∈ Rn, so ist

xy =

x1...xn

(y1 . . . yn

)=

x1y1 x1y2 . . . x1yn

...xny1 xny2 . . . xnyn

= (xiyj)i,j=1,...,n ∈ Rn×n

yx =(y1 . . . yn

)x1...xn

=

n∑

i=1

yixi ∈ R1×1 = R

Für die Matrizenmultiplikation gelten folgende Gesetze:

a) Distributivität

A(B + C) = AB +BC, (A+B)C = AC +BC

b) Assoziativitätλ(AB) = (λA)B = A(λB), λ ∈ R

(AB)C = A(BC)

c) Im Allgemeinen gilt AB 6= BA (die Matrizenmultiplikation ist nicht kommuta-tiv).

d) Produkt zweier Matrizen A 6= 0 und B 6= 0 kann trotzdem Nullmatrix sein (d.h.Matrizenmultiplikation ist nicht nullteilerfrei).

Beispiel zu c), d):

A =

(0 10 0

), B =

(3 70 0

)

AB =

(0 00 0

), BA =

(0 30 0

)

AB 6= BA

Page 73: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.1. MATRIZENRECHNUNG 59

4.1.3 Zusammenhang zwischen linearen Abbildungen und Matri-zen

4.1.3.0.1 Darstellungssatz: Sei A ∈ Rm×n. Dann ist f : Rn → Rm definiert durch

f(x) = fA(x) := Ax (4.1.3.1)

für x ∈ Rn eine lineare Abbildung. Umgekehrt gibt es zu jedem f ∈ Hom(Rn,Rm) genaueine Matrix A ∈ Rm×n mit (4.1.3.1).

Beweis:

1) f(x) = Ax ist additiv und homogen in x wegen Rechengesetzen 3a) und 3b).

(A(x+ y) = Ax+ Ay,A(λx) = λ(Ax))

2) Sei f ∈ Hom(Rn,Rm). Zeige Existenz von A:

Für alle x =

x1...xn

∈ Rn gilt

x =

n∑

j=1

xjeTj , eTj =

0...1...0

(j-te Zeile)

f(x) = f

(n∑

j=1

xjeTj

)=

n∑

j=1

xjf(eTj ) =

n∑

j=1

xjvj

mit vj := f(eTj ), vj =

v1j...vmj

∈ Rm, j = 1, . . . , n. Setze

A =

v11 v12 . . . v1n...

......

vm1 vm2 . . . vmn

Dann ist f(eTj ) = AeTj und

f(x) =n∑

j=1

xjAeTj =

n∑

j=1

AxjeTj = A

n∑

j=1

xjeTj = Ax

Page 74: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

60 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

3) Eindeutigkeit von A. Seien A,A′ ∈ Rm×n mit

f(x) = Ax, f(x) = A′x

für alle x ∈ Rn. Speziell mit x = eTj ist

AeTj = A′eTj , (A′ = (a′ij))

d.h.

sj =

a1j...amj

= s′j =

a′1j...a′mj

also aij = a′ij für alle i = 1, . . . , m, j = 1, . . . , n.

Bemerkung:

a) Die Spalten von A sind die Bilder der Einheitsvektoren eT1 , . . . , eTn ∈ Rn.

b) Nach Fundamentalsatz ist Rn zu jedem n-dimensionalen Vektorraum isomorph.Deshalb gibt es zu jeder linearen Abbildung f : V →W

dimV = n, dimW = m

eine Darstellungsmatrix A ∈ Rm×n. A hängt ab von den gewählten Basen in Vund W .

4.1.3.1 Interpretation der Matrizenoperationen

i) A+B, λA sind die Darstellungsmatrizen der linearen Abbildungen fA+fB bzw. λfA,d.h. fA+B = fA + fB, fλA = λ · fA.

ii) AB,B = (bjl)j = 1, . . . , nl = 1, . . . , s

ist die Darstellungsmatrix der verketteten Abbildung fA ◦ fB

fAB = fA ◦ fB, RsfB−→ Rn

fA−→ Rm

Dabei

R ∋ eTl =

0...1...0

fB7−→ BeTl =

b1l...bnl

∈Rn

fA7−→ ABeTl =

∑nj=1 a1jbjl

...∑nj=1 anjbjl

, l = 1, . . . , s

Page 75: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.1. MATRIZENRECHNUNG 61

4.1.3.2 Spezialfälle

a) Ist f = idRn, so ist f(eTj ) = eTj , j = 1, . . . , n.

Darstellungsmatrix ist

(eT1 , . . . , e

Tn

)=

1 0 . . . 00 1 . . . 0...

......

0 0 . . . 1

= E(= En)

E heißt Einheitsmatrix und hat die andere Darstellung

E =

e1...en

, E = (δij)i,j=1,...,n

δij =

{0 für i 6= j

1 für i = jKronecker-Symbol

b) Ist fA ein Isomorphismus, d.h. fA bijektiv, so heißt die zugehörige Matrix A inver-tierbar oder regulär und die Darstellungsmatrix zu (fA)

−1 wird mit A−1 bezeichnet(inverse Matrix zu A).

4.1.3.3 Folgerungen

1) Jede invertierbare Matrix ist quadratisch, weil die Dimensionen von Bild- und Ur-bildraum bei Isomorphismen gleich sind.

2) (A−1)−1 = A, weil (f−1A )−1 = fA

3) AA−1 = A−1A = E, weil

• fA ◦ fA−1 = fA ◦ (fA)−1 = id = fE und

• fA−1 ◦ fA = (fA)−1 ◦ fA = id = fE

4) (AB)−1 = B−1A−1

5) (AT )−1 = (A−1)T = A−T

Page 76: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

62 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

4.1.3.3.1 Beispiel: Berechnung von

(2 40 1

)−1

=

(a bc d

):

Diese Inverse lässt sich gemäß 3) bestimmen aus der Beziehung:

(a bc d

)(2 40 1

)= E2 =

(1 00 1

)

(2a 4a+ b2c 4c+ d

)=

(1 00 1

)

2a = 1 4a+ b = 0

2c = 0 4c+ d = 1

⇒ a =1

2, c = 0, b = −2, d = 1

(2 40 1

)−1

=

(12

−20 1

)

4.1.3.3.2 Anwendung: Die Lösung des linearen Gleichungssystems Ax = b mit inver-tierbarem A ist gegeben durch

A−1(Ax) = A−1b ⇒ Ex = A−1b

d.h.x = A−1b

4.2 Rangbestimmung

4.2.1 Definition des Rangs einer Matrix

4.2.1.0.1 Definition: Sei A = (aij)i = 1, . . . ,mj = 1, . . . , n

= (s1, s2, . . . , sn) =

z1z2...zm

mit sj ∈ Rm,

zi ∈ Rn.dim lin(s1, . . . , sn) = Spaltenrang von A(= Sr(A)) = Maximalzahl linear unabh. Spaltendim lin(z1, . . . , zm) = Zeilenrang von A(= Zr(A)) = Maximalzahl linear unabh. Zeilen

4.2.1.0.2 Satz:Spaltenrang = Zeilenrang (4.2.1.2)

Page 77: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.2. RANGBESTIMMUNG 63

4.2.1.0.3 Bemerkung:

i) Für die Matrix A bezeichnet diese gemeinsame Zahl den Rang von A (Rang(A)).

ii)dim Bild(fA) = dim lin

(s1, . . . , sn

)= Rang(A)

z.B. Rang(En) = n

4.2.1.0.4 Hilfssatz: Sei X =(x1 . . . xr xr+1

)∈ Rm×(r+1), xi ∈ Rm

xr+1 =r∑

p=1

λpxp (4.2.1.3)

undX ′ =

(x1 . . . xr

)∈ Rm×r

so stimmt Zeilen- und Spaltenrang von X und X ′ überein.

Beweis:

a)Sr(X) = dim lin

(x1, . . . , xr , xr+1

)= dim lin

(x1, . . . , xr

)= Sr(X ′)

b)

X =

y1...ym

, X ′ =

y′1...y′m

, yi = (xi1, . . . , xir, xi,r+1), y′i = (xi1, . . . , xir)

Seim∑

i=1

µiyi = 0 mit µi ∈ R ⇒m∑

i=1

µiy′i = 0

Umgekehrt: Seim∑

i=1

µiy′i = 0 (4.2.1.4)

Aus (4.2.1.3) folgt

xi,r+1 =r∑

p=1

λpxip für i = 1, . . . , m

m∑

i=1

µixi,r+1 =m∑

i=1

r∑

p=1

µiλpxip =r∑

p=1

λp

m∑

i=1

µixip

︸ ︷︷ ︸=0 aus (4.2.1.4)

Page 78: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

64 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

⇒m∑

i=1

µiyi =

m∑

i=1

µi(y′i, xi,r+1) = 0

D.h. lineare Unabhängigkeit der Zeilen von X ist dieselbe wie die lineare Unabhän-gigkeit der Zeilen von X ′.

⇒ Zr(X) = Zr(X ′)

4.2.1.0.5 Bedeutung des Hilfssatzes: In einer Matrix können linear abhängige Spal-ten weggelassen werden, ohne das sich Zeilen- und Spaltenrang ändert. (Analog für Zeilen)

Beweis von (4.2.1.2):

1) Wir lassen in Matrix A alle Spalten weg, welche aus den anderen linear kombinierbarsind.

⇒ A′ =(s1 . . . sk

), k ≤ n

Nach dem Hilfssatz ergibt sich:

Sr(A) = Sr(A′) = k, Zr(A) = Zr(A′)

A′ =

z′1...z′m

, z′i ∈ Rk

2) Wir lassen in A′ alle Zeilen weg, welche aus den anderen linear kombinierbar sind.

⇒ A′′ =

z′1...z′l

, l ≤ m

Nach dem Hilfssatz ergibt sich:

Sr(A′′) = Sr(A′) = Sr(A) = k, Zr(A′′) = Zr(A′) = Zr(A) = l

A′′ =(s′1 . . . s′k

), s′j ∈ Rl

3) A′′ ∈ Rl×k, l = dim lin(z′1, . . . , z′l

)≤ k

k = dim lin(s′1, . . . , s′k

)≤ l

⇒ k = l

4.2.1.0.6 Beispiel:

A =

−1 46 8−9 0184 −7

Rang(A) = Sr(A) = 2, weil die Spalten von A linear unabhängig sind.

Page 79: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.2. RANGBESTIMMUNG 65

4.2.2 Elementare Umformungen von Matrizen

A = (aij)i = 1, . . . ,mj = 1, . . . ,m

∈ Rm×m A =

z1...zm

=

(s1 . . . sn

)

1) Vertauschung zweier Zeilen von A

2) Multiplikation einer Zeile von A mit λ ∈ R, λ 6= 0

3) Addition des Vielfachen einer Zeile von A zu einer anderen Zeile

(Analog für Spalten)

4.2.2.0.1 Beispiel:

70 190 6607 20 66

−14 −10 −99

2)−→

70 190 66070 200 660−14 −10 −99

3)−→

70 190 6600 10 0

−14 −10 −99

3)−→

0 140 1650 10 0

−14 −10 −99

3)−→

0 0 1650 10 0

−14 −10 −99

2),3)−→

0 0 10 1 01 0 0

1)−→

1 0 00 1 00 0 1

4.2.2.0.2 Eigenschaft: Bei elementaren Umformungen ändert sich der Rang der Ma-trix nicht, weil die lineare Hülle der Zeilen z1, . . . , zm bei elementaren Umformungen nichtverändert wird. Damit bleibt auch ihre Dimension, also Zeilenrang von A = Rang(A),unverändert.

4.2.2.0.3 Anwendung: Umformung von A durch elementare Umformungen so lange,bis eine Matrix einfacher Strukur entsteht, bei der man den Rang ablesen kann. Eine solcheeinfache Struktur liegt vor bei

S =

s11 ∗ ∗ ∗ ∗ ∗0 s22 ∗ ∗ ∗ ∗...

. . . . . . ∗ ∗ ∗0 . . . 0 srr ∗ ∗

0

(∗ – nicht interessierende Einträge)

(Trapezgestalt, Zeilenstufenform)

Page 80: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

66 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

4.2.2.1 Behauptungen

1) Ist S ∈ Rm×n und sind die Hauptdiagonalelemente sii 6= 0 für i = 1, . . . , r, so istRang(S) = r.

Beweis:

Die ersten r Zeilen s1, . . . , sr ∈ Rn von S sind linear unabhängig, denn sei

si = (0, . . . , 0, sii, si,i+1, . . . , sin)

undλ1s1 + λ2s2 + . . .+ λrsr = 0

Dann ist

λ1s11 = 0 ⇒ λ1 = 0 ⇒ λ2s22 = 0 ⇒ λ2 = 0 ⇒ . . .⇒ λ1 = 0

⇒ Zeilenrang von S ist r.

2) Jede Matrix lässt sich durch elementare Umformungen in Trapezform bringen, wobeider Rang erhalten bleibt.

Beweis: (konstruktivI)

a) Habe A obige Gestalt. B = (aij)i = k + 1, . . . ,mj = k + 1, . . . , n

∈ R(m−k)×(n−k)

1. Fall: Ist B = 0, so hat A bereits Trapezform.2. Fall: Ist B 6= 0, so gibt es aij 6= 0 mit i ∈ {k + 1, . . . , m}, j ∈ {k + 1, . . . , n}.

A =

a11 · · · ⋆...

. . ....

0 · · · akk

0

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

B

Durch Zeilen- und Spaltenvertauschungen (Typ 1) lässt sich Matrix A′

erzeugen, wobei die ersten k Spalten unverändert bleiben.a′k+1,k+1 6= 0 heißt Pivotelement

A′ =

a11 · · · ⋆...

. . ....

0 · · · akk

0

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a′k+1,k+1... B′

a′m,k+1

mit a′k+1,k+1 6= 0

IAngabe eines Verfahrens mit dem man jede Matrix in Trapezform bringen kann.

Page 81: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.3. LINEARE GLEICHUNGSSYSTEME 67

Durch Zeilenumformungen vom Typ 3), und zwar Addition des − a′i,k+1

a′k+1,k+1

-

fachen des (k + 1)-ten der Zeilen zur i-ten Zeile entsteht A′′ für i =k + 2, . . . , m.

A′′ =

a11 · · · ⋆...

. . ....

0 · · · akk

0

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a′k+1,k+1

...0

∣∣∣∣∣∣∣∣

B′′

Rang(A′′) = Rang(A)

b) Gaußscher Algorithmus zur Rangbestimmung

1. Schritt: k = 0, d.h. an A werden keinerlei Bedinungen gestellt.

2. Schritt: Suche Pivotelement a′k+1,k+1 6= 0 (günstig: |a′k+1,k+1| = 1)

3. Schritt: Transformiere A′ in A′′ gemäß Teil 2a).

4. Schritt: Ist B′′ = 0 oder k+1 = min{m,n}, so Rang(A) = k+1. Andernfallserhöhe k um 1 und gehe zu 2. Schritt zurück.

Beispiel:

A =

1 1 2 20 3 7 −35 3.5 6.5 11.5

1 1 2 20 3 7 −30 −1.5 −3.5 1.5

1 1 2 20 3 7 −30 0 0 0

⇒ Rang(A) = 2

4.3 Lineare Gleichungssysteme

4.3.1 Definitionen

Ein lineares Gleichungssystem in den Unbekannten x1, . . . , xn besteht aus m Gleichungender Form:

a11x1 +a12x2 + . . . +a1nxn = b1a21x1 +a22x2 + . . . +a2nxn = b2

...amnx1 +am2x2 + . . . +amnxn = bm

⇔n∑

j=1

aijxj = bi, i = 1, . . . , m

⇔ Ax = b

Page 82: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

68 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

A = (aij)i = 1, . . . ,mj = 1, . . . , n

(Koeffizientenmatrix ), b =

b1...bm

∈ Rm (Absolutglied(vektor))

x =

x1...xn

∈ Rn

Das Gleichungssystem heißt homogen, falls b = 0, andernfalls inhomogen.

Die Menge aller Lösungen x ∈ Rn des Gleichungssystems Ax = b sei

L(A, b) := {x ∈ Rn | Ax = b}

und heißt Lösungsraum (oder Lösungsmenge) des Gleichungssystems.

4.3.1.0.1 Fragen:

1) Gibt es Lösungen?

2) Wieviele Lösungen gibt es?

3) Konstruktion der Lösungen

4.3.2 Struktur der Lösungsräume

a) L(A, 0) 6= ∅, weil A · 0 = 0, also 0 ∈ L(A, 0).

b) L(A, 0) ist Unterraum von Rn, denn es gilt a) und weiterhin gilt:

Mit x, y ∈ L(A, 0), so folgt A(x + y) = Ax + Ay = 0 + 0 = 0, d.h. x + y ∈ L(A, 0);außerdem A(λx) = λ(Ax) = λ·0 = 0, d.h. λx ∈ L(A, 0). Somit ist Unterraum-Kriteriumerfüllt.

c) Wenn das inhomogene Gleichungssystem Ax = b lösbar ist, so ist L(A, b) ein affinerUnterraum des Rn, genauer:

L(A, b) = x0 + L(A, 0) mit x0 ∈ L(A, b)

in Worten: Die allgemeine Lösung des inhomogenen Gleichungssystem erhält man durchAddition einer speziellen Lösung des inhomogenen Gleichungssystem zur allgemeinenLösung des zugehörigen homogenen Gleichungssystem.

Beweis:

Page 83: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.3. LINEARE GLEICHUNGSSYSTEME 69

i) Sei x ∈ L(A, b).A(x− x0) = Ax− Ax0 = b− b = 0

⇒ x− x0 ∈ L(A, 0), x ∈ x0 + L(A, 0) ⇒ L(A, b) ⊆ x0 + L(A, 0)

ii) Für beliebiges y ∈ x0 + L(A, 0) gilt:

y = x0 + x, x ∈ L(A, 0)

⇒ Ay = A(x0 + x) = Ax0 + Ax ⇒ Ay = b+ 0 = b ⇒ y ∈ L(A, b)

⇒ x0 + L(A, 0 ⊆ L(A, b)

4.3.2.0.1 Beispiel:x1 +2x2 +3x3 = −1.5

2x2 +6x3 = 0

1) Allgemeine Lösung des homogenen Gleichungssystem

x1 +2x2 +3x3 = 02x2 +6x3 = 0 ⇒ x2 = −3x3 ⇒ x1 = 3x2

L(A, 0) = {x ∈ R3 | x1 = 3x3, x2 = −3x3} =

3x3−3x3x3

∣∣∣∣∣∣x3 ∈ R

L(A, 0) = lin

3−31

2) Spezielle Lösung des inhomogenen Gleichungssystem−1.500

3) Allgemeine Lösung des inhomogenen Gleichungssystem

L

(A,

(−1.50

))=

−1.500

+ lin

3−31

d.h. x ∈ R3 ist Lösung ⇔

x =

x1x2x3

=

−1.5 + 3λ0− 3λ0 + 1λ

, λ ∈ R

Page 84: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

70 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

4.3.3 Lösbarkeitskriterium

Das Gleichungssystem Ax = b ist lösbar genau dann, wenn Rang (A) = Rang (A|b).(A|b) heißt erweiterte Koeffizientenmatrix.

Beweis:

Sei A = (s1, . . . , sn), sj ∈ Rn, dann ist RangA = dim lin(s1, . . . , sn).

Rang(A|b) = dim lin(s1, . . . , sn, b)

x ∈ L(A, b) ⇔ Ax = b⇔ b =n∑

j=1

xjsj ⇔ b ∈ lin(s1, . . . , sn)

⇔ lin(s1, . . . , sn) = lin(s1, . . . , sn, b) ⇔ RangA = Rang(A|b)In unserem Beispiel:

Rang

(1 2 30 2 6

)= 2 = Rang

(1 2 3 | 1.50 2 6 | 0

)⇒ Gleichungssystem lösbar

aber:x1 +2x2 +3x3 = −1.5

+2x2 +6x3 = 0x1 −3x3 = 0.5

Rang

1 2 30 2 61 0 −3

= Rang

1 2 30 2 60 −2 −6

= 2

Rang

1 2 3 | −1.50 2 6 | 01 0 −3 | 0.5

= Rang

1 2 3 | −1.50 2 6 | 00 −2 −6 | 2

= Rang

1 2 3 | −1.50 2 6 | 00 0 0 | 2

= 3

⇒ Gleichungssystem ist unlösbar

4.3.4 Dimension des Lösungsraumes

dim (L(A, 0)) = n− RangA (= Rangdefekt von A)

denn mit fA : Rn → Rm (definiert durch fA(x) = Ax) gilt:

Rang(A) = dim(Bild(fA))

undL(A, 0) = {x ∈ Rn | fA(x) = 0} = Kern(fA)

Nach Dimensionsformel für lineare Abbildungen:

n = dimRn = dim(Kern(fA)) + dim(Bild(fA))

Page 85: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.3. LINEARE GLEICHUNGSSYSTEME 71

4.3.4.0.1 Folgerungen:

a) Gleichungssystem Ax = b ist für alle b ∈ Rm lösbar

⇔ RangA = m (= Anzahl der Gleichungen)

Beweis: Für beliebiges b ∈ Rm gilt:

Ax = b lösbar ⇔ RangA = Rang(A|b)⇔ dim lin(s1, . . . , sn) = dim lin(s1, . . . , sn, b)

⇔ lin(s1, . . . , sn) = lin(s1, . . . , sn, b) = Rm ⇔ RangA = m

b) Unter der Voraussetzung, dass Ax = b lösbar ist, gilt:

Lösung ist eindeutig ⇔ RangA = n (= Anzahl der Unbekannten)

Beweis:

Lösung von Ax = fA(x) = b eindeutig ⇔ fA injektiv

⇔ Kern(fA) = {0} ⇔ dimL(A, 0) = 0 ⇔ n = RangA

In unserem Beispiel:

Rang

(1 2 30 2 6

)= 2

so Gleichungssystem für alle Vektoren

(b1b2

)lösbar, aber nicht eindeutig,

weil Rang(. . .) < 3.

4.3.5 Gaußscher Algorithmus zum Lösen linearer Gleichungssys-teme

1. Schritt: Ordne Ax = b das rechteckige Schema (A|b) zu und führe elementare Zeilenum-formungen gemäß Gaußschem Algorithmus durch.

Dabei ändert sich L(A, b) nicht.

2. Schritt: Sind alle ai,k+1 = 0 für i = k + 1, . . . , m, so müssen die letzten n − k Spaltenvon A getauscht werden, um ein Pivotelement a′k+1,k+1 6= 0 zu finden.

Achtung! Spaltenvertauschung entspricht Vertauschung der Reihenfolge der Un-bekannten x1, . . . , xn, was registriert werden muss!

A =

a11 · · · ⋆...

. . ....

0 · · · akk

0

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

B

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

b′

Page 86: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

72 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Falls B 6= 0, gehe zu 1. Schritt.

3. Schritt: Verfahren endet mit Matrix(D M0 0

b′′)

(4.3.5.5)

wobei

D =

a′11 ∗ ∗ ∗0

. . . ∗ ∗...

. . . . . . ∗0 . . . 0 a′rr

, a′ii 6= 0 für i = 1, . . . r ,

D ∈ Rr×r (obere Dreiecksmatrix), M = (mij) ∈ Rr×(n−r)

Lösbarkeitskriterium: Ist b′′r+1 = . . . = b′′m = 0, so ist r = Rang (A) = Rang (A|b)und Gleichungssystem lösbar, andernfalls unlösbar.

4. Schritt: Interpretiere das Schema (4.3.5.5) als Gleichungssystem in den Unbekannten

y1, . . . , yr, zr+1, . . . , zn

welche aus x1, . . . , xn durch die entsprechenden Vertauschungen hervorgehen.

Dy +Mz = b′′

Setze zj = λj, j = r + 1, . . . , n, λj ∈ R (freie Parameter) und bestimme

y =

y1...yr

als Lösung des Gleichungssystem

Dy = b′′ −Mλ

und zwar durch Rückwärtseinsetzen (Rückwärtssubstitution) beginnend mit derletzten Zeile.

yr =1

a′rr

(b′′r −

m∑

j=r+1

mrjλj

)

Einsetzen von yr in (r − 1)-te Zeile liefert yr−1 gemäß

a′r−1,r−1yr−1 + a′r−1,ryr = b′′r−1 −m∑

j=r+1

mr−1,jλj

also yr−1 =1

a′(r−1),(r−1)

(b′′r−1 −

m∑

j=r+1

mr−1,jλj −a′r−1,r

a′r,r

(b′′r −

m∑

j=r+1

mrjλj

))

usw. bis y1 = . . ..

Page 87: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.3. LINEARE GLEICHUNGSSYSTEME 73

4.3.5.0.1 Bemerkung: Durch Umnummerierung der Variablen lässt sich Lösung desGleichungssystem schreiben als

x = x0 + λr+1v1 + λr+2v2 + . . . λnvn−r

4.3.5.0.2 Beispiel:

x1 +2x2 +x3 +x4 +x5 = 2−x1 −2x2 −2x3 +2x4 +x5 = 32x1 +4x2 +3x3 −x4 = −1x1 +2x2 +2x3 −2x4 +x5 = 2

x1 x2 x3 x4 x51 2 1 1 1 2

−1 −2 −2 2 1 32 4 3 −1 0 −11 2 2 −2 1 2

→1 2 1 1 1 20 0 −1 3 2 50 0 1 −3 −2 −50 0 1 −3 0 0

x1 x3 x2 x4 x51 1 2 1 1 20 1 0 −3 −2 −50 1 0 −3 −2 −50 1 0 −3 0 0

→1 1 2 1 1 20 1 0 −3 −2 −50 0 0 0 0 00 0 0 0 2 5

x1 x3 x5 x4 x21 1 1 1 2 20 1 −2 −3 0 −50 0 2 0 0 50 0 0 0 0 0

x1 +x3 +x5 +x4 +2x2 = 2+x3 −2x5 −3x4 = −5

+2x5 = 5

Setze x4 = λ, x2 = µ. Durch Rückwärtseinsetzen ergibt sich

x5 =5

2

x3 = −5 + 25

2+ 3λ = 3λ

x1 = 2− 3λ− 5

2− λ− 2µ = −1

2− 4λ− 2µ

x1x2x3x4x5

=

−12

00052

+ λ

−40310

+ µ

−21000

mit λ, µ ∈ R

Page 88: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

74 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

4.3.6 Numerische Lösung linearer Gleichungssysteme

Der Gaußsche Algorithmus liefert uns theoretisch in endlich vielen Schritten die exakteLösung des linearen Gleichungssystems Ax = b. Trotzdem ist bei Umsetzung dieses Algo-rithmus auf dem Computer das Ergebnis i.A. mit Ungenauigkeiten behaftet, weil der Rech-ner intern die arithmetischen Operationen nur annähernd genau (mit Gleitkommazahlen)ausführen kann. Die Genauigkeit der Lösung(snäherung) ist insbesondere empfindlich ge-genüber Rundungsfehlern in den Eingangsdaten, weil stets Divisionen durch eventuell sehrkleine oder sehr große Zahlen durchgeführt werden müssen. Außerdem wächst der Aufwandan arithmetischen Operationen proportional zu n3, wenn n die Anzahl der Unbekanntenist. Deshalb sind numerische Verfahren entwickelt worden, die zwar von vorn herein nurNäherungslösungen liefern, jedoch weniger Rechenaufwand erfordern und nicht so anfälliggegenüber Rundungsfehlern sind.

4.3.6.0.1 Idee: Umformung des Gleichungssystems Ax = b mit quadratischer Koeffi-zientenmatrix A = (aij)i,j=1,...,n in ein Fixpunktproblem

Ax = b ⇔ P−1(Ax− b) = 0 , (P reguläre Matrix)

⇔ x = (E − P−1A)x+ P−1b

⇔ x =Mx + c (4.3.6.6)

mit M := E − P−1A , c = P−1b .

Gleichung (4.3.6.6) heißt Fixpunktgleichung, und x ist ein Fixpunkt der Abbildung f :Rn → Rn mit f(x) :=Mx + c. (4.3.6.6) wird gelöst durch sukzessive Iterationen:

x(k+1) =Mx(k) + c , k = 0, 1, . . . mit Startvektor x(0). (4.3.6.7)

4.3.6.0.2 Bemerkung: Die Matrix P heißt Präkonditionierer und soll so gewählt wer-den, dass

i) Gleichungssystem (4.3.6.7) ⇔ Px(k+1) = (P − A)x(k) + b möglichst einfach lösbarist,

ii) Iterationen (x(k)) bei jeder Wahl des Startvektors x(0) “möglichst schnell” gegen dieLösung x der Fixpunktgleichung (4.3.6.6) konvergieren.

4.3.6.1 Wahl von P

a) Einfachster Fall: P = I, d.h. M = I − A

x(k+1) = x(k) − Ax(k) + b (Richardson-Verfahren)

Page 89: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.3. LINEARE GLEICHUNGSSYSTEME 75

b) Nächsteinfacher Fall: P = D mit regulärer Diagonalmatrix D. Dazu zerlegt man

A = AL+AD+AR :=

0 0 . . . 0∗ 0 . . . 0...

. . . . . . 0∗ . . . ∗ 0

+

a11 0 . . . 00 a22 . . . 0...

. . . . . . 00 . . . 0 ann

+

0 ∗ . . . ∗0 0 . . . ∗...

. . . . . . ∗0 . . . 0 0

AL – linke untere Dreiecksmatrix, AR – rechte obere Dreiecksmatrix, AD – Diagonal-matrix.Mit P = AD ergibt sich M = E − A−1

D A = −A−1D (AL + AR) und somit

x(k+1) = −A−1D (AL + AR)x

(k) + A−1D b

(Jacobi-Verfahren oder Gesamtschritt-Verfahren)

oder ausführlich in Koordinaten

x(k+1)i = −

n∑

j=1,j 6=i

aijaiix(k)j +

biaii

, i = 1, . . . , n ; k = 0, 1, . . . .

c) P = AL + AD aus der Zerlegung A = AL + AD + AR. Damit ergibt sich M =E − (AL + AD)

−1A = −(AL + AD)−1AR und

x(k+1) = −(AL + AD)−1ARx

(k) + (AL + AD)−1b

m(AL + AD)x

(k+1) = −ARx(k) + b

mx(k+1) = −A−1

D

(ALx

(k+1) + ARx(k))+ A−1

D b

oder ausführlich in Koordinaten

x(k+1)i = −

i−1∑

j=1

aijaiix(k+1)j −

n∑

j=i+1

aijaiix(k)j +

biaii

, i = 1, . . . , n ; k = 0, 1, . . . .

Im Unterschied zum Jacobi-oder Gesamtschritt-Verfahren werden hier also bei derBerechnung der Komponente x(k+1)

i der (k + 1)-ten Näherung nicht nur die Kom-ponenten der vorhergehenden Näherung x(k) verwendet, sondern auch die bereitsberechneten neuen Komponenten x

(k+1)1 , . . . , x

(k+1)i−1 .

(Gauß-Seidel-Verfahren oder Einzelschritt-Verfahren)

Page 90: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

76 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

4.3.6.1.1 Konvergenzsatz: II Gilt für die Koeffizientenmatrix A = (aij) (nach even-tuellen Zeilen- oder Spaltenvertauschungen) die Ungleichung

maxi=1,...,n

n∑

j=1,j 6=i

|aij||aii|

< 1

(A heißt dann zeilenweise strikt diagonaldominant),

so konvergiert die vom Gesamtschritt-Verfahren oder vom Einzelschritt-Verfahren erzeugteFolge von Iterationen (x(k)) bei beliebiger Wahl des Startvektors x(0) gegen die Lösung xdes des linearen Gleichungssystems Ax = b.

4.4 Determinanten

Die Theorie des Determinanten ist ältester Teil der linearen Algebra. Heute: WichtigesUnterschuchungsmittel für Matrizen; große Bedeutung auch bei anderen mathematischenFragestellungen.

4.4.0.1.1 Zur Erinnerung:

• Permutation π ist bijektive Abbildung: Nn → Nn,Nn = {1, . . . , n}

• Menge aller Permutationen bildet Gruppe Sn

• sig(π) = (−1)Anzahl der Fehlstände in π

4.4.1 Definition einer Determinante (nach G.W. Leibniz III)

Sei A = (aij)i,j=1,...,n ∈ Rn×n, d.h. eine quadratische Matrix. Dann heißt

Det(A) =

∣∣∣∣∣∣∣∣∣

a11 a12 . . . a1na21 a22 . . . a2n...

......

an1 an2 . . . ann

∣∣∣∣∣∣∣∣∣=

(n! Sum-manden)∑

π∈Sn

sig(π)a1,π(1) · a2,π(2) · . . . · an,π(n) (4.4.1.8)

die Determinante von A.

IIGenaueres und Beweis in Lehrbüchern zur NumerikIII(1646-1716)

Page 91: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.4. DETERMINANTEN 77

4.4.1.0.1 Beispiele:

i) Determinante einer 2-reihigen Matrix

S2 :

(1 21 2

)

(gerade)

,

(1 22 1

)

(ungerade)

∣∣∣∣a11 a12a21 a22

∣∣∣∣ = (+1)a11a22 + (−1)a12a21 = a11a22 − a12a21

ii) Determinante einer 3-reihigen Matrix

S3 :

(1 2 31 2 3

),

(1 2 32 3 1

),

(1 2 33 1 2

)

︸ ︷︷ ︸(gerade)

,

(1 2 33 2 1

),

(1 2 31 3 2

),

(1 2 32 1 3

)

︸ ︷︷ ︸(ungerade)

a11 a12 a13 a11 a12a21 a22 a23 a21 a22a31 a32 a33 a31 a32

= a11a22a33 + a12a23a31 + a13a21a32 − a13a22a31 − a11a23a32 − a12a21a33

(Regel von Sarrus IV)

iii)

DetEn =

∣∣∣∣∣∣∣

1 0. . .

0 1

∣∣∣∣∣∣∣=∑

π∈Sn

sig(π) δ1,π(1)δ2,π(2) . . . δn,π(n)︸ ︷︷ ︸6=0⇔δi,π(i)=1 für alle i=1,...,n

δij =

{1 für i = j

0 für i 6= j

δi,π(i) = 1 ⇔ i = π(i) ⇔ π = idNn

⇒ DetEn = (+1)δ11δ22 . . . δnn = 1

4.4.2 Eigenschaften von Det(A)

1) (Elementare Umformungen vom Typ 2) Homogenität in i-ter Zeile∣∣∣∣∣∣∣∣∣∣∣

z1...λzi...zn

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣

a11 . . . a1n...

...λai1 . . . λain

......

an1 . . . ann

∣∣∣∣∣∣∣∣∣∣∣

= λ

∣∣∣∣∣∣∣∣∣∣∣

a11 . . . a1n...

...ai1 . . . ain...

...an1 . . . ann

∣∣∣∣∣∣∣∣∣∣∣

= λ

∣∣∣∣∣∣∣∣

z1. . .zizn

∣∣∣∣∣∣∣∣

IV(1798-1858)

Page 92: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

78 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

2) Additivität in i-ter Zeile∣∣∣∣∣∣∣∣∣∣∣

z1...

zi + z′i...zn

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣

a11 . . . a1n...

...ai1 + a′i1 . . . ain + a′in

......

an1 . . . ann

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣

a11 . . . a1n...

...ai1 . . . ain...

...an1 . . . ann

∣∣∣∣∣∣∣∣∣∣∣

+

∣∣∣∣∣∣∣∣∣∣∣

a11 . . . a1n...

...a′i1 . . . a′in...

...an1 . . . ann

∣∣∣∣∣∣∣∣∣∣∣

3) Sind in A zwei Zeilen gleich, etwa zk = zl und k < l, so ist DetA = 0.

Denn

A =(4.4.1.8)

π∈Gn

sig(π)a1,π(1) . . . an,π(n) +∑

π∈Un

sig(π)a1,π(1) . . . an,π(n)

daSn = Gn ∪ Un, Gn ∩ Un = ∅

Gn = {π ∈ Sn | sig(π) = 1}, Un = {π ∈ Sn | sig(π) = −1}Benutze die Transposition

τ :

(1 . . . k . . . l . . . n1 . . . l . . . k . . . n

), sig(τ) = −1

Un = {σ ◦ τ | σ ∈ Gn}⇒ DetA =

π∈Gn

(+1)a1,π(1) . . . an,π(n) +∑

σ∈Gn

(−1)a1,σ(τ(1)) . . . an,σ(τ(n))

Es ist a1,σ(τ(1)) . . . an,σ(τ(n)) = a1,σ(1) . . . ak,σ(l)=al,σ(l)

. . . al,σ(k)=ak,σ(k)

. . . an,σ(n)

(weil ak,j = al,j für alle j = 1, . . . , n)

DetA =∑

π∈Gn

a1,π(1) . . . an,π(n) −∑

σ∈Gn

a1,σ(1) . . . an,σ(n) = 0

4) Det(A) = Det(AT ), denn AT = (aij), aij = aji

Det(AT ) =(4.4.1.8)

π∈Sn

sig(π)a1,π(1) . . . an,π(n) =∑

π∈Sn

sig(π)aπ(1),1 . . . aπ(n),n

(Setze π(i) = j ⇔ i = π−1(j))

Det(AT ) =∑

π∈Sn

sig(π)︸ ︷︷ ︸=sig(π−1)

a1,π−1(1) . . . a1,π−1(n)

(Setze π−1 = σ)

⇒∑

σ∈Sn

sig(σ)a1,σ(1) . . . an,σ(n) =(4.4.1.8)

DetA

Page 93: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.4. DETERMINANTEN 79

4.4.2.1 Folgerungen

a) Hat A eine Nullzeile, so ist DetA = 0

(siehe Eigenschaft 1)

b) Det(λA) = λnDetA

(Anwendung von Eigenschaft 1) nacheinander für die Zeilen z1, . . . , zn von A)

c) (Elementare Umformungen vom Typ 1)

Vertauscht man in A zwei Zeilen, so ändert sich das Vorzeichen von Det(A), genauer:

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...zl...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

= −

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zl...zk...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

, k < l ,

denn bilde

B =

z1...

zk + zl...

zk + zl...zn

so ist DetB =3)

0

0 =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...

zk + zl...

zk + zl...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

=2)

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...

zk + zl...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

+

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zl...

zk + zl...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

=2)

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...zk...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣︸︷︷︸

=0 (s. 3)

+

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...zl...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

+

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zl...zk...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

+

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zl...zl...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣︸︷︷︸

=0 (s. 3)

Page 94: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

80 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

d) (Elementare Umformungen vom Typ 3)

Bei Addition des Vielfachen einer Zeile von A zu einer anderen Zeile ändert sichDetA nicht, d.h. ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...

zl + λzk...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...zl...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

denn ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...

zl + λzk...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

=2)

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...zl...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

+

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...λzk...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

= DetA+ λ

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

z1...zk...zk...zn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣︸︷︷︸

=0 (s. 3)

e) Gleiche Rechenregeln für Determinante gelten auch bei Spalten (wegen Eigenschaft 4).

f) Man kann Gaußschen Algorithmus anwenden, um eine Matrix einfacher Struktur zuerhalten, deren Determinante leicht zu berechnen ist.

4.4.2.1.1 Determinante einer oberen Dreiecksmatrix: Sei D ∈ Rn×n der Gestalt

D =

d11 d12 . . . d1n0 d22 . . . d2n...

. . ....

0 . . . 0 dnn

so ist

DetD = d11d22 . . . dnn =

n∏

i=1

dii

Beweis:

In (4.4.1.8) leisten nur solche Summanden

sig(π)d1,π(1) . . . dn,π(n)

Page 95: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.4. DETERMINANTEN 81

einen Beitrag, für die di,π(i) 6= 0 für alle i = 1, . . . , n.

Für π ∈ Sn, π 6= idNngibt es i ∈ {1, . . . , n} =: Nn mit der Eigenschaft π(i) < i.

⇒ di,π(i) = 0

DetD =(4.4.1.8)

π∈Sn

sig(π)d1,π(1) . . . dn,π(n) = sig(idNn)︸ ︷︷ ︸

=1

d11 . . . dnn + 0

4.4.2.1.2 Beispiel:

∣∣∣∣∣∣∣∣

0 2 −1 22 0 3 −5−1 4 2 13 0 2 0

∣∣∣∣∣∣∣∣= −

∣∣∣∣∣∣∣∣

2 0 −1 20 2 3 −54 −1 2 10 3 2 0

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

2 0 −1 24 −1 2 10 2 3 −50 3 2 0

∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣

2 0 −1 20 −1 4 −30 2 3 −50 3 2 0

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

2 0 −1 20 −1 4 −30 0 11 −110 0 14 −9

∣∣∣∣∣∣∣∣= 11

∣∣∣∣∣∣∣∣

2 0 −1 20 −1 4 −30 0 1 −10 0 14 −9

∣∣∣∣∣∣∣∣

= 11

∣∣∣∣∣∣∣∣

2 0 −1 20 −1 4 −30 0 1 −10 0 0 5

∣∣∣∣∣∣∣∣= 11 · 2 · (−1) · 1 · 5 = −110

4.4.3 Multiplikationssatz

Für A,B ∈ Rn×n, B = (bij) gilt

Det(AB) = DetA · DetB

Beweis:

Page 96: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

82 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Setze C := AB =

c1...cn

, ci =

∑nj=1 aijbj für i = 1, . . . , n mit B =

b1...bn

.

DetC =

∣∣∣∣∣∣∣∣∣∣∣

∑nj=1 a1jbjc2c3...cn

∣∣∣∣∣∣∣∣∣∣∣

=2)

n∑

j=1

a1j

∣∣∣∣∣∣∣∣∣∣∣

bjc2c3...cn

∣∣∣∣∣∣∣∣∣∣∣

=2)

n∑

j=1

n∑

k=1

a1ja2k

∣∣∣∣∣∣∣∣∣∣∣

bjbkc3...cn

∣∣∣∣∣∣∣∣∣∣∣= · · ·

=n∑

j1=1

n∑

j2=1

. . .n∑

jn=1

a1j1a2j2 . . . anjn

∣∣∣∣∣∣∣∣∣

bj1bj2...bjn

∣∣∣∣∣∣∣∣∣=∑

π∈Sn

a1,π(1) . . . an,π(n)

∣∣∣∣∣∣∣

bπ(1)...

bπ(n)

∣∣∣∣∣∣∣

weil jeder Summand verschwindet, in der zwei Zeilen gleich sind (nach Rechenregel 3).

Durch Vertauschen der Zeilen erhält man

∣∣∣∣∣∣∣

b1...bn

∣∣∣∣∣∣∣. Dabei ändert sich Vorzeichen der Determi-

nante genau so oft, wie es Fehlstände in π gibt.

DetD =∑

π∈Sn

a1,π(1) . . . an,π(n)sig(π)

∣∣∣∣∣∣∣

b1...bn

∣∣∣∣∣∣∣︸︷︷︸DetB

=(4.4.1.8)

DetA · DetB

4.4.3.0.1 Determinante einer regulären (invertierbaren) Matrix: SeiA ∈ Rn×n.Dann sind folgende 3 Aussagen äquivalent:

a) A ist invertierbar ⇔ b) RangA = n ⇔ c) DetA 6= 0

Beweis:

i) a) ⇔ fA : Rn → Rn ist Isomorphismus ⇔ dim Bild(fA)︸ ︷︷ ︸=RangA

= dimRn = n ⇔ b)

ii) Aus a) folgt: Es gibt A−1 ∈ Rn×n mit A−1A = En. Mit Multiplikationssatz ergibt sich

Det(A−1) · DetA = Det(A−1A) = DetEn = 1

⇒ DetA 6= 0, d.h. c)

Page 97: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.4. DETERMINANTEN 83

iii) Sei RangA < n, so sind die Zeilen z1, . . . , zn von A linear abhängig. O.B.d.A. seizn =

∑n−1i=1 λizi. Dann ist

DetA =

∣∣∣∣∣∣∣∣∣

z1...

zn−1∑n−1i=1 λizi

∣∣∣∣∣∣∣∣∣=

n−1∑

i=1

λi

∣∣∣∣∣∣∣∣∣

z1...

zn−1

zi

∣∣∣∣∣∣∣∣∣=3)

n−1∑

i=1

λi · 0 = 0

also c) ⇒ b).

4.4.3.0.2 Ergänzung: Aus ii) folgt:

Det(A−1) =1

DetA

4.4.4 Adjungierte Matrix

4.4.4.0.1 Definition: Sei A = (aij) ∈ Rn×n, so bezeichnet man mit Akl ∈ R(n−1)×(n−1)

diejenige Matrix, welche durch Streichen der k-ten Zeile und l-ten Spalte aus A entsteht.

Dann gilt der

4.4.4.1 Laplacesche Entwicklungssatz (Laplace 1749-1827)

• Entwicklung nach k-ter Zeile

DetA =n∑

j=1

(−1)k+jakjDet(Akj)

• Entwicklung nach l-ter Spalte

DetA =

n∑

i=1

(−1)i+lailDet(Ail)

Beweis: (s. Eisenreich, S.174 ff.)

Page 98: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

84 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

4.4.4.1.1 Anwendung: Für n ≥ 4 kann man diese Formeln zur rekursiven Berechnungvon DetA benutzen, insbesondere dann, wenn in einer Zeile oder Spalte von A viele Nullenauftreten.

4.4.4.1.2 Beispiel:

DetA =

∣∣∣∣∣∣∣∣

2 1 0 −24 −1 2 02 1 0 −12 0 3 5

∣∣∣∣∣∣∣∣= 0 + (−1)3+2 · 2

∣∣∣∣∣∣

2 1 −22 1 −12 0 5

∣∣∣∣∣∣+ 0 + (−1)4+3 · 3

∣∣∣∣∣∣

2 1 −24 −1 02 1 −1

∣∣∣∣∣∣

= −2

((−1)1+2 · 1

∣∣∣∣2 −12 5

∣∣∣∣+ (−1)2+2 · 1∣∣∣∣2 −22 5

∣∣∣∣)

− 3

((−1)2+1 · 4

∣∣∣∣1 −21 −1

∣∣∣∣ + (−1)2+2 · (−1)

∣∣∣∣2 −22 −1

∣∣∣∣)

= −2 (−(2 · 5− (−1) · 2) + (2 · 5− (−2) · 2))− 3 (−4 · ((−1) · 1− 1 · (−2))− (2 · (−1)− (−2) · 2))

= 14

4.4.4.2 Definition der adjungierten Matrix

Die zu A adjungierte Matrix (auch Adjunktenmatrix ) ist

Adj(A) = (aij)i,j=1,...,n mit aij = (−1)i+j · Det(Aji) .

4.4.4.2.1 Satz:A · Adj(A) = Det(A) · En

Beweis:

A · Adj(A) =

(n∑

j=1

akjajl

)

k,l=1,...,n

=

n∑

j=1

akj(−1)j+l · Det(Alj)

︸ ︷︷ ︸=:ckl

⇒ ckl =

∣∣∣∣∣∣∣∣∣∣∣

z1...zk...zn

∣∣∣∣∣∣∣∣∣∣∣

(l-te Zeile) , zk = (ak1, . . . , akn)

ckl =

{0 für k 6= l (da 2 Zeilen gleich)

DetA für k = l (nach Entwicklungssatz)

Page 99: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

4.4. DETERMINANTEN 85

alsockl = DetA · δkl

A · Adj(A) = DetA · (δkl)k,l=1,...,n = DetA · En

4.4.4.2.2 Folgerung: Explizite Formel für inverse Matrix, falls A regulär ist:

A−1 =1

DetA· Adj(A) .

4.4.4.2.3 Anwendung: Im Spezialfall eines quadratischen linearen GleichungssystemsAx = b mit regulärer Koeffizientenmatrix A ∈ Rn×n ist dessen Lösung gegeben durch

x = A−1b =1

DetAAdj(A) b

d.h. xi =1

DetA

n∑

j=1

(−1)i+jDet(Aji)bj

=1

DetADet (s1, . . . , si−1, b, si+1, . . . , sn) für i = 1, . . . , n ,

wenn s1, s2, . . . , sn ∈ Rn die Spalten von A sind. Diese Formel heißt Cramersche Regel(Cramer 1704-1752) und ergibt sich durch Entwicklung der Determinante der Matrix

Bi := (s1, . . . , si−1, b, si+1, . . . , sn)

nach der i-ten Spalte.

Page 100: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

86 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Page 101: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Kapitel 5

Euklidische Vektorräume

5.1 Skalarprodukte

Motivation: Beim Studium geometrischer Objekte, wo es um Winkel oder Längen geht, rei-chen die Daten aus der Theorie der Vektorräume nicht aus. Wir benötigen eine zusätzlicheStruktur zur Beschreibung der „metrischen“ (oder Euklidischen) Geometrie. Diese Struk-tur ist das Skalarprodukt, welches eine symmetrische, positiv definite Bilinearform auf demVektorraum V darstellt.

5.1.1 Definition des Skalarprodukts

Sei V ein Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung

V × V → R

(v, w) 7→ 〈v, w〉wenn für alle v, v′, w, w′ ∈ V und alle λ ∈ R gilt:

• Bilinearität:

〈v + v′, w〉 = 〈v, w〉+ 〈v′, w〉 〈λv, w〉 = λ 〈v, w〉〈v, w + w′〉 = 〈v, w〉+ 〈v, w′〉 〈v, λw〉 = λ 〈v, w〉

• Symmetrie〈v, w〉 = 〈w, v〉

• Positive Definitheit〈v, v〉 > 0 für alle v 6= 0

Ist auf V eine Skalarprodukt definiert, so heißt V Euklidischer Vektorraum.

87

Page 102: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

88 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

5.1.1.0.1 Bemerkungen:

i) Bei einer festgehaltenen Komponente ist das Skalarprodukt eine lineare Abbildungbezüglich der anderen Komponente.

ii) Wegen Symmetrie reicht die Forderung der Linearität bezüglich einer Komponente.

iii) 〈0, w〉 = 〈0 · v, w〉 = 0 · 〈v, w〉 = 0 (wegen Homogenität)

5.1.1.0.2 Beispiel: V = Rn: Standardskalarprodukt

v, w ∈ Rn, v =

v1...vn

, w =

w1...wn

〈v, w〉 =n∑

i=1

viwi = vTw =(v1 · · · vn

)w1...wn

Daneben gibt es noch unendlich viele Möglichkeiten ein Skalarprodukt auf dem Rn zudefinieren, nämlich

(v, w) 7→ 〈Av,Aw〉 = (Av)TAw = vTATAw =n∑

i,j,k=1

viaijajkwk

mit einer festen regulären Matrix A = (aij)i,j=1,...,n.

5.1.2 Euklidische Norm

5.1.2.0.1 Definition: Ist V ein Euklidischer Vektorraum mit dem Skalarprodukt 〈·, ·〉,so versteht man unter der Euklidischen Norm von v ∈ V die reelle nichtnegative Zahl

||v|| :=√

〈v, v〉

5.1.2.0.2 Spezialfall: V = Rn: Standardnorm

||v|| =

√√√√n∑

i=1

v2i =√v21 + v22 + . . .+ v2n

Page 103: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.1. SKALARPRODUKTE 89

||v||

v =

(v1v2

)

v1 x1

x2

v2

(Verallgemeinerung der „Länge eines Vektors“)

5.1.3 Cauchy-Schwarzsche UngleichungI

In jedem Euklidischen Vektorraum gilt

| 〈v, w〉 | ≤ ||v|| · ||w|| (5.1.3.1)

für alle v, w ∈ V .

Beweis:

a) Für w = 0 klar.

b) Sei w 6= 0. Dann gilt〈v − λw, v − λw〉 ≥ 0

für beliebiges λ ∈ R.〈v, v〉 − 2λ 〈v, w〉+ λ2 〈w,w〉

Mit λ = 〈v,w〉||w||2 folgt

||v||2 − 2〈v, w〉||w||2 〈v, w〉+ 〈v, w〉2

||w||4 ||w||2 ≥ 0 ⇒ ||v||2 − 〈v, w〉2||w||2 ≥ 0

⇒ | 〈v, w〉 | ≤ ||v||2||w||2

5.1.3.1 Folgerungen

1. Eigenschaften der Norm als Abbildung: V → R

Positive Definitheit:

a) ||v|| ≥ 0 für v ∈ V

I(Cauchy 1789-1857, Schwarz 1843-1921)

Page 104: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

90 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

b) ||v|| = 0 ⇔ v = 0

Homogenität:

c) ||λv|| = |λ| · ||v|| für λ ∈ R, v ∈ V , denn

||λv||2 = 〈λv, λv〉 = λ2 〈v, v〉 = λ2||v||2

Dreiecksungleichung:

d) ||v + w|| ≤ ||v||+ ||w|| für v, w ∈ V , denn

||v + w||2 = 〈v + w, v + w〉 = 〈v, v〉︸ ︷︷ ︸=||v||2

+2 〈v, w〉︸ ︷︷ ︸≤||v||·||w||

+ 〈w,w〉︸ ︷︷ ︸=||w||2

≤ ||v||2 + 2||v|| · ||w||+ ||w||2 = (||v||+ ||w||)2

Zum Namen „Dreiecksungleichung“:

Seien A,B,C die Eckpunkte eines Dreiecks, dann A = 0 + a, B = 0 + b, C = 0 + c

B

a

b

c

v

v + w

wA

C

0

x2

x1

|AB| = ||v||, v = a− b

|AC| = ||w||, w = c− a

|BC| = ||w + v|| = ||c− b||

Die Dreiecksungleichung besagt

|BC| = ||v + w|| ≤ ||v||+ ||w|| = |AB|+ |AC|

Page 105: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.1. SKALARPRODUKTE 91

2. Für v 6= 0, w 6= 0 kann man den Winkel α = α(v, w) zwischen v und w erklären durch

cosα =〈v, w〉

||v|| · ||w|| mit α ∈ [0, π]

denn (5.1.3.1) liefert

∣∣∣∣〈v, w〉

||v|| · ||w||

∣∣∣∣ ≤ 1 ⇔ −1 ≤ 〈v, w〉||v|| · ||w|| ≤ 1

und cos-Funktion ist bijektive Abbildung

[0, π] → [−1, 1]

-1.5

-1

-0.5

0

0.5

1

1.5

0 0.5 1 1.5 2 2.5 3

cos(x)

5.1.3.1.1 Geometrische Deutung des Standardskalarprodukts in R2:

〈v, w〉 = ||v|| · ||w|| · cosα, v =

(v1v2

), w =

(w1

w2

)

v1w1 + v2w2 =√v21 + v22 ·

√w2

1 + w22 · cosα

Page 106: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

92 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

α

x1

||v||v

s

w

||w||

x2

Aus Schulgeometrie:

cosα =s

||w||

〈v, w〉||v|| · ||w|| =

s

||w|| ⇒ 〈v, w〉 = s · ||v||

5.1.4 Kriterium für lineare Unabhängigkeit in Euklidischem Vek-torraum

v1, . . . , vr ∈ V sind linear unabhängig ⇔ G := (〈vi, vj〉)i,j=1,...,r ∈ Rr×r ist regulär

(G heißt Gramsche Matrix, nach J.A. Gram (1850-1916))

Beweis:Wir zeigen:

v1, . . . , vr linear abhängig ⇔ G nicht regulär ⇔ DetG = 0 ⇔ RangG < r

a) (⇒) Sei λ1v1 + . . .+ λrvr = 0 eine nichttriviale Nullrelation, d.h.∑r

j=1 λ2j > 0.

r∑

j=1

λj 〈vi, vj〉 =⟨vi,

r∑

j=1

λjvj

⟩= 0 für i = 1, . . . , r (5.1.4.2)

Das ist nichttriviale Nullrelation der Spalten

sj = (〈v1, vj〉 , 〈v2, vj〉 , . . . , 〈vr, vj〉)T

von G, also s1, . . . , sr linear abhängig ⇔ RangG < r.

Page 107: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.2. ORTHOGONALE VEKTOREN 93

b) (⇐) Sei RangG < r ⇔ Es gibt Relation (5.1.4.2) mit∑r

j=1 λ2j > 0. Setze w =∑r

j=1 λjvj , so gilt

〈vi, w〉 = 0 für i = 1, . . . , r ⇒ 0 =r∑

i=1

λi 〈vi, w〉 =⟨

r∑

i=1

λivi

︸ ︷︷ ︸w

, w

⟩= ||w||2 ⇔ w = 0

Das ist lineare Abhängigkeit der Vektoren v1, . . . , vr.

5.2 Orthogonale Vektoren

5.2.1 Definitionen

1. Sei V ein Euklidischer Vektorraum mit dem Skalarprodukt 〈·, ·〉. Dann heißen v, w ∈ Vorthogonal oder senkrecht zueinander (in Zeichen v⊥w), falls 〈v, w〉 = 0 (also falls fürv, w 6= 0 der Winkel α = α(v, w) = π

2ist).

2. v1, . . . , vr ∈ V heißen orthonormal oder Orthonormalsystem, falls ||vi|| = 1 und vi⊥vj =0 für i 6= j, i, j = 1, . . . , r (kurz: 〈vi, vj〉 = δij).

3. Bildet ein Orthonormalsystem v1, . . . , vn eine Basis von V , dann nennt man es Ortho-normalbasis.

5.2.1.0.1 Beispiel: Bezüglich des Standardskalarprodukts bildet die kanonische BasiseT1 , e

T2 , . . . , e

Tn eine Orthonormalbasis des Rn, denn

⟨eTi , e

Tj

⟩= eie

Tj = (0, . . . , 1︸︷︷︸

i-te Stelle

, . . . , 0)

0...1...0

}j-te Stelle = δij

Nach dem Kriterium für die lineare Unabhängigkeit in V ist jedes Orthonormalsystemlinear unabhängig, weil die Gramsche Matrix

G = (〈vi, vj〉)i,j=1,...,r = (δij) = Er ,

also regulär ist.

5.2.1.0.2 Entwicklung nach Orthonormalbasis: Sei v1, . . . , vn eine Orthonormal-basis von V , so gilt für jedes v ∈ V die Entwicklungsformel

v =

n∑

i=1

〈v, vi〉 vi, ||v||2 =n∑

i=1

〈v, vi〉2

Beweis:

Page 108: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

94 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

1) Weil V = lin(v1, . . . , vn), gilt v =∑n

i=1 civi mit ci ∈ R.

〈v, vj〉 =⟨

n∑

i=1

civi, vj

⟩=

n∑

i=1

ci 〈vi, vj〉︸ ︷︷ ︸=δij

= cj · 1 für j = 1, . . . , n

⇒ cj = 〈v, vj〉

2)

||v||2 = 〈v, v〉 =1)

⟨n∑

i=1

〈v, vi〉 vi,n∑

j=1

〈v, vj〉 vj⟩

=

n∑

i,j=1

〈v, vi〉 〈v, vj〉 〈vi, vj〉︸ ︷︷ ︸=δij

=

n∑

i=1

〈v, vi〉 〈v, vi〉

5.2.2 Orthogonale Unterräume

Sei M ⊆ V,M 6= ∅ und

M⊥ := {v ∈ V | 〈v, u〉 = 0 für alle u ∈M}

5.2.2.0.1 Beispiel: M = {(2, 1)}

M⊥ = {(x1, x2) ∈ R2 | (x1, x2)(21

)= 0}

= {(x1, x2) ∈ R2 | 2x1 + x2 = 0} = {(x1,−2x1) | x1 ∈ R} = lin ((1,−2))

x1

x2

210

1

M⊥

M

Page 109: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.2. ORTHOGONALE VEKTOREN 95

5.2.2.1 Eigenschaften von M⊥

a) M⊥ ist stets ein Unterraum von V , denn nach Unterraum-Kriterium überprüfen wir

1. 0 ∈M⊥, weil 〈0, v〉 = 0 für alle v ∈ V

2. Sei v, w ∈M⊥, dann

〈v + w, u〉 = 〈v, u〉︸ ︷︷ ︸=0

+ 〈w, u〉︸ ︷︷ ︸=0

= 0 für u ∈M

somit v + w ∈M⊥.

3. Sei v ∈M⊥, λ ∈ R, denn

〈λv, u〉 = λ 〈v, u〉 = 0 ⇒ λv ∈M⊥

b) Sei U ein Unterraum eines endlich dimensionalen Euklidischen Vektorraums V , dannist U⊥ ein zu U komplementärer Unterraum, d.h.

V = U ⊕ U⊥

(U⊥ heißt orthogonales Komplement zu U .)

Beweis: Wir müssen zeigen

i) U ∩ U⊥ = {0}ii) U + U⊥ = V

zu i) Sei a ∈ U ∩U⊥, so ist a ∈ U⊥, also 〈a, u〉 = 0 für alle u ∈ U . Speziell mit u = afolgt

0 = 〈a, a〉 = ||a||2 ⇔ a = 0

zu ii) Sei dimU = m und U = lin(v1, . . . , vm) und dimV = n > m. Wir ergänzenv1, . . . , vm zu einer Basis v1, . . . , vm, vm+1, . . . , vn von V . Somit gilt für jedesv ∈ V :

v =

n∑

i=1

λivi, λi ∈ R

Wir zeigen dimU⊥ = n−m, denn dann folgt nach Dimensionsformel:

dim(U + U⊥) = dimU + dimU⊥ − dim(U ∩ U⊥)

= m+ (n−m)− 0 = n = dimV ⇒ U + U⊥ = V

Zum Nachweis von dimU⊥ = n−m:

w =

n∑

j=1

xjvj ∈ U⊥ ⇔ 〈vi, w〉 = 0 für i = 1, . . . , m (vi Basisvektoren von U)

Page 110: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

96 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

w ∈ U⊥ ⇔n∑

i=1

〈vi, vj〉xj = 0

⇔〈v1, v1〉x1 + 〈v1, v2〉x2 + . . . + 〈v1, vn〉xn = 0

...〈vm, v1〉x1 + 〈vm, v2〉x2 + . . . + 〈vm, vn〉 xn = 0

(lineares Gleichungssystem aus m Gleichungen in n Unbekannten x1, . . . , xn)

⇒ dimU⊥ = dimL(A, 0) = n− RangA

mit der Koeffizientenmatrix A = (〈vi, vj〉)i = 1, . . . , mj = 1, . . . , n

.

〈v1, v1〉 . . . 〈vm, v1〉...

...〈vm, v1〉 . . . 〈vm, vm〉

ist Gramsche Matrix G zu v1, . . . , vm.

Wegen linearer Unabhängigkeit von v1, . . . , vm ist G regulär, d.h. RangG = m.

⇒ RangA = m, dimU⊥ = n−m

5.2.2.2 Folgerungen

1. Nach Übungsaufgabe lässt sich jedes v ∈ V = U ⊕ U⊥ eindeutig darstellen:

v = u+ w mit u ∈ U , 〈w, u〉 = 0 für alle u ∈ U

2. Hat U eine Orthonormalbasis u1, . . . , um so ist

v =m∑

i=1

〈u, ui〉 ui︸ ︷︷ ︸

=u∈U

+ w︸︷︷︸∈U⊥

mit 〈w, ui〉 = 0 für i = 1, . . . , m ,

denn nach Entwicklungsformel gilt für u ∈ U

u =m∑

i=1

〈u, ui〉 ui

Weiterhin ist〈v, ui〉 = 〈u+ w, ui〉 = 〈u, ui〉+ 〈w, ui〉︸ ︷︷ ︸

=0

= 〈u, ui〉

3. Die zur Zerlegung V = U ⊕ U⊥ gehörende Projektionsabbildung

P = PU : V → U mit P (u+ w) = u für u ∈ U,w ∈ U⊥

heißt Orthogonalprojektion von V auf U (Kern(PU) = U⊥) mit

PU(v) =

m∑

i=1

〈v, ui〉ui .

Page 111: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.2. ORTHOGONALE VEKTOREN 97

5.2.2.2.1 Beispiel:

V = R3, U = lin (b1, b2) mit b1 =

110

, b2 =

−111

und v = 2

√3

001

x2

x3

x1

U⊥ U

b1

b2

w

v

U⊥ = {w ∈ R3 | wTu = 0 für alle u ∈ U}

=

w1

w2

w3

∣∣∣∣∣∣

w1 · 1 + w2 · 1 = 0w1 · (−1) + w2 · 1 + w3 · 1 = 0

=

w1

w2

w3

∣∣∣∣∣∣w2 = −w1, w3 = 2w1

= lin

1−12

︸ ︷︷ ︸w

Page 112: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

98 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

Weil 〈b1, b2〉 = (1, 1, 0)

−111

= 0 ist eine Orthonormalbasis von U gegeben durch

u1 :=b1

||b1||=

1√2

110

, u2 :=

b2||b2||

=1√3

−111

.

⇒ u = PU

2

√3

001

= 〈v, u1〉 u1 + 〈v, u2〉u2 = 0 · u1 + 2 · u2 =

2√3

−111

w = v − u =

2√3

− 2√3

4√3

=

2√3

1−12

5.2.3 Konstruktion einer Orthonormalbasis

Konstruktion einer Orthonormalbasis mittels des Orthonormalisierungsverfahrens nach Er-hard Schmidt (1876-1959). Wir zeigen durch vollständige Induktion, dass aus jeder Menge

Bm := {v1, . . . , vm}

linear unabhängiger Vektoren des Euklidischen Vektorraums V stets ein Orthonormalsys-tem

Cm := {u1, . . . , um}konstruiert werden kann. Dabei gilt:

linBm = linCm

• Induktionsanfang

m = 1, B1 = {v1}, v1 6= 0. Setze u1 := 1||v1||v1.

• Induktionsschritt

Seien∈Bm︷ ︸︸ ︷

v1, . . . , vm, vm+1 ∈ V linear unabhängig. Nach Induktionsvorraussetzung (IV)erhält man aus Bm ein Orthonormalsystem Cm aus m Vektoren u1, . . . , um mitlinBm = linCm =: Um. Dann vm+1 /∈ Um.II

1. Schritt: Zerlege vm+1 orthogonal bezüglich Um

vm+1 = PUmvm+1 + wm+1 mit wm+1 ∈ U⊥

m

IIWäre vm+1 ∈ Um, so wäre vm+1 eine Linearkombination der Vektoren v1, . . . , vm.

Page 113: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.2. ORTHOGONALE VEKTOREN 99

d.h.

wm+1 = vm+1 −m∑

i=1

〈vm+1, ui〉ui ⇒ wm+1 6= 0 (wegen vm+1 /∈ Um)

2. Schritt: Normierung von wm+1:

Setze um+1 :=1

||wm+1||wm+1 .

Dann ist

linCm+1 = lin(u1, . . . , um, wm+1) = lin(u1, . . . , um, vm+1)

= lin (u1, . . . , um)︸ ︷︷ ︸Cm

+lin(vm+1) =(IV)

linBm + lin(vm+1)

= lin(v1, . . . , vm, vm+1) = linBm+1.

Weiterhin

〈ui, uj〉 = δij für i, j = 1, . . . , m (nach IV),

〈um+1, uj〉 = 0 für j = 1, . . . , m , da um+1 ∈ U⊥m und

〈um+1, um+1〉 =1

||wm+1||2〈wm+1, wm+1〉 = 1.

5.2.3.0.1 Folgerung: Sei dimV = n. Dann kann aus Basis Bn stets eine Orthonor-malbasis Cn konstruiert werden, also:

Jeder endlich-dimensionale Euklidische Vektorraum besitzt eine Orthonormalbasis.

5.2.3.0.2 Beispiel: Sei

v1 =

101

, v2 =

010

, v3 =

01−1

.

Dann bilden diese Vektoren eine Basis des R3, denn wegen

Det (v1, v2, v3) =

∣∣∣∣∣∣

1 0 00 1 11 0 −1

∣∣∣∣∣∣= −1 6= 0

sind sie linear unabhängig.Konstruktion einer Orthonormalbasis mittels Schmidtschen Orthonormalisierungsverfah-rens:

Page 114: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

100 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

a) Normierung von v1:

u1 =1

||v1||v1 =

1√2

101

b) Orthonormierung von v2:

1. Schritt: w2 = v2 − 〈v2, u1〉u1 =

010

− 0 · 1√

2

101

=

010

2. Schritt: u2 =1

||w2||w2 =

010

c) Orthonormierung von v3:

1. Schritt: w3 = v3 − 〈v3, u1〉u1 − 〈v3, u2〉 u2

=

01−1

− −1√

2· 1√

2

101

− 1 ·

010

=

1

2

10−1

2. Schritt: u3 =1

||w3||w3 =

1√2

10−1

5.3 Orthogonale Abbildungen und Matrizen

5.3.0.0.1 Motivation: Wir untersuchen lineare Abbildungen f : V → V (Endomor-phismen), welche das Skalarprodukt auf V invariant (unverändert) lassen, d.h. die Größedes Winkels zwischen zwei beliebigen Vektoren v, w ∈ V bleibt bei f erhalten. Anschaulichmüssten die Drehungen der Ebene um 0 dieses leisten. Zur Überprüfung setzen wir:

V = R2 mit Standardskalarprodukt und D(ϕ) :=

(cosϕ − sinϕsinϕ cosϕ

), ϕ ∈ [0, 2π]

(D(ϕ) heißt Drehmatrix.)

Die Abbildung fD : R2 → R2 definiert durch

fD(x) = D(ϕ)x

stellt eine Drehung von x =(x1

x2

)und Winkel ϕ dar, denn

Page 115: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.3. ORTHOGONALE ABBILDUNGEN UND MATRIZEN 101

x1

x2

x1

x2

ψ

x

r

Polarkoordinaten von x

r =√x21 + x22 = ||x||

cosψ =x1r

sinψ =x2r

tanψ =x2x1

D(ϕ)x =

(cosϕ − sinϕsinϕ cosϕ

)r

(cosψsinψ

)= r

(cosϕ cosψ − sinϕ sinψsinϕ cosψ + cosϕ sinψ

)

⇒ D(ϕ)x = r

(cos(ψ + ϕ)sin(ψ + ϕ)

)

x1

x2

x1

x2

ψ

x

ϕ

D(ϕ)x

Nachrechnen:

〈fD(x), fD(y)〉 = (D(ϕ)x)T D(ϕ)y = xTD(ϕ)TD(ϕ)y

= (x1, x2)

(cosϕ sinϕ− sinϕ cosϕ

)(cosϕ − sinϕsinϕ cosϕ

)(y1y2

)

= (x1, x2)

(1 00 1

)(y1y2

)= xT y = 〈x, y〉

5.3.0.0.2 Definition: Eine lineare Abbildung f : V → V in einem Euklidischen Vek-torraum V heißt orthogonale Abbildung oder Isometrie, falls

〈f(v), f(w)〉 = 〈v, w〉 für alle v, w ∈ V

5.3.1 Eigenschaften orthogonaler Abbildungen

1) Jede Isometrie f ist ein Isomorphismus von V auf V (d.h. Automorphismus), falls Vendlich dimensional ist.

Beweis:

Page 116: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

102 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

a) Zur Injektivität:Sei v ∈ Kern(f), d.h. f(v) = 0

||v||2 = 〈v, v〉 = 〈f(v), f(v)〉 = 〈0, 0〉 = 0 ⇔ v = 0

⇒ Kern(f) = {0}b) Zur Surjektivität:

Sei dimV = n, so folgt aus Dimensionsformel

dim Kern(f)︸ ︷︷ ︸=0 nach 1a)

+dim Bild(f) = n ⇒ Bild(f) = V

weil Bild(f) ein Unterraum von V ist.

Bemerkung: Für unendlichdimensionale Vektorräume gilt: Jede Isometrie ist injektiv.

2) Sei v1, . . . , vn eine Orthonormalbasis von V . Dann ist f ∈ Hom(V, V ) eine Isometriegenau dann, wenn F := {f(v1), . . . , f(vn)} wieder eine Orthonormalbasis von V bildet.

Beweis:

a) (⇒) Sei f orthogonal, so

〈f(vi), f(vj)〉 = 〈vi, vj〉 = δij für i, j = 1, . . . , n

Somit ist F ein Orthonormalsystem, welches die Länge n = dimV hat. Folglich istes eine Orthonormalbasis von V .

b) (⇐) Sei F eine Orthonormalbasis von V , also 〈f(vi), f(vj)〉 = δij . Für v, w ∈ V giltdie Darstellung

v =

n∑

i=1

λivi, w =

n∑

i=1

µivi

⇒ f(v) =n∑

i=1

λif(vi), f(w) =n∑

i=1

µif(vi)

〈f(v), f(w)〉 =⟨

n∑

i=1

λif(vi),

n∑

j=1

µjf(vj)

⟩=

n∑

i,j=1

λiµj 〈f(vi), f(vj)〉︸ ︷︷ ︸=δij=〈vi,vj〉

=

⟨n∑

i=1

λivi,n∑

j=1

µjvj

⟩= 〈v, w〉

5.3.2 Orthogonale Matrizen

5.3.2.0.1 Definition: Betrachtet man fA : Rn → Rn mit Darstellungsmatrix A ∈Rn×n, so gilt fA(x) = Ax. Ist fA eine orthogonale Abbildung, so heißt A orthogonaleMatrix.

Page 117: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.3. ORTHOGONALE ABBILDUNGEN UND MATRIZEN 103

5.3.2.0.2 Charakterisierung orthogonaler Matrizen:

i) A ∈ Rn×n ist orthogonal ⇔ ii) Spalten von A bilden Orthonormalsystem in Rn

⇔ iii) AAT = En

⇔ iv) A ist regulär und A−1 = AT

⇔ v) ATA = En

⇔ vi) Zeilen von A bilden Orthonormalsystem im Rn

Beweis:

iii) ⇔ iv) ⇔ v) (klar)

i) ⇔ fA orthogonal

m (nach Eigenschaft 2)

fAeT1 = AeT1 = s1, . . . , fAe

Tn = AeTn = sn, d.h., daß die Spalten von A = (s1, s2, . . . , sn) eine

Orthonormalbasis von Rn bilden ⇔ ii)

v) lautet:

ATA =

sT1...sTn

(s1, . . . , sn

)=(sTi sj

)i,j=1,...,n

= (δij)

⇔ sTi sj = δij für i, j = 1, . . . , n ⇔ ii)

v) lautet:

E = ATA = AT (AT )T ⇔wegen iii)

AT ist orthogonal

⇔wegen ii)

Spalten von AT bilden Orthonormalsystem ⇔ vi)

5.3.2.0.3 Folgerung: Für orthogonales A ∈ Rn×n gilt

(DetA)2 = Det(A) · Det(AT ) = Det(AAT ) =iii)

DetEn = 1

⇒ DetA = 1 oder DetA = −1

O(n) := {A ∈ Rn×n | ATA = En} (orthogonale Gruppe des Rn×n)

SO(n) := {A ∈ O(n) | DetA = 1} (spezielle orthogonale Gruppe)

Page 118: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

104 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

5.3.2.1 Bestimmung aller Elemente von O(2)

5.3.2.1.1 Satz: Sei A ∈ O(2), dann hat A die Gestalt:

A =

(cosϕ sinϕ− sinϕ cosϕ

)oder A =

(cosϕ sinϕsinϕ − cosϕ

)mit 0 ≤ ϕ < 2π .

(A ∈ SO(2), weil DetA = 1, A = D(−ϕ)) (A ∈ O(2)\SO(2), weil DetA = −1)

Beweis:

A =

(a bc d

)∈ O(2) ⇔

a2 + b2 = 1 , c2 + d2 = 1 (Länge der Zeilenvektoren = 1)

(a b

)(cd

)= ac+ bd = 0 (Senkrechtstehen der Zeilenvektoren)

Aus a2 + b2 = 1 folgt die Existenz eines Winkels ϕ ∈ [0, 2π) mit a = cosϕ, b = sinϕ.Analog: Aus c2 + d2 = 1 ergibt sich ψ ∈ [0, 2π) mit c = cosψ, d = sinψ.

0 = ac+ bd = cosϕ cosψ + sinϕ sinψ = cos(ϕ− ψ)

⇔ϕ− ψ =

π

2+ kπ, k ∈ Z

ψ = ϕ− π

2+ kπ

c = cosψ = sin(ϕ+ kπ) =

{sinϕ , falls k = 2l

− sinϕ , falls k = 2l + 1

d = sinψ = − cos(ϕ+ kπ) =

{− cosϕ , falls k = 2l

cosϕ , falls k = 2l + 1

l ∈ Z

5.3.2.1.2 Bemerkung:

A =

(cosϕ sinϕsinϕ − cosϕ

)=

(1 00 −1

)·D(−ϕ) = D(ϕ)

(1 00 −1

)

S0 =

(1 00 −1

)∈ O(2)\SO(2) und realisiert eine Spiegelung des R2 an der x1-Achse, denn

fS0(x) = S0x =

(1 00 −1

)(x1x2

)=

(x1−x2

)

Page 119: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

5.3. ORTHOGONALE ABBILDUNGEN UND MATRIZEN 105

fS0(x)

x1

x2

xx2

−x2

5.3.2.1.3 Zusammenfassung. Jede orthogonale Abbildung des R2 ist eine Drehungum

(00

)oder die Hintereinanderausführung einer Drehung und einer Spiegelung fS0 (dabei

ist Reihenfolge der Operationen egal).

Page 120: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

106 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME

Page 121: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

Kapitel 6

Eigenwerttheorie

6.1 Eigenwerte und Eigenvektoren

Wir betrachten wieder Endomorphismen f , d.h. lineare Abbildungen f : V → V . Dann istf durch die Bilder der Vektoren einer Basis B := {v1, . . . , vn} von V eindeutig bestimmt,genauer gesagt, durch die Darstellungsmatrix A = (aij)i,j=1,...,n. Diese ist definiert durch:

f(vi) =n∑

j=1

aijvj

Dann ist für v ∈ V mit v = x1v1 + . . .+ xnvn

f(v) =

n∑

i=1

xif(vi) =

n∑

i,j=1

xiaijvj

6.1.0.0.1 Fragen:

• Gibt es eine Basis B von V , so dass A „möglichst einfach“ aussieht, d.h. wenn A eineDiagonalmatrix

Λ :=

λ1 . . . 0...

. . ....

0 . . . λn

ist? Dann heißt f diagonalisierbar, und es gilt

f(vi) = λivi

• Ist nun jedes f ∈ Hom(V, V ) diagonalisierbar?

• Wie findet man gegebenenfalls eine solche Basis B?

107

Page 122: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

108 KAPITEL 6. EIGENWERTTHEORIE

6.1.0.0.2 Definition: Eine Zahl λ ∈ R (oder λ ∈ C) heißt Eigenwert von f , falls eseinen Vektor v ∈ V gibt mit

f(v) = λv und v 6= 0 ,

v heißt Eigenvektor zum Eigenwert λ (zu einem Eigenwert gibt es mehrere Eigenvektoren).

6.1.0.0.3 Bemerkung: v 6= 0 ist wichtige Forderung, weil f(0) = 0 = α · 0 für alleα ∈ R.

6.1.1 Folgerungen

1) f ∈ Hom(V, V ) ist genau dann diagonalisierbar, wenn V eine Basis aus Eigenvektorenzu f besitzt.

2)

v ∈ V ist Eigenvektor zu f ⇔ (f − λ · IdV )(v) = 0 und v 6= 0

⇔ v ∈ Kern(f − λ · IdV ) und v 6= 0

Kern(f − λ · IdV ) =: Eig(f, λ) heißt Eigenraum von f zum Eigenwert λ und ist einUnterraum von V , dim Eig(f, λ) heißt geometrische Vielfachheit des Eigenwert λ.

6.1.2 Beispiele

a) f = IdV hat Eigenwert 1 und jeder Vektor v ∈ V \{0} ist Eigenvektor (f(v) = IdV (v) =v = 1 · v).

b) In V = R2 betrachten wir Spiegelung fS an einer Geraden G = lin(v1), v1 6= 0.

x1

x2G

fS(x)

x

v2

fS(v2)

v1

Die Abbildung fS ist diagonalisierbar, denn

fS(v1) = v1 = 1 · v1fS(v2) = −v2 = (−1) · v2 für v2 ⊥ v1.

Page 123: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.1. EIGENWERTE UND EIGENVEKTOREN 109

fS hat Eigenwert 1 und −1 mit Eigenvektoren v1 bzw. v2. v1, v2 bilden Basis von R2.

Eig(fS, 1) = lin(v1) = G , Eig(fS,−1) = lin(v2)

Geometrische Vielfachheit von Eigenwert 1 und −1 ist jeweils 1.

c) Die Drehung fD(ϕ) des R2 um 0 (0 < ϕ < π) besitzt dagegen keine (reellen) Eigenvek-toren und ist somit nicht diagonalisierbar (in R).

x1

x2

v

fD(ϕ)(v)

ϕ

d) Sei V = U⊕W ,W komplementärer Unterraum zu V (z.B.: W = U⊥), U 6= {0}, U ⊂ V .

P := PU : V → U mit P (u+ w) = u für u ∈ U,w ∈ W

P hat Eigenwert 1, weil P (u) = u = 1 · u mit geometrischer Vielfachheit dimU

P hat Eigenwert 0, weil P (w) = 0 = 0 · w mit geometrischer Vielfachheit dimW

6.1.3 Diagonalisierbare Matrizen

Betrachten wir wieder Abbildung fA : Rn → Rn mit fA(x) = Ax,A ∈ Rn×n. fA istdiagonalisierbar, falls es v1, . . . , vn ∈ Rn gibt mit der Eigenschaft: fA(vi) = A · vi = λivi füri = 1, . . . , n und v1, . . . , vn linear unabhängig, also

A · (v1, v2, . . . , vn) = (λ1v1, . . . , λnvn) =(v1, . . . , vn

)λ1 . . . 0...

. . ....

0 . . . λn

⇔ AT = TΛ mit T = (v1, . . . , vn) ∈ Rn×n. Dabei ist T regulär, weil v1, . . . , vn linearunabhängig sind.

⇔ T−1AT = Λ =

λ1 . . . 0...

. . ....

0 . . . λn

Page 124: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

110 KAPITEL 6. EIGENWERTTHEORIE

6.1.3.0.1 Definition: Wir nennen A ∈ Rn×n diagonalisierbar, wenn fA diagonalisier-bar ist, d.h. wenn eine reguläre Matrix T existiert mit T−1AT = Λ. Dabei übertragensich die entsprechenden Begriffe von fA unmittelbar auf A, also λi sind Eigenwerte von A,T = (v1, . . . , vn), vi sind die Eigenvektoren von A (Avi = λivi) usw.

6.1.3.0.2 Folgerung: Für diagonalisierbare Matrizen A gilt:

DetA = λ1 · λ2 · . . . · λn =

n∏

i=1

λi

denn

DetΛ︸ ︷︷ ︸=λ1·...·λn

= Det(T−1AT ) = Det(T−1) · DetA · Det T =1

DetT· DetA · Det T .

6.1.3.1 Beispiele

1.

A =

(0 11 0

)

ist diagonalisierbar, denn

Ax =

(0 11 0

)(x1x2

)=

(x2x1

).

Also ist(11

)ein Eigenvektor zum Eigenwert 1. Weiterhin ist

(1−1

)ein Eigenvektor zum

Eigenwert −1.

⇒ T =

(1 11 −1

), T−1AT =

(1 00 −1

)

Eig(A,±1) = Eig(fA,±1) = lin

((1±1

))

Geometrische Vielfachheit von Eigenwert ±1 ist dim Eig(A,±1) = 1.

2.

A =

(0 10 0

)

ist nicht diagonalisierbar, denn

Ax =

(0 10 0

)(x1x2

)=

(x20

)

d.h., jeder Eigenvektor ist Vielfaches von

(10

). Da A

(10

)=

(00

)gilt, ist 0 einziger

Eigenwert zu A.

⇒ Eig(A, 0) = Eig(fA, 0) = lin

((10

))

Geometrische Vielfachheit von 0 ist 1.

Page 125: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.1. EIGENWERTE UND EIGENVEKTOREN 111

6.1.4 Eigenschaften von Eigenvektoren

6.1.4.0.1 Satz: Eigenvektoren zu verschiedenen Eigenwert einer Abbildung f ∈ Hom(V, V )sind linear unabhängig.

Beweis: Sind v1, . . . , vm Eigenvektoren zu Eigenwerten λ1, . . . , λn mit λi 6= λj für i 6= j.Anwendung der vollständigen Induktion nach m:

• Induktionsanfang

m = 1: Eigenvektor v1 muss gemäß Definition 6= 0 sein, also linear unabhängig.

• Induktionsschluss

Sei Behauptung für m− 1 bewiesen. Dann betrachten wir Nullrelation

µ1v1 + µ2v2 + . . .+ µm−1vm−1 + µmvm = 0 (6.1.4.1)

⇒ f(µ1v1 + . . .+ µmvm) = f(0) = 0 ⇒ µ1f(v1) + . . .+ µmf(vm) = 0

Wegen f(vi) = λivi für i = 1, . . . , m folgt

µ1λ1v1 + . . .+ µm−1λm−1vm−1 + µmλmvm = 0

Aus (6.1.4.1): λmµ1v1 + . . .+ λmµm−1vm−1 + λmµmvm = 0

Subtraktion beider Gleichungen liefert

µ1(λ1 − λm)v1 + . . .+ µm−1(λm−1 − λm)vm−1 = 0 .

Nach Induktionsvoraussetzung sind v1, . . . , vm−1 linear unabhängig. Somit µi(λi −λm) = 0 für i = 1, . . . , m − 1. Wegen λi − λm 6= 0, muss µi = 0 sein. Aus (6.1.4.1)folgt: µmvm = 0 und wegen vm 6= 0 ist auch µm = 0. Somit ist (6.1.4.1) nur trivialund v1, . . . , vm linear unabhängig.

6.1.4.1 Folgerungen

1) Hat f ∈ Hom(V, V ) mit dimV = n (bzw. A ∈ Rn×n) n verschiedene Eigenwerte, soist f (bzw. A) diagonalisierbar, denn die zugehörigen Eigenvektoren v1, . . . , vn sind nlinear unabhängige Vektoren von V bzw. Rn und damit eine Basis.

2) f (bzw. A) hat höchstens n verschiedene Eigenwerte.

3) Allgemeines Kriterium zur Diagonalisierbarkeit:

f (bzw. A) ist genau dann diagonalisierbar, wenn die Summe der geometrischen Viel-fachheiten der Eigenwerte von f (bzw. A) gleich n = dimV ist.

Beweis:

Page 126: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

112 KAPITEL 6. EIGENWERTTHEORIE

a) (⇒) Wenn f diagonalisierbar, so existiert eine Basis B := {v1, . . . , vn} aus Eigen-vektoren von V . Sei mi die Anzahl der Eigenvektoren aus B zum Eigenwert λi.Dann ist

mi ≤ dim Eig(f, λi) =: ni (= geometrische Vielfachheit von λi). (6.1.4.2)

WegenEig(f, λi) ∩ Eig(f, λj) = {0} für λi 6= λj

ist nach Dimensionsformel für Unterräume

n1 + n2 + . . .+ nr = dim (Eig(f, λ1) + Eig(f, λ2) + . . .+ Eig(f, λr)) ≤ dimV = n

⇒ m1 + . . .+mr︸ ︷︷ ︸=n

≤(6.1.4.2)

n1 + . . .+ nr ≤ n ⇒ n1 + . . .+ nr = n, (mi = ni)

b) (⇐) Sei∑r

i=1 ni = n. Dann wählen wir in jedem Eig(f, λi) eine Basis

Bi := {v(i)1 , . . . , v(i)ni} für i = 1, . . . , r

Bilde C := B1 ∪ B2 ∪ . . . ∪ Br. Zum Nachweis, dass C eine Basis von V bildet,müssen wir nur die lineare Unabhängigkeit von C prüfen. C ist dann Basis ausEigenvektoren und somit f diagnonalisierbar.

Sein1∑

j=1

λ(1)j v

(1)j

︸ ︷︷ ︸=:w(1)

+

n2∑

j=1

λ(2)j v

(2)j

︸ ︷︷ ︸=:w(2)

+ . . .+

nr∑

j=1

λ(r)j v

(r)j

︸ ︷︷ ︸=:w(r)

= 0

Dann ist w(i) ∈ Eig(f, λi) und w(1) + w(2) + . . . + w(r) = 0. Nach Hilfssatz mussjedes w(i) = 0 sein. Wegen der linearen Unabhängigkeit der Basen Bi muss auchλ(i)j = 0 für i = 1, . . . , r, j = 1, . . . , ni. Also ist die Nullrelation nur trivial möglich

und C eine Basis von V .

6.1.4.2 Verfahren zur Diagonalisierbarkeit von A ∈ Rn×n

1. Schritt: Bestimmung der Eigenwerte λ von A.

2. Schritt: Bestimmung der geometrischen Vielfachheiten aller Eigenwerte λ, d.h. der Di-mensionen der zugehörigen Eigenräume = Dimensionen der Lösungsmengen derlinearen Gleichungssysteme

(A− λEn)x = 0 . (6.1.4.3)

3. Schritt: Anwendung des Kriteriums aus 3).

Page 127: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.2. DAS CHARAKTERISTISCHE POLYNOM 113

6.1.4.2.1 Bemerkung: Eine Basis von Rn aus Eigenvektoren zu A ergibt sich durchAneinanderreihung der Basen der Eigenräume.

6.2 Das charakteristische Polynom

6.2.0.0.1 Satz:

λ ∈ C ist Eigenwert zu A ∈ Rn×n ⇔ Det(A− λEn) = 0

Beweis:

λ ist Eigenwert ⇔ Av = λv mit v 6= 0 ⇔ (A− λEn)v = 0

⇔ (6.1.4.3) hat nichttriviale Lösung

⇔ Rang(A− λEn) < n

⇔ A− λEn nicht regulär

⇔ Det(A− λEn) = 0

6.2.0.0.2 Definition:

P (λ) = PA(λ) := Det(A− λEn) =

∣∣∣∣∣∣∣∣∣

a11 − λ a12 . . . a1na21 a22 − λ . . . a2n...

. . ....

an1 . . . . . . ann − λ

∣∣∣∣∣∣∣∣∣

heißt charakteristisches Polynom zur Matrix A.

6.2.0.0.3 Folgerung: Die Eigenwerte von A sind die Nullstellen von PA(λ).

6.2.0.1 Beispiele

1)PEn

(λ) = Det ((1− λ)En) = (1− λ)n · DetEn = (1− λ)n

2)

A =

(3 42 1

), PA(λ) =

∣∣∣∣3− λ 42 1− λ

∣∣∣∣ = (3− λ)(1− λ)− 2 · 4 = λ2 − 4λ− 5

PA(λ) = 0 ⇔ λ2 − 4λ− 5 = 0

⇔ λ = λ1/2 = 2±√4 + 5, λ1 = 5, λ2 = −1

⇒ A ist diagonalisierbar.

Berechnung der Eigenvektoren von A:

Page 128: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

114 KAPITEL 6. EIGENWERTTHEORIE

• zu Eigenwert λ1 = 5

(3− 5)x1 +4x2 = 02x1 +(1− 5)x2 = 0

}⇔ x1 = 2x2

Eig(A, 5) = lin

((21

))

• zu Eigenwert λ2 = −1

(3− (−1))x1 +4x2 = 02x1 +(1− (−1))x2 = 0

}⇔ x1 = −x2

Eig(A,−1) = lin

((1−1

))

6.2.1 Grundlegendes über Polynome

Seien komplexe Zahlen c0, c1, . . . , cn gegeben und

P (z) := c0 + c1z + . . .+ cnzn, z ∈ C .

Dann vermittelt das komplexe Polynom P mit den Koeffizienten cj eine Abbildung

P : C → C

Ist cn 6= 0, so heisst P ein Polynom vom Grad n.

1. Koeffizientenvergleich

Zwei Polynome sind genau dann gleich, wenn sie in ihren Koeffizienten übereinstimmen.

Denn 1, z, z2, . . . , zn bilden eine Basis im komplexen Vektorraums Pn aller Polynomehöchstens n-ten Grades.

2. Division durch Linearfaktor

Ist z0 ∈ C eine Nullstelle von P vom Grad n ≥ 1, so

P (z) = (z − z0)Q(z)

mit eindeutigem Polynom Q vom Grad n− 1.

Beweis: Das Polynom P (z) = P (z + z0) hat Nullstelle in z = 0.

P (z) = cnzn + . . .+ c1z + c0︸︷︷︸

=0

= z(cnzn−1 + . . .+ c1) mit cn 6= 0

Ersetze Variable z durch z − z0

P (z) = P (z − z0) = (z − z0) (cn(z − z0)n−1 + . . .+ c1)︸ ︷︷ ︸=Q(z)

Page 129: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.2. DAS CHARAKTERISTISCHE POLYNOM 115

3. Fundamentalsatz der Algebra

Jedes Polynom vom Grad n ≥ 1 hat mindestens eine Nullstelle in C.

4. Zerlegung in Linearfaktoren

P (z) = cn

r∏

k=1

(z − λk)mk

Dabei sind λk ∈ C die paarweise verschiedenen Nullstellen von P und mk ∈ N ihreVielfachheiten mit

m1 + . . .+mr = n .

Diese Zerlegung entsteht durch wiederholte Anwendung des Fundamentalsatzes und derDivision durch zugehörigen Linearfaktor zu einer Nullstelle.

6.2.1.0.1 Folgerung: Jedes Polynom vom Grad n ≥ 1 hat n komplexe Nullstellen,jeweils mit ihrer Vielfachheit gezählt.

6.2.1.0.2 Beispiel: Berechnung der Nullstellen von P (z) = z3 + z2 − 2

1) Eine Nullstelle ist λ1 = 1.

2) P (z) : (z − 1) = (z3 + z2 − 2) : (z − 1)

(z3 +z2 −2) : (z − 1) = z2 + 2z + 2 = Q(z)−(z3 −z2)

2z2 −2−(2z2 −2z)

2z −2−(2z −2)

0

3) Weitere Nullstellen von P sind die Nullstellen von Q

Q(z) = 0 ⇔ z2 + 2z + 2 = 0

⇔ z = λ2/3 = −1±√1− 2 = −1 ± i

Zerlegung von P in Linearfaktoren:

P (z) = 1 · z3 + z2 − 2 = 1 · (z − 1)(z − (−1 + i))(z − (−1− i)) .

Page 130: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

116 KAPITEL 6. EIGENWERTTHEORIE

6.2.2 Anwendung auf charakteristisches Polynom

6.2.2.0.1 Darstellung des charakteristischen Polynoms:

PA(λ) = Det(A− λEn) =4.(−1)n

r∏

k=1

(λ− λk)mr ,

wobei λ1, . . . , λr die verschiedenen Eigenwerte der Matrix A sind mit den algebraischenVielfachheiten mk.

6.2.2.0.2 Zusammenhang zwischen algebraischen und geometrischen Vielfach-heiten: Es gilt

nk ≤ mk (nk = dim Eig(A, λk) = geometrische Vielfachheit von λk)

Beweis:

a) Sei λk ein Eigenwert zu A ∈ Rn×n und Bk := {v1, . . . , vnk} ⊂ Rn eine Basis von

Eig(a, λk). Ergänze diese zu Basis v1, . . . , vn von Rn und setze T := (v1, . . . , vn) ∈ Rn×n.Dabei ist RangT = n und es existiert T−1.

⇒ En︸︷︷︸=(eT1 ,...,eTn )

= T−1T = T−1(v1, . . . , vn) = (T−1v1, T−1v2, . . . , T

−1vn)

⇒ T−1vi = eTi für i = 1, . . . , n

b)

PA(λ) = Det(A− λEn) = Det(T−1)Det(A− λE)Det T

= Det(T−1(A− λE)T ) = Det(T−1AT − λE)

Es istAT = A(v1, . . . , vn) = Av1︸︷︷︸

=λkv1

, . . . , Avnk︸ ︷︷ ︸= λkvnk

, weilBk ⊂ Eig(A, λk)

, . . . , Avn

⇒ T−1AT = (λkT−1v1︸ ︷︷ ︸

=eT1

, λkT−1v2︸ ︷︷ ︸

=eT2

, . . . , λkT−1vnk︸ ︷︷ ︸

= eTnk, wegen a)

, cnk+1, . . . , cn)

⇒ PA(λ) =

∣∣∣∣∣∣∣∣∣∣∣∣∣

λk − λ 0 00 λk − λ 0 ∗0 0 λk − λ0 0 0...

...... ∗

0 0 0

∣∣∣∣∣∣∣∣∣∣∣∣∣

= (λk − λ)nkR(λ)

Grad von R ist n− nk.

Page 131: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.2. DAS CHARAKTERISTISCHE POLYNOM 117

6.2.2.0.3 Folgerung:

A ist diagonalisierbar ⇔ nk = mk für jeden Eigenwert λk zu A

(n1 + n2 + . . .+ nr ≤ m1 +m2 + . . .+mr = n)

6.2.3 Bemerkung zu komplexen Eigenwerten einer MatrixA ∈ Rn×n

Ist λ0 ∈ C eine Nullstelle von PA(λ), d.h. ein Eigenwert zu A mit Eigenvektor v ∈ Cn, soist auch λ0 ein Eigenwert zu A mit Eigenvektor v, denn:

PA(λ) = a0 + a1λ+ . . .+ anλn hat reelle Koeffizienten aj

WegenPA(λ0) = a0 + a1λ0 + . . .+ anλ

n0 = 0

ist

a0 + a1λ0 + . . .+ anλn0 = 0

⇒ PA(λ0) = a0 + a1λ0 + . . .+ an(λ0)n = 0 ⇒ λ0 ist Eigenwert zu A

Weiterhin bedeutet v ∈ Cn:

v =

z1...zn

mit zj ∈ C , d.h. zj = xj + iyj

mit xj , yj ∈ R für j = 1, . . . , n .

⇒ v =

z1...zn

, zj = xj − iyj .

Wegen Av = λ0v folgt Av = λ0v.

Av = Av = λ0v (A = A, da A ∈ Rn×n)

6.2.4 Eigenwerte orthogonaler Matrizen A ∈ Rn×n

(ATA = En bzw. A ∈ O(n))

1) Für alle Eigenwerte λ ∈ C von A ∈ O(n) gilt |λ| = 1.

Beweis:

Page 132: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

118 KAPITEL 6. EIGENWERTTHEORIE

Sei Av = λv mit v ∈ Cn, v 6= 0.

⇒ Av = λv ⇒ (Av)TAv = (λv)Tλv

⇒ vTATAv = λλvTv ⇒ vTEnv = |λ|2vTv

Wegen vTv = z1z1 + z2z2 + . . .+ znzn = (x21 + y21) + (x22 + y22) + . . .+ (x2n + y2n)

> 0 (weil v 6= 0 als Eigenvektor zu A),

ist 1 = |λ|2.

2) Jedes A ∈ SO(3), d.h. A ∈ R3×3, ATA = E3,DetA = +1, hat den Eigenwert λ = +1.

Beweis:

Wegen Bemerkung zu komplexen Eigenwerten kann A höchstens 2 Eigenwerte aus C\Rhaben, d.h. mindestens ein Eigenwert λ1 ist reell. Nach 1) ist |λ1| = 1. Sei λ1 = −1 undλ2, λ3 die beiden anderen Eigenwerte.

Es galt:DetA︸ ︷︷ ︸=+1

= λ1︸︷︷︸=−1

λ2λ3 ⇒ λ2λ3 = −1

Wäre λ2 ∈ C \ {−1,+1}, so λ3 = λ2 und λ2λ3 = λ2λ2 = |λ2|2 = 1.

⇒ Widerspruch und somit

(λ2 = −1 und λ3 = +1) oder (λ2 = +1 und λ3 = −1)

3) Für jedes A ∈ SO(3) existiert eine orthogonale Matrix T , so dass

T TAT =

1 0 000

D(ϕ)

mit einer Drehmatrix D(ϕ) =

(cosϕ − sinϕsinϕ cosϕ

), ϕ ∈ [0, 2π).

Beweis:

Nach 2) gibt es Eigenvektor v1 zu Eigenwert λ = +1, d.h. Av1 = (+1)v1 mit v1 ∈R3, v1 6= 0.

O.B.d.A. sei ||v1|| = 1. Ergänze v1 zu einer Orthonormalbasis v1, v2, v3 des R3, es giltalso

〈vi, vj〉 = vTi vj = δij für i, j = 1, 2, 3

Setze T = (v1, v2, v3), so ist T ∈ O(3), also T TT = E3.

T TAT = T T (A(v1, v2, v3)) =

vT1vT2vT3

(Av1︸︷︷︸

=v1

, Av2, Av3) =

1 α β00

B

Page 133: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.2. DAS CHARAKTERISTISCHE POLYNOM 119

Wegen Gruppeneigenschaft der Menge O(3) und T,A ∈ O(3), folgt T TAT ∈ O(3).

1 α β00

B

ist orthogonale Matrix

⇒ α = 0, β = 0 (wegen Orthonormalität der Spalten) ⇒ B ∈ O(2)

Aus

DetA = Det(T−1︸︷︷︸=TT

AT ) =

∣∣∣∣∣∣

1 0 000

B

∣∣∣∣∣∣= 1 · DetB

folgt DetB = 1, also B ∈ SO(2), d.h. B = D(ϕ).

6.2.4.0.1 Interpretation: Zu jeder orthogonalen Abbildung fA : R3 → R3 mit DetA =+1 gibt es eine „ausgezeichnete Richtung“ (Drehachse), gegeben durch v1 ∈ R3 einer Or-thonormalbasis v1, v2, v3. fA repräsentiert eine Drehung des R3 um diese Drehachse umWinkel ϕ.

x2

x3

x1

fA

v1

v2

v3

Analog gilt für A ∈ O(3) \ SO(3) (d.h. ATA = E3,DetA = −1):

• A hat Eigenwert λ = −1

TAT T =

−1 0 000

D(ϕ)

=

−1 0 00 1 00 0 1

1 0 000

D(ϕ)

• fA stellt dann die Hintereinanderausführung einer Drehung von Drehachse v1 um ϕund einer Spiegelung an E = lin(v2, v3) = {v1}⊥.

Page 134: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

120 KAPITEL 6. EIGENWERTTHEORIE

Ex2

x3

x1

fA

v1

v2

v3

6.2.4.0.2 Allgemein: Zu jedem A ∈ O(n) existiert T ∈ O(n), so dass

T TAT =

1 · · · · · · · · · · · · · · · · · · · · · 0...

. . ....

... 1...

... −1...

.... . .

...... −1

...... D(ϕ1)

......

. . ....

0 · · · · · · · · · · · · · · · · · · · · · D(ϕr)

mit ϕi ∈ [0, 2π)

Beweis: (siehe Beutelspacher, S. 268 ff.)

6.3 Hauptachsentransformation symmetrischer Matrizen

Der Name „Hauptachsentransformation“ stammt aus der Theorie der Kegelschnitte, z.B.sucht man eine orthogonale Tranformation f : R → R, welche die Koordinatenachsen(x1−, x2−Achse) in die „Hauptachsen“(ξ1−, ξ2−Achse) einer Ellipse transformiert.

Page 135: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 121

ξ1

ξ2

Geeignetes Mittel zur Beschreibung solcher Kegelschnitte sind die symmetrischen Matrizen,d.h. A ∈ Rn×n mit

A = AT ⇔ aij = aji für i, j = 1, . . . , n

6.3.1 Eigenschaften symmetrischer Matrizen A ∈ Rn×n

1. Für fA : Rn → Rn mit fA(x) = Ax, x ∈ Rn gilt:

〈fA(v), w〉 = (Av)Tw = vTATw = vT (Aw) = 〈v, fA(w)〉

Allgemein heißt f ∈ Hom(V, V ) mit Euklidischem Vektorraum V und 〈f(v), w〉 =〈v, f(w)〉 für alle v, w ∈ V ein selbstadjungierter Endomorphismus.

2. Alle Eigenwerte von A sind reell, und die Eigenvektoren von A können aus Rn gewähltwerden.

Beweis:

a) Charakteristisches Polynom PA(λ) = Det(A − λEn) hat nach Fundamentalsatz derAlgebra eine Nullstelle λ0 ∈ C mit zugehörigen Eigenvektoren v ∈ Cn. Dann giltv 6= 0, Av = λ0v und außerdem Av = λ0v.

⇒ ( Av︸︷︷︸=λ0v

)Tv = vTATv = vT (Av) = λ0vTv

(λ0 = a0 + ib0, λ0 = a0 − ib0, a0, b0 ∈ R)

⇒ λ0vTv = λ0v

Tv

Wegen v 6= 0 ist vTv > 0 und somit λ0 = λ0, also λ0 ∈ R.

b) Eigenvektoren v sind Lösungen des linearen Gleichungssystem (A − λEn)v = 0,welches in Rn lösbar ist.

Page 136: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

122 KAPITEL 6. EIGENWERTTHEORIE

3. Eigenvektoren zu verschiedenen Eigenwerten von A sind orthogonal zueinander.

Beweis:

Sei vj ∈ Rn Eigenvektor zu Eigenwert λj von A für j = 1, 2, d.h. Avj = λjvj.

(λ1v1)T

︸ ︷︷ ︸=λ1vT1

v2 = (Av1)Tv2 = vT1 A

T v2 = vT1 (Av2) = vT1 λ2v2 = λ2vT1 v2

⇒ (λ1 − λ2)vT1 v2 = 0

Ist λ1 6= λ2, so vT1 v2 = 0.

6.3.1.0.1 Folgerung: Hat die symmetrische Matrix A alles verschiedene Eigenwerte,so bilden die zugehörigen Eigenvektoren, normiert auf 1, eine Orthonormalbasis des Rn.

6.3.1.0.2 Hauptachsensatz: Zu jeder symmetrischen Matrix A gibt es eine orthogo-nale Matrix T mit

T TAT = D =

λ1 0 . . . . . . 0

0. . . . . .

......

. . . λ1. . .

......

. . . . . . 00 . . . . . . 0 λr

In der Diagonalmatrix D stehen die Eigenwerte λ1, . . . , λr ∈ R von A jeweils mit der ent-sprechenden algebraischen Vielfachheit (=geometrische Vielfachheit). Die Spalten bildeneine Orthonormalbasis des Rn aus Eigenvektoren zu A.

Beweis: (durch vollständige Induktion nach der Zeilenzahl n von A)

• Induktionsanfang

n = 1. Damit ist A bereits in Diagonalgestalt.

• Induktionsvorraussetzung

Sei Behauptung richtig für Zeilenzahl n− 1.

• Induktionsschluss

a) Sei A ∈ Rn×n. Nach Fundamentalsatz und 2. existiert mindestens ein λ1 ∈ R,v1 ∈ Rn mit v1 6= 0, Av1 = λ1v1. O.B.d.A. sei ||v1|| = 1.

b) Setze U1 = lin{v1}. Dann ist dimU1 = 1 und dimU⊥1 = n−1. Wähle zu Unterraum

U⊥1 eine Orthonormalbasis v2, . . . , vn. Dann gilt

〈vi, vj〉 = vTi vj = δij für i, j = 1, 2, . . . , n, (v1⊥vj , j = 2, . . . , n)

Page 137: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 123

Setze S = (v1, v2, . . . , vn) ∈ Rn×n. Dann ist S ∈ O(n).

STAS =

vT1vT2...vTn

(A(v1, . . . , vn)

)=

vT1vT2...vTn

(Av1︸︷︷︸

=λ1v1

, Av2, . . . , Avn)

=

λ1 · 1 c0... A′

0

mit c ∈ Rn−1, A′ ∈ R(n−1)×(n−1)

Dabei ist STAS symmetrisch, weil

(ST (AS))T = (AS)TS = STATS = STAS

Folglich c = 0, A′ = (A′)T .

c) Auf A′ kann die Induktionsvorraussetzung angewendet werden, d.h. es gibt

T ′ ∈ O(n− 1) : (T ′)TA′T = D′

Setze S ′ :=

(1 00 T ′

), dann ist S ′ ∈ O(n). Berechne:

(S ′)T (ST

︸ ︷︷ ︸TT

AS)S ′︸︷︷︸=:T

=b)

(1 00 (T ′)T

)((λ1 00 A′

)(1 00 T ′

))

=

(1 00 (T ′)T

)(λ1 00 A′T ′

)=

(λ1 00 (T ′)TAT ′

)=

(λ1 00 D′

)=: D

Mit T := SS ′; S, S ′ ∈ O(n) und der Gruppeneigenschaft von O(n) ist T ∈ O(n).

6.3.1.1 Schema zur praktischen Durchführung der Hauptachsentransformati-on symmetrischer Matrizen A

Gegeben sei A ∈ Rn×n, A = AT .

1. Schritt: Bilde PA(λ) = Det(A − λEn) und bestimme dessen verschiedene Nullstellenλ1, . . . , λr, d.h. die verschiedenen Eigenwerte von A (etwa eine Nullstelle „erra-ten“ und dann Abdividieren des zugehörigen Linearfaktors).

2. Schritt: Für jedes k = 1, . . . , r bestimme eine Basis Bk := {w(k)1 , . . . , w

(k)nk } von Eig(A, λk),

indem das lineare Gleichungssystem

(A− λkEn)x = 0

(z.B. mittels Gaußschen Algorithmus) gelöst wird.

Page 138: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

124 KAPITEL 6. EIGENWERTTHEORIE

3. Schritt: Orthonormiere Bk zu einer Orthonormalbasis v(k)1 , . . . , v(k)nk

von Eig(A, λk) mit-tels des Schmidtschen Verfahrens.

4. Schritt: Durch Aneinanderreihung dieser Orthonormalbasen entsteht die Orthonormal-basis:

{v1, . . . , vn} = {v(1)1 , . . . , v(1)n1, v

(2)1 , . . . , v(2)n2

, . . . , v(r)1 , . . . , v(r)nr

}des Rn aus Eigenvektoren zu A. Setze T := (v1, v2, . . . , vn). Dann ist

T TAT =

λ1 0 . . . . . . . . . . . . 0

0. . . . . .

......

. . . λ1. . .

......

. . . . . . . . ....

.... . . λr

. . ....

.... . . . . . 0

0 . . . . . . . . . . . . 0 λr

(Möglichkeit zur Rechenkontrolle!)

6.3.1.2 Beispiel zur Hauptachsentransformation

A =

1 1 11 1 11 1 1

1. Schritt: Bestimmung der Eigenwerte von A

Det(A− λE3) =

∣∣∣∣∣∣

1− λ 1 11 1− λ 11 1 1− λ

∣∣∣∣∣∣= −λ3 + 3λ2 = λ2(3− λ)

PA(λ) = 0 ⇔ λ = λ1/2/3, ⇒ λ1 = 3, λ2/3 = 0

Vielfachheit von 3 ist 1, und Vielfachheit von 0 ist 2.

2. Schritt: Bestimmung der Eigenvektoren

i) zum Eigenwert λ1 = 3:Eigenvektor-Gleichung:

(1− 3)x1 +x2 +x3 = 0x1 +(1− 3)x2 +x3 = 0x1 +x2 +(1− 3)x3 = 0

Ein Eigenvektor zu 3 ist

111

. Eig(A, 3) = lin

111

.

Page 139: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 125

ii) zum Eigenwert λ2/3 = 0:Eigenvektor-Gleichung:

x1 +x2 +x3 = 0 (⇔ Ax = 0)

Zwei linear unabhängige Eigenvektoren sind

1−10

und

10−1

.

Eig(A, 0) = lin

1−10

,

10−1

.

3. Schritt: Orthonormierung der Eigenvektoren

zu i)

v1 =1√3

111

zu ii)

v2 =1√2

1−10

, U2 = lin(v2)

v3 =

10−1

− PU2

10−1

=

10−1

vT2

10−1

· v2 =

−1

2

−12

1

v3 =1

||v3||· v3 =

1√6

−1−12

4. Schritt: Orthonormalbasis des R3 aus Eigenvektoren zu A: v1, v2, v3

T = (v1, v2v3) =1√6

√2

√3 −1√

2 −√3 −1√

2 0 2

⇒ T TAT =

3 0 00 0 00 0 0

6.3.2 Anwendung der Hauptachsentransformation bei Kurven zwei-ter Ordnung

6.3.2.0.1 Definition: Die Menge aller Punkte x =(x1

x2

), der Koordinaten einer qua-

dratischen Gleichung der Form

a11x21 + 2a12x1x2 + a22x

22 + 2b1x1 + 2b2x2 + c = 0 (6.3.2.4)

genügen, heißt Kurve 2. Ordnung mit gegebenen aij , bi, c ∈ R, i, j = 1, 2.

(6.3.2.4) ⇔ xTAx+ 2bx+ c = 0, A = (aij) = AT , b = (b1, b2)

Page 140: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

126 KAPITEL 6. EIGENWERTTHEORIE

6.3.2.1 Klassifikation:

1. Schritt: Beseitigung von gemischten Produkten durch Hauptachsentransformation vonA:

T TAT =

(λ1 00 λ2

), T = (v1, v2), Avi = λivi, (v1, v2 heißen Hauptachsen)

Mit Koordinatentransformation y = T Tx ⇔ x = Ty ist

(6.3.2.4) ⇔ yT (T TAT )︸ ︷︷ ︸=(λ1 00 λ2

)y + 2 bT︸︷︷︸

=b

y + c = 0

(6.3.2.4) ⇔ λ1y21 + λ2y

22 + 2(b1y1 + b2y2) + c = 0

2. Schritt: Beseitigung der linearen Glieder durch Verschiebung des Koordinatenursprungs

Falls λi 6= 0:

λiy2i + 2biyi = λi

(yi +

biλi

)2

− b2iλi

Für λ1, λ2 6= 0:

(6.3.2.4) ⇔ λ1ξ21 + λ2ξ

22 +

(c− b21

λ1− b22λ2

)= 0

mit ξi = yi+biλi

. Nach Division der letzten Gleichung und geeigneter Umbennung

der Variablen erhält man sogenannte Normalformen.

6.3.2.2 Normalformen von Kurven 2. Ordnung

I. Eigenwerte λ1, λ2 6= 0:

1. Gleiche Vorzeichen von λ1, λ2:

a)x2

a2+y2

b2= 1 (Ellipse)

b)x2

a2+y2

b2= −1 (leere Menge)

c)x2

a2+y2

b2= 0 (Punkt)

2. Entgegengesetzte Vorzeichen von λ1, λ2:

a)x2

a2− y2

b2= 1 (Hyperbel)

b)x2

a2− y2

b2= 0 (Geradenpaar)

(xa± y

b= 0)

Page 141: Lineare Algebra - math.uni-leipzig.degittel/LinAlg/Skript.pdf · Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut

6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 127

II. Ein Eigenwert λ1 = 0:

1. Linearglieder lassen sich nicht alle beseitigen:

y2 = 2px (Parabel)

2. Linearglieder lassen sich alle beseitigen:

a)y2

b2= 1 (paralleles Geradenpaar) (y = ±b)

b)y2

b2= −1 (leere Menge)

c)y2

b2= 0 (Doppelgerade) (y = 0)

6.3.2.2.1 Beispiel einer Kurve 2. Ordnung:

x21 − 2√2x1x2 + 2x2 − 1 = 0

Dann ist A =

(1 −

√2

−√2 0

), b = (0, 1), c = −1. Die Eigenwerte von A sind λ1 =

−1, λ2 = 2, d.h. es liegt Fall I.2 vor, und in den neuen Koordinaten

ξ1 =1√3

(x1 +

√2x2 −

√2), ξ2 =

1√3

(−√2x1 + x2 +

1

2

)

wird diese Kurve beschrieben durch die Gleichung

−ξ21 + 2ξ22 −1

2= 0

und stellt eine Hyperbel dar.

-2 2 4

-4

-2

2

4

—– x1−, x2−Achse (ursprüngliche Koordinatenachsen)- - - ξ1−, ξ2−Achse (Hauptachsen der Hyperbel)