Lineare Operatoren in Vektorräumen - Persönliche...

22
Kapitel 6 Lineare Operatoren in Vektorräumen 6.1 Allgemeine Betrachtungen Eine lineare Vektorfunktion ist eine Regel, die jeden Vektor ~x mit einem Vek- tor ~ y = ~ Φ(~x) auf lineare Art und Weise verknüpft. Sie ist somit eine lineare Abbildung eines Vektors aus einem bestimmten Vektorraum, auf einen Vektor eines anderen oder gleichen Raumes. Anders ausgedrückt, ~ φ (~x) frisst einen Vektor und gibt auch wieder einen Vektor aus. A : ~x ~ y (6.1.1) Wir nennen A einen Operator. Anders ausgedrückt: der Vektor ~ Φ(~ ) x ist linear vom Vektor ~x abhängig, sofern folgende Linearitätseigenschaft gegeben ist. Sei ~x = λ~a + μ ~ b dann ist ~ Φ(~x)= ~ Φ λ~a + μ ~ b = λ ~ Φ( ~a)+ μ ~ Φ ~ b (6.1.2) Falls eine Basis im Vektorraum gegeben ist, so kann man den linearen Opera- tor auch durch seine Wirkung auf die Basiselemente darstellen. Man wendet also den Opterator nur auf die Einheitsvektoren an und nicht auf ~x (da sich ~x als Linearkombination aus ˆ e i darstellen lässt). Dazu genügt es die n Vektoren ~ Φ(ˆ e i ) zu kennen , die sich durch die Basis { ˆ e i } ausdrücken lassen ~ Φ(ˆ e i )= X j A ji ˆ e j 209

Transcript of Lineare Operatoren in Vektorräumen - Persönliche...

Page 1: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

Kapitel 6

Lineare Operatoren inVektorräumen

6.1 Allgemeine Betrachtungen

Eine lineare Vektorfunktion ist eine Regel, die jeden Vektor ~x mit einem Vek-tor ~y = ~Φ (~x) auf lineare Art und Weise verknüpft. Sie ist somit eine lineareAbbildung eines Vektors aus einem bestimmten Vektorraum, auf einen Vektoreines anderen oder gleichen Raumes. Anders ausgedrückt, ~φ (~x) frisst einenVektor und gibt auch wieder einen Vektor aus.

A : ~x→ ~y (6.1.1)

Wir nennen A einen Operator. Anders ausgedrückt: der Vektor ~Φ (~ )x ist linearvom Vektor ~x abhängig, sofern folgende Linearitätseigenschaft gegeben ist.Sei

~x = λ~a+ µ~b

dann ist

~Φ (~x) = ~Φ(λ~a+ µ~b

)= λ~Φ (~a) + µ~Φ

(~b)

(6.1.2)

Falls eine Basis im Vektorraum gegeben ist, so kann man den linearen Opera-tor auch durch seine Wirkung auf die Basiselemente darstellen. Man wendetalso den Opterator nur auf die Einheitsvektoren an und nicht auf ~x (da sich ~xals Linearkombination aus ei darstellen lässt). Dazu genügt es die n Vektoren~Φ (ei) zu kennen , die sich durch die Basis {ei} ausdrücken lassen

~Φ (ei) =∑j

Ajiej

209

Page 2: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 210

wobei Aji die j-te Komponente des Vektors ~Φ (ei) ausdrückt. Sei nun ~x einbeliebiger Vektor dann ist

~y = ~Φ (~x) = ~Φ

(∑i

xiei

)=∑i

xi

∑j

Ajiej

=∑j

yj ej

wobeiyj =

∑i

Ajixi

Wir erhalten daher eine Matrixgleichung∑j

Ajixi = Ajixi = yj

Wenn wir nun A als Matrix und ~x, ~y als Vektoren auffassen, so ergibt sichfolgende Gleichung, welche eine lineare Abbildung, die den Vektor ~x in ~y über-führt, darstellt.

~y = A~x (6.1.3)

Insbesondere vermittelt A auch die Basistransformation zwischen {ei} und{ej}, d.h. ej = Ajiei. Diese Operatoren, welche im einfachsten Fall Matrizensind, gehorchen bestimmten Regeln

(A+B)~x = A~x+B~x (6.1.4)

(AB)~x = A(B~x) (6.1.5)

(λA)~x = λ(A~x) (6.1.6)

wobei zu beachten ist, dass das Produkt zweier Operatoren im allgemeinennicht kommutativ ist, d.h.

AB 6= BA (6.1.7)

Unter der Annahme, dass die Definitions- und Wertebereiche der Operatorenzusammenpassen ist die Summe und das Produkt zweier linearer Operatorenwieder ein linearer Operator. Der Null- und Einheitsoperator gehorchen folgen-der Definition

0~x = ~0 (6.1.8)

I~x = ~x (6.1.9)

Zwei Operatoren A und B sind gleich, falls für jeden Vektor ~x aus dem Vektor-raum V, die Relation

A~x = B~x

gilt. In weiterer Folge kann auch ein inverser Operator A−1 definiert werden,falls die Beziehung

AA−1 = A−1A = I (6.1.10)

Page 3: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 211

erfüllt wird. Operatoren, welche invertierbar sind, nennt man nicht singulär.Es ist anschaulich klar, dass nicht immer eine inverser Operator existierenmuss. Sei P z.B. der Projektionsoperator, der einen Vektor aus dem R3 inden R2 projeziert. Dann ist klar, dass eine inverse Projektion nicht eindeutigist, weil Teile der Ortsinformation verloren gehen, da die Dimension um einsreduziert wurde.

Page 4: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 212

6.2 Matrizen

Eine spezielle Klasse der linearen Operatoren stellen Matrizen dar. Der An-wendungsbereich dieser Systeme überspannt große Bereiche in den Natur-wissenschaften. Um die Relevanz solcher Operatoren aufzuzeigen, wollen wirnur einige Anwendungen herausheben.

• Beschreibung von Elastizitätseigenschaften

• Darstellung von Drehungen, Streckungen, Verschiebungen

• In der Quantenmechanik werden Operatoren durch Matrizen dargestellt

• Einige Lösungsverfahren von linearen Gleichungssystemen und Diffe-rentialgleichungen arbeiten mit Matrizen

6.2.1 Definition einer Matrix

Def.: Unter einer Matrix A vom Typ (m,n) versteht man ein aus m · n reellen(bzw. komplexen) Zahlen bestehendes rechteckiges Schema mit m waagrechtangeordneten Zeilen und n senkrecht angeordneten Spalten. Die Elementeeiner Matrix werden mit aij bezeichnet, wobei der Index i = 1, 2, ...,m dieentsprechende Zeile und j = 1, 2, ..., n den Spaltenindex darstellt.

A =

a11 a12 · · · a1k . . . a1n

a21 a22 · · · a2k · · · a2n...

......

......

...ai1 ai2 . . . aik . . . ain...

......

......

...am1 am2 . . . amk . . . amn

Eine Matrix ist ein geordnetes Zahlenschema und besitzt im Gegensatz zu denspäter noch einzuführenden Determinanten keinen Zahlenwert.

• Schreibweisen: m× n, A(m,n), (aik) oder (aik)(m,n)

• Tritt der Sonderfall m = n ein so wird das System als n-reihige, quadra-tische Matrix oder Matrix n-ter Ordnung benannt.

• Die Hauptdiagonale besteht aus den Elementen aii.

• Die Zeilen einer Matrix werden auch als Zeilenvektoren, die Spalten alsSpaltenvektoren bezeichnet.

• Eine Diagonalmatrix ist eine quadratische Matrix, welche nur Elemen-te in der Hauptdiagonalen aufweist. Alle außerhalb liegenden Elemente

Page 5: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 213

verschwinden, d.h. aik = 0 für i 6= k. Sie besitzt folgende Gestalta11 0 · · · 00 a22 · · · 0...

.... . .

...0 0 · · · amn

• Die Einheitsmatrix ist eine n-reihige Diagonalmatrix mit den Diagonal-

elementen aii = 1.

I =

1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · 1

= δij

Dabei ist δij = 1 wenn i = j und δij = 0 für i 6= j.

• Als Dreiecksmatrix bezeichnet man eine quadratische Matrix, bei deralle Elemente ober- bzw. unterhalb der Hauptdiagonalen verschwinden.Man unterscheidet hier noch zwischen einer unteren- und oberen Drei-ecksmatrix. Demnach gilt für eine untere DM: aik = 0 für i < k und füreine obere DM: aik = 0 für i > k.

UDM =

a11 0 · · · 0a21 a22 · · · 0...

......

...an1 an2 · · · ann

, ODM =

a11 a12 · · · a1n

0 a22 · · · a2n...

......

...0 0 · · · ann

• Vertauscht man die Zeilen und Spalten einer Matrix miteinander so er-

hält man die Transponierte AT der Matrix A. Zwischen den Elemen-ten aik einer Matrix A und den Elementen aTik der transponierten MatrixATbesteht folgender Zusammenhang:

aTik = aki (6.2.1)

für alle i und k. Durch zweimaliges Transponieren kommt man wieder aufdie Ausgangsmatrix zurück, also (AT )T = A.

A =(a bc d

)−→ AT =

(a cb d

)• Bei einer symmetrischen Matrix sind die Elemente spiegelsymmetrisch

zur Hauptdiagonalen angeordnet. In weiterer Folge kann man auch sa-gen, dass man von einer symmetrischen Matrix spricht, wenn aik = aki.Folglich gilt für diesen Typ die Relation: AT = A.

A =

1 4 54 2 65 6 3

Page 6: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 214

• Bei einer schiefsymmetrischen Matrix verschwinden alle Diagonalele-mente: aii = 0. Die Definitionsbedingung dieses Typs lautet: aik = −aki.Somit erfüllt eine schiefsymmetrische Matrix die Bedingung: AT = −A.

A =

− 0 4 54 0 −6−5 6 0

6.2.2 Rechenoperationen für Matrizen

6.2.2.1 Addition und Subtraktion

Hierbei werden die gleichstelligen Elemente beider Matrizen miteinander ad-diert oder voneinander subtrahiert, sofern die beiden Matrizen A = (aik) undB = (bik) vom gleichen Typ bzw. Ordnung sind. Falls diese Bedingung erfülltist gilt folgende Rechnung

• A+B = C, oder in Indexschreibweise cik = aik + bik

• A−B = D, oder in Indexschreibweise dik = aik − bik

Die entsprechenden Rechengesetze lauten:

• Kommutativgesetz: A+B = B +A

• Assoziativgesetz: A+ (B + C) = (A+B) + C

Bsp.:

A±B =

a11 · · · a1n...

...am1 · · · amn

± b11 · · · b1n

......

bm1 · · · bmn

=

b11 ± a11 · · · b1n ± a1n...

...bm1 ± am1 · · · bmn ± amn

6.2.2.2 Multiplikation mit Skalar

Wird eine Matrix A mit einem Skalar λ ∈ R multipliziert, wird jedes Elementder Matrix mit diesem Skalar multipliziert.

λA =

λa11 · · · λa1n...

...λam1 · · · λamn

Dabei gelten folgende Gesetze:

• Assoziativgesetz: λ(µA) = (λµ)A

• Distributivgesetze: (λ+ µ)A = λA+ µA und λ(A+B) = λA+ λB

Page 7: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 215

6.2.2.3 Muliplikation mit Matrix

Die Multiplikation zweier Matrizen ist nur dann definiert, wenn die linksste-hende Matrix gleich viele Spalten hat wie rechtsstehende Matrix Zeilen. AlsResultat ergibt sich somit eine Matrix, welche so viele Zeilen aufweist wie dielinke und so vielen Spalten wie die rechte Matrix. Kurz und klar kann man fürdie Multiplikation schreiben

A(n,k) ·B(k,m) = C(n,m) (6.2.2)

Möge A eine 3× 5 Matrix sein, B eine 5× 20 Matrix. Dann ist die resultierendeMatrix der Multiplikation A · B von der Dimension 3 × 20. Die Operation derElemente lässt sich folgendermaßen ausdrücken

A ·B = C : cij =n∑k=1

aikbkj (6.2.3)

Wer sich unter der obigen Indexschreibweise nicht viel vorstellen kann,dem sei hier noch das Multiplikationsschema graphisch dargestellt. Der Wertcij errechnet sich aus dem Skalarprodukt zwischen dem Zeilenvektor ai derMatrix A und dem Spaltenvektor bj der Matrix B.

· =

Abbildung 6.2.1: Die Matrixmultiplikation lässt sich als Skalarprodukt zwischendem Zeilenvektor der Matrix A und dem Spaltenvektor der Matrix B beschrei-ben.

Rechengesetze für die Matrixmultiplikation:

• Assoziativgesetz: A(BC) = (AB)C

• Distributivgesetze: A(B + C) = AB +AC und (A+B)C = AC +BC

• weitere Gesetze: (AB)T = BTAT und AI = IA = A

• Des weiteren ist A · B 6= B · A, d.h. die Matrixmultiplikation ist nichtkommutativ.

6.2.2.4 Berechnung der inversen Matrix nach dem Gauß-Jordan-Verfahren

Der Begriff einer inversen Matrix stammt aus der Gleichungslehre, wo einelineare Gleichung der Form bx = 1 genau eine eindeutige Lösung x = b−1

Page 8: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 216

aufweist. Dieselbe Überlegung kann auch nun auf eine Matrizengleichung derForm B · X = I angewendet werden, wobei B und X quadratische Matrizendarstellen und I die n-reihige Einheitsmatrix repräsentiert. Die Lösung einersolcher Gleichung führt zum Ausdruck einer inversen Matrix. Da die Kenntnisder Determinantentheorie nicht gegeben ist, wird zur Berechnung eine etwasmühsame aber keineswegs komplizierte Methode besprochen. Sie wird nachdem Gauß’schen Algorithmus durchgeführt, welcher auf den elementaren Zei-lenumformungen einer Matrix beruht. Zunächst wird die Ausgangsmatrix B derEinheitsmatrix I gegenübergestellt, sodass sich folgendes Bild ergibt.

(B | I) =

b11 b12 · · · b1nb21 b22 · · · b2n...

.... . .

...bn1 bn2 · · · bnn

∣∣∣∣∣∣∣∣∣1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · 1

Diese Matrix wird nun durch Zeilenumformungen so lange umgeformt, bis dieEinheitsmatrix den ursprünglichen Platz der Matrix B einnimmt. Die inverseMatrix B−1 mit den Elementen cij nimmt dann das Feld der ursprünglichenEinheitsmatrix ein, welches das folgende Bild veranschaulicht.

(I | B−1

)=

1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · 1

∣∣∣∣∣∣∣∣∣c11 c12 · · · c1n

c21 c22 · · · c2n...

.... . .

...cn1 cn2 · · · cnn

Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand zusammenhängt,wird im nachfolgenden Kapitel ein schneller Weg erklärt, der die Kenntnisder Determinantentheorie voraussetzt und im Gegensatz zum Gauß-Jordan-Verfahren die Anzahl der möglichen Rechenfehler minimiert (für das untenste-hende Beispiel haben wir uns sicher über fünf mal verrechnet).

Bsp: Invertieren einer Matrix nach dem Gauß-Jordan Verfahren Gege-

ben sei die Matrix A =

3 8 91 6 75 0 4

. Gesucht ist die inverse Matrix A−1.

Als erstes wird folgendes Schema aufgestellt:

3 8 91 6 75 0 4

∣∣∣∣∣∣1 0 0 1→ 1/3 · 10 1 0 2→ 2− 1/3 · 10 0 1 3→ 3− 5/3 · 1

Die Information ganz links in dem Schema gibt an, welche Zeile, wo wieoftabgezogen wird. Und dann braucht man ”nur” noch durchrechnen, bis links inder Diagonalen lauter Einsen stehen...

1 8/3 9/30 10/3 40 −40/3 −11

∣∣∣∣∣∣1/3 0 0 1−1/3 1 0 2→ 3/10 · 2−5/3 0 1 3→ 3− 4 · 2

Page 9: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 217

1 8/3 9/30 1 12/100 0 5

∣∣∣∣∣∣1/3 0 0 1−1/10 3/10 0 2−3 4 1 3→ 1/5 · 3

Und nun rechnet man das ganze wieder ”rauf”, bis links die Einheitsmatrixsteht und rechts die Inverse.

1 8/3 00 1 00 0 1

∣∣∣∣∣∣32/15 −12/5 −3/5 1→ 1− 8/3 · 231/50 −33/50 −6/25 2−3/5 4/5 1/5 3

1 0 00 1 00 0 1

∣∣∣∣∣∣12/25 −16/25 1/2531/50 −33/50 −6/25−3/5 4/5 1/5

Page 10: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 218

6.3 Determinanten

Bei der Betrachtung linearer Gleichungssysteme stößt man immer wieder aufdie Frage nach der ihrer Lösbarkeit. Das zur Beantwortung dieser Frage not-wendige Werkzeug wird als Determinante bezeichnet. Die Relevanz diesesmathematischen Hilfsmittel wird am folgenden Gleichungssystem mit allgemei-nen Koeffizienten veranschaulicht.

ax+ by = cdx+ ey = f

Nach weiteren Umformungen erhalten wir die allgemeine Lösung dieses Sy-stems, welche folgende Gestalt aufweist

x =ce− bfae− bd

y =af − dcae− bd

Bei einer genaueren Betrachtung dieser Lösung kann man erkennen, dass be-stimmte Kombinationen von Koeffizienten wiederholt auftreten. Um dies in einekompaktere Form zu schreiben, definieren wir diese bestimmte Anordnung vonZahlen auf folgende Art und Weise

ae− bd ≡∣∣∣∣ a bd e

∣∣∣∣Eine solches rechteckiges Zahlenschema mit senkrechten Strichen wird alsDeterminante bezeichnet und gibt Aufschluss unter welchen Voraussetzun-gen ein Gleichungssystem lösbar ist. Um die Lösung nun endgültig deuten zukönnen schreiben wir sie in die Form

x =

˛˛ c bf e

˛˛˛

˛ a bd e

˛˛

, y =

˛˛ a cd f

˛˛˛

˛ a bd e

˛˛

Hier wird schon ersichtlich, dass nicht immer eine eindeutige Lösung mög-lich ist. Wenn die Determinante im Nenner verschwindet, entsprechen diebeiden Gleichungen entweder parallen oder identischen Geraden. Im erstge-nannten Fall existiert keine Lösung. Im Anderen entspricht die Gerade der Lö-sungsmenge. In weiterer Folge lässt sich daraus schließen, dass ein linearesGleichungssystem nur dann eindeutig lösbar ist, wenn die Koeffizientenmatrix∣∣∣∣ a bd e

∣∣∣∣ nicht verschwindet.

Satz: Ein lineares Gleichungssystem Ax = y ist genau dann eindeutig lös-bar, wenn gilt:

detA 6= 0 (6.3.1)

Page 11: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 219

6.3.1 Definition einer Determinante

Die Determinante einer n × n Matrix ist die Zahl det(A) = |aij |, welche durchdie Leibnitz-Formel

|A| =∑j∈Sn

sign (j) a1j1a2j2 . . . anjn (6.3.2)

definiert ist. Da diese Formel des öfteren bei der Erklärung dieser Systemeauftritt, möchten wir versuchen sie eingehend zu erklären. Dazu sollten wiruns die Mengen Sn, j und sign(j) etwas genauer anschauen.

Sn steht für die Menge aller Permutationen aus der Menge (1, ...., n). EinePermutation beschreibt eine bijektive Abbildung von (1, ...., n) auf sich selbst,das heißt, dass jedes Element einem anderen bijektiv zugeordnet wird. Bijektivbedeutet hier, dass jedem Element genau ein und wirklich nur ein Elementzugeordnet wird. Hat also eine Menge n Elemente so gibt es n! Permutationen.Der Buchstabe j steht für eine solche Permutation.

Zur Veranschaulichung ein kurzes Beispiel: Betrachten wir eine Menge,welche sich aus den Zahlen 1, 2, 3, 4 zusammensetzt. Eine mögliche Permu-tation würde folgendermaßen aussehen

j =[

1 2 3 42 1 4 3

]Jedem Element wurde also genau ein Element zugeordnet. Bei dieser Permu-tation ist nun

j1 = 2j2 = 1j3 = 4j4 = 3

Nun zum Signum sign (Vorzeichen) einer Permutation. Das Vorzeichen einerPermutation ist 1, wenn es sich um eine gerade Permutation handelt und -1 beieiner ungeraden Permutation. Eine Permutation wird als gerade bezeichnet,wenn die Anzahl der Fehlstände gerade ist, andernfalls ist sie ungerade. EinPaar (i, k) nennt man Fehlstand einer Permutation, falls für i < k gilt

ji > jk

Als Beispiel nehmen wir unsere obere Permutation zur Hand, wo j1 = 2 undj2 = 1 war. Dies bedeutet nun, dass 1 < 2 und j1 > j2 ist. Dies bezeichnetman als Fehlstand.

Des weiteren hat man bei einer n-elementigen Menge,(n2

)Möglichkei-

ten 2-elementige Teilmengen zu ziehen, um sie auf ihre Fehlstände zu prüfen.(n2

)stellt einen Binominalkoeffizienten dar, wobei gilt

(nk

)=

n!(n− k)! · k!

(6.3.3)

Page 12: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 220

In unserem Fall müssen wir also(

42

)= 6 Paare auf ihre Fehlstände unter-

suchen.

1 (1,2) j1 = 2 > j2 = 1 Fehlstand2 (1,3) j1 = 2 > j3 = 4 kein Fehlstand3 (1,4) j1 = 2 > j4 = 3 kein Fehlstand4 (2,3) j2 = 1 > j3 = 4 kein Fehlstand5 (2,4) j2 = 1 > j4 = 3 kein Fehlstand6 (3,4) j3 = 4 > j4 = 3 Fehlstand

Daraus kann man entnehmen, dass unsere Permutation zwei Fehlstände auf-weist und daher die Permutation gerade ist.

Eine andere (vielleicht anschaulichere) Art die Anzahl der Fehlstände zubestimmen ist, indem man zählt, wie oft zwei nebeneinander liegende Zah-lenpaare vertauscht werden müssen, bis die gewünschte Permutation erreichtwird. Im obigen Fall wären das zwei Vertauschungen.

Gibt P die Anzahl der Fehlstellen an, so gilt:

sign(j) = (−1)P (6.3.4)

Bsp.: Berechnung der Determinante einer 2× 2 Matrix

Wir suchen zunächst alle 2! = 2 Permutationen der Menge {1, 2}. Wie manleicht erraten kann ergeben sich die folgenden beiden Permutationen

j1 =[

1 21 2

], j2 =

[1 22 1

]Da es sich bei j1 um eine Identität handelt treten keine Fehlstände auf. Beij2 kann man wie oben verfahren und erhält einen Fehlstand. Daraus ergibtsich, dass sign(j1) = 1 und sign(j2) = −1 ist. Alle Parameter zur Berechnungder Determinante sind nun gegeben und müssen nur noch mehr in die obigeLeibnitz-Formel eingesetzt werden, was zu folgendem Resultat führt

|A| =∑j∈Sn

sign (j) a1j1a2j2 ...anjn = sign(j1)a11a22 + sign(j2)a12a21

= a11a22 − a12a21

Dieses Verfahren war an dieser Stelle nur als Veranschaulichung gedacht undfindet daher in der Praxis keine Verwendung. Die Leibnitz-Formel wird jedochzum Beweis von Aussagen über Determinanten benützt.

Des weiteren kann auch der Epsilontensor zur Berechnung von Determi-nanten genutzt werden und man kann schreiben

det(A) = εj1j2.....jna1j1a2j2 ....anjn (6.3.5)

Page 13: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 221

Bsp.: Berechnung der Determinante einer 3× 3 Matrix nach Sarrus

Diese Art von Determinantenberechung erfordert noch keine spezielle Metho-de und kann folgendermaßen durchgeführt werden. Betrachten wir zunächsteine 3× 3 Matrix mit folgender Gestalt

A =

a11 a12 a13

a21 a22 a23

a31 a32 a33

Die Determinante eines solchen Typs berechnet sich nach

det(A) = a11a22a33 + a12a23a31 + a13a21a32− a13a22a31− a21a12a33− a11a32a23

Eine Merkhilfe für die obige Formel ist in Abbildung 6.3.1 dargestellt. Neben dieMatrix, von der man die Determinante bilden will, schreibt man sich die erstenzwei Spalten nochmals hin. Dies ist im ersten Schritt dargestellt. Dann werdenLinien in den Diagonalen gezogen. Entlang diesen Linen werden die Wertemultipliziert. Linien die von oben nach rechts unten laufen werden addiert, dieanderen subtrahiert.

a11

a12

a13

a21

a22

a23

a31

a32

a33

a11

a12

a21

a22

a31

a32

a11

a12

a13

a21

a22

a23

a31

a32

a33

a11

a12

a21

a22

a31

a32

+ + +

- - -

Abbildung 6.3.1: Determinantenbildung nach der Methode von Sarrus.

Eine schnelle und relevante Methode zur Berechnung von Determinantenmit der Ordnung n > 2 wird im nächsten Kapitel erläutert.

6.3.2 Laplace’scher Entwicklungssatz

Bei Determinanten höherer Ordnung n > 3 ist die Kenntnis des Entwicklungs-satzes von Laplace von immenser Bedeutung. Bei diesem rekursiven Verfah-ren wird eine Determinante der Ordnung n, durch n Determinanten der Ord-nung n − 1 ausgedrückt. Beim Streichen der i-ten Zeile und j-ten Spalte einern× n Matrix erhält man eine Unterdeterminante mit der Ordnung n− 1. Diesewird als Minor Mij der Ausgangsmatrix aij bezeichnet. Die mit dem Vorzei-chenfaktor (−1)j+i versehende Unterdeterminante Mij wird als Kofaktor Cijbezeichnet, sodass gilt

Cij = (−1)j+iMij (6.3.6)

Diese Kofaktoren sind im Grunde genommen nichts anderes als die mit wech-selnden Vorzeichen versehenen Minoren. Die Anordnung der Vorzeichen folgt

Page 14: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 222

einem Schachbrettmuster.+ − + −− + − ++ − + −− + − +

Bei der Berechnung der Determinante muss zu Beginn entschieden werden,ob nach einer bestimmten Zeile oder Spalte entwickelt wird. Die Zeilenentwick-lung lässt sich beschreiben durch

det(A) =n∑j=1

aijCij = ai1Ci1 + ai2Ci2 + ...+ ainCin (6.3.7)

wobei i die Zeile ist, nach der entwickelt wird. Das Schema ist in Abbildung6.3.2 nochmals graphisch dargestellt.

ai1

ai2

... ai1

ai2

...

ai1

- ai2

+ ...

Abbildung 6.3.2: Schematische Darstellung der Entwicklung nach einer Zeile.Die Zeile nach der entwickelt wird, wird verdeckt. Um nun jeden Minor bilden zukönnen, wird von links nach rechts je eine Spalte abgedeckt. Der Schnittpunktder Abdeckungen ergibt den Wert aij . Die übrigbleibenden grauen Regionenwerden dann zu der neuen Matrix Cij zusammengesetzt.

Bei der Entwicklung nach einer beliebigen Spalte ergibt sich

det(A) =n∑i=1

aijCij = a1jC1j + a2jC2j + ...+ anjCnj (6.3.8)

Page 15: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 223

Bsp.: Entwicklung nach der ersten Spalte

Geg.: A =

a11 a12 a13

a21 a22 a23

a31 a32 a33

det(aij) = a11

∣∣∣∣ a22 a23

a32 a33

∣∣∣∣− a21

∣∣∣∣ a12 a13

a32 a33

∣∣∣∣+ a31

∣∣∣∣ a12 a13

a22 a23

∣∣∣∣= a11(a22a33 − a23a32)− a21(a12a33 − a13a32) + a31(a12a23 − a13a22)

Anmerkung: Da bei der Berechnung einer Determinante der Ordnung n unterwiederholter Anwendung des Laplace’schen Entwicklungssatzes auf 3-reihigeDeterminanten zurückgeführt wird, sollte man sich von Anfang an im Klarensein, dass die Anzahl dieser zu berechnenden 3-reihigen Determinanten mitzunehmender Ordnung der Ausgangsmatrix sehr rasch zunimmt. Daher ist beidiesem Verfahren zu beachten, nach welcher Spalte oder Zeile man entwickelt.Der Aufwand der Rechnung kann sich enorm erleichtern, wenn man Spaltenoder Zeilen wählt, die möglichst viele Nullen beinhalten, um sich so die Berech-nung der entsprechenden Minoren zu ersparen. In der Sektion 6.3.4 ”Eigen-schaften von Determinanten” werden noch weitere relevante Eigenschaftenvon Determinanten besprochen, die ihre Berechnung erleichtern können.

6.3.3 Inverse Matrix mittels Determinanten

Unter der Verwendung der transponierten Kofaktormatrizen kann die Berech-nung einer inverser Matrix durch die Relation

A−1 =CTij

det(aij)(6.3.9)

durchgeführt werden. Die Matrix CTij wird auch als die zur Ausgangsmatrix Aijadjungierte Matrix bezeichnet.

Die Inverse einer 2× 2 Matrix der Gestalt A =(a bc d

)lässt sich mit

A−1(2,2) =

1ad− bc

(d −b−c a

)(6.3.10)

angeben.

Bsp: Invertieren einer Matrix mittels Determinanten Gegeben sei die Ma-

trix A =

3 8 91 6 75 0 4

. Gesucht ist die inverse Matrix A−1.

Page 16: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 224

Zuerst werden die Kofaktoren nach 6.3.6 gebildet.

C11 = (−1)1+1

˛6 70 4

˛= 24 C12 = (−1)1+2

˛1 75 4

˛= 31 C13 = (−1)1+3

˛1 65 0

˛= −30

C21 = (−1)2+1

˛8 90 4

˛= −32 C22 = (−1)2+2

˛3 95 4

˛= −33 C23 = (−1)2+3

˛3 85 0

˛= 40

C31 = (−1)3+1

˛8 96 7

˛= 2 C32 = (−1)3+2

˛3 91 7

˛= −12 C33 = (−1)3+3

˛3 81 6

˛= 10

Damit lässt sich nun die Kofaktorenmatrix C bilden und gleich auch dessenTransponierte

C =

24 31 −30−32 −33 40

2 −12 10

CT =

24 −32 231 −33 −12−30 40 10

Jetzt brauchen wir nur noch die Determinante von A und sind fertig.

detA = 72 + 280 + 0− 270− 0− 32 = 50

A−1 =150

24 −32 231 −33 −12−30 40 10

6.3.4 Eigenschaften von Determinanten

Folgende Eigenschaften von Determinanten sind zu nennen. Zur Vereinfa-chung bezeichnen wir hier die Determinante mit D.

1. D ist homogen in Bezug auf die Elemente einer Zeile oder Spalte, d.h.:Wenn alle Elemente einer Zeile oder einer Spalte mit einer Konstantenk multipliziert werden, so ändert sich auch der Wert der Determinantemultiplikativ: D → kD.∣∣∣∣∣∣∣∣∣

a11 a12 · · · a1n

ka21 ka22 · · · ka2n...

......

...an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣ = k

∣∣∣∣∣∣∣∣∣a11 a12 · · · a1n

a21 a22 · · · a2n...

......

...an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣Erklärung: Da jeder Summand von D genau ein Element aus jeder Zeile(Spalte) enthält, kann man k aus jeder Summe ausklammern. Kommtnun k in jeder Zeile (und daher auch in jeder Spalte) vor so gilt

|kaij | = kn |kaij |

2. Vertauscht man Zeilen und Spalten miteinander, d.h. aij → aji, so ändertsich der Wert der Determinante nicht. Daraus lässt sich dann schließen,dass det(A) = det(AT ).

3. Vertauscht man zwei benachtbarte Zeilen oder Spalten miteinander, sowechselt das Vorzeichen der Determinante (D → −D).

Page 17: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 225

4. Sind zwei Zeilen oder Spalten gleich oder proportional also linear abhän-gig, so ist D = 0.Erklärung: Betrachten wir nun folgenden Fall: Angenommen die ersteZeile ist mit k proportional zur zweiten Zeile, d.h.

a11 = ka21, a12 = ka22, a13 = ka23, ....., a1n = ka2n

Wie wir schon im Punkt 1 gesehen haben, kann man nun den Faktor kaus der Determinante herausheben und es bleiben zwei gleiche Zeilenüber. Vertauscht man nun die erste mit der zweiten Zeile, so ändert sicham Determinantenwert nichts. Durch die Vertauschung aber wechseltdas Vorzeichen von D (Eigenschaft Nr.4). Der Fall, D = −D, kann dahernur eintreten, wenn D = 0 ist.

5. Der Wert von D ändert sich nicht, wenn zu einer Zeile oder Spalte dasVielfache einer anderen Zeile oder Spalte addiert wird.∣∣∣∣∣∣∣∣∣a11 a12 · · · a1n

a21 a22 · · · a2n...

......

...an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∣a11 + ka21 a12 + ka22 · · · a1n + ka2n

a21 a22 · · · a2n...

......

...an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣

Page 18: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 226

6.4 Koordinaten-Transformation

Unter einer Koordinatentransformation versteht man die Änderung der Koor-dinaten beim Wechsel von einem Koordinatensystem K in ein anderes, wel-ches wir als K ′ bezeichnen wollen. Wir haben gesehen, dass wir Vektorenin Komponenten bezüglich einer Basis {ei} darstellen können. Der Index igibt hier den i-ten Basisvektor des zu betrachtenden Vektorraumes an, daheri = 1, 2, 3, ..., n . Eine Koordinatentransformation ist so gesehen ein Basis-wechsel. Dieses Verfahren wird dazu genutzt, um verschiedene Probleme ineinem anderen KS besser und leichter lösen zu können.

6.4.1 Parallverschiebung eines kartesischen Koordinatensystems

Betrachten wir nun einen Orstvektor ~r im KS K . Dieses KS geht durch Paral-lelverschiebung in ein neues KS K ′ über. Wir nehmen nun an, dass die beidenKS nur durch den Vektor ~a gegeneinander verschoben sind. Dies bedeutet,dass die Ursprünge der beiden Systeme 0 und 0′ um die Länge |~a| voneinan-der entfernt liegen.

a

K K’

r

r’

O O’

Abbildung 6.4.1: Parallelverschie-bung eines KS

Die Orstvektoren beider Systeme haben somit einen linearen Zusammen-hang, welcher sich folgendermaßen ausdrücken lässt

~r = ~a+ ~r′

~r′ = ~r − ~a

Da die Translation trivial ist, betrachten wir nun die Drehung zwischen {ei} und{e′i

}welche orthonomierte 3-Beine darstellen.

6.4.2 Drehungen

Wir nehmen nun an, dass die Koordinatenursprünge von K und K ′ zusam-menfallen, sodass sich folgendes Bild ergibt

Page 19: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 227

e1

e2

e3

K=K’e’1

e’2

e’3

2

3

1

Abbildung 6.4.2: Drehung einesKoordinatensystems

Wir nehmen nun an, die Elemente xi aus {ei} seien bekannt und die Ele-mente x

′i in

{e′i

}seien zu bestimmen, falls wir ausdrücken können wie

{e′i

}von {ei} abhängt. Dieser Vorgang wird als Basistransformation bezeichnet.Da nun die Ursprünge der KS in ein und demselben Punkt liegen, ist der be-liebige Ortsvektor ~r nach Richtung und Betrag unabhängig vom Koordinaten-system. Deshalb muss gelten:

3∑j=1

xj ej =3∑i=1

x′ie′i (6.4.1)

Für die Basisvektoren e′i gilt in K :

e′i =

∑j

aij ej (6.4.2)

Diese Entwicklungskoeffizienten aij für eine orthonormierte Basis erhalten wirdurch skalare Multiplikation der obigen Gleichung mit ej :

e′iej = aij ej ej = aij (6.4.3)

Verwenden wir nun die Formel des Skalarprodukts, können wir auch eine Win-kelabhängigkeit erkennen, womit sich zeigt:

e′iej =

∣∣∣e′i∣∣∣ |ej | cos(e′iej) = cos(ϕij) = aij (6.4.4)

ϕij beschreibt somit den Winkel, den die i-te Achse in K ′ mit der j-ten Achsein K einschließt. Da nun cos(ϕij) ≤ 1 , kann nicht jede beliebige Matrix ei-ne Drehmatrix sein. Die Drehmatrix setzt sich somit aus den reellen Zahlenaij zusammen. Um es noch deutlicher zu sagen, stellen die Elemente aij dieRichtungskosinusse der Winkel zwischen den alten und den neuen Koordina-tenachsen dar.

Die Drehmatrix hat nun folgende Gestalt:

A = aij = cos(ϕij) =

a11 a12 a13

a21 a22 a23

a31 a32 a33

Page 20: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 228

Angesichts der Orthogonalität der Achsen, d.h. aus der Orthonomierbarkeitder Basisvektoren e

′i, kann für i 6= j folgende Eigenschaft dieser Matrix herge-

leitet werden:

e′ie′j = 0 = aikekajlel = aikajlδkl = ailajl = δij (6.4.5)

δij ist hier das Kronecker Delta, welches δij = 1 für i = j und δij = 0 für alleanderen Fälle ist. Hier ist zu beachten, dass ailajl das Skalarprodukt zweierZeilenvektoren der Drehmatrix darstellt. Unter Betrachtung der oben gegebenMatrix mit den Elementen aij lässt sich diese Eigenschaft durch Summierenüber den Index l trivial zeigen:

3∑l=1

ailajl = ai1aj1 + ai2aj2 + ai3aj3

Die Zeilenindizes i und j sind frei wählbar. Zur Veranschaulichung wählen wiri = 1 und j = 2 . Somit müsste sich das Skalarprodukt der ersten Zeile mit derzweiten ergeben. Wir setzen ein:

ai1aj1 + ai2aj2 + ai3aj3 = a11a21 + a12a22 + a13a23

Dieses Ergebnis zeigt nun eine Orthonormalität der Zeilen der Drehmatrix.Ebenso lässt sich die Orthonormalität der Spalten zeigen. Im Herleitungspro-zess zeigt sich, dass

A−1 = AT ↔ (a−1)ij = aji (6.4.6)

gilt. Aus der RelationA−1A = AA−1 = I kann dann auf die Orthonormalität derZeilen und Spalten geschlossen werden. Da nun der Einheitswürfel durch dieDrehung sein Volumen nicht ändern darf, d.h. auch in K ′ muss das Volumen1 sein, gilt für stetige Drehungen

det(aij) = 1

Jede Matrix die diese hinreichenden und notwendigen Bedingungen erfüllt isteine Drehmatrix.

6.4.3 Transformationsformel für Vektoren

Nachdem wir die Basistransformation behandelt haben, können wir den Vek-tor ~r in jedem beliebigen Koordinatensystem ausdrücken. Den Ausgangspunktliefert wiederum die Bedingung

~r = xj ej = x′j e′j

Durch Multiplikation mit e′i ergibt sich folgendes Bild

xj ej e′i = x

′j e′j e′i

xjaij = x′jδij

Page 21: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 229

Die Transformationsformel für Vektoren lautet daher

x′i = aijxj (6.4.7)

Die Rücktransformation läuft analog ab und kann nun ohne Probleme durch-geführt werden. Wiederum gehen wir von der Grundlage aus:

xj ej = x′ie′i

xj ej ek = x′ie′iek

xjδjk = xk = x′iaik

Somit ergibt sich für die Rücktransformation folgendes Ergebnis:

xk = aikx′i (6.4.8)

Dies kann mit 6.4.6 in eine Form umgewandelt werden, die sich später nochals sehr wichtig herausstellt.

xk = aTkix′i (6.4.9)

Zur Überprüfung kann nun noch die entsprechende Transformation für x′i in

die obige Relation eingesetzt werden. Daraus ergibt sich:

xk = aikx′i = aikaijxj = δkjxj = xk

q.e.d.

Bsp.: Drehung in der Ebene

Betrachten wir nun eine Drehung um den Ursprung. Wie schon vorher an-gemerkt stellen Matrizen ein Mittel dar, um Drehungen mathematisch zu be-schreiben. Anhand dieses Beispiels wollen wir den Rotationsoperator, der je-

den Vektor ~r =(xy

)aus V um den Winkel α in der Ebene dreht, kennenler-

nen. Die Drehung erfolgt im mathematisch positiven Sinne, also im Gegenuhr-zeigersinn. Folgende Drehung wird nun beschrieben:

X

YY’

X’

(x’,y’)(x,y)

x’

y’

x

y

Abbildung 6.4.3: Drehung in der Ebene

Page 22: Lineare Operatoren in Vektorräumen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/6_LineareOperatoren.pdf · Da mit dieser Methode ein ungewöhnlich hoher Zeitaufwand

KAPITEL 6. LINEARE OPERATOREN IN VEKTORRÄUMEN 230

Ein Punkt, der im ursprünglichen System die Koordinaten (x, y) aufweist,stellt sich im gedrehten Koordinatensystem laut obiger Grafik als

x′ = x cos(α) + y sin(α)y′ = −x sin(α) + y cos(α)

dar. Wie man sieht kann diese Drehung mit einfachen trigonometrischenSätzen beschrieben werden. Um dies noch in einer kompakteren Formanzugeben, wird dieses Gleichungsystem noch in die Matrixform x′ = Axgebracht, was zum folgenden Ausdruck führt

(x′

y′

)=(

cos(α) sin(α)− sin(α) cos(α)

)(xy

)Der Rotationsoperator A wurde somit gefunden. In weiterer Folge kann manauch erkennen, dass dieser Operator (Matrix) die wichtige Eigenschaft, det(aij) =1 , von Drehmatrizen erfüllt.