18.01.2014 Aufrufe

Lineare Algebra I - Institut für Algebra, Zahlentheorie und Diskrete ...

Lineare Algebra I - Institut für Algebra, Zahlentheorie und Diskrete ...

Lineare Algebra I - Institut für Algebra, Zahlentheorie und Diskrete ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Lineare</strong> <strong>Algebra</strong> I<br />

Prof.Dr. Stefan Wewers<br />

<strong>Institut</strong> <strong>für</strong> <strong>Algebra</strong>, <strong>Zahlentheorie</strong> <strong>und</strong> <strong>Diskrete</strong> Mathematik<br />

Leibniz-Universität Hannover<br />

Vorlesung, gehalten im WS 07/08<br />

Contents<br />

1 <strong>Lineare</strong> Gleichungssysteme 2<br />

1.1 Ein Beispiel: Netzwerkanalyse . . . . . . . . . . . . . . . . . . . . 2<br />

1.2 Ringe <strong>und</strong> Körper . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.3 Das Eliminationsverfahren von Gauss . . . . . . . . . . . . . . . 16<br />

1.4 Analytische Geometrie . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

2 Vektorräume <strong>und</strong> lineare Abbildungen 39<br />

2.1 Gr<strong>und</strong>legende Definitionen . . . . . . . . . . . . . . . . . . . . . . 39<br />

2.2 Basis <strong>und</strong> Dimension . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

2.3 Beispiel: Interpolation von Funktionswerten . . . . . . . . . . . . 55<br />

2.4 <strong>Lineare</strong> Abbildungen <strong>und</strong> Matrizen . . . . . . . . . . . . . . . . . 60<br />

2.5 Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . 64<br />

2.6 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />

2.7 Elementarmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />

3 Diagonalisieren 78<br />

3.1 <strong>Lineare</strong> Rekursionsfolgen . . . . . . . . . . . . . . . . . . . . . . . 78<br />

3.2 Diagonalisierbare Endomorphismen . . . . . . . . . . . . . . . . . 82<br />

3.3 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />

3.4 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . 96<br />

3.5 Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

3.6 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . 109<br />

1


1 <strong>Lineare</strong> Gleichungssysteme<br />

1.1 Ein Beispiel: Netzwerkanalyse<br />

Wir betrachten das folgende Modell eines elektrischen Schaltkreises. 1 Die durchgezogenen<br />

Linien sind Leitungen. Die Kreise stehen <strong>für</strong> Spannungsquellen, die<br />

Kästchen <strong>für</strong> Widerstände.<br />

✲I 1 ✛ I 3<br />

R 1 R 3<br />

I 2<br />

R 2<br />

U <br />

<br />

q1<br />

❄<br />

❄<br />

❄ Uq 2<br />

Figure 1:<br />

Die Buchstaben auf den Widerständen (R 1 , R 2 , R 3 ) stehen <strong>für</strong> den Wert des<br />

entsprechenden Widerstandes, gemessen in Ohm. Für uns (d.h. vom mathematischen<br />

Standpunkt aus) sind R 1 , R 2 , R 3 einfach fest vorgegebene positive reelle<br />

Zahlen.<br />

Die Buchstaben neben den Spannungsquellen (U q1 , U q2 ) stehen <strong>für</strong> den Wert<br />

der angelegten Spannung, gemessen in Volt. Allerdings sind U q1 <strong>und</strong> U q2 nicht<br />

notwendigerweise positiv, oder – anders ausgedrückt – diese Werte haben ein<br />

Vorzeichen. Damit wir das Vorzeichen richtig deuten können, ist neben der<br />

Spannungsquelle zusätzlich ein Pfeil eingezeichnet, der die Ausrichtung der anliegenden<br />

Spannung anzeigt. Handelt es sich bei der Spannungsquelle z.B. um<br />

eine Batterie, so würde man den Wert U qi als positiv annehmen <strong>und</strong> den Pfeil<br />

vom Plus- zum Minuspol ausrichten. Rein mathematisch betrachtet sind U q1<br />

<strong>und</strong> U q2 einfach beliebige (aber fest vorgegebene) reelle Zahlen.<br />

Schliesslich bezeichnen die Buchstaben I 1 , I 2 , I 3 die Stärke des durch den<br />

entsprechend nummerierten Widerstand fliessenden Stroms, gemessen in Ampere.<br />

Hierbei ist zu beachten, dass Stromstärke, genau wie Spannung, eine<br />

vorzeichenbehaftete Grösse ist. Das Vorzeichen bestimmt die Richtung des<br />

Stromflusses, <strong>und</strong> zwar folgendermassen. Ist I i positiv, so fliesst der Strom in<br />

die Richtung des im Bild 1.1 neben dem Widerstand R i eingezeichneten Pfeiles.<br />

Ist I i dagegen negativ, so fliesst der Strom in die entgegengesetzte Richtung.<br />

Problem 1.1.1 Man bestimme die Stromstärken I 1 , I 2 , I 3 (in Abhängigkeit<br />

von R i <strong>und</strong> U qj ).<br />

1 Quelle: Wikipedia, Stichwort Netzwerkanalyse (Elektrotechnik)<br />

2


Wir werden sehen, dass dieses Problem auf ein lineares Gleichungssystem<br />

hinausläuft. Um dieses Gleichungssystem aufstellen zu können, benötigt man<br />

drei f<strong>und</strong>amentale Gesetze der Elektrotechnik. Das erste Gesetz lautet:<br />

Das Ohmsche Gesetz: Fliesst durch einen Widerstand R der Strom I, <strong>und</strong> bezeichnet<br />

U den Spannungsabfall zwischen den beiden Enden des Widerstandes,<br />

so gilt<br />

U = R · I.<br />

Man beachte wieder, dass Stromstärke genauso wie Spannungsabfall vorzeichenbehaftete<br />

Grössen sind, oder physikalisch gesprochen eine Richtung haben.<br />

Da wir den Widerstand R als positiv annehmen, sind die Vorzeichen von U <strong>und</strong><br />

I gleich, d.h. der Spannungsabfall erfolgt in der Richtung des Stromflusses.<br />

Das Ohmsche Gesetz ist ein typisches Beispiel <strong>für</strong> eine lineare Abhängigkeit<br />

zwischen zwei physikalischen Grössen. Legt man an ein ektronisches Schaltelement<br />

eine (variable) Spannung U an <strong>und</strong> misst den resultierenden Strom I, so<br />

ist der Quotient U/I unabhängig von U. Somit ist die Grösse R := U/I eine<br />

Konstante des Schaltelementes, die man suggestiv Widerstand nennt.<br />

Zurück zu unserem Schaltkreis in Bild 1.1. Es sei U i der am Widerstand R i<br />

auftretende Spannungsabfall. Nach dem Ohmschen Gesetz gilt dann<br />

U 1 = R 1 · I 1 , U 2 = R 2 · I 2 , U 3 = R 3 · I 3 . (1)<br />

Die nächste Gr<strong>und</strong>regel bezeichnet man auch als das 1. Kirchhoffsche Gesetz.<br />

Die Maschenregel: Die Summe der Spannungsgewinne entlang eines geschlossenen<br />

Weges ist gleich Null. Dabei heben sich Spannungsgewinne <strong>und</strong> -verluste<br />

gegenseitig auf.<br />

Unser Schaltkreis hat offenbar zwei Maschen, d.h. nichttriviale geschlossene<br />

Wege, die in Bild 1.1 durch das Symbol gekennzeichnet sind. Durchläuft man<br />

diese Wege im Uhrzeigersinn <strong>und</strong> rechnet die erfahrenen Spannungsgewinne bzw.<br />

-verluste auf, so führt uns die Maschenregel auf die beiden Gleichungen<br />

U 1 + U 2 − U q1 = 0,<br />

−U 2 − U 3 + U q2 = 0.<br />

(2)<br />

Die dritte Gr<strong>und</strong>regel ist das 2. Kirchhoffsche Gesetz, auch genannt<br />

Die Knotenregel: Die Summe der in einem Teilbereich des Netzwerkes zufliessenden<br />

Ströme ist gleich Null. Dabei heben sich zu- <strong>und</strong> abfliessende Ströme<br />

gegenseitig auf.<br />

Unser Schaltkreis hat zwei Knoten, d.h. Kreuzungspunkte von Leitungen.<br />

Wir betrachten zunächst den oberen Knoten <strong>und</strong> wenden auf ihn die Knotenregel<br />

an. Gemäß dem folgenden Schema<br />

3


I 1 I 3<br />

✲ ✛<br />

I 2<br />

❄<br />

erhalten wir die Gleichung<br />

I 1 − I 2 + I 3 = 0. (3)<br />

Offenbar liefert der zweite Knoten die äquivalente Gleichung−I 1 + I 2 − I 3 = 0,<br />

die wir nicht extra aufführen brauchen. 2<br />

Wir können jetzt die Gleichungen (1), (2) <strong>und</strong> (3) zu folgendem Gleichungssystem<br />

zusammenfassen.<br />

R 1 I 1 + R 2 I 2 = U q1<br />

R 2 I 2 + R 3 I 3 = U q2<br />

I 1 − I 2 + I 3 = 0.<br />

(4)<br />

Wir haben das Problem 1.1.1 auf das Lösen des Gleichungssystems (4)<br />

zurückgeführt. Dies ist nun ein rein mathematisches Problem. Die Erfahrung<br />

mit der physikalischen Wirklichkeit sagt uns, dass (4) eine eindeutige Lösung<br />

haben sollte. Und tatsächlich kann man sich durch eine etwas längliche Rechnung<br />

oder durch Benutzen eines Computeralgebrasystems (wie z.B. Maple) davon<br />

überzeugen, dass das Gleichungssystem (4) die eindeutige Lösung<br />

I 1 = (R 2 + R 3 )U q1 − R 2 U q2<br />

,<br />

R 1 R 2 + R 1 R 3 + R 2 R 3<br />

R 3 U q1 + R 1 U q2<br />

I 2 =<br />

,<br />

R 1 R 2 + R 1 R 3 + R 2 R 3<br />

(5)<br />

I 3 = −R 2U q1 + (R 1 + R 2 )U q2<br />

R 1 R 2 + R 1 R 3 + R 2 R 3<br />

.<br />

besitzt.<br />

Das Gleichungssystem (4) ist ein Beispiel <strong>für</strong> ein lineares Gleichungssystem<br />

mit drei Gleichungen <strong>und</strong> drei Unbestimmten I 1 , I 2 , I 3 . Wir werden sehr<br />

bald lernen, wie man entscheiden kann, ob ein lineares Gleichungssystem eine<br />

Lösung besitzt, ob diese Lösung eindeutig ist, <strong>und</strong> wie man sämtliche Lösungen<br />

berechnen kann. Insbesondere kann man im vorliegenden Fall mit rein mathematischen<br />

Methoden zeigen, dass (4) eine eindeutige Lösung besitzt, die durch<br />

(5) beschrieben wird.<br />

1. Beobachtung: Das Rechnen von Hand ist meistens unpraktikabel.<br />

Selbst bei einem so simplen Schaltkreis wie im Bild 1.1 ist die Lösung des<br />

auftretenden Gleichungssystems schon so kompliziert, dass die Berechnung derselben<br />

von Hand sehr mühsam ist (probieren Sie es aus!). Schon in diesem einfachen<br />

Fall ist uns ein Computeralgebrasystem wie Maple haushoch überlegen.<br />

2 Allgemein gilt, dass in einem Netzwerk mit k Knoten von den k resultierenden Gleichungen<br />

immer eine überflüssig ist, aber die restlichen k −1 Gleichungen voneinander unabhängig sind.<br />

4


In der Praxis treten leicht Schaltkreise mit tausenden Schaltelementen auf. Es<br />

versteht sich von selbst, dass hier ohne Einsatz eines Rechners gar nichts läuft.<br />

Was können wir daraus lernen? Für das Lösen von Übungsaufgaben <strong>und</strong> das<br />

erfolgreiche Bestehen der Klausuren ist ein gewisses Maß an Rechenfertigkeit<br />

unerlässlich, <strong>und</strong> sie werden ausreichend Gelegenheit haben, dies zu trainieren.<br />

Diese Rechentechnik ist aber allenfalls ein Nebenprodukt; das eigentliche Lernziel<br />

der Vorlesung ist etwas ganz anderes.<br />

2. Beobachtung: Die Lösung des linearen Gleichungssystems (4) ist selbst<br />

eines.<br />

Wie ist das gemeint? Nun, wir können die Gleichungen (5) auch so schreiben:<br />

R 2 + R 3<br />

R 1 R 2 + R 1 R 3 + R 2 R 3<br />

· U q1 +<br />

R 3<br />

R 2<br />

R 1 R 2 + R 1 R 3 + R 2 R 3<br />

· U q2 = I 1<br />

· U q1 +<br />

· U q2<br />

R 1 R 2 + R 1 R 3 + R 2 R 3 R 1 R 2 + R 1 R 3 + R 2 R 3<br />

= I 2<br />

−R 2<br />

R 1 + R 2<br />

· U q1 +<br />

· U q2<br />

R 1 R 2 + R 1 R 3 + R 2 R 3 R 1 R 2 + R 1 R 3 + R 2 R 3<br />

= I 3 .<br />

In dieser Form können wir (5) als lineares Gleichungssystem in den Unbekannten<br />

U q1 , U q2 auffassen, wenn wir Werte <strong>für</strong> I 1 , I 2 , I 3 vorgeben. Das macht auch<br />

physikalisch Sinn: wenn man z.B. die durch die Widerstände R i fliessenden<br />

Ströme I i gemessen hat, kann man anhand von (5) die an den beiden Spannungsquellen<br />

anliegenden Spannungen U qj bestimmen.<br />

Dies ist tatsächlich eine Verallgemeinerung von etwas, das wir schon anhand<br />

des Ohmschen Gesetzes beobachtet haben, nämlich die lineare Abhängigkeit<br />

zwischen zwei Grössen. Dazu ist es zweckmässig, die drei Grössen I 1 , I 2 , I 3 zu<br />

einer zusammenzufassen, <strong>und</strong> zwar als Spaltenvektor:<br />

⎛<br />

I := ⎝ I ⎞<br />

1<br />

I 2<br />

⎠.<br />

I 3<br />

Mit den Spannungsquellen U q1 <strong>und</strong> U q2 wollen wir es ähnlich machen. Ein Blick<br />

auf das Gleichungssystem (4) sagt uns, dass wir drei Einträge brauchen, wobei<br />

der letzte Null sein muss: ⎛ ⎞<br />

U := ⎝ U q 1<br />

U q2<br />

⎠.<br />

0<br />

Ausserdem schreiben wir die Koeffizienten auf der linken Seite von (4) in ein<br />

rechteckiges Zahlenschema, Matrix genannt:<br />

⎛<br />

A := ⎝ R ⎞<br />

1 R 2 0<br />

0 R 2 R 3<br />

⎠<br />

1 −1 1<br />

Mit diesen Bezeichnungen können wir nun das Gleichungssystem (4) in der Form<br />

R 1<br />

A · I = U (6)<br />

5


schreiben. Das Produkt A · I ist per definitionem der Spaltenvektor, dessen<br />

Einträge die Ausdrücke auf der linken Seite von (4) bilden.<br />

Die Vorteile dieser neuen Schreibweise sind offensichtlich: sie ist kürzer <strong>und</strong><br />

sie sieht formal genauso aus wie das Ohmsche Gesetz, U = R ·I. Wie wir später<br />

sehen werden lässt sich jede lineare Abhängigkeit zwischen zwei (vektorwertigen)<br />

Grössen als eine Gleichung der Form (6) schreiben.<br />

Wenn wir umgekehrt den Vektor I in Abhängigkeit des Vektors U betrachten<br />

wollen, so ist es naheliegend, die Matrix A ‘auf die andere Seite zu bringen’, d.h.<br />

wir möchten die Umformung<br />

A · I = U<br />

?<br />

⇒<br />

I = A −1 · U<br />

durchführen. Ist das erlaubt bzw. führt so eine Umformung zu einem korrekten<br />

Ergebnis? Was bedeutet überhaupt A −1 ? Die Antwort werden wir bald<br />

kennenlernen.<br />

3. Beobachtung:<br />

Überlagerungen von Lösungen<br />

1.2 Ringe <strong>und</strong> Körper<br />

Wir setzen die folgenden Zahlbereiche als bekannt voraus.<br />

• Die natürlichen Zahlen N = {1, 2, 3, . . .} (bzw. N 0 = {0, 1, 2, 3, . . .}).<br />

• Die ganzen Zahlen Z = {. . .,−2, −1, 0, 1, 2, . . .}.<br />

• Die rationalen Zahlen Q = { a b<br />

| a, b ∈ Z, b ≠ 0}.<br />

• Die reellen Zahlen R (siehe Vorlesung Analysis I).<br />

Es handelt sich jeweils um eine Menge mit zwei Verknüpfungen, die Addition<br />

<strong>und</strong> die Multiplikation.<br />

Wir wollen nun den Begriff eines Zahlbereiches formalisieren.<br />

Definition 1.2.1 Sei G eine (nichtleere) Menge.<br />

(i) Eine Verknüpfung auf G ist eine Abbildung ∗ : G×G → G. 3 Schreibweise:<br />

a ∗ b := ∗(a, b), <strong>für</strong> a, b ∈ G.<br />

(ii) Eine Verknüpfung ∗ : G×G → G heißt assoziativ, wenn <strong>für</strong> alle a, b, c ∈ G<br />

gilt:<br />

(a ∗ b) ∗ c = a ∗ (b ∗ c).<br />

(iii) Eine Verknüpfung ∗ : G×G → G heißt kommutativ, wenn <strong>für</strong> alle a, b ∈ G<br />

gilt:<br />

a ∗ b = b ∗ a.<br />

3 G × G bezeichnet das kartesische Produkt von G mit sich selbst, also die Menge aller<br />

(geordneten) Paare (a, b) mit a, b ∈ G.<br />

6


Beispiel 1.2.2 Die Addition + <strong>und</strong> die Multiplikation · auf der Menge der<br />

natürlichen Zahlen sind beide sowohl assoziativ als auch kommutativ. Dasselbe<br />

gilt <strong>für</strong> G = Z, Q oder R.<br />

Beispiel 1.2.3 Sei G = R die Menge der reellen Zahlen. Wir definieren eine<br />

Verknüpfung ∗ auf R durch die Vorschrift<br />

a ∗ b := a + b , a, b ∈ R.<br />

2<br />

Offensichtlich ist ∗ kommutativ (weil + kommutativ ist). Aber ∗ ist nicht assoziativ:<br />

es gilt<br />

(a ∗ b) ∗ c = a/4 + b/4 + c/2, a ∗ (b ∗ c) = a/2 + b/4 + c/4.<br />

Z.B. erhalten wir <strong>für</strong> a := 1, b := 0, c := 0 die Ungleichheit<br />

(1 ∗ 0) ∗ 0 = 1/4 ≠ 1/2 = 1 ∗ (0 ∗ 0).<br />

Beispiel 1.2.4 Sei X eine nichtleere Menge. Wir definieren G := Abb(X, X)<br />

als die Menge aller Abbildungen f : X → X. Auf G definieren wir die<br />

Verknüpfung ◦ : G × G → G durch die Vorschrift<br />

(f ◦ g)(a) := f(g(a)), a ∈ X.<br />

Dann ist ◦ nicht kommutativ, wenn X mindestens drei verschiedene Elemente<br />

enthält. Ist z.B. X = {1, 2, 3} <strong>und</strong> setzen wir<br />

⎧<br />

⎧<br />

⎨ 1 ↦→ 1 ⎨ 1 ↦→ 3<br />

f := 2 ↦→ 1 , g := 2 ↦→ 1 ,<br />

⎩<br />

⎩<br />

3 ↦→ 2<br />

3 ↦→ 1<br />

so erhält man<br />

⎧<br />

⎨ 1 ↦→ 2<br />

f ◦ g = 2 ↦→ 1<br />

⎩<br />

3 ↦→ 1<br />

⎧<br />

⎨<br />

, g ◦ f =<br />

⎩<br />

1 ↦→ 3<br />

2 ↦→ 3<br />

3 ↦→ 1<br />

.<br />

Man sieht dass f ◦ g ≠ g ◦ f (weil z.B. f ◦ g(1) ≠ g ◦ f(1)).<br />

Andererseit ist ◦ assoziativ. Um das zu zeigen, wählen wir beliebige Elemente<br />

f, g, h ∈ G and a ∈ X <strong>und</strong> formen ein bischen um:<br />

((f ◦ g) ◦ h)(a) = (f ◦ g)(h(a)) = f(g(h(a)))<br />

= f((g ◦ h)(a)) = (f ◦ (g ◦ h))(a).<br />

Kurz gesagt: <strong>für</strong> alle a ∈ G gilt ((f ◦ g) ◦ h)(a) = (f ◦ (g ◦ h))(a). Das bedeutet<br />

aber, dass die beiden Abbildungen (f ◦g) ◦h <strong>und</strong> f ◦ (g ◦h) identisch sind 4 . Da<br />

f, g, h beliebige Elemente von G waren, haben wir gezeigt, dass ◦ assoziativ ist.<br />

4 Sind X, Y Mengen <strong>und</strong> f, g : X → Y Abbildungen, so gilt f = g genau dann, wenn<br />

f(a) = g(a) <strong>für</strong> alle a ∈ X gilt.<br />

7


Definition 1.2.5 Sei G eine Menge <strong>und</strong> ∗ : G × G → G eine Verknüpfung.<br />

(i) Ein neutrales Element (bzgl. ∗) ist ein Element e ∈ G mit der Eigenschaft,<br />

dass <strong>für</strong> alle a ∈ G gilt:<br />

a ∗ e = e ∗ a = a.<br />

(ii) Sei e ein neutrales Element zu ∗ <strong>und</strong> sei a ∈ G. Ein inverses Element zu<br />

a (bezüglich e) ist ein Element b ∈ G mit der Eigenschaft<br />

a ∗ b = b ∗ a = e.<br />

Proposition 1.2.6 Sei ∗ : G × G → G eine Verknüpfung.<br />

(i) Es existiert höchstens ein neutrales Element bzgl. ∗. Insbesondere dürfen<br />

wir (im Fall der Existenz) von dem neutralen Element reden <strong>und</strong> können<br />

wir uns den Hinweis ‘bzgl. e’ beim Benennen eines inversen Elementes<br />

sparen.<br />

(ii) Angenommen, die Verknüpfung ∗ ist assoziativ <strong>und</strong> besitzt ein neutrales<br />

Element e. Dann besitzt jedes Element a ∈ G genau ein inverses Element.<br />

Beweis: Sind e, e ′ zwei neutrale Elemente, so gilt zum einen<br />

e · e ′ = e<br />

(weil e ′ neutrales Element ist)<br />

zum anderen<br />

e · e ′ = e ′<br />

(weil e neutrales Element ist).<br />

Es folgt e = e ′ . Damit ist (i) bewiesen.<br />

Nun zum Beweis von (ii). Sei a ∈ G beliebig, <strong>und</strong> seien b, c ∈ G zwei inverse<br />

Elemente zu a. Dann folgern wir:<br />

b = b ∗ e<br />

(e ist neutrales Element)<br />

= b ∗ (a ∗ c) (c ist Inverses von a)<br />

= (b ∗ a) ∗ c (∗ ist assoziativ)<br />

= e ∗ c (b ist Inverses von a)<br />

= c (e ist neutrales Element).<br />

Insbesondere gilt b = c, <strong>und</strong> (ii) ist ebenfalls bewiesen.<br />

✷<br />

Beispiel 1.2.7 Sei G := Z <strong>und</strong> ∗ = +. Die Null ist offensichtlich ein neutrales<br />

Element zu +. Für a ∈ Z ist das Negative −a ∈ Z ein inverses Element zu a.<br />

Beispiel 1.2.8 Sei G := Q <strong>und</strong> ∗ = · . Die Eins ist offensichtlich ein neutrales<br />

Element zu · . Für eine rationale Zahl a b ∈ Q ungleich 0 ist b a<br />

∈ Q ein inverses<br />

Element. Die Null besitzt kein inverses Element bzgl. der Multiplikation, da<br />

0 · a<br />

b = 0 ≠ 1<br />

gilt, <strong>für</strong> alle a b ∈ Q. 8


Definition 1.2.9 Ein Ring ist eine Menge, zusammen mit zwei Verknüpfungen<br />

<strong>und</strong><br />

die folgende Axiome erfüllen.<br />

+ : R × R → R, (die Addition)<br />

· : R × R → R, (die Multiplikation),<br />

(i) Die Addition ist assoziativ <strong>und</strong> kommutativ.<br />

(ii) Die Addition besitzt ein neutrales Element 0 R , genannt das Nullelement.<br />

(iii) Jedes Element a ∈ R besitzt ein (eindeutiges) inverses Element −a bzgl.<br />

der Addition, genannt das Negative von a.<br />

(iv) Die Multiplikation ist assoziativ.<br />

(v) Es gelten die Distributivgesetze:<br />

<strong>für</strong> alle a, b, c ∈ R.<br />

a · (b + c) = a · b + a · c, (a + b) · c = a · c + b · c,<br />

Ein Ring (R, +, · ) heißt kommutativ, wenn auch die Multiplikation kommutativ<br />

ist.<br />

Ein neutrales Element der Multiplikation (wenn es existiert) heißt das Einselement,<br />

<strong>und</strong> wird 1 R geschrieben.<br />

Beispiel 1.2.10 (i) Die Mengen Z, Q <strong>und</strong> R, versehen mit der üblichen Addition<br />

<strong>und</strong> Multiplikation, sind kommutative Ringe mit einem Einselement.<br />

(ii) Die Menge der natürlichen Zahlen N, versehen mit der üblichen Addition<br />

<strong>und</strong> Multiplikation, erfüllt die Bedingungen (i), (iv) <strong>und</strong> (v). Die Bedingungen<br />

(ii) <strong>und</strong> (iii) sind beide nicht erfüllt, also ist (N, +, · ) kein<br />

Ring.<br />

Bemerkung 1.2.11 Sei (R, +, · ) ein Ring. Um uns Schreibarbeit zu sparen,<br />

werden wir stillschweigend folgende Annahmen treffen bzw. folgende Schreibweisen<br />

benutzen.<br />

(i) Wir nehmen gr<strong>und</strong>sätzlich an, dass R ein Einselement 1 R besitzt. Zwar<br />

kommen in der Mathematik auch Ringe vor ohne Einselement, aber nicht<br />

in dieser Vorlesung.<br />

(ii) Wir schreiben meistens einfach 0 <strong>und</strong> 1 anstelle von 0 R <strong>und</strong> 1 R . Aber<br />

natürlich nur, wenn aus dem Kontext klar hervorgeht, in welchem Ring<br />

die Elemente 0 <strong>und</strong> 1 leben.<br />

9


(iii) Wir nehmen immer an, dass 0 ≠ 1 gilt. Denn aus der Gleichheit 0 = 1<br />

würde sofort folgen, dass der Ring nur aus dem Nullelement besteht (also<br />

R = {0}), <strong>und</strong> das ist eher langweilig.<br />

(iv) Wir benutzen u.a. die folgenden abkürzenden Schreibweisen (die man vom<br />

Rechnen mit ‘normalen Zahlen’ gewohnt ist):<br />

a + b + c statt (a + b) + c,<br />

abc statt (a · b) · c,<br />

ab + c statt (a · b) + c,<br />

a − b statt a + (−b),<br />

a n statt a<br />

}<br />

· .<br />

{{<br />

. . · a<br />

}<br />

, <strong>für</strong> n ∈ N<br />

n mal<br />

usw. Die letzte Zeile legt uns auch die Schreibweise<br />

n · a := a + . . . + a<br />

} {{ }<br />

n mal<br />

<strong>für</strong> a ∈ R <strong>und</strong> n ∈ N nahe. Hierbei muss man aber darauf achten, dass n<br />

kein Element von R ist <strong>und</strong> es sich bei dem Ausdruck n · a nicht um die<br />

Multiplikation von zwei Elementen aus R handelt.<br />

Proposition 1.2.12 Sei (R, +, · ) ein Ring <strong>und</strong> a, b, c ∈ R drei beliebige Elemente.<br />

(i) Aus der Gleichung<br />

folgt die Gleichung b = c.<br />

a + b = a + c (7)<br />

(ii) Es gelten folgende Regeln:<br />

0 · a = a · 0 = 0, (8)<br />

−(−a) = a, (9)<br />

(−1) · a = a · (−1) = −a, (10)<br />

(−a) · (−b) = a · b. (11)<br />

Beweis: Teil (i) der Proposition folgt aus der folgenden Kette von Umformungen:<br />

b = (−a + a) + b = −a + (a + b) = −a + (a + c)<br />

= (−a + a) + c = 0 + c = c.<br />

Alternativ kann man das Argument auch so formulieren: man addiert zu beiden<br />

Seiten der Gleichung (7) das Negative von a. Nach Kürzen ergibt sich die<br />

Gleichung b = c.<br />

10


Zum Beweis von (8) überlegt man sich zuerst, dass<br />

0 · a = (0 + 0) · a = 0 · a + 0 · a,<br />

<strong>für</strong> ein beliebiges Element a ∈ R. Wendet man auf diese Gleichheit die unter<br />

(i) bewiesene Aussage an, so erhält man 0 · a = 0. Die Gleichung a · 0 = 0 zeigt<br />

man auf analoge Weise, womit (8) bewiesen wäre.<br />

Nach Definition ist −a das inverse Element zu a (bzgl. der Addition), d.h.<br />

es gilt<br />

a + (−a) = 0.<br />

Man kann diese Gleichung aber auch lesen als: a ist das inverse Element zu<br />

−a, d.h. a = −(−a), womit (9) bewiesen wäre. Man beachte, dass wir in<br />

diesem Argument die Eindeutigkeit des inversen Elementes benutzt haben, vergl.<br />

Proposition 1.2.6.<br />

Zum Beweis von (10) führt man zuerst die folgenden Umformungen durch:<br />

a + (−1) · a = 1 · a + (−1) · a = (1 + (−1)) · a = 0 · a = 0.<br />

(Im letzten Schritt haben wir (8) benutzt!) Die obige Gleichheit zeigt, dass<br />

(−1) · a das inverse Element von a bzgl. der Addition ist, also (−1) · a = −a<br />

gilt. Die Gleichung a · (−1) = −a zeigt man wieder auf analoge Weise.<br />

Der Beweis von (11) sei dem Leser als Übungsaufgabe überlassen. ✷<br />

Die Proposition 1.2.12 zeigt, dass in einem allgemeinen Ring viele uns von<br />

den ganzen Zahlen vertraute Rechenregeln ebenfalls gelten, aber einer ausführlichen<br />

Begründung bedürfen. Es gibt aber auch ein paar Überraschungen. Z.B.<br />

ist die im Ring der ganzen Zahlen geltende Ungleichung −1 ≠ 1 in vielen Ringen<br />

falsch!<br />

Unser eigentliches Ziel ist ja das Studium von linearen Gleichungssytemen.<br />

Es ist möglich <strong>und</strong> durchaus sinnvoll, lineare Gleichungssysteme über sehr allgemeinen<br />

Ringen zu betrachten. Zu grosse Allgemeinheit führt hier aber schnell<br />

zu Komplikationen. Deshalb werden wir uns in dieser Vorlesung meistens auf<br />

einen bestimmten Typ von Ringen beschränken, die Körper.<br />

Zur Illustration der Probleme betrachten wir den einfachsten Typ von linearen<br />

Gleichungssystemen: eine Gleichung in einer Unbekannten x:<br />

a · x = b.<br />

Hierbei sind a, b beliebige Elemente eines kommutativen Rings R. Falls a = 0<br />

ist, so hat diese Gleichung entweder keine Lösung (im Fall b ≠ 0) oder jedes<br />

Element x ∈ R ist eine Lösung (im Fall b = 0). Man darf also getrost a ≠ 0<br />

annehmen.<br />

Definition 1.2.13 Sei (R, +, · ) ein kommutativer Ring.<br />

(i) Ein Element a ∈ R heißt Einheit, wenn a ein multiplikatives Inverses<br />

besitzt (welches wir dann mit a −1 bezeichnen).<br />

11


(ii) Ein Element a ∈ R heißt Nullteiler, wenn es ein Element b ∈ R, b ≠ 0,<br />

gibt mit<br />

ab = 0.<br />

Der Ring R heißt nullteilerfrei wenn 0 der einzige Nullteiler ist.<br />

Bemerkung 1.2.14 Der Begriff Nullteiler ist etwas irreführend. Haben wir<br />

allgemeiner zwei Elemente a, b ∈ R, so sagen wir dass a ein Teiler von b ist,<br />

wenn die Gleichung<br />

a · x = b<br />

eine Lösung x ∈ R besitzt. Setzt man in diese Definition b = 0 ein, so folgt<br />

sofort, dass jedes Element a ∈ R ein Teiler von 0 ist (denn obige Gleichung hat<br />

ja die Lösung x = 0). Man nennt ein Element a aber nur dann einen Nullteiler,<br />

wenn es eine Lösung x ≠ 0 gibt.<br />

Beispiel 1.2.15 Der Ring der ganzen Zahlen Z ist nullteilerfrei. Die Menge<br />

der Einheiten von Z besteht nur aus den zwei Elementen 1, −1.<br />

Proposition 1.2.16 Sei R ein kommutativer Ring, a, b ∈ R <strong>und</strong> a ≠ 0.<br />

(i) Ist R nullteilerfrei, so besitzt die Gleichung<br />

höchstens eine Lösung x ∈ R.<br />

a · x = b (12)<br />

(ii) Wenn a ein (multiplikatives) Inverses a −1 besitzt, so hat die Gleichung<br />

(12) genau eine Lösung x ∈ R, nämlich x := a −1 b.<br />

Beweis: Angenommen, der Ring R ist nullteilerfrei, <strong>und</strong> die Gleichung (12)<br />

habe die Lösungen x = x 1 <strong>und</strong> x = x 2 ∈ R. Dann gilt<br />

0 = b − b = a · x 1 − a · x 2 = a · (x 1 − x 2 ).<br />

Wegen der Annahme a ≠ 0 bedeutet dies aber, dass x 1 − x 2 ein Nullteiler ist.<br />

Da R als nullteilerfrei angenommen wurde, folgt x 1 = x 2 . Es gibt also höchstens<br />

eine Lösung von (12), <strong>und</strong> (i) ist bewiesen.<br />

Zum Beweis von (ii) nehmen wir an, dass a ein Inverses a −1 besitzt. Ist<br />

dann x ∈ R eine Lösung der Gleichung ax = b, so folgt<br />

x = a −1 ax = a −1 b.<br />

Dies legt den Wert der Lösung also eindeutig fest. Umgekehrt ist der Wert<br />

x := a −1 b natürlich eine Lösung der Gleichung. Wir haben also die Existenz<br />

<strong>und</strong> die Eindeutigkeit der Lösung gezeigt.<br />

✷<br />

Definition 1.2.17 Ein Körper ist ein kommutativer Ring (K, +, · ) mit einem<br />

Einselement 1 ≠ 0 <strong>und</strong> folgender Eigenschaft: jedes Element a ≠ 0 ist eine<br />

Einheit.<br />

12


Beispiel 1.2.18 Die rationalen Zahlen Q <strong>und</strong> die reellen Zahlen R bilden einen<br />

Körper. Der Ring Z ist kein Körper.<br />

Bemerkung 1.2.19 Ein Körper K ist automatisch nullteilerfrei. Denn wenn<br />

wir Elemente a, b ∈ R haben mit a ≠ 0 <strong>und</strong> ab = 0, so folgt wie im Beweis von<br />

Proposition 1.2.16 (ii) die Gleichung<br />

b = a −1 · 0 = 0.<br />

Zum Abschluss wollen wir noch zeigen, dass man einen nullteilerfreien kommutativen<br />

Ring R auf einfache Weise in einen Körper K einbetten kann. Diese<br />

Konstruktion ist völlig analog (genauer: eine Verallgemeinerung von) dem Übergang<br />

von den ganzen Zahlen Z zu den rationalen Zahlen Q.<br />

Sei also R ein nullteilerfreier <strong>und</strong> kommutativer Ring mit einem Einselement<br />

1 ≠ 0. Das Beispiel der rationalen Zahlen legt uns nahe, den Körper K als die<br />

Menge der Brüche über dem Ring R zu definieren,<br />

K := { a b<br />

| a, b ∈ R, b ≠ 0 }. (13)<br />

Die Addition <strong>und</strong> Multiplikation definiert man ebenfalls so, wie man es von den<br />

rationalen Zahlen gewohnt ist:<br />

a<br />

b + c d<br />

ad + bc<br />

:= ,<br />

bd<br />

a<br />

b · c ac<br />

:=<br />

d bd . (14)<br />

Man beachte, dass aus b ≠ 0 <strong>und</strong> d ≠ 0 die Ungleichheit bd ≠ 0 folgt, weil wir<br />

annehmen, dass der Ring R nullteilerfrei ist. Jetzt muss man noch zeigen, dass<br />

man mit solchen Brüchen so rechnen kann, wie man es gewohnt ist.<br />

Die obige ‘Definition’ ist vom mathematischen Standpunkt aus sehr unbefriedigend,<br />

da man nicht präzise formuliert hat, was ein ‘Bruch’ eigentlich ist.<br />

Für eine wirklich wasserdichte Definition benötigt man das folgende Konzept.<br />

Definition 1.2.20 Sei M ein nichtleere Menge.<br />

(i) Eine Relation auf M ist eine Teilmenge ∼ von M × M. Für a, b ∈ M<br />

definieren wir<br />

a ∼ b :⇔ (a, b) ∈∼ .<br />

(ii) Eine Relation ∼ auf M heißt Äquivalenzrelation, wenn <strong>für</strong> alle a, b, c ∈ M<br />

gilt:<br />

a ∼ a<br />

a ∼ b ⇒ b ∼ a<br />

a ∼ b, b ∼ c ⇒ a ∼ c<br />

(Reflexivität)<br />

(Symmetrie)<br />

(Transitivität).<br />

Sind diese Bedingungen erfüllt, so sprechen wir die Beziehung ‘a ∼ b’ aus<br />

als: a ist äquivalent zu b (bzgl. der Relation ∼).<br />

13


(iii) Sei ∼ eine Äquivalenzrelation auf M. Eine nichtleere Teilmenge A ⊂ M<br />

heißt Äquivalenzklasse (bzgl. ∼), wenn es ein Element a ∈ M gibt so, dass<br />

A genau die Elemente von M enthält, die äquivalent zu a sind, d.h.<br />

A = { b ∈ M | a ∼ b }.<br />

In diesem Fall schreiben wir A = [a] ∼ <strong>und</strong> nennen a einen Repräsentanten<br />

der Äquivalenzklasse A. (Beachte: die Reflexivität impliziert a ∈ [a] ∼!)<br />

Wir bezeichnen mit M/ ∼ die Menge aller Äquivalenzklassen (bzgl. ∼).<br />

Der entscheidende Punkt ist:<br />

Bemerkung 1.2.21 Sei M eine nichtleere Menge <strong>und</strong> ∼ eine Äquivalenzrelation<br />

auf M. Dann liegt jedes Element von M in genau einer Äquivalenzklasse<br />

(bzgl. ∼). Für zwei Elemente a, b ∈ M gilt:<br />

a ∼ b ⇔ [a] ∼ = [b] ∼ .<br />

Beim Übergang von der Menge M zur Menge M/ ∼ geht also die Relation ∼<br />

in die Relation = über.<br />

Nun zurück zu unserer ursprünglichen Situation. Wir haben einen kommutativen<br />

<strong>und</strong> nullteilerfreien Ring R. Wir setzen<br />

M := { (a, b) | a, b ∈ R, b ≠ 0 }<br />

<strong>und</strong> definieren die Relation ∼ auf M durch<br />

(a, b) ∼ (c, d) :⇔ ad = bc.<br />

Lemma 1.2.22 Die Relation ∼ ist eine Äquivalenzrelation.<br />

Beweis: Reflexivität <strong>und</strong> Symmetrie sind klar. Um die Transitivität nachzuweisen,<br />

nehmen wir uns drei Elemente (a, b), (c, d), (e, f) ∈ M her. Wir nehmen<br />

an, dass (a, b) ∼ (c, d) <strong>und</strong> (c, d) ∼ (e, f) gelten, was gleichbedeutend ist mit<br />

ad = bc, cf = de. (15)<br />

Der Trick ist nun, beide Seiten der erste Gleichungen mit f zu multiplizieren<br />

<strong>und</strong> dann mithilfe der zweiten Gleichung umzuformen. Wir erhalten:<br />

woraus wir die Gleichung<br />

adf = bcf = bde,<br />

d(af − be) = 0<br />

schliessen. Aber R ist nach Voraussetzung ein nullteilerfreier Ring. Aus d ≠ 0<br />

folgt deshalb af = be, oder (a, b) ∼ (e, f). Damit ist das Lemma bewiesen. ✷<br />

Jetzt können wir eine formale Definition des Körpers K wagen. Wir definieren<br />

K := M/ ∼<br />

14


als die Menge der Äquivalenzklassen bzgl. der Relation ∼. Für ein Element<br />

(a, b) ∈ M schreiben wir die zugehörige Äquivalenzklasse als<br />

a<br />

b := [(a, b)] ∼ ∈ K.<br />

Ein Bruch a b ist also die Menge der Paare (a′ , b ′ ) ∈ M mit ab ′ = a ′ b, <strong>und</strong> K ist<br />

die Menge aller Brüche a b<br />

(wobei b ≠ 0). Damit haben wir (13) präzise definiert.<br />

Die Addition <strong>und</strong> die Multiplikation auf K sollen wie in (14) definiert sein.<br />

Hier stossen wir auf das nächste Problem, die Wohldefiniertheit. Seien also<br />

α, β ∈ K zwei Elemente aus K. Nach Definition von K gibt es Elemente<br />

a, b, c, d ∈ R, b, d ≠ 0, so dass α = a b , β = c d<br />

. Nach (14) möchten wir definieren:<br />

α + β :=<br />

ad + bc<br />

, αβ := ac<br />

bd bd . (16)<br />

Auf der rechten Seite steht jeweils ein wohldefiniertes Element aus K (weil<br />

bd ≠ 0 ist). Es ist aber auf den ersten Blick nicht klar, dass diese Elemente<br />

unabhängig von der Wahl der Darstellung α = a b , β = c d<br />

sind. Damit unsere<br />

Definition von α+β <strong>und</strong> αβ überhaupt Sinn macht, müssen wir zuerst folgendes<br />

zeigen:<br />

Lemma 1.2.23 Gegeben (a, b), (a ′ , b ′ ), (c, d), (c ′ , d ′ ) ∈ M mit<br />

Dann gilt<br />

ad + bc<br />

bd<br />

a<br />

b = a′<br />

b ′<br />

<strong>und</strong><br />

= a′ d ′ + b ′ c ′<br />

b ′ d ′ ,<br />

c<br />

d = c′<br />

d ′ .<br />

Beweis: Nach Vorausetzung gelten die Gleichungen<br />

Durch Umformen erhalten wir<br />

(ad + bc)b ′ d ′ = adb ′ d ′ + bcb ′ d ′<br />

ac<br />

bd = a′ c ′<br />

b ′ d ′ . (17)<br />

ab ′ = ba ′ , cd ′ = dc ′ . (18)<br />

= (ab ′ )dd ′ + (cd ′ )bb ′ (umsortieren)<br />

= (ba ′ )dd ′ + (dc ′ )bb ′ (benutze (18))<br />

= (a ′ d ′ + b ′ c ′ )bd. (umsortieren)<br />

Die resultierende Gleichung besagt gerade dass<br />

ad + bc<br />

bd<br />

= a′ d ′ + b ′ c ′<br />

b ′ d ′ .<br />

Die erste Gleichung in (17) ist damit bewiesen. Die zweite Gleichung zeigt man<br />

durch eine ähnliche Rechnung.<br />

✷<br />

Mit dem Beweis des Lemmas ist gezeigt, dass durch (16) auf der Menge K<br />

zwei Verknüpfungen, + <strong>und</strong> · , definiert sind.<br />

15


Satz 1.2.24 Die oben definierte Menge K, zusammen mit den Verknüpfungen<br />

+ <strong>und</strong> · , bildet einen Körper.<br />

Wir nennen K den Quotientenkörper von R.<br />

Beweis: Zunächst einmal ist zu zeigen, dass (K, +, · ) ein kommutativer<br />

Ring mit Einselement ist. Es sind also insbesondere die Eigenschaften (i) bis (v)<br />

der Definition 1.2.5 nachzuprüfen, plus die Kommutativität <strong>und</strong> die Existenz der<br />

Eins. Das ist etwas mühselig, aber nicht schwierig, <strong>und</strong> sei dem Leser überlassen.<br />

Wir weisen nur darauf hin, dass das Nullelement von K der Bruch 0 K := 0 1 <strong>und</strong><br />

das Einselement der Bruch 1 K := 1 1 ist.<br />

Zeigen wir, dass K sogar ein Körper ist. Dazu sei α = a b<br />

∈ K ein beliebiges<br />

Element. Dann gilt α ≠ 0 genau dann, wenn a ≠ 0. In diesem Fall ist α −1 := b a<br />

ein Inverses zu α, wegen<br />

αα −1 = a b · b<br />

a = ab<br />

ab = 1 1 = 1 K.<br />

Jedes von Null verschiedene Element von K ist demnach eine Einheit, also ist<br />

K ein Körper.<br />

✷<br />

Bemerkung 1.2.25 Die Abbildung<br />

R → K, a ↦→ a 1<br />

ist injektiv (aus a 1 = b 1<br />

folgt a = b). Es ist üblich <strong>und</strong> nützlich, den Ring R<br />

mit dem Bild obiger Abbildung zu identifizieren <strong>und</strong> somit als Teilmenge von<br />

K aufzufassen. Mit anderen Worten: wir unterscheiden nicht zwischen dem<br />

Element a ∈ R <strong>und</strong> dem Element a 1 ∈ K.<br />

Diese Konvention ist mit der Definition der Addition <strong>und</strong> der Multiplikation<br />

auf K verträglich, wegen<br />

a<br />

1 + b 1 = a + b<br />

1 , a<br />

1 · b<br />

1 = ab<br />

1 .<br />

Mit anderen Worten: fassen wir R als Teilmenge des Körpers K auf, so ist die<br />

Einschränkung der auf K definierten Addition <strong>und</strong> Multiplikation auf die Teilmenge<br />

R die übliche Addition <strong>und</strong> Multiplikation des Ringes R. Diese Aussage<br />

formuliert man auch so: R ist ein Unterring von K.<br />

1.3 Das Eliminationsverfahren von Gauss<br />

Sei K ein Körper. Ein lineares Gleichungssystem über K ist von der Form<br />

a 1,1 x 1 + . . . + a 1,n x n = b 1<br />

.<br />

. .<br />

a m,1 x 1 + . . . + a m,n x n = b m .<br />

(19)<br />

16


Hierbei sind a i,j , b i Elemente von K <strong>und</strong> x j die Unbestimmten. Die Lösungsmenge<br />

des Gleichungssystems (19) ist die Menge<br />

Lös((19)) := {(x 1 , . . . , x n ) | x j ∈ K, (19) ist erfüllt }.<br />

Ein Gleichungssystem zu lösen bedeutet <strong>für</strong> uns, die Lösungsmenge zu bestimmen.<br />

Das kann auch bedeuten, die Nichtexistenz von Lösungen zu beweisen.<br />

Das Eliminationsverfahren von Gauss liefert einen Algorithmus zum Lösen eines<br />

beliebigen linearen Gleichungssystems.<br />

Zunächst führen wir eine praktische Schreibweise <strong>für</strong> das Gleichungssystem<br />

(19) ein. Die Koeffizienten a i,j schreiben wir in ein rechteckiges Schema, eine<br />

Matrix:<br />

⎛<br />

A :=<br />

⎜<br />

⎝<br />

⎞<br />

a 1,1 . . . a 1,n<br />

.<br />

.<br />

. . . a m,n<br />

a m,1<br />

Die Menge aller solcher (m, n)-Matrizen bezeichnen wir mit M m,n (K).<br />

Die Einträge b i <strong>und</strong> die Unbestimmten x j schreiben wir als Spaltenvektoren:<br />

⎛ ⎞<br />

x 1<br />

⎜<br />

x := .<br />

⎝ .<br />

x n<br />

⎟<br />

⎠ ∈ K n , b :=<br />

⎟<br />

⎠.<br />

⎛ ⎞<br />

1..<br />

⎜ ⎟<br />

⎝b<br />

⎠ ∈ K m .<br />

b m<br />

Man beachte, dass die Anzahl der Einträge im allgemeinen verschieden ist: b hat<br />

m Einträge (die Anzahl der Zeilen von (19)) <strong>und</strong> x hat n Einträge (die Anzahl<br />

der Unbestimmten).<br />

Wir erklären das Produkt der Matrix A mit dem Spaltenvektor x durch die<br />

Formel<br />

⎛<br />

A · x :=<br />

⎜<br />

⎝<br />

⎞<br />

a 1,1 x 1 + . . . + a 1,n x n<br />

.<br />

.<br />

.<br />

.<br />

a m,1 x 1 + . . . + a m,n x n<br />

⎟<br />

⎠ ∈ K m .<br />

Hierbei ist es entscheidend, dass der Vektor x genau soviel Einträge hat wie die<br />

Matrix A Spalten hat (nämlich n). Das Ergebnis ist ein Spaltenvektor mit m<br />

Einträgen.<br />

Mit dieser Vorbereitung können wir das lineare Gleichungssystem (19) jetzt<br />

in die kompaktere, aber äquivalente Form<br />

A · x = b<br />

bringen. Die Lösungsmenge schreiben wir als<br />

Lös(A, b) := { x ∈ K n | A · x = b }.<br />

Wir nennen A die Koeffizientenmatrix des Gleichungssystems; hängt man an<br />

A noch den Vektor b als letzte Spalte an, so spricht man von der erweiterten<br />

17


Koeffizientenmatrix:<br />

⎛<br />

⎞<br />

a 1,1 . . . a 1,n b 1<br />

⎜<br />

⎟<br />

à = (A, b) := ⎝ . . . ⎠.<br />

a m,1 . . . a m,n b m<br />

In ihr ist die gesamte Information über das Gleichungssystem enthalten.<br />

Das Prinzip des Gauss’schen Eliminationsverfahrens besteht darin, das Gleichungssystems<br />

durch wiederholtes Anwenden von sogenannten Zeilenoperationen<br />

so weit zu vereinfachen, bis man die Lösungsmenge leicht angeben kann.<br />

Definition 1.3.1 Sei A = (a i,j ) ∈ M m,n (K) eine (m, n)-Matrix mit Einträgen<br />

in einem Körper K. Eine elementare Zeilenoperation, angewendet auf A, liefert<br />

eine Matrix A ′ = (a ′ i,j ) ∈ M m,n(K) <strong>und</strong> ist vom Typ (I), (II) oder (III), wie<br />

folgt:<br />

(I) A ′ geht aus A hervor durch Multiplikation der i-ten Zeile mit einem Element<br />

λ ≠ 0 von K, d.h.<br />

{<br />

a ′ λa i,l , falls k = i,<br />

k,l :=<br />

a k,l , falls k ≠ i.<br />

Hierbei sind i, k ∈ {1, . . ., m}, l ∈ {1, . . .,n}.<br />

(II) A ′ geht aus A hervor durch Addition des λ-fachen der iten Zeile auf die<br />

jte Zeile, d.h. {<br />

a ′ a j,l + λa i,l , <strong>für</strong> k = j,<br />

k,l :=<br />

a k,l , <strong>für</strong> k ≠ j.<br />

Hierbei sind 1 ≤ i, j ≤ m verschiedene Indizes <strong>und</strong> λ ist ein beliebiges<br />

Element von K.<br />

(III) A ′ geht aus A hervor durch Vertauschen der iten mit der jten Zeile,<br />

a ′ k,l := ⎧<br />

⎪⎨<br />

⎪ ⎩<br />

a j,l , <strong>für</strong> k = i,<br />

a i,l , <strong>für</strong> k = j,<br />

a k,l , sonst.<br />

Lemma 1.3.2 Sei A · x = b ein lineares Gleichungssystem über einem Körper<br />

K, mit erweiterter Koeffizientenmatrix (A, b). Sei (A ′ , b ′ ) das Ergebnis einer<br />

elementaren Zeilenoperation, angewendet auf (A, b). Dann haben die beiden<br />

Gleichungssysteme A · x = b <strong>und</strong> A ′ · x = b ′ dieselbe Lösungsmenge:<br />

Lös(A, b) = Lös(A ′ , b ′ ).<br />

18


Beweis: Wir zeigen das Lemma exemplarisch <strong>für</strong> eine elementare Zeilenumformung<br />

vom Typ (II). Die anderen beiden Fälle sind einfacher <strong>und</strong> dem Leser<br />

überlassen.<br />

Schreibe A = (a k,l ) <strong>und</strong> b = (b k ). Es seien 1 ≤ i ≠ j ≤ m <strong>und</strong> λ ∈ K.<br />

Es sei ausserdem (A ′ , b ′ ) das Ergebnis der Zeilenoperation vom Typ (II) mit<br />

Parameter i, j, λ, angewendet auf die erweiterte Koeffizientenmatrix (A, b).<br />

Sei x = (x l ) ∈ Lös(A, b) eine Lösung von A · x = b, d.h. es gelten die<br />

Gleichungen<br />

a 1,1 x 1 + . . . + a 1,n x n = b 1<br />

.<br />

. .<br />

a m,1 x 1 + . . . + a m,n x n = b m .<br />

(20)<br />

Multiplizieren wir die ite Gleichung von (20) mit λ <strong>und</strong> addieren wir diese zur<br />

jten Gleichung, so folgt, nach einer einfachen Umformung:<br />

(a j,1 + λa i,1 )x 1 + . . . + (a j,n + λa i,n )x n = b j + λb i . (21)<br />

Ersetzen wir in (20) die jte Zeile durch die Gleichung (21), so erhalten wir, in<br />

Matrixschreibweise <strong>und</strong> nach Definition von (A ′ , b ′ ), die Gleichung<br />

A ′ · x = b ′ .<br />

Wir haben also gezeigt: aus A · x = b folgt A ′ · x = b ′ . Anders ausgedrückt:<br />

Lös(A, b) ⊂ Lös(A ′ , b ′ ).<br />

Nun überlegt man sich folgendes: wendet man auf (A ′ , b ′ ) eine Zeilenumformung<br />

vom Typ (II) mit Parameter (i, j, −λ), so erhält man die ursprüngliche<br />

erweiterte Koeffizientenmatrix (A, b). Mit dem soeben ausgeführten Argument<br />

folgt dann<br />

Lös(A ′ , b ′ ) ⊂ Lös(A, b),<br />

<strong>und</strong> insgesamt Lös(A, b) = Lös(A ′ , b ′ ).<br />

Definition 1.3.3 Eine (m, n)-Matrix A = (a i,j ) über einem Körper K ist in<br />

Zeilenstufenform, wenn sie folgende Form hat:<br />

⎛<br />

⎞<br />

• ∗<br />

•<br />

. .. A =<br />

•<br />

, • ≠ 0.<br />

⎜<br />

⎟<br />

⎝<br />

⎠<br />

0<br />

Etwas genauer: es gibt eine ganze Zahl r mit 0 ≤ r ≤ m <strong>und</strong> r ganze Zahlen<br />

j 1 < j 2 < . . . < j r , so dass gilt:<br />

a i,1 = . . . = a i,ji−1 = 0, a i,ji ≠ 0 <strong>für</strong> i = 1, . . . , r,<br />

a i,1 = . . . = a i,n = 0,<br />

<strong>für</strong> i = r + 1, . . .,m.<br />

✷<br />

19


Die von Null verschiedenen Einträge a 1,j1 , . . .,a r,jr heißen die Angelpunkte von<br />

A. Die Zahl r heißt der Zeilenrang von A.<br />

Die Matrix A ist in normalisierter Zeilenstufenform, wenn, zusätzlich zu den<br />

oben aufgeführten Bedingen, gilt:<br />

a 1,ji = . . .,a i−1,ji = 0, a i,ji = 1, <strong>für</strong> i = 1, . . .,r.<br />

Das entsprechende Bild sieht also in etwa so aus:<br />

A =<br />

⎛<br />

⎜<br />

⎝<br />

1<br />

0<br />

0<br />

1<br />

⎞<br />

0<br />

.<br />

. .. 0<br />

1<br />

.<br />

⎟<br />

⎠<br />

Man beachte, dass die Fälle r = 0 <strong>und</strong> r = m ausdrücklich zugelassen sind: im<br />

ersten Fall ist A = 0, d.h. alle Einträge von A sind Null.<br />

Ein weiterer interessanter Grenzfall tritt ein <strong>für</strong> m = n = r. Ist dann A in<br />

normalisierter Zeilenstufenform, so gilt<br />

⎛ ⎞<br />

A = E n :=<br />

⎜<br />

⎝<br />

1 0<br />

. ..<br />

0 1<br />

⎟<br />

⎠.<br />

Die Matrix E n heißt die Einheitsmatrix vom Rang n.<br />

Lemma 1.3.4 Sei A ∈ M m,n (K) eine (m, n)-Matrix über einem Körper K.<br />

Dann lässt sich A durch eine Folge von elementaren Zeilenumformungen in eine<br />

Matrix A ′ ∈ M m,n (K) in normalisierter Zeilenstufenform umformen.<br />

Beweis: Zum Beweis werden wir einen konkreten Algorithmus angeben, der<br />

eine gegebene Matrix A = (a i,j ) schrittweise auf normalisierte Zeilenstufenform<br />

bringt. Dabei werden wir die Namen A <strong>für</strong> die Matrix <strong>und</strong> a i,j <strong>für</strong> ihre Einträge<br />

immer beibehalten, auch wenn sich letztere durch die laufenden Umformungen<br />

geändert haben.<br />

Ist A = 0, so ist A bereits in normalisierter Zeilenstufenform, <strong>und</strong> wir sind<br />

fertig. Andernfalls gibt es mindesten einen Eintrag a i,j ≠ 0. Setze<br />

j 1 := min{ j | es gibt ein i mit a i,j ≠ 0 }<br />

<strong>und</strong> wähle ein i 1 mit a i1,j 1<br />

≠ 0. Jetzt führen wir die folgenden Umformungen<br />

aus:<br />

• Falls i 1 ≠ 1, vertausche die erste mit der i 1 ten Zeile. Wir dürfen danach<br />

annehmen, dass i 1 = 1. Unser erster Angelpunkt ist der Eintrag a 1,j1 ≠ 0.<br />

• Multipliziere die erste Zeile von A mit a −1<br />

1,j 1<br />

. Danach gilt a 1,j1 = 1.<br />

20


• Addiere das −a i,j1 fache der ersten Zeile zur iten Zeile, <strong>für</strong> i = 2, . . .,m.<br />

Dadurch verschwinden die Einträge unterhalb des Angelpunktes a 1,j1 = 1.<br />

Die Matrix A hat nun die Form<br />

⎛<br />

0 · · · 0 1 ∗ · · ·<br />

⎞<br />

∗<br />

. .<br />

A =<br />

. . 0<br />

⎜.<br />

. . ⎟<br />

⎝.<br />

. . B ⎠ ,<br />

0 · · · 0 0<br />

wobei B eine gewisse (m − 1, n − j 1 )-Matrix ist. Nun könnte es sein, dass<br />

m = 1 oder j 1 = n. In beiden Fällen ist die Matrix B leer <strong>und</strong> A ist bereits in<br />

normalisierter Zeilenstufenform.<br />

Wenn aber m > 1 <strong>und</strong> j 1 < n gilt, so wenden wir das im letzten Abschnitt<br />

beschriebene Verfahren auf die Matrix B an. Dabei führen wir aber die anfallenden<br />

Zeilenumformungen nicht einfach nur auf B aus, sondern auf die ganze<br />

Matrix A. Hat man mit dieser Vorgehensweise Erfolg, so hat die Matrix A<br />

anschliessend die Form<br />

⎛<br />

⎞<br />

0 · · · 0 1 ∗ · · · · · · ∗<br />

. 0 0 ∗ .<br />

A =<br />

. . . 1 ∗<br />

,<br />

. . . 0 0<br />

⎜<br />

⎝<br />

. . . . . ⎟<br />

. . . . . ⎠<br />

0 · · · 0 0 · · · 0 0<br />

d.h. sie ist in Zeilenstufenform, <strong>und</strong> die Angelpunkte haben alle den Wert 1.<br />

Vom algorithmischen Standpunkt aus haben wir eine Prozedur beschrieben,<br />

die sich u.U. selbst aufruft (ein sogenannter rekursiver Aufruf). Das ist erlaubt,<br />

aber wir müssen uns klarmachen, dass obiges Verfahren nach endlich vielen<br />

Schritten abbricht. Um das einzusehen, betrachtet man die Anzahl m der Zeilen<br />

der Matrix, auf die man die Prozedur anwendet. Die Prozedur ruft nur dann<br />

sich selbst auf, wenn m > 1, <strong>und</strong> in diesem Fall ist die Eingabe ein Matrix mit<br />

m − 1 Zeilen. Daraus folgt, dass die Tiefe der rekursiven Aufrufe höchstens m<br />

beträgt <strong>und</strong> das Verfahren tatsächlich nach endlich vielen Schritten abbricht.<br />

Wir haben nun die Matrix A auf Zeilenstufenform gebracht <strong>und</strong> da<strong>für</strong> gesorgt,<br />

dass die Werte der Angelpunkte alle gleich 1 sind. Es ist nun klar, wie man durch<br />

weitere elementare Zeilenumformungen vom Typ (II) erreichen kann, dass alle<br />

Einträge oberhalb der Angelpunkte verschwinden.<br />

✷<br />

Satz 1.3.5 Sei K ein Körper, m, n ∈ N, A ∈ M m,n (K) <strong>und</strong> b ∈ K m . Wir<br />

betrachten das lineare Gleichungssystem<br />

A · x = b,<br />

mit x ∈ K n . Dann können zwei verschiedene Fälle auftreten:<br />

21


(i) Es gibt keine Lösung, d.h. Lös(A, b) = ∅.<br />

(ii) Es gibt eine ganze Zahl s, 0 ≤ s ≤ n, <strong>und</strong> paarweise verschiedene ganze<br />

Zahlen k 1 , . . . , k s , 1 ≤ k 1 < · · · < k s ≤ n, mit folgender Eigenschaft. Für<br />

jedes s-Tupel (t 1 , . . .,t s ) ∈ K s gibt es genau eine Lösung x = (x 1 , . . . , x n ) ∈<br />

K n der Gleichung A · x = b mit<br />

x k1 = t 1 , . . . , x ks = t s .<br />

Insbesondere erhalten wir eine Bijektion<br />

φ : K s ∼<br />

→ Lös(A, b), (t1 , . . . , t s ) ↦→ x = (x 1 , . . .,x n ).<br />

Im Fall (ii) des Satzes nennen wir die Unbestimmten x k1 , . . . , x kn−r die freien<br />

Variablen <strong>und</strong> die übrigen Unbestimmten die geb<strong>und</strong>enen Variablen. Die Bijektion<br />

φ heißt Parametrisierung der Lösungsmenge, die Elemente t i heißen<br />

Parameter.<br />

Beweis: Nach Lemma 1.3.4 können wir die erweiterte Koeffizientenmatrix<br />

(A, b) durch eine Folge von Zeilenumformungen zu einer Koeffizientenmatrix<br />

(A ′ , b ′ ) umformen, so dass A ′ in normalisierter Zeilenstufenform ist. Nach<br />

Lemma 1.3.2 gilt ausserdem<br />

Lös(A, b) = Lös(A ′ , b ′ ).<br />

Nun sei r der Zeilenrang von A ′ <strong>und</strong> seien j 1 < . . . < j r die Spaltenindizes der<br />

Angelpunkte von A ′ . Setze s := n − r <strong>und</strong> sortiere die s Elemente der Menge<br />

{1, . . ., n}\{j 1 , . . . , j r } in aufsteigender Reihenfolge: k 1 < . . . < k s . Stellen wir<br />

jetzt das lineare Gleichungssystem A ′ ·x = b ′ auf <strong>und</strong> bringen die Unbestimmten<br />

x k1 , . . . , x ks auf die rechte Seite, so erhalten wir ein Gleichungssystem der Form<br />

x j1 = b ′ 1 − a ′ 1,k 1<br />

x k1 − . . . − a ′ 1,k s<br />

x ks<br />

.<br />

.<br />

x jr = b ′ r − a′ r,k 1<br />

x k1 − . . . − a ′ r,k s<br />

x ks<br />

0 = b ′ r+1<br />

.<br />

.<br />

0 = b ′ m.<br />

Es können nun zwei verschiedene Fälle auftreten: entweder sind die Einträge<br />

b ′ r+1 , . . . , b′ m alle gleich Null, oder einer dieser Einträge ist ungleich Null. Wenn<br />

letzteres zutrifft, so ist mindestens eine der obigen Gleichungen unerfüllbar, <strong>und</strong><br />

dann ist die Lösungsmenge leer:<br />

Lös(A, b) = Lös(A ′ , b ′ ) = ∅.<br />

Dies entspricht dem Fall (i) des Satzes. Andernfalls gilt b ′ r+1 = . . . , b ′ m = 0 <strong>und</strong><br />

die letzten m − r Gleichungen sind automatisch erfüllt <strong>und</strong> können weggelassen<br />

22


werden. In diesem Fall ist es klar, dass man <strong>für</strong> die Unbestimmten x k1 , . . .,x ks<br />

beliebige Werte aus dem Körper K vorgeben kann, <strong>und</strong> dass dann mit dieser<br />

Vorgabe eine eindeutige Lösung des Gleichungssystems existiert. Die Aussage<br />

im Fall (ii) des Satzes sagt genau das.<br />

✷<br />

Bemerkung 1.3.6 Man beachte, dass die Unterteilung in freie <strong>und</strong> geb<strong>und</strong>ene<br />

Variablen nicht nur von dem Gleichungssystem A ·x = b, sondern vor allem von<br />

den vorgenommenen Zeilenumformungen abhängt. Da es viele Möglichkeiten<br />

gibt, eine Matrix auf Zeilenstufenform zu bringen, gibt es im allgemeinen auch<br />

viele Möglichkeiten <strong>für</strong> die Wahl der freien Variablen.<br />

Wir werden im zweiten Kapitel zeigen, dass zumindest die Anzahl s der<br />

freien Variablen (bzw. der Parameter t i ) eindeutig durch das Gleichungssystem<br />

bestimmt ist: sie entspricht der Dimension des Lösungsraumes.<br />

Die Aussage von Satz 1.3.5 lässt sich noch verschärfen, wenn b = 0 gilt.<br />

Definition 1.3.7 Ein homogenes lineares Gleichungssystem ist ein Gleichungssystem<br />

der Form<br />

A · x = 0,<br />

mit A ∈ M m,n (K). Hierbei bezeichnet 0 den Nullvektor von K m , d.h. 0 :=<br />

(0, . . .,0) ∈ K m .<br />

Offensichtlich hat ein homogenes lineares Gleichungssystem immer mindestens<br />

eine Lösung, nämlich den Nullvektor 0 := (0, . . .,0) ∈ K n . Der Fall (i)<br />

in Satz 1.3.5 tritt also nicht auf. Eine Lösung x ∈ Lös(A, 0), x ≠ 0, heißt<br />

nichttriviale Lösung.<br />

Satz 1.3.8 Sei A ∈ M m,n (K). Wenn m < n gilt, dann hat das homogene<br />

Gleichungssystem<br />

A · x = 0<br />

mindestens eine nichttriviale Lösung, x ≠ 0. Ausserdem gilt <strong>für</strong> die Anzahl s<br />

der freien Parameter (Bezeichnung wie in Satz 1.3.5):<br />

s ≥ n − m > 0.<br />

Beweis: Wie im Beweis von Satz 1.3.5 formen wir die erweiterte Koeffizientenmatrix<br />

(A, 0) so zu einer Matrix (A ′ , b ′ ), dass A ′ in normalisierter Zeilenstufenform<br />

ist. (Man macht sich leicht klar, dass dann b ′ = 0 gilt. Mit anderen<br />

Worten: ein homogenes Gleichungssystem bleibt unter Zeilenumformungen<br />

homogen.)<br />

Sei r der Zeilenrang von A ′ . Man beachte, dass r ≤ m <strong>und</strong> r ≤ n. Wie im<br />

Beweis von Satz 1.3.5 ist dann s := n − r die Anzahl der freien Parameter der<br />

Lösungsmenge. Wegen r ≤ m gilt dann<br />

s ≥ n − m.<br />

23


Gilt zusätzlich m < n, so folgt s > 0, <strong>und</strong> es gibt mindestens eine freie Variable<br />

x k1 . Nach Satz 1.3.5 existiert dann eine Lösung x = (x 1 , . . .,x n ) ∈ Lös(A, 0)<br />

mit x k1 = 1 ≠ 0. Insbesondere gilt x ≠ 0.<br />

✷<br />

1.4 Analytische Geometrie<br />

Als analytische Geometrie bezeichnet man heute meistens den Teil der linearen<br />

<strong>Algebra</strong>, der sich mit der Geometrie der Ebene <strong>und</strong> des dreidimensionalen<br />

Raumes beschäftigt. Dies war der historische Ursprung der linearen <strong>Algebra</strong>.<br />

Das Beispiel aus §1.1 zeigt aber, dass moderne Anwendungen meistens nicht<br />

auf drei Dimensionen beschränkt sind <strong>und</strong> nicht notwendigerweise einen geometrischen<br />

Hintergr<strong>und</strong> haben. Trotzdem ist die geometrische Anschauung <strong>für</strong><br />

ein intuitives Verständnis der Begriffe der linearen <strong>Algebra</strong> unerlässlich.<br />

Bevor wir also im nächsten Kapitel die gr<strong>und</strong>legenden Begriffe wie Vektorraum<br />

<strong>und</strong> lineare Abbildung offiziel <strong>und</strong> in abstrakter Weise definieren werden,<br />

wollen wir sie zunächst geometrisch motivieren.<br />

Der euklidische Standardraum<br />

Die Elemente des Euklid waren bis zum Beginn der Neuzeit das Standardwerk<br />

der Mathematik <strong>und</strong> insbesondere der Geometrie; in ihnen ist praktisch<br />

das gesamte mathematische Wissen <strong>und</strong> Denken der griechischen Antike zusammengefasst.<br />

Der Einfluss der Elemente auf Mathematik, Philosophie <strong>und</strong> Wissenschaft<br />

ist enorm. Wir wollen hier zwei wesentliche Aspekte hervorheben. 5<br />

• Die Mathematik wird als eine deduktive Wissenschaft aufgebaut; am Anfang<br />

stehen einige wenige Axiome, aus denen dann alles andere durch<br />

logische Schlüsse abgeleitet wird.<br />

• Die <strong>Algebra</strong> wird aus der Geometrie heraus begründet. Z.B. werden rationale<br />

Zahlen einfach als Längenverhältnisse von Strecken definiert, die<br />

man durch gewisse geometrische Konstruktionen erhalten kann. (Die<br />

Begründung der reellen Zahlen bereit massive Probleme <strong>und</strong> ist nicht allgemein<br />

gelungen.)<br />

Der erste Punkt bestimmt auch heute noch unseren Zugang zur Mathematik<br />

als Wissenschaft. Beim zweiten Punkt fand aber ab dem 17. Jahrh<strong>und</strong>ert ein<br />

Umdenken <strong>und</strong> eine Abkehr von den Gr<strong>und</strong>sätzen der Elemente statt, dessen<br />

Ergebnis vielleicht noch bedeutsamer ist als der Einfuss der Elemente selbst.<br />

Das entscheidende Ereignis war wohl die Einführung von Koordinatensystemen<br />

durch René Descartes in seinem Hauptwerk Discours de la méthode (1637).<br />

Durch diese Entdeckung wurde es möglich, die Geometrie aus der <strong>Algebra</strong> heraus<br />

zu begründen. Dieser Standpunkt ist vielleicht weniger elegant als der von Euklid<br />

<strong>und</strong> philosophisch unbefiedigend, hat aber unschätzbare praktische Vorteile.<br />

5 Für eine kritische Betrachtung siehe Euklid: Die Elemente – eine Übersicht, Vorlesungsskript<br />

von G.-D. Geyer SS 2001, Erlangen, oder Euklid <strong>und</strong> die Elemente, Norbert<br />

Froese, 2007.<br />

24


Oft kann man geometrische Fragestellungen in eine Rechenaufgabe übersetzen<br />

<strong>und</strong> dann mit numerischen Methoden lösen. Im Zeitalter der digitalen Datenverarbeitung<br />

ist dieser Vorteil sogar noch viel grösser als zu Descartes Zeit.<br />

Ganz im Sinne von Descartes gehen wir also vom Körper der reellen Zahlen<br />

aus <strong>und</strong> definieren:<br />

Definition 1.4.1 Sei n ∈ N eine natürliche Zahl. Der Euklidische Standardraum<br />

der Dimension n ist die Menge R n aller n-Tupel von reellen Zahlen.<br />

Für n ≤ 3 kann man sich diesem Raum leicht geometrisch veranschaulichen.<br />

Die reellen Zahlen R stellt man sich als ‘Zahlengerade’ vor:<br />

0 1<br />

✲<br />

Für n = 2 identifiziert man R 2 mit einer Ebene, in der man ein Koordinatensystem<br />

gewählt hat, wie folgt. Zu einem Punkt P in der Ebene assoziert man<br />

das Paar (x 1 , x 2 ) ∈ R 2 , indem man von P aus das Lot auf beide Koordinatenachsen<br />

fällt, welche man als Zahlengerade mit der Menge der reellen Zahlen<br />

identifiziert.<br />

✻<br />

P = (x 1 , x 2 )<br />

x 2<br />

x 1<br />

✲<br />

Wir nennen R 2 deshalb auch die Euklidische Standardebene.<br />

Analog verfährt man mit R 3 , das man mit dem dreidimensionalen Raum<br />

mit drei Koordinatenachsen identifiziert. Für den Moment bleiben wir aber in<br />

Dimension zwei.<br />

Definition 1.4.2 Eine Gerade in der Standardebene R 2 ist die Lösungsmenge<br />

einer (nichttrivialen) linearen Gleichung,<br />

L = { (x 1 , x 2 ) ∈ R 2 | ax 1 + bx 2 = c }.<br />

Hierbei sind a, b, c ∈ R <strong>und</strong> (a, b) ≠ (0, 0).<br />

25


Wir wollen im folgenden mit den Methoden des letzten Abschnittes illustrieren,<br />

dass der soeben definierte Begriff einer Geraden mit der geometrischen<br />

Anschauung übereinstimmt.<br />

Sei also L ⊂ R 2 eine Gerade, gegeben durch die Gleichung<br />

ax 1 + bx 2 = c.<br />

Eine Gleichung ist auch ein Gleichungssystem, also können wir den Gauss-<br />

Algorithmus anwenden. Der ist in diesem Fall so einfach, dass wir in einem<br />

Schritt das Ergebnis angeben können. Allerdings ist eine Fallunterscheidung<br />

notwendig. Ist a ≠ 0, so erhalten wir die äquivalente Gleichung<br />

x 1 = c a − b a · x 2.<br />

Wir fassen also x 2 als freie <strong>und</strong> x 1 als geb<strong>und</strong>ene Variable auf <strong>und</strong> erhalten die<br />

Parametrisierung<br />

φ : R ∼ → L,<br />

t ↦→ ( c a − b · t, t).<br />

a<br />

Die Umkehrabbildung φ −1 : L ∼ → R entspricht geometrisch der Projektion von<br />

L auf die x 2 -Achse. Wenn b ≠ 0, so können wir auch so umformen:<br />

Die entsprechende Parametrisierung<br />

x 2 = c b − a b · x 1.<br />

φ ′ : R ∼ → L, t ↦→ (t, c b − a b · t)<br />

entspricht der Projektion auf die x 1 -Achse.<br />

x 2<br />

(0, 1)<br />

✻<br />

(2, 2)<br />

(−2, 0) x 1<br />

✲<br />

Figure 2: Die Gerade L : x 1 − 2x 2 = −2<br />

26


Der Fall a ≠ 0, b ≠ 0 ist ein Beispiel <strong>für</strong> die Bemerkung 1.3.6: man kann<br />

sowohl x 1 als auch x 2 als freien Parameter wählen. Die Anzahl der freien Parameter<br />

ist aber in beiden Fällen 1. Dies entspricht der Vorstellung von einer<br />

Geraden als ein ‘eindimensionales Objekt’.<br />

Die Grenzfälle a = 0 (bzw. b = 0) beschreiben eine Gerade, die parallel zur<br />

x 1 -Achse (bzw. parallel zur x 2 -Achse) liegt. Es ist klar, dass in diesem Fall nur<br />

x 1 (bzw. x 2 ) als freie Variable in Frage kommt.<br />

Als Ergebnis der obigen Diskussion wollen wir folgendes festhalten.<br />

Proposition 1.4.3 Eine Teilmenge L ⊂ R 2 der Ebene ist genau dann eine<br />

Gerade, wenn es eine Bijektion φ : R ∼ → L gibt der Form<br />

φ : R ∼ → L,<br />

t ↦→ (u 1 + v 1 t, u 2 + v 2 t),<br />

mit gewissen reellen Zahlen u 1 , u 2 , v 1 , v 2 ∈ R, wobei (v 1 , v 2 ) ≠ (0, 0).<br />

Beweis: Angenommen, L ⊂ R ist eine Gerade, also die Lösungsmenge einer<br />

Gleichung der Form<br />

ax 1 + bx 2 = c,<br />

mit (a, b) ≠ (0, 0). Die obige Diskussion zeigt: wenn a ≠ 0, so existiert die<br />

geforderte Parametrisierung φ, wobei<br />

u 1 := c a , u 2 := 0, v 1 := − b a , v 2 := 1.<br />

Wenn a = 0 so gilt zumindest b ≠ 0, <strong>und</strong> wir können ebenfalls eine explizite<br />

Parametrisierung φ ′ angeben.<br />

Nehmen wir umgekehrt an, dass es eine Bijektion φ : R ∼ → L gibt, wobei<br />

φ(t) = (u 1 + v 1 t, u 2 + v 2 t) <strong>und</strong> (v 1 , v 2 ) ≠ 0. Wir setzen<br />

a := v 2 , b := −v 1 , c := u 1 v 2 − u 2 v 1 ,<br />

<strong>und</strong> wollen zeigen, dass L die Lösungsmenge der Gleichung ax 1 + bx 2 = c, also<br />

eine Gerade ist. Mit anderen Worten: ein Punkt (x 1 , x 2 ) ∈ R 2 ist genau dann<br />

eine Lösung der Gleichung ax 1 + bx 2 = c, wenn es ein t ∈ R gibt mit<br />

x 1 = u 1 + v 1 t, x 2 = u 2 + v 2 t.<br />

Der Beweis dieser Aussage ist dem Leser als Übungsaufgabe überlassen. ✷<br />

Eine Bijektion φ : R ∼ → L wie in Proposition 1.4.3 heißt eine Parametrisierung<br />

oder eine Parameterdarstellung der Geraden L.<br />

Jetzt wenden wir uns dem Problem zu, das Verhältnis zweier Geraden zueinander<br />

zu studieren.<br />

Proposition 1.4.4 Es seien L 1 , L 2 ⊂ R 2 Geraden in der Ebene. Dann können<br />

nur die folgenden drei Fälle eintreten.<br />

27


(i) L 1 = L 2 ,<br />

(ii) L 1 <strong>und</strong> L 2 schneiden sich in genau einem Punkt, oder<br />

(iii) L 1 <strong>und</strong> L 2 schneiden sich in keinem Punkt.<br />

Beweis: Die Geraden L 1 , L 2 sind nach Definition Lösungsmenge einer linearen<br />

Gleichung in den Unbestimmten x 1 , x 2 . Die Schnittmenge L 1 ∩L 2 ist demnach<br />

die Lösungsmenge eines linearen Gleichungssystems mit zwei Gleichungen:<br />

a 1 x 1 + b 1 x 2 = c 1 ,<br />

a 2 x 1 + b 2 x 2 = c 2 .<br />

(22)<br />

mit a i , b i , c i ∈ R <strong>und</strong> (a i , b i ) ≠ (0, 0). Die erste Zeile von (22) entspricht der<br />

Geraden L 1 , die zweite Zeile der Geraden L 2 .<br />

Wir wenden nun auf (22) das Gauss-Verfahren an. Dabei ist eine Fallunterscheidung<br />

nötig, z.B. a 1 ≠ 0 oder b 1 ≠ 0. Die beiden Fälle sind sich aber so<br />

ähnlich, dass die Betrachtung des ersten Falles a 1 ≠ 0 hier genügen soll.<br />

Sei also a 1 ≠ 0. Wendet man das Gauss’sche Eliminationsverfahren auf (22)<br />

an, so erhält man nach zwei Schritten das äquivalente Gleichungssystem<br />

x 1 + b 1<br />

a 1<br />

· x 2 = c 1<br />

a 1<br />

(23)<br />

(b 2 − a 2b 1<br />

a 1<br />

) · x 2 = c 2 − a 2c 1<br />

a 1<br />

(24)<br />

An dieser Stelle ist eine erneute Fallunterscheidung nötig.<br />

Fall 1: a 1 b 2 = a 2 b 1 .<br />

Die Gleichung (24) ist dann äquivalent zu der Gleichung<br />

die gar nicht mehr von x 1 , x 2 abhängt.<br />

a 1 c 2 = a 2 c 1 . (25)<br />

Fall 1 (a): a 1 b 2 = a 2 b 1 <strong>und</strong> a 1 c 2 = a 2 c 1 .<br />

In diesem Fall verschwindet die Gleichung (24) vollständig, <strong>und</strong> es bleibt nur<br />

die erste Gleichung übrig. Geometrisch bedeutet das, dass die Schnittmenge<br />

L 1 ∩ L 2 identisch mit der Geraden L 1 ist, oder äquivalent: L 2 ⊂ L 1 .<br />

Unsere Anschauung sagt uns, dass eine Gerade nur dann Teilmenge einer<br />

anderen Geraden sein kann, wenn beide Geraden gleich sind. Also sollte sogar<br />

L 1 = L 2 gelten. Da wir uns aber nicht auf unsere Anschauung verlassen wollen,<br />

müssen wir diese Aussage beweisen. Das geht z.B. so. Wenn a 2 = 0 wäre, so<br />

würde aus a 1 b 2 = a 2 b 1 <strong>und</strong> a 1 ≠ 0 folgen, dass auch b 2 = 0. Das widerspricht<br />

aber der Annahme, dass die zweite Gleichung in (22) die Gerade L 2 beschreibt<br />

(siehe Definition 1.4.2). Also gilt a 2 ≠ 0, <strong>und</strong> die reelle Zahl λ := a −1<br />

1 a 2 ist<br />

ebenfalls von Null verschieden. Aus den beiden Gleichungen a 1 b 2 = a 2 b 1 <strong>und</strong><br />

a 1 c 2 = a 2 c 1 folgt nun, dass die zweite Gleichung in (22) das λ-fache der ersten<br />

Gleichung ist. Also sind beide Gleichungen äquivalent <strong>und</strong> es gilt L 1 = L 2 . Dies<br />

ist Fall (i) in der Aussage von Proposition 1.4.4.<br />

28


Fall 1 (b): a 1 b 2 = a 2 b 1 <strong>und</strong> a 1 c 2 ≠ a 2 c 1 .<br />

In diesem Fall ist die Gleichung (24) unlösbar. Das bedeutet, dass die Schnittmenge<br />

L 1 ∩ L 2 die leere Menge ist <strong>und</strong> entspricht dem Fall (iii) aus Proposition 1.4.4.<br />

Fall 2: a 1 b 2 ≠ a 2 b 1 .<br />

In diesem Fall kann man das Gauss-Verfahren weiterführen <strong>und</strong> erhält nach<br />

einer kurzen Rechnung die eindeutige Lösung<br />

x 1 = b 2c 1 − b 1 c 2<br />

a 1 b 2 − a 2 b 1<br />

, x 2 = a 1c 2 − a 2 c 1<br />

a 1 b 2 − a 2 b 1<br />

.<br />

Insbesondere besteht die Schnittmenge L 1 ∩ L 2 aus genau einem Punkt, dessen<br />

Koordinaten durch die obigen Gleichungen gegeben sind. Dies entspricht dem<br />

Fall (ii) aus Proposition 1.4.4.<br />

✷<br />

Definition 1.4.5 Zwei Geraden L 1 , L 2 in der Ebene heißen parallel, wenn entweder<br />

L 1 = L 2 gilt oder wenn sich L 1 <strong>und</strong> L 2 nicht schneiden (Fall (i) <strong>und</strong> (iii)<br />

aus Proposition 1.4.4).<br />

Der Beweis von Proposition 1.4.4 zeigt: die beiden Geraden<br />

L 1 : a 1 x 1 + b 1 x 2 = c 1 , L 2 : a 2 x 1 + b 2 x 2 = c 2 ,<br />

sind genau dann parallel, wenn die Gleichung<br />

a 1 b 2 = a 2 b 1<br />

erfüllt ist. Ist dies der Fall, so kann man die Gleichung <strong>für</strong> L 2 durch Multiplikation<br />

mit einer von Null verschiedenen reellen Zahl in eine äquivalente Gleichung<br />

der Form<br />

L 2 : a 1 x 1 + b 1 x 2 = c ′ 2<br />

umwandeln. Dieses Argument zeigt:<br />

Bemerkung 1.4.6 Zwei Geraden<br />

L 1 : a 1 x 1 + b 1 x 2 = c 1 , L 2 : a 2 x 1 + b 2 x 2 = c 2 ,<br />

sind genau dann parallel, wenn die beiden zugehörigen homogenen Gleichungssysteme<br />

äquivalent sind:<br />

a 1 x 1 + b 1 x 2 = 0 ⇔ a 2 x 1 + b 2 x 2 = 0.<br />

Geometrisch können wir diese Bemerkung folgendermassen interpretieren.<br />

Ist die Gerade L ⊂ R 2 durch die Gleichung ax 1 + bx 2 = c gegeben, so ist die<br />

Lösungsmenge L ′ der assoziierten homogenen Gleichung,<br />

L ′ = {(x 1 , x 2 ) ∈ R 2 | ax 1 + bx 2 = 0 },<br />

die eindeutige zu L parallele Gerade, die den Nullpunkt (0, 0) enthält.<br />

Wenden wir uns nun dem dreidimensionalen Raum R 3 zu.<br />

29


Definition 1.4.7 Eine Ebene im R 3 ist die Lösungsmenge einer linearen Gleichung,<br />

E = { (x 1 , x 2 , x 3 ) ∈ R 3 | ax 1 + bx 2 + cx 3 = d },<br />

mit a, b, c, d ∈ R <strong>und</strong> (a, b, c) ≠ (0, 0, 0).<br />

Wie im Fall der Geraden sieht man leicht ein, dass jede Ebene E ⊂ R 3 eine<br />

Parametrisierung<br />

φ : R 2 ∼<br />

→ E<br />

mit zwei Parametern besitzt. Dies entspricht unserem Verständnis von einer<br />

Ebene als einem zweidimensionalen Objekt.<br />

Definition 1.4.8 (i) Zwei Ebenen E 1 , E 2 heißen parallel wenn entweder E 1 =<br />

E 2 oder E 1 ∩ E 2 = ∅ gilt.<br />

(ii) Eine Teilmenge L ⊂ R 3 heißt Gerade, wenn sie Schnittmenge zweier nichtparalleler<br />

Ebenen ist.<br />

Mit anderen Worten: eine Gerade L ⊂ R 3 ist Lösungsmenge eines linearen<br />

Gleichungssystems mit drei Unbestimmten <strong>und</strong> zwei ’voneinander unabhängigen’<br />

Gleichungen, d.h.<br />

a 1 x 1 + b 1 x 2 + c 1 x 3 = d 1 ,<br />

a 2 x 1 + b 2 x 2 + c 2 x 3 = d 2 ,<br />

wobei a i , b i , c i , d i ∈ R, (a i , b i , c i ) ≠ (0, 0, 0) die Eigenschaft haben, dass es keine<br />

λ ∈ R gibt mit<br />

a 2 = λa 1 , b 2 = λb 1 , c 2 = λc 1 .<br />

Wendet man auf so eine Gleichungssystem den Gauss-Algorithmus an, so erhält<br />

man eine Parametrisierung der Geraden L mit genau einem freien Parameter,<br />

φ : R ∼ → L.<br />

Dies entspricht wieder unserer Anschauung von einer Geraden als einem eindimensionalen<br />

Objekt.<br />

Nach diesen Betrachtungen in Dimension zwei <strong>und</strong> drei können wir nun eine<br />

allgemeine Definition wagen.<br />

Definition 1.4.9 Sei n ∈ N. Eine nichtleere Teilmenge H ⊂ R n des n-dimensionalen<br />

Standardraumes heißt linearer Unterraum, wenn sie Lösungsmenge<br />

eines linearen Gleichungssystems ist, also<br />

H = { x ∈ R n | A · x = b },<br />

mit A ∈ M m,n (R) <strong>und</strong> b ∈ R m .<br />

Die Dimension eines linearen Unterraumes H ⊂ R n ist die Anzahl s der<br />

freien Parameter einer Parametrisierung,<br />

φ : R s ∼<br />

→ H,<br />

30


wie man sie durch Anwenden des Gauss-Algorithmus auf das Gleichungssystem<br />

A · x = b erhält.<br />

Ein linearer Unterraum der Dimension eins heißt Gerade, ein linearer Unterraum<br />

der Dimension zwei heißt Ebene.<br />

Offenbar enthält diese Definition die Definitionen 1.4.2, 1.4.7 <strong>und</strong> 1.4.8 (ii)<br />

als Spezialfall. Trotzdem gibt es eine Menge auszusetzen.<br />

Ein erster Kritikpunkt ist, dass wir die Wohldefiniertheit der Dimension<br />

eines linearen Unterraumes noch nicht überprüft haben. Schliesslich ist die<br />

Parametrisierung φ : R s ∼ → H nicht eindeutig durch die Teilmenge H ⊂ R n<br />

bestimmt. Sie hängt unter anderem von der Wahl des Gleichungssystems A·x =<br />

b <strong>und</strong> von den bei der Durchführung des Gauss-Algorithmus vorgenommenen<br />

Zeilenumformungen ab. Es ist eine nichttriviale <strong>und</strong> sehr wichtige Tatsache, dass<br />

die Zahl der freien Parameter aber nur von H ⊂ R n abhängt (vgl. Bemerkung<br />

1.3.6).<br />

Eine weitere Unzulänglichkeit der Definition 1.4.9 besteht darin, dass sie<br />

den Begriff des linearen Unterraumes nicht durch geometrische Eigenschaften<br />

charakterisiert. Stattdessen wird die Existenz eines linearen Gleichungssystems<br />

gefordert, <strong>für</strong> welches es aber keinerlei natürlichen Kandidaten gibt. Denkt man<br />

z.B. an den oben besprochenen Fall einer Geraden im R 3 , so ist anschaulich klar,<br />

dass es unendlich viele Möglichkeiten gibt, eine Gerade als Schnittmenge zweier<br />

Ebenen darzustellen. Eine bestimmte Auswahl solcher Ebenen zu treffen ist<br />

aber eher unnatürlich.<br />

Im Folgenden wollen wir eine geometrische Charakterisierung von linearen<br />

Unterräumen durch Vektoren entwickeln <strong>und</strong> damit den allgemeinen Begriff des<br />

Vektorraumes, den wir im nächsten Kapitel behandeln werden, vorbereiten <strong>und</strong><br />

motivieren.<br />

Der Vektorbegriff<br />

Um den geometrischen Begriff Vektor klar zu fassen, ist es zunächst hilfreich,<br />

streng zwischen Punkten <strong>und</strong> Vektoren zu unterscheiden (diese Unterscheidung<br />

werden wir aber sehr bald wieder aufgeben). Wir gehen also von einem gegebenen<br />

Raum aus, dessen Elemente Punkte sind, die wir mit P, Q usw. bezeichnen.<br />

Wir gehen ebenfalls davon aus, dass in unserem Raum die Gesetze der euklidischen<br />

Geometrie gelten. Die Beziehung zwischen Punkten <strong>und</strong> Vektoren ist<br />

dann folgende:<br />

• Zwei Punkte P, Q legen einen Vektor fest. Schreibweise:<br />

x := ⃗ PQ.<br />

Man kann sich den Vektor x = ⃗ PQ als einen Pfeil mit Anfangspunkt P<br />

<strong>und</strong> Endpunkt Q vorstellen.<br />

• Ist ein Punkt P <strong>und</strong> eine Vektor x gegeben, so gibt es genau einen Punkt<br />

Q mit der Eigenschaft x = PQ. ⃗<br />

31


P<br />

x<br />

Q<br />

✸<br />

✸ Q ′<br />

x<br />

P ′<br />

Figure 3:<br />

• Zwei Punktepaare (P, Q) <strong>und</strong> (P ′ , Q ′ ) definieren denselben Vektor, also<br />

PQ ⃗ = P ⃗′<br />

Q ′ ,<br />

wenn der Pfeil von P nach Q mit dem Pfeil von P ′ nach Q ′ durch eine<br />

Parallelverschiebung in Deckung gebracht werden kann.<br />

Sind z.B. drei paarweise verschiedene Punkte P, P ′ , Q gegeben, die nicht alle<br />

auf einer Geraden liegen, <strong>und</strong> setzt man x := PQ, ⃗ so gibt es nach der zweiten<br />

Regel einen vierten Punkt Q ′ mit x = P ⃗′<br />

Q ′ . Die Strecken PQ <strong>und</strong> P ′ Q ′ bilden<br />

dann gegenüberliegende Kanten eines Parallelogramms, siehe Bild 1.4.<br />

Aus den geometrischen Eigenschaften von Vektoren ergeben sich zwei Operationen,<br />

die Vektoraddition <strong>und</strong> die Multiplikation mit einem Skalar. Sind<br />

zwei Vektoren x, y gegeben, so kann man einen dritten Vektor, z = x + y, folgendermassen<br />

definieren. Man wählt einen beliebigen Punkt P. Dann gibt es<br />

einen eindeutigen Punkt Q so dass x = PQ. ⃗ Weiterhin gibt es einen eindeutigen<br />

Punkt R mit y = QR. ⃗ Wir definieren jetzt die Vektoraddition von x <strong>und</strong> y<br />

durch die Vorschrift<br />

x + y := PR. ⃗<br />

Man kann mit rein geometrischen Argumenten zeigen, dass die so definierte<br />

Vektoraddition eine assoziative <strong>und</strong> kommutative Verknüpfung auf der Menge<br />

aller Vektoren definiert. Darauf wollen wir hier aber verzichten.<br />

Wir definieren den Nullvektor durch die Vorschrift 0 := PP ⃗ (die Wahl des<br />

Punktes P spielt hierbei keine Rolle). Es ist klar, dass 0 ein neutrales Element<br />

bzgl. der Vektoraddition ist, <strong>und</strong> dass jeder Vektor ein inverses Element −x<br />

besitzt: <strong>für</strong> x = PQ ⃗ gilt −x = QP. ⃗<br />

Eine formale Begründung der Multiplikation eines Vektors mit einem Skalar<br />

(i.e. einer reellen Zahl) durch rein geometrische Argumente ist viel schwieriger.<br />

Wir begnügen uns mit der folgenden Pseudodefinition. Ist x ein Vektor <strong>und</strong><br />

t > 0 eine positive relle Zahl, so definieren wir den Vektor t · x als den Vektor,<br />

der dieselbe ‘Richtung’ wie x hat, dessen ‘Länge’ aber das t-fache der ‘Länge’<br />

von x ist. Ist t < 0 so setzen wir t · x := −|t| · x, <strong>und</strong> <strong>für</strong> t = 0 setzen wir<br />

0 · x := 0.<br />

32


E<br />

O<br />

x<br />

P<br />

✸<br />

z<br />

R = φ(t 1 , t 2 )<br />

✿<br />

y<br />

❥<br />

Q<br />

Figure 4:<br />

Jetzt haben wir genügend Hilfsmittel zur Hand, um den Begriff des linearen<br />

Unterraumes neu zu begründen. Dazu betrachten wir das folgende Beispiel. Es<br />

seien drei paarweise verschieden Punkte O, P, Q gegeben, die nicht alle auf einer<br />

Geraden liegen. Unsere geometrische Anschauung sagt uns, dass O, P, Q eine<br />

Ebene E aufspannen. Wie können wir die Menge aller Punkte von E aus den<br />

drei gegebenen Punkten gewinnen?<br />

Wir setzen x := OP ⃗ <strong>und</strong> y := OQ ⃗ <strong>und</strong> betrachten die Menge aller Vektoren<br />

z der Form<br />

z := t 1 · x + t 2 · y,<br />

wobei t 1 , t 2 beliebige reelle Zahlen sind. Wir nennen z eine Linearkombination<br />

der Vektoren x <strong>und</strong> y. Legt man als Anfangspunkt des Vektors z den Punkt O<br />

fest <strong>und</strong> nennt den Endpunkt R (d.h. z = OR), ⃗ so ist anschaulich klar:<br />

• der durch (t 1 , t 2 ) definierte Punkt R liegt auf der Ebene E, <strong>und</strong><br />

• jeder Punkt der Ebene E ist auf eindeutige Weise einem Paar (t 1 , t 2 )<br />

zugeordnet.<br />

Mit anderen Worten: wir haben eine Bijektion<br />

φ : R 2 ∼<br />

→ E, (t1 , t 2 ) ↦→ R,<br />

wobei ⃗ OR = z = t1 ·x+t 2 ·y. Die Bijektion φ nennen wir eine Parametrisierung<br />

der Ebene E. Anschaulich gesprochen haben wir die Ebene E mit einem Koordinatensystem<br />

versehen, das uns erlaubt, Punkte mit Zahlenpaaren zu identifizieren.<br />

Vergleiche mit dem Bild der Euklidischen Standardebene auf Seite 25.<br />

Aber im Unterschied zu dort stehen die Koordinatenachsen hier im allgemeinen<br />

nicht senkrecht aufeinander.<br />

Der Standardvektorraum<br />

Der nächste Schritt ist nun, den soeben entwickelten, auf geometrischer Anschauung<br />

basierenden Vektorbegriff durch eine algebraisches Modell zu realisieren,<br />

das mit der vorhergehenden Definition des Euklidischen Standardraumes<br />

kompatibel ist.<br />

33


Definition 1.4.10 Der reelle Standardvektorraum der Dimension n ist die Menge<br />

R n , zusammen mit den folgenden Verknüpfungen:<br />

• die Vektoraddition<br />

R n × R n → R n , (x, y) ↦→ x + y,<br />

definiert durch<br />

⎛ ⎞<br />

x 1<br />

⎜ ⎟<br />

⎝ . ⎠ +<br />

x n<br />

⎛ ⎞<br />

y 1<br />

⎜<br />

⎝ .<br />

y n<br />

⎟<br />

⎠ :=<br />

⎛ ⎞<br />

x 1 + y 1<br />

⎜<br />

⎝ .<br />

x n + y n<br />

⎟<br />

⎠ .<br />

• die Multiplikation mit einem Skalar<br />

R × R n → R n , (t, x) ↦→ t · x,<br />

definiert durch<br />

⎛<br />

⎜<br />

t · ⎝<br />

⎞<br />

x 1<br />

.<br />

.<br />

x n<br />

⎟<br />

⎠ :=<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

tx 1<br />

.<br />

.<br />

tx n<br />

⎟<br />

⎠ .<br />

Der Vektor 0 := (0, . . .,0) ∈ R n heißt der Nullvektor.<br />

Der Bezug zur Definition des Euklidischen Standardraumes (Definition 1.4.2)<br />

ist folgender. Zu zwei Punkt P = (p 1 , . . . , p n ), Q = (q 1 , . . . , q n ) ∈ R n ist der<br />

zugehörige Vektor definiert durch<br />

⃗ PQ := (q 1 − p 1 , . . . , q n − p n ).<br />

Wenn wir den Punkt O = (0, . . .,0) ∈ R n als Ursprungspunkt wählen, so können<br />

wir einen Punkt P = (p 1 , . . .,p n ) mit dem Vektor OP ⃗ = (p1 , . . .,p n ) identifizieren.<br />

Das werden wir im Folgenden auch immer tun. Man sollte aber nicht<br />

vergessen, dass dieser Identifizierung die willkürliche Auswahl eines Ursprungs<br />

zugr<strong>und</strong>eliegt.<br />

Bemerkung 1.4.11 (i) Die Vektoraddition + auf R n ist eine assoziative <strong>und</strong><br />

kommutative Verknüpfung.<br />

(ii) Der Nullvektor 0 ∈ R n ist das neutrale Element bzgl. der Vektoraddition.<br />

(iii) Jeder Vektor x ∈ R n besitzt ein inverses Element bzgl. der Addition, <strong>und</strong><br />

zwar<br />

−x := (−1) · x.<br />

(iv) Es gilt das folgende Distributivgesetz 6 :<br />

<strong>für</strong> alle x, y ∈ R, t ∈ R.<br />

t · (x + y) = t · x + t · y<br />

6 Die Regel Punktrechnung vor Strichrechnung benutzen wir stillschweigend<br />

34


(v) Ist A ∈ M m,n (R), x, y ∈ R n <strong>und</strong> t ∈ R, so gilt:<br />

A · (x + y) = A · x + A · y,<br />

A · (t · x) = t · (A · x).<br />

Diese Regeln ergeben sich unmittelbar aus den entsprechenden Regeln <strong>für</strong><br />

das Rechnen mit reellen Zahlen. Nur die Regel (v) verdient eine ausführlichere<br />

Begründung. Schreibe A = (a i,j ), x = (x j ), y = (y j ) (der Index i läuft über die<br />

Menge {1, . . .,m}, <strong>und</strong> j läuft über {1, . . .,n}. Nach Definition der Multiplikation<br />

einer Matrix mit einem Vektor haben wir<br />

( ∑<br />

n )<br />

A · (x + y) = a i,j (x j + y j )<br />

i=1,...,m<br />

j=1<br />

( ∑<br />

n<br />

= a i,j x j +<br />

j=1<br />

= A · x + a · y.<br />

n∑ )<br />

a i,j y j<br />

j=1<br />

i=1,...,m<br />

Man beachte, dass wir bei Übergang von der ersten zur zweiten Zeile das<br />

Assoziativ-, das Kommutativ- <strong>und</strong> das Distributivgesetz der reellen Zahlen jeweils<br />

mehrfach benutzt haben. Genauso zeigt man<br />

( ∑<br />

n )<br />

A · (t · x) = a i,j tx j<br />

=<br />

Damit ist die Regel (v) bewiesen.<br />

j=1<br />

(<br />

t ·<br />

n∑ )<br />

a i,j x j<br />

j=1<br />

= t · (A · x).<br />

i=1,...,m<br />

i=1,...,m<br />

Definition 1.4.12 Eine Teilmenge V ⊂ R n heißt Untervektorraum, wenn folgendes<br />

gilt:<br />

(i) V ist nichtleer,<br />

(ii) mit x, y ∈ V liegt auch der Vektor x + y in V , <strong>und</strong><br />

(iii) mit x ∈ V liegt auch t · x in V , <strong>für</strong> alle t ∈ R.<br />

Aus dieser Definition folgt sofort, dass ein Untervektorraum immer den Nullvektor<br />

enthält.<br />

Satz 1.4.13 Für V ⊂ R n sind die folgenden Bedingungen äquivalent.<br />

(a) V ist ein Untervektorraum.<br />

(b) V ist ein linearer Unterraum (Definition 1.4.9) <strong>und</strong> enthält den Nullvektor.<br />

35


(c) V ist Lösungsmenge eines homogenen linearen Gleichungssystems, d.h.<br />

<strong>für</strong> eine Matrix A ∈ M m,n (R).<br />

V = { x ∈ R n | A · x = 0 }<br />

Beweis: Ist V die Lösungsmenge des Gleichungssystems A · x = 0, so ist V<br />

insbesondere ein linearer Unterraum, nach Definition 1.4.9. Zusätzlich gilt aber<br />

auch 0 ∈ V , wegen A · 0 = 0 7 . Also impliziert Aussage (c) die Aussage (b).<br />

Sei umgekehrt V ein linearer Unterraum, der den Nullvektor enthält. Dann<br />

ist V die Lösungsmenge eines linearen Gleichungssystems A · x = b. Wegen<br />

0 ∈ V gilt dann aber b = A · 0 = 0. Die Aussage (b) impliziert deshalb auch die<br />

Aussage (c). Insgesamt sind (b) <strong>und</strong> (c) äquivalent.<br />

Wir zeigen nun noch die Implikation (c) ⇒ (a). Angenommen, V ist Lösungsmenge<br />

des Gleichungssystems A · x = 0. Wegen A · 0 = 0 gilt dann 0 ∈ V .<br />

Insbesondere ist die Bedingung (i) der Definition 1.4.12 erfüllt. Sind x, y ∈ V<br />

zwei Elemente von V so gilt nach Annahme A·x = A·y = 0. Unter Ausnutzung<br />

der Regel (v) der Bemerkung 1.4.11 erhalten wir demnach<br />

A · (x + y) = A · x + A · y = 0 + 0 = 0,<br />

d.h. x + y ∈ V , <strong>und</strong> die Bedingung (ii) der Definition 1.4.12 ist auch gezeigt.<br />

Die Bedingung (iii) zeigt man mit der gleichen Methode: ist x ∈ V <strong>und</strong> t ∈ R,<br />

so gilt<br />

A · (t · x) = t · (A · x) = t · 0 = 0,<br />

d.h. t · x ∈ V . Damit ist die Implikation (c) ⇒ (a) bewiesen.<br />

Den Beweis der Implikation (a) ⇒ (c) werden wir später nachholen.<br />

Korollar 1.4.14 Für eine Teilmenge H ⊂ R n sind die folgenden Bedingungen<br />

äquivalent:<br />

(a) H ist ein linearer Unterraum.<br />

(b) Es gibt einen Untervektorraum V ⊂ R n <strong>und</strong> einen Vektor x ∈ H so, dass<br />

H = x + V := { x + y | y ∈ V }.<br />

Zusatz: wenn H ein linearer Unterraum ist, so ist der Untervektorraum V in<br />

(b) eindeutig bestimmt durch<br />

V = { x − y | x, y ∈ H },<br />

<strong>und</strong> die Gleichheit H = x + V gilt <strong>für</strong> alle x ∈ H.<br />

7 Man beachte, dass hier das Symbol 0 zwei verschiedene Bedeutungen hat: den Nullvektor<br />

✷<br />

in R n <strong>und</strong> den Nullvektor in R m 36


Der dem linearen Unterraum eindeutig zugeordnete Untervektorraum V<br />

heißt der Raum der Richtungsvektoren von H.<br />

Beweis: Angenommen, H ist ein linearer Unterraum, also Lösungsmenge<br />

eines linearen Gleichungssystems,<br />

H = { x | A · x = b },<br />

mit A ∈ M m,n (R) <strong>und</strong> b ∈ R m . Wir definieren die Teilmenge V ⊂ R n als die<br />

Lösungsmenge des zugehörigen homogenen Gleichungssystems:<br />

V := { x | A · x = 0 }.<br />

Nach Satz 1.4.13 ist V ein Untervektorraum. Außerdem ist H nichtleer. Wir<br />

können also ein Element x ∈ H wählen. Wir wollen nun zeigen, dass dann<br />

H = x + V gilt. Oder anders gesagt: ein Vektor z ∈ R n liegt genau dann in H,<br />

wenn es ein y ∈ V gibt mit z = x + y.<br />

Der gesuchte Vektor y ist notwendigerweise gegeben durch die Vorschrift<br />

y := z − x. Aus x ∈ H folgt nun:<br />

A · z = A · (x + y) = A · x + A · y = b + A · y. (26)<br />

Aus dieser Gleichung folgt sofort die Äquivalenz<br />

A · z = b ⇔ A · y = 0. (27)<br />

Mit anderen Worten: z = x+y liegt genau dann in H, wenn y in V liegt. Damit<br />

haben wir die Implikation (a) ⇒ (b) bewiesen.<br />

Sei umgekehrt H ⊂ R n eine Teilmenge der Form H = x + V , wobei x ∈ R n<br />

<strong>und</strong> V ⊂ R n ein Untervektorraum ist. Nach Satz 1.4.13 ist dann V Lösungsmenge<br />

eines homogenen linearen Gleichungssystems, d.h.<br />

V = { y | A · y = 0 },<br />

mit A ∈ M m,n (R). Setze b := A · x ∈ R m . Wir müssen nun zeigen, dass<br />

H = {z | A · z = b }<br />

gilt. Dazu sei z ∈ R n ein beliebiger Vektor. Nach Annahme liegt z in H genau<br />

dann, wenn y := z − x in V liegt. Aus der Rechnung (26) folgt aber genau wie<br />

oben die Äquivalenz (27). Wir schließen, dass z ∈ H äquivalent ist zu A · z = b.<br />

Damit ist auch die Implikation (b) ⇒ (a) bewiesen.<br />

Eine nachträgliche Analyse des obigen Beweises zeigt, dass wir nicht nur<br />

die Äquivalenz (a) ⇔ (b), sondern auch die Zusatzbehauptung des Korollars<br />

bewiesen haben. Die Details möge sich der Leser selber überlegen. ✷<br />

Beispiel 1.4.15 Es sei E ⊂ R 3 die durch die folgende lineare Gleichung definierte<br />

Ebene im dreidimensionalen Standardraum:<br />

E : x 1 + 2x 2 − x 3 = 5.<br />

37


Der Raum der Richtungsvektoren von E ist dann die Lösungsmenge V ⊂ R 3<br />

der homogenen Gleichung<br />

V : x 1 + 2x 2 − x 3 = 0.<br />

Der Gauss-Algorithmus liefert in einem Rechenschritt die Parametrisierung<br />

φ : R 2 ∼<br />

→ E, φ(t1 , t 2 ) := (5 − 2t 1 + t 2 , t 1 , t 2 ).<br />

In Vektorschreibweise sieht diese Parametrisierung so aus:<br />

⎛<br />

φ(t 1 , t 2 ) = ⎝ 5 ⎞ ⎛<br />

0⎠ + t 1 · ⎝ −2 ⎞ ⎛<br />

1 ⎠ + t 2 · ⎝ 1 ⎞<br />

0⎠.<br />

0 0 1<br />

Setzt man<br />

⎛<br />

x := ⎝ 5 ⎞ ⎛<br />

0⎠ , y 1 := ⎝ −2<br />

⎞ ⎛<br />

1 ⎠ , y 2 := ⎝ 1 ⎞<br />

0⎠ ,<br />

0<br />

0<br />

1<br />

so ist offenbar x ∈ E <strong>und</strong> y 1 , y 2 ∈ V . Da V ein Untervektorraum ist, liegt aber<br />

auch jede Linearkombination<br />

⎛<br />

y := t 1 · y 1 + t 2 · y 2 = ⎝ −2t ⎞<br />

1 + t 2<br />

t 1<br />

⎠<br />

t 2<br />

in V . Mit y ∈ V liegt dann der Vektor z := x + y in der Ebene E.<br />

Die Gr<strong>und</strong>struktur der Parametrisierung eines linearen Unterraumes sieht<br />

also so aus:<br />

allgemeine Lösung des LGS = spezielle Lösung x<br />

+ allgemeine Lösung y des homogenen LGS.<br />

Die Anzahl der Parameter s entspricht dabei der Anzahl der Vektoren aus<br />

V , die mindestens nötig sind, um jeden Vektor aus V als Linearkombination<br />

darzustellen:<br />

y = t 1 y 1 + . . . + t s y s .<br />

Sie entspricht der Dimension des Vektorraumes V .<br />

38


2 Vektorräume <strong>und</strong> lineare Abbildungen<br />

2.1 Gr<strong>und</strong>legende Definitionen<br />

In diesem Abschnitt bezeichne K einen beliebigen Körper.<br />

Definition 2.1.1 Ein K-Vektorraum ist eine nichtleere Menge V , zusammen<br />

mit zwei Verknüpfungen<br />

V × V → V,<br />

(x, y) ↦→ x + y<br />

(die Vektoraddition) <strong>und</strong><br />

K × V → V,<br />

(λ, x) ↦→ λ · x<br />

(die Multiplikation mit einem Skalar), die folgende Bedingungen erfüllen.<br />

(i) Die Vektoraddition + ist eine assoziative <strong>und</strong> kommutative Verknüpfung.<br />

(ii) Die Vektoraddition + hat eine neutrales Element, das Nullelement 0.<br />

Jedes Element x ∈ V hat ein inverses Element bzgl. +, das Negative<br />

von x, geschrieben: −x.<br />

(iii) Für alle x, y ∈ V <strong>und</strong> λ, µ ∈ K gelten die folgenden Regeln:<br />

(a) (λ + µ) · x = λ · x + µ · x,<br />

(b) λ · (x + y) = λ · x + λ · y,<br />

(c)<br />

λ · (µ · x) = (λ · µ) · x, <strong>und</strong><br />

(d) 1 · x = x.<br />

Bemerkung 2.1.2 Sei (V, +, · ) ein K-Vektorraum, x ∈ V <strong>und</strong> λ ∈ K. Aus<br />

der Definition 2.1.1 ergeben sich sofort die weiteren Regeln:<br />

(i) 0 · x = 0.<br />

(ii) λ · 0 = 0.<br />

(iii) wenn λ · x = 0, dann gilt λ = 0 oder x = 0.<br />

(iv)<br />

(−1) · x = −x.<br />

Bei diesen Regeln ist zu beachten, dass das Symbol 0 je nach Zusammenhang<br />

das Nullelement des Körpers K oder den Nullvektor von V bezeichnet.<br />

Die Ableitung dieser Regeln aus den Körperaxiomen <strong>und</strong> der Definition 2.1.1<br />

ist dem Leser als Übungsaufgabe überlassen.<br />

39


Beispiel 2.1.3 Sei n ∈ N. Der Standardvektorraum der Dimension n ist<br />

definiert als die Menge K n , mit den Verknüpfungen<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

x 1 y 1 x 1 + y 1<br />

⎜ . ⎟ ⎜<br />

⎝ . ⎠ + . ⎟ ⎜<br />

⎝ . ⎠ :=<br />

. ⎟<br />

⎝ . ⎠<br />

x n y n x n + y n<br />

<strong>und</strong><br />

⎛ ⎞<br />

x 1<br />

⎜<br />

λ · ⎝ .<br />

x n<br />

⎟<br />

⎠ :=<br />

⎛ ⎞<br />

λx 1<br />

⎜<br />

⎝ .<br />

λx n<br />

Der Nullvektor ist dann der Vektor 0 := (0, . . . , 0), das Negative von x =<br />

(x 1 , . . .,x n ) ist −x = (−x 1 , . . .,−x n ). Vergleiche mit Definition 1.4.10.<br />

Es ist manchmal nützlich, bei obiger Definition auch den Fall n = 0 zuzulassen.<br />

Dazu definiert man K 0 := {0} als die Menge, die nur den Nullvektor<br />

enthält. Man überlegt sich leicht, dass es dann nur eine Möglichkeit gibt, auf der<br />

Menge K 0 eine Vektoraddition <strong>und</strong> Multiplikation mit Skalaren zu definieren,<br />

<strong>und</strong> dass K 0 mit diesen Verknüpfungen einen K-Vektorraum bildet. Man nennt<br />

K 0 = {0} den Nullvektorraum.<br />

Definition 2.1.4 Sei V ein K-Vektorraum. Eine Teilmenge U ⊂ V heißt<br />

Untervektorraum, wenn folgendes gilt.<br />

(i) U ≠ ∅,<br />

⎟<br />

⎠.<br />

(ii) mit x, y ∈ U ist auch der Vektor x + y ein Element aus U, <strong>und</strong><br />

(iii) mit x ∈ U ist auch der Vektor λ · x ein Element aus U, <strong>für</strong> alle λ ∈ K.<br />

Bemerkung 2.1.5 Die Bedingungen (ii) <strong>und</strong> (iii) der Definition 2.1.4 sagen<br />

aus, dass man die Vektoraddition + <strong>und</strong> die Multiplikation mit einem Skalar<br />

· des Vektorraumes V auf die Teilmenge U einschränken kann. Man erhält so<br />

Verknüpfungen<br />

U × U → U, (x, y) ↦→ x + y<br />

<strong>und</strong><br />

K × U → U, (λ, x) ↦→ λ · x.<br />

Man überlegt sich leicht, dass die Menge U, zusammen mit diesen Verknüpfungen,<br />

selber einen Vektorraum bilden. Der Begriff Untervektorraum ist also<br />

berechtigt.<br />

Beispiel 2.1.6 (i) Ist V ein beliebiger K-Vektorraum, so sind die Teilmengen<br />

{0} ⊂ V <strong>und</strong> V ⊂ V Untervektorräume.<br />

40


(ii) Sei A ∈ M m,n (K) eine Matrix über K mit n Spalten. Dann ist die<br />

Lösungsmenge des zugehörigen homogenen linearen Gleichungssystems<br />

U := { x ∈ K n | A · x = 0 }<br />

ein Untervektorraum des Standardvektorraumes K n . Vergleiche mit Satz<br />

1.4.13.<br />

(iii) Ist A ∈ M m,n (K) wie in (ii) <strong>und</strong> b ∈ K m , b ≠ 0, so ist die Lösungsmenge<br />

des allgemeinen linearen Gleichungssystems<br />

H := { x ∈ K n | A · x = b }<br />

kein Untervektorraum, da wegen A · 0 = 0 ≠ b der Nullvektor nicht in H<br />

enthalten ist. Man zeigt aber wie im Beweis von Korollar 1.4.14, dass<br />

H = x + U<br />

gilt, wobei x ∈ H eine beliebige Lösung von A · x = b ist <strong>und</strong> U ⊂ K n der<br />

Vektorraum der Lösungen des homogenen Gleichungssystems A·x = 0 ist.<br />

Man nennt entsprechend H einen linearen Unterraum von K n .<br />

Definition 2.1.7 Seien V <strong>und</strong> W K-Vektorräume. Eine Abbildung<br />

φ : V → W<br />

heißt K-linear, wenn <strong>für</strong> alle x, y ∈ V <strong>und</strong> λ ∈ K gilt:<br />

φ(x + y) = φ(x) + φ(y),<br />

<strong>und</strong><br />

φ(λ · x) = λ · φ(x).<br />

Beispiel 2.1.8 Ist A ∈ M m,n (K) eine Matrix mit m Zeilen <strong>und</strong> n Spalten, so<br />

ist die Abbildung<br />

φ : K n → K m , x ↦→ A · x<br />

K-linear. Das folgt aus Bemerkung 1.4.11 (v) (wobei man dort den Körper der<br />

reellen Zahlen durch den allgemeinen Körper K ersetzen muss).<br />

Proposition 2.1.9 Es sei φ : V → W eine K-lineare Abbildung. Dann gilt:<br />

(i) φ(0) = 0.<br />

(ii) Der Kern von φ, d.h. die Teilmenge<br />

ist ein Untervektorraum von V .<br />

Kern(φ) := { x ∈ V | φ(x) = 0 }<br />

41


(iii) Das Bild von φ, d.h. die Teilmenge<br />

ist ein Untervektorraum von W.<br />

Bild(φ) := { φ(x) | x ∈ V }<br />

(iv) Die lineare Abbildung φ ist injektiv genau dann, wenn gilt:<br />

Kern(φ) = {0}.<br />

Beweis: Wegen der Linearität von φ gilt<br />

φ(0) = φ(0 + 0) = φ(0) + φ(0).<br />

Wenn man zu beiden Seiten dieser Gleichung das Negative des Vektors φ(0)<br />

addiert, erhält man φ(0) = 0, <strong>und</strong> (i) ist bewiesen.<br />

Aus (i) folgt nun sofort, dass Kern(φ) den Nullvektor von V enthält <strong>und</strong><br />

somit nichtleer ist. Liegen die beiden Vektoren x, y ∈ V in Kern(φ), so gilt nach<br />

Definition φ(x) = φ(y) = 0. Unter Zuhilfenahme der Linearität erhält man<br />

φ(x + y) = φ(x) + φ(y) = 0 + 0 = 0.<br />

Also liegt mit x, y die Summe x+y ebenfalls in Kern(φ). Das gleiche Argument<br />

zeigt: mit x ∈ Kern(φ) liegt auch λ · x wegen<br />

φ(λ · x) = λ · φ(x) = λ · 0 = 0<br />

in Kern(φ), <strong>für</strong> alle λ ∈ K. Damit ist (ii) bewiesen.<br />

Der Beweis von (iii) folgt demselben Muster. Zunächst folgt aus (i), dass<br />

0 = φ(0) im Bild von φ liegt <strong>und</strong> somit Bild(φ) nichtleer ist. Sind nun x, y ∈ W<br />

Vektoren im Bild von φ, so gibt es nach Definition Vektoren u, v ∈ V mit<br />

x = φ(u) <strong>und</strong> y = φ(v). Wegen<br />

φ(u + v) = φ(u) + φ(v) = x + y<br />

liegt dann aber x + y ebenfalls im Bild von φ. Mit einem ähnlichen Argument<br />

zeigt man: aus x ∈ Bild(φ) folgt λ · x ∈ Bild(φ), <strong>für</strong> alle λ ∈ K, <strong>und</strong> (iii) ist<br />

bewiesen.<br />

Nun zum Beweis von (iv). Zunächst stellt man fest, dass {0} wegen (i)<br />

immer eine Teilmenge von Kern(φ) ist. Es ist also zu zeigen: φ ist injektiv<br />

genau dann, wenn Kern(φ) außer 0 kein weiteres Element enthält.<br />

Wir nehmen zuerst an, dass φ injektiv ist. Sei x ∈ Kern(φ). Dann gilt<br />

φ(x) = 0 = φ(0).<br />

Aus der Injektivität von φ folgt dann aber x = 0.<br />

Nehmen wir umgekehrt an, dass Kern(φ) = {0} gilt. Sind dann x, y ∈ V<br />

Vektoren aus V mit φ(x) = φ(y), so gilt wegen der Linearität von φ:<br />

φ(x − y) = φ(x) − φ(y) = 0.<br />

Nach Annahme folgt daraus aber x − y = 0, also x = y. Also ist φ injektiv.<br />

Damit ist alles gezeigt.<br />

✷<br />

42


Beispiel 2.1.10 Es sei I eine nichtleere Menge. Wir bezeichnen mit K I die<br />

Menge der Abbildungen von I nach K:<br />

K I := { f : I → K }.<br />

Wir versehen K I mit der Struktur eines K-Vektorraumes, indem wir Vektoraddition<br />

<strong>und</strong> Multiplikation mit Skalaren wie folgt definieren. Sind f, g ∈ K I<br />

<strong>und</strong> λ ∈ K gegeben, so setzen wir<br />

(f + g)(i) := f(i) + g(i), (λ · f)(i) := λf(i),<br />

<strong>für</strong> alle i ∈ I. Diese Vorschrift definiert Abbildungen f + g, λ · f ∈ K I , also<br />

Verknüpfungen + : K I × K I → K I <strong>und</strong> · : K × K I → K I .<br />

Wieder ist es möglich <strong>und</strong> sinnvoll, diese Definition auf den Grenzfall I = ∅<br />

auszudehnen, indem man K ∅ als den Nullvektorraum definiert:<br />

K ∅ := {0}.<br />

Diese allgemeine Definition enthält als Spezialfall viele wichtige Vektorräume.<br />

(i) Für I = {1, . . .,n}, n ∈ N, erhält man den Standardvektorraum der<br />

Dimension n, indem man eine Abbildung f : {1, . . .,n} → K mit dem<br />

n-Tupel (f(1), . . . f(n)) identifiziert:<br />

(ii)<br />

K n = K {1,...,n} = { (x 1 , . . . , x n ) | x i ∈ K }.<br />

Ähnlich wie in (i) erhält man <strong>für</strong> I = {1, . . .,m} × {1, . . ., n}, m, n ∈ N,<br />

den Vektorraum der (m, n)-Matrizen:<br />

M m,n (K) = K {1,...,m}×{1,...,n} = { A = (a i,j ) | a i,j ∈ K }.<br />

Wir definieren also eine Addition <strong>und</strong> eine Multiplikation mit Skalaren auf<br />

der Menge der (m, n)-Matrizen durch komponentenweise Addition bzw.<br />

Multiplikation.<br />

(iii) Für I = N identifizieren wir K N mit der Menge der Folgen mit Werten in<br />

K:<br />

K N = { (x 1 , x 2 , x 3 , . . .) | x i ∈ K }.<br />

(iv) Nun sei K = R <strong>und</strong> I ⊂ R ein Intervall, z.B. I = [0, 1] oder I = (0, ∞).<br />

In diesem Fall verwendet man <strong>für</strong> Elemente f ∈ R I eher die funktionale<br />

Schreibweise. Meistens interessiert man sich auch nicht <strong>für</strong> den ganzen<br />

Vektorraum R I , sondern nur <strong>für</strong> gewisse Untervektorräume. So ist z.B.<br />

C 0 (I, R) := { f ∈ R I | f ist stetig }<br />

der Vektorraum der stetigen Funktionen auf I, oder<br />

C 1 (I, R) := { f ∈ R I | f ist differenzierbar, f ′ ist stetig }<br />

der Vektorraum der einmal stetig differenzierbaren Funktionen. Dass diese<br />

Teilmengen von R I tatsächlich Untervektorräume sind, folgt sofort aus<br />

bekannten Aussagen der Analysis. Sind z.B. f, g stetige Funktionen, so<br />

ist f + g wieder stetig.<br />

43


2.2 Basis <strong>und</strong> Dimension<br />

In diesem Abschnitt sei stets K ein Körper <strong>und</strong> V ein K-Vektorraum. Ein<br />

System von Vektoren aus V ist dann eine Abbildung I → V , wobei I eine<br />

beliebige Menge ist. Wir schreiben solche Systeme in der Form<br />

(v i ) i∈I , mit v i ∈ V .<br />

Die Menge I heißt die Indexmenge des Systems. Ist I = {1, . . ., n}, n ∈ N 0 , so<br />

schreiben wir normalerweise (v 1 , . . .,v n ) anstelle von (v i ) i∈I . Man beachte, dass<br />

der Fall n = 0 hier ausdrücklich zugelassen ist, wobei in diesem Fall {1, . . .,n}<br />

die leere Menge ist. In den folgenden Definitionen betrachten wir diesen Fall<br />

meistens separat, um mögliche Verwirrung auszuschließen.<br />

Definition 2.2.1 Sei V ein K-Vektorraum <strong>und</strong> (v i ) i∈I ein System von Vektoren<br />

aus V . Ein Koeffizientensystem <strong>für</strong> (v i ) i∈I ist ein System (λ i ) i∈I von Elementen<br />

λ i ∈ K, die fast alle (d.h. alle bis auf endlich viele Ausnahmen) gleich Null sind.<br />

Genauer: es gibt eine endliche Teilmenge I ′ ⊂ I mit der Eigenschaft: λ i = 0 <strong>für</strong><br />

alle i ∈ I\I ′ .<br />

Eine Linearkombination des Systems (v i ) i∈I ist ein Vektor der Form<br />

v = ∑ i∈I<br />

λ i v i ,<br />

wobei (λ i ) i∈I ein Koeffizientensystem ist. Die obige Summe ist dann folgendermaßen<br />

definiert. Wir wählen eine endliche Teilmenge I ′ ⊂ I mit der Eigenschaft<br />

λ i = 0 <strong>für</strong> i ∉ I ′ <strong>und</strong> eine Aufzählung der Elemente von I ′ , etwa<br />

I ′ = {i 1 , . . . , i k }, mit i j ≠ i l <strong>für</strong> j ≠ l. Dann setzen wir<br />

∑<br />

λ i v i :=<br />

i∈I<br />

k∑<br />

λ ij v ij .<br />

Wegen der Kommutativität der Vektoraddition <strong>und</strong> der Regel 0 · v = 0 ist diese<br />

Definition unabhängig von der Wahl der Teilmenge I ′ ⊂ I <strong>und</strong> der gewählten<br />

Aufzählung. In dem Sonderfall I = ∅ setzen wir<br />

∑<br />

λ i v i := 0.<br />

i∈∅<br />

Die Teilmenge von V aller Linearkombinationen des Systems (v i ) i∈I heißt<br />

das Erzeugnis von (v i ) i∈I . Schreibweise:<br />

〈v i 〉 i∈I := { ∑ i∈I<br />

j=1<br />

λ i v i | λ i ∈ K, fast alle = 0 }.<br />

Ist (v i ) i∈I ein System von Vektoren mit einer endlichen Indexmenge I, so<br />

dürfen wir ohne Einschränkung der Allgemeinheit annehmen, dass I = {1, . . .,n},<br />

44


mit n ∈ N 0 . Das Erzeugnis von (v i ) i∈I = (v 1 , . . .,v n ) ist dann also die Teilmenge<br />

aller Vektoren, die sich in der Form<br />

λ 1 · v 1 + . . . + λ n · v n ,<br />

mit λ i ∈ K, schreiben lassen (im Fall n = 0 ist diese Summe laut unserer<br />

Konvention der Nullvektor).<br />

Proposition 2.2.2 Sei V ein K-Vektorraum <strong>und</strong> (v i ) i∈I ein System von Vektoren<br />

aus V . Dann ist das Erzeugnis<br />

ein Untervektorraum von V .<br />

U := 〈v i 〉 i∈I ⊂ V<br />

Aufgr<strong>und</strong> dieser Tatsache nennen wir U auch den von den Vektoren v i aufgespannten<br />

Untervektorraum.<br />

Beweis: Setzen wir die Koeffizienten λ i alle gleich Null, so gilt offenbar<br />

∑<br />

0 · v i = 0.<br />

i∈I<br />

Deshalb gilt 0 ∈ U, <strong>und</strong> insbesondere ist U nichtleer. Sei nun v, w ∈ U; wir<br />

müssen zeigen, dass dann auch v + w in U liegt. Nach Voraussetzung existieren<br />

Koeffizienten λ i , ν i ∈ K, fast alle gleich Null, mit<br />

v = ∑ i∈I<br />

λ i v i ,<br />

w = ∑ i∈I<br />

µ i v i .<br />

Wir wollen nun die Gleichheit<br />

v + w = ∑ i∈I<br />

(λ i + µ i ) · v i<br />

zeigen 8 , aus der sofort folgt, dass auch v + w in U liegt. Nach Voraussetzung<br />

gibt es endliche Teilmengen I ′ , I ′′ ⊂ I mit der Eigenschaft λ i = 0 <strong>für</strong> i ∉ I ′ <strong>und</strong><br />

µ i = 0 <strong>für</strong> i ∉ I ′′ . Setze I ′′′ := I ′ ∪ I ′′ ; dies ist wieder eine endliche Teilmenge,<br />

<strong>und</strong> sie hat die Eigenschaft, dass λ i = µ i = 0 gilt <strong>für</strong> alle i ∉ I ′′′ . Wir schreiben<br />

I ′′′ = {i 1 , . . . , i k }, mit i j ≠ i l <strong>für</strong> j ≠ l. Dann gilt:<br />

v + w =<br />

=<br />

k∑<br />

λ ij · v ij +<br />

j=1<br />

k∑<br />

µ ij · v ij<br />

j=1<br />

k∑ ( )<br />

k∑<br />

λij · v ij + µ ij · v ij = (λ ij + µ ij ) · v ij<br />

j=1<br />

= ∑ i∈I<br />

(λ i + µ i ) · v i .<br />

j=1<br />

8 Im weiteren Verlauf werden wir Argumente dieser Bauart nicht mehr im Detail ausführen.<br />

Siehe z.B. den Beweis der Proposition 2.2.4<br />

45


Man beachte, dass wir im Schritt von der ersten zur zweiten Zeile die Assoziativität<br />

<strong>und</strong> die Kommutativität der Vektoraddition <strong>und</strong> im darauffolgenden<br />

Schritt die Distributivgesetz (3a) der Definition 2.1.1 ausgenutzt haben.<br />

Mit einem ähnlichen Argument zeigt man: mit v ∈ U <strong>und</strong> λ ∈ K ist auch<br />

λ · v ein Element von U.<br />

✷<br />

Beim Vergleich dieses Beweises mit dem Beweis von Teil (iii) der Proposition<br />

2.1.9 fällt eine gewisse strukturelle Ähnlichkeit auf. Und tatsächlich kann man<br />

die Proposition 2.2.2 direkt aus der Proposition 2.1.9 ableiten. Der Einfachheit<br />

halber wollen wir dies nur <strong>für</strong> ein endliches System von Vektoren tun.<br />

Sei also (v 1 , . . . , v n ) eine endliches System von Vektoren aus einem K-Vektorraum<br />

V . Wir betrachten die Abbildung<br />

φ : K n → V, (λ 1 , . . . , λ n ) ↦→ λ 1 · v 1 + . . . + λ n · v n . (28)<br />

Offenbar ist das Bild von φ genau das Erzeugnis des Systems (v i ). Man zeigt<br />

leicht (Übungsaufgabe), dass φ K-linear ist. Aus der Proposition 2.1.9 (iii)<br />

folgt nun (als Bestätigung der Proposition 2.2.2), dass U = 〈v 1 , . . .,v n 〉 ein<br />

Untervektorraum ist.<br />

Eine weitere interessante Bedingung, die man an das System (v 1 , . . .,v n )<br />

stellen kann, ist, dass die Abbildung φ injektiv ist. Diese Bedingung wollen wir<br />

zuerst ganz allgemein formulieren.<br />

Definition 2.2.3 Sei V ein K-Vektorraum <strong>und</strong> (v i ) i∈I ein System von Vektoren.<br />

Wir nennen das System (v i ) i∈I linear abhängig, wenn es ein Koeffizientensystem<br />

(λ i ) i∈I gibt mit<br />

∑<br />

λ i · v i = 0,<br />

i∈I<br />

<strong>und</strong> es außerdem ein i ∈ I gibt mit λ i ≠ 0.<br />

Ist das System (v i ) i∈I nicht linear abhängig, so nennen wir es linear unabhängig.<br />

Betrachten wir, wie oben, den Spezialfall eines endlichen Erzeugendensystems<br />

(v 1 , . . . , v n ) <strong>und</strong> die resultierende Abbildung φ : K n → V , so lässt sich<br />

die Definition 2.2.3 folgendermaßen umformulieren. Das System (v 1 , . . . , v n ) ist<br />

linear unabhängig genau dann, wenn der Kern von φ nur aus dem Nullvektor<br />

besteht. Nach Proposition 2.1.9 (iv) gilt dies aber genau dann, wenn φ injektiv<br />

ist.<br />

Die folgende Proposition ist deshalb das Analogon zum Teil (iv) der Proposition<br />

2.1.9:<br />

Proposition 2.2.4 (Koeffizientenvergleich) Sei V ein K-Vektorraum <strong>und</strong><br />

(v i ) i∈I ein System von Vektoren aus V . Dann sind die folgenden Bedingungen<br />

äquivalent.<br />

(a) Das System (v i ) i∈I ist linear unabhängig.<br />

46


(b) Sind (λ i ) i∈I <strong>und</strong> (µ i ) i∈I Koeffizientensysteme mit der Eigenschaft<br />

∑<br />

λ i · v i = ∑ µ i · v i ,<br />

i∈I i∈I<br />

so folgt λ i = µ i , <strong>für</strong> alle i ∈ I. Mit anderen Worten: die Darstellung eines<br />

Vektors als Linearkombination des Systems (v i ) i∈I ist eindeutig.<br />

Beweis: Der Beweis erfolgt nach dem Muster des Beweises von Proposition<br />

2.1.9 (iv). Wir zeigen deshalb nur die Implikation (a) ⇒ (b).<br />

Angenommen, das System (v i ) i∈I ist linear unabhängig, <strong>und</strong> wir haben zwei<br />

Koeffizientensysteme (λ i ) <strong>und</strong> (µ i ) vorliegen, die die Bedingung in (b) erfüllen.<br />

Dann folgt<br />

0 = ∑ λ i · v i − ∑ µ i · v i<br />

i∈I i∈I<br />

= ∑ ( ) ∑<br />

λi · v i − µ i · v i = (λ i − µ i ) · v i = 0.<br />

i∈I<br />

Wir haben also den Nullvektor als eine Linearkombination des Systems (v i )<br />

dargestellt. Da (v i ) nach Annahme linear unabhängig ist, folgt daraus, dass die<br />

Koeffizienten dieser Linearkombination alle gleich Null sind, d.h. λ i − µ i = 0,<br />

oder λ i = µ i . Die Implikation (a) ⇒ (b) ist damit bewiesen.<br />

✷<br />

Definition 2.2.5 Sei V ein K-Vektorraum.<br />

(i) Ein Erzeugendensystem von V ist ein System (v i ) i∈I von Vektoren aus V ,<br />

das den ganzen Vektorraum V aufspannt, d.h.<br />

i∈I<br />

V = 〈v i 〉 i∈I .<br />

(ii) Eine Basis von V ist ein linear unabhängiges Erzeugendensystem.<br />

Ein System (v i ) i∈I ist also eine Basis von V genau dann, wenn sich jeder<br />

Vektor aus V auf eindeutige Weise als Linearkombination des Systems (v i ) i∈I<br />

darstellen läßt.<br />

Betrachten wir wieder den Spezialfall eines endlichen Systems (v 1 , . . .,v n ).<br />

Wir können alles an der in (28) definierten Abbildung φ : K n → V ablesen:<br />

• (v 1 , . . . , v n ) ist eine Erzeugendensystem von V ⇔ φ ist surjektiv.<br />

• (v 1 , . . . , v n ) ist linear unabhängig ⇔ φ ist injektiv.<br />

• (v 1 , . . . , v n ) ist eine Basis von V ⇔ φ ist bijektiv.<br />

47


Beispiel 2.2.6 Sei n ∈ N eine natürliche Zahl. Wir definieren die Vektoren<br />

e 1 , . . .,e n ∈ K n wie folgt:<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 0<br />

0<br />

0<br />

e 1 := ⎜ ⎟<br />

⎝.<br />

⎠ , e 1<br />

2 := ⎜ ⎟<br />

⎝.<br />

⎠ , . . . , e 0<br />

n := ⎜ ⎟<br />

⎝.<br />

⎠ .<br />

0 0<br />

1<br />

Ist nun v = (x 1 , . . . , x n ) ∈ K n ein beliebiger Vektor, so gilt<br />

⎛ ⎞<br />

x 1<br />

⎜ ⎟<br />

v = ⎝ . ⎠ = x 1 · e 1 + . . . + x n · e n .<br />

x n<br />

Mit anderen Worten: jeder Vektor v ∈ V n lässt sich als Linearkombination<br />

des Systems (e i ) darstellen. Andererseits ist so eine Darstellung eindeutig: die<br />

Koeffizienten müssen offenbar mit den Einträgen des Vektors v übereinstimmen.<br />

Also gilt: das System (e i ) ist eine Basis von K n . Die vom System (e i ) induzierte<br />

Abbildung φ : K n → K n ist übrigens die Identität, also sicher eine Bijektion.<br />

Die Basis (e 1 , . . . , e n ) heißt die Standardbasis des K n .<br />

Satz 2.2.7 Es sei V ein K-Vektorraum. Wir nehmen zusätzlich an, dass V<br />

endlich erzeugt ist, d.h. V besitzt ein endliches Erzeugendensystem. Dann gilt:<br />

(i) Es gibt eine endliche Basis (v 1 , . . . , v n ) von V .<br />

(ii) Ist (w 1 , . . . , w m ) eine weitere Basis von V , so folgt m = n. Die Anzahl der<br />

Basiselemente ist also eindeutig bestimmt.<br />

Dieser Satz macht die folgende Definition erst möglich:<br />

Definition 2.2.8 Die Dimension eines endlich erzeugten K-Vektorraumes ist<br />

die Anzahl der Elemente einer (beliebigen) Basis von V .<br />

Beweis von Satz 2.2.7<br />

Für den Beweis von Satz 2.2.7 müssen wir etwas weiter ausholen. Wir werden<br />

eine Reihe von nützlichen Resultaten beweisen, aus denen unter anderem der<br />

Satz 2.2.7 folgt. Genauer: Teil (i) von Satz 2.2.7 folgt aus dem Korollar 2.2.11,<br />

Teil (ii) aus Korollar 2.2.14. Wir müssen natürlich darauf achten, dass wir in<br />

den folgenden Beweisen niemals den Satz 2.2.7 benutzen.<br />

Im folgenden fixieren wir einen K-Vektorraum V . Wir betrachten ausschließlich<br />

endliche Systeme von Vektoren, die wir meistens als B = (v 1 , . . .,v n ),<br />

mit n ∈ N 0 schreiben. Für k ∈ {1, . . .,n} bezeichnet dann<br />

B k = (v 1 , . . ., ̂v k , . . . , v n )<br />

das ‘verkürzte’ System, bei dem der Vektor v k fehlt.<br />

Wir beginnen mit einem Kriterium <strong>für</strong> lineare Abhängigkeit:<br />

48


Lemma 2.2.9 Sei B = (v 1 , . . . , v n ) ein endliches System von Vektoren aus V .<br />

Dann ist B linear abhängig genau dann, wenn es einen Index k ∈ {1, . . .,n} gibt<br />

mit der Eigenschaft<br />

〈v 1 , . . . , v n 〉 = 〈v 1 , . . ., ̂v k , . . . , v n 〉.<br />

Mit anderen Worten: B ist linear abhängig genau dann, wenn man auf einen<br />

Vektor aus B weglassen kann, ohne den aufgespannten Vektorraum zu verkleinern.<br />

(Vorsicht! Es kann Vektoren in B geben, die man nicht weglassen kann, ohne<br />

den aufgespannten Vektorraum zu verkleinern.)<br />

Beweis: Wir schreiben<br />

<strong>für</strong> das Erzeugnis von B <strong>und</strong><br />

U := 〈v 1 , . . . , v n 〉<br />

U k := 〈v 1 , . . ., ̂v k , . . . , v n 〉<br />

<strong>für</strong> das Erzeugnis des verkürzten Systems B k . Offenbar gilt U k ⊂ U, <strong>für</strong> k =<br />

1, . . .,n, <strong>und</strong> v i ∈ U k <strong>für</strong> i ≠ k. Man überlegt sich nun leicht: U k = U gilt<br />

genau dann, wenn v k ∈ U k .<br />

Angenommen, B ist linear abhängig. Nach Definition gibt es dann Koeffizienten<br />

λ 1 , . . . , λ n ∈ K, nicht alle = 0, mit<br />

λ 1 · v 1 + . . . + λ n · v n = 0. (29)<br />

Wir wählen einen Index k mit λ k ≠ 0. Dann können wir die Gleichung (29)<br />

folgendermaßen umschreiben:<br />

v k = ∑ i≠k<br />

− λ i<br />

λ k<br />

· v i . (30)<br />

Insbesondere liegt v k in dem Untervektorraum U k . Wie wir uns im ersten Abschnitt<br />

des Beweises überlegt hatten, folgt daraus U k = U.<br />

Sei umgekehrt k ein Index mit U k = U. Dann gilt insbesondere v k ∈ U k .<br />

Dies bedeutet, dass es Koeffizienten λ i , i ≠ k, gibt mit<br />

v k = ∑ i≠k<br />

λ i · v i .<br />

Bringt man in dieser Gleichung alle Terme auf die rechte Seite, so erhält man eine<br />

Darstellung des Nullvektors als eine nichttriviale Linearkombination von B =<br />

(v 1 , . . .,v n ) (der Koeffizient von v k ist gleich −1!). Also ist B linear abhängig.<br />

Damit ist das Lemma bewiesen.<br />

✷<br />

Proposition 2.2.10 Sei V ein K-Vektorraum <strong>und</strong> B = (v 1 , . . . , v n ) ein endliches<br />

System von Vektoren aus V . Dann sind die folgenden Bedingungen äquivalent.<br />

49


(i) B ist eine Basis von V .<br />

(ii) B ist ein unverkürzbares Erzeugendensystem. Genauer: B ist ein Erzeugendensystem,<br />

<strong>und</strong> <strong>für</strong> alle k ∈ {1, . . ., n} ist das verkürzte System<br />

kein Erzeugendensystem mehr.<br />

B k = (v 1 , . . ., ̂v k , . . . , v n )<br />

(iii) B ist unverlängerbar linear unabhängig. Genauer: B ist linear unabhängig,<br />

<strong>und</strong> <strong>für</strong> alle v ∈ V ist das verlängerte System<br />

linear abhängig.<br />

B ′ := (v 1 , . . . , v n , v)<br />

Beweis: Die Äquivalenz von (i) <strong>und</strong> (ii) ist im Wesentlichen eine Umformulierung<br />

des Lemmas 2.2.9. Durch Negation der beiden Aussagen von Lemma<br />

2.2.9 erhält man nämlich: B ist linear unabhängig genau dann, wenn <strong>für</strong> alle k<br />

gilt: das Erzeugnis von B k ist echt kleiner als das Erzeugnis von B. Unter der<br />

Zusatzannahme, dass B ein Erzeugendensystem ist, wird daraus: B ist eine Basis<br />

genau dann, wenn <strong>für</strong> alle k das verkürzte System B k kein Erzeugendensystem<br />

mehr ist.<br />

Zeigen wir nun die Implikation (i)⇒(iii). Wir nehmen an, dass B eine Basis<br />

ist. Wir wollen zeigen: <strong>für</strong> jedes v ∈ V ist dann B = (v 1 , . . .,v n , v) linear<br />

abhängig. Als Basis ist B insbesondere ein Erzeugendensystem, also gibt es<br />

λ 1 , . . . , λ n ∈ K mit<br />

v = λ 1 · v 1 + . . . + λ n · v n .<br />

Dies Gleichung können wir umstellen zu einer nichttrivialen Linearkombination<br />

des Nullvektors durch das System B ′ :<br />

λ 1 · v 1 + . . . + λ n · v n − v = 0.<br />

Deshalb ist B ′ linear abhängig, <strong>und</strong> die Implikation (i)⇒(iii) ist bewiesen.<br />

Zum Schluss noch die Implikation (iii)⇒(i). Sei B unverlängerbar linear<br />

unabhängig. Dann gibt es <strong>für</strong> jedes v ∈ V eine Darstellung des Nullvektors der<br />

Form<br />

λ 1 · v 1 + . . . + λ n · v n + λ · v = 0,<br />

wobei mindestens einer der Koeffizienten λ 1 , . . .,λ n , λ von Null verschieden ist.<br />

Da das System (v 1 , . . . , v n ) aber nach Annahme linear unabhängig ist, darf λ<br />

nicht Null sein. Wir können daher umstellen <strong>und</strong> v als Linearkombination von<br />

v 1 , . . . , v n darstellen:<br />

v = − λ 1<br />

λ · v 1 − . . . − λ n<br />

λ · v n.<br />

Also ist B ein Erzeugendensystem <strong>und</strong> sogar eine Basis. Die Proposition ist nun<br />

vollständig bewiesen.<br />

✷<br />

Teil (i) von Satz 2.2.7 folgt leicht aus obiger Proposition. Genauer:<br />

50


Korollar 2.2.11 (Basisauswahlsatz) Sei B = (v 1 , . . .,v n ) ein endliches Erzeugendensystem<br />

eines K-Vektorraumes V . Dann gibt es eine Teilmenge I ⊂<br />

{1, . . ., n} so, dass das Teilsystem<br />

B I := (v i ) i∈I<br />

eine Basis von V ist.<br />

Insbesondere besitzt jeder endlich erzeugte Vektorraum eine endliche Basis.<br />

Beweis: Man nimmt aus B so lange ‘überflüssige’ Vektoren heraus, bis das<br />

resultierende Teilsystem B I ein unverkürzbares Erzeugendensystem ist. Nach<br />

Proposition 2.2.10 ist dann B I eine Basis von V .<br />

✷<br />

Wir wollen nun den zweiten Teil von Satz 2.2.7 beweisen. Der Schlüssel zum<br />

Beweis ist das folgende Lemma.<br />

Lemma 2.2.12 (Austauschlemma) Sei V ein K-Vektorraum mit einer Basis<br />

B = (v 1 , . . . , v n ). Sei<br />

w = λ 1 · v 1 + . . . + λ n · v n<br />

ein beliebiger Vektor aus V , dargestellt als Linearkombination der Basis B. Für<br />

alle Indizes k ∈ {1, . . ., n} mit λ k ≠ 0 ist dann<br />

B ′ := (v 1 , . . . , v k−1 , w, v k+1 , . . . , v n )<br />

wieder eine Basis von V . Man kann also v k gegen w austauschen.<br />

Beweis: Zur Vereinfachung der Schreibweise dürfen wir annehmen, dass<br />

k = 1. Wegen λ 1 ≠ 0 gilt<br />

v 1 = 1 λ 1<br />

· w − λ 2<br />

λ 1<br />

· v 2 − . . . − λ n<br />

λ 1<br />

· v n . (31)<br />

Wir wollen nun zeigen, dass B ′ = (w, v 2 , . . .,v n ) eine Erzeugendensystem von<br />

V ist. Dazu sei v ∈ V ein beliebiger Vektor. Da B eine Basis ist, gilt<br />

v = µ 1 · v 1 + . . . + µ n · v n , (32)<br />

<strong>für</strong> gewisse µ i ∈ K. Wir setzen nun (31) in (32) ein. Nach etwas Umformen<br />

erhalten wir:<br />

v = µ 1<br />

λ 1<br />

· w + (µ 2 − λ 2<br />

λ 1<br />

) · v 2 + . . . + (µ n − λ n<br />

λ 1<br />

) · v n . (33)<br />

Der Vektor v liegt also im Erzeugnis von B ′ . Damit ist gezeigt, dass B ′ ein<br />

Erzeugendensystem ist.<br />

Zum Nachweis der linearen Unabhängigkeit nehmen wir an, dass wir Körperelemente<br />

µ, µ 2 , . . .,µ n ∈ K gegeben haben mit<br />

µ · w + µ 2 · v 2 + . . . + µ n · v n = 0. (34)<br />

51


Wir setzen in (34) den Ausdruck w = λ 1 · v 1 + . . . + λ n · v n ein <strong>und</strong> erhalten<br />

µλ 1 · v 1 + (µλ 2 − µ 2 ) · v 2 + . . . + (µλ n − µ n ) · v n . (35)<br />

Da B = (v 1 , . . .,v n ) eine Basis ist, sind alle Koeffizienten der Linearkombination<br />

in (35) gleich Null. Da nach Voraussetzung λ 1 ≠ 0 gilt, schließt man zuerst µ = 0<br />

<strong>und</strong> danach<br />

µ 2 = µλ 2 = 0, . . .,µ n = µλ n = 0.<br />

Damit ist alles gezeigt.<br />

Satz 2.2.13 (Austauschsatz) Sei V eine K-Vektorraum mit einer endlichen<br />

Basis B = (v 1 , . . . , v n ). Sei weiterhin (w 1 , . . . , w r ) ein System von r linear<br />

unabhängigen Vektoren. Dann gilt:<br />

(i) r ≤ n (es kann also höchstens n linear unabhängige Vektoren in V geben).<br />

(ii) Es gibt paarweise verschiedene Indizes i 1 , . . . , i r ∈ {1, . . ., n}, so dass<br />

man nach Austausch der Vektoren v i1 , . . .,v ir in B durch die Vektoren<br />

w 1 , . . . , w r wieder eine Basis von V erhält.<br />

Numeriert man so um, dass i 1 = 1, . . .,i r = r gilt, so lautet die Aussage:<br />

das System<br />

B ′ := (w 1 , . . .,w r , v r+1 , . . . , v n )<br />

ist wieder eine Basis von V .<br />

Beweis: Wir nehmen zunächst einmal an, dass r ≤ n gilt, <strong>und</strong> beweisen<br />

Teil (ii) des Satzes unter dieser Zusatzannahme (wir zeigen also (i)⇒(ii)). Dazu<br />

verwenden wir vollständige Induktion über die Anzahl r der linear unabhängigen<br />

Vektoren (w 1 , . . .,w r ).<br />

Im Fall r = 0 ist nichts zu zeigen. Wir dürfen also annehmen, dass r ≥ 1 ist<br />

<strong>und</strong> dass die Aussage des Satzes <strong>für</strong> das System (w 1 , . . . , w r−1 ) schon bewiesen<br />

wurde. Nach geeigneter Umnumerierung der Indizes dürfen wir also annehmen,<br />

dass das System<br />

B ′′ := (w 1 , . . . , w r−1 , v r , . . .,v n )<br />

eine Basis von V ist. Zu zeigen ist, dass (nach geeigneter Umnumerierung der<br />

Vektoren v r , . . .,v n ) das System<br />

B ′ = (w 1 , . . . , w r , v r+1 , . . . , v n )<br />

wieder eine Basis von V ist.<br />

Da B ′′ nach Induktionsannahme eine Basis ist, gibt es λ 1 , . . .,λ n ∈ K mit<br />

w r = λ 1 · w 1 + . . . + λ r−1 · w r−1 + λ r v r + . . . + λ n · v n .<br />

Wäre λ r = . . . = λ n = 0, so hätte man einen Widerspruch zur linearen Unabhängigkeit<br />

von (w 1 , . . . , w r ). Es gibt daher einen Index k ∈ {r, . . . , n} mit<br />

λ k ≠ 0. Nach geeigneter Umnumerierung dürfen wir annehmen, dass k = r,<br />

✷<br />

52


also λ r ≠ 0. Das Austauschlemma (Lemma 2.2.12) sagt nun, dass wir in der<br />

Basis B ′′ den Vektor v r gegen den Vektor w r austauschen können; das resultierende<br />

System B ′ ist dann wieder eine Basis. Damit ist die Implikation (i)⇒(ii)<br />

bewiesen.<br />

Jetzt zeigen wir (i). Angenommen, r > n. Nachdem, was wir schon bewiesen<br />

haben, könnte man in der Basis B = (v 1 , . . . , v n ) die Vektoren nach <strong>und</strong> nach<br />

gegen die Vektoren w 1 , . . . , w n austauschen, ohne die Basiseigenschaft zu verlieren.<br />

Insbesondere ist das System B ′ = (w 1 , . . .,w n ) eine Basis von V . Eine<br />

Basis ist aber ‘unverlängerbar linear unabhängig’ (Proposition 2.2.4). Im Fall<br />

r > n widerspricht dies der Annahme, dass sogar das System (w 1 , . . . , w r ) linear<br />

unabhängig ist. Damit ist die Ungleichung r ≤ r bewiesen.<br />

✷<br />

Aus dem Austauschsatz können wir jetzt auch die zweite Aussage von Satz<br />

2.2.7 schließen.<br />

Korollar 2.2.14 Sei V ein K-Vektorraum mit einer endlichen Basis<br />

B = (v 1 , . . . , v n ).<br />

Sei B ′ = (w i ) i∈I ein weitere Basis. Dann gilt |I| = n. Mit anderen Worten: jede<br />

Basis von V ist endlich <strong>und</strong> hat genau n Elemente.<br />

Beweis: Angenommen, die Indexmenge I der zweiten Basis B ′ habe mehr als<br />

n Elemente. Wir könnten dann paarweise verschiedene Elemente i 1 , . . . , i n+1 ∈<br />

I auswählen <strong>und</strong> erhielten ein Teilsystem<br />

(w i1 , . . . , w in+1 )<br />

von B ′ . Dieses Teilsystem wäre immer noch linear unabhängig, im Widerspruch<br />

zu Satz 2.2.13 (i). Wir haben also |I| ≤ n gezeigt.<br />

Die Ungleichung n ≤ |I| folgt mit dem gleichen Argument (wobei B <strong>und</strong> B ′<br />

ihre Rollen vertauschen). Also gilt |I| = n. Damit ist das Korollar 2.2.14 <strong>und</strong><br />

der Satz 2.2.7 vollständig bewiesen.<br />

✷<br />

Mit dem Beweis von Satz 2.2.7 haben wir auch gezeigt, dass die Dimension<br />

eines endlich erzeugten Vektorraumes sinnvoll definiert ist.<br />

Korollar 2.2.15 Sei V ein endlich erzeugter Vektorraum <strong>und</strong> W ⊂ V ein<br />

Untervektorraum. Dann gilt:<br />

(i) W ist wieder ein endlich erzeugter Vektorraum.<br />

(ii) dim K W ≤ dim K V .<br />

(iii) Aus dim K W = dim K V folgt W = V .<br />

Beweis: Wir überlassen (i) den Lesern als Übungsaufgabe.<br />

Da V endlich erzeugt ist, gibt es eine endliche Basis B = (v 1 , . . .,v n ) der<br />

Länge n := dim K V . Ebenso gibt es eine endliche Basis B ′ = (w 1 , . . . , w r ) von<br />

W der Länge r = dim K W. Faßt man B ′ als ein System von Vektoren in V<br />

53


auf, so ist es immer noch linear unabhängig (aber i.A. kein Erzeugendensystem<br />

mehr). Aus Satz 2.2.13 (i) folgt nun<br />

dim k W = r ≤ n = dim K V.<br />

Außerdem ist (nach geeigneter Umnumerierung) das System<br />

B ′′ = (w 1 , . . . , w r , v r+1 , . . .,v n )<br />

eine Basis von V . Im Fall r = n hätten wir dann<br />

W = 〈w 1 , . . .,w r 〉 = V.<br />

✷<br />

Korollar 2.2.16 (Basisergänzungssatz) Sei V ein endlich erzeugter Vektorraum<br />

<strong>und</strong> B ′ = (v 1 , . . . , v r ) ein System von linear unabhängigen Vektoren. Dann<br />

gibt es Vektoren v r+1 , . . .,v n , so dass (v 1 , . . . , v n ) eine Basis von V ist.<br />

Beweis: Wähle eine Basis B = (w 1 , . . . , w n ) von V . Nach Satz 2.2.13<br />

gilt dann r ≤ n, <strong>und</strong> nach geeigneter Umnumerierung der w i ist das System<br />

(v 1 , . . . , v r , w r+1 , . . .,w n ) eine Basis von V . Wir können also v i := w i<br />

<strong>für</strong> i = r + 1, . . .,n setzen.<br />

✷<br />

Alle in diesem Abschnitt bewiesenen Sätze gelten - mit leicht veränderter<br />

Formulierung – auch <strong>für</strong> Vektorräume, die nicht endlich erzeugt sind. Die Beweise<br />

benutzen aber zum Teil nichttriviale Techniken der Mengenlehre, auf die<br />

wir in dieser Vorlesung nicht näher eingehen wollen. Wir begnügen uns mit<br />

folgenden Beispielen.<br />

Beispiel 2.2.17 Sei K ein Körper <strong>und</strong><br />

V := { (x 1 , x 2 , . . .) ∈ K N | ∃n : a i = 0 ∀i ≥ n }<br />

der Vektorraum der abbrechenden Folgen mit Werten in K. Für alle i ∈ N liegt<br />

die durch<br />

{<br />

x (i) 1, i = j<br />

j<br />

:=<br />

0, i ≠ j<br />

definierte Folge e (i) := (x (i)<br />

1 , x(i) 2<br />

, . . .) sicher in V . Man zeigt leicht, dass<br />

B := (e (1) , e (2) , . . .)<br />

eine Basis von V ist. Insbesondere besitzt V eine Basis mit abzählbar unendlich<br />

vielen Elemente.<br />

Die allgemeine Version von Satz 2.2.7 sagt in diesem Fall: jede Basis von V<br />

besitzt abzählbar unendlich viele Elemente.<br />

54


Beispiel 2.2.18 Nun sei W := K N der Vektorraum aller Folgen mit Werten in<br />

K. Sei B = (e (1) , e (2) , . . .) die oben konstruierte Basis des Untervektorraumes<br />

V ⊂ W.<br />

Die allgemeine Version des Basisergänzungssatzes (Korollar 2.2.16) sagt aus:<br />

wir können B zu einer Basis B ′ von ganz W ergänzen. Insbesondere besitzt W<br />

eine Basis.<br />

Man kann aber auch zeigen: jede Basis von W besitzt überabzählbar viele<br />

Elemente.<br />

2.3 Beispiel: Interpolation von Funktionswerten<br />

Interpolation von Funktionswerten ist ein in der Praxis häufig auftretendes<br />

Problem. Es soll hier als typische Anwendung der linearen <strong>Algebra</strong> <strong>und</strong> als<br />

Veranschaulichung des Basis- <strong>und</strong> Dimensionsbegriffes dienen.<br />

Problem 2.3.1 Ein physikalisches Experiment liefert eine Reihe von Messwerten,<br />

in Form von n Paaren reeller Zahlen<br />

(x 1 , y 1 ), . . .,(x n , y n ) ∈ R 2 .<br />

Die x-Werte sind paarweise verschieden, x i ≠ x j <strong>für</strong> i ≠ j.<br />

Gesucht ist eine möglichst ‘glatte’ <strong>und</strong> einfach zu berechnende Funktion<br />

f : R → R mit der Eigenschaft<br />

y 1 = f(x 1 ), . . . , y n = f(x n ).<br />

Die x-Werte x i heißen die Stützstellen des Interpolationsproblems, die y-<br />

Werte y i die Stützwerte. Die gesuchte Funktion f heißt die Interpolierende.<br />

Es ist ohne zusätzliche Annahmen nicht klar, was man unter einer ‘möglichst<br />

glatten’ Funktion zu verstehen hat. Es sind viele verschiedene Ansätze möglich,<br />

<strong>und</strong> welche von diesen sinnvoll sind, hängt sehr von den gegebenen Umständen<br />

ab.<br />

Wir beschränken uns im Folgenden auf Polynomfunktionen, i.e. auf Funktionen<br />

f : R → R von der Gestalt<br />

mit reellen Zahlen a i ∈ R.<br />

f(x) = a 0 + a 1 x + . . . + a n x n ,<br />

Beispiel 2.3.2 Gegeben sind die Messwerte (1, 2), (2, 1), (3, 1). Gesucht ist also<br />

eine Polynomfunktion f mit<br />

f(1) = 2, f(2) = 1, f(3) = 1.<br />

Wir setzen an:<br />

f(x) = a 0 + a 1 x + a 2 x 2 .<br />

55


Durch Einsetzen wird man auf folgendes lineare Gleichungssystem in den Unbestimmten<br />

a 0 , a 1 , a 2 geführt:<br />

a 0 + a 1 + a 2 = 2<br />

a 0 + 2a 1 + 4a 2 = 1<br />

a 0 + 3a 2 + 9a 2 = 1<br />

Eine kurze Rechnung zeigt, dass dieses Gleichungssystem die eindeutige Lösung<br />

a 0 = 4, a 1 = −5/2, a 2 = 1/2 besitzt. Die gesuchte Funktion ist also<br />

f(x) = 4 − 5 2 x + 1 2 x2 .<br />

Sie ist eindeutig bestimmt, solange man nur Polynomfunktionen vom Grad ≤ 2<br />

betrachtet.<br />

Diese Vorgehensweise läßt sich natürlich auf eine beliebige Anzahl n von<br />

Messwerten verallgemeinern. Setzt man dann f als eine Polynomfunktion vom<br />

Grad ≤ n−1 an, so erhält man offenbar ein Gleichungssystem mit n Unbestimmten<br />

<strong>und</strong> n Gleichungen. In unserem Bespiel hat dieses Gleichungssystem eine<br />

eindeutige Lösung. Der folgende Satz zeigt, dass dies nicht auf Zufall beruhte.<br />

Satz 2.3.3 Seien n Paare reeller Zahlen (x 1 , y 1 ), . . . , (x n , y n ) ∈ R 2 gegeben, mit<br />

paarweise verschiedenen x-Werten. Dann gibt es genau eine Polynomfunktion<br />

f vom Grad ≤ n − 1 mit<br />

y 1 = f(x 1 ), . . . , y n = f(x n ).<br />

Wir werden den Beweis dieses Satzes unter Zuhilfenahme des Basis- <strong>und</strong><br />

Dimensionsbegriffes führen. Sei<br />

V := { f : R → R | f(x) = a 0 + a 1 x + . . . + a n−1 x n−1 }<br />

der R-Vektorraum aller Polynomfunktionen vom Grad ≤ n − 1. Wir wollen<br />

zunächst eine Basis von V bestimmen.<br />

Sei<br />

B := (1, x, x 2 , . . . , x n−1 )<br />

das System aller Monome in x vom Grad ≤ n − 1 (die wir als Funktionen, also<br />

als Elemente von V auffassen). Offenbar ist B ein Erzeugendensystem von V :<br />

nach Definition von V ist eine Funktion f Element von V genau dann, wenn sie<br />

Linearkombination von B ist.<br />

Wir behaupten, dass B auch linear unabhängig <strong>und</strong> somit eine Basis von V<br />

ist. Es ist zu zeigen: ist eine Polynomfunktion vom Grad ≤ n−1 identisch Null,<br />

d.h.<br />

f(x) = a 0 + a 1 x + . . . + a n−1 x n−1 = 0, <strong>für</strong> alle x ∈ R,<br />

56


so sind auch alle Koeffizienten Null, a 0 = . . . = a n−1 = 0. Dies ist sicher<br />

eine bekannte Tatsache; der Beweis derselben liegt aber nicht so einfach auf der<br />

Hand.<br />

Wir wollen den Beweis der linearen Unabhängigkeit von B <strong>für</strong> einen Moment<br />

zurückstellen <strong>und</strong> zuerst einen anderen Kandidaten <strong>für</strong> eine Basis von V<br />

vorstellen. Für i = 0, . . .,n − 1 setzen wir<br />

Für kleine Werte von i haben wir<br />

σ 0 (x) = 1,<br />

σ i (x) := (x − x 1 )(x − x 2 ) · · · (x − x i ).<br />

σ 1 (x) = x − x 1 ,<br />

σ 2 (x) = (x − x 1 )(x − x 2 ) = x 2 − (x 1 + x 2 )x + x 1 x 2 .<br />

Offenbar ist σ i eine Polynomfunktion vom Grad i ≤ n − 1, <strong>und</strong> damit ein<br />

Element von V . Wir nennen σ i das ite Newtonsche Interpolationspolynom <strong>und</strong><br />

setzen<br />

B ′ := (1, σ 1 , . . .,σ n−1 ).<br />

Lemma 2.3.4 Das System B ′ der Newtonschen Interpolationspolynome ist linear<br />

unabhängig.<br />

Beweis: Entscheidend sind die Werte der Funktion σ i an den Stützstellen<br />

x 1 , . . . , x n . Nach Definition von σ i gilt<br />

<strong>und</strong>, da die x j paarweise verschieden sind,<br />

σ i (x j ) = 0, <strong>für</strong> j = 1, . . .,i, (36)<br />

σ i (x j ) = (x j − x 1 ) · · · (x j − x i ) ≠ 0, <strong>für</strong> j = i + 1, . . .,n. (37)<br />

Wir nehmen nun an, dass eine gewisse Linearkombination der σ i identisch Null<br />

ist:<br />

b 0 + b 1 σ 1 (x) + . . . + b n−1 σ n−1 (x) = 0, <strong>für</strong> alle x ∈ R. (38)<br />

Setzt man in (38) den Wert x = x 1 ein, so erhält man wegen (36) die Gleichung<br />

Setzt man x = x 2 ein, so erhält man<br />

b 0 = 0. (39)<br />

b 0 + b 1 σ 1 (x 2 ) = 0.<br />

Unter Verwendung von (37) <strong>und</strong> (39) folgt sofort b 0 = b 1 = 0.<br />

Es ist klar, dass man nach dem gleichen Muster<br />

b 0 = b 1 = . . . = b n−1 = 0<br />

schließen kann. Damit ist die lineare Unabhängigkeit von B ′ bewiesen.<br />

✷<br />

57


Proposition 2.3.5 Sowohl<br />

als auch<br />

ist eine Basis von V . Insbesondere gilt<br />

B = (1, x, . . . , x n−1 )<br />

B ′ = (1, σ 1 , . . .,σ n−1 )<br />

dim R V = n.<br />

Beweis: Wir haben schon bemerkt, dass B ein Erzeugendensystem von V<br />

ist. Nach dem Basisauswahlsatz (Korollar 2.2.11) kann man aus B ein Teilsystem<br />

auswählen, das eine Basis von V ist. So eine Basis hat höchstens n Elemente,<br />

also gilt<br />

dim R V ≤ n. (40)<br />

Zusätzlich gilt: im Fall dim R V = n ist B ein unverkürzbares Erzeugendensystem,<br />

also eine Basis.<br />

Andererseits folgt aus Lemma 2.3.4, dass das System B ′ linear unabhängig<br />

ist. Nach dem Basisergänzungssatz (Korollar 2.2.16) kann man B ′ zu einer Basis<br />

von V ergänzen. So eine Basis hat mindestens n Elemente, also gilt<br />

dim R V ≥ n. (41)<br />

Zusätzlich gilt: im Fall dim R V = n ist B ′ unverlängerbar linear unabhängig,<br />

also ein Basis.<br />

Aus (40) <strong>und</strong> (41) zusammen folgt nun dim R V = n <strong>und</strong> dass sowohl B als<br />

auch B ′ eine Basis von V ist.<br />

✷<br />

Nach diesen Vorbereitungen ist der Beweis von Satz 2.3.3 ganz leicht.<br />

Beweis: (von Satz 2.3.3) Die gesuchte Polynomfunktion f ist ein Element<br />

des Vektorraumes V . Da B ′ eine Basis von V ist, kann man f als Linearkombination<br />

der Polynome σ i schreiben:<br />

f = b 0 + b 1 σ 1 (x) + . . . + b n−1 σ n−1 (x). (42)<br />

Die Koeffizienten b i ∈ R sind durch die Funktion f eindeutig bestimmt. Die<br />

Bedingungen<br />

y 1 = f(x 1 ), . . . , y n = f(x n )<br />

führen, durch Einsetzen in (42), auf ein lineares Gleichungssystem in den Unbestimmten<br />

b 0 , . . . , b n−1 . Wegen (37) hat dieses Gleichungssystem aber ‘untere<br />

Dreiecksform’:<br />

b 0 = y 1<br />

b 0 + σ 1 (x 2 )b 1 = y 2<br />

(43)<br />

. .<br />

. .<br />

b 0 + σ 1 (x n )b 1 + . . . + σ n−1 (x n )b n−1 = y n<br />

58


Zusätzlich gilt: die Einträge auf der Diagonalen sind ungleich Null:<br />

σ i (x i+1 ) = (x i+1 − x 1 ) · · · (x i+1 − x i ) ≠ 0.<br />

Man sieht sofort, dass deshalb das Gleichungssystem (43) eine eindeutige Lösung<br />

besitzt:<br />

b 0 = y 1 ,<br />

b 1 =<br />

1<br />

σ 1 (x 2 ) (y 2 − b 0 ) = y 2 − y 1<br />

,<br />

x 2 − x 1<br />

b 2 =<br />

1<br />

σ 2 (x 3 ) (y 3 − b 0 − σ 1 (x 3 )b 1 ) = . . .<br />

.<br />

Damit ist die Existenz <strong>und</strong> Eindeutigkeit der gesuchten Interpolationsfunktion<br />

f bewiesen.<br />

✷<br />

Aus dem Satz 2.3.3 folgt nun sofort der folgende elementare, aber wichtige<br />

Satz der <strong>Algebra</strong>.<br />

Korollar 2.3.6 Eine Polynomfunktion f : R → R vom Grad n,<br />

f = a 0 + a 1 x + . . . + a n x n , a n ≠ 0,<br />

kann höchstens n verschiedene Nullstellen haben.<br />

Beweis: Es seien x 1 , . . .,x r die (paarweise verschiedenen) Nullstellen von<br />

f. Angenommen, es gilt r > n. Wir betrachten nun das Interpolationsproblem<br />

zu den ‘Messwerten’ (x 1 , 0), . . . , (x n+1 , 0). Offenbar ist die Polynomfunktion f<br />

eine Lösungs dieses Problems vom Grad n. Andererseits ist die Nullfunktion<br />

auch eine Lösung (vom Grad 0 ≤ n). Der Satz 2.3.3 sagt aber, dass genau<br />

eine Lösung existiert. Also gilt f(x) = 0 <strong>für</strong> alle x ∈ R. Da das System der<br />

Polynomfunktionen B = (1, x, . . . , x n ) aber linear unabhängig ist (Proposition<br />

2.3.5), folgt a 0 = a 1 = . . . = a n = 0. Dies widerspricht der Annahme a n ≠ 0,<br />

<strong>und</strong> das Korollar ist bewiesen.<br />

✷<br />

Zum Schluss kommen wir noch einmal auf das Beispiel 2.3.2 zurück. Wir<br />

suchten nach einer Polynomfunktion f vom Grad ≤ 2 mit<br />

f(1) = 2, f(2) = 1, f(3) = 1.<br />

Die Newtonschen Interpolationspolynome zu den Stützstellen x 1 = 1, x 2 =<br />

2, x 3 = 3 sind<br />

σ 0 (x) = 1, σ 1 (x) = x − 1, σ 2 (x) = (x − 1)(x − 2) = x 2 − 3x + 2.<br />

Der Ansatz<br />

f(x) = b 0 + b 1 σ 1 (x) + b 2 σ 2 (x)<br />

59


führt zu dem Gleichungssystem<br />

b 0 = 2<br />

b 0 + b 1 = 1<br />

b 0 + 2b 1 + 2b 2 = 1<br />

Dieses Gleichungssystem läßt sich sehr leicht lösen: es hat die eindeutige Lösung<br />

b 0 = 2, b 1 = −1, b 2 = 1/2. Die gesuchte Funktion ist daher<br />

f(x) = 2 − (x − 1) + 1 2 (x − 1)(x − 2) = 4 − 5 2 x + 1 2 x2 .<br />

2.4 <strong>Lineare</strong> Abbildungen <strong>und</strong> Matrizen<br />

Im Folgenden sei K ein beliebiger Körper. Wir betrachten eine (m, n)-Matrix<br />

A = (a i,j ) ∈ M m,n (K)<br />

mit Einträgen in K. Wir haben bereits mehrere mögliche Interpretationen einer<br />

solchen Matrix kennengelernt:<br />

• A definiert ein homogenes lineares Gleichungssystem in den Unbestimmten<br />

x 1 , . . . , x n :<br />

a 1,1 x 1 + . . . + a 1,n x n = 0<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

a m,1 x 1 + . . . + a m,n x n = 0<br />

Hier betrachtet man die Matrix A zeilenweise; jede Zeile entspricht einer<br />

Gleichung des Gleichungssystems. Eine kompakte Schreibweise des Gleichungssystems<br />

ist A · x = 0, wobei x = (x 1 , . . .,x n ) ∈ K n .<br />

• Es sei v j ∈ K m die jte Spalte von A, also v j = (a 1,j , . . . , a m,j ) (Schreibweise:<br />

A = (v 1 | . . . |v n )). Für x = (x 1 , . . .,x n ) ∈ K n gilt dann:<br />

A · x = x 1 · v 1 + . . . + x n · v n .<br />

Das Produkt A · x der Matrix A mit dem Vektor x ist also die Linearkombination<br />

der Spaltenvektoren v 1 , . . . , v n , deren Koeffizienten durch die<br />

Einträge von x gegeben sind.<br />

• Die Matrix A definiert eine lineare Abbildung<br />

φ : K n → K m , x ↦→ A · x.<br />

Der Kern von φ ist offenbar die Lösungsmenge des Gleichungssystems<br />

A·x = 0. Das Bild von φ ist das Erzeugnis der Spaltenvektoren v 1 , . . . , v n .<br />

Die dritte Sichtweise wollen wir noch etwas verallgemeinern. Dazu seien V<br />

<strong>und</strong> W zwei endlich erzeugte K-Vektorräume <strong>und</strong><br />

φ : V → W<br />

60


eine K-lineare Abbildung. Wir wählen eine Basis A = (v 1 , . . . , v n ) von V <strong>und</strong><br />

eine Basis B = (w 1 , . . . , w m ) von W. Für j = 1, . . .,n ist dann φ(v j ) ein Element<br />

aus W, besitzt also eine eindeutige Darstellung als Linearkombination der Basis<br />

B. Wir schreiben die Koeffizienten dieser Linearkombination in die jte Spalte<br />

einer Matrix A ∈ M m,n (K). Mit anderen Worten: A = (a i,j ) ist bestimmt<br />

durch<br />

m∑<br />

φ(v j ) = a i,j · w i , j = 1, . . .,n. (44)<br />

i=1<br />

Definition 2.4.1 Die durch (44) definierte Matrix A = (a i,j ) ∈ M m,n (K) heißt<br />

die darstellende Matrix der linearen Abbildung φ : V → W, bezüglich der Basen<br />

A <strong>und</strong> B. Schreibweise:<br />

A = M A B (φ).<br />

Dieser Name ist gerechtfertigt durch den folgenden Satz.<br />

Satz 2.4.2 Sei φ : V → W eine K-lineare Abbildung zwischen endlich erzeugten<br />

K-Vektorräumen. Sei<br />

A = M A B (φ)<br />

die darstellende Matrix bezüglich einer Basis A = (v 1 , . . . , v n ) von V <strong>und</strong> einer<br />

Basis B = (w 1 , . . . , w m ) von W. Sei<br />

ein Element aus V <strong>und</strong><br />

v = x 1 · v 1 + . . . + x n · v n<br />

w := φ(v) = y 1 · w 1 + . . . + y m · w m<br />

das Bild unter der Abbildung φ. Dann gilt<br />

⎛ ⎞ ⎛ ⎞<br />

x 1 y 1<br />

⎜ ⎟ ⎜ ⎟<br />

A · ⎝ . ⎠ = ⎝ . ⎠.<br />

x n y m<br />

Mit anderen Worten: identifiziert man V mit K n (durch Wahl der Basis A) <strong>und</strong><br />

W mit K m (durch Wahl der Basis B), so ist die lineare Abbildung φ : V → W<br />

durch die Vorschrift φ(x) = A · x bestimmt.<br />

Beweis: Unter Ausnutzung der Linearität von φ <strong>und</strong> der Definition 2.4.1<br />

erhalten wir<br />

w = φ(v) = φ(<br />

=<br />

n∑<br />

x j · v j ) =<br />

j=1<br />

n∑<br />

x j · φ(v j )<br />

j=1<br />

n∑<br />

x j · ( ∑<br />

m ) ∑<br />

m ( ∑<br />

n )<br />

a i,j · w i = a i,j x j · wi .<br />

j=1<br />

i=1<br />

i=1<br />

j=1<br />

(45)<br />

61


Bei der letzten Umformung haben wir zudem die Kommutativität <strong>und</strong> Assoziativität<br />

der Vektoraddition sowie das Distributivgesetz der Skalarmultiplikation<br />

ausgenutzt. Aus (45) folgt durch Koeffizientenvergleich<br />

y i =<br />

n∑<br />

a i,j x j , i = 1, . . .,m. (46)<br />

j=1<br />

Nach Definition des Produktes einer Matrix mit einem Vektor ist (46) äquivalent<br />

zur Gleichung A · x = y, wobei x = (x 1 , . . . , x n ) <strong>und</strong> y = (y 1 , . . .,y m ). ✷<br />

Beispiel 2.4.3 Sei V = K n , mit der Standardbasis A = (e 1 , . . . , e n ), <strong>und</strong><br />

W = K m , mit der Standardbasis B = (e ′ 1, . . . , e ′ m) (siehe Beispiel 2.2.6). Sei<br />

A ∈ M m,n (K) <strong>und</strong> φ : V → W die durch φ(x) := A · x definierte lineare<br />

Abbildung. Dann gilt<br />

A = M A B (φ).<br />

Zur Verifikation dieser Behauptung braucht man sich nur klarzumachen, dass<br />

das Produkt der Matrix A mit dem Standardvektor e j ∈ K n der jten Spalte<br />

von A entspricht:<br />

⎛ ⎞<br />

0<br />

⎛<br />

⎜ ⎟ ⎛<br />

Daraus folgt sofort<br />

A · e j =<br />

⎜<br />

⎝<br />

⎞<br />

a 1,1 · · · a 1,n<br />

. . ⎟<br />

.<br />

. . ⎠ ·<br />

1<br />

=<br />

⎜ ⎟<br />

a m,1 · · · a m,n ⎝.<br />

⎠<br />

0<br />

⎜<br />

⎝<br />

⎞<br />

a 1,j<br />

.<br />

.<br />

a m,j<br />

⎟<br />

⎠.<br />

φ(e j ) = A · e j = a 1,j · e ′ 1 + . . . + a m,j · e ′ m , j = 1, . . . , n.<br />

Beispiel 2.4.4 Sei V der R-Vektorraum der Polynomfunktionen vom Grad ≤ 3.<br />

Sei B = (1, x, x 2 , x 3 ) die Standardbasis von V der Monome. Sei φ : V → V<br />

die lineare Abbildung φ(f) = f ′ (die Ableitung). Anwenden von φ auf die<br />

Basiselemente ergibt:<br />

φ(1) = 0, φ(x) = 1, φ(x 2 ) = 2x, φ(x 3 ) = 3x 2 .<br />

Schreibt man diese Funktionen wieder als Linearkombination der Basis B =<br />

(1, x, x 2 , x 3 ) <strong>und</strong> stellt die Koeffizienten in die Spalten einer (4, 4)-Matrix, so<br />

erhält man<br />

⎛ ⎞<br />

0 1 0 0<br />

MB B (φ) = ⎜0 0 2 0<br />

⎟<br />

⎝0 0 0 3⎠ .<br />

0 0 0 0<br />

62


Satz 2.4.5 Sei<br />

φ : V → W<br />

eine lineare Abbildung zwischen endlich erzeugten K-Vektorräumen.<br />

(i) Es gibt Basen A = (v 1 , . . .,v n ) von V <strong>und</strong> B = (w 1 , . . . , w m ) von W sowie<br />

eine Zahl r ∈ N 0 , 0 ≤ r ≤ n, m, so dass<br />

⎛ ⎞<br />

MA B (φ) = ⎜<br />

⎝ E r 0 ⎟<br />

⎠. (47)<br />

0 0<br />

Hierbei ist<br />

⎛<br />

⎞<br />

1 0 · · · 0<br />

0 1 · · · 0<br />

E r = ⎜<br />

⎝<br />

.<br />

. ..<br />

⎟<br />

. ⎠<br />

0 · · · 0 1<br />

die Einheitsmatrix vom Rang r; die drei Einträge 0 in (47) stehen jeweils<br />

<strong>für</strong> die Nullmatrix der Dimension (r, n − r), (m − r, r) <strong>und</strong> (m − r, n − r).<br />

(ii) Die Zahl r in (i) hängt nicht von der Wahl der Basen A <strong>und</strong> B ab. Sie ist<br />

eindeutig bestimmt durch<br />

r = dim K Bild(φ) = dim K V − dim K Kern(φ).<br />

Korollar 2.4.6 (Dimensionsformel) Mit den Bezeichnungen von Satz 2.4.5<br />

gilt:<br />

dim K V = dim K Kern(φ) + dim K Bild(φ).<br />

Beweis: Sei s := dim K Kern(φ) die Dimension von Kern(φ). Setze<br />

r := n − s = dim K V − s.<br />

Wir wählen eine Basis von Kern(φ) <strong>und</strong> ergänzen diese zu einer Basis A =<br />

(v 1 , . . .,v n ) von V (Basisergänzungssatz!). Dabei numerieren wir die Elemente<br />

von A so, dass das Teilsystem (v r+1 , . . . , v n ) die zuerst gewählte Basis von<br />

Kern(φ) ist. Man beachte, dass 0 ≤ r, s ≤ n.<br />

Für i = 1, . . .,r setzen wir w i := φ(v i ) ∈ W.<br />

Behauptung: Das System (w 1 , . . . , w r ) ist linear unabhängig.<br />

Zum Beweis der Behauptung nehmen wir an, dass wir Skalare λ 1 , . . . , λ r ∈ K<br />

mit<br />

λ 1 · w 1 + . . . + λ r · w r = 0<br />

gegeben haben. Unter Ausnutzung der Definition von w i <strong>und</strong> der Linearität von<br />

φ erhalten wir<br />

0 = λ 1 · φ(v 1 ) + . . . + λ r · φ(v r ) = φ(λ 1 · v 1 + . . . + λ r · v r ).<br />

63


Also ist λ 1·v 1 +. . .+λ r ·v r ein Element von Kern(φ). Es gibt also µ 1 , . . . , µ s ∈ K<br />

mit<br />

λ 1 · v 1 + . . . + λ r · v r = µ 1 · v r+1 + . . . + µ s · v n .<br />

Da (v 1 , . . .,v n ) eine Basis, also insbesondere linear unabhängig ist, folgt λ 1 =<br />

. . . = λ r = 0. Damit ist die Behauptung bewiesen.<br />

Wir können das linear unabhängige System (w 1 , . . .,w r ) zu einer Basis B =<br />

(w 1 , . . .,w m ) von W ergänzen (Basisergänzungssatz!). Insbesondere gilt m =<br />

dim K W ≥ r. Aus der Gleichung<br />

{<br />

w j <strong>für</strong> j = 1, . . .,r,<br />

φ(v j ) =<br />

0 <strong>für</strong> j = r + 1, . . .,n.<br />

folgt sofort, dass die darstellende Matrix MA B (φ) die in (i) behauptete Gestalt<br />

hat. Teil (i) des Satzes ist also bewiesen. Die Gleichheit r = dim k V −<br />

dim K Kern(φ) gilt nach Definition. Aus dem Beweis von (i) folgt leicht:<br />

Bild(φ) = 〈w 1 , . . . , w r 〉.<br />

Insbesondere gilt r = dim K Bild(φ). Damit ist auch Teil (ii) des Satzes bewiesen.<br />

✷<br />

Definition 2.4.7 Die Zahl r aus Satz 2.4.5 heißt der Rang der linearen Abbildung<br />

φ : V → W. Schreibweise:<br />

2.5 Matrizenmultiplikation<br />

r = Rang(φ).<br />

Seien m, n, r ∈ N natürliche Zahlen <strong>und</strong> A ∈ M m,n (K), B ∈ M n,r (K) zwei<br />

Matrizen der angegebenen Dimensionen. Wir erhalten lineare Abbildungen<br />

φ : K n → K m , y ↦→ A · y,<br />

ψ : K r → K n , x ↦→ B · x.<br />

Da der Definitionsbereich der ersten Abbildung gleichzeitig der Zielbereich der<br />

zweiten Abbildung ist, kann man die Verkettung<br />

φ ◦ ψ : K r → K m , x ↦→ A · (B · x)<br />

definieren. Man zeigt leicht, dass mit φ <strong>und</strong> ψ die Verkettung φ◦ψ wieder eine K-<br />

lineare Abbildung ist. Nach Satz 2.4.2 <strong>und</strong> Beispiel 2.4.3 gibt es also eine Matrix<br />

C ∈ M m,r (K), die die lineare Abbildung φ ◦ψ bezüglich der Standardbasen von<br />

K m <strong>und</strong> K r darstellt. Mit anderen Worten: <strong>für</strong> alle x ∈ K r gilt<br />

C · x = A · (B · x). (48)<br />

64


Die Formel (48) legt uns nahe, die Matrix C als das Produkt der Matrizen A<br />

<strong>und</strong> B aufzufassen, also A · B := C zu setzen. Mit dieser Definition würde die<br />

Formel (48) wie ein ‘Assoziativgesetz’ aussehen:<br />

(A · B) · x = A · (B · x). (49)<br />

Und genau so gehen wir vor: schreibe A = (a i,j ) <strong>und</strong> B = (b j,k ) (man<br />

beachte, dass hier <strong>und</strong> im Folgenden i ∈ {1, . . ., m}, j ∈ {1, . . ., n} <strong>und</strong> k ∈<br />

{1, . . ., r} gilt). Für einen Vektor x = (x 1 , . . .,x r ) ∈ K r gilt dann:<br />

⎛<br />

Daraus folgt<br />

mit<br />

B · x =<br />

z i =<br />

=<br />

⎜<br />

⎝<br />

⎞<br />

y 1<br />

.<br />

y n<br />

⎟<br />

⎠ , mit y j =<br />

⎛ ⎞<br />

y 1<br />

⎜<br />

A · (B · x) = A · ⎝ .<br />

y n<br />

n∑<br />

a i,j y j =<br />

j=1<br />

n∑<br />

j=1 k=1<br />

⎟<br />

⎠ =<br />

r∑<br />

a i,j b j,k x k<br />

n∑<br />

c i,k x k , mit c i,k :=<br />

j=1<br />

r∑<br />

b j,k x k .<br />

k=1<br />

⎛ ⎞<br />

z 1<br />

⎜<br />

⎝ .<br />

z n<br />

⎟<br />

⎠ ,<br />

n∑<br />

a i,j b j,k .<br />

Definition 2.5.1 Seien m, n, r ∈ N <strong>und</strong> A = (a i,j ) ∈ M m,n (K), B = (b j,k ) ∈<br />

M n,r (K) zwei Matrizen der angegebenen Dimension. Das Matrizenprodukt A·B<br />

ist dann die Matrix C = (c i,k ) ∈ M m,r (K) mit den Einträgen<br />

c i,k =<br />

n∑<br />

a i,j b j,k ,<br />

j=1<br />

j=1<br />

i = 1, . . .,m, k = 1, . . .,r.<br />

Das Matrizenprodukt definiert also eine ‘Verknüpfung’<br />

M m,n (K) × M n,r (K) → M m,r (K), (A, B) ↦→ A · B.<br />

Beispiel 2.5.2 Sei K := Q <strong>und</strong><br />

A :=<br />

( ) 2 0 1<br />

, B :=<br />

1 0 1<br />

Das Produkt A · B ist dann die (2, 2)-Matrix<br />

( ) −2 −1<br />

A · B = .<br />

−1 −1<br />

Das Produkt B · A ist eine (3, 3)-Matrix.<br />

⎛<br />

⎝ −1 0<br />

1 1<br />

0 −1<br />

⎞<br />

⎠ .<br />

65


Beispiel 2.5.3 Für α ∈ R sei<br />

φ α : R 2 → R 2<br />

die Drehung der Euklidischen Ebene um den Winkel α (gegen den Uhrzeigersinn,<br />

der Ursprung (0, 0) ist der Fixpunkt der Drehung). Durch elementargeometrische<br />

Überlegungen zeigt man:<br />

• φ α ist eine R-lineare Abbildung,<br />

• die Bilder der Standardvektoren e 1 = (1, 0) <strong>und</strong> e 2 = (0, 1) sind<br />

( )<br />

( )<br />

cosα<br />

− sinα<br />

φ α (e 1 ) = , φ<br />

sin α α (e 2 ) = .<br />

cosα<br />

Es folgt, dass<br />

( )<br />

cosα − sinα<br />

φ α (x) = A α · x, mit A α =<br />

.<br />

sin α cosα<br />

Für α, β ∈ R gilt offenbar<br />

⎛<br />

⎞<br />

⎜cosαcosβ − sin α sin β −(sin α cosβ + cosαsin β) ⎟<br />

A α · A β = ⎝ ⎠. (50)<br />

sin α cosβ + cosαsin β cosαcosβ − sin α sin β<br />

Andererseits stellt das Produkt A α · A β die Verkettungsabbildung φ α ◦ φ β dar.<br />

Die Hintereinanderausführung einer Drehung um den Winkel β <strong>und</strong> einer Drehung<br />

um den Winkel α ist aber offenbar eine Drehung um den Winkel α + β. Es<br />

folgt<br />

A α+β = A α · A β ,<br />

also die bekannten Additionsgesetze<br />

sin(α + β) = sinα cosβ + cosα sinβ,<br />

cos(α + β) = cosαcosβ − sinα sinβ.<br />

Wir haben die Matrizenmultiplikation so definiert, dass sie der Hintereinanderausführung<br />

der zugehörigen linearen Abbildungen entspricht. Die abstrakte<br />

Formulierung dieses Sachverhaltes ist die folgende Kettenregel.<br />

Satz 2.5.4 (Kettenregel) Seien<br />

φ : V → W,<br />

ψ : U → V<br />

K-lineare Abbildungen zwischen endlich dimensionalen Vektorräumen U, V, W.<br />

Sei A eine Basis von U, B eine Basis von V <strong>und</strong> C eine Basis von W. Dann gilt<br />

MC B (φ) · M B A (ψ) = M C A (φ ◦ ψ).<br />

66


Beweis: Dieser ‘Satz’ ist nichts weiter als eine Umformulierung der Assoziativregel<br />

(49). Um das einzusehen, muss man aber etwas Notation einführen.<br />

Zuerst geben wir den Vektoren der drei Basen Namen:<br />

A = (u 1 , . . . , u r ), B = (v 1 , . . .,v n ), C = (w 1 , . . . , w m ).<br />

Nun sei u ∈ U ein beliebiger Vektor, v := ψ(u) ∈ V <strong>und</strong> w := φ(v) ∈ W. Nach<br />

Definition gilt dann<br />

w = φ(v) = φ(ψ(u)) = (ψ ◦ φ)(u). (51)<br />

Sei x = (x 1 , . . .,x r ) ∈ K r der Koordinatenvektor von u bezüglich der Basis<br />

A, y = (y 1 , . . . , y n ) ∈ K n der Koordinatenvektor von v bzgl. B <strong>und</strong> z =<br />

(z 1 , . . .,z m ) ∈ K m der Koordinatenvektor von w bzgl. C. Es gilt also<br />

u =<br />

Dann setzen wir noch<br />

r∑<br />

x k u k , v =<br />

k=1<br />

n∑<br />

m∑<br />

y j v j , w = z i w i .<br />

j=1<br />

i=1<br />

A := MC B (φ), B := M B A (ψ), C := M C A (φ ◦ ψ).<br />

Nach Definition 2.4.1 gilt dann<br />

y = B · x<br />

z = A · y<br />

Aus der Formel (49) folgt also<br />

(wegen v = ψ(u)),<br />

(wegen w = φ(v)),<br />

= C · x (wegen w = φ ◦ ψ(u)).<br />

C · x = A · y = A · (B · x) = (A · B) · x,<br />

<strong>für</strong> alle x ∈ K r (da der Vektor u ∈ U beliebig war). Daraus folgt C = A · B,<br />

was zu zeigen war.<br />

✷<br />

Die folgende Proposition stellt ein paar elementare Regeln <strong>für</strong> das Rechnen<br />

mit Matrizen zusammen.<br />

Proposition 2.5.5 Es seinen Matrizen A, A ′ ∈ M m,n (K), B, B ′ ∈ M n,r (K)<br />

<strong>und</strong> C ∈ M r,s (K) gegeben. Dann gilt:<br />

(i) (Distributivgesetz)<br />

A · (B + B ′ ) = A · B + A · B ′ ,<br />

(A + A ′ ) · B = A · B + A ′ · B,<br />

(ii) (Assoziativgesetz)<br />

(A · B) · C = A · (B · C).<br />

67


(iii) (Neutralität der Einheitsmatrix)<br />

E m · A = A · E n = A.<br />

Beweis: Wir zeigen exemplarisch die erste Formel in (i). Schreibe<br />

A · (B + B ′ ) = (c i,k ) <strong>und</strong> A · B + A · B ′ = (c ′ i,k ).<br />

Für alle i, k gilt dann:<br />

n∑<br />

n<br />

c i,k = a i,j (b j,k + b ′ j,k ) = ∑<br />

a i,j b j,k +<br />

j=1<br />

i=1<br />

n∑<br />

a i,j b ′ j,k = c′ i,k .<br />

j=1<br />

Es folgt A · (B + B ′ ) = A · B + A · B ′ .<br />

Im Allgemeinen kann man zwei Matrizen nur durch Addition <strong>und</strong> Multiplikation<br />

verknüpfen, wenn die Dimensionen ‘passen’. Betrachtet man dagegen<br />

quadratische Matrizen einer festen Dimension, so entfällt diese Beschränkung.<br />

Für jedes n ∈ N erhält man also zwei Verknüpfungen auf der Menge M n,n (K):<br />

Die Proposition 2.5.5 zeigt:<br />

+, · : M n,n (K) × M n,n (K) → M n,n (K).<br />

Korollar 2.5.6 Die Menge M n,n (K), versehen mit der Matrizenaddition <strong>und</strong><br />

-multiplikation, ist ein Ring mit Einselement E n .<br />

Bemerkung 2.5.7<br />

(i) Für n ≥ 2 ist der Ring M n,n (K) niemals kommutativ, wie das folgende<br />

Beispiel zeigt:<br />

( ) ( ) ( )<br />

0 1 1 1 0 1<br />

· = ,<br />

1 0 0 1 1 1<br />

( ) ( ) ( )<br />

1 1 0 1 1 1<br />

· = .<br />

0 1 1 0 1 0<br />

(ii) Für n ≥ 2 ist der Ring M n,n (K) auch nicht nullteilerfrei:<br />

( ) ( )<br />

0 1 0 1<br />

· = 0.<br />

0 0 0 0<br />

(iii) Unsere Konvention über Ringe erlaubt uns, die Nullmatrix in M n,n (K)<br />

mit 0 <strong>und</strong> die Einheitsmatrix mit 1 zu bezeichnen. Darüberhinaus ist<br />

auch sinnvoll, die Matrix<br />

⎛<br />

⎞<br />

λ 0 · · · 0<br />

0 λ · · · 0<br />

⎜<br />

⎝<br />

.<br />

. ..<br />

⎟<br />

. ⎠<br />

0 · · · 0 λ<br />

✷<br />

68


<strong>für</strong> λ ∈ K einfach mit λ zu bezeichnen. Man erhält dann sofort die<br />

Rechenregel<br />

λ · A = A · λ.<br />

Außerdem ist die Abbildung<br />

K → M n,n (K), λ ↦→ λ,<br />

ein injektiver Ringhomomorphismus, d.h. nach Identifizierung von Körperelementen<br />

λ ∈ K mit der entsprechenden Diagonalmatrix ist K ein Unterring<br />

von M n,n (K). Man sagt auch, dass M n,n (K) eine K-<strong>Algebra</strong> ist.<br />

Invertierbare Matrizen<br />

Definition 2.5.8 Eine quadratische Matrix A ∈ M n,n (K) heißt invertierbar,<br />

wenn es eine Matrix B ∈ M n,n (K) gibt mit<br />

A · B = B · A = E n .<br />

Mit anderen Worten: A ist eine Einheit des Rings M n,n (K). Die Matrix B ist<br />

in diesem Fall eindeutig durch A bestimmt <strong>und</strong> heißt die inverse Matrix zu A.<br />

Schreibweise:<br />

A −1 := B.<br />

Die Menge aller invertierbaren (n, n)-Matrizen bezeichnen wir mit GL n (K).<br />

Bemerkung 2.5.9 (i) Sind A, B ∈ GL n (K) invertierbare Matrizen derselben<br />

Dimension, so ist das Produkt A · B wieder invertierbar, <strong>und</strong> es gilt<br />

(A · B) −1 = B −1 · A −1 .<br />

(ii) Die Multiplikation · definiert eine assoziative (aber im Allgemeinen nicht<br />

kommutative) Verknüpfung auf der Menge GL n (K), mit neutralem Element<br />

1 = E n <strong>und</strong> inversem Element A −1 . So eine Struktur nennt man<br />

eine Gruppe.<br />

(iii) Vorsicht: die Addition + läßt sich nicht auf die Menge GL n (K) einschränken:<br />

ist z.B. A ∈ GL n (K), so gilt auch −A ∈ GL n (K), aber<br />

A + (−A) = 0 liegt nicht in GL n (K).<br />

Satz 2.5.10 Sei A ∈ M n,n (K) eine quadratische Matrix. Dann sind die folgenden<br />

Bedingungen äquivalent.<br />

(a) A ist invertierbar.<br />

(b) Kern(A) := { x ∈ K n | A · x = 0 } = {0}.<br />

(c) Bild(A) := { A · x | x ∈ K n } = K n .<br />

69


Beweis: Sei φ : K n → K n die durch φ(x) := A · x definierte lineare Abbildung.<br />

Aus der Dimensionsformel, angewendet auf φ, folgt:<br />

dim K Bild(A) = n ⇔ dim K Kern(A) = 0.<br />

Daraus folgt sofort die Äquivalenz von (b) <strong>und</strong> (c).<br />

Wir beweisen nun die Implikation (a)⇒(b). Angenommen, A ist invertierbar,<br />

<strong>und</strong> x ∈ Kern(A), d.h. A · x = 0. Es folgt<br />

0 = A −1 · x = A −1 · (A · x) = (A −1 · A) · x = E n · x = x.<br />

Dies zeigt Kern(A) = {0}, also (b).<br />

Zum Schluss die Implikation (b)⇒(a). Wir nehmen also an, dass Kern(A) =<br />

{0}. Die lineare Abbildung φ : K n → K n , x ↦→ A · x, ist dann injektiv. Wegen<br />

der Äquivalenz (b)⇔(c) gilt zusätzlich Bild(A) = Kn , d.h. die Abbildung φ ist<br />

auch surjektiv. Also ist φ bijektiv <strong>und</strong> besitzt eine Umkehrabbildung φ −1 mit<br />

φ ◦ φ −1 = φ −1 ◦ φ = Id V . (52)<br />

In den Übungen haben wir gesehen, dass die Umkehrabbildung einer bijektiven<br />

linearen Abbildung wieder linear ist. Daher gibt es eine (eindeutig bestimmte)<br />

Matrix B ∈ M n,n (K) mit<br />

φ −1 (y) = B · y, <strong>für</strong> alle y ∈ K n .<br />

Aus (52) folgt nun<br />

A · B = B · A = E n .<br />

Dies zeigt, dass A invertierbar ist (<strong>und</strong> dass B = A −1 ).<br />

✷<br />

2.6 Basiswechsel<br />

Definition 2.6.1 Sei V ein endlich erzeugter K-Vektorraum, n := dim K (V )<br />

<strong>und</strong> A, B zwei Basen von V . Dann heißt die Matrix<br />

T A B<br />

:= M A B (Id V ) ∈ M n,n (K)<br />

die Transfomationsmatrix des Basiswechsels von A nach B.<br />

Die Transformationsmatrix TB A hat die folgende Interpretation. Sei A =<br />

(v 1 , . . .,v n ) <strong>und</strong> B = (w 1 , . . .,w n ). Jeder Vektor v ∈ V läßt sich auf eindeutige<br />

Weise als Linearkombination von A <strong>und</strong> von B schreiben:<br />

v =<br />

n∑<br />

x i v i =<br />

i=1<br />

n∑<br />

y i w i ,<br />

mit x i , y i ∈ K. Zu den Basen A <strong>und</strong> B gehört also jeweils eine Koordinatendarstellung<br />

von v durch einen Vektor aus K n . Das Umrechnen der einen<br />

i=1<br />

70


Koordinatendarstellung in die andere erfolgt durch Multiplikation mit der Matrix<br />

T:<br />

⎛ ⎞ ⎛ ⎞<br />

y 1 x 1<br />

⎜<br />

⎝<br />

⎟<br />

. ⎠ = TB A ⎜<br />

· ⎝<br />

⎟<br />

. ⎠ .<br />

y m x n<br />

Beispiel 2.6.2 Sei V = R 2 die Euklidische Standardebene, E = (e 1 , e 2 ) die<br />

Standardbasis von V <strong>und</strong> B = (w 1 , w 2 ) die Basis mit den Vektoren<br />

( ( )<br />

1 −1<br />

w 1 := , w<br />

1)<br />

2 := .<br />

1<br />

Offenbar gilt<br />

<strong>und</strong> daher<br />

Umgekehrt gilt<br />

w 1 = e 1 + e 2 , w 2 = −e 1 + e 2 ,<br />

( ) 1 −1<br />

TE B = .<br />

1 1<br />

e 1 = 1 2 w 1 − 1 2 w 2, e 2 = 1 2 w 1 + 1 2 w 2,<br />

<strong>und</strong> daher<br />

T E B = ( 1<br />

2<br />

− 1 2<br />

Nun sei v = (1, 2) = e 1 + 2e 2 ∈ V . Dann gilt<br />

wobei<br />

(<br />

y1<br />

1<br />

2<br />

1<br />

2<br />

)<br />

.<br />

v = y 1 · w 1 + y 2 · w 2 ,<br />

y 2<br />

)<br />

( (<br />

= TB E 1 3<br />

2)<br />

· = 2 1 .<br />

2)<br />

Die ‘Geometrie’ des Koordinatenwechsels von den x-Koordinaten (bzgl. der<br />

Standardbasis) in die y-Koordinaten (bzgl. der Basis B) macht man sich am<br />

Besten durch das Bild 5 klar.<br />

Bemerkung 2.6.3 Sei V ein endlich dimensionaler K-Vektorraum <strong>und</strong> A, B, C<br />

drei Basen von V . Aus der Kettenregel (Satz 2.5.4) folgt:<br />

Insbesondere gilt<br />

T B C · T A B = T A C . (53)<br />

T B A · T A B = T A A = E n, T A B · T B A = T B B = E n.<br />

Eine Transfomationsmatrix ist also immer invertierbar, <strong>und</strong> es gilt:<br />

(T B A )−1 = T A B .<br />

71


y 2<br />

■<br />

x 2<br />

✻ y 1<br />

v ✒<br />

✕<br />

✲<br />

x 1<br />

Figure 5:<br />

Aus der Kettenregel (Satz 2.5.4) folgt sofort:<br />

Satz 2.6.4 (Basiswechsel) Sei<br />

φ : V → W<br />

eine lineare Abbildung zwischen endlich dimensionalen K-Vektorräumen. Seien<br />

A, A ′ Basen von V <strong>und</strong> B, B ′ Basen von W. Dann gilt<br />

M A′<br />

B ′ (φ) = T B B ′ · M A B (φ) · T A′<br />

A .<br />

Korollar 2.6.5 Seien m, n ∈ N. Zu jeder (m, n)-Matrix A ∈ M m,n (K) gibt es<br />

invertierbare Matrizen S ∈ GL m (K) <strong>und</strong> T ∈ GL n (K) mit<br />

S · A · T =<br />

⎛<br />

⎜<br />

⎝<br />

E r 0<br />

0 0<br />

⎞<br />

⎟<br />

⎠,<br />

wobei<br />

r = dim K Bild(A) = n − dim K Kern(A).<br />

Beweis: Sei φ : K n → K m die lineare Abbildung φ(x) = A · x. Seien E m<br />

<strong>und</strong> E n die Standardbasen von K m <strong>und</strong> K n . Dann gilt<br />

A = M En<br />

E m<br />

(φ).<br />

72


Andererseit gibt es nach Satz 2.4.5 eine Basis A von K n <strong>und</strong> eine Basis B von<br />

K n mit<br />

⎛ ⎞<br />

MB A ⎜ E r 0 ⎟<br />

(φ) = ⎝ ⎠ ,<br />

0 0<br />

mit r wie in der Behauptung. Setzt man S := T Em<br />

B<br />

∈ GL m (K) <strong>und</strong> T := TE A n<br />

,<br />

so folgt die Behauptung aus Satz 2.6.4.<br />

✷<br />

Definition 2.6.6 Für A ∈ M m,n (K) heißt<br />

der Rang der Matrix A.<br />

Rang(A) := dim K Bild(A) = n − dim K Kern(A)<br />

2.7 Elementarmatrizen<br />

Sei K ein beliebiger Körper <strong>und</strong> m, n ∈ N. Wir definieren gewisse quadratische<br />

Elementarmatrizen der Dimension m. Die Multiplikation einer (m, n)-Matrix<br />

A von links mit so einer Elementarmatrix entspricht dann einer elementaren<br />

Zeilenoperation auf A, wie sie beim Gauss-Algorithmus auftreten. Als Folgerung<br />

erhalten wir u.A. ein praktisches Verfahren zum Invertieren von Matrizen.<br />

Sei A = (a i,j ) ∈ M m,n (K). Für ein festes i ∈ {1, . . .,n} <strong>und</strong> λ ∈ K, λ ≠ 0,<br />

sei<br />

⎛<br />

⎞<br />

1<br />

. .. S i (λ) :=<br />

λ<br />

⎜<br />

⎟<br />

⎝<br />

⎠<br />

. ..<br />

1<br />

die Diagonalmatrix mit dem Eintrag λ an der iten Stelle <strong>und</strong> einer 1 an den<br />

restlichen Stellen (alle Einträge außerhalb der Diagonalen sind Null). Dann ist<br />

offenbar<br />

⎛<br />

⎞<br />

a 1,1 · · · a 1,n<br />

. .<br />

. .<br />

S i (λ) · A =<br />

λa i,1 · · · λa i,n<br />

⎜<br />

⎟<br />

⎝ . . ⎠<br />

a m,1 · · · a m,n<br />

die aus A durch Multiplikation der iten Zeile mit λ hervorgeht.<br />

Nun seien i, j ∈ {1, . . .,m}, i ≠ j <strong>und</strong> λ ∈ K (nicht notwendigerweise von<br />

73


Null verschieden). Wir setzen<br />

⎛<br />

1<br />

Q j i (λ) := ⎜<br />

⎝<br />

⎞<br />

. .. λ<br />

. ⎟ .. ⎠<br />

1<br />

(auf der Diagonalen steht überall 1, der (i, j)-Eintrag ist gleich λ, sonst sind<br />

alle Einträge Null). Dann ist<br />

⎛<br />

⎞<br />

a 1,1 · · · a 1,n<br />

Q j i (λ) · A = .<br />

.<br />

a i,1 + λa j,1 · · · a i,n + λa j,n<br />

⎜<br />

⎟<br />

⎝<br />

.<br />

. ⎠<br />

a m,1 · · · a m,n<br />

die Matrix, die aus A durch Addition des λ-fachen der jten Zeile zur iten Zeile<br />

hervorgeht.<br />

Schließlich sei <strong>für</strong> i, j ∈ {1, . . .,n}, i ≠ j, P j<br />

i = (c k,l) ∈ M m,m (K) die Matrix<br />

mit den Einträgen<br />

⎧<br />

⎪⎨ 1 k = l ∉ {i, j},<br />

c k,l = 1 k = i, l = j oder k = k, l = i,<br />

⎪⎩<br />

0 sonst.<br />

Dann ist<br />

P j<br />

i · A<br />

die Matrix, die aus A durch Vertauschen der iten mit der jten Zeile hervorgeht.<br />

∈ M m,m (K) heißen die Ele-<br />

Definition 2.7.1 Die Matrizen S i (λ), Q j i (λ), P j<br />

i<br />

mentarmatrizen der Dimension m.<br />

Bemerkung 2.7.2<br />

gilt<br />

(i) Die Elementarmatrizen sind alle invertierbar, <strong>und</strong> es<br />

S i (λ) −1 = S i (λ −1 ), Q j i (λ)−1 = Q j j<br />

i (−λ), (Pi )−1 = P j<br />

i .<br />

(ii) Ist A ∈ M m,n (K) eine beliebige (m, n)-Matrix <strong>und</strong> S ∈ GL m (K) eine<br />

Elementarmatrix, so geht das Produkt<br />

A ′ := S · A<br />

aus A durch eine elementare Zeilenoperation (Definition 1.3.1) hervor.<br />

74


Satz 2.7.3 Sei A ∈ M m,n (K). Dann gibt es eine invertierbare Matrix S ∈<br />

GL m (K), so dass die Matrix<br />

A ′ := S · A<br />

in normalisierter Zeilenstufenform ist (siehe Definition 1.3.3). Dabei ist S das<br />

Produkt einer Folge S 1 , . . .,S r ∈ GL m (K) von Elementarmatrizen:<br />

S = S 1 · . . . · S r .<br />

Beweis: Das ergibt sich sofort aus der Bemerkung 2.7.2 <strong>und</strong> dem Gauss-<br />

Algorithmus (Lemma 1.3.4).<br />

✷<br />

Korollar 2.7.4 Jede invertierbare Matrix ist das Produkt von Elementarmatrizen.<br />

Beweis: Sei A ∈ M n,n (K) eine (n, n)-Matrix. Nach Satz 2.7.3 gibt es eine<br />

invertierbare Matrix, Produkt von Elementarmatrizen,<br />

S = S 1 · . . . · S r ∈ GL n (K)<br />

so dass A ′ := S · A ∈ M n,n (K) in normalisierter Zeilenstufenform ist. Da S<br />

invertierbar ist, gilt<br />

Kern(A ′ ) = Kern(A).<br />

Insbesonders haben A <strong>und</strong> A ′ denselben Rang. Der Rang von A ′ ist offenbar<br />

die Anzahl der Pivots (siehe Definition 1.3.1).<br />

Angenommen, A ist invertierbar. Dann gilt Rang(A ′ ) = Rang(A) = n. Eine<br />

Matrix in normalisierter Zeilenstufenform mit vollem Rang ist eine Einheitsmatrix.<br />

Es gilt also A ′ = E n , <strong>und</strong> daher ist S = A −1 die zu A inverse Matrix.<br />

Daraus folgt<br />

A = S −1 = S −1<br />

r<br />

· . . . · S −1<br />

1 .<br />

Nach Bemerkung 2.7.2 (i) sind die Matrizen S −1<br />

k<br />

, k = 1, . . .,r, selber wieder<br />

Elementarmatrizen. Damit ist das Korollar bewiesen.<br />

✷<br />

Aus dem Beweis von Korollar 2.7.4 ergibt sich ein praktischer Algorithmus<br />

zum Invertieren von Matrizen. Sei zunächst A ∈ M m,n (K) eine (nicht notwendigerweise<br />

quadratische) Matrix. Man berechnet (wie im Satz 2.7.3) eine invertierbare<br />

Matrix S ∈ GL m (K), so dass A ′ := S ·A in normalisierter Zeilenstufenform<br />

ist. Sei r der Rang von A ′ , d.h. die Anzahl der Pivots. Dann ist A invertierbar<br />

genau dann, wenn n = m = r, <strong>und</strong> in diesem Fall gilt A −1 = S.<br />

Zur Berechnung von S geht man so vor. Man bildet die ‘erweiterte’ Matrix<br />

à := (A | E m ) ∈ M m,n+m<br />

<strong>und</strong> wendet darauf den Gauss-Algorithmus an. Genauer: man formt die Matrix<br />

à durch eine Folge von elementaren Zeilenumformungen in eine Matrix<br />

à ′ = (A ′ | B)<br />

75


so um, dass A ′ ∈ M m,n (K) in normalisierter Zeilenstufenform ist. Eine Folge<br />

von elementaren Zeilenumformungen entspricht aber der Multiplikation von<br />

links mit einer invertierbaren Matrix S ∈ GL m (K), d.h. es gilt<br />

à ′ = S · à = (S · A | S).<br />

Es folgt A ′ = S · A <strong>und</strong> S = B. Die gesuchte Matrix S kann man also an der<br />

umgeformten erweiterten Matrix Ã′ ablesen.<br />

Beispiel 2.7.5<br />

Anstelle von Zeilen- kann man auf eine Matrix auch Spaltenoperationen<br />

anwenden (man vertausche in der Definition 1.3.1 einfach die Wörter ‘Zeile’<br />

<strong>und</strong> ‘Spalte’). Analog zur Bemerkung 2.7.2 (ii) erhält man:<br />

Bemerkung 2.7.6 Ist A ∈ M m,n (K) eine beliebige (m, n)-Matrix <strong>und</strong> T ∈<br />

GL n (K) eine Elementarmatrix, so geht das Produkt<br />

A ′ := A · T<br />

aus A durch eine elementare Spaltenoperation hervor.<br />

Nach Korollar 2.6.5 gibt es zu jeder Matrix A ∈ M m,n (K) invertierbare<br />

Matrizen S ∈ GL m (K) <strong>und</strong> T ∈ GL n (K) mit<br />

⎛ ⎞<br />

⎜<br />

S · A · T = ⎝ E r 0 ⎟<br />

⎠,<br />

0 0<br />

mit r = Rang(A). Durch Kombination von Zeilen- <strong>und</strong> Spaltenoperationen<br />

erhält man einen Algorithmus zum Berechnen von S <strong>und</strong> T:<br />

• Zunächst bestimmt man S ∈ GL m (K) so, dass<br />

A ′ := S · A<br />

in normalisierter Zeilenstufenform ist (siehe oben).<br />

• Man überlegt sich leicht, dass man A ′ durch eine Folge von elementaren<br />

Spaltenumformungen auf ‘Spaltennormalform’ bringen kann, ohne dabei<br />

die Eigenschaft ‘Stufennormalform’ zu verlieren. Wendet man die Umformungen<br />

auf die erweiterte Matrix<br />

( A<br />

′<br />

E n<br />

)<br />

an, so erhält man ein Matrix der Form<br />

( ) A<br />

′′<br />

,<br />

T<br />

76


mit T ∈ GL n (K) <strong>und</strong><br />

S · A · T = A ′ · T = A ′′ =<br />

⎛<br />

⎜<br />

⎝ E r 0<br />

0 0<br />

⎞<br />

⎟<br />

⎠ .<br />

77


3 Diagonalisieren<br />

3.1 <strong>Lineare</strong> Rekursionsfolgen<br />

Definition 3.1.1 Sei x 1 , x 2 , . . . eine Folge reeller Zahlen. Wir sagen, dass diese<br />

Folge eine Rekursionsfolge der Ordnung k ist, wenn es eine Funktion f : R k → R<br />

gibt, so dass<br />

x n = f(x n−1 , . . . , x n−k ) (54)<br />

gilt, <strong>für</strong> alle n > k. Wir nennen die Rekursionsfolge linear <strong>und</strong> homogen, wenn<br />

die Funktion f linear ist; in diesem Fall gibt es offenbar Konstanten c 1 , . . . , c k ∈<br />

R so, dass<br />

x n = c 1 x n−1 + . . . + c k x n−k , (55)<br />

<strong>für</strong> alle n > k.<br />

Eine Rekursionsfolge der Ordnung k ist offenbar durch die ersten k Folgeglieder<br />

x 1 , . . . , x k eindeutig bestimmt. Deshalb heißen x 1 , . . . , x k die Anfangswerte<br />

der Rekursionsfolge.<br />

Rekursionsfolgen treten überall in der Mathematik <strong>und</strong> ihren Anwendungen<br />

auf. Ein typisches Problem, dass es dann zu lösen gilt, ist folgendes. Gegeben<br />

sind die Anfangswerte x 1 , . . . , x k <strong>und</strong> die Rekursionsgleichung (54).<br />

• Finde eine geschlossene Formel <strong>für</strong> das nte Folgeglied x n .<br />

• Bestimme das asymptotische Wachstum der Folge x n .<br />

Die obigen Problemstellungen sind nicht sehr präzise. Was damit gemeint sein<br />

könnte, sieht man am Besten an dem folgenden, uns bereits bekannten Beispiel.<br />

Beispiel 3.1.2 Die Fibonacci-Folge x 1 , x 2 , x 3 , . . . ist bestimmt durch die Anfangswerte<br />

x 1 = 1, x 2 = 1, <strong>und</strong> die Rekursionsgleichung<br />

Die ersten 12 Folgeglieder sind dann<br />

x n = x n−1 + x n−2 , n > 2.<br />

1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144.<br />

Eine geschlossene Formel <strong>für</strong> das nte Folgeglied ist<br />

x n = 1 √<br />

5<br />

(1 + √ 5<br />

2<br />

) n 1 (1 − √ 5) n.<br />

− √5<br />

2<br />

Da (1 + √ 5)/2 ∼ 1, 618034 <strong>und</strong> (1 − √ 5)/2 ∼ −0, 618034, ist<br />

x n ∼ √ 1 (1 + √ 5) n<br />

∼ 0, 4472 · 1, 618<br />

n<br />

5 2<br />

eine asymptotisch gute Abschätzung der Fibonacci-Folge<br />

78


Die Fibonacci-Folge ist eine homogene lineare Rekursionsfolge. Wir werden<br />

im Folgenden einen allgemeinen Ansatz zum Lösen einer homogenen linearen<br />

Rekursionsgleichung entwickeln. Dieser Ansatz wird uns als Motivation <strong>für</strong> den<br />

in der linearen <strong>Algebra</strong> zentralen Begriff der Diagonalisierbarkeit dienen.<br />

Seien c 1 , . . . , c k ∈ R reelle Zahlen. Dann ist die Menge<br />

V := { v = (x 1 , x 2 , . . .) ∈ R N | x n = c 1 x n−1 + . . . + c k x n−k , ∀n > k }<br />

ein R-Vektorraum der Dimension k. Eine Basis von V ist z.B. gegeben durch<br />

die k Folgen v 1 , . . .,v k ∈ V , wobei v i durch die Anfangswerte<br />

{<br />

1, j = i,<br />

x j :=<br />

0, j = 1, . . . , k, j ≠ i,<br />

bestimmt ist. Sind nun beliebige Anfangswerte x 1 , . . . , x k vorgegeben, so läßt<br />

sich die dadurch bestimmte Rekursionsfolge v := (x 1 , x 2 , . . .) ∈ V auf eindeutige<br />

Weise als Linearkombination der Basis (v 1 , . . . , v k ) darstellen:<br />

v = x 1 · v 1 + . . . + x k · v k .<br />

Diese Darstellung der Folge v hilft uns aber nicht weiter!<br />

Ein besserer Ansatz geht so. Sei α ∈ R eine relle Zahl; wir betrachten die<br />

Folge<br />

v := (1, α, α 2 , . . .).<br />

Offenbar erfüllt v unsere Rekursionsgleichung genau dann, wenn<br />

α k = c 1 α k−1 + . . . + c k−1 α + c k .<br />

Oder äquivalent: α ist eine Nullstelle des Polynoms<br />

F(x) = x k − c 1 x k−1 − . . . − c k .<br />

Das Polynom F heißt das charakteristische Polynom der Rekursionsgleichung.<br />

Die Bedeutung von F erschließt sich aus dem folgenden Satz.<br />

Satz 3.1.3 Sei x 1 , x 2 , . . . eine lineare Rekursionsfolge der Ordnung k, mit Rekursionsgleichung<br />

x n = c 1 x n−1 + . . . + c k x n−k , n > k.<br />

Sei F(x) := x k − c 1 x k−1 − . . . − c k das charakteristische Polynom. Wir nehmen<br />

an, dass F genau k paarweise verschiedene Nullstellen α 1 , . . .,α k ∈ R hat. Dann<br />

gibt es eindeutig bestimmte reelle Zahlen β 1 , . . . , β k ∈ R so, dass<br />

x n = β 1 α n−1<br />

1 + . . . + β k α n−1<br />

k<br />

.<br />

79


Unter günstigen Umständen liefert der Satz also eine geschlossene Formel <strong>für</strong><br />

das nte Glied der Rekursionsfolge. Diese günstigen Umstände sind zum Beispiel<br />

<strong>für</strong> die Fibonacci-Folge (Bespiel 3.1.2) gegeben: das charakteristische Polynom<br />

ist<br />

F(x) = x 2 − x − 1 = (x − 1 + √ 5<br />

)(x − 1 − √ 5<br />

)<br />

2 2<br />

<strong>und</strong> hat zwei verschiedene Nullstellen.<br />

Beweis: Seien α 1 , . . .,α k ∈ R die paarweise verschiedenen Nullstellen von<br />

F. Dann erfüllen die Folgen<br />

w i := (1, α i , α 2 i,...), i = 1, . . . , k,<br />

unsere Rekursionsgleichung, d.h. w 1 , . . .,w k ∈ V . Ist<br />

w = β 1 w 1 + . . . + β k w k = (x 1 , x 2 , . . .)<br />

eine Linearkombination der w i , so ist das nte Folgenglied von w offenbar gegeben<br />

durch die Formel<br />

x n = β 1 α1 n−1 + . . . + β k α n−1<br />

k<br />

.<br />

Der Satz 3.1.3 ist also äquivalent zu der<br />

Behauptung: Die Folgen w 1 , . . . , w k bilden eine Basis von V .<br />

Wir werden zwei verschiedene Beweise <strong>für</strong> diese Behauptung geben. Der<br />

erste Beweis beruht auf der Invertierbarkeit einer gewissen Matrix.<br />

Sei w = (x 1 , x 2 , . . .) ∈ V eine beliebige Folge, die unsere Rekursionsgleichung<br />

erfüllt. Wir müssen zeigen, dass es eindeutig bestimmte β 1 , . . .,β r gibt mit der<br />

Eigenschaft<br />

w = β 1 · w 1 + . . . + β k · w k . (56)<br />

Nun sind zwei Folgen in V genau dann gleich, wenn ihre ersten k Glieder<br />

übereinstimmen. Die Gleichung (56) ist daher äquivalent zu dem Gleichungssystem<br />

x 1 = β 1 + . . . + β k<br />

x 2 = α 1 β 1 + . . . + α k β k<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

x k<br />

= α k−1<br />

1 β 1 + . . . + α k−1<br />

k<br />

β k .<br />

In Matrixschreibweise lautet dieses Gleichungssystem A · β = x, wobei<br />

⎛<br />

⎞<br />

1 1 · · · 1<br />

α 1 α 2 · · · α k<br />

A := ⎜ . . . ⎟<br />

⎝ . . . ⎠ . (57)<br />

α1 k−1 α2 k−1 · · · α k−1<br />

k<br />

Eine Matrix dieser Form nennt man eine Vandermont-Matrix.<br />

Die zu beweisende Behauptung folgt nun aus dem folgenden Lemma.<br />

80


Lemma 3.1.4 Sei K ein Körper <strong>und</strong> seien α 1 , . . . , α k paarweise verschiedene<br />

Elemente von K. Dann ist die durch (57) gegebenen Matrix A invertierbar.<br />

Beweis: Es sei<br />

⎛<br />

1 α 1 · · · α k−1 ⎞<br />

1<br />

A t 1 α 2 · · · α k−1<br />

2<br />

:= ⎜<br />

⎟<br />

⎝.<br />

. . ⎠<br />

1 α k · · · α k−1<br />

k<br />

die Transponierte der Matrix A. Es gilt (Übungsaufgabe!): A ist invertierbar<br />

genau dann, wenn A t invertierbar ist.<br />

Um zu testen, ob A t invertierbar ist, nehmen wir uns einen Vektor y =<br />

(y 1 , . . . , y k ) ∈ K k mit A t · y = 0 her; es gilt dann<br />

y 1 + y 2 α i + . . . + y k α k−1<br />

i = 0, i = 1, . . .,k.<br />

Es folgt, dass das Polynom G(x) := y 1 + y 2 x + . . . + y k x k−1 vom Grad ≤ k − 1<br />

mindestens k verschiedene Nullstellen α 1 , . . . , α k hat. Mit Korollar 2.3.6 9 folgt<br />

daraus aber G(x) = 0, d.h. y 1 = . . . = y k = 0. Da der Vektor y beliebig war,<br />

folgt Kern(A t ) = {0}. Nach Satz 2.5.10 sind A t <strong>und</strong> A also invertierbar. ✷<br />

Für den zweiten Beweis von Satz 3.1.3 benötigen wir den Begriff des Eigenvektors.<br />

Definition 3.1.5 Sei K ein Körper, V ein K-Vektorraum <strong>und</strong><br />

φ : V → V<br />

eine K-lineare Abbildung von V auf sich selbst (man nennt φ einen Endomorphismus<br />

von V ). Ein Eigenvektor von φ ist ein von Null verschiedener Vektor<br />

v ∈ V , v ≠ 0, so dass<br />

φ(v) = λ · v<br />

<strong>für</strong> ein λ ∈ K. Der Skalar λ heißt der Eigenwert von φ zum Eigenvektor v.<br />

(Man beachte, dass λ durch v eindeutig bestimmt ist!)<br />

Ist v = (x 1 , x 2 , . . .) ∈ V eine Rekursionsfolge, so erfüllt die ‘verschobene’<br />

Folge<br />

φ(v) := (x 2 , x 3 , . . .)<br />

dieselbe Rekursionsgleichung. Man erhält eine Abbildung<br />

φ : V → V, (x 1 , x 2 , . . .) ↦→ (x 2 , x 3 , . . .),<br />

<strong>für</strong> die man leicht nachprüft, dass sie linear, also ein Endomorphismus von V<br />

ist. Ist α eine Nullstelle des charakteristischen Polynoms F so gilt<br />

φ(1, α, α 2 , . . .) = (α, α 2 , α 3 , . . .) = α · (1, α, α 2 , . . .).<br />

9 Wir haben dieses Korollar nur über dem Körper der reellen Zahlen bewiesen. Eine<br />

nachträgliche Inspektion des Beweises zeigt aber, dass die Aussage über einem beliebigen<br />

Körper richtig ist.<br />

81


Mit anderen Worten: v = (1, α, α 2 , . . .) ist ein Eigenvektor von φ mit Eigenwert<br />

α!<br />

Hat das charakteristische Polynom F die paarweise verschiedene Nullstellen<br />

α 1 , . . . , α k ∈ R, so sind die Folgen w i := (1, α i , α 2 i , . . .) ∈ V also Eigenvektoren<br />

von φ, mit paarweise verschiedenen Eigenwerten. Das folgende Lemma zeigt<br />

daher, dass w 1 , . . .,w r linear unabhängig sind. Wegen dim R V = k ist dann<br />

(w 1 , . . .,w k ) eine Basis von V . Dieses Argument liefert den zweiten Beweis von<br />

Satz 3.1.3.<br />

Lemma 3.1.6 Sei K ein Körper, V ein K-Vektorraum <strong>und</strong> φ : V → V ein<br />

Endomorphismus von V . Es seien v 1 , . . .,v n Eigenvektoren von φ mit paarweise<br />

verschiedenen Eigenwerten λ 1 , . . . , λ n ∈ K. Dann ist das System (v 1 , . . .,v n )<br />

linear unabhängig.<br />

Beweis: Wir beweisen das Lemma durch Induktion über n. Für n = 0 ist<br />

die Aussage trivialerweise richtig (die leere Liste ist linear unabhängig).<br />

Wir nehmen also an, dass n > 0 <strong>und</strong> dass es µ 1 , . . .,µ n ∈ K gibt mit<br />

µ 1 · v 1 + . . . + µ n · v n = 0. (58)<br />

Anwenden des Endomorphismus φ auf die Gleichung (58) führt, unter Ausnutzung<br />

von φ(v i ) = λ i · v i , zu der neuen Gleichung<br />

µ 1 λ 1 · v 1 + . . . + µ n λ n · v n = 0. (59)<br />

Zieht man das λ n fache der Gleichung (58) von der Gleichung (59) ab, so erhält<br />

man<br />

µ 1 (λ 1 − λ n ) · v 1 + . . . + µ n−1 (λ n−1 − λ n ) · v n−1 = 0. (60)<br />

Wir haben also den Vektor v n aus der Gleichung eliminiert.<br />

Nun wenden wir die Induktionshypothese an. Sie besagt, dass das System<br />

(v 1 , . . .,v n−1 ) linear unabhängig ist. Aus der Gleichung (60) folgt somit<br />

µ 1 (λ 1 − λ n ) = . . . = µ n−1 (λ n−1 − λ n ) = 0.<br />

Da die λ i nach Voraussetzung paarweise verschieden sind, folgt zunächst µ 1 =<br />

. . . = µ n−1 = 0. Die Gleichung (58) reduziert sich somit auf µ n · v n = 0. Da<br />

v n ≠ 0 gilt (Definition 3.1.5), gilt auch µ n = 0, also insgesamt µ i = 0 <strong>für</strong> alle i.<br />

Damit ist das Lemma bewiesen.<br />

✷<br />

3.2 Diagonalisierbare Endomorphismen<br />

Definition 3.2.1 Sei K ein Körper, V ein K-Vektorraum <strong>und</strong> φ : V → V<br />

ein (K-linearer) Endomorphismus von V . Dann heißt φ diagonalisierbar, wenn<br />

der Vektorraum V eine Basis B = (v i ) i∈I besitzt, die aus Eigenvektoren von φ<br />

besteht, d.h.<br />

φ(v i ) = λ i · v i ,<br />

<strong>für</strong> alle i ∈ I <strong>und</strong> gewisse Skalare λ i ∈ K.<br />

82


Wir werden uns im Folgenden ganz auf den Fall eines endlich-dimensionalen<br />

Vektorraumes V konzentrieren. Ist dann B = (v 1 , . . .,v n ) eine Basis von V aus<br />

Eigenvektoren von φ, <strong>und</strong> sind λ 1 , . . .,λ n die zugehörigen Eigenwerte, so ist die<br />

darstellende Matrix von φ bezüglich B eine Diagonalmatrix:<br />

⎛<br />

⎞<br />

λ 1 MB B λ 2 (φ) = ⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

λ n<br />

(alle Einträge außerhalb der Diagonalen verschwinden). Es gilt also:<br />

Bemerkung 3.2.2 Ein Endomorphismus φ : V → V eines endlich-dimensionalen<br />

K-Vektorraumes V ist diagonalisierbar genau dann, wenn die darstellende<br />

Matrix von φ bezüglich einer geeigneten Basis von V eine Diagonalmatrix ist.<br />

Beispiel 3.2.3 Sei V der Vektorraum aller Folgen (x 1 , x 2 , . . .) ∈ R N , die einer<br />

Rekursionsgleichung<br />

x n = c 1 x n−1 + . . . + c k x n−k<br />

genügen. Sei φ : V → V der ‘Verschiebeendomorphismus’, φ(x 1 , x 2 , . . .) =<br />

(x 2 , x 3 , . . .), <strong>und</strong> sei F(x) = x k − c 1 x k−1 − . . . − c k das charakteristische Polynom<br />

der Rekursionsgleichung. Wir nehmen an, dass F genau k paarweise verschiedene<br />

Nullstellen λ 1 , . . .,λ k ∈ R besitzt. Dann folgt aus dem Beweis von<br />

Satz 3.1.3, dass die Folgen<br />

v i = (1, α i , α 2 i , . . .),<br />

i = 1, . . .,k,<br />

eine Basis aus Eigenvektoren von φ bilden. Daher ist φ diagonalisierbar.<br />

Beispiel 3.2.4 Sei φ : R 2 → R 2 die lineare Abbildung mit<br />

φ(e 1 ) = 2e 2 , φ(e 2 ) = e 1<br />

(E := (e 1 , e 2 ) sei die Standardbasis von R 2 ). Dann gilt φ(x) = A · x, mit<br />

( ) 0 1<br />

A := .<br />

2 0<br />

Ist φ diagonalisierbar?<br />

Um diese Frage zu beantworten zu können, sollte man sich zuerst einen<br />

Überblick über die möglichen Eigenwerte verschaffen. Ist x = (x 1 , x 2 ) ∈ R 2 ein<br />

Eigenvektor von φ mit Eigenwert λ ∈ R, so gilt<br />

A · x = λ · x ⇔ (A − λ · E 2 ) · x = 0.<br />

Da x als Eigenvektor nicht der Nullvektor sein darf, bedeutet die rechte Gleichung:<br />

die Matrix<br />

( ) −λ 1<br />

A − λ · E 2 =<br />

2 −λ<br />

83


ist nicht invertierbar. Dies gilt genau dann, wenn die Determinante dieser Matrix<br />

verschwindet:<br />

∣ −λ 1<br />

2 −λ∣ = λ2 − 2 = 0 ⇔ λ ∈ { √ 2, − √ 2}.<br />

Die beiden einzigen Eigenwerte von φ sind daher λ 1 := √ 2 <strong>und</strong> λ 2 := − √ 2.<br />

Der nächste Schritt besteht nun darin, zu den gef<strong>und</strong>enen Eigenwerten (genügend<br />

viele) Eigenvektoren zu bestimmen. Das kann man allgemein mit dem<br />

Gauss-Verfahren machen; in diesem einfachen Beispiel sicht man sofort, dass<br />

Kern(A − √ ( ) 1√2<br />

2 · E 2 ) = 〈v 1 〉, wobei v 1 := .<br />

Eine fast identische Rechnung liefert:<br />

Kern(A + √ 2 · E 2 ) = 〈v 2 〉, wobei v 2 :=<br />

( ) 1<br />

− √ .<br />

2<br />

Offenbar ist nun B := (v 1 , v 2 ) eine Basis von R 2 , bestehend aus Eigenvektoren<br />

von φ. Insbesondere ist φ diagonalisierbar.<br />

Was folgt daraus <strong>für</strong> die Matrix A? Sei<br />

( ) 1 1<br />

S := TE B = √ √<br />

2 − 2<br />

die Transformationsmatrix des Basiswechsels von der Basis B = (v 1 , v 2 ) in die<br />

Einheitsbasis E = (e 1 , e 2 ). Dann gilt<br />

TB E = S −1 = −1 ( √ )<br />

− 2 −1<br />

2 √ 2 − √ ,<br />

2 1<br />

<strong>und</strong> nach dem Basiswechselsatz (Satz 2.6.4):<br />

(√ ) 2 0<br />

S −1 · A · S = TB E · M E E (φ) · T E B = M B B (φ) = 0 − √ .<br />

2<br />

Definition 3.2.5 Eine Matrix A ∈ M n,n (K) heißt diagonalisierbar, wenn es<br />

eine invertierbare Matrix S ∈ GL n (K) gibt, so dass die Matrix<br />

⎛<br />

⎞<br />

λ 1 S −1 λ 2 · A · S = ⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

λ n<br />

eine Diagonalmatrix ist.<br />

Frage 3.2.6 Sei A die Matrix aus Beispiel 3.2.4, aufgefasst als Matrix über<br />

dem Körper der rationalen Zahlen. Sei φ Q : Q 2 → Q 2 der zugehörige Endomorphismus.<br />

Ist φ Q diagonalisierbar?<br />

84


Bemerkung 3.2.7 Sei A ∈ M n,n (K) eine quadratische Matrix. Wie in Beispiel<br />

3.2.4 zeigt man ganz allgemein:<br />

(i) A ist genau dann diagonalisierbar, wenn der zugehörige Endomorphismus<br />

φ : K n → K n , x ↦→ A · x, diagonalisierbar ist.<br />

(ii) Ist S ∈ GL n (K) eine invertierbare Matrix, <strong>für</strong> die S −1 AS eine Diagonalmatrix<br />

ist, so bilden die Spalten von S eine Basis von K n , bestehend aus<br />

Eigenvektoren von φ:<br />

S = (v 1 | . . . |v n ), A · v i = λ i · v i , i = 1, . . .,n.<br />

Satz 3.2.8 Sei φ : V → V ein Endomorphismus eines endlich-dimensionalen<br />

K-Vektorraumes V . Dann gilt:<br />

(i) Es gibt ein Polynom<br />

F(x) = x n + c 1 x n−1 + . . . + c n<br />

vom Grad n := dim K V mit der folgenden Eigenschaft: ein Körperelement<br />

λ ∈ K ist genau dann ein Eigenwert von φ, wenn es Nullstelle von F ist,<br />

d.h.<br />

F(λ) = λ n + c 1 λ n−1 + . . . + c n = 0.<br />

(ii) Wenn das Polynom F in (i) genau n paarweise verschiedene Nullstellen<br />

hat, so ist φ diagonalisierbar.<br />

Bemerkung 3.2.9 Das Polynom F in (i) ist im allgemeinen nicht eindeutig<br />

bestimmt (zum Beispiel wenn F gar keine Nullstellen hat). Im Abschnitt 3.4<br />

werden wir aber einen kanonischen Kandidaten <strong>für</strong> F kennenlernen, das charakteristische<br />

Polynom von φ.<br />

Beweis: Wir überlegen uns zuerst, dass (ii) aus (i) folgt. Angenommen, das<br />

Polynom F hat n paarweise verschiedene Nullstellen λ 1 , . . .,λ n . Nach (i) gibt<br />

es dann Vektoren v 1 , . . .,v n ∈ V , v i ≠ 0, mit φ(v i ) = λ i ·v i . Da die λ i paarweise<br />

verschieden sind, sagt uns das Lemma 3.1.6, dass das System B = (v 1 , . . .,v n )<br />

linear unabhängig ist. Aber n = dim K V , also ist B sogar eine Basis, die nach<br />

Konstruktion aus eigenvektoren von φ besteht. Also ist φ diagonalisierbar.<br />

Zum Beweis von (i) orientieren wir uns an der Rechnung aus Beispiel 3.2.4.<br />

Sei A = (v 1 , . . . , v n ) eine beliebige Basis von V <strong>und</strong> sei<br />

A := M A A(φ) ∈ M n,n (K)<br />

die darstellende Matrix von φ bzgl. A. Sei v = ∑ i x iv i ein beliebiger Vektor aus<br />

V , dargestellt als Linearkombination von A. Dann ist v ein Eigenvektor von φ<br />

genau dann, wenn<br />

⎛<br />

x :=<br />

⎜<br />

⎝<br />

⎞<br />

x 1<br />

.<br />

x n<br />

⎟<br />

⎠ ≠ 0 <strong>und</strong> A · x = λ · x. (61)<br />

85


Offenbar gilt (61) genau dann, wenn die Matrix A − λ · E n nicht invertierbar<br />

ist, d.h.<br />

Kern(A − λ · E n ) ≠ {0}.<br />

Teil (i) von Satz 3.2.8 folgt deshalb aus den folgenden Behauptungen:<br />

• Es gibt eine Abbildung<br />

det : M n,n (K) → K,<br />

A ↦→ det(A),<br />

genannt die Determinante, mit der folgenden Eigenschaft: eine Matrix<br />

A ∈ M n,n (K) ist genau dann invertierbar, wenn det(A) ≠ 0.<br />

• Für A ∈ M n,n (K) gibt es ein Polynom<br />

F(x) = x n + c 1 x n−1 + . . . + c n<br />

mit der Eigenschaft: <strong>für</strong> alle λ ∈ K gilt<br />

F(λ) = det(A − λ · E n ).<br />

Für n = 2 setzt man z.B.<br />

( )<br />

a b<br />

det =<br />

c d ∣ a<br />

c<br />

b<br />

d∣ := ad − bc. (62)<br />

Die beiden Behauptungen lassen sich durch eine direkte Rechnung leicht verifizieren.<br />

Das haben wir schon im Beispiel 3.2.4 ausgenutzt.<br />

Im folgenden Anschnitt werden wir uns mit der Definition der Determinante<br />

einer allgemeinen quadratischen Matrix auseinandersetzen.<br />

3.3 Determinanten<br />

Definition 3.3.1 Sei K ein Körper <strong>und</strong> n ∈ N eine natürliche Zahl. Eine<br />

Determinante vom Rang n ist ein Abbildung<br />

die folgende Eigenschaften hat.<br />

det : M n,n (K) → K,<br />

(D 1) Für alle i ∈ {1, . . .,n} <strong>und</strong> v 1 , . . . , ̂v i , . . .,v n ∈ K n ist die Abbildung<br />

K n → K, v ↦→ det(v 1 | . . . | v | . . . | v n )<br />

K-linear. Man sagt: det ist linear in jeder Spalte.<br />

(D 2) Sind v 1 , . . .,v n ∈ K n , wobei v i = v j <strong>für</strong> zwei verschiedene Indizes 1 ≤ i <<br />

j ≤ n, so gilt<br />

det(v 1 | . . . | v n ) = 0.<br />

Man sagt: det ist alternierend.<br />

86


(D 3) Es gilt<br />

Man sagt: det ist normalisiert.<br />

det(E n ) = det(e 1 | . . . | e n ) = 1.<br />

Beispiel 3.3.2 Wir betrachten den Fall n = 2 <strong>und</strong> werden zeigen, dass es<br />

genau eine Determinante det : M 2,2 (K) → K gibt, <strong>und</strong> dass diese ist durch die<br />

bekannte Formel (62) gegeben ist.<br />

Wir zeigen zunächst die Eindeutigkeit. Sei also det : M 2,2 (K) → K eine<br />

Determinante <strong>und</strong><br />

( ) a b<br />

A = (v 1 | v 2 ) = ∈ M<br />

c d 2,2 (K).<br />

Für den ersten Spaltenvektor von A gilt: v 1 = a · e 1 + c · e 2 . Aus der Linearität<br />

in der ersten Spalte (Definition 3.3.1 (D1) ) folgt:<br />

det(A) = det(a · e 1 + c · e 2 | v 2 ) = a · det(e 1 | v 2 ) + c · det(e 2 | v 2 ). (63)<br />

Durch Anwenden von (D1)-(D3) erhält man:<br />

det(e 1 | v 2 ) = det(e 1 | b · e 1 + d · e 2 )<br />

<strong>und</strong> nach dem gleichen Schema<br />

Insgesamt erhalten wir:<br />

= b · det(e 1 | e 1 ) + d · det(e 1 | e 2 ) (D1)<br />

= d · det(E 2 ) (D2)<br />

= d (D3)<br />

det(e 2 | v 2 ) = b · det(e 2 | e 1 ). (64)<br />

det(A) = ad + bc · det(e 2 | e 1 ). (65)<br />

Um den Term det(e 2 | e 1 ) auszuwerten, betrachten wir den Spezialfall a = b =<br />

c = d = 1. Da in diesem Fall die beiden Spalten identisch sind, folgt mit (D2)<br />

<strong>und</strong> (65):<br />

0 =<br />

∣ 1 1<br />

1 1∣ = 1 + det(e 2 | e 1 ).<br />

Es folgt det(e 2 | e 1 ) = −1. Für allgemeine a, b, c, d ∈ K folgt nun aus (65) die<br />

bekannte Formel<br />

det(A) =<br />

∣ a b<br />

c d∣ = ad − bc. (66)<br />

Insbesondere haben wir gezeigt, dass es höchstens eine Determinante det :<br />

M 2,2 (K) → K geben kann.<br />

Der Nachweis der Existenz ist nun leicht: man definiert einfach die Abbildung<br />

det : M 2,2 (K) → K durch die Formel (66). Dann rechnet man nach, dass<br />

diese Abbildung die Bedingungen (D1)-(D3) aus Definition 3.3.1 erfüllt.<br />

87


Satz 3.3.3 Für jeden Körper K <strong>und</strong> <strong>für</strong> jedes n ∈ N gibt es genau eine Determinante<br />

vom Rang n. Zusätzlich zu den Axiomen (D1)-(D3) erfüllt sie die<br />

folgenden Bedingungen.<br />

(i) A ∈ M n,n (K) ist invertierbar genau dann, wenn det(A) ≠ 0.<br />

(ii) det ist multiplikativ, d.h.<br />

(iii) det ist symmetrisch, d.h.<br />

(iv) det ist linear in den Zeilen.<br />

det(A · B) = det(A) · det(B).<br />

det(A t ) = det(A).<br />

(v) Ist R ⊂ K ein Unterring, so gilt <strong>für</strong> eine Matrix A ∈ M n,n (R) mit<br />

Einträgen in R:<br />

det(A) ∈ R.<br />

Beim Berechnen der Determinante führt man also keine Nenner ein.<br />

Den Beweis der Existenz einer Determinante stellen wir zunächst zurück<br />

(siehe dazu die Bemerkungen 3.3.9 <strong>und</strong> 3.3.15). Wir werden aber im Laufe<br />

dieses Abschnittes die Eindeutigkeit der Determinante <strong>und</strong> die Eigenschaften<br />

(i)-(v) beweisen. Im Folgenden gehen wir davon aus, dass wir <strong>für</strong> alle n ∈ N<br />

eine Determinante det : M n,n (K) → K zur Verfügung haben.<br />

Uns kommt es vor allem darauf an, Determinanten berechnen zu können.<br />

Dazu sind die folgenden beiden Propositionen sehr nützlich.<br />

Proposition 3.3.4 Sei<br />

(i) Für i ∈ {1, . . ., n} <strong>und</strong> λ ∈ K gilt<br />

A = (v 1 | . . . | v n ) ∈ M n,n (K).<br />

det(v 1 | . . . | λ · v i | . . . | v n ) = λ · det(v 1 | . . . | v n ).<br />

(ii) Für i, j ∈ {1, . . ., n}, i ≠ j, <strong>und</strong> λ ∈ K gilt:<br />

(iii) Für 1 ≤ i < j ≤ n gilt:<br />

det(v 1 | . . . | v i + λ · v j | . . . | v n ) = det(v 1 | . . . | v n ).<br />

} {{ }<br />

i<br />

det(v 1 | . . . | v j<br />

}{{}<br />

i<br />

| . . . | v<br />

}{{} i | . . . | v n ) = − det(v 1 | . . . | v n ).<br />

j<br />

88


Insbesondere: geht die Matrix B aus der Matrix A durch eine elementare Spaltenoperation<br />

hervor, so gilt<br />

det(B) = λ · det(A),<br />

<strong>für</strong> ein Skalar λ ≠ 0. Für Operationen vom Typ (II) gilt λ = 1, <strong>für</strong> Operationen<br />

vom Typ (III) ist λ = −1.<br />

Beweis: Teil (i) ist eine triviale Konsequenz des Axioms (D1). Teil (ii) folgt<br />

durch eine Kombination aus (D1) <strong>und</strong> (D2):<br />

det(v 1 | . . . | v i + λ · v j | . . . | v n )<br />

} {{ }<br />

i<br />

=det(v 1 | . . . | v n ) + λ · det(. . . | v j | . . . | v j | . . .) (D1)<br />

}{{} }{{}<br />

i j<br />

=det(v 1 | . . . | v n ).<br />

(D2)<br />

Zum Beweis von (iii) benutzen wir die folgende Rechnung (die wesentlichen<br />

Einträge sind die ite <strong>und</strong> die jte Spalte; <strong>für</strong> k ∉ {i, j} steht in der kten Spalte<br />

der Vektor v k ):<br />

0 = det(. . . | v i + v j | . . . | v i + v j | . . .) (D2)<br />

= det(. . . | v i | . . . | v i + v j | . . .) + det(. . . | v j | . . . | v i + v j | . . .) (D1)<br />

= det(. . . | v i | . . . | v i | . . .) + det(. . . | v i | . . . | v j | . . .)<br />

+ det(. . . | v j | . . . | v i | . . .) + det(. . . | v j | . . . | v j | . . .) (D1)<br />

= det(. . . | v i | . . . | v j | . . .) + det(. . . | v j | . . . | v i | . . .). (D2)<br />

Durch Umstellen erhält man (iii).<br />

✷<br />

Bemerkung 3.3.5 Gilt in unserem Körper K die Ungleichung −1 ≠ 1 (was<br />

meistens der Fall ist), so kann man in Definition 3.3.1 das Axiom (D2) durch<br />

das Axiom<br />

(D2’)<br />

det(v 1 | . . . | v j<br />

}{{}<br />

i<br />

| . . . | v<br />

}{{} i | . . . | v n ) = − det(v 1 | . . . | v n )<br />

j<br />

ersetzen (siehe Proposition 3.3.4 (iii)). Denn aus (D2’) folgt:<br />

det(. . . | v | . . . | v | . . .) = − det(. . . | v | . . . | v | . . .)<br />

⇒ 2 · det(. . . | v | . . . | v | . . .) = 0<br />

⇒ det(. . . | v | . . . | v | . . .) = 0.<br />

Die letzte Folgerung gilt aber nur, falls 2 := 1+1 ≠ 0, was äquivalent zu −1 ≠ 1<br />

ist.<br />

89


Proposition 3.3.6 Ist<br />

⎛<br />

⎞<br />

λ 1 ∗ · · · ∗<br />

0 λ 2 ∗<br />

A = ⎜<br />

⎝<br />

.<br />

. .. . ..<br />

⎟<br />

⎠<br />

0 · · · 0 λ n<br />

eine obere Dreiecksmatrix mit den Diagonaleinträgen λ 1 , . . . , λ n , so gilt<br />

det(A) = λ 1 λ 2 · · · λ n .<br />

Beweis: Angenommen, alle Diagonaleinträge λ i sind ungleich Null. Dann<br />

hat die Matrix A offenbar vollen Rang <strong>und</strong> man kann sie durch eine Folge von<br />

elementaren Spaltenumformungen in die Einheitsmatrix überführen. Dabei sind<br />

nur Operationen vom Typ (I) <strong>und</strong> (II) erforderlich. Aus Proposition 3.3.4 <strong>und</strong><br />

Axiom (D3) folgt deshalb<br />

det(A) = λ 1 · · · λ n · det(E n ) = λ 1 · · ·λ n .<br />

Ist dagegen ein Diagonaleintrag λ i gleich Null, so erhält man nach endlich vielen<br />

Spaltenumformungen eine Nullspalte. Es folgt<br />

det(A) = 0.<br />

Die Formel det(A) = λ 1 · · · λ n stimmt auch in diesem Fall.<br />

Als Folgerung aus den obigen Propositionen erhalten wir die Aussage (i) aus<br />

Satz 3.3.3.<br />

Korollar 3.3.7 Für eine Matrix A ∈ M n,n (K) gilt: A ist invertierbar genau<br />

dann, wenn det(A) ≠ 0.<br />

Beweis: Die Matrix A läßt sich nach dem Gauss-Algorithmus durch eine<br />

Folge von elementaren Spaltenoperationen in eine obere Dreicksmatrix A ′ umformen.<br />

Aus der Proposition 3.3.4 folgt:<br />

det(A ′ ) = λ · det(A),<br />

<strong>für</strong> einen Skalar λ ≠ 0. Insbesondere ist det(A) ≠ 0 genau dann wenn det(A ′ ) ≠<br />

0. Andererseits ändert sich der Rang einer Matrix nicht bei Anwenden einer<br />

elementaren Spaltenoperation. Es gilt also<br />

Rang(A ′ ) = Rang(A).<br />

Insbesondere ist A genau dann invertierbar, wenn A ′ invertierbar ist. Wir<br />

brauchen das Korollar also nur noch <strong>für</strong> obere Dreiecksmatrizen beweisen.<br />

Ist A eine obere Dreiecksmatrix, mit Diagonaleinträgen λ 1 , . . . , λ n , so gilt<br />

nach Proposition 3.3.6:<br />

det(A) = λ 1 · · · λ n .<br />

✷<br />

90


Mit dem Gauss-Verfahren sieht man aber: A hat genau dann vollen Rang, wenn<br />

alle Diagonaleinträge ungleich Null sind. Damit ist das Korollar bewiesen. ✷<br />

Ein ähnliches Argument wie im obigen Beweis liefert einen einfachen Algorithmus<br />

zur Berechnung der Determinante einer Matrix A ∈ M n,n (K):<br />

• Man versucht, die Matrix A durch elementare Spaltenumformungen in<br />

eine obere Dreiecksmatrix umzuformen (wie beim Gauss-Algorithmus).<br />

Bei einer Umformung vom Typ (I) merkt man sich den Faktor λ, bei<br />

Umformungen vom Typ (III) merkt man sich den Vorzeichenwechsel (siehe<br />

Proposition 3.3.4) .<br />

• Erhält man irgendwo eine Nullspalte, so gilt det(A) = 0 (wegen (D1)).<br />

• Sonst erhält man nach endlich vielen Schritten eine obere Dreiecksmatrix<br />

A ′ . Man berechnet det(A ′ ) mit Proposition 3.3.6. Multipliziert man das<br />

Ergebnis mit dem Produkt der im ersten Schritt angesammelten Faktoren,<br />

erhält man det(A).<br />

Beispiel 3.3.8 Sei K = Q <strong>und</strong><br />

⎛<br />

A := ⎝ 1 0 1 ⎞<br />

2 3 1⎠.<br />

1 2 2<br />

Wir berechnen det(A) nach dem obigen Algorithmus:<br />

1 −2 −1<br />

det(A) =<br />

2 −1 −3<br />

∣1 0 0 ∣<br />

−1 −2 1<br />

= −<br />

−3 −1 2<br />

∣ 0 0 1∣<br />

5 −2 1<br />

= −<br />

0 −1 2<br />

∣0 0 1∣<br />

(Typ (II))<br />

(Typ (III))<br />

(Typ (II))<br />

= 5. (Proposition 3.3.6)<br />

Bemerkung 3.3.9 (i) Bei der Berechnung von Determinanten sollte man<br />

nach Möglichkeit versuchen, keine überflüssigen Nenner einzuführen. Das<br />

ist im Prinzip auch immer möglich (wegen Satz 3.3.3 (v)).<br />

(ii) Wegen Satz 3.3.3 (iii), (iv) kann man, anstelle von Spaltenoperationen,<br />

auch mit Zeilenoperationen arbeiten. Durch geschicktes Mischen von<br />

Zeilen- <strong>und</strong> Spaltenoperationen kann man sich oft viel Arbeit sparen.<br />

(iii) Unser Algorithmus beruht auf den Propositionen 3.3.4 <strong>und</strong> 3.3.6, die<br />

wir ohne Verwendung von Satz 3.3.3 bewiesen haben. Es folgt, dass es<br />

91


höchstens eine Determinante geben kann: wenn es eine Determinante gibt,<br />

ist der Wert auf jeder Matrix durch das Endergebnis des Algorithmus eindeutig<br />

bestimmt.<br />

(iv) Es folgt aber nicht, dass es überhaupt eine Determinante gibt. Das Problem<br />

ist, dass wir viele Möglichkeiten haben, die Determinante einer Matrix<br />

auszurechnen. Es ist (ohne den Beweis von Satz 3.3.3) nicht klar, dass man<br />

auch bei verschiedenen Rechenwegen immer dasselbe Ergebnis erhält.<br />

Beispiel 3.3.10 Wir berechnen die Determinante der Matrix A aus Beispiel<br />

3.3.8 mit einem anderen Rechenweg (Zeilenoperationen):<br />

1 0 1<br />

det(A) =<br />

2 3 1<br />

∣1 2 2∣<br />

1 0 1<br />

=<br />

0 3 −1<br />

∣0 2 1 ∣<br />

1 0 1<br />

=<br />

0 3 −1<br />

∣0 0 5/3∣<br />

= 1 · 3 · 5<br />

3 = 5.<br />

Warum ist das Ergebnis dasselbe wie bei der ersten Rechnung? Weil man in<br />

beiden Fällen die (eindeutig bestimmte) Determinante derselben Matrix ausrechnet!<br />

Nun wollen wir die Eigenschaften (ii) <strong>und</strong> (iii) aus Satz 3.3.3 zeigen. Die<br />

Eigenschaft (iv) folgt dann sofort aus (iii).<br />

Proposition 3.3.11 Sei det : M n,n (K) → K eine Determinante <strong>und</strong> A, B ∈<br />

M n,n (K). Dann gilt<br />

det(A · B) = det(A) · det(B) (67)<br />

<strong>und</strong><br />

det(A t ) = det(A). (68)<br />

Beweis: Wir zeigen zunächst die Formel (67) in dem Spezialfall einer Elementarmatrix<br />

B (siehe Abschnitt 2.7). Ist z.B. B = S i (λ) die Diagonalmatrix<br />

mit dem Eintrag λ ∈ K × in der iten Zeile, so ist die Matrix<br />

A ′ := A · S i (λ)<br />

die Matrix, die aus A durch Multiplikation der iten Spalte mit λ hervorgeht<br />

(siehe Bemerkung 2.7.6). Mit Proposition 3.3.4 (i) folgt nun<br />

det(A ′ ) = λ · det(A).<br />

92


Nun gilt aber auch det(S i (λ)) = λ <strong>und</strong> deshalb<br />

det(A · S i (λ)) = λ · det(A) = det(A) · det(S i (λ)).<br />

Die Formel (67) gilt also <strong>für</strong> B = S i (λ). Mit demselben Argument zeigt man,<br />

dass sie auch <strong>für</strong> die zwei anderen Typen von Elementarmatrizen B = Q j i (λ)<br />

<strong>und</strong> B = P j<br />

i gilt.<br />

Um die Formel (67) allgemein zu beweisen, treffen wir eine Fallunterscheidung.<br />

Im ersten Fall betrachten wir eine invertierbare Matrix B. Nach Korollar<br />

2.7.4 ist dann B das Produkt von Elementarmatrizen,<br />

B = S 1 · S 2 · · · S r .<br />

Durch wiederholtes Anwenden der Formel (67) im schon bewiesenen Spezialfall<br />

erhält man<br />

det(A · B) = det(A · S 1 · · · S r−1 · S r ) = det(A · S 1 · · · S r−1 ) · det(S r )<br />

= . . . = det(A) · det(S 1 ) · · · det(S r ).<br />

(69)<br />

Als Spezialfall von (69) erhält man <strong>für</strong> A = E n :<br />

det(B) = det(S 1 ) · · · det(S r ). (70)<br />

Aus (69) <strong>und</strong> (70) zusammen folgt nun die Formel (67) im Fall einer invertierbaren<br />

Matrix B.<br />

Ist B nicht invertierbar, so gibt es einen Vektor x ∈ K n , x ≠ 0, mit B ·x = 0<br />

(Satz 2.5.10). Dann gilt aber auch<br />

(A · B) · x = A · (B · x) = A · 0 = 0.<br />

Also ist nach Satz 2.5.10 auch die Matrix A ·B nicht invertierbar. Aus Korollar<br />

3.3.7 folgt nun<br />

det(A · B) = 0 = det(A) · det(B).<br />

Damit ist die Formel (67) in voller Allgemeinheit bewiesen.<br />

Der Beweis von (68) ist sehr ähnlich. Zunächst ist (68) offenbar wahr, wenn<br />

A eine Elementarmatrix ist. Ist A eine beliebige invertierbare Matrix, so schreibt<br />

man A als Produkt von Elementarmatrizen,<br />

A = S 1 · · ·S r .<br />

Durch Anwenden von (67) <strong>und</strong> der Regel (A · B) t = B t · A t schließt man nun<br />

det(A t ) = det(S t r · · · St 1 )<br />

= det(S t r ) · · · det(St 1 )<br />

= det(S 1 ) · · ·det(S r )<br />

= det(A).<br />

93


Ist A nicht invertierbar, so ist auch A t nicht invertierbar. Aus Korollar 3.3.7<br />

folgt dann<br />

det(A) = 0 = det(A t ).<br />

Nun ist alles gezeigt.<br />

Nun wollen wir die Eigenschaft (v) aus Satz 3.3.3 beweisen. Dazu benötigen<br />

wir ein Lemma.<br />

Lemma 3.3.12 Sei A ∈ M n,n (K) eine Matrix der Form<br />

⎛<br />

⎞<br />

1 ∗ . . . ∗<br />

0<br />

A = ⎜<br />

⎟<br />

⎝ . B ⎠ , mit B ∈ M n−1,n−1(K).<br />

0<br />

Dann gilt det(A) = det(B).<br />

Beweis: Wir formen A durch eine Folge von elementaren Spaltenumformungen<br />

in eine obere Dreiecksmatrix A ′ um. Davon bleibt die erste Spalte<br />

unberührt. Die Matrix A ′ ist also von der Form<br />

⎛<br />

⎞<br />

1 ∗ . . . ∗<br />

A ′ 0<br />

= ⎜<br />

⎝<br />

. B ′ ⎟<br />

⎠ ,<br />

0<br />

wobei B ′ eine obere Dreiecksmatrix ist, die aus B durch eine Folge von elementaren<br />

Spaltenoperationen hervorgeht. Aus Proposition 3.3.4 folgt nun<br />

✷<br />

det(A ′ ) = µ · det(A),<br />

det(B ′ ) = µ · det(A).<br />

Der entscheidende Punkt ist, dass in beiden Gleichungen derselbe Faktor µ ≠ 0<br />

auftaucht. Sind λ 2 , . . . , λ n ∈ K die Diagonaleinträge von B ′ , so sind λ 1 :=<br />

1, λ 2 , . . .,λ n die Diagonaleinträge von A ′ . Aus Proposition 3.3.6 folgt nun<br />

det(A) = µ −1 · det(A ′ ) = µ −1 λ 2 · · ·λ n = µ −1 · det(B ′ ) = det(B).<br />

✷<br />

Proposition 3.3.13 Sei A = (a i,j ) ∈ M n,n (K) eine Matrix, deren Einträge<br />

a i,j alle in einem Unterring R ⊂ K liegen. Dann gilt:<br />

det(A) ∈ R.<br />

Beweis: Wir beweisen die Aussage durch Induktion über die Dimension<br />

n ∈ N der Matrix A. Für n = 1 hat die Matrix nur einen Eintrag a ∈ R, es gilt<br />

also det(A) = a ∈ R.<br />

94


mit<br />

Nun sei n > 1. Wegen der Linearität in der ersten Spalte gilt<br />

det(A) =<br />

n∑<br />

a i,1 · det(A i,1 ), (71)<br />

i=1<br />

⎛<br />

⎞<br />

0 a 1,2 . . . a 1,n<br />

.<br />

.<br />

.<br />

A i,1 =<br />

1 a i,2 . . . a i,n<br />

.<br />

⎜<br />

⎟<br />

⎝.<br />

. . ⎠<br />

0 a n,2 . . . a n,n<br />

Durch (i − 1)-faches Vertauschen zweier Zeilen formt man A i,1 in eine Matrix<br />

der Form<br />

⎛<br />

⎞<br />

1 ∗ . . . ∗<br />

0<br />

⎜<br />

⎝ . A ′ ⎟<br />

i,1 ⎠<br />

0<br />

um. Aus Proposition 3.3.4 (iii) <strong>und</strong> Lemma 3.3.12 folgt<br />

det(A i,1 ) = (−1) i−1 det(A ′ i,1 ).<br />

Die Matrix A ′ i,1 hat ebenfalls Einträge in dem Ring R <strong>und</strong> Dimension n − 1.<br />

Aus der Induktionshypothese folgt deshalb det(A ′ i,1 ) ∈ R, <strong>für</strong> alle i. Aus (71)<br />

folgt schließlich det(A) ∈ R. Das war zu zeigen.<br />

✷<br />

Bemerkung 3.3.14 Die Formel<br />

det(A) = a 1,1 det(A ′ 1,1) − a 2,1 det(A ′ 2,1) + . . . + (−1) n−1 a n,1 det(A ′ n,1)<br />

aus dem Beweis der Proposition 3.3.13 nennt man auch die Entwicklung von<br />

det(A) nach der ersten Spalte. Analog erhält man Entwicklungsformeln nach<br />

allen Zeilen <strong>und</strong> Spalten von A. Siehe [Fischer], §3.3.3, Stichwort Entwicklungssatz<br />

von Laplace.<br />

Bemerkung 3.3.15 Die Entwicklungsformel aus Bemerkung 3.3.14 kann man<br />

benutzen, um die Determinante einer (n, n)-Matrix induktiv zu definieren. Kann<br />

man dann zusätzlich zeigen, dass die so definierte Determinante die Axiome<br />

(D1), (D2), (D3) aus Definition 3.3.1 erfüllt, so hätte man damit die fehlende<br />

Existenzaussage des Satzes 3.3.3 bewiesen. Das ist auch möglich, aber gar nicht<br />

so einfach. Der Leser möge es versuchen!<br />

95


3.4 Das charakteristische Polynom<br />

Definition 3.4.1 Sei K ein Körper <strong>und</strong> x eine Unbestimmte. Ein (formales)<br />

Polynom über K in x ist ein Ausdruck der Form<br />

f = a n x n + a n−1 x n−1 + . . . + a 1 x + a 0 ,<br />

mit n ∈ N 0 <strong>und</strong> a 0 , . . .,a n ∈ K. Die a i heißen die Koeffizienten von f. Der<br />

Grad des Polynoms f ≠ 0 ist die Zahl<br />

deg(f) := max{ i | a i ≠ 0 }.<br />

Die Menge aller Polynome über K bezeichnen wir mit K[x].<br />

Ein Polynom f ∈ K[x] ist also gegeben durch eine abbrechende Folge<br />

(a 0 , a 1 , a 2 , . . .) ∈ K N0 , a i = 0 ∀i > n<br />

wobei die Zahl n von f abhängt <strong>und</strong> <strong>für</strong> f ≠ 0 als n := deg(f) gewählt werden<br />

kann.<br />

Wir können daher die Menge K[x] aller Polynome als ein Untervektorraum<br />

von K N0 auffassen. Insbesondere erhalten wir eine Addition<br />

+ : K[x] × K[x] → K[x], (f, g) ↦→ f + g<br />

(Addition der Koeffizienten von f <strong>und</strong> g) <strong>und</strong> eine Skalarmultiplikation<br />

· : K × K[x] → K[x], (λ, f) ↦→ λ · f<br />

(Multiplikation aller Koeffizienten von f mit λ).<br />

Ein Polynom f ist also dasselbe wie eine Linearkombination der Monome<br />

1, x, x 2 , . . . .<br />

Anders ausgedrückt: (1, x, x 2 , . . .) ist eine (abzählbar unendliche) Basis von<br />

K[x].<br />

Zusätzlich existiert auf K[x] auch eine Multiplikation:<br />

Dabei ist<br />

mit<br />

· : K[x] × K[x] → K[x], (f, g) ↦→ f · g,<br />

f · g = ( ∑<br />

n a i x i) · ( ∑<br />

n b j x j) =<br />

i=0<br />

c k :=<br />

j=0<br />

k∑<br />

a i b k−i .<br />

i=0<br />

2n∑<br />

k=0<br />

c k x k .<br />

Insbesondere gilt x i ·x j = x i+j . Umgekehrt kann man obige Definition von f ·g<br />

leicht aus der Regel x i · x j = x i+j durch formales Ausmultiplizieren ableiten.<br />

96


Proposition 3.4.2 Die Menge K[x], zusammen mit den Verknüpfungen + <strong>und</strong><br />

· , bildet einen kommutativen <strong>und</strong> nullteilerfreien Ring, mit Nullelement<br />

0 := 0 · 1 + 0 · x + . . .<br />

<strong>und</strong> Einselement<br />

1 := 1 · 1 + 0 · x + . . . .<br />

Beweis: Übungsaufgabe.<br />

Sei f = a n x n + . . . + a 0 ∈ K[x] ein Polynom <strong>und</strong> λ ∈ K. DerWert von f an<br />

der Stelle x = λ ist definiert als<br />

f(λ) := a n λ n + . . . + a 0 ∈ K.<br />

Lemma 3.4.3 Für f, g ∈ K[x] <strong>und</strong> λ ∈ K gilt:<br />

(f + g)(λ) = f(λ) + g(λ), (f · g)(λ) = f(λ) · g(λ).<br />

Beweis: Das folgt sofort durch Einsetzen in die Definition <strong>und</strong> Ausmultiplizieren.<br />

✷<br />

✷<br />

Definition 3.4.4 Sei A = (a i,j ) ∈ M n,n (K) eine quadratische Matrix mit<br />

Einträgen in dem Körper K. Dann heißt<br />

a 1,1 − x a 1,2 · · · a 1,n<br />

a 2,1 a 2,2 − x · · · a 2,n<br />

P A := det(A − x · E n ) =<br />

. .<br />

.. ∈ K[x]<br />

.<br />

∣ a n,1 · · · · · · a n,n − x∣<br />

das charakteristische Polynom von A.<br />

Diese Definition ist so zu verstehen: die Einträge der Matrix A−x·E n liegen<br />

in dem Ring K[x]. Da der Ring K[x] kommutativ <strong>und</strong> nullteilerfrei ist, besitzt<br />

er einen Quotientenkörper (siehe Abschnitt 1.2, insbesondere Satz 1.2.24). Die<br />

Determinante ist also wohldefiniert <strong>und</strong> nach Teil (v) von Satz 3.3.3 wieder ein<br />

Element von K[x].<br />

Proposition 3.4.5 Sei P A das charakteristische Polynom von A ∈ M n,n (K).<br />

(i) Es gilt<br />

P A = a n x n + . . . + a 0 ,<br />

mit a n = (−1) n ≠ 0 <strong>und</strong> a 0 = det(A). Insbesondere gilt deg(P A ) = n.<br />

(ii) Für λ ∈ K gilt<br />

P A (λ) = det(A − λ · E n ).<br />

Insbesondere sind die Nullstellen von P A genau die Eigenwerte von A.<br />

97


Beweis: Der Beweis erfolgt durch Induktion über n, nach demselben Muster<br />

wie im Beweis von Proposition 3.3.13. Für (ii) verwendet man zusätzlich Lemma<br />

3.4.3. (Man beachte auch, dass die Behauptung a 0 = det(A) sofort aus (ii)<br />

folgt, indem man λ := 0 setzt.) Die Details sind dem Leser als Übungsaufgabe<br />

überlassen.<br />

✷<br />

Definition 3.4.6 Zwei Matrizen A, B ∈ M n,n (K) heißen ähnlich, wenn es eine<br />

invertierbare Matrix S ∈ GL n (K) gibt, so dass<br />

B = S −1 · A · S.<br />

Insbesondere ist eine quadratische Matrix diagonalisierbar genau dann, wenn<br />

sie ähnlich zu einer Diagonalmatrix ist.<br />

Satz 3.4.7 Ähnliche Matrizen haben dasselbe charakteristische Polynom <strong>und</strong><br />

insbesondere dieselbe Determinante.<br />

Beweis: Sei A ∈ M n,n (K) <strong>und</strong> B := S −1 AS, mit S ∈ GL n (K). Wegen<br />

S −1 · (A − x · E n ) · S = S −1 AS − x · E n = B − x · E n<br />

<strong>und</strong> der Multiplikativität der Determinante (Satz 3.3.3 (ii)) erhalten wir<br />

det(B − x · E n ) = det(S −1 ) · det(A − x · E n ) · det(S) = det(A − x · E n ).<br />

✷<br />

Korollar 3.4.8 Sei A eine diagonalisierbare Matrix <strong>und</strong> λ 1 , . . .,λ n die Diagonaleinträge<br />

einer zu A ähnlichen Matrix. Dann gilt<br />

P A = (λ 1 − x) · · · (λ n − x).<br />

Eine weitere, sehr wichtige Konsequenz aus Satz 3.4.7 ist, dass man einem<br />

Endomorphismus eines endlich dimensionalen Vektorraumes ein charakteristisches<br />

Polynom zuordnen kann.<br />

Definition 3.4.9 Sei V ein K-Vektorraum der Dimension n ∈ N <strong>und</strong> φ : V →<br />

V ein K-linearer Endomorphismus. Sei A = MB B (φ) die darstellende Matrix von<br />

φ, bezüglich einer beliebigen Basis B. Dann heißt<br />

das charakteristische Polynom von φ.<br />

P φ := P A = det(A − x · E n ) ∈ K[x]<br />

Die Wohldefiniertheit von φ folgt aus Satz 3.4.7: ist B = MA A (φ) die darstellende<br />

Matrix bezüglich einer anderen Basis A, so gilt B = S −1 AS, mit S := TB A.<br />

Aus Definition 3.4.9 <strong>und</strong> Proposition 3.4.5 (ii) folgt sofort, dass die Nullstellen<br />

von P φ genau die Eigenwerte von φ sind.<br />

98


Beispiel 3.4.10 Sei V der Vektorraum aller Folgen (x 1 , x 2 , . . .) ∈ K N0 , die der<br />

linearen Rekursiongleichung<br />

genügt. Sei φ : V → V der durch<br />

x n = c 1 x n−1 + . . . + c k x n−k<br />

φ(x 1 , x 2 , . . .) = (x 2 , x 3 , . . .)<br />

definierte Endomorphismus. Sei B = (v 1 , . . . , v k ) die ‘Standardbasis’ von V ,<br />

d.h.<br />

v i = (x (i)<br />

1 , x(i) 2 , . . .),<br />

mit den Anfangswerten<br />

Offenbar gilt<br />

x (i)<br />

j =<br />

{<br />

1, j = i,<br />

0, j ≠ i.<br />

φ(v 1 ) = c k · v k , φ(v i ) = v i−1 + c k−i+1 · v k , <strong>für</strong> i = 2, . . . , k.<br />

Die darstellende Matrix von φ bezüglich B ist also<br />

⎛<br />

⎞<br />

0<br />

A = ⎜ . E k−1<br />

⎟<br />

⎝ 0 ⎠ .<br />

c k−1 · · · c 1<br />

Durch Induktion über k zeigt man:<br />

c k<br />

P φ = P A = (−1) k (x k − c 1 x k−1 − . . . − c k ).<br />

Bis auf den konstanten Faktor (−1) k ist P φ also das schon in §3.1 definierte<br />

charakteristische Polynom der Rekursionsgleichung.<br />

Im Folgenden betrachten wir, <strong>für</strong> einen festen K-Vektorraum V , die Menge<br />

R := End K (V )<br />

aller K-linearen Endomorpismen von V . Ist V endlich-dimensional, so können<br />

wir V nach Wahl einer Basis mit dem Standardvektorraum K n <strong>und</strong> R mit dem<br />

Matrizenring M n,n (K) identifizieren.<br />

Sind φ, ψ ∈ R, so ist die Summe φ+ψ <strong>und</strong> das Produkt φ◦ψ folgendermaßen<br />

definiert:<br />

(φ + ψ)(v) := φ(v) + ψ(v), (φ ◦ ψ)(v) := φ(ψ(v)).<br />

Mit den Verknüpfungen + <strong>und</strong> ◦ ist R ein Ring (im Allgemeinen nichtkommutativ<br />

<strong>und</strong> nicht nullteilerfrei). Außerdem erhalten wir eine Einbettung des<br />

99


Körpers K in den Ring R, indem wir einem Element λ ∈ K den skalaren Endomorphismus<br />

λ : V → V, v ↦→ λ · v<br />

zuordnen. Genau wie der Matrizenring M n,n (K) ist R also eine K-<strong>Algebra</strong><br />

(vergleiche mit Korollar 2.5.6 <strong>und</strong> Bemerkung 2.5.7 (iii)).<br />

Ist φ ∈ R ein Endomorphismus <strong>und</strong> f = a n x n +. . .+a 0 ∈ K[x] ein Polynom,<br />

so können wir in f <strong>für</strong> die Unbestimmte x den ‘Wert’ φ einsetzen:<br />

f(φ) := a n φ n + . . . + a 1 φ + a 0 ∈ R.<br />

Nach Definition gilt <strong>für</strong> einen Vektor v ∈ V :<br />

f(φ)(v) = a n φ n (v) + . . . + a 1 φ(v) + a 0 · v.<br />

Achtung: der letzte Term in der Summe ist a 0 ·v <strong>und</strong> nicht a 0 – letzteres würde<br />

gar keinen Sinn machen.<br />

Lemma 3.4.11 Seien f, g ∈ K[x] <strong>und</strong> φ ∈ R. Dann gilt:<br />

(i)<br />

(f + g)(φ) = f(φ) + g(φ), (f · g)(φ) = f(φ)(g(φ)).<br />

(ii) Ist v ∈ V ein Eigenvektor von φ ∈ R zum Eigenwert λ, so gilt<br />

f(φ)(v) = f(λ) · v.<br />

Insbesondere ist v ein Eigenvektor von f(φ).<br />

Beweis: Direktes Nachrechnen!<br />

✷<br />

Satz 3.4.12 (Cayley-Hamilton) Sei V ein endlich-dimensionaler K-Vektorraum,<br />

φ ∈ End K (V ) <strong>und</strong> P φ das charakteristische Polynom. Dann gilt<br />

P φ (φ) = 0.<br />

Beweis: Wir werden diesen Satz zunächst nur <strong>für</strong> diagonalisierbare Endomorphismen<br />

beweisen. Den allgemeinen Fall verschieben wir auf das nächste<br />

Semester.<br />

Sei also φ diagonalisierbar, <strong>und</strong> (v 1 , . . .,v n ) eine Basis aus Eigenvektoren.<br />

Sei λ i der Eigenwert zu v i . Dann gilt P φ (λ i ) = 0. Wegen Lemma 3.4.11 (ii)<br />

haben wir also<br />

P φ (φ)(v i ) = P φ (λ i ) · v i = 0. (72)<br />

Da v 1 , . . .,v n eine Basis ist, folgt daraus P φ (φ) = 0.<br />

Ein alternativer Beweis von (72) geht so: nach Korollar 3.4.8 gilt <strong>für</strong> alle<br />

i ∈ {1, . . ., n}:<br />

P φ = (λ 1 − x) · · · (λ n − x) = P i · (λ i − x),<br />

100


wobei<br />

P i := ∏ j≠i(λ j − x).<br />

Mit Lemma 3.4.11 (i) folgt nun<br />

P φ (φ)(v i ) = P i (φ)(λ i · v i − φ(v i )) = P i (φ)(0) = 0.<br />

✷<br />

Beispiel 3.4.13 Sei<br />

A :=<br />

( )<br />

1 −1<br />

∈ M<br />

1 1 2,2 (R).<br />

Das charakteristische Polynom ist P A = x 2 − 2x + 2 ∈ R[x]. Einsetzen von A<br />

ergibt<br />

( ) ( ) ( )<br />

P A (A) = A 2 0 −2 −2 2 2 0<br />

− 2 · A + 2 · E 2 = + + = 0,<br />

2 0 −2 −2 0 2<br />

im Einklang mit Satz 3.4.7. Man beachte aber, dass A nicht diagonalisierbar ist,<br />

da P A keine (reellen) Nullstellen hat. Der obige Beweis ist also nicht unmittelbar<br />

auf A anwendbar.<br />

3.5 Die komplexen Zahlen<br />

Ist eine Matrix oder der Endomorphismus eines endlich-dimensionalen Vektorraumes<br />

diagonalisierbar, so zerfällt das charakteristische Polynom in Linearfaktoren,<br />

siehe Korollar 3.4.8. Diese Beobachtung liefert eine nichttriviale notwendige<br />

Bedingung <strong>für</strong> Diagonalisierbarkeit. So ist z.B. die Matrix A aus Beispiel<br />

3.2.4 nicht über dem Körper Q diagonalisierbar, da das Polynom P A = x 2 − 2<br />

keine rationale Nullstelle besitzt. Geht man aber zu dem größeren Körper R<br />

über, so zerfällt das Polynom in zwei verschiedene Linearfaktoren. Deshalb ist<br />

A über R diagonalisierbar.<br />

Allerdings zerfällt auch über R nicht jedes Polynom in Linearfaktoren. Dazu<br />

erinnern wir an die bekannte p-q-Formel: sei<br />

f = x 2 + p x + q ∈ R[x]<br />

ein reelles quadratisches Polynom (es ist keine echte Einschränkung der Allgemeinheit,<br />

den führenden Koeffizienten auf 1 zu normalisieren). Dann zerfällt f<br />

in Linearfaktoren genau dann, wenn<br />

p 2 ≥ 4q.<br />

Ist dies der Fall, so gilt genauer f = (x − λ)(x − λ ′ ), mit<br />

λ = − p √<br />

p<br />

2 + 2<br />

4 − q, λ′ = − p √<br />

p<br />

2 − 2<br />

− q. (73)<br />

4<br />

101


Für p 2 = 4q gilt λ = λ ′ , sonst sind die beiden Nullstellen verschieden.<br />

Im Fall p 2 < 4q zerfällt f nicht, da man in dem Körper R keine Wurzel aus<br />

einer negativen Zahl ziehen kann.<br />

Durch Übergang von R zum Körper der komplexen Zahlen kann man diese<br />

Einschränkung überwinden:<br />

Definition 3.5.1 Der Körper der komplexen Zahlen ist die Menge<br />

C := R 2 = { (x, y) | x, y ∈ R },<br />

versehen mit den Verknüpfungen + : C × C → C,<br />

(die Addition), <strong>und</strong> · : C × C → C,<br />

(die Multiplikation).<br />

Proposition 3.5.2<br />

(x 1 , y 1 ) + (x 2 , y 2 ) := (x 1 + x 2 , y 1 + y 2 )<br />

(x 1 , y 1 ) · (x 2 , y 2 ) := (x 1 x 2 − y 1 y 2 , x 1 y 2 + x 2 y 1 )<br />

(i) C ist (mit den obigen Verknüpfungen) ein kommutativer Ring.<br />

(ii) C ist ein Körper.<br />

(iii) Die injektive Abbildung<br />

R ֒→ C, x ↦→ (x, 0)<br />

ist ein Ringhomomorphismus. Wir dürfen also R als einen Unterring von<br />

C auffassen.<br />

Beweis: Zu (i) reicht es, die Ringaxiome (siehe Definition 1.2.9) nachzurechnen.<br />

Das ist reine Routine. Man stellt so auch fest, dass (0, 0) das Nullelement<br />

<strong>und</strong> dass (1, 0) das Einselement von C ist.<br />

Nun sei (x, y) ∈ C vom Nullelement verschieden. Dann ist das Element<br />

(<br />

(x, y) −1 :=<br />

x<br />

x 2 + y 2 ,<br />

−y<br />

)<br />

x 2 + y 2 ∈ C<br />

ein multiplikatives Inverses von (x, y) ist (man beachte, dass der Nenner wegen<br />

(x, y) ≠ (0, 0) nicht Null sein kann). Damit ist auch (ii) gezeigt. Die Behauptung<br />

(iii) zeigt man ebenfalls durch einfaches Nachrechnen.<br />

✷<br />

Wir werden im Folgenden die reellen Zahlen R als Teilmenge der komplexen<br />

Zahlen C auffassen, gemäß (iii). Ausserdem setzen wir<br />

i := (0, 1) ∈ C.<br />

102


Das Element i heißt die imaginäre Einheit. Es gilt offenbar<br />

i 2 = −1. (74)<br />

Eine beliebige komplexe Zahl kann man auf eindeutige Weise als Linearkombination<br />

von 1 <strong>und</strong> i darstellen,<br />

z = (x, y) = x + y · i. (75)<br />

Die reellen Zahlen x <strong>und</strong> y heißen der Real- bzw. der Imaginärteil der komplexen<br />

Zahl z, in Zeichen:<br />

x = R(z), y = I(z).<br />

Stellt man komplexe Zahlen in der Form (75) dar, so ergibt sich das konkrete<br />

Rechnen mit ihnen ganz automatisch aus der Gleichung (74). Sind z.B. z 1 =<br />

x 1 +y 1 i, z 2 = x 2 +y 2 i zwei komplexe Zahlen, so folgt aus den Ringaxiomen <strong>und</strong><br />

der Gleichung (74) durch eine kurze Rechnung die Identitäten<br />

<strong>und</strong><br />

z 1 + z 2 = (x 1 + x 2 ) + (y 1 + y 2 )i<br />

z 1 · z 2 = (x 1 + y 1 i) · (x 2 + y 2 i) = (x 1 x 2 − y 1 y 2 ) + (x 1 y 2 + x 2 y 1 )i.<br />

Diese beiden Identitäten ergeben sich zwar auch aus der Definition 3.5.1. Wir<br />

sehen aber durch diese Rechnung, dass die Definition 3.5.1 weniger willkürlich<br />

ist, als sie auf den ersten Blick erscheint. Oder anders ausgedrückt: wenn man<br />

zu den reellen Zahlen eine Wurzel aus −1 hinzufügen möchte, so stößt man<br />

automatisch auf die komplexen Zahlen, wie wir sie hier definiert haben.<br />

Geometrische Interpretation<br />

Die komplexen Zahlen bilden einen R-Vektorraum der Dimension zwei, mit<br />

Basis (1, i). Da diese Basis in gewissem Sinne kanonisch ist, 10 ist es sinnvoll <strong>und</strong><br />

nützlich, die Menge der komplexen Zahlen mit den Punkten bzw. den Vektoren<br />

der (Standard)Ebene zu identifizieren:<br />

C<br />

y<br />

✻<br />

z = x + y i<br />

✒<br />

i<br />

1<br />

x<br />

✲<br />

10 mit der Einschränkung, dass man i <strong>und</strong> −i nicht auf natürliche Weise unterscheiden kann<br />

103


Dieses Bild nennt man häufig die komplexe Zahlenebene.<br />

In dieser geometrischen Sichtweise entspricht die Addition komplexer Zahlen<br />

offenbar der Vektoraddition. Es gibt auch eine geometrische Interpretation der<br />

Multiplikation, aber die ist weniger offensichtlich. Um sie herzuleiten, wählen<br />

wir eine komplexe Zahl z = x + y i ∈ C <strong>und</strong> betrachten die Abbildung<br />

φ z : C → C, w ↦→ z · w.<br />

Fassen wir die Menge C als Vektorraum über dem Körper R auf, so ist φ z ein<br />

R-linearer Endomorphismus von C.<br />

Da wir eine kanonische Basis (1, i) von C gewählt haben, können wir R-<br />

lineare Endomorphismen von C mit ihrer darstellenden Matrix identifizieren;<br />

der Endomorphismus φ z entspricht dann der reellen Matrix<br />

( ) x −y<br />

A z = .<br />

y x<br />

Die Determinante dieser Matrix ist<br />

Wir nennen<br />

det(A z ) = x 2 + y 2 ≥ 0.<br />

|z| := √ x 2 + y 2<br />

den Absolutbetrag von z. Nach dem Satz von Pythagoras ist |z| die Länge von<br />

z, aufgefasst als Vektor in der komplexen Zahlenebene. Offenbar ist |z| ≥ 0 <strong>und</strong><br />

es gilt |z| > 0 genau dann, wenn z ≠ 0.<br />

Lemma 3.5.3 Im Fall z ≠ 0 gibt es eine eindeutig bestimmte relle Zahl α ∈ R<br />

mit 0 ≤ α < 2π <strong>und</strong><br />

x = |z| · cosα, y = |z| · sin α.<br />

Beweis: Setze u := x/|z|, v := y/|z|. Dann gilt u 2 + v 2 = 1, d.h. der Punkt<br />

(u, v) ∈ R 2 liegt auf dem Einheitskreis. Aus der Analysis wissen wir, dass es<br />

ein eindeutige reelle Zahl in dem halboffenen Intervall [0, 2π) gibt mit u = cosα<br />

<strong>und</strong> v = sinα.<br />

✷<br />

Wir nehmen im Folgenden an, dass z ≠ 0 <strong>und</strong> bringen mit dem Lemma die<br />

Matrix A z auf die folgende Form:<br />

( )<br />

cosα − sinα<br />

A z = |z| ·<br />

.<br />

sin α cosα<br />

Wir erkenen sofort die Drehmatrix aus Beispiel 2.5.3 wieder. Der durch A z<br />

dargestellte Endomorphismus φ z ist also die Hintereinanderausführung einer<br />

Drehung um den Winkel α <strong>und</strong> einer Streckung 11 um den Faktor |z| > 0. Einen<br />

Endomorphismus der Ebene von dieser Form nennt man eine Drehstreckung.<br />

11 im Fall |z| < 1 sollte man eher von einer Stauchung sprechen.<br />

104


Entsprechend erhält man <strong>für</strong> eine komplexe Zahl z ≠ 0 die Darstellung<br />

z = |z| · (cosα + i · sin α), (76)<br />

mit einer eindeutig bestimmten reellen Zahl α = arg(z), 0 ≤ α < 2π. Man nennt<br />

α = arg(z) das Argument von z. Geometrisch ist dies der Winkel zwischen dem<br />

durch z gegebenen Vektor der komplexen Ebene <strong>und</strong> der reellen Zahlengerade.<br />

C<br />

✻<br />

z = x + y i<br />

✒<br />

i sin α<br />

cosα<br />

α<br />

R✲<br />

Man nennt (76) auch die Darstellung von z ≠ 0 in Polarkoordinaten.<br />

Die Polarkoordinaten sind besonders günstig, wenn man komplexe Zahlen<br />

miteinander multiplizieren möchte. Sind z.B. z = |z|(cosα + i sinα) <strong>und</strong> w =<br />

|w|(cos β + i sinβ) zwei von Null verschiedene komplexe Zahlen, so gilt<br />

z · w = |z| · |w| · ( cos(α + β) + i sin(α + β) ) . (77)<br />

Mit anderen Worten: bei der Multiplikation zweier komplexer Zahlen multiplizieren<br />

sich die Absolutbeträge <strong>und</strong> addieren sich die Argumente. Genauer:<br />

<strong>für</strong> z, w ∈ C gilt<br />

|z · w| = |z| · |w| (78)<br />

<strong>und</strong><br />

arg(z · w) =<br />

{<br />

arg(z) + arg(w), falls arg(z) + arg(w) < 2π,<br />

arg(z) + arg(w) − 2π, sonst.<br />

(79)<br />

Die Gültigkeit der Formel (76) kann man anhand der Additionsgesetze <strong>für</strong> sin<br />

<strong>und</strong> cos leicht nachrechnen (vergleiche mit der Formel (50) aus Beispiel 2.5.3).<br />

Die geometrische Begündung dieser Formel ergibt sich aber auch sofort aus der<br />

oben hergeleiteten Tatsache, dass die Multiplikation mit einer komplexen Zahl<br />

z eine Drehung um den Winkel arg(z) <strong>und</strong> eine Streckung um den Faktor |z|<br />

bewirkt.<br />

Der Nachteil der Polarkoordinaten besteht darin, dass die Addition in ihnen<br />

sehr kompliziert wird.<br />

105


Der F<strong>und</strong>amentalsatz der <strong>Algebra</strong><br />

Der folgenden Satz wurde 1799 von C.F. Gauß in seiner Dissertation bewiesen.<br />

Er zählt zu den wichtigsten Sätzen der gesamten Mathematik.<br />

Satz 3.5.4 (F<strong>und</strong>amentalsatz der <strong>Algebra</strong>) Sei f = a n t n + . . . + a 0 ∈ C[t]<br />

ein Polynom vom Grad n > 0 (d.h. a n ≠ 0) mit komplexen Koeffizienten.<br />

Dann zerfällt f vollständig in Linearfaktoren, d.h. es gibt komplexe Zahlen<br />

z 1 , . . .,z n ∈ C (nicht notwendigerweise verschieden!), so dass<br />

f = a n (t − z 1 ) · . . . · (t − z n ).<br />

Insbesondere besitzt jedes nichtkonstante komplexe Polynom mindestens eine<br />

Nullstelle.<br />

Auf einen Beweis dieses Satzes verzichten wir <strong>und</strong> diskutieren statt dessen<br />

lieber ein paar Beispiele <strong>und</strong> Anwendungen.<br />

Beispiel 3.5.5 Sei<br />

f = t 2 + p t + q ∈ R[t]<br />

ein normiertes quadratisches Polynom mit reellen Koeffizienten. Dem Satz 3.5.4<br />

zufolge gibt es komplexe Zahlen z 1 , z 2 ∈ C, so dass<br />

Das gilt genau dann, wenn<br />

f = (t − z 1 )(t − z 2 ).<br />

z 1 + z 2 = −p <strong>und</strong> z 1 z 2 = q.<br />

Im Fall p 2 ≥ 4q liefert uns die p-q-Formel die zwei reellen Lösung<br />

z 1 = p + √ p 2 − 4q<br />

2<br />

, z 2 = p − √ p 2 − 4q<br />

.<br />

2<br />

Für p 2 < 4q gibt es analog die zwei (verschiedenen!) komplexen Lösungen<br />

z 1 = p 2 + √<br />

4q − p<br />

2<br />

2<br />

· i, z 2 = p √<br />

4q − p<br />

2 − 2<br />

· i. (80)<br />

2<br />

Mit anderen Worten: die p-q-Formel ist auch im Fall p 2 < 4q anwendbar, wenn<br />

man nur die Wurzel aus einer negativen reellen Zahl −λ als<br />

√<br />

−λ :=<br />

√<br />

λ · i ∈ C (81)<br />

definiert.<br />

Man beachte, dass die beiden durch (80) gegebenen komplexen Nullstellen<br />

von f denselben Realteil haben <strong>und</strong> sich ihr Imaginärteil nur durch das Vorzeichen<br />

unterscheidet. Dass dies kein Zufall ist, zeigt Teil (iii) der folgenden<br />

Proposition 3.5.7.<br />

106


Definition 3.5.6 Sei z = x + yi ∈ C eine komplexe Zahl. Dann heißt<br />

¯z := x − yi ∈ C<br />

die komplex Konjugierte von z.<br />

Proposition 3.5.7 (i) Eine komplexe Zahl z ∈ C ist genau dann eine reelle<br />

Zahl, wenn ¯z = z gilt.<br />

(ii) Für z, w ∈ C gilt<br />

z + w = ¯z + ¯w,<br />

z · w = ¯z · ¯w.<br />

Die Abbildung C → C, z ↦→ ¯z, ist also ein Ringhomomorphismus.<br />

(iii) Für z ∈ C <strong>und</strong> f ∈ R[t] gilt<br />

f(z) = f(¯z).<br />

Insbesondere gilt: ist z eine Nullstelle von f, so ist ¯z ebenfalls eine Nullstelle.<br />

(Achtung: die Bedingung, dass f reelle Koeffizienten hat, ist<br />

wesentlich!)<br />

Beweis: (i) ist trivial. (ii) zeigt man durch Nachrechnen. Durch mehrfaches<br />

Anwenden von (i) <strong>und</strong> (ii) erhält man schließlich<br />

f(z) = a n z n + . . . + a 0 = a n¯z n + . . . + a 0 = f(¯z).<br />

✷<br />

Korollar 3.5.8 Sei f ∈ R[t] ein relles Polynom vom Grad n = deg(f). Dann<br />

besitzt f eine Zerlegung der Form<br />

f = a n (t − λ 1 ) · · · (t − λ r ) · g 1 · · · g s ,<br />

mit reellen Zahlen λ 1 , . . .,λ r <strong>und</strong> quadratischen Polynomen der Form<br />

g i = t 2 + p i t + q i ∈ R[t],<br />

die keine reelle Nullstelle haben (d.h. p 2 i < 4q i).<br />

Beweis: Wir führen den Beweis durch Induktion über n. Für n = 0 ist<br />

nichts zu zeigen. Also dürfen wir n > 0 annehmen.<br />

Nach Satz 3.5.4 zerfällt f über C in Linearfaktoren,<br />

f = a n (t − z 1 ) · . . . · (t − z n ),<br />

mit z 1 , . . . , z n ∈ C.Sind alle Nullstellen z i reelle Zahlen, ist ebenfalls nicht zu<br />

zeigen. Wir dürfen also, ohne Einschränkung der Allgemeinheit, annehmen,<br />

dass z 1 nicht reell ist. Aus f(z 1 ) = 0 <strong>und</strong> Proposition 3.5.7 folgt f(¯z 1 ) = 0.<br />

107


Aber ¯z 1 ≠ z 1 ; es gibt also einen Index i > 1 mit ¯z 1 = z i . Wieder dürfen wir<br />

annehmen, dass i = 2, also ¯z 1 = z 2 .<br />

Nun sei<br />

g := (t − z 1 )(t − z 2 ) = t 2 + pt + q.<br />

Wegen ¯z 1 = z 2 sind die Koeffizienten von g reelle Zahlen:<br />

p = −(z 1 + ¯z 1 ) = −2R(z 1 ), q = z 1 · ¯z 1 = |z 1 | 2 .<br />

Durch Polynomdivision (ohne Rest!) zeigt man, dass<br />

f 1 := f g = a n(t − z 3 ) · · · (t − z n )<br />

wieder ein Polynom mit reellen Koeffizienten ist. Wegen deg(f 1 ) = n − 2 <<br />

n können wir auf f 1 die Induktionshypothese anwenden. Das Korollar folgt<br />

unmittelbar.<br />

✷<br />

Bemerkung 3.5.9 Aus dem Korollar folgt sofort: ist f ∈ R[t] ein reelles Polynom<br />

vom Grad n = deg(f) <strong>und</strong> ist n ungerade, so besitzt f mindestens eine<br />

reelle Nullstelle. Diese Aussage kann man allerdings auch leicht ohne den F<strong>und</strong>amentalsatz<br />

der <strong>Algebra</strong> beweisen: siehe Beispiel 5.1.15 des Analysisskriptes.<br />

Beispiel 3.5.10 Wir betrachten das Polynom<br />

f := t 5 − 1 ∈ R[t].<br />

Die Nullstellen von f sind genau die komplexen Zahlen z ∈ C mit<br />

z 5 = 1<br />

(die sogenannten 5ten Einheitswurzeln). Anhand der geometrischen Interpretation<br />

der Multiplikation komplexer Zahlen sieht man leicht ein, dass es genau<br />

5 solcher komplexen Zahlen gibt <strong>und</strong> dass sie die Ecken eines im Einheitskreis<br />

eingeschriebenen gleichseitigen Fünfecks bilden.<br />

z 2<br />

✻<br />

z 1<br />

z 0 = 1✲<br />

z 3<br />

108<br />

z 4


Die 5 Nullstellen sind also<br />

z k := cos(2πk/5) + i · sin(2πk/5), k = 0, . . .,4.<br />

Insbesondere gilt z 1 = 1 <strong>und</strong> ¯z 1 = z 4 , ¯z 2 = z 3 . Wie in Korollar 3.5.8 erhalten<br />

wir die folgende Zerlegung in reelle, irreduzible Polynome:<br />

mit<br />

<strong>und</strong><br />

f = t 5 − 1 = (t − 1) · g 1 · g 2 ,<br />

g 1 = (t − z 1 )(t − z 4 ) = t 2 − 2 cos(2π/5)t + 1<br />

g 2 = (t − z 2 )(t − z 3 ) = t 2 − 2 cos(4π/ 5)t + 1.<br />

Andererseits erhalten wir durch Polynomdivision:<br />

Wir machen nun den Ansatz<br />

g 1 · g 2 = t5 − 1<br />

t − 1 = t4 + t 3 + t 2 + t + 1. (82)<br />

g 1 = t 2 + a t + 1, g 2 = t 2 + b t + 1,<br />

mit Unbestimmten a, b. Aus (82) erhält man durch Ausmultiplizieren <strong>und</strong> Koeffizientenvergleich<br />

das (nichtlineare) Gleichungssystem<br />

Ein kurze Rechnung liefert die Lösung<br />

a + b = 1, 2 + ab = 1.<br />

a = 1 − √ 5<br />

2<br />

, b = 1 + √ 5<br />

. (83)<br />

2<br />

Es gibt noch genau eine weitere Lösung, die sich durch Vertauschen von a <strong>und</strong> b<br />

in (83) ergibt. Da aber a = −2 cos(2π/5) negativ <strong>und</strong> b = −2 cos(4π/5) positiv<br />

sein muss, ist (83) die richtige Lösung. Wir haben damit die folgenden Formeln<br />

bewiesen:<br />

√ √<br />

5 − 1<br />

5 + 1<br />

cos(2π/5) = , cos(4π/5) = − . (84)<br />

4<br />

4<br />

3.6 Orthogonale Matrizen<br />

Definition 3.6.1 Sei V = R n der reelle Standardvektorraum der Dimension n.<br />

Das Standardskalarprodukt auf V ist die Abbildung<br />

V × V → R,<br />

(x, y) ↦→ 〈x, y〉,<br />

wobei das Produkt zweier Vektoren x = (x i ), y = (y i ) durch die Formel<br />

〈x, y〉 :=<br />

definiert ist.<br />

n∑<br />

x i y i<br />

i=1<br />

109


Bemerkung 3.6.2 Fasst man Elemente von R n als (n, 1)-Matrizen auf (Spaltenschreibweise!),<br />

so kann man das Skalarprodukt auch auf die folgende Weise<br />

schreiben:<br />

⎛ ⎞<br />

〈x, y〉 = x t · y = ( y 1<br />

) ⎜ ⎟<br />

x 1 · · · x n · ⎝ . ⎠<br />

y n<br />

Proposition 3.6.3 Das Standardskalarprodukt auf V = R n hat die folgenden<br />

Eigenschaften.<br />

(i) (Bilinearität) Für x, y, z ∈ V , λ, µ ∈ R gilt<br />

〈λ · x + µ · y, z〉 = λ〈x, z〉 + µ〈y, z〉<br />

<strong>und</strong><br />

〈x, λ · y + µ · z〉 = λ〈x, y〉 + µ〈x, z〉.<br />

(ii) (Symmetrie) Für alle x, y ∈ V gilt<br />

〈x, y〉 = 〈y, x〉.<br />

(iii) (Positive Definitheit) Für alle x ∈ V ist 〈x, x〉 ≥ 0; es gilt 〈x, x〉 = 0 genau<br />

dann, wenn x = 0.<br />

Beweis: Offensichtlich.<br />

Das Skalarprodukt hat eine einfache geometrische Interpretation. Für einen<br />

Vektor x = (x i ) ∈ V heißt<br />

||x|| := √ √<br />

〈x, x〉 = x 2 1 + . . . + x2 n<br />

die Norm oder die Länge von x. Für n = 2, 3 ist dies die übliche Länge eines<br />

Vektors, d.h. der Abstand zwischen Anfangs- <strong>und</strong> Endpunkt (Satz des Pythagoras):<br />

✷<br />

✻<br />

x 2<br />

x = (x 1 , x 2 )<br />

✣<br />

x 1<br />

✲<br />

110


Sind zwei Vektoren x, y ≠ 0 gegeben <strong>und</strong> bezeichnet α ∈ [0, 2π) den Winkel<br />

zwischen x, y, so gilt die Formel<br />

〈x, y〉 = ||x|| · ||y|| · cosα.<br />

Insbesondere gilt 〈x, y〉 = 0 <strong>für</strong> zwei von Null verschiedene Vektoren x, y genau<br />

dann, wenn x <strong>und</strong> y in einem rechten Winkel zueinander liegen (wegen cosα =<br />

0 ⇔ α ∈ {π/2, 3π/2}):<br />

❑<br />

y<br />

α<br />

x<br />

✯<br />

Definition 3.6.4<br />

(i) Zwei Vektoren x, y ∈ R n heißen orthogonal, wenn 〈x, y〉 = 0; in Zeichen:<br />

x ⊥ y.<br />

(ii) Eine Orthonormalbasis von V = R n ist eine Basis B = (v 1 , . . . , v n ) mit<br />

der Eigenschaft<br />

{<br />

1, i = j,<br />

〈v i , v j 〉 = δ i,j :=<br />

0, i ≠ j,<br />

<strong>für</strong> alle i, j ∈ {1, . . .,n}. Die Vektoren von B sind also paarweise orthogonal<br />

<strong>und</strong> haben die Länge 1.<br />

(iii) Eine Matrix A ∈ M n,n (R) heißt orthogonal, falls <strong>für</strong> alle x, y ∈ R n gilt:<br />

〈A · x, A · y〉 = 〈x, y〉.<br />

Die Menge aller orthogonalen Matrizen A ∈ M n.n (R) bezeichnen wir mit<br />

O n (R).<br />

Die enge Beziehung zwischen Orthonormalbasen <strong>und</strong> orthogonalen Matrizen<br />

ergibt sich aus dem folgenden Satz.<br />

Satz 3.6.5 Für eine Matrix A ∈ M n,n (R) sind die folgenden Bedingungen<br />

äquivalent.<br />

(a) A ist orthogonal.<br />

(b) Die Spalten von A bilden eine Orthonormalbasis von R n .<br />

(c) A ist invertierbar, <strong>und</strong> es gilt A t = A −1 .<br />

111


Beweis: Sei E = (e 1 , . . . , e n ) die Einheitsbasis. Offenbar gilt 〈e i , e j 〉 = δ i,j ,<br />

d.h. E ist eine Orthonormalbasis. Setze v i := A · e i . Dann ist v i die ite Spalte<br />

von A, in Zeichen: A = (v 1 | · · · | v n ).<br />

Angenommen, A ist orthogonal. Dann folgt<br />

〈v i , v j 〉 = 〈A · e i , A · e j 〉 = 〈e i , e j 〉 = δ i,j . (85)<br />

Wir behaupten, dass das System B := (v 1 , . . . , v n ) automatisch eine Basis von<br />

R n ist. Aus Dimensionsgründen genügt es, die lineare Unabhängigkeit zu zeigen.<br />

Seien λ 1 , . . . , λ n ∈ R mit ∑ i λ i · v i = 0. Unter Ausnutzung der Linearität des<br />

Skalarproduktes (Proposition 3.6.3 (i)) <strong>und</strong> der Formel (85) folgt<br />

0 = 〈 ∑ i<br />

λ i · v i , v j 〉 = ∑ i<br />

λ i 〈v i , v j 〉 = λ j ,<br />

<strong>für</strong> alle j ∈ {1, . . .,n}. Damit haben wir die Implikation (i)⇒(ii) bewiesen.<br />

Zum Beweis von (ii)⇒(iii) nehmen wir an, dass B eine Orthonormalbasis ist.<br />

Wir schreiben<br />

A t · A = (c i,j ).<br />

Nach Definition der Matrizenmultiplikation ist der Eintrag c i,j das Skalarprodukt<br />

der iten Zeile von A t mit der jten Spalte von A, also<br />

c i,j = 〈v i , v j 〉 = δ i,j .<br />

Dies ist gleichbedeutend mit A t · A = E n . Es gilt also A t = A −1 , was zu zeigen<br />

war.<br />

Zum Schluss zeigen wir (iii)⇒(i). Sei A ∈ M n,n (R) eine Matrix mit A t ·A =<br />

E n <strong>und</strong> x, y ∈ R n . Unter Verwendung der Bemerkung 3.6.2 erhalten wir<br />

〈A · x, A · y〉 = (A · x) t · (A · y) = x t · (A t · A) · y = x t · y = 〈x, y〉,<br />

d.h. A ist orthogonal. Damit ist alles gezeigt.<br />

✷<br />

Korollar 3.6.6 Ist A ∈ M n,n (R) orthogonal, so gilt det(A) ∈ {1, −1}.<br />

Beweis: Aus A t · A = E n folgt mit Proposition 3.3.11:<br />

1 = det(E n ) = det(A) 2 .<br />

✷<br />

Bemerkung 3.6.7 Sind A, B ∈ O n (R) orthogonale Matrizen, so sind A · B<br />

<strong>und</strong> A −1 ebenfalls orthogonal; dies folgt sofort aus der Definition. Die Matrizenmultiplikation<br />

· definiert also eine assoziative Verknüpfung auf der Menge<br />

O n (R), die ein neutrales Element <strong>und</strong> inverse Elemente besitzt. Man sagt, dass<br />

(O n (R), · ) eine Gruppe ist.<br />

112


Im Folgenden wollen wir alle orthogonalen Matrizen der Dimension n = 2, 3<br />

klassifizieren.<br />

Satz 3.6.8 Sei A ∈ O 2 (R) ein orthogonale Matrix der Dimension zwei.<br />

(i) Falls det(A) = 1, so gibt es eine eindeutige reelle Zahl α ∈ [0, 2π) so, dass<br />

( )<br />

cosα − sinα<br />

A =<br />

.<br />

sin α cosα<br />

(ii) Falls det(A) = −1, so gibt es eine orthogonale Matrix S ∈ O 2 (R) mit<br />

det(S) = 1 <strong>und</strong><br />

( )<br />

S −1 1 0<br />

· A · S = .<br />

0 −1<br />

Beweis: Wir schreiben<br />

( )<br />

x1 y<br />

A = 1<br />

= (x | y), x =<br />

x 2 y 2<br />

(<br />

x1<br />

Die Orthogonalität von A ist gleichbedeutend mit<br />

x ⊥ y, ||x|| = ||y|| = 1.<br />

x 2<br />

)<br />

, y =<br />

(<br />

y1<br />

y 2<br />

)<br />

.<br />

Insbesondere gilt x, y ≠ 0. Die Bedingung x ⊥ y lautet als Gleichung<br />

x 1 y 1 + x 2 y 2 = 0.<br />

Fasst man diese Gleichung als lineares Gleichungssystem in den Unbestimmten<br />

y 1 , y 2 auf, so hat der Lösungsraum wegen x ≠ 0 die Dimension eins; eine Basis<br />

des Lösungsraumes ist die Lösung y 1 := −x 2 , y 2 := x 1 . Es gibt also eine<br />

eindeutig bestimmte relle Zahl λ ≠ 0 mit<br />

y 1 = −λx 2 , y 2 = λx 1 .<br />

Die Bedingungen ||x|| = ||y|| = 1 implizieren nun<br />

1 = y 2 1 + y2 2 = λ2 (x 2 1 + x2 2 ) = λ2 ,<br />

also λ = ±1.<br />

Nehmen wir also zunächst λ = 1 an. Dann gilt<br />

( )<br />

x1 −x<br />

A = 2<br />

,<br />

x 2 x 1<br />

mit det(A) = x 2 1 + x 2 2 = ||x|| 2 = 1. Wie in Lemma 3.5.3 zeigen wir, dass es ein<br />

eindeutig bestimmtes α ∈ [0, 2π) gibt mit x 1 = cosα, x 2 = sinα. Der Fall (i)<br />

von Satz 3.6.5 ist damit bewiesen.<br />

113


Nun zum Fall λ = −1. Es gilt dann<br />

( )<br />

x1 x<br />

A = 2<br />

.<br />

x 2 −x 1<br />

Das charakteristische Polynom von A,<br />

P A = t 2 − (x 2 1 + x2 2 ) = t2 − 1 = (t − 1)(t + 1),<br />

hat zwei verschiedene Nullstellen, 1 <strong>und</strong> −1. Es gibt also eine Basis B = (v, w)<br />

von R 2 mit A · v = v, A · w = −w. Durch Multiplikation der Vektoren v, w mit<br />

dem Kehrwert ihrer Länge kann man erreichen, dass ||v|| = ||w|| = 1. Aus der<br />

Orthogonalität von A folgt zusätzlich<br />

〈v, w〉 = 〈A · v, A · w〉 = 〈v, −w〉 = −〈v, w〉,<br />

also 〈v, w〉 = 0. Die Basis B ist also eine Orthonormalbasis aus Eigenvektoren.<br />

Setzt man S := (v | w) = TE B, so ist S eine orthogonale Matrix, <strong>und</strong> S−1 AS<br />

ist eine Diagonalmatrix mit Diagonaleinträgen 1, −1 ist. Es gilt det(S) = ±1.<br />

Im Fall det(S) = −1 kann man durch Ersetzen von v durch −v erreichen, dass<br />

det(S) = 1, ohne an den anderen gewünschten Eigenschaften von S etwas zu<br />

ändern. Damit ist alles gezeigt.<br />

✷<br />

Zur geometrischen Interpretation des soeben bewiesenen Satzes betrachten<br />

wir den durch A gegebenen Endomorphismus der Ebene<br />

R 2 → R 2 , z ↦→ A · z.<br />

Die Orthogonalität von A bedeutet, dass dieser Endomorphimus längen- <strong>und</strong><br />

winkeltreu ist; einen Endomorphismus mit dieser Eigenschaft nennt man eine<br />

Isometrie. Der Satz 3.6.8 liefert eine einfache Klassifizierung aller Isometrien der<br />

Euklidischen Ebene, genauer: eine Einteilung in Drehungen <strong>und</strong> Spiegelungen.<br />

Sei A = (x | y) ∈ O 2 (R) eine orthogonale Matrix. Die Zeilen x, y von A<br />

sind die Bilder der Standardbasisvektoren e 1 , e 2 , d.h. x = A · e 1 , y = A · e 2 .<br />

Da A orthogonal ist, haben x, y die Länge 1 <strong>und</strong> stehen senkrecht aufeinander.<br />

Wählt man <strong>für</strong> x einen beliebigen Vektor der Länge 1, so bleiben genau zwei<br />

Möglichkeiten <strong>für</strong> den Vektor y, da die auf x senkrecht stehende Gerade, d.h.<br />

der Untervektorraum<br />

〈x〉 ⊥ := { z ∈ R 2 | z ⊥ x }<br />

den Einheitskreis in genau zwei Punkten schneidet.<br />

114


✻<br />

〈x〉 ⊥<br />

e 2<br />

x<br />

✕<br />

❪ z ↦→ A · z<br />

y<br />

❨<br />

α<br />

e 1<br />

✲<br />

Wir nehmen zunächst an, dass y der Vektor ist, den man erhält wenn man x um<br />

den Winkel π/2 gegen den Uhrzeigersinn dreht. Bezeichnet α den Winkel zwischen<br />

e 1 <strong>und</strong> x (gegen den Uhrzeigersinn gemessen), so ist der Winkel zwischen<br />

e 2 <strong>und</strong> y ebenfalls α. Die Drehung der Ebene um den Winkel α bildet demnach<br />

e 1 auf x <strong>und</strong> e 2 auf y ab. Sie ist deshalb identisch mit der Abbildung z ↦→ A · z.<br />

Dies ist der Fall (i) von Satz 3.6.8.<br />

Nun betrachten wir den Fall, dass es sich bei y um den Vektor handelt, den<br />

man durch Drehung von x um den Winkel π/2 im Uhrzeigersinn erhält. Es ist<br />

sofort klar, dass der Endomorphismus z ↦→ A · z keine Drehung sein kann. Nun<br />

sei<br />

( ) cos(α/2)<br />

v := , w :=<br />

sin(α/2)<br />

( − sin(α/2)<br />

cos(α/2)<br />

)<br />

∈ R 2 .<br />

Offenbar ist B := (v, w) eine Orthonormalbasis von R 2 , die man durch Rotation<br />

der Standardbasis (e 1 , e 2 ) um den Winkel α/2 erhält. Der von v aufgespannte<br />

Untervektorraum<br />

V := R · v ⊂ R 2<br />

ist also die Gerade durch den Nullpunkt, die den Winkel zwischen e 1 <strong>und</strong> x<br />

halbiert.<br />

V ⊥ = R · w❑<br />

✻<br />

✕<br />

V = R · v<br />

✯<br />

e 2 x<br />

y<br />

α<br />

e 1<br />

✲<br />

❥<br />

115


Da w senkrecht auf v <strong>und</strong> y senkrecht auf x steht, sieht man leicht ein, dass V<br />

auch den Winkel zwischen e 2 <strong>und</strong> y halbiert.<br />

Nun sei φ : R 2 → R 2 die Spiegelung der Ebene an der Gerade V . Nach<br />

Konstruktion gilt dann φ(v) = v <strong>und</strong> φ(w) = −w. Mit anderen Worten: die<br />

darstellende Matrix von φ bezüglich der Basis B ist<br />

( )<br />

MB B 1 0<br />

(φ) = .<br />

0 −1<br />

Andererseits führt die im vorhergehenden Absatz beschriebene Eigenschaft von<br />

V als Winkelhalbierende durch eine elementargeometrische Überlegung zu den<br />

Gleichungen<br />

φ(e 1 ) = x, φ(e 2 ) = y.<br />

Es folgt<br />

φ(z) = A · z, ∀ z ∈ R 2 ,<br />

d.h. A ist die darstellende Matrix der Spiegelung φ bzgl. der Standardbasis.<br />

Insgesamt erhalten wir die Gleichheit<br />

( ) 1 0<br />

A = ME E (φ) = T E B · M B B (φ) · T B E = S · · S<br />

0 −1<br />

−1 ,<br />

mit S := T B E<br />

= (v | w). Dies ist genau die Aussage von Satz 3.6.5 im Fall (ii).<br />

Wir kommen nun zum Fall n = 3.<br />

Satz 3.6.9 Sei A ∈ O 3 (R) eine orthogonal Matrix der Dimension 3. Dann gibt<br />

es eine orthogonale Matrix S ∈ O 3 (R) mit det(S) = 1 <strong>und</strong><br />

⎛<br />

S −1 · A · S = ⎝ ǫ 0 0 ⎞<br />

0 cosα − sinα⎠.<br />

0 sin α cosα<br />

Hierbei ist wie üblich α ∈ [0, 2π) <strong>und</strong><br />

ǫ := det(A) = ±1.<br />

Zuerst die geometrische Interpretation. Seien A <strong>und</strong> S orthogonale Matrizen<br />

wie im Satz <strong>und</strong> B = (v 1 , v 2 , v 3 ) die Orthonormalbasis der Spalten von S. Dann<br />

ist v 1 ein Eigenvektor von A mit Eigenwert ǫ = ±1; insbesondere ist die von v 1<br />

aufgespannte Gerade<br />

W := 〈v 1 〉 ⊂ R 3<br />

invariant unter dem Endomorphismus φ : R 3 → R 3 , x ↦→ A · x. Im Fall ǫ = 1<br />

wird W punktweise festgelassen, im Fall ǫ = −1 wird W in sich am Nullpunkt<br />

gespiegelt.<br />

Der von v 2 , v 3 aufgespannte Untervektorraum U ist genau das orthogonale<br />

Komplement von W,<br />

U := 〈v 2 , v 3 〉 = W ⊥ ,<br />

116


<strong>und</strong> ist ebenfalls φ-invariant. Die Einschränkung von φ auf U ist offenbar eine<br />

Drehung von U um den Winkel α.<br />

Im Fall det(A) = 1 nennen wir deshalb den von der orthogonalen Matrix A<br />

dargestellten Endomorphismus φ eine Drehung um die Achse W mit dem Winkel<br />

α. Der Vektor v 1 heißt der Richtungsvektor der Drehachse. Wir werden später<br />

sehen: eine Drehung des R 3 ist durch den Richtungsvektor der Drehachse <strong>und</strong><br />

den Drehwinkel eindeutig bestimmt (das liegt an der Bedingung det(S) = 1).<br />

U = W ⊥ α<br />

❖<br />

❑<br />

✕<br />

v 1<br />

v 2<br />

✿<br />

v 3<br />

W = 〈v 1 〉<br />

Korollar 3.6.10 Sei φ : R 3 → R 3 eine Drehung mit Drehwinkel α. Sei A ∈<br />

O 3 (R) die darstellende Matrix von φ (bzgl. der Standardbasis). Dann gilt<br />

Spur(A) = 1 + 2 cosα.<br />

(Zur Erinnerung: die Spur einer quadratischen Matrix ist die Summe der Diagonaleinträge.)<br />

Beweis: Die Spur von A tritt als Koeffizient von t 2 im charakteristischen<br />

Polynom auf,<br />

P A = −t 3 + Spur(A)t 2 + a 1 t − det(A).<br />

Da ähnliche Matrizen dasselbe charakteristische Polynom haben, folgt aus Satz<br />

3.6.9<br />

Spur(A) = Spur(S −1 AS) = ǫ + 2 cosα.<br />

Da A die Matrix einer Drehung ist, gilt ǫ = det(A) = 1.<br />

✷<br />

117


Bemerkung 3.6.11 Achtung: in einigen Formelsammlungen findet man das<br />

Korollar 3.6.10 auch in der Form<br />

α = arccos ( Spur(A) − 1) .<br />

2<br />

Diese Formel ist aber problematisch, da der Arkuskosinus immer einen Winkel<br />

α im Interval [0, π] liefert. Für eine Drehung um einen Winkel α > π liefert die<br />

Formel daher nicht das richtige Ergebnis.<br />

Dieses Problem hängt mit dem Begriff der Orientierung einer Drehung zusammen,<br />

worauf wir am Ende dieses Kapitel noch zurückkommen werden.<br />

Nun zum Beweis von Satz 3.6.9. Wir benötigen folgendes Lemma.<br />

Lemma 3.6.12 Sei A ∈ O n (R) eine orthogonale Matrix <strong>und</strong> v ∈ R n ein Eigenvektor<br />

von A zum Eigenwert λ ∈ R. Dann gilt:<br />

(i) λ ∈ {1, −1}, d.h. A · v = ±v.<br />

(ii) Der Untervektorraum<br />

U := 〈v〉 ⊥ := { u ∈ R n | u ⊥ v = 0 } ⊂ R n<br />

hat Dimension n − 1 <strong>und</strong> ist A-invariant, d.h.<br />

<strong>für</strong> alle u ∈ U.<br />

A · u ∈ U,<br />

Beweis: Aus der Orthogonalität von A schließen wir<br />

||v|| = ||A · v|| = ||λ · v|| = |λ| · ||v||.<br />

Wegen ||v|| ≠ 0 folgt daraus |λ| = 1, also λ = ±1.<br />

Zum Beweis von (ii) schreiben wir v = (x i ) <strong>und</strong> w = (y i ). Der Vektor w<br />

liegt dann in W genau dann, wenn<br />

x 1 y 1 + . . . + x n y n = 0.<br />

Der Untervektorraum U ⊂ R n ist also die Lösungsmenge eines homogenen<br />

linearen Gleichungssystems mit einer Gleichung, die nicht Null ist. Es folgt<br />

dim R (U) = n − 1. Ist u ∈ U, so folgt ausserdem (unter Verwendung von (i))<br />

0 = 〈v, u〉 = 〈A · v, A · u〉 = 〈±v, A · u〉 = ±〈v, A · u〉,<br />

also A · u ∈ U. Damit ist alles gezeigt.<br />

A,<br />

Beweis: (von Satz 3.6.9) Wir betrachten das charakteristische Polynom von<br />

P A = −t 3 + . . . + ǫ ∈ R[t].<br />

✷<br />

118


Man beachte, dass ǫ = det(A) = ±1. Da der Grad von P A eine ungerade<br />

Zahl ist, besitzt P A mindestens eine reelle Nullstelle λ ∈ R, siehe Bemerkung<br />

3.5.9. Nach Lemma 3.6.12 (i) sind λ = 1 <strong>und</strong> λ = −1 die einzigen möglichen<br />

Nullstellen.<br />

Wir behaupten, dass ǫ = det(A) ein Eigenwert von A ist. Zum Beweis der<br />

Behauptung nehmen wir an, dass dies nicht der Fall ist; dann wäre −ǫ die einzige<br />

reelle Nullstelle von P A .<br />

Es sind zunächst zwei Fälle denkbar. Im ersten Fall hätten wir eine Zerlegung<br />

P A = −(t + ǫ) · g, g = t 2 + b 1 t + b 0 ∈ R[t],<br />

wobei der quadratische Faktor g keine reelle Nullstellen besitzt. Dann sähe die<br />

Zerlegung von P A in komplexe Linearfaktoren folgendermassen aus:<br />

P A = −(t + ǫ)(t − µ)(t − ¯µ),<br />

mit einer nichtreellen Zahl µ ∈ C\R. Durch Ausmultplizieren <strong>und</strong> Vergleich des<br />

konstanten Koeffizienten erhalten wir<br />

ǫ = −ǫ · µ · ¯µ = −ǫ · |µ|.<br />

Wegen |µ| ≥ 0 führt dies zu einen Widerspruch. Also kann höchstens der zweite<br />

Fall eintreten, nämlich<br />

P A = −(t + ǫ) 3 .<br />

Wie oben liefert Ausmultiplizieren <strong>und</strong> Vergleich des konstanten Koeffizienten<br />

die unmögliche Gleichung<br />

ǫ = −ǫ 3 = −ǫ.<br />

Damit ist gezeigt, dass ǫ = det(A) ein Eigenwert von A ist.<br />

Sei v 1 ∈ R 3 ein Eigenvektor von A zum Eigenwert ǫ der Länge 1, d.h. mit<br />

||v 1 || = 1. Wir betrachten nun den Untervektorraum<br />

U := 〈v 1 〉 ⊥ ⊂ R 3 .<br />

Nach Lemma 3.6.12 (ii) hat U die Dimension 2 <strong>und</strong> ist A-invariant. Wir wählen<br />

nun eine Orthonormalbasis (v 2 , v 3 ) von U. Nach Konstruktion ist dann B :=<br />

(v 1 , v 2 , v 3 ) eine Orthonormalbasis von R 3 mit<br />

A · v 1 = ǫ · v 1 , A · v 2 , A · v 3 ∈ U = 〈v 2 , v 3 〉.<br />

Deshalb ist S := T B E<br />

= (v 1|v 2 |v 3 ) eine orthogonale Matrix mit der Eigenschaft<br />

⎛ ⎞<br />

ǫ 0 0<br />

S −1 · A · S = ⎝ 0 ⎠ ,<br />

B<br />

0<br />

<strong>und</strong> einer orthogonalen Matrix B ∈ O 2 (R). Aus<br />

ǫ = det(A) = ǫ · det(B)<br />

119


folgt ausserdem det(B) = 1. Nach Satz 3.6.8 gilt also<br />

( )<br />

cosα − sinα<br />

B =<br />

sin α cosα<br />

<strong>für</strong> ein gewisses α ∈ [0, 2π).<br />

Damit ist fast alles gezeigt, mit der Ausnahme, dass det(S) = ±1 gilt,<br />

im Satz aber det(S) = 1 verlangt wird. Man beachte aber, dass es bei der<br />

Konstruktion von S bzw. der Orthonormalbasis B = (v 1 , v 2 , v 3 ) nicht auf die<br />

Reihenfolge der beiden Vektoren v 2 , v 3 ankommt – wir haben nur benutzt, dass<br />

(v 2 , v 3 ) eine Orthonormalbasis des Untervektorraumes U = 〈v 1 〉 ⊥ ist. Durch<br />

Vertauschen von v 2 <strong>und</strong> v 3 dreht sich das Vorzeichen von det(S) um. Wir<br />

können also immer erreichen, dass det(S) = 1 gilt. Jetzt ist wirklich alles<br />

gezeigt.<br />

✷<br />

Orientierung<br />

Um die geometrische Interpretation von Satz 3.6.9 abzur<strong>und</strong>en, müssen wir<br />

noch die Bedingung det(S) = 1 verstehen. Dazu ist es hilfreich, zunächst allgemein<br />

das Konzept eines orientierten Vektorraumes zu diskutieren.<br />

Es sei im Folgenden V ein endlich dimensionaler R-Vektorraum. Wir bezeichnen<br />

mit X V die Menge aller Basen von V .<br />

Definition 3.6.13 Zwei Basen A, B ∈ X V von V heißen gleichorientiert, in<br />

Zeichen<br />

A ∼ B,<br />

wenn<br />

det(T A B ) > 0.<br />

Proposition 3.6.14 (i) Die soeben definierte Relation A ∼ B der Gleichorientiertheit<br />

ist eine Äquivalenzrelation auf der Menge X V aller Basen<br />

von V (siehe Definition 1.2.20).<br />

(ii) Es gibt genau zwei verschiedene Äquivalenzklassen, d.h. die Relation zerteilt<br />

X V in zwei disjunkte Teilmengen,<br />

X V = X V,1<br />

·∪ XV,2 .<br />

Beweis: Sei A ∈ X V eine Basis. Es gilt T A A = E n, also det(T A A ) = 1 > 0.<br />

Nach Definition ist daher A ∼ A, d.h. die Relation ist reflexiv.<br />

Sind A, B ∈ X V gegeben, so gilt T B A = (T A B )−1 (siehe Bemerkung 2.6.3).<br />

Aus A ∼ B folgt also wegen det(T A B ) > 0 auch<br />

det(T B A ) = 1/ det(T A B ) > 0,<br />

<strong>und</strong> somit B ∼ A. Die Relation ist daher symmetrisch.<br />

120


Nun seinen A, B, C ∈ X V Basen mit A ∼ B <strong>und</strong> B ∼ C. Aus der Kettenregel<br />

(Bemerkung 2.6.3) folgt dann<br />

det(T A C ) = det(T B C · T A B ) = det(T B C ) · det(T A B ) > 0,<br />

d.h. A ∼ C. Die Relation ist daher transitiv.<br />

Wir haben gezeigt, dass die Relation A ∼ B eine Äquivalenzrelation ist. Sei<br />

A = (v 1 , . . . , v n ) ∈ X V eine beliebige Basis. Dann ist B := (−v 1 , v 2 , . . .,v n )<br />

ebenfalls eine Basis. Die Basiswechselmatrix ist eine Diagonalmatrix mit Diagonaleinträgen<br />

−1, 1, . . ., 1; somit gilt<br />

det(TB A ) = −1 < 0.<br />

Die Basen A <strong>und</strong> B sind also nicht gleichorientiert, <strong>und</strong> es gibt mindestens zwei<br />

verschiedene Äquivalenzklassen.<br />

Nun sei C eine dritte Basis. Dann gilt entweder A ∼ C oder det(T A C ) < 0.<br />

Im letzteren Fall folgt aber aus der Kettenregel<br />

det(T B C ) = det(T A C ) · det(T A B )−1 = − det(T A C ) > 0.<br />

Es ist also entweder A ∼ C oder B ∼ C. Damit ist alles gezeigt.<br />

✷<br />

Definition 3.6.15 Eine Orientierung von V ist eine Äquivalenzklasse von gleichorientierten<br />

Basen, also eine Teilmenge von X V der Form<br />

X + V = [A] ∼ ⊂ X V .<br />

Die Elemente von X + V<br />

heißen positiv orientierte Basen von V (bezüglich der<br />

gewählten Orientierung).<br />

Beispiel 3.6.16 Sei V := R n der euklidische Standardvektorraum der Dimension<br />

n <strong>und</strong> E = (e 1 , . . . , e n ) die Standardbasis. Die Orientierung von V ,<br />

bezüglich der E positiv orientiert ist, heißt die Standardorientierung von V .<br />

Eine Basis B = (v 1 , . . . , v n ) von V ist also positiv orientiert genau dann, wenn<br />

det(v 1 | · · · |v n ) > 0.<br />

Proposition 3.6.14 besagt: ein endlichdimensionaler reeller Vektorraum V<br />

hat genau zwei mögliche Orientierungen. Wir wollen dies nun in den Fällen<br />

n = dim R (V ) = 1, 2, 3 durch geometrische Überlegungen nachvollziehen.<br />

Sei zunächst n = 1. Wir stellen uns den Vektorraum V in diesem Fall als<br />

eine Gerade vor, auf der wir einen Ursprungspunkt 0 ∈ V gewählt haben. Eine<br />

Basis von V besteht einfach aus einem beliebigen Vektor v ∈ V mit v ≠ 0. Die<br />

Menge V \{0} zerfällt offenbar in zwei Zusammenhangskomponenten,<br />

V \{0} = V + ·<br />

∪ V − .<br />

121


Diese Zerlegung entspricht gerade den zwei möglichen Orientierungen. Wählen<br />

wir ein Element v ∈ V + als den Basisvektor einer orientierten Basis, so liefert<br />

ein zweiter Vektor w ≠ 0 genau dann eine orientierte Basis, wenn w ebenfalls<br />

in V + liegt (denn dann gilt w = λ · v mit λ > 0). Geometrisch gesprochen<br />

haben gleichorientierte Vektoren dieselbe Richtung. Eine Orientierung von V<br />

entspricht deshalb der Wahl einer Richtung.<br />

V −<br />

V +<br />

✮<br />

v<br />

0<br />

Ein entscheidender Punkt ist, das gr<strong>und</strong>sätzlich keine der zwei möglichen<br />

Orientierungen (bzw. Richtungen) von V Vorrang vor der anderen hat. Welche<br />

Orientierung/Richtung von V man als ‘natürlich’ empfindet, hängt nämlich vom<br />

Blickwinkel ab, von dem aus man die Gerade V betrachtet.<br />

Im Fall n = 2 stellen wir uns V als eine Ebene vor, auf der wir einen Ursprungspunkt<br />

0 ∈ V gewählt haben. Im Unterschied zum eindimensionalen Fall<br />

zerfällt V \{0} offenbar nicht in zwei Zusammenhangskomponenten, es macht<br />

also keinen Sinn, der Ebene V eine ‘Richtung’ zu geben. Die richtige Verallgemeinerung<br />

auf den zweidimensionalen Fall ist die Aussage, dass die Menge X V<br />

aller Basen von V in zwei ‘Zusammenhangskomponenten’ zerfällt,<br />

X V = X + V<br />

·<br />

∪ X − V ,<br />

nämlich den zwei möglichen Orientierungen. Konkret bedeutet das folgendes:<br />

ist eine Basis B = (v 1 , v 2 ) von V gegeben, so müssen wir eine geometrische<br />

Vorschrift haben, nach der wir entscheiden können, ob B positiv orientiert ist<br />

(also B ∈ X + V<br />

) oder nicht.<br />

Wir werden im Folgenden zeigen, dass so eine Vorschrift ihrem Wesen nach<br />

von unserer Blickrichtung auf die Ebene V abhängt. Mit Blickrichtung meinen<br />

wir hier die Position eines Betrachters, der in einem die Ebene V umgebenden<br />

dreidimensionalen Raum von außen auf V schaut. (Beispiel: ein(e) Student(in)<br />

sitzt am Schreibtisch <strong>und</strong> betrachtet ein vor ihm/ihr liegendes Übungsblatt.)<br />

Wir nehmen also eine Blickrichtung auf V ein. Sei B = (v 1 , v 2 ) eine Basis<br />

von V <strong>und</strong> W := 〈v 1 〉 ⊂ V der vom ersten Basisvektor aufgespannte Untervektorraum<br />

(eine Gerade). Da v 1 <strong>und</strong> v 2 linear unabhängig sind, liegt v 2 nicht in<br />

W. Das Komplement von W zerfällt offenbar in zwei ‘Hälften’. Außerdem hat<br />

die Gerade W durch Wahl des Basisvektors v 1 eine vorgegebene Richtung bzw.<br />

Orientierung. Wir nennen V + (bzw. V − ) diejenige Hälfte von V \W, die ‘links’<br />

von W (bzw. ‘rechts’ von W) liegt. Die Einteilung in ‘links’ <strong>und</strong> ‘rechts’ nimmt<br />

dabei ein Beobachter vor, von dessen Standpunkt aus der Richtungsvektor v 1<br />

von W nach oben zeigt.<br />

122


V<br />

W = 〈v 1 〉<br />

❑<br />

v 2<br />

✒<br />

v 1<br />

V + V −<br />

Wir sagen nun, dass die Basis B = (v 1 , v 2 ) positiv orientiert ist, wenn der zweite<br />

Basisvektor in der linken Hälfte liegt, v 2 ∈ V + .<br />

Man beachte, dass diese Vereinbarung ganz wesentlich von unserer gewählten<br />

Blickrichtung auf V abhängt. Ein Betrachter, der V von der anderen Seite sieht,<br />

würde V − als linke Hälfte <strong>und</strong> V + als rechte Hälfte wahrnehmen.<br />

Wir behaupten, dass die Teilmenge X + V ⊂ X V aller im soeben definierten<br />

Sinne positiv orientierter Basen eine Orientierung von V ist. Dazu ist folgendes<br />

zu zeigen. Sind B <strong>und</strong> C Basen von V <strong>und</strong> ist B positiv orientiert, so gilt:<br />

C positiv orientiert ⇔ det(T B C ) > 0.<br />

Wir empfehlen dem interessierten Leser, einen Beweis dieser Behauptung als<br />

Übungsaufgabe auszuformulieren. 12<br />

Die obige Interpretation der Orientierung einer Ebene ist insofern unbefriedigend,<br />

als sie von einem außerhalb der Ebene angenommenen Standpunkt<br />

abhängt. In der Mathematik ist man aber bestrebt, geometrische Begriffe<br />

vollständig von ‘innen’ heraus zu erkären. Das ist im Fall der Orientierung<br />

einer Ebene auch möglich <strong>und</strong> führt uns zu dem Begriff des Drehsinnes.<br />

Wir nehmen an, dass wir eine Orientierung der Ebene V gewählt haben.<br />

Wir können dann auch eine orientierte Orthonormalbasis B = (v 1 , v 2 ) wählen.<br />

Wir definieren nun die orientierte Drehung von V um den Winkel α ∈ R als die<br />

Isometrie φ α : V → ∼ V , die bezüglich B durch die Matrix<br />

( )<br />

cosα − sinα<br />

A α =<br />

sin α cosα<br />

dargestellt wird.<br />

Der entscheidende Punkt ist, dass die Drehung φ α nur von dem Winkel α<br />

<strong>und</strong> der Orientierung von V abhängt, nicht aber von der gewählten Orthonormalbasis<br />

B. Denn wenn B durch eine andere orientierte Orthonormalbasis B ′<br />

12 Hinweis: man untersuche zunächst die folgenden Spezialfälle (<strong>für</strong> eine fest gewählte, positiv<br />

orientierte Basis B = (v 1 , v 2 )):<br />

• C = (λ · v 1 , v 2 ), mit λ ≠ 0,<br />

• C = (v 1 , v 2 + λ · v 1 ), mit λ ∈ R, <strong>und</strong><br />

• C = (v 2 , v 1 ).<br />

123


ersetzt wird, müßte man a priori die Matrix A α durch S −1 · A α · S ersetzen,<br />

wobei S := TB<br />

B′ eine orthogonale Matrix ist. Da aber B <strong>und</strong> B′ nach Annahme<br />

orientierte Basen sind, gilt detS = 1. Nach Satz 3.6.8 ist S daher selbst eine<br />

Drehmatrix <strong>und</strong> kommutiert mit A α . Daraus folgt, dass S −1 · A α · S = A α <strong>und</strong><br />

dass φ α nicht von der Wahl von B abhängt.<br />

Die Definition φ α hängt tatsächlich von der gewählten Orientierung von V<br />

ab; ändert man die Orientierung, so erhält man statt φ α die Drehung φ −1<br />

α =<br />

φ −α . Denn ist S eine orthogonale Matrix mit detS = −1 (eine Spiegelung), so<br />

gilt<br />

S −1 · A α · S = A −1<br />

α = A −α .<br />

Wir sehen: eine Orientierung von V entspricht einem Drehsinn, genauer:<br />

einer eindeutigen Unterscheidung zwischen den beiden Drehungen um die Winkel<br />

α <strong>und</strong> −α.<br />

Schließlich wollen wir noch den Fall n = 3 diskutieren. Zwar ist uns das<br />

räumliche Denken vertraut, aber im Vergleich zum Fall n = 2 sind wir nicht in<br />

der Lage, uns einen dreidimensionalen Raum ‘von außen’, also als eingebettet<br />

in einen höherdimensionalen Raum vorzustellen.<br />

Wie ist es möglich, dass wir uns als Gefangene in drei Dimensionen über<br />

eine Orientierung des uns umgebenden Raumes einigen können, die unabhängig<br />

von unserem persönlichen Standpunkt ist? Wir können diese Frage nur pragmatisch<br />

beantworten, indem wir z.B. die ‘Rechte-Hand-Regel’ benutzen. Die<br />

besagt, dass Daumen, Zeigefinger, Mittelfinger (in dieser Reihenfolge) einer<br />

rechten Hand einer positiv orientierten Basis B = (v 1 , v 2 , v 3 ) des uns umgebenden<br />

Raumes V entsprechen. Nach dieser Regel ist z.B. die im Bild auf Seite 117<br />

dargestellte Basis B = (v 1 , v 2 , v 3 ) positiv orientiert.<br />

Wie im oben diskutierten Fall n = 2 entspricht die Wahl einer Orientierung<br />

einem Drehsinn des Raumes. Genauer kann man, nach Wahl einer Orientierung<br />

<strong>und</strong> ausgehend von einem Vektor v 1 der Länge 1 <strong>und</strong> einer reellen Zahl α, die<br />

orientierte Drehung φ α : V → V mit Drehachse v 1 <strong>und</strong> Drehwinkel α definieren.<br />

Dazu ergänzt man v 1 zu einer orientierten Orthonormalbasis B = (v 1 , v 2 , v 3 )<br />

<strong>und</strong> definiert φ α als die lineare Abbildung mit darstellender Matrix<br />

⎛<br />

A α := ⎝ 1 0 0 ⎞<br />

0 cosα − sinα⎠<br />

0 sin α cosα<br />

bezüglich B. Mit dem gleichen Argument wie oben zeigt man: φ α hängt nur<br />

von der Orientierung von V , von der Drehachse v 1 <strong>und</strong> dem Drehwinkel α ab,<br />

nicht aber von der Basis B. ändert man die Orientierung (oder ersetzt v 1 durch<br />

−v 1 ), so erhält man φ −1<br />

α = φ −α anstelle von φ α .<br />

Siehe das Bild auf Seite 117 <strong>und</strong> die Bemerkung 3.6.11.<br />

124

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!