20.12.2013 Aufrufe

Lineare Algebra II - Institut für Algebraische Geometrie - Leibniz ...

Lineare Algebra II - Institut für Algebraische Geometrie - Leibniz ...

Lineare Algebra II - Institut für Algebraische Geometrie - Leibniz ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Lineare</strong> <strong>Algebra</strong> <strong>II</strong><br />

Sommersemester 2009<br />

Wolfgang Ebeling<br />

1


c○Wolfgang Ebeling<br />

<strong>Institut</strong> für <strong>Algebra</strong>ische <strong>Geometrie</strong><br />

<strong>Leibniz</strong> Universität Hannover<br />

Postfach 6009<br />

30060 Hannover<br />

E-mail: ebeling@math.uni-hannover.de


1 Summen von Vektorräumen 3<br />

1 Summen von Vektorräumen<br />

Im Folgenden sei K zunächst ein beliebiger Körper. Wir betrachten verschiedene<br />

Summen von Vektorräumen.<br />

Definition Es sei V ein K-Vektorraum und U 1 , U 2 Unterräume von V .<br />

Dann heißt<br />

U 1 + U 2 := {u 1 + u 2 | u 1 ∈ U 1 , u 2 ∈ U 2 }<br />

die Summe von U 1 und U 2 .<br />

Lemma 1.1 Für die oben definierte Summe U 1 +U 2 der Unterräume U 1 und<br />

U 2 gilt:<br />

(i) U 1 + U 2 = Span(U 1 ∪ U 2 ).<br />

(ii) U 1 + U 2 ⊆ V ist ein Unterraum.<br />

(iii) dim(U 1 + U 2 ) ≤ dim U 1 + dim U 2 .<br />

Beweis. (i) U 1 + U 2 ⊆ Span(U 1 ∪ U 2 ) ist klar. Zum Beweis der umgekehrten<br />

Inklusion sei v ∈ Span(U 1 ∪ U 2 ). Dann gibt es u 1 , . . . , u k ∈ U 1 , w 1 , . . . , w m ∈<br />

U 2 und λ 1 , . . . , λ k , µ 1 , . . . , µ m ∈ K mit<br />

v = λ 1 u 1 + · · · + λ k u k + µ 1 w 1 + · · · + µ m w m .<br />

Setze v 1 := λ 1 u 1 + · · · + λ k u k und v 2 := µ 1 w 1 + · · · + µ m w m . Dann ist v 1 ∈ U 1<br />

und v 2 ∈ U 2 , also v = v 1 + v 2 ∈ U 1 + U 2 .<br />

(ii) folgt aus (i).<br />

(iii) Ist u 1 , . . . , u k eine Basis von U 1 und w 1 , . . . , w m eine Basis von U 2 , so<br />

ist u 1 , . . . , u k , w 1 , . . . , w m ein Erzeugendensystem von Span(U 1 ∪ U 2 ). Damit<br />

folgt die Behauptung aus (i).<br />

✷<br />

Satz 1.1 (Dimensionsformel für Summen) Für endlich dimensionale Unterräume<br />

U 1 , U 2 ⊆ V gilt<br />

dim(U 1 + U 2 ) = dim U 1 + dim U 2 − dim(U 1 ∩ U 2 ).<br />

Beweis. Es sei {v 1 , . . . , v m } eine Basis von U 1 ∩ U 2 . Wir ergänzen diese Basis<br />

zu Basen<br />

{v 1 , . . . , v m , u 1 , . . . , u k } von U 1 und {v 1 , . . . , v m , u ′ 1, . . . , u ′ l} von U 2 .<br />

Wir müssen zeigen:<br />

B := {v 1 , . . . , v m , u 1 , . . . , u k , u ′ 1, . . . , u ′ l} ist eine Basis von U 1 + U 2 .


1 Summen von Vektorräumen 4<br />

Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪ U 2 ) und nach<br />

Lemma 1.1(i) damit von U 1 + U 2 ist. Wir müssen also noch zeigen, dass B<br />

linear unabhängig ist. Dazu sei<br />

Wir setzen<br />

λ 1 v 1 + · · · + λ m v m + µ 1 u 1 + · · · + µ k u k + µ ′ 1u ′ 1 + · · · + µ ′ lu ′ l = 0.<br />

v := λ 1 v 1 + · · · + λ m v m + µ 1 u 1 + · · · + µ k u k .<br />

Dann ist v ∈ U 1 und −v = µ ′ 1u ′ 1 + · · · + µ ′ l u′ l ∈ U 2. Daraus folgt v ∈ U 1 ∩ U 2 .<br />

Also ist<br />

v = λ ′ 1v 1 + · · · + λ ′ mv m<br />

für gewisse Skalare λ ′ 1, . . . , λ ′ m. Da {v 1 , . . . , v m , u 1 , . . . , u k } eine Basis von U 1<br />

bildet, folgt aus der Eindeutigkeit der Darstellung von v als Linearkombination<br />

der Vektoren dieser Basis insbesondere µ 1 = · · · = µ k = 0. Setzen wir<br />

dies in die obige Gleichung ein, so folgt<br />

λ 1 = · · · = λ m = µ ′ 1 = · · · = µ ′ l = 0.<br />

Lemma 1.2 Ist V = U 1 + U 2 , so sind die folgenden Aussagen äquivalent:<br />

(i) U 1 ∩ U 2 = {0}.<br />

(ii) Jedes v ∈ V lässt sich eindeutig darstellen als v = u 1 + u 2 mit u 1 ∈ U 1<br />

und u 2 ∈ U 2 .<br />

(iii) Je zwei vom Nullvektor verschiedene Vektoren u 1 ∈ U 1 und u 2 ∈ U 2<br />

sind linear unabhängig.<br />

Beweis. (i) ⇒ (ii): Es sei<br />

v = u 1 + u 2 = u ′ 1 + u ′ 2 (u 1 , u ′ 1 ∈ U 1 , u 2 , u ′ 2 ∈ U 2 ).<br />

Dann folgt u 1 − u ′ 1 = u ′ 2 − u 2 ∈ U 1 ∩ U 2 , nach (i) also u 1 − u ′ 1 = u ′ 2 − u 2 = 0.<br />

(ii) ⇒ (iii): Nach (ii) besitzt der Nullvektor eine eindeutige Darstellung<br />

0 = 0u 1 + 0u 2 .<br />

(iii) ⇒ (i): Es sei 0 ≠ v ∈ U 1 ∩ U 2 . Dann sind nach (iii) v und −v linear<br />

unabhängig im Widerspruch zu 1v + (−1)v = 0.<br />

✷<br />

Ist eine der drei äquivalenten Bedingungen von Lemma 1.2 erfüllt, so<br />

heißt V die direkte Summe von U 1 und U 2 . Also gilt z. B.:<br />


1 Summen von Vektorräumen 5<br />

Definition Ein Vektorraum V heißt direkte Summe von zwei Unterräumen<br />

U 1 und U 2 , in Zeichen V = U 1 ⊕ U 2 , wenn<br />

V = U 1 + U 2 und U 1 ∩ U 2 = {0}.<br />

Beispiel 1.1 Es sei V = R 3 . Ist U 1 = Span{e 1 , e 2 } und U 2 = Span{e 3 }, so<br />

ist V = U 1 ⊕ U 2 . Ist dagegen U 3 = Span{e 2 , e 3 }, so ist zwar V = U 1 + U 3 , die<br />

Summe ist aber nicht direkt, da U 1 ∩ U 3 = Span{e 2 }.<br />

Satz 1.2 Es sei V ein endlich dimensionaler K-Vektorraum und U 1 , U 2 Untervektorräume<br />

von V . Dann sind die folgenden Bedingungen äquivalent:<br />

(i) V = U 1 ⊕ U 2 .<br />

(ii) Es gibt Basen {u 1 , . . . , u k } von U 1 und {u ′ 1, . . . , u ′ l } von U 2, so dass<br />

{u 1 , . . . , u k , u ′ 1, . . . , u ′ l } eine Basis von V ist.<br />

(iii) Es gilt V = U 1 + U 2 und dim V = dim U 1 + dim U 2 .<br />

Beweis. (i) ⇒ (ii) folgt aus dem Beweis der Dimensionsformel (Satz 1.1) und<br />

der Tatsache, dass U 1 ∩ U 2 = {0}.<br />

(ii) ⇒ (iii) ist klar.<br />

(iii) ⇒ (i): Aus der Dimensionsformel folgt dim(U 1 ∩ U 2 ) = 0. Daraus<br />

folgt U 1 ∩ U 2 = {0}.<br />

✷<br />

Definition Es sei U ⊆ V ein Unterraum. Ein Unterraum W ⊆ V heißt<br />

Komplement von U in V , falls<br />

U ⊕ W = V.<br />

Bemerkung 1.1 Zu einem Unterraum U ist ein Komplement W im Allgemeinen<br />

nicht eindeutig bestimmt: Ist zum Beispiel V = R 3 und U =<br />

Span{e 1 , e 2 }, so sind W 1 = Span{e 3 } und W 2 = Span{e 1 + e 3 } Komplemente<br />

von U.<br />

Satz 1.3 Ist V endlich dimensional und U ⊆ V ein Unterraum, so besitzt<br />

U ein Komplement in V .<br />

Beweis. Man nehme eine Basis {v 1 , . . . , v r } von U und ergänze sie nach I,<br />

Satz 11.4, zu einer Basis {v 1 , . . . , v r , v r+1 , . . . , v n } von V . Man setze<br />

W := Span{v r+1 , . . . , v n }.<br />

Nun sei K = R oder K = C und (V, 〈 , 〉) ein euklidischer (K = R) oder<br />

unitärer (K = C) Vektorraum .<br />


1 Summen von Vektorräumen 6<br />

Definition<br />

Es sei V ein euklidischer (unitärer) Vektorraum.<br />

(a) Zwei Vektoren v, w ∈ V heißen orthogonal, in Zeichen v ⊥ w, falls<br />

〈v.w〉 = 0.<br />

(b) Zwei Unterräume U, W ⊆ V heißen orthogonal, in Zeichen U ⊥ W ,<br />

falls u ⊥ w für alle u ∈ U, w ∈ W .<br />

(c) Ist U ein Unterraum, so heißt<br />

U ⊥ := {v ∈ V | 〈u, v〉 = 0 für alle u ∈ U}<br />

das orthogonale Komplement von U.<br />

Bemerkung 1.2 Das orthogonale Komplement U ⊥ eines Unterraums U ist<br />

ein Unterraum. Aus dem unten stehenden Satz 1.4 folgt, dass es ein Komplement<br />

von U ist.<br />

Definition Es sei V ein euklidischer (unitärer) Vektorraum und U 1 , U 2<br />

Unterräume von V . Man sagt, V ist die orthogonale direkte Summe der Unterräume<br />

U 1 und U 2 , in Zeichen V = U 1 ⊥ U 2 , falls<br />

(i) V = U 1 ⊕ U 2 und<br />

(ii) U 1 ⊥ U 2 .<br />

Lemma 1.3 Es sei V ein euklidischer (unitärer) Vektorraum und U 1 , U 2<br />

Unterräume von V . Gilt<br />

(i) V = U 1 + U 2 und<br />

(ii) U 1 ⊥ U 2 ,<br />

so ist V die orthogonale direkte Summe der Unterräume U 1 und U 2 .<br />

Beweis. Wir haben zu zeigen: U 1 ∩ U 2 = {0}. Es sei v ∈ U 1 ∩ U 2 , v ≠ 0.<br />

Wegen (i) ist v = u 1 + u 2 mit u 1 ∈ U 1 und u 2 ∈ U 2 . Dann gilt<br />

0 ≠ 〈v, v〉 = 〈v, u 1 〉 + 〈v, u 2 〉 = 0 wegen (ii),<br />

ein Widerspruch.<br />

✷<br />

Satz 1.4 Es sei V ein endlich dimensionaler euklidischer (unitärer) Vektorraum<br />

und W ⊆ V ein Unterraum. Dann gilt<br />

V = W ⊥ W ⊥ .<br />

Insbesondere ist<br />

dim V = dim W + dim W ⊥ .


1 Summen von Vektorräumen 7<br />

Beweis. Es sei {w 1 , . . . , w m } eine ON-Basis von W . Diese ergänze man nach<br />

I, Satz 20.2, zu einer ON-Basis {w 1 , . . . , w m , w m+1 , . . . , w n } von V . Dann ist<br />

w m+1 , . . . , w n ∈ W ⊥ . Es sei nun v ∈ V . Dann können wir v schreiben als<br />

mit<br />

v = λ 1 w 1 + · · · + λ m w m + λ m+1 w m+1 + · · · + λ n w n<br />

λ 1 w 1 + · · · + λ m w m ∈ W, λ m+1 w m+1 + · · · + λ n w n ∈ W ⊥ .<br />

Daraus folgt die Behauptung.<br />

Wir wollen nun auch Summen von mehr als zwei Unterräumen betrachten.<br />

Definition Es sei V ein K-Vektorraum und U 1 , . . . , U s Unterräume von V .<br />

Dann heißt<br />

U 1 + · · · + U s := {u 1 + · · · + u s | u i ∈ U i , i = 1, . . . , s}<br />

die Summe von U 1 , . . . , U s .<br />

Wie oben beweist man:<br />

Lemma 1.4 Für die Summe U 1 + · · · + U s der Unterräume U 1 , . . . , U s gilt:<br />

(i) U 1 + · · · + U s = Span(U 1 ∪ · · · ∪ U s ).<br />

(ii) U 1 + · · · + U s ⊆ V ist ein Unterraum.<br />

(iii) dim(U 1 + · · · + U s ) ≤ dim U 1 + · · · + dim U s .<br />

Satz 1.5 Ist V = U 1 + · · · + U s , so sind die folgenden Aussagen äquivalent:<br />

(i) Für jedes i = 1, . . . , s gilt: Ist W i := U 1 + · · · + Ûi + · · · + U s , so ist<br />

U i ∩W i = {0}. (Hierbei bedeutet Ûi: In der Summe wird U i weggelassen,<br />

”nimmt seinen Hut und geht”.)<br />

(ii) Jedes Element v ∈ V lässt sich eindeutig darstellen als v = u 1 +· · ·+u s<br />

mit u i ∈ U i .<br />

(iii) Für jede Teilmenge I ⊆ {1, . . . , s} gilt: Ist für i ∈ I u i ∈ U i , u i ≠ 0, so<br />

ist die Teilmenge S I := {u i | i ∈ I} linear unabhängig.<br />

Definition Ist eine der äquivalenten Bedingungen von Satz 1.5 erfüllt, so<br />

heißt V die direkte Summe von U 1 , . . . , U s , in Zeichen V = U 1 ⊕ · · · ⊕ U s .<br />


1 Summen von Vektorräumen 8<br />

Beweis. (i) ⇒ (ii): Es sei<br />

Dann folgt<br />

v = u 1 + · · · + u s = u ′ 1 + · · · + u ′ s (u i , u ′ i ∈ U i ).<br />

u i −u ′ i = (u ′ 1−u 1 )+· · ·+(u ′ i−1−u i−1 )+(u ′ i+1−u i+1 )+· · ·+(u ′ s−u s ) ∈ W i ∩U i .<br />

Nach (i) folgt u i − u ′ i = 0.<br />

(ii) ⇒ (iii): Es sei I = {i 1 , . . . , i r } ⊆ {1, . . . , s} und<br />

λ 1 u i1 + · · · + λ r u ir = 0.<br />

Da nach (ii) auch der Nullvektor 0 ∈ V eine eindeutige Darstellung<br />

0 = 0u i1 + · · · + 0u ir<br />

besitzt, folgt λ 1 = . . . = λ r = 0.<br />

(iii) ⇒ (i): Es sei W i ∩ U i ≠ {0}. Dann gibt es ein u i ∈ U i mit u i ≠ 0 und<br />

u i = u 1 + · · · + u i−1 + u i+1 + · · · + u s mit u j ∈ U j .<br />

Es sei I die Menge aller Indizes j ∈ {1, . . . , s} mit u j<br />

Teilmenge S I linear abhängig im Widerspruch zu (iii).<br />

≠ 0. Dann ist die<br />

✷<br />

Satz 1.6 Es sei V ein endlich dimensionaler K-Vektorraum und U 1 , . . . , U s<br />

Unterräume von V . Dann sind die folgenden Bedingungen äquivalent:<br />

(i) V = U 1 ⊕ · · · ⊕ U s .<br />

(ii) Ist für jedes i ∈ {1, . . . , s} eine Basis {u (i)<br />

1 , . . . , u (i)<br />

k i<br />

} von U i gegeben, so<br />

ist<br />

{u (1)<br />

1 , . . . , u (1)<br />

k 1<br />

, . . . , u (s)<br />

1 , . . . , u (s)<br />

k s<br />

}<br />

eine Basis von V .<br />

(iii) Es gilt V = U 1 + · · · + U s und dim V = dim U 1 + · · · + dim U s .<br />

Beweis. (i) ⇒ (ii): Es sei<br />

B := {u (1)<br />

1 , . . . , u (1)<br />

k 1<br />

, . . . , u (s)<br />

1 , . . . , u (s)<br />

k s<br />

}.<br />

Offensichtlich ist B ein Erzeugendensystem von V . Es reicht daher zu zeigen,<br />

dass B linear unabhängig ist. Dazu sei<br />

λ (1)<br />

1 u (1) + · · · + λ (1)<br />

k 1<br />

u (1)<br />

k 1<br />

+ · · · + λ (s)<br />

1 u (s)<br />

1 + · · · + λ (s)<br />

k s<br />

u (s)<br />

k s<br />

= 0.


1 Summen von Vektorräumen 9<br />

Setzen wir w i := λ (i)<br />

1 u (i) + · · · + λ (i)<br />

k i<br />

u (i)<br />

k i<br />

, so folgt<br />

w 1 + · · · + w s = 0.<br />

Aus Satz 1.5 (iii) folgt w 1 = . . . = w s = 0. Also ist<br />

λ (i)<br />

1 u (i) + · · · + λ (i)<br />

k i<br />

u (i)<br />

k i<br />

= 0 für i = 1, . . . , s.<br />

Daraus folgt λ (i)<br />

1 = · · · = λ (i)<br />

k i<br />

= 0.<br />

(ii) ⇔ (iii) ist klar.<br />

(ii) ⇒ (i) folgt aus Satz 1.5 (ii).<br />

Es sei nun wieder K = R, C und V ein euklidischer (unitärer) Vektorraum.<br />

Definition Es sei V ein euklidischer (unitärer) Vektorraum und U 1 , . . . , U s<br />

Unterräume von V . Man sagt, V ist die orthogonale direkte Summe der Unterräume<br />

U 1 . . . , U s , in Zeichen V = U 1 ⊥ . . . ⊥ U s , falls<br />

(i) V = U 1 ⊕ · · · ⊕ U s und<br />

(ii) U i ⊥ U j für i ≠ j.<br />

✷<br />

Lemma 1.5 Es sei V ein euklidischer (unitärer) Vektorraum und U 1 , . . . , U s<br />

Unterräume von V . Gilt<br />

(i) V = U 1 + · · · + U s und<br />

(ii) U i ⊥ U j für i ≠ j,<br />

so ist V die orthogonale direkte Summe der Unterräume U 1 , . . . , U s .<br />

Beweis. Wir haben zu zeigen: U i ∩ W i = {0}. Es sei v ∈ U i ∩ W i , v ≠ 0. Dann<br />

gilt<br />

v = u 1 + · · · + u i−1 + u i+1 + · · · + u s mit u j ∈ U j .<br />

Da U i ⊥ U j für i ≠ j gilt, folgt dann<br />

0 ≠ 〈v, v〉 = 〈v, u 1 〉 + · · · + 〈v, u i−1 〉 + 〈v, u i+1 〉 + · · · + 〈v, u s 〉 = 0,<br />

ein Widerspruch.<br />


2 Normierte Vektorräume 10<br />

2 Normierte Vektorräume<br />

Es sei K = R, C und V ein K-Vektorraum. Ist 〈 , 〉 : V × V → K eine symmetrische<br />

Bilinearform (hermitesche Sesquilinearform), so erhält man daraus<br />

eine Abbildung<br />

q : V −→ K<br />

v ↦−→ q(v) := 〈v, v〉 .<br />

Sie heißt die zu 〈 , 〉 gehörige quadratische Form.<br />

Man kann 〈 , 〉 aus q zurückgewinnen. Dies nennt man Polarisierung:<br />

K = R : 〈v, w〉 = 1 (q(v + w) − q(v − w)) ,<br />

4<br />

K = C : 〈v, w〉 = 1 (q(v + w) − q(v − w) + iq(v + iw) − iq(v − iw)) .<br />

4<br />

(Beweis durch Nachrechnen.)<br />

Definition Es sei V ein K-Vektorraum. Unter einer Norm auf V versteht<br />

man eine Funktion<br />

|| || : V −→ R<br />

v ↦−→ ||v||<br />

mit folgenden Eigenschaften:<br />

(i) ||v|| ≥ 0, ||v|| = 0 ⇔ v = 0,<br />

(ii) ||λv|| = |λ| · ||v|| für alle λ ∈ K, v ∈ V .<br />

(iii) ||v + w|| ≤ ||v|| + ||w|| für alle v, w ∈ V (Dreiecksungleichung).<br />

Ein normierter Vektorraum ist ein Paar (V, || ||), das aus einem Vektorraum<br />

V und einer Norm || || auf V besteht.<br />

Definition Es sei X eine Menge. Unter einer Metrik auf X versteht man<br />

eine Abbildung<br />

d : X × X −→ R<br />

(x, y) ↦−→ d(x, y)<br />

mit folgenden Eigenschaften:<br />

(i) d(x, y) = 0 ⇔ x = y<br />

(ii) d(x, y) = d(y, x) für alle x, y ∈ X (Symmetrie)<br />

(iii) d(x, z) ≤ d(x, y) + d(y, z) für alle x, y, z ∈ X (Dreiecksungleichung).


2 Normierte Vektorräume 11<br />

Ein metrischer Raum ist ein Paar (X, d), X Menge, d Metrik. Man nennt<br />

d(x, y) den Abstand oder die Distanz der Punkte x und y bzgl. d.<br />

Bemerkung 2.1 Aus den Axiomen folgt, dass d(x, y) ≥ 0 für alle x, y ∈ X.<br />

Beweis. Wende Dreiecksungleichung auf x, y, x an:<br />

0 (i)<br />

= d(x, x) ≤ d(x, y) + d(y, x) (ii)<br />

= 2d(x, y).<br />

Satz 2.1 Es sei (V, || ||) ein normierter Vektorraum. Dann wird durch<br />

eine Metrik d auf V definiert.<br />

Beweis.<br />

d(x, y) := ||x − y|| für x, y ∈ V<br />

(i) d(x, y) = 0 ⇔ ||x − y|| = 0 ⇔ x − y = 0 ⇔ x = y.<br />

(ii) d(x, y) = ||x − y|| = | − 1| ||x − y|| = ||y − x|| = d(y, x).<br />

(iii) d(x, z) = ||x−z|| = ||x−y+y−z|| ≤ ||x−y||+||y−z|| = d(x, y)+d(y, z).<br />

Satz 2.2 Ist (V, 〈 , 〉) ein euklidischer (unitärer) Vektorraum, so wird durch<br />

eine Norm auf V definiert.<br />

‖v‖ := √ 〈v, v〉<br />

Für den Beweis dieses Satzes brauchen wir das folgende Resultat:<br />

Satz 2.3 (Cauchy-Schwarzsche Ungleichung) Für v, w ∈ V gilt<br />

|〈v, w〉| ≤ ‖v‖‖w‖<br />

und Gleichheit gilt genau dann, wenn v und w linear abhängig sind.<br />

Beweis. Für w = 0 sind beide Seiten der Ungleichung gleich 0, die Ungleichung<br />

ist daher erfüllt. Es genügt daher, den Fall w ≠ 0 zu behandeln.<br />

Für λ, µ ∈ K gilt<br />

0 ≤ 〈λv + µw, λv + µw〉<br />

= λλ〈v, v〉 + λµ〈v, w〉 + λµ〈w, v〉 + µµ〈w, w〉.<br />

✷<br />


3 Normalform orthogonaler und unitärer Endomorphismen 12<br />

Setzen wir nun λ := 〈w, w〉 und µ := −〈v, w〉, so folgt<br />

0 ≤ λ(〈v, v〉〈w, w〉 − 〈v, w〉〈v, w〉) = λ(‖v‖ 2 ‖w‖ 2 − |〈v, w〉| 2 ).<br />

Wegen λ ≥ 0 folgt daraus<br />

0 ≤ ‖v‖ 2 ‖w‖ 2 − |〈v, w〉| 2 .<br />

Nun ziehen wir auf beiden Seiten die Quadratwurzel. Dann bleibt das Ungleichheitszeichen<br />

erhalten und wir erhalten die behauptete Ungleichung.<br />

Für den Beweis des Zusatzes bemerken wir (für λ := 〈w, w〉 und µ :=<br />

−〈v, w〉) :<br />

|〈v, w〉| = ‖v‖‖w‖<br />

⇔ 〈λv + µw, λv + µw〉 = 0<br />

⇔ λv + µw = 0<br />

⇔ v = − µ λ w.<br />

Man beachte, dass dies der gleiche Beweis wie für I, Satz 3.4 ist, nur dass wir<br />

statt einer symmetrischen Bilinearform auch eine hermitesche Sesquilinearform<br />

zugelassen haben.<br />

✷<br />

Beweis von Satz 2.2. (i) und (ii) sind einfach (siehe Vorlesung).<br />

(iii): Um die Dreiecksungleichung<br />

√<br />

〈v + w, v + w〉 ≤<br />

√<br />

〈v, v〉 +<br />

√<br />

〈w, w〉<br />

zu beweisen, geht man durch Quadrieren zu der äquivalenten Ungleichung<br />

〈v + w, v + w〉 ≤ 〈v, v〉 + 2 √ 〈v, v〉〈w, w〉 + 〈w, w〉<br />

über, die gleichbedeutend ist mit<br />

〈v, v〉 + 2|〈v, w〉| + 〈w, w〉 ≤ 〈v, v〉 + 2 √ 〈v, v〉〈w, w〉 + 〈w, w〉.<br />

Diese Ungleichung ist äquivalent zu der Cauchy-Schwarzschen Ungleichung.<br />

✷<br />

3 Normalform orthogonaler und unitärer Endomorphismen<br />

Nun sei im Folgenden wieder K = R, C und (V, 〈 , 〉) ein euklidischer<br />

(unitärer) Vektorraum. Wir erinnern an die folgende Definition.


3 Normalform orthogonaler und unitärer Endomorphismen 13<br />

Definition Es sei V ein euklidischer (unitärer) Vektorraum. Ein Endomorphismus<br />

f : V → V heißt orthogonal (unitär), falls gilt:<br />

〈f(v), f(w)〉 = 〈v, w〉 für alle v, w ∈ V.<br />

Theorem 3.1 Es sei V ein unitärer Vektorraum der Dimension n und f :<br />

V → V ein unitärer Endomorphismus. Dann besitzt V eine ON-Basis, die<br />

aus Eigenvektoren von f besteht. Insbesondere ist f diagonalisierbar.<br />

Beweis. Der zugrundeliegende Körper ist C und die Eigenwerte von f sind<br />

die Nullstellen des charakteristischen Polynoms P f (x), das ein komplexes<br />

Polynom ist. Nach dem Fundamentalsatz der <strong>Algebra</strong> hat P f (x) genau n<br />

Nullstellen λ 1 , . . . λ n ∈ C. Also gilt<br />

P f (x) = (x − λ 1 ) · · · (x − λ n ).<br />

Wir führen nun Induktion nach n = dim V durch.<br />

Der Induktionsanfang n = 1 ist klar.<br />

Wir nehmen nun an, dass die Behauptung bereits für n − 1 bewiesen<br />

ist. Es sei v 1 ein Eigenvektor von f zum Eigenwert λ 1 . Ohne Einschränkung<br />

können wir annehmen, dass ‖v 1 ‖ = 1. Es sei<br />

Dann gilt nach Satz 1.4<br />

Behauptung f(W ) = W .<br />

W := Span{v 1 } ⊥ = {w ∈ V | 〈v 1 , w〉 = 0}.<br />

V = Span{v 1 } ⊥ W.<br />

Beweis. Da f ein Isomorphismus ist, reicht es zu zeigen: f(W ) ⊆ W . Nach<br />

I, Satz 21.1 (v), gilt |λ 1 | = 1. Damit gilt für w ∈ W :<br />

λ 1 〈v 1 , f(w)〉 = 〈λ 1 v 1 , f(w)〉 = 〈f(v 1 ), f(w)〉 = 〈v 1 , w〉 = 0.<br />

Da λ 1 ≠ 0 folgt 〈v 1 , f(w)〉 = 0, also f(w) ∈ W .<br />

Nun betrachten wir den Endomorphismus f| W : W → W . Da f| W die Einschränkung<br />

eines unitären Endomorphismus ist, ist f| W auch wieder unitär.<br />

Da dim W = n − 1 können wir auf f| W : W → W die Induktionsvoraussetzung<br />

anwenden. Danach besitzt W eine ON-Basis {v 2 , . . . , v n } aus Eigenvektoren.<br />

Dann ist<br />

B := {v 1 , v 2 , . . . , v n }<br />

eine ON-Basis von V aus Eigenvektoren.<br />

✷<br />


3 Normalform orthogonaler und unitärer Endomorphismen 14<br />

Korollar 3.1 Eine unitäre Matrix A ist diagonalisierbar. Genauer gilt: Es<br />

gibt eine unitäre Matrix S mit<br />

⎛<br />

⎞<br />

λ 1 0 · · · 0<br />

S T 0 λ 2 · · · 0<br />

AS = ⎜<br />

⎝<br />

.<br />

. . ..<br />

⎟ . ⎠ .<br />

0 0 · · · λ n<br />

Hierbei gilt |λ i | = 1 für i = 1, . . . , n.<br />

Beweis. Siehe Vorlesung.<br />

In LA I hatten wir bereits orthogonale Abbildungen f : R n → R n betrachtet<br />

und für n = 1, 2, 3 klassifiziert. Allgemeiner wollen wir nun beweisen:<br />

Theorem 3.2 Es sei V ein euklidischer Vektorraum der Dimension n und<br />

f : V → V ein orthogonaler Endomorphismus. Dann besitzt V eine ON-Basis<br />

B, bezüglich der f die Darstellungsmatrix<br />

⎛<br />

⎞<br />

+1<br />

. .. +1 0<br />

−1<br />

MB B (f) =<br />

.. . ,<br />

−1<br />

0 A 1 ⎜<br />

.<br />

⎝<br />

.. ⎟<br />

⎠<br />

A k<br />

✷<br />

besitzt, wobei für j = 1, . . . , k<br />

( )<br />

cos αj − sin α<br />

A j =<br />

j<br />

sin α j cos α j<br />

mit α j ∈ [0, 2π), aber α j ≠ 0, π.<br />

Für den Beweis dieses Theorems brauchen wir ein Lemma.<br />

Lemma 3.1 Jedes Polynom P (x) mit reellen Koeffizienten besitzt eine Zerlegung<br />

P (x) = (x − λ 1 ) · · · (x − λ r )Q 1 (x) · · · Q k (x),<br />

wobei λ 1 , . . . , λ r ∈ R und Q 1 (x), . . . , Q k (x) Polynome vom Grad 2 sind, die<br />

keine reelle Nullstelle haben.


3 Normalform orthogonaler und unitärer Endomorphismen 15<br />

Beweis. Das Polynom P (x) hat n komplexe Nullstellen. Ist λ ∈ C eine Nullstelle<br />

von P (x), so auch λ:<br />

P (λ) = a 0 + a 1 λ + · · · + a n λ n = a 0 + a 1 λ + · · · + a n λ n = P (λ) = 0 = 0.<br />

Also hat man eine Zerlegung<br />

P (x) = (x − λ 1 ) · · · (x − λ r )(x − µ 1 )(x − µ 1 ) · · · (x − µ k )(x − µ k ),<br />

wobei λ 1 , . . . , λ r ∈ R und µ 1 , . . . , µ k ∉ R. Es sei j = 1, . . . , k und µ j = ξ j +iη j<br />

mit ξ j , η j ∈ R. Setze<br />

Q j (x) = (x − µ j )(x − µ j ) = x 2 − 2ξ j x + (ξ 2 j + η 2 j ).<br />

Beweis von Theorem 3.2. Wir führen Theorem 3.2 auf Theorem 3.1 zurück.<br />

Dazu komplexifizieren wir f. Es sei B ′ irgendeine ON-Basis von V und A :=<br />

MB B′ (f) die Darstellungsmatrix von f bezüglich ′ B′ . Dann ist A orthogonal<br />

und als reelle Matrix auch unitär. Also ist der Endomorphismus<br />

✷<br />

A : C n → C n ,<br />

z ↦→ Az,<br />

unitär. Es sei<br />

P A (x) = P (x) = (x − λ 1 ) · · · (x − λ r )(x − µ 1 )(x − µ 1 ) · · · (x − µ k )(x − µ k )<br />

die Zerlegung des charakteristischen Polynoms von A, die nach Lemma 3.1<br />

existiert. Nach I, Satz 21.1 (v) gilt λ i = ±1, i = 1, . . . , r, µ j = cos α j +i sin α j ,<br />

α j ∈ [0, 2π), α j ≠ 0, π, j = 1, . . . , k. Nach Theorem 3.1 erhalten wir für A eine<br />

ON-Basis ˜B von C n von Eigenvektoren von A. Es sei nun z ein Eigenvektor zu<br />

einem nicht reellen Eigenwert µ. Dann ist z ein Eigenvektor zum Eigenwert<br />

µ, denn<br />

Az = Az = µz = µ z.<br />

Deswegen können wir die Basis ˜B so anordnen:<br />

v 1 , . . . , v p die Eigenvektoren zum Eigenwert + 1,<br />

w 1 , . . . , w q die Eigenvektoren zum Eigenwert − 1,<br />

z 1 , . . . , z k die Eigenvektoren zu den Eigenwerten µ 1 , . . . , µ k ,<br />

z 1 , . . . , z k die Eigenvektoren zu den Eigenwerten µ 1 , . . . , µ k .<br />

Da A reell ist, liegen die Eigenvektoren v 1 , . . . , v p , w 1 , . . . , w q in R n .


3 Normalform orthogonaler und unitärer Endomorphismen 16<br />

Zu einem Paar z, z von Eigenvektoren zu µ, µ konstruieren wir nun einen<br />

unter A invarianten Unterraum W ⊆ R n . Dazu sei<br />

z = x + iy,<br />

x, y ∈ R n<br />

und<br />

Behauptung<br />

A(W ) = W<br />

W := Span{x, y} ⊆ R n .<br />

Beweis. Es gilt<br />

0 = 〈z, z〉 = 〈x + iy, x − iy〉 = 〈x, x〉 − 〈y, y〉 + 2i〈x, y〉<br />

1 = 〈z, z〉 = 〈x + iy, x + iy〉 = 〈x, x〉 + 〈y, y〉.<br />

Daraus folgt 〈x, x〉 = 〈y, y〉 = 1 2<br />

x = 1(z + z), y = 1 (z − z) folgt<br />

2 2i<br />

und 〈x, y〉 = 0. Aus µ = cos α + i sin α,<br />

Ax = 1 2 (Az + Az) = 1 (µz + µ z) = cos αx − sin αy,<br />

2<br />

Ay = 1 2i (Az − Az) = 1 2i (µz − µ z) = sin αx + cos αy. ✷<br />

Nun setzen wir<br />

x ′ := √ 2x, y ′ := − √ 2y.<br />

Bezüglich der ON-Basis {x ′ , y ′ } von W wird die Einschränkung von A auf<br />

W beschrieben durch die Matrix<br />

( )<br />

cos α − sin α<br />

.<br />

sin α cos α<br />

Damit haben wir eine Orthonormalbasis<br />

B ′′ := {v 1 , . . . , v p , w 1 , . . . , w q , x ′ 1, y ′ 1, . . . , x ′ k, y ′ k}<br />

von R n gefunden, bezüglich der die Abbildung A : R n → R n die in Theorem<br />

3.2 angegebene Gestalt hat. Die Transformationsmatrix, die die Standardbasis<br />

des R n in die Basis B ′′ des R n transformiert, transformiert dann<br />

die Basis B ′ von V in eine ON-Basis B von V mit den gewünschten Eigenschaften.<br />


4 Normalform selbstadjungierter Endomorphismen 17<br />

4 Normalform selbstadjungierter Endomorphismen<br />

Es sei V ein euklidischer (unitärer) Vektorraum. In LA I hatten wir bereits<br />

selbstadjungierte Endomorphismen betrachtet. Wir erinnern an die Definition.<br />

Definition<br />

Ein Endomorphismus f : V → V heißt selbstadjungiert, falls<br />

In LA I hatten wir bewiesen:<br />

〈f(v), w〉 = 〈v, f(w)〉 für alle v, w ∈ V.<br />

Theorem 4.1 Es sei V ein euklidischer (unitärer) Vektorraum und f : V →<br />

V ein selbstadjungierter Endomorphismus. Dann besitzt V eine ON-Basis,<br />

die aus Eigenvektoren von f besteht.<br />

Korollar 4.1 Ist A ∈ Mat(n, n; K) eine symmetrische bzw. hermitesche<br />

Matrix, so gibt es eine orthogonale bzw. unitäre Matrix S, so dass<br />

⎛<br />

⎞<br />

λ 1 0<br />

S T ⎜<br />

AS = ⎝<br />

..<br />

⎟ . ⎠<br />

0 λ n<br />

mit λ 1 , . . . , λ n ∈ R.<br />

Wir halten noch das folgende Korollar fest.<br />

Korollar 4.2 Es sei V ein euklidischer (unitärer) Vektorraum, f : V → V<br />

ein selbstadjungierter Endomorphismus und λ 1 , . . . , λ k die paarweise verschiedenen<br />

Eigenwerte. Dann ist<br />

V = Eig(f, λ 1 ) ⊥ . . . ⊥ Eig(f, λ k ).<br />

Beweis. Aus dem Theorem folgt, dass V die direkte Summe der Eigenräume<br />

ist. Es bleibt zu zeigen: Eig(f, λ i ) ⊥ Eig(f, λ j ) für alle i ≠ j, i, j = 1, . . . , k.<br />

Dazu sei v ∈ Eig(f, λ i ), w ∈ Eig(f, λ j ), i ≠ j. Dann gilt<br />

λ i 〈v, w〉 = 〈λ i v, w〉 = 〈f(v), w〉 = 〈v, f(w)〉 = 〈v, λ j w〉 = λ j 〈v, w〉.<br />

Daraus folgt<br />

also 〈v, w〉 = 0.<br />

(λ i − λ j )〈v, w〉 = 0,<br />


5 Symmetrische Bilinearformen 18<br />

5 Symmetrische Bilinearformen<br />

Es sei nun V ein endlich dimensionaler reeller Vektorraum mit einer symmetrischen<br />

Bilinearform<br />

〈 , 〉 : V × V → R.<br />

(Diese Bilinearform braucht nicht positiv definit zu sein.) Wie wir bereits<br />

gesehen haben, entspricht dieser Bilinearform eine quadratische Form<br />

q : V → R,<br />

q(v) = 〈v, v〉.<br />

Bezüglich einer Basis B = {v 1 , . . . , v n } von V wird 〈 , 〉 dargestellt durch die<br />

Matrix<br />

A = (a ij ), a ij = 〈v i , v j 〉.<br />

Nach der Transformationsformel ändert sich bei einem Basiswechsel mit Transformationsmatrix<br />

S ∈ GL(n; R) die Darstellungsmatrix wie folgt:<br />

A ↦→ S T AS.<br />

Nach dem Satz über die Hauptachsentransformation gibt es eine orthogonale<br />

Matrix S mit<br />

⎛<br />

⎞<br />

λ 1 0 · · · 0<br />

S T AS = S −1 0 λ 2 · · · 0<br />

AS = ⎜<br />

⎝ . .<br />

..<br />

⎟ . . ⎠ , (λ 1, . . . , λ n ∈ R).<br />

0 0 · · · λ n<br />

Wir fragen nun nach einer Normalform, wenn wir allgemeiner S ∈ GL(n; R)<br />

zulassen.<br />

Satz 5.1 Es sei 〈 , 〉 : V × V → R eine symmetrische Bilinearform. Dann<br />

gibt es eine Basis B von V , bezüglich der 〈 , 〉 dargestellt wird durch<br />

⎛<br />

E k<br />

⎞<br />

0<br />

⎝ −E l<br />

⎠ .<br />

0 0<br />

Beweis. Nach dem Satz über die Hauptachsentransformation gibt es eine<br />

Basis B ′ = {w 1 , . . . , w n }, bezüglich der die darstellende Matrix wie folgt


5 Symmetrische Bilinearformen 19<br />

aussieht:<br />

⎛<br />

λ 1 . . . 0<br />

λ k λ k+1<br />

... λ k+l<br />

⎜<br />

0<br />

⎝ 0<br />

..<br />

.<br />

0<br />

⎞<br />

{ > 0 für i ≤ k,<br />

, λ i<br />

< 0 für k < i ≤ k + l.<br />

⎟<br />

⎠<br />

Wir setzen<br />

Dann gilt:<br />

v i :=<br />

{ 1 √|λi<br />

| w i für 1 ≤ i ≤ k + l,<br />

w i<br />

sonst.<br />

⎧<br />

⎨ +1 für 1 ≤ i ≤ k,<br />

〈v i , v i 〉 = −1 für k < i ≤ k + l,<br />

⎩<br />

0 sonst.<br />

Also hat 〈 , 〉 bezüglich der Basis B = {v 1 , . . . , v n } die gewünschte Gestalt.<br />

✷<br />

Definition<br />

Menge<br />

Es sei 〈 , 〉 : V × V → R eine symmetrische Bilinearform. Die<br />

V 0 := {v ∈ V | 〈v, w〉 = 0 für alle w ∈ V }<br />

heißt das Radikal (oder der Nullraum) von 〈 , 〉. Es ist ein Unterraum von<br />

V .<br />

Korollar 5.1 Es sei 〈 , 〉 : V × V → R eine symmetrische Bilinearform.<br />

Dann gibt es eine Zerlegung<br />

in Unterräume, so dass gilt:<br />

V = V + ⊕ V − ⊕ V 0 ,<br />

(i) Die Zerlegung ist orthogonal bezüglich 〈 , 〉.<br />

(ii) 〈v, v〉 > 0 für 0 ≠ v ∈ V + , 〈v, v〉 < 0 für 0 ≠ v ∈ V − .<br />

Beweis. Es sei B = {v 1 , . . . , v n } eine Basis wie in Satz 5.1. Setze<br />

V + := Span{v 1 , . . . , v k }, V − := Span{v k+1 , . . . , v k+l }.


5 Symmetrische Bilinearformen 20<br />

Dann bleibt zu zeigen, dass V 0 = Span{v k+l+1 , . . . , v n }. Die Inklusion<br />

Span{v k+l+1 , . . . , v n } ⊆ V 0<br />

ist klar. Es sei umgekehrt v ∈ V 0 . Dann gilt<br />

v = µ 1 v 1 + · · · + µ k+l v k+l + µ k+l+1 v k+l+1 + · · · + µ n v n .<br />

Für i ∈ {1, . . . , k + l} gilt aber 〈v, v i 〉 = ±µ i = 0. Daraus folgt µ i = 0.<br />

✷<br />

Wie der Beweis zeigt, hängt die Zerlegung von einer Basis B von V ab.<br />

Ist A die Darstellungsmatrix von 〈 , 〉 bezüglich dieser Basis, so gilt<br />

dim V + = Anzahl der positiven Eigenwerte von A,<br />

dim V − = Anzahl der negativen Eigenwerte von A.<br />

Der Trägheitssatz von Sylvester besagt, dass diese Zahlen tatsächlich unabhängig<br />

von der Wahl von B sind.<br />

Satz 5.2 (Trägheitssatz von Sylvester) Es sei 〈 , 〉 : V × V → R eine<br />

symmetrische Bilinearform, B eine Basis von V und A die Darstellungsmatrix<br />

von 〈 , 〉 bezüglich B. Dann sind die Zahlen<br />

k := Anzahl der positiven Eigenwerte von A,<br />

l := Anzahl der negativen Eigenwerte von A<br />

unabhängig von der Auswahl von B.<br />

Beweis. Es sei B ′ eine andere Basis, k ′ , l ′ die entsprechenden Anzahlen und<br />

V = V + ⊕ V − ⊕ V 0 = V ′ + ⊕ V ′ − ⊕ V 0<br />

die entsprechenden zugehörigen Zerlegungen nach Korollar 5.1. Da die Anzahl<br />

der von Null verschiedenen Eigenwerte gleich dim V − dim V 0 ist und<br />

damit nicht von der Auswahl der Basis abhängt, gilt k + l = k ′ + l ′ . Daher<br />

reicht es, l = l ′ zu zeigen.<br />

Angenommen, es gibt<br />

0 ≠ v ∈ V + ∩ (V ′ − ⊕ V 0 ).<br />

Dann gilt 〈v, v〉 > 0 und v = v ′ − + v 0 mit v ′ − ≠ 0. Dann folgt aber<br />

〈v, v〉 = 〈v ′ −, v ′ −〉 + 〈v 0 , v 0 〉 = 〈v ′ −, v ′ −〉 < 0,<br />

ein Widerspruch. Also gilt V + ∩ (V ′ − ⊕ V 0 ) = {0} und aus Satz 1.2 folgt<br />

k + l ′ + dim V 0 ≤ dim V, also k + l ′ ≤ k + l, d.h. l ′ ≤ l.<br />

Durch Vertauschen der Rollen von l und l ′ folgt l ≤ l ′ , also l = l ′ und k = k ′ .<br />


5 Symmetrische Bilinearformen 21<br />

Definition Die Zahl k nennt man auch den Index, die Zahl k−l die Signatur<br />

der symmetrischen Bilinearform 〈 , 〉.<br />

Korollar 5.2 Eine symmetrische Bilinearform ist genau dann positiv definit,<br />

wenn alle Eigenwerte einer Darstellungsmatrix positiv sind.<br />

Definition Eine symmetrische Matrix A ∈ Mat(n, n; R) heißt positiv definit,<br />

in Zeichen A > 0, falls die zugehörige Form 〈 , 〉 A positiv definit ist,<br />

d.h.<br />

x T Ax > 0 für alle x ∈ R n , x ≠ 0.<br />

Korollar 5.3 Eine symmetrische Matrix A ∈ Mat(n, n; R) ist genau dann<br />

positiv definit, wenn alle Eigenwerte positiv sind.<br />

Wir wollen zum Abschluss noch ein anderes Kriterium dafür angeben,<br />

dass eine symmetrische Matrix A = (a ij ) positiv definit ist. Dazu bezeichnen<br />

wir mit<br />

⎛<br />

⎞<br />

a 11 · · · a 1k<br />

⎜<br />

A k := ⎝<br />

.<br />

. ..<br />

⎟ . ⎠<br />

a k1 · · · a kk<br />

die linke obere k × k-Teilmatrix von A. Die Determinante det A k bezeichnet<br />

man auch als Hauptminor von A.<br />

Satz 5.3 (Hurwitz-Kriterium) Es sei A ∈ Mat(n, n; R) eine symmetrische<br />

Matrix. Dann gilt:<br />

A positiv definit ⇔ det A k > 0 für 1 ≤ k ≤ n.<br />

Beweis. ” ⇒”: Wir zeigen zunächst<br />

det A = det A n > 0.<br />

Da A positiv definit ist, gibt es ein S ∈ GL(n; R) mit<br />

⎛ ⎞<br />

1 0<br />

S T ⎜<br />

AS = ⎝<br />

. ..<br />

⎟<br />

⎠ .<br />

0 1<br />

Also folgt<br />

1 = det(S T AS) = det A(det S) 2 , also det A > 0.


5 Symmetrische Bilinearformen 22<br />

Um nun det A k > 0 für 1 ≤ k < n zu zeigen, betrachten wir<br />

U k := {x ∈ R n | x k+1 = . . . = x n = 0} ⊆ R n .<br />

Die Form 〈 , 〉 A definiert durch Einschränkung eine Form 〈 , 〉 k : U k ×U k → R<br />

mit Darstellungsmatrix A k . Da auch 〈 , 〉 k positiv definit ist, folgt det A k > 0.<br />

”⇐”: Wir führen Induktion über n durch. Der Induktionsanfang n = 1<br />

ist klar. Nach Induktionsvoraussetzung ist A n−1 positiv definit. Also gibt es<br />

ein S ′ ∈ GL(n − 1; R) mit<br />

Es sei<br />

Es gilt<br />

und<br />

(S ′ ) T A n−1 S ′ =<br />

⎛<br />

S := ⎜<br />

⎝<br />

S T AS = ⎜<br />

⎝<br />

⎛<br />

⎜<br />

⎝<br />

1 0<br />

. ..<br />

0 1<br />

S ′ 0.<br />

0<br />

0 · · · 0 1<br />

⎛<br />

⎞<br />

⎞<br />

⎟<br />

⎠ = E n−1 .<br />

⎟ ∈ GL(n; R).<br />

⎠<br />

⎞<br />

1 b 1<br />

. .. .<br />

⎟<br />

1 b n−1 ⎠ =: B<br />

b 1 · · · b n−1 b n<br />

det B = (det S) 2 det A > 0.<br />

Es genügt zu zeigen, dass B positiv definit ist. Dazu setze<br />

⎛<br />

⎞<br />

1 −b 1<br />

. . .<br />

T := ⎜<br />

.<br />

⎟ ∈ GL(n; R).<br />

⎝ 1 −b n−1 ⎠<br />

0 · · · 0 1<br />

Dann ist<br />

Nun ist<br />

⎛<br />

T T BT = ⎜<br />

⎝<br />

⎞<br />

1 0<br />

. .. .<br />

⎟<br />

1 0 ⎠<br />

0 · · · 0 c n<br />

=: C.<br />

det C = (det T ) 2 det B = det B > 0<br />

und damit c n > 0. Also ist C positiv definit und damit auch B und A.<br />


6 Das Minimalpolynom 23<br />

6 Das Minimalpolynom<br />

Wir kommen nun auf das schon in LA I betrachtete Problem zurück, für die<br />

Darstellungsmatrix eines Endomorphismus f : V → V eines K-Vektorraums<br />

eine Normalform zu finden. Dabei spielt neben dem charakteristischen Polynom<br />

ein anderes Polynom eine Rolle, das wir nun einführen wollen. Dazu<br />

machen wir zunächst einen Exkurs über den Polynomring.<br />

Es sei K ein beliebiger Körper. Dann betrachten wir den Polynomring in<br />

einer Variablen über K:<br />

K[x] := {a 0 + a 1 x + · · · + a n x n | a i ∈ K}.<br />

Auf K[x] ist eine Addition und eine Multiplikation erklärt. Es sei P (x), Q(x) ∈<br />

K[x],<br />

P (x) = a 0 + a 1 x + · · · + a n x n , Q(x) = b 0 + b 1 x + · · · + b m x m .<br />

O. B. d. A. sei n ≤ m. Zur Definition der Addition setzen wir a n+1 = . . . a m =<br />

0. Dann definieren wir<br />

P (x) + Q(x) := (a 0 + b 0 ) + (a 1 + b 1 )x + · · · + (a m + b m )x m .<br />

Die Multiplikation ist dadurch erklärt, dass man formal ausmultipliziert:<br />

mit<br />

P (x) · Q(x) = (a 0 + a 1 x + · · · + a n x n ) · (b 0 + b 1 x + · · · + b m x m )<br />

:= a 0 b 0 + (a 0 b 1 + a 1 b 0 )x + · · · + a n b m x n+m<br />

= c 0 + c 1 x + · · · + c n+m x n+m<br />

c k :=<br />

k∑<br />

a i b k−i .<br />

Statt P (x) und Q(x) schreiben wir von nun an auch P und Q.<br />

i=0<br />

Satz 6.1 Mit dieser Addition und Multiplikation wird K[x] zu einem kommutativen<br />

Ring mit Einselement.<br />

Beweis. Die Axiome sind leicht nachzuprüfen. Was ist das Einselement?<br />

Das Nullpolynom (alle Koeffizienten a i = 0) bezeichnen wir mit 0.<br />

✷<br />

Definition<br />

Der Grad eines Polynoms<br />

P (x) = a 0 + a 1 x + · · · + a n x n mit a n ≠ 0<br />

ist die Zahl n (n = deg P ). Den Grad des Nullpolynoms definieren wir als<br />

deg(0) := −∞. Das Polynom P heißt normiert, falls a n = 1 ist.


6 Das Minimalpolynom 24<br />

Satz 6.2 (Gradformel) Für P, Q ∈ K[x] gilt:<br />

deg(P · Q) = deg P + deg Q.<br />

Dabei soll formal n − ∞ = m − ∞ = −∞ − ∞ = −∞ gelten.<br />

Beweis. Dies folgt aus c n+m = a n b m ≠ 0 falls a n ≠ 0 und b m ≠ 0.<br />

✷<br />

Satz 6.3 (Division mit Rest) Es seien P, Q ∈ K[x] mit P, Q ≠ 0. Dann<br />

gibt es eindeutig bestimmte Polynome q, r mit<br />

(i) P = Qq + r,<br />

(ii) deg r < deg Q.<br />

Beweis. Wir zeigen zunächst die Eindeutigkeit. Es seien q, q ′ , r, r ′ ∈ K[x] mit<br />

P = Qq + r = Qq ′ + r ′ , deg r, deg r ′ < deg Q.<br />

Dann folgt<br />

1.Fall: q = q ′ ⇒ r = r ′ .<br />

2.Fall: q ≠ q ′ . Dann ist<br />

Q(q − q ′ ) = r ′ − r.<br />

deg(r ′ − r) = deg Q + deg(q − q ′ ) ≥ deg Q<br />

im Widerspruch zu deg(r ′ − r) ≤ max{deg r, deg r ′ } < deg Q.<br />

Nun beweisen wir die Existenz von q und r. Wenn es ein q ∈ K[x] gibt<br />

mit<br />

P = Qq,<br />

so können wir r = 0 setzen und die Behauptung ist bewiesen. Andernfalls<br />

betrachten wir die Menge<br />

M := {deg(P − Qp) | p ∈ K[x]} ⊆ N = {0, 1, 2, . . .}.<br />

Diese Menge besitzt ein Minimum in N. Es sei q ∈ K[x] mit<br />

deg(P − Qq) ≤ deg(P − Qp) für alle p ∈ K[x].<br />

Es sei ferner<br />

d.h.<br />

r := P − Qq,<br />

P = Qq + r.


6 Das Minimalpolynom 25<br />

Es bleibt zu zeigen: deg r < deg Q. Angenommen, deg r ≥ deg Q. Es sei<br />

Q = b 0 + b 1 x + · · · + b m x m (b m ≠ 0),<br />

r = c 0 + c 1 x + · · · + c k x k (c k ≠ 0).<br />

Dann ist nach Annahme k ≥ m. Es sei<br />

Dann ist<br />

Es ist also<br />

p := q + c k<br />

b m<br />

x k−m ∈ K[x].<br />

P − Qp = P − Qq − Q c k<br />

b m<br />

x k−m = r − Q c k<br />

b m<br />

x k−m .<br />

Daher folgt<br />

P − Qp = c k x k − b m<br />

c k<br />

b m<br />

x k + Terme der Ordnung < k.<br />

im Widerspruch zur Wahl von q.<br />

deg(P − Qp) < k = deg r = deg(P − Qq).<br />

Dies führt zu dem schon aus der Schule bekannten Verfahren zur Polynomdivision<br />

(siehe Vorlesung und Übungen).<br />

In Polynome können wir nun Körperelemente einsetzen. Ist<br />

und λ ∈ K, so setzen wir<br />

P (x) = a 0 + a 1 x + · · · + a n x n ∈ K[x]<br />

P (λ) := a 0 + a 1 λ + · · · + a n λ n ∈ K.<br />

Auf diese Weise definiert P (x) eine Funktion<br />

Damit erhalten wir eine Abbildung<br />

˜P : K −→ K<br />

λ ↦−→ P (λ) .<br />

✷<br />

˜ : K[x] −→ Abb(K, K)<br />

P ↦−→ ˜P<br />

.<br />

Warnung Wir müssen zwischen Polynomen P und Polynomfunktionen ˜P<br />

unterscheiden, denn bei endlichen Körpern können Unterschiede auftreten:<br />

Ist z.B. K = F 2 und P (x) = x 2 + x, so ist ˜P die Nullfunktion, da P (0) =<br />

P (1) = 1 + 1 = 0. Also ist in diesem Fall die Abbildung ˜ nicht injektiv.


6 Das Minimalpolynom 26<br />

Definition Ist 0 ≠ P ∈ K[x] und λ ∈ K, so dass P (λ) = 0 gilt, so heißt λ<br />

eine Nullstelle von P .<br />

Korollar 6.1 Es sei 0 ≠ P ∈ K[x] und λ eine Nullstelle von P . Dann gibt<br />

es genau ein Polynom Q ∈ K[x] mit<br />

Es ist deg Q = deg P − 1.<br />

P = Q(x − λ).<br />

Beweis. Wir dividieren P durch (x − λ) mit Rest: Nach Satz 6.3 gibt es<br />

eindeutig bestimmte Q, r ∈ K[x] mit<br />

P = (x − λ)Q + r, deg r < 1 = deg(x λ ).<br />

Also ist r(x) = a 0 ∈ K. Setzen wir λ in diese Gleichung ein, so folgt<br />

0 = P (λ) = (λ − λ)Q(λ) + a 0 = a 0 ,<br />

also r = 0.<br />

✷<br />

Korollar 6.2 Es sei 0 ≠ P ∈ K[x]. Dann ist die Anzahl der Nullstellen von<br />

P höchstens gleich dem Grad von P .<br />

Beweis. Wir führen Induktion über den Grad n := deg P . Für n = 0 ist P<br />

eine konstantes Polynom P (x) = a 0 ≠ 0 und das hat gar keine Nullstelle.<br />

Damit ist die Behauptung für n = 0 bewiesen.<br />

Nun sei deg P = n ≥ 1 und die Behauptung sei schon für alle Polynome<br />

Q ∈ K[x] mit deg Q ≤ n − 1 bewiesen. Hat P keine Nullstelle, so ist<br />

die Behauptung richtig. Andernfalls sei λ ∈ K eine Nullstelle von P . Nach<br />

Korollar 6.1 gibt es dann ein Q ∈ K[x] mit<br />

P = (x − λ)Q und deg Q = n − 1.<br />

Alle von λ verschiedenen Nullstellen von P müssen auch Nullstellen von Q<br />

sein. Nach Induktionsannahme hat Q höchstens n − 1 verschiedene Nullstellen,<br />

also P höchstens n verschiedene Nullstellen.<br />

✷<br />

Korollar 6.3 Hat K unendlich viele Elemente, so ist die Abbildung<br />

injektiv.<br />

˜ : K[x] → Abb(K, K), P ↦→ ˜P ,


6 Das Minimalpolynom 27<br />

Beweis. Es seien P 1 , P 2 ∈ K[x] mit ˜P 1 = ˜P 2 . Betrachte Q := P 1 − P 2 . Dann<br />

ist ˜Q = 0, also hat Q unendlich viele Nullstellen. Aus Korollar 6.2 folgt damit<br />

Q = 0, also P 1 = P 2 .<br />

✷<br />

Satz 6.4 Es sei K ein unendlicher Körper. Jedes Polynom 0 ≠ P ∈ K[x]<br />

besitzt eine Darstellung<br />

P = (x − λ 1 ) ν1 · · · (x − λ r ) νr · Q,<br />

wobei λ 1 , . . . , λ r paarweise verschieden sind und Q ein Polynom ohne Nullstellen<br />

ist. Diese Darstellung ist bis auf die Reihenfolge der Faktoren eindeutig.<br />

Definition Man nennt ν i die Ordnung oder Vielfachheit der Nullstelle λ i .<br />

Für den Beweis des Satzes brauchen wir ein Lemma.<br />

Lemma 6.1 Es sei K ein unendlicher Körper und P, Q ∈ K[x] Polynome<br />

mit P (λ) ≠ 0, Q(λ) ≠ 0. Gilt<br />

für alle x ∈ K, so ist ν = µ.<br />

(x − λ) ν P (x) = (x − λ) µ Q(x)<br />

Beweis. O. B. d. A. sei ν ≥ µ. Dann gilt<br />

(x − λ) ν−µ P (x) − Q(x) = 0 (für x ≠ λ).<br />

Da K unendlich viele Elemente enthält, gilt für die Polynome<br />

(x − λ) ν−µ P − Q = 0.<br />

Falls ν > µ, wäre Q(λ) = 0, ein Widerspruch.<br />

✷<br />

Beweis von Satz 6.4. Die Existenz der Darstellung folgt aus Korollar 6.1.<br />

Zum Beweis der Eindeutigkeit: Die λ i sind genau die Nullstellen von P ,<br />

liegen also eindeutig fest. Die Eindeutigkeit der ν i folgt aus Lemma 6.1. Es<br />

bleibt die Eindeutigkeit von Q zu zeigen. Dazu sei<br />

(x − λ 1 ) ν1 · · · (x − λ r ) νr Q = (x − λ 1 ) ν1 · · · (x − λ r ) νr Q ′ .<br />

Dann gilt für alle x ≠ λ 1 , . . . , λ r<br />

Q(x) = Q ′ (x).<br />

Also hat Q − Q ′ unendlich viele Nullstellen und es folgt Q = Q ′ .<br />


6 Das Minimalpolynom 28<br />

Definition Man sagt, das Polynom 0 ≠ P ∈ K[x] zerfällt über K, falls es<br />

eine Darstellung<br />

gibt.<br />

P (x) = a(x − λ 1 ) ν1 · · · (x − λ r ) νr (a ∈ K)<br />

Beispiel 6.1 Das Polynom P (x) = 1 + x 2 zerfällt nicht über R, aber über<br />

C:<br />

P (x) = (x − i)(x + i).<br />

Satz 6.5 (Fundamentalsatz der <strong>Algebra</strong>) Jedes nicht konstante Polynom<br />

P ∈ C[x] besitzt eine Nullstelle.<br />

Diesen Satz hat erstmals C. F. Gauß 1799 bewiesen. Heutzutage wird er<br />

meist in der Vorlesung Funktionentheorie bewiesen, da man mit Methoden<br />

dieser Vorlesung einen sehr knappen und eleganten Beweis geben kann.<br />

Korollar 6.4 Jedes Polynom P ∈ C[x] zerfällt.<br />

Definition<br />

Eine Teilmenge I eines Ringes R heißt ein Ideal, falls gilt:<br />

(I1) I ⊆ R ist eine Untergruppe bezüglich der Addition.<br />

(I2) Ist r ∈ R und s ∈ I, so ist auch r · s ∈ I.<br />

Beispiel 6.2 I := 〈P 1 , . . . , P n 〉 := {Q 1 P 1 + · · · + Q n P n | Q i ∈ R}.<br />

Definition<br />

I = 〈P 1 , . . . , P n 〉 heißt das von P 1 , . . . , P n erzeugte Ideal.<br />

Definition Ein Ideal I heißt Hauptideal, falls es von einem Element erzeugt,<br />

wird, d.h. I = 〈P 〉 = {QP | Q ∈ R} für ein P ∈ R.<br />

Lemma 6.2 Es seien R, R ′ Ringe und f : R → R ′ ein Ringhomomorphismus.<br />

Dann ist der Kern von f ein Ideal in R.<br />

Beweis. Nach I, Satz 8.4, ist Ker f eine Untergruppe von R. Es sei r ∈ R<br />

und s ∈ Ker f. Dann gilt<br />

f(r · s) = f(r) · f(s) = f(r) · 0 = 0,<br />

also r · s ∈ Ker f.<br />

✷<br />

Satz 6.6 (i) K[x] ist ein Hauptidealring, d.h. jedes Ideal von K[x] ist ein<br />

Hauptideal.


6 Das Minimalpolynom 29<br />

(ii) Zu jedem Ideal I ≠ {0} in K[x] gibt es genau ein normiertes Polynom<br />

P mit I = 〈P 〉.<br />

Beweis. (i): Im Fall I = {0} ist I = 〈0〉. Es sei also I ≠ {0}. Dann hat die<br />

Menge<br />

M := {deg P | 0 ≠ P ∈ I} ⊆ N<br />

ein Minimum m := min M. Es sei P ∈ I mit deg P = m.<br />

Behauptung I = 〈P 〉 = K[x] · P .<br />

Beweis. Es gilt 〈P 〉 ⊆ I nach Definition eines Ideals.<br />

Es bleibt zu zeigen: I ⊆ 〈P 〉. Dazu sei Q ∈ I beliebig. Nach Satz 6.3 gibt<br />

es eine Darstellung<br />

Q = qP + r, deg r < deg P.<br />

Ist r = 0, so ist Q ∈ 〈P 〉. Andernfalls folgt mit (I1) und (I2)<br />

r = Q − qP ∈ I.<br />

Wegen 0 ≤ deg r < deg P = m ist dies ein Widerspruch zur Wahl von P . ✷<br />

(ii): Mit P liegt auch aP in I für a ∈ K. Also kann man P als normiert<br />

annehmen. Es sei<br />

Dann gilt<br />

Es folgt<br />

I = 〈P 〉 = 〈P ′ 〉 mit P, P ′ normiert.<br />

P ′ = Q ′ P, P = QP ′ für geeignete Q, Q ′ ∈ K[x].<br />

Nach der Gradformel folgt daraus<br />

P = QQ ′ P ⇔ P (1 − QQ ′ ) = 0.<br />

deg QQ ′ = 0, also QQ ′ = 1,<br />

und damit sind Q und Q ′ ebenfalls nach der Gradformel konstant. Da P, P ′<br />

normiert sind, folgt Q = Q ′ = 1, also P = P ′ .<br />

✷<br />

Nun wollen wir die Theorie auf Matrizen anwenden. Die Menge Mat(n, n; K)<br />

ist ein Vektorraum der Dimension n 2 und obendrein ein Ring mit der Matrizenaddition<br />

und Matrizenmultiplikation. Wie üblich setzen wir für A ∈<br />

Mat(n, n; K):<br />

A n = A · · · A (n-mal), A 0 = E.


6 Das Minimalpolynom 30<br />

Wir setzen nun Matrizen in Polynome ein, d.h. wir betrachten die Einsetzungsabbildung<br />

ϕ A : K[x] −→ Mat(n, n; K)<br />

P (x) = ∑ n<br />

i=0 a ix i ↦−→ P (A) := ∑ n<br />

i=0 a iA i .<br />

Die Abbildung ϕ A ist linear, also ein Homomorphismus von K-Vektorräumen<br />

und sogar ein Ringhomomorphismus:<br />

(P + Q)(A) = P (A) + Q(A),<br />

(λP )(A) = λP (A),<br />

(P · Q)(A) = P (A)Q(A).<br />

Das Bild von ϕ A ist der Untervektorraum<br />

K[A] := Span{E, A, A 2 , . . .}<br />

von Mat(n, n; K). Wir betrachten nun die Menge<br />

I A := {P ∈ K[x] | P (A) = 0} = Ker ϕ A .<br />

Aus Lemma 6.2 folgt, dass I A ein Ideal in K[x] ist. Da K[x] ein Hauptidealring<br />

ist, gibt es (falls I A ≠ {0}) genau ein normiertes Polynom µ A ∈ K[x]<br />

mit<br />

I A = 〈µ A 〉.<br />

Satz 6.7 Es gibt genau ein normiertes Polynom 0 ≠ µ A ∈ K[x] mit folgenden<br />

Eigenschaften:<br />

(i) µ A (A) = 0.<br />

(ii) Ist P ∈ K[x] ein Polynom mit P (A) = 0, so ist P = Q · µ A .<br />

(iii) Unter allen normierten Polynomen P ∈ K[x] mit P (A) = 0 hat µ A<br />

minimalen Grad.<br />

Definition Das Polynom µ A ∈ K[x] heißt das Minimalpolynom von A.<br />

Beweis. Wir zeigen zunächst I A ≠ {0}. Es ist K[A] ⊆ Mat(n, n; K), also gilt<br />

dim K[A] ≤ n 2 =: N.<br />

Daher sind die Matrizen<br />

E, A, A 2 , . . . , A N


6 Das Minimalpolynom 31<br />

linear abhängig, d.h. es gibt a 0 , a 1 , . . . , a N ∈ K, nicht alle gleich 0, mit<br />

a 0 E + a 1 A + · · · + a N A N = 0.<br />

Also ist<br />

0 ≠ P (x) := a 0 + a 1 x + · · · + a N x N ∈ I A .<br />

Nach Satz 6.6 ist dann<br />

I A = 〈µ A 〉<br />

für ein eindeutig bestimmtes normiertes Polynom µ A ≠ 0.<br />

✷<br />

Beispiel 6.3 Es sei<br />

⎛<br />

A = ⎜<br />

⎝<br />

Man rechnet leicht aus:<br />

⎛<br />

A 2 =<br />

⎜<br />

⎝<br />

0 1 0<br />

. .. . ..<br />

0 1<br />

0 0<br />

⎞<br />

0 0 1 0<br />

. .. . .. . ..<br />

0 0 1<br />

0 0<br />

0 0<br />

⎟ ∈ Mat(n, n; K).<br />

⎠<br />

⎞<br />

, . . . , A n = 0.<br />

⎟<br />

⎠<br />

Daraus folgt<br />

Satz 6.8 Es gilt<br />

µ A (x) = x n .<br />

deg µ A = dim K[A].<br />

Beweis. Es sei m := dim K[A]. Dann sind<br />

E, A, A 2 , . . . , A m<br />

linear abhängig. Wie im Beweis von Satz 6.7 zeigt man, dass es ein (normiertes)<br />

Polynom P ∈ K[x] gibt mit deg P ≤ m und P (A) = 0. Also ist<br />

deg µ A ≤ m = dim K[A].<br />

Es sei umgekehrt m ′ = deg µ A . Zum Beweis von dim K[A] ≤ m ′ betrachten<br />

wir<br />

U := Span{E, A, . . . , A m′ −1 }.


6 Das Minimalpolynom 32<br />

Dann sind E, A, . . . , A m′ −1 linear unabhängig, denn andernfalls wäre m ′ =<br />

deg µ A nicht minimal. Also ist dim U = m ′ . Es genügt zu zeigen:<br />

Dazu ist zu zeigen, dass<br />

Es sei<br />

Da µ A (A) = 0 folgt<br />

K[A] ⊆ U.<br />

A s ∈ V für s ≥ m ′ .<br />

µ A (x) = a 0 + a 1 x + · · · + a m ′ −1x m′ −1 + x m′ .<br />

A m′ = −a 0 E − · · · − a m ′ −1A m′ −1 ∈ U.<br />

Durch Multiplikation mit A auf beiden Seiten folgt dann aber auch<br />

A m′ +1 = −a 0 A − · · · − a m ′ −1A m′ ∈ U.<br />

Die Behauptung folgt dann durch Induktion.<br />

✷<br />

Korollar 6.5 Ist m = deg µ A , so ist {E, A, . . . , A m−1 } eine Basis von K[A].<br />

Korollar 6.6 Eine Matrix A ∈ Mat(n, n; K) ist genau dann invertierbar,<br />

wenn µ A (0) ≠ 0 gilt. In diesem Fall liegt A −1 ∈ K[A].<br />

Beweis. Es sei<br />

µ A (x) = a 0 + a 1 x + · · · + a m−1 x m−1 + x m<br />

das Minimalpolynom von A. Dann gilt<br />

Setzen wir<br />

so folgt<br />

a 1 A + · · · + a m−1 A m−1 + A m = −a 0 E.<br />

B := a 1 E + · · · + a m−1 A m−2 + A m−1 ,<br />

AB = −a 0 E.<br />

Nach Korollar 6.5 ist B ≠ 0. Ist A nicht invertierbar, so gilt det A = 0, also<br />

µ A (0) = a 0 = 0. Ist A invertierbar, so ist B = −a 0 A −1 und µ A (0) = a 0 ≠ 0.<br />

✷<br />

Lemma 6.3 (Invarianz) Sind die Matrizen A, B ∈ Mat(n, n; K) ähnlich,<br />

dann stimmen die Minimalpolynome µ A und µ B überein.


6 Das Minimalpolynom 33<br />

Beweis. Es sei P ∈ K[x] und B = S −1 AS. Dann gilt<br />

P (S −1 AS) = a 0 E + a 1 S −1 AS + · · · + a m (S −1 AS) m<br />

= a 0 S −1 ES + a 1 S −1 AS + · · · + a m S −1 A m S<br />

= S −1 P (A)S.<br />

Daraus folgt<br />

Damit können wir definieren:<br />

P (A) = 0 ⇔ P (B) = P (S −1 AS) = 0.<br />

✷<br />

Definition Es sei V ein endlich dimensionaler K-Vektorraum und f : V →<br />

V ein Endomorphismus. Dann ist das Minimalpolynom µ f von f das Minimalpolynom<br />

einer Darstellungsmatrix von f.<br />

Nun zeigen wir, dass auch das charakteristische Polynom einer Matrix A<br />

in I A liegt.<br />

Satz 6.9 (Satz von Cayley-Hamilton) Es sei P A<br />

Polynom einer Matrix A ∈ Mat(n, n; K). Dann gilt<br />

das charakteristische<br />

P A (A) = 0.<br />

Daraus folgt unmittelbar:<br />

Korollar 6.7 Das Minimalpolynom µ A teilt das charakteristische Polynom<br />

P A einer Matrix A ∈ Mat(n, n; K).<br />

Beweis von Satz 6.9. Wir wenden einen Trick an. Wir setzen<br />

Dann gilt<br />

B(x) := (A − xE) T ∈ Mat(n, n; K[x]).<br />

det B(x) = P A (x) ∈ K[x].<br />

Nun ersetzen wir die Unbestimmte x durch die Matrix A und jeden Eintrag<br />

a ij durch die Matrix a ij E. Das ergibt<br />

⎛<br />

⎞<br />

a 11 E − A a 21 E · · · a n1 E<br />

a 12 E a 22 E − A · · · a n2 E<br />

B(A) = ⎜<br />

⎝<br />

.<br />

. . .<br />

⎟ ∈ Mat(n, n; K[A]).<br />

. . ⎠<br />

a 1n E a 2n E · · · a nn E − A


7 Diagonalisierbarkeit 34<br />

Diese Matrix kann mit einem Spaltenvektor des K n2 multipliziert werden,<br />

d.h. einem Spaltenvektor, dessen Einträge wiederum Spaltenvektoren des K n<br />

sind. Insbesondere gilt<br />

⎛ ⎞ ⎛<br />

⎞ ⎛ ⎞<br />

e 1 a 11 e 1 − Ae 1 + a 21 e 2 + · · · + a n1 e n<br />

⎜ ⎟ ⎜<br />

⎟ ⎜ ⎟<br />

B(A) ⎝ . ⎠ = ⎝<br />

.<br />

⎠ = ⎝<br />

0. ⎠ .<br />

e n a 1n e 1 + a 2n e 2 + · · · + a nn e n − Ae n 0<br />

Nun sei B ∗ (x) ∈ Mat(n, n; K[x]) die zu B(x) adjungierte Matrix, die wir in<br />

LA I definiert haben. Ihre Einträge sind entsprechend der Definition Polynome<br />

vom Grad ≤ n − 1, und es gilt<br />

B ∗ (x)B(x) = (det B(x))E = P A (x)E.<br />

Setzen wir nun A für x ein, so folgt<br />

⎛ ⎞<br />

⎛<br />

⎜ ⎟<br />

⎝<br />

0. ⎠ = B ∗ ⎜<br />

(A)B(A) ⎝<br />

0<br />

⎞ ⎛ ⎞<br />

e 1 P A (A)e 1<br />

⎟ ⎜ ⎟<br />

. ⎠ = ⎝ . ⎠ .<br />

e n P A (A)e n<br />

Also ist P A (A) = 0.<br />

✷<br />

7 Diagonalisierbarkeit<br />

Nun kommen wir zurück auf das Problem, für die Darstellungsmatrix eines<br />

Endomorphismus eines endlich dimensionalen K-Vektorraums eine Normalform<br />

zu finden. Zunächst betrachten wir noch einmal die Diagonalisierbarkeit.<br />

Es sei V ein K-Vektorraum der Dimension n und f : V → V ein Endomorphismus.<br />

Definition Es sei λ ein Eigenwert von f.<br />

(i) Die algebraische Vielfachheit von λ, in Zeichen ν alg (f, λ), ist die Vielfachheit<br />

von λ als Nullstelle des charakteristischen Polynoms.<br />

(ii) Die geometrische Vielfachheit von λ, in Zeichen ν geom (f, λ), ist die Dimension<br />

des Eigenraums Eig(f, λ).<br />

Lemma 7.1 Ist λ Eigenwert von f, so gilt<br />

1 ≤ ν geom (f, λ) ≤ ν alg (f, λ).


7 Diagonalisierbarkeit 35<br />

Beweis. Es sei (v 1 , . . . , v s ) eine Basis von Eig(f, λ). Da λ Eigenwert von f<br />

ist, gilt s ≥ 1. Wir ergänzen diese Basis zu einer Basis<br />

B = (v 1 , . . . , v s , v s+1 , . . . , v n )<br />

von V . Dann ist<br />

⎛<br />

A := MB B (f) =<br />

⎜<br />

⎝<br />

⎞<br />

λ 0<br />

. ..<br />

∗<br />

0 λ<br />

.<br />

⎟<br />

0 A ′ ⎠<br />

Daraus folgt<br />

und damit<br />

P f (x) = (x − λ) s P A ′(x)<br />

ν geom (f, λ) = dim Eig(f, λ) = s ≤ ν alg (f, λ).<br />

✷<br />

Theorem 7.1 Es sei V ein n-dimensionaler K-Vektorraum und f : V → V<br />

ein Endomorphismus von V . Dann sind die folgenden Bedingungen äquivalent:<br />

(i) f ist diagonalisierbar.<br />

(ii) Das charakteristische Polynom zerfällt in Linearfaktoren und es gilt<br />

ν geom (f, λ) = ν alg (f, λ) für alle Eigenwerte λ von f.<br />

(iii) Sind λ 1 , . . . , λ k die paarweise verschiedenen Eigenwerte von f, so ist<br />

V = Eig(f, λ 1 ) ⊕ · · · ⊕ Eig(f, λ k ).<br />

Beweis. (i) ⇒ (ii): Es sei f diagonalisierbar und λ 1 , . . . , λ k die paarweise<br />

verschiedenen Eigenwerte von f. Zu λ i (i = 1, . . . , k) betrachten wir eine<br />

Basis<br />

(v (i)<br />

1 , . . . , v s (i)<br />

i<br />

) von Eig(f, λ i ).<br />

Setzen wir r i := ν alg (f, λ i ), so gilt<br />

s 1 + · · · + s k = n, r 1 + · · · + r n = n und s i ≤ r i .<br />

Daraus folgt aber s i = r i für alle i = 1, . . . , k.


7 Diagonalisierbarkeit 36<br />

(ii) ⇒ (iii): Es sei<br />

W := Eig(f, λ 1 ) + · · · + Eig(f, λ k ).<br />

Nach I, Satz 19.3, und der Bedingung (iii) in Satz 1.5 folgt<br />

W = Eig(f, λ 1 ) ⊕ · · · ⊕ Eig(f, λ k ).<br />

Aus (ii) und Satz 1.6 (iii) folgt dann W = V .<br />

(iii) ⇒ (i): Für jedes i = 1, . . . , k sei<br />

Nach Satz 1.6 (ii) ist dann<br />

(v (i)<br />

1 , . . . , v (i)<br />

s i<br />

) eine Basis von Eig(f, λ i ).<br />

B := (v (1)<br />

1 , . . . , v (1)<br />

s 1<br />

, . . . , v (k)<br />

1 , . . . , v (k)<br />

s k<br />

)<br />

eine Basis von V . Da sie nach Definition aus Eigenvektoren von f besteht,<br />

ist f diagonalisierbar.<br />

✷<br />

Als Anwendung von Theorem 7.1 betrachten wir das Problem, zwei Endomorphismen<br />

mit einer gemeinsamen Basis zu diagonalisieren (simultane<br />

Diagonalisierung).<br />

Bemerkung 7.1 Angenommen, die Matrizen A, B ∈ Mat(n, n; K) lassen<br />

sich simultan diagonalisieren. Das bedeutet, dass es eine Matrix S ∈ GL(n; K)<br />

gibt mit<br />

SAS −1 = D und SBS −1 = ˜D,<br />

wobei D und ˜D Diagonalmatrizen sind. Dann gilt<br />

BA = S −1 ˜DSS −1 DS = S −1 ˜DDS = S −1 D ˜DS = S −1 DSS −1 ˜DS = AB.<br />

Das bedeutet, dass A und B kommutieren müssen.<br />

Satz 7.1 Sind f, g diagonalisierbare Endomorphismen von V und gilt f ◦g =<br />

g ◦ f, so sind f und g simultan diagonalisierbar.<br />

Beweis. Nach Theorem 7.1 gilt<br />

V = Eig(f, λ 1 ) ⊕ · · · ⊕ Eig(f, λ k )<br />

= Eig(g, µ 1 ) ⊕ · · · ⊕ Eig(g, µ l ),<br />

wobei λ 1 , . . . , λ k bzw. µ 1 , . . . , µ l die verschiedenen Eigenwerte von f bzw. g<br />

sind. Es sei λ einer der Eigenwerte von f und<br />

W := Eig(f, λ).


8 Nilpotente Endomorphismen 37<br />

Es sei w ∈ W . Dann gilt<br />

f(g(w)) = g(f(w)) = g(λw) = λg(w).<br />

Also ist auch g(w) ein Eigenvektor von f zum Eigenwert λ, also liegt auch<br />

g(w) in W . Damit gilt g(W ) ⊆ W . Setze<br />

W j := W ∩ Eig(g, µ j ) für j = 1, . . . , l.<br />

Behauptung W = W 1 ⊕ · · · ⊕ W l .<br />

Beweis. Wegen I, Satz 19.3, und der Bedingung (iii) in Satz 1.5 reicht es zu<br />

zeigen:<br />

W = W 1 + · · · + W l .<br />

Es sei w ∈ W . Dann gibt es w j ∈ Eig(g, µ j ) , so dass w = w 1 + · · · + w l .<br />

Dann gilt<br />

f(w) = f(w 1 ) + · · · + f(w l ) = λw 1 + · · · + λw l = λw.<br />

Da f(w j ) ∈ Eig(g, µ j ) und λw j ∈ Eig(g, µ j ) und die Darstellung von w in<br />

eindeutig ist, folgt<br />

also w j ∈ W und somit w j ∈ W j .<br />

Eig(g, µ 1 ) ⊕ · · · ⊕ Eig(g, µ l )<br />

f(w j ) = λw j ,<br />

Da die Behauptung für alle Eigenwerte λ von f gilt, folgt die Aussage des<br />

Satzes.<br />

✷<br />

8 Nilpotente Endomorphismen<br />

Wie wir in Theorem 7.1 gesehen haben, gibt es zwei Bedingungen für die<br />

Diagonalisierbarkeit:<br />

(a) Das charakteristische Polynom muss in Linearfaktoren zerfallen, und<br />

(b) die geometrische Vielfachheit muss gleich der algebraischen Vielfachheit<br />

der Eigenwerte sein.<br />

Wir untersuchen nun, welche Aussage man noch treffen kann, wenn nur die<br />

Bedingung (a) erfüllt ist.<br />


8 Nilpotente Endomorphismen 38<br />

Definition Eine Matrix A = (a ij ) ∈ Mat(n, n; K) heißt obere Dreiecksmatrix,<br />

wenn a ij = 0 für i > j gilt.<br />

Satz 8.1 Für einen Endomorphismus f eines n-dimensionalen Vektorraums<br />

sind die folgenden Bedingungen äquivalent:<br />

(i) Es gibt eine Basis B, so dass MB B (f) eine obere Dreiecksmatrix ist.<br />

(ii) Das charakteristische Polynom P f zerfällt in Linearfaktoren, d.h.<br />

P f (x) = ±(x − λ 1 ) · · · (x − λ n ) mit λ 1 , . . . , λ n ∈ K.<br />

Beweis. (i) ⇒ (ii): Dies folgt aus I, Satz 18.1.<br />

(ii) ⇒ (i): Wir führen den Beweis durch Induktion über n. Für n = 0, 1 ist<br />

die Behauptung klar. Es sei n ≥ 2 und v 1 ein Eigenvektor zu dem Eigenwert<br />

λ 1 . Wir ergänzen ihn zu einer Basis<br />

von V . Dann gilt<br />

und<br />

B = (v 1 , w 2 , . . . , w n )<br />

V = U 1 ⊕ W mit U 1 := Span{v 1 } und W := Span{w 2 , . . . , w n }<br />

⎛<br />

MB B (f) = ⎜<br />

⎝<br />

⎞<br />

λ 1 a 12 · · · a 1n<br />

a 22 · · · a 2n<br />

0. .<br />

..<br />

⎟ . . ⎠ .<br />

0 a n2 · · · a nn<br />

Wir definieren nun lineare Abbildungen h : W → U 1 und g : W → W durch<br />

für j = 2, . . . , n. Dann gilt<br />

h(w j ) = a 1j v 1 und g(w j ) = a 2j w 2 + · · · + a nj w n<br />

f(w) = h(w) + g(w) für alle w ∈ W.<br />

Für die charakteristischen Polynome gilt<br />

P f (x) = (x − λ 1 )P g (x), also P g (x) = ±(x − λ 2 ) · · · (x − λ n ).<br />

Deswegen können wir die Induktionsvoraussetzung auf g : W → W anwenden.<br />

Demnach gibt es eine Basis (v 2 , . . . , v n ) von W , bezüglich der g durch<br />

eine obere Dreiecksmatrix dargestellt wird. Für f gilt dann<br />

f(v j ) = h(v j ) + g(v j ) ∈ Span{v 1 , . . . , v j } für j = 2, . . . , n.<br />

Also ist auch die Darstellungsmatrix von f bezüglich der Basis B = (v 1 , . . . , v n )<br />

eine obere Dreiecksmatrix.<br />

✷<br />

Wir betrachten nun eine Anwendung dieses Satzes.


8 Nilpotente Endomorphismen 39<br />

Definition (i) Ein Endomorphismus f : V → V heißt nilpotent, wenn<br />

f k = 0 für ein k ≥ 1 ist.<br />

(ii) Eine Matrix A ∈ Mat(n, n; K) heißt nilpotent, wenn A k = 0 für ein<br />

k ≥ 1 ist.<br />

Lemma 8.1 Es sei A nilpotent.<br />

(i) Ist B ähnlich zu A, dann ist auch B nilpotent.<br />

(ii) 0 ist der einzige Eigenwert von A.<br />

Beweis.<br />

(i): Es sei B = S −1 AS und A k = 0. Dann gilt<br />

B k = (S −1 AS)(S −1 AS) · · · (S −1 AS) = S −1 A k S = 0.<br />

(ii): Es sei A k = 0. Aus det A k = 0 folgt det A = 0. Deshalb ist 0 ein<br />

Eigenwert von A. Dies ist auch der einzige Eigenwert: Ist λ ∈ K ein Eigenwert<br />

von A mit Eigenvektor x ≠ 0, dann gilt<br />

A k x = λ k x = 0<br />

und daraus folgt λ = 0.<br />

✷<br />

Satz 8.2 Für einen Endomorphismus f eines n-dimensionalen Vektorraums<br />

V sind die folgenden Bedingungen äquivalent:<br />

(i) f ist nilpotent.<br />

(ii) Es sei B eine Basis von V . Dann ist die Darstellungsmatrix M B B (f)<br />

von f bezüglich der Basis B nilpotent.<br />

(iii) Es gilt P f (x) = ±x n .<br />

(iv) Es gilt f d = 0 für ein d mit 1 ≤ d ≤ n.<br />

(v) Es gibt eine Basis B von V , so dass<br />

⎛<br />

M B B (f) =<br />

⎜<br />

⎝<br />

0 ∗<br />

. ..<br />

0 0<br />

⎞<br />

⎟<br />

⎠ .


8 Nilpotente Endomorphismen 40<br />

Beweis. (i) ⇔ (ii) ist klar.<br />

(ii) ⇒ (iii): Es sei A := MB B (f). Nach Lemma 8.1 (ii) ist 0 der einzige<br />

Eigenwert von A. Deswegen hat das charakteristische Polynom die Gestalt<br />

P f (x) = ±x n .<br />

(iii) ⇒ (iv): Aus dem Satz von Cayley-Hamilton folgt µ f (x) = x d für ein<br />

d mit 1 ≤ d ≤ n. Das bedeutet f d = 0.<br />

(iv) ⇒ (i) ist klar.<br />

(iii) ⇒ (v) folgt aus Satz 8.1.<br />

(v) ⇒ (ii): Es sei A = MB B(f) = (a ij) mit a ij = 0 für i ≥ j.<br />

Behauptung<br />

A r = (a (r)<br />

ij ) mit a(r) ij = 0 für i ≥ j + 1 − r.<br />

Beweis. Wir führen Induktion nach r durch.<br />

Induktionsanfang r = 1: Dies gilt nach Voraussetzung.<br />

Induktionsschritt r − 1 → r: Es gilt<br />

a (r)<br />

ij =<br />

n∑<br />

l=1<br />

a il a (r−1)<br />

lj<br />

.<br />

Es sei nun i ≥ j + 1 − r und 1 ≤ l ≤ n. Wir unterscheiden zwei Fälle:<br />

Fall 1: j + 1 − r ≥ l. Dann ist i ≥ l, also a il = 0 nach Voraussetzung.<br />

Fall 2: l > j +1−r. Dann ist l ≥ j +1−(r −1). Dann gilt aber a (r−1)<br />

lj<br />

= 0<br />

nach Induktionsvorausetzung.<br />

Also gilt<br />

a (r)<br />

ij = 0.<br />

Aus der Behauptung folgt A n = 0. Ist A ′ die Darstellungsmatrix von f<br />

bezüglich einer anderen Basis, so ist A ′ ähnlich zu A. Die Behauptung folgt<br />

damit aus Lemma 8.1 (i).<br />

✷<br />

Wir wollen nun zeigen, dass wir die Matrix in Satz 8.2 (v) noch auf eine<br />

einfachere Gestalt bringen können.<br />

✷<br />

Definition<br />

Die Matrix<br />

⎛<br />

J k = ⎜<br />

⎝<br />

0 1 0<br />

. . .<br />

. . .<br />

0 1<br />

0 0<br />

⎞<br />

⎟ ∈ Mat(k, k; K)<br />

⎠<br />

heißt Jordanmatrix von der Ordnung k.


8 Nilpotente Endomorphismen 41<br />

Nach Beispiel 6.3 ist J k nilpotent, genauer gilt Jk k<br />

Potenz mit dieser Eigenschaft. Wie sieht J 1 aus?<br />

= 0 und k ist die minimale<br />

Theorem 8.1 (Jordannormalform nilpotenter Endomorphismen) Es<br />

sei f ein nilpotenter Endomorphismus eines K-Vektorraums V und d :=<br />

min{l | f l = 0} (d heißt auch der Nilpotenzindex von f). Dann gibt es eindeutig<br />

bestimmte Zahlen s 1 , . . . , s d ∈ N mit<br />

d · s d + (d − 1)s d−1 + · · · + s 1 = n = dim V<br />

und eine Basis B von V , so dass<br />

⎛<br />

⎞<br />

J d .. . J d J d−1 0<br />

.<br />

MB B .. (f) =<br />

J d−1<br />

. 0<br />

.. J 1 ⎜<br />

.<br />

⎝<br />

.. ⎟<br />

⎠<br />

J 1<br />

Beweis. Wir definieren U l := Ker f l und betrachten die Kette von Unterräumen<br />

{0} = U 0 ⊆ U 1 ⊆ . . . ⊆ U d−1 ⊆ U d = V.<br />

Dabei gilt U d = V nach Definition von d, und da d die minimale Potenz mit<br />

f d = 0 ist, sind alle Inklusionen echt.<br />

Behauptung<br />

(1) Für 1 ≤ l ≤ d ist f −1 (U l−1 ) = U l , insbesondere f(U l ) = U l−1 .<br />

(2) Ist W ein Unterraum von V mit W ∩ U l = {0} für ein 1 ≤ l ≤ d, so<br />

ist f| W injektiv.<br />

Beweis.<br />

(1): Es gilt<br />

v ∈ f −1 (U l−1 ) ⇔ f(v) ∈ U l−1 ⇔ 0 = f l−1 (f(v)) = f l (v) ⇔ v ∈ U l .


8 Nilpotente Endomorphismen 42<br />

(2) Es gilt Ker f = U 1 ⊆ U l für jedes 1 ≤ l ≤ d, also W ∩ Ker f = {0}. ✷<br />

Nun konstruieren wir schrittweise eine direkte Summenzerlegung von V .<br />

Zunächst wählen wir ein Komplement W d ⊆ V von U d−1 in V = U d :<br />

Aus Behauptung (1) folgt dann<br />

(a) f(W d ) ⊆ U d−1 und<br />

(b) f(W d ) ∩ U d−2 = {0}.<br />

V = U d = U d−1 ⊕ W d .<br />

Denn aus W d ⊆ U d und f(U d ) = U d−1 folgt (a). Aus f −1 (U d−2 ) = U d−1 und<br />

W d ∩ U d−1 = {0} folgt (b). Also gibt es eine Zerlegung<br />

U d−1 = U d−2 ⊕ W d−1 mit f(W d ) ⊆ W d−1 .<br />

Fahren wir so fort, so erhalten wir folgendes Schema:<br />

U d<br />

↓<br />

U d−1 ⊕ W d<br />

↓ ↓<br />

U d−2 ⊕ W d−1 ⊕ W d<br />

↓ ↓ ↓<br />

. . .<br />

↓ ↓ ↓<br />

U 1 ⊕ W 2 ⊕ W 3 ⊕ · · · ⊕ W d<br />

↓ ↓ ↓ ↓<br />

U 0 ⊕ W 1 ⊕ W 2 ⊕ · · · ⊕ W d−1 ⊕ W d<br />

Dabei zeigen die Pfeile an, wie f die entsprechenden Unterräume abbildet.<br />

Jede Zeile ist eine Zerlegung von V , wegen U 0 = {0} ist insbesondere<br />

Da die Abbildungen<br />

V = W 1 ⊕ W 2 ⊕ · · · ⊕ W d .<br />

f| Wd f| Wd−1 f| W2<br />

W d −→ Wd−1 −→ . . . −→ W1<br />

nach Behauptung (2) alle injektiv sind, können wir mit einer Basis von W d<br />

anfangen, das Bild dieser Basis unter f| Wd zu einer Basis von W d−1 ergänzen,


9 Die Jordansche Normalform 43<br />

usw., bis wir zu einer Basis von V gelangen:<br />

w (d)<br />

1 , f(w (d)<br />

1 ), . . . , f d−1 (w (d)<br />

1 ),<br />

.<br />

w s (d)<br />

d<br />

,<br />

.<br />

.<br />

f(w s (d)<br />

d<br />

), . . . , f d−1 (w s (d)<br />

d<br />

),<br />

w (d−1)<br />

1 , . . . , f d−2 (w (d−1)<br />

1 ),<br />

.<br />

.<br />

w s (d−1)<br />

d−1<br />

, . . . , f d−2 (w s (d−1)<br />

d−1<br />

),<br />

.<br />

w (1)<br />

1 ,<br />

.<br />

w (1)<br />

s 1 .<br />

Dabei ist die erste Spalte eine Basis von W d , die zweite Spalte eine Basis<br />

von W d−1 , und schließlich die letzte Spalte eine Basis von W 1 = U 1 = Ker f.<br />

Ordnen wir die Basis nun so an, dass wir die Zeilen von oben nach unten<br />

lesen, aber in jeder Zeile umgekehrt, also von rechts nach links, laufen, so<br />

erhalten wir eine Basis von V , bezüglich der die Darstellungsmatrix von f<br />

die angebene Gestalt hat.<br />

Wir müssen nun noch zeigen, dass die Zahlen s 1 , . . . , s d eindeutig bestimmt<br />

sind. Dazu sei ˜W l ein Komplement von f(W l+1 ) in W l , l = 1, . . . , d<br />

(hier setzen wir W d+1 = {0}). Dann gilt wegen<br />

U l = U l−1 ⊕ f(W l+1 ) ⊕ ˜W l<br />

und da f| Wl+1<br />

injektiv ist<br />

s l = dim ˜W l = dim U l − dim U l−1 − dim W l+1 .<br />

Damit sind diese Zahlen rekursiv aus den Dimensionen der Kerne von f l<br />

berechenbar.<br />

✷<br />

9 Die Jordansche Normalform<br />

Es sei K ein beliebiger Körper, V ein endlich dimensionaler K-Vektorraum<br />

mit dim V ≥ 1 und f : V → V ein Endomorphismus mit zerfallendem<br />

charakteristischen Polynom<br />

P f (x) = ±(x − λ 1 ) r1 · · · (x − λ k ) r k<br />

,<br />

λ 1 , . . . , λ k ∈ K paarweise verschieden.


9 Die Jordansche Normalform 44<br />

Wir haben bereits gesehen, dass dann f durch eine obere Dreiecksmatrix<br />

dargestellt werden kann. Dieses Ergebnis soll nun noch präzisiert werden.<br />

Im Allgemeinen gilt<br />

dim Eig(f, λ i ) = ν geom (f, λ i ) ≤ r i .<br />

Gilt hier nicht die Gleichheit, so betrachtet man anstelle des Eigenraums<br />

einen größeren Unterraum.<br />

Definition<br />

Für einen Eigenwert λ der Vielfachheit r ≥ 1 nennt man<br />

Hau(f, λ) := Ker(f − λid) r<br />

den Hauptraum (oder verallgemeinerten Eigenraum) von f zum Eigenwert λ.<br />

Satz 9.1 (Hauptraumzerlegung) Es sei f ein Endomorphismus von V<br />

und<br />

P f (x) = ±(x − λ 1 ) r1 · · · (x − λ k ) r k<br />

mit paarweise verschiedenen λ 1 , . . . , λ k ∈ K. Es sei<br />

V i := Hau(f, λ i ) ⊆ V<br />

der Hauptraum zum Eigenwert λ i . Dann gilt:<br />

(1) dim V i = r i und f(V i ) ⊆ V i für i = 1, . . . , k.<br />

(2) V = V 1 ⊕ · · · ⊕ V k .<br />

(3) f hat eine Zerlegung f = f D + f N mit<br />

(a) f D ist diagonalisierbar.<br />

(b) f N ist nilpotent.<br />

(c) f D ◦ f N = f N ◦ f D .<br />

Durch Kombination dieses Satzes mit der Klassifikation nilpotenter Endomorphismen<br />

(Theorem 8.1) erhält man das Hauptresultat dieses Abschnitts.<br />

Theorem 9.1 (Jordansche Normalform) Es sei f ein Endomorphismus<br />

von V und<br />

P f (x) = ±(x − λ 1 ) r1 · · · (x − λ k ) r k


9 Die Jordansche Normalform 45<br />

mit paarweise verschiedenen λ 1 , . . . , λ k ∈ K. Dann gibt es eine Basis B von<br />

V , so dass<br />

⎛<br />

⎞<br />

λ 1 E r1 + N 1 0<br />

MB B (f) =<br />

. ..<br />

,<br />

⎜<br />

⎟<br />

⎝ 0 λ k E rk + N k ⎠<br />

wobei N i für i = 1, . . . , k in der Normalform von Theorem 8.1 ist. Ausgeschrieben<br />

bedeutet das:<br />

⎛<br />

λ i 1<br />

. .. . ..<br />

.<br />

0<br />

. . 1<br />

λ i .. . λ i E ri +N i =<br />

λ i 1<br />

.<br />

.. .<br />

.. .<br />

. .. 1 λ i λ i ⎜<br />

⎝<br />

. ⎟ .. ⎠<br />

0 λ i<br />

⎞<br />

Die Eigenwerte λ 1 , . . . , λ k , die Zahlen r 1 , . . . , r k sowie die Zahlen s (i)<br />

j<br />

d i s (i)<br />

d i<br />

+ (d i − 1)s (i)<br />

d i −1 + · · · + s(i) 1 = r i , i = 1, . . . k<br />

nach Theorem 8.1 sind durch f eindeutig bestimmt. Man nennt sie Invarianten<br />

von f.<br />

Beweis von Theorem 9.1. Setze für i = 1, . . . , k<br />

V i := Hau(f, λ i ) und g i := (f − λ i id)| Vi .<br />

Anwendung von Theorem 8.1 auf g i ergibt eine Basis B i von V i . Nach Satz 9.1<br />

setzen sich die Basen B 1 , . . . , B k zu einer Basis B mit der gewünschten Eigenschaft<br />

zusammen.<br />

✷<br />

mit


9 Die Jordansche Normalform 46<br />

Korollar 9.1 Für einen Endomorphismus f von V sind die folgenden Bedingungen<br />

äquivalent:<br />

(i) f ist diagonalisierbar.<br />

(ii) µ f (x) = (x − λ 1 ) · · · (x − λ k ), wobei λ 1 , . . . , λ k die verschiedenen Eigenwerte<br />

von f sind.<br />

Beweis. Es sei wie oben<br />

d i := min{l i | g l i<br />

i = 0}.<br />

Dann gilt für das Minimalpolynom von g i<br />

µ gi (x) = x d i<br />

.<br />

Die Abbildung g i ist aber genau dann diagonalisierbar, wenn d i = 1.<br />

✷<br />

Nun wollen wir den Satz über die Hauptraumzerlegung beweisen. Dazu<br />

betrachten wir für einen Eigenwert λ von f die Abbildung<br />

g := f − λid.<br />

Die folgenden Überlegungen gelten für einen beliebigen Endomorphismus g<br />

und seine Potenzen. Man hat zwei Ketten von Unterräumen:<br />

{0} ⊆ Ker g ⊆ Ker g 2 ⊆ . . . ⊆ Ker g l ⊆ . . .<br />

V ⊇ Im g ⊇ Im g 2 ⊇ . . . ⊇ Im g l ⊇ . . .<br />

Da V endlich dimensional ist, müssen die beiden Ketten stationär werden,<br />

d.h. irgendwann sind die Inklusionen nicht mehr echt. Genauer bedeutet das,<br />

dass es d und d ′ geben muss mit<br />

{0} ⊆ Ker g ⊆ Ker g 2 ⊆ . . . ⊆ Ker g d = Ker g d+1 = . . .<br />

V ⊇ Im g ⊇ Im g 2 ⊇ . . . ⊇ Im g d′ = Im g d′ +1<br />

= . . .<br />

Genauer gilt Folgendes:<br />

Lemma 9.1 (Fitting) Zu einem Endomorphismus g von V betrachten wir<br />

die Zahlen<br />

Dann gilt:<br />

d := min{l | Ker g l = Ker g l+1 },<br />

d ′ := min{l | Im g l = Im g l+1 },<br />

r := ν alg (g, 0).


9 Die Jordansche Normalform 47<br />

(i) d = d ′ .<br />

(ii) Ker g d+i = Ker g d , Im g d+i = Im g d für alle i ∈ N.<br />

(iii) Die Räume U := Ker g d und W := Im g d sind unter g invariant.<br />

(iv) (g| U ) d = 0 und g| W ist ein Isomorphismus.<br />

(v) Für das Minimalpolynom von g| U gilt µ g|U (x) = x d .<br />

(vi) V = U ⊕ W , dim U = r ≥ d, dim W = n − r.<br />

Beweis. Wir betrachten das Diagramm<br />

Nach der Dimensionsformel gilt<br />

Daraus folgt<br />

Ker g l ⊆ V −→ Im g l<br />

|∩ ‖ ∪|<br />

Ker g l+1 ⊆ V −→ gl+1<br />

Im g l+1<br />

dim V = dim Ker g l + dim Im g l = dim Ker g l+1 + dim Im g l+1 .<br />

Im g l+1 = Im g l ⇔ dim Im g l+1 = dim Im g l<br />

⇔<br />

g l<br />

dim Ker g l+1 = dim Ker g l<br />

⇔ Ker g l+1 = Ker g l .<br />

Daraus folgt zunächst einmal die Aussage (i).<br />

Weiterhin ist die Aussage Im g l+1 = Im g l gleichbedeutend damit, dass<br />

g| Im g l : Im g l → Im g l+1 ein Isomorphismus ist. Daraus folgt (ii), (iii) und<br />

(iv).<br />

(v): Es genügt zu zeigen, dass (g| U ) d−1 ≠ 0. Angenommen, (g| U ) d−1 = 0.<br />

Dann folgt<br />

Ker g d = U ⊆ Ker g d−1 .<br />

Da aber Ker g d−1 ⊆ Ker g d , erhalten wir Ker g d−1 = Ker g d im Widerspruch<br />

zur Definition von d.<br />

(vi): Wir zeigen zunächst V = U ⊕ W . Es sei v ∈ U ∩ W . Dann ist<br />

g d (v) = 0 und v = g d (w) für ein w ∈ V . Daraus folgt g 2d (w) = 0, also<br />

w ∈ Ker g 2d . Nach (ii) gilt Ker g 2d = Ker g d . Damit folgt w ∈ Ker g d und<br />

somit<br />

v = g d (w) = 0.


9 Die Jordansche Normalform 48<br />

Nach Definition von U ist dim U ≥ d, Denn es gilt<br />

{0} ⊂ Ker g ⊂ . . . ⊂ Ker g d−1 ⊂ Ker g d ,<br />

und in jedem Schritt erhöht sich die Dimension mindestens um 1. Nun gilt<br />

P g (x) = x r · Q(x) = P g|U (x) · P g|W (x) mit Q(0) ≠ 0.<br />

Auf der anderen Seite gilt<br />

P g|U (x) = ±x m mit m = dim U,<br />

P g|W (0) ≠ 0 (da g| W ein Isomorphismus nach (iv)).<br />

Daraus folgt m = r, was zu zeigen war.<br />

✷<br />

Beweis von Satz 9.1. Wir führen Induktion über die Zahl k der verschiedenen<br />

Eigenwerte durch. Für k = 1 ist der Satz trivial. Es sei nun k ≥ 2. Zu λ 1<br />

definieren wir<br />

g := f − λ 1 · id.<br />

Dann gilt<br />

Nach Lemma 9.1 gilt<br />

P g (x − λ 1 ) = P f (x), also ν alg (g, 0) = ν alg (f, λ 1 ) = r 1 .<br />

V = Hau(f, λ 1 ) ⊕ W, W = Im g d ,<br />

und die beiden Summanden werden von g und damit auch von f = g + λ 1 id<br />

invariant gelassen. Außerdem gilt<br />

P f|W (x) = ±(x − λ 2 ) r2 · · · (x − λ k ) r k<br />

.<br />

Damit können wir auf f| W die Induktionsannahme anwenden und erhalten<br />

(1) und (2).<br />

Zum Beweis von (3) bemerken wir zunächst, dass es nach Satz 8.1 eine<br />

Basis B von V gibt, so dass die Darstellungsmatrix MB B (f) eine obere<br />

Dreiecksmatrix ist. Diese Matrix schreiben wir als<br />

⎛<br />

⎞<br />

λ 1 E r1 + N 1 0<br />

MB B (f) =<br />

. ..<br />

.<br />

⎜<br />

⎟<br />

⎝ 0 λ k E rk + N k ⎠


9 Die Jordansche Normalform 49<br />

Dann ist jedes N i eine obere Dreiecksmatrix mit Nullen auf der Diagonalen,<br />

nach Satz 8.2 also nilpotent. Setze<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

λ 1 E r1 0<br />

N D := ⎜ . 1 0<br />

.. ⎟<br />

⎝<br />

⎠ und N := ⎜<br />

⎝<br />

. .<br />

⎟<br />

. ⎠ .<br />

0 λ k E rk 0 N k<br />

Dann rechnet man aus:<br />

DN =<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

λ 1 N 1 0<br />

..<br />

⎟<br />

. ⎠ = ND.<br />

0 λ k N k<br />

✷<br />

Bemerkung 9.1 Man kann zeigen, dass die Zerlegung f = f D + f N<br />

Satz 9.1 sogar eindeutig ist, wenn man (a), (b) und (c) verlangt.<br />

in<br />

Bemerkung 9.2 Es sei f ein Endomorphismus mit charakteristischem Polynom<br />

P f (x) = ±(x − λ 1 ) r1 · · · (x − λ k ) r k<br />

und Minimalpolynom<br />

µ f (x) = ±(x − λ 1 ) d1 · · · (x − λ k ) d k<br />

mit paarweise verschiedenen λ 1 , . . . , λ k ∈ K. Die Matrix<br />

⎛<br />

⎞<br />

λ i 1 0<br />

.. .<br />

.. .<br />

⎜<br />

⎝ . ⎟ ∈ Mat(m, m; K)<br />

.. 1 ⎠<br />

0 λ i<br />

nennt man auch einen Jordanblock der Länge m zum Eigenwert λ i . Dann<br />

folgt aus Theorem 9.1, dass r i die Summe der Längen aller Jordanblocks<br />

zum Eigenwert λ i und d i die Länge des größten Jordanblocks zum Eigenwert<br />

λ i ist.<br />

Beispiel 9.1 Gegeben sei die Matrix<br />

⎛<br />

−5 15 11<br />

⎞<br />

A := ⎝ −5 11 5 ⎠ .<br />

3 −6 −2


9 Die Jordansche Normalform 50<br />

Dann gilt<br />

P A (x) = −x 3 + 4x 2 − 5x + 2 = −(x − 1) 2 (x − 2).<br />

Damit ist k = 2, λ 1 = 1, r 1 = 2, λ 2 = 2, r 2 = 1. Wir setzen<br />

⎛<br />

−6 15 11<br />

⎞<br />

⎛<br />

−7 15 11<br />

B 1 := A − E = ⎝ −5 10 5 ⎠ , B 2 := A − 2E = ⎝ −5 9 5<br />

3 −6 −3<br />

3 −6 −4<br />

⎞<br />

⎠ .<br />

Dann gilt<br />

Daraus folgt<br />

⎛<br />

B1 2 = ⎝<br />

−6 −6 −24<br />

−5 −5 −20<br />

3 3 12<br />

⎞<br />

⎠ .<br />

1 = dim Eig(A, 1) = dim Ker B 1 < dim Ker B 2 1 = dim Hau(A, 1) = 2.<br />

Damit ist A nicht diagonalisierbar. Durch Lösen der Gleichungssysteme B 2 1x =<br />

0 und B 2 x = 0 erhält man Basen<br />

{(4, 0, −1) T , (0, 4, −1) T } von Hau(A, 1),<br />

{(6, 5, −3) T } von Hau(A, 2) = Eig(A, 2).<br />

Daraus bilden wir die Matrix<br />

⎛<br />

⎞<br />

⎛<br />

4 0 6<br />

T := ⎝ 0 4 5 ⎠ mit T −1 = 1 ⎝<br />

4<br />

−1 −1 −3<br />

Dann gilt<br />

⎛<br />

B := T −1 AT = ⎝<br />

−31<br />

4<br />

−25<br />

4<br />

49<br />

0<br />

4<br />

39<br />

0<br />

4<br />

0 0 2<br />

7 6 24<br />

5 6 20<br />

−4 −4 −16<br />

Nun transformieren wir die Basis von Hau(A, 1) so, dass ein Basisvektor v<br />

ein Eigenvektor von A zum Eigenwert 1 ist. Er hat die Form<br />

⎞<br />

⎠ .<br />

v = α(4, 0, −1) T + β(0, 4, −1) T .<br />

⎞<br />

⎠ .<br />

Dann müssen α und β der Bedingung<br />

( −35<br />

) (<br />

49<br />

4 4 α<br />

β<br />

−25<br />

4<br />

35<br />

4<br />

) ( ) 0<br />

=<br />

0


10 Affine Quadriken 51<br />

genügen. Daraus folgt, dass man α = 7 und β = 5 wählen kann. Mit der<br />

4 4<br />

neuen Transformationsmatrix<br />

⎛<br />

⎞<br />

⎛<br />

⎞<br />

7 0 6<br />

˜T := ⎝ 5 4 5 ⎠ mit ˜T −1 := 1 7 6 24<br />

⎝ 0 3 5 ⎠<br />

7<br />

−3 −1 −3<br />

−7 −7 −28<br />

ergibt sich<br />

⎛<br />

˜T −1 A ˜T = ⎝<br />

1 7 0<br />

0 1 0<br />

0 0 2<br />

Um nun zur Jordannormalform zu kommen, suchen wir einen Vektor<br />

⎞<br />

⎠ .<br />

w = γ(4, 0, −1) T + δ(0, 4, −1) T<br />

mit der Eigenschaft (B − E)w = v. Also müssen γ und δ der Bedingung<br />

( −35<br />

) ( ) ( )<br />

49<br />

4 4 γ α<br />

=<br />

δ β<br />

−25<br />

4<br />

35<br />

4<br />

genügen. Daraus folgt γ = δ = 1 . Mit der neuen Transformationsmatrix<br />

2<br />

⎛<br />

⎞<br />

⎛<br />

⎞<br />

7 2 6<br />

1 0 2<br />

S := ⎝ 5 2 5 ⎠ mit S −1 := ⎝ 0 3 5 ⎠<br />

−3 −1 −3<br />

−1 −1 −4<br />

ergibt sich schließlich<br />

⎛<br />

S −1 AS = ⎝<br />

10 Affine Quadriken<br />

1 1 0<br />

0 1 0<br />

0 0 2<br />

Wir betrachten nun Quadriken. Die Literatur für diesen Abschnitt ist<br />

⎞<br />

⎠ .<br />

• G. Fischer: Analytische <strong>Geometrie</strong>. Vieweg 1978.<br />

Es sei K im Folgenden immer ein Körper, für den 1 + 1 ≠ 0 ist.<br />

Definition Unter einem quadratischen Polynom über K in den Unbestimmten<br />

x 1 , . . . , x n versteht man einen Ausdruck der Gestalt<br />

n∑<br />

P (x 1 , . . . , x n ) = a ii x 2 i +<br />

∑<br />

n∑<br />

2a ij x i x j + 2a 0i x i + a 00 ,<br />

i=1<br />

wobei a ij ∈ K für 0 ≤ i ≤ j ≤ n.<br />

1≤i


10 Affine Quadriken 52<br />

β<br />

α<br />

Abbildung 1: Ellipse x2 1<br />

α 2 + x2 2<br />

β 2 = 1<br />

β<br />

α<br />

Abbildung 2: Hyperbel x2 1<br />

α 2 − x2 2<br />

β 2 = 1<br />

Definition Eine Teilmenge Q ⊆ K n heißt (affine) Quadrik (oder (affine)<br />

Hyperfläche zweiter Ordnung), wenn es ein quadratisches Polynom P gibt,<br />

so dass<br />

Q = {(x 1 , . . . , x n ) ∈ K n | P (x 1 , . . . , x n ) = 0}.<br />

Beispiel 10.1 (a) x2 1<br />

+ x2 α 2 2<br />

= 1, α, β > 0. Diese Gleichung beschreibt eine<br />

β 2<br />

Ellipse (vgl. Abbildung 1).<br />

(b) x2 1<br />

− x2 α 2 2<br />

= 1, α, β > 0. Diese Gleichung beschreibt eine Hyperbel (vgl.<br />

β 2<br />

Abbildung 2).<br />

(c) x 2 1 − x 2 = 0. Diese Gleichung beschreibt eine Parabel (vgl. Abbildung<br />

3).<br />

Es ist vorteilhaft, die Gleichung für eine Quadrik durch Matrizen auszudrücken.<br />

Dazu setzen wir a ji := a ij für 0 ≤ i < j ≤ n und<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

A = ⎝<br />

.<br />

. .<br />

⎟<br />

. . ⎠ ,<br />

a n1 · · · a nn


10 Affine Quadriken 53<br />

Abbildung 3: Parabel x 2 1 − x 2 = 0<br />

⎛<br />

x = ⎜<br />

⎝<br />

⎞<br />

1<br />

x 1<br />

⎟<br />

. ⎠ ,<br />

x n<br />

⎛<br />

A = ⎜<br />

⎝<br />

a 00 a 01 · · · a 0n<br />

a 10<br />

. A<br />

a n0<br />

Dann sind A und A symmetrisch und es gilt<br />

⎞<br />

⎟<br />

⎠ .<br />

und<br />

P (x 1 , . . . , x n ) = x T Ax<br />

Q = {(x 1 , . . . , x n ) ∈ K n | x T Ax = 0}.<br />

Man nennt A die erweiterte Matrix zu A und x den erweiterten Spaltenvektor<br />

zu x.<br />

Definition Es seien V und W K-Vektorräume. Eine Abbildung f : V → W<br />

heißt affin, wenn es eine lineare Abbildung F : V → W und einen Vektor<br />

w 0 ∈ W gibt mit<br />

f(v) = F (v) + w 0 für alle v ∈ V.<br />

Ist W = V und F : V → V ein Automorphismus, so nennt man die Abbildung<br />

f : V → V eine Affinität.<br />

Eine affine Abbildung ensteht also durch die Hintereinanderschaltung einer<br />

linearen Abbildung F : V → W und einer Translation t : W → W ,<br />

w ↦→ w + w 0 .<br />

Beispiel 10.2 Für V = K n lässt sich eine Affinität wie folgt beschreiben:<br />

mit A ∈ GL(n; K) und b ∈ K n .<br />

f : K n −→ K n<br />

x ↦−→ Ax + b<br />

Satz 10.1 (i) Sind f, g Affinitäten, so auch f ◦ g.


10 Affine Quadriken 54<br />

(ii) Ist f eine Affinität, so ist f bijektiv und die Umkehrabbildung f −1 ist<br />

wieder eine Affinität. Es gilt<br />

Beweis.<br />

(i) Es sei<br />

Dann gilt<br />

f −1 (v) = F −1 (v) − F −1 (w 0 ).<br />

f(v) = F (v) + w 0 ,<br />

g(v) = G(v) + u 0 .<br />

(f ◦ g)(v) = f(g(v)) = f(G(v) + u 0 ) = F (G(v) + u 0 ) + w 0<br />

= F (G(v)) + F (u 0 ) + w 0 = (F ◦ G)(v) + (F (u 0 ) + w 0 ).<br />

(ii)<br />

(f −1 ◦ f)(v) = F −1 (f(v)) − F −1 (w 0 )<br />

= F −1 (F (v) + w 0 ) − F −1 (w 0 )<br />

= v + F −1 (w 0 ) − F −1 (w 0 ) = v,<br />

(f ◦ f −1 )(v) = F (f −1 (v)) + w 0<br />

= F (F −1 (v) + F −1 (w 0 )) + w 0<br />

= v − w 0 + w 0 = v.<br />

Wir wollen nun untersuchen, wie sich die Gleichung einer Quadrik bei<br />

einer Affinität von K n ändert. Dafür erweitern wir die obige Schreibweise<br />

auf Affinitäten. Es sei f : K n → K n , x ↦→ y mit<br />

y = Sx + b (S ∈ GL(n; K), b ∈ K n ).<br />

✷<br />

Dann definieren wir<br />

⎛<br />

S = ⎜<br />

⎝<br />

1 0 · · · 0<br />

b 1<br />

. S<br />

b n<br />

⎞<br />

⎟<br />

⎠ ,<br />

⎛<br />

y = ⎜<br />

⎝<br />

⎞<br />

1<br />

y 1<br />

⎟<br />

. ⎠ .<br />

y n<br />

In dieser Schreibweise wird f gegeben durch<br />

y = Sx.


10 Affine Quadriken 55<br />

Satz 10.2 Ist Q ⊆ K n eine Quadrik und f : K n → K n eine Affinität, so ist<br />

auch f(Q) ⊆ K n eine Quadrik.<br />

Beweis. Es sei Q gegeben durch<br />

x T Ax = 0<br />

und f durch<br />

y = Sx.<br />

Nach Satz 10.1 wird die Abbildung f −1 : K n → K n beschrieben durch<br />

f −1 (y) = S −1 y − S −1 b.<br />

Ist T := S −1 und<br />

T :=<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

1 0 · · · 0<br />

⎟<br />

−S −1 (b) S −1 ⎠ ,<br />

so ist x = Ty. Damit gilt<br />

y = f(x) ∈ f(Q) ⇔ x ∈ Q ⇔ 0 = x T Ax = y T (T T AT)y,<br />

also<br />

f(Q) = {y ∈ K n | y T By = 0} mit B = T T AT.<br />

Wir wollen nun versuchen, die Affinität so zu wählen, dass die neue Gleichung<br />

so einfach wie möglich wird.<br />

Beispiel 10.3 Es sei Q ⊆ R 2 gegeben durch<br />

x 2 1 + 4x 2 2 − 4x 1 x 2 − 6x 1 + 14x 2 + 13 = 0.<br />

Im ersten Schritt eliminieren wir den gemischten Term x 1 x 2 . Es ist<br />

x 2 1 + 4x 2 2 − 4x 1 x 2 = (x 1 − 2x 2 ) 2 .<br />

Also wird Q nach der Koordinatentransformation<br />

z 1 = x 1 − 2x 2 ,<br />

z 2 = x 2<br />


10 Affine Quadriken 56<br />

gegeben durch<br />

z 2 1 − 6z 1 + 2z 2 + 13 = 0.<br />

Nun reduzieren wir die linearen Terme durch quadratische Ergänzung. Die<br />

Gleichung ist äquivalent zu<br />

(z 2 1 − 6z 1 ) + 2z 2 + 13 = 0.<br />

Durch quadratische Ergänzung der Klammer ergibt sich<br />

oder<br />

Nach der Transformation<br />

erhält man die Gleichung<br />

(z 2 1 − 6z 1 + 9) + 2z 2 + 13 − 9 = 0<br />

(z 1 − 3) 2 + 2(z 2 + 2) = 0.<br />

y 1 = z 1 − 3,<br />

y 2 = z 2 + 2<br />

y 2 1 + 2y 2 = 0.<br />

Wir verallgemeinern nun die Methode aus diesem Beispiel. Wir betrachten<br />

den Spezialfall K = R.<br />

Es sei also die Quadrik Q ⊆ R n beschrieben durch<br />

⎛<br />

A = ⎜<br />

⎝<br />

a 00 a 01 · · · a 0n<br />

a 10<br />

. A<br />

a n0<br />

⎞<br />

⎟<br />

⎠ .<br />

Im ersten Schritt bringen wir die symmetrische Teilmatrix A auf Normalform.<br />

Nach Satz 5.1 gibt es eine Matrix T 1 ∈ GL(n; R) mit<br />

⎛<br />

E k 0<br />

⎞<br />

0<br />

T1 T AT 1 = ⎝ 0 −E m−k 0 ⎠ ,<br />

0 0 0<br />

wobei m der Rang von A und k der Index von A ist. Ist<br />

⎛<br />

⎞<br />

1 0 · · · 0<br />

T 1 = ⎜<br />

⎟<br />

⎝<br />

0. T 1 ⎠<br />

0


10 Affine Quadriken 57<br />

so wird<br />

⎛<br />

B 1 = T T 1 AT 1 = ⎜<br />

⎝<br />

c 00 c 01 · · · c 0n<br />

c 10 E k 0 0<br />

. 0 −E m−k 0<br />

c n0 0 0 0<br />

In den neuen Koordinaten lautet die Gleichung<br />

⎞<br />

⎟<br />

⎠ .<br />

z 2 1 + · · · + z 2 k − z 2 k+1 − · · · − z 2 m + 2(c 01 z 1 + · · · + c 0n z n ) + c 00 = 0,<br />

hat also keine gemischten Terme mehr.<br />

Im zweiten Schritt reduzieren wir durch eine Translation die linearen<br />

Terme. Wir setzen<br />

⎛<br />

⎞<br />

1 0 · · · 0 0 · · · 0 0 · · · 0<br />

−c 10 1<br />

. . . .<br />

−c k0 1 0<br />

c<br />

T 2 =<br />

k+1,0 1<br />

⎜<br />

. ..<br />

⎟ .<br />

Damit ergibt sich<br />

⎜<br />

⎝<br />

.<br />

c m0 1<br />

0 0 1<br />

.<br />

.. .<br />

0 1<br />

B 2 := T T 2 B 1 T 2 = T T 2 T T 1 AT 1 T 2<br />

⎛<br />

⎞<br />

d 00 0 · · · 0 0 · · · 0 c 0,m+1 · · · c 0n<br />

0 +1 0<br />

. . ..<br />

0 +1 0<br />

0 −1<br />

=<br />

. .<br />

..<br />

.<br />

0 0 1<br />

c m+1,0 0<br />

⎜<br />

⎝<br />

. ⎟<br />

. 0<br />

. . ⎠<br />

c n0 0<br />

Das bedeutet, dass Q in den neuen Koordinaten beschrieben werden kann<br />

durch die Gleichung<br />

u 2 1 + · · · + u 2 k − u 2 k+1 − · · · − u 2 m + 2(c m+1,0 u m+1 + · · · + c n0 u n ) + d 00 = 0.<br />

⎟<br />


10 Affine Quadriken 58<br />

Nun unterscheiden wir drei Fälle:<br />

(1) d 00 = c m+1,0 = . . . = c n0 = 0.<br />

(2) d 00 ≠ 0, c m+1,0 = . . . = c n0 = 0.<br />

(3) c r0 ≠ 0 für mindestens ein r ∈ {m + 1, . . . , n}.<br />

Fall (1): Dann reduziert sich die obige Gleichung auf<br />

u 2 1 + · · · + u 2 k − u 2 k+1 − · · · − u 2 m<br />

und wir sind fertig.<br />

Fall (2): O.B.d.A. d 00 < 0 (sonst multipliziere man die Gleichung mit −1<br />

und ordne durch eine weitere Transformation u 1 , . . . , u m um). Setze<br />

d.h. betrachte<br />

(u 1 , . . . , u n ) = ρ(y 1 , . . . , y n ) mit ρ = √ −d 00 ,<br />

( 1 0<br />

T 3 :=<br />

0 1E ρ n<br />

Dividiert man die entstehende Gleichung durch ρ 2 , so erhält man<br />

)<br />

.<br />

y 2 1 + · · · + y 2 k − y 2 k+1 − · · · − y 2 m = 1.<br />

Fall (3): O.B.d.A. r = m + 1 (sonst ordne man in einer weiteren Transformation<br />

u m+1 , . . . , u n um). Setzt man<br />

y i = u i für i ≠ m + 1,<br />

2y m+1 = 2(c m+1,0 u m+1 + · · · + c n0 u n ) + d 00 ,<br />

so erhält man als neue Gleichung für Q<br />

y 2 1 + · · · + y 2 k − y 2 k+1 − · · · − y 2 m + 2y m+1 = 0.<br />

Die Transformation kann man so beschreiben: Durch simultane Zeilen- und<br />

Spaltenumformungen der Matrix B 2 beseitigt man mit Hilfe von c m+1,0 =<br />

c 0,m+1 nacheinander die Einträge<br />

d 00 , c m+2,0 = c 0,m+2 , . . . , c n0 = c 0n .<br />

Insgesamt ergibt dies eine affine Transformation T 3 .<br />

Damit haben wir folgendes Ergebnis bewiesen:


10 Affine Quadriken 59<br />

Theorem 10.1 (Affine Klassifikation von Quadriken) Gegeben sei eine<br />

Quadrik<br />

Q = {x ∈ R n | x T Ax = 0},<br />

wobei A eine symmetrische (n + 1) × (n + 1)-Matrix ist. Es sei<br />

m := Rang A, m := Rang A.<br />

Dann gibt es eine Affinität f : R n → R n , so dass f(Q) beschrieben wird<br />

durch eine der folgenden Gleichungen<br />

(1) y 2 1 + · · · + y 2 k − y2 k+1 − · · · − y2 m = 0, falls m = m,<br />

(2) y 2 1 + · · · + y 2 k − y2 k+1 − · · · − y2 m = 1, falls m + 1 = m,<br />

(3) y 2 1 + · · · + y 2 k − y2 k+1 − · · · − y2 m + 2y m+1 = 0, falls m + 2 = m.<br />

Speziell für n = 2, 3 erhalten wir die Tabellen 1 und 2.<br />

Typ m m k Gleichung Beschreibung<br />

(1) 0 0 0 0 = 0 Ebene R 2<br />

1 1 1 y1 2 = 0 (Doppel-)Gerade<br />

2 2 1 y1 2 − y2 2 = 0 Geradenpaar (mit Schnittpunkt)<br />

2 2 2 y1 2 + y2 2 = 0 Punkt<br />

(2) 1 2 1 y1 2 = 1 Zwei parallele Geraden<br />

2 3 1 y1 2 − y2 2 = 1 Hyperbel<br />

2 3 2 y1 2 + y2 2 = 1 Kreis<br />

(3) 1 3 1 y1 2 + 2y 2 = 0 Parabel<br />

Tabelle 1: Normalformen von nicht leeren Quadriken im R 2<br />

Nun wollen wir statt allgemeinen Affinitäten nur solche Affinitäten zulassen,<br />

bei denen die lineare Abbildung orthogonal ist.<br />

Definition Es sei V ein euklidischer Vektorraum. Eine Affinität f : V → V<br />

heißt Kongruenz (oder Bewegung), falls es eine orthogonale Abbildung F :<br />

V → V und ein w 0 ∈ V gibt, so dass<br />

f(v) = F (v) + w 0 für alle v ∈ V.<br />

Eine Kongruenz ist also die Hintereinanderschaltung einer orthogonalen<br />

Abbildung und einer Translation. Ist insbesondere V = R n und<br />

f(x) = Ax + b für alle x ∈ R n


10 Affine Quadriken 60<br />

Typ m m k Gleichung Beschreibung<br />

(1) 0 0 0 0 = 0 Raum R 3<br />

1 1 1 y1 2 = 0 (Doppel-)Ebene<br />

2 2 1 y1 2 − y2 2 = 0 Ebenenpaar (mit Schnittgerade)<br />

2 2 2 y1 2 + y2 2 = 0 Gerade<br />

3 3 2 y1 2 + y2 2 − y3 2 = 0 Kreiskegel<br />

3 3 3 y1 2 + y2 2 + y3 2 = 0 Punkt<br />

(2) 1 2 1 y1 2 = 1 Zwei parallele Ebenen<br />

2 3 1 y1 2 − y2 2 = 1 hyperbolischer Zylinder<br />

2 3 2 y1 2 + y2 2 = 1 Kreiszylinder<br />

3 4 1 y1 2 − y2 2 − y3 2 = 1 zweischaliges Hyperboloid<br />

3 4 2 y1 2 + y2 2 − y3 2 = 1 einschaliges Hyperboloid<br />

3 4 3 y1 2 + y2 2 + y3 2 = 1 Kugel<br />

(3) 1 3 1 y1 2 + 2y 2 = 0 parabolischer Zylinder<br />

2 4 1 y1 2 − y2 2 + 2y 3 = 0 hyperbolisches Paraboloid<br />

2 4 2 y1 2 + y2 2 + 2y 3 = 0 elliptisches Paraboloid<br />

Tabelle 2: Normalformen von nicht leeren Quadriken im R 3<br />

mit A ∈ GL(n; R), so ist f genau dann eine Kongruenz, wenn A orthogonal<br />

ist.<br />

Nun modifizieren wir unsere Überlegungen, die zum Beweis von Theorem<br />

10.1 führten, so, dass wir statt beliebiger Affinitäten nur Kongruenzen<br />

zulassen.<br />

Gegeben sei wieder die Quadrik<br />

Q = {x ∈ R n | x T Ax = 0}.<br />

Nach dem Satz über die Hauptachsentransformation gibt es eine orthogonale<br />

Matrix T 1 mit<br />

⎛<br />

⎞<br />

λ 1 0 · · · 0<br />

T1 T 0 λ 2 · · · 0<br />

AT 1 = ⎜<br />

⎝<br />

.<br />

. . ..<br />

⎟ . ⎠ , (λ 1, . . . , λ n ∈ R).<br />

0 0 · · · λ n<br />

Wir können λ 1 , . . . , λ m ≠ 0 und λ m+1 = . . . = λ n = 0 annehmen. Damit sind<br />

die gemischten Terme beseitigt. Mit der erweiterten Matrix T 1 wie oben gilt


10 Affine Quadriken 61<br />

dann<br />

⎛<br />

B 1 := T T 1 AT 1 =<br />

⎜<br />

⎝<br />

d 00 c 01 · · · c 0m c 0,m+1 · · · c 0n<br />

c 10 λ 1 0<br />

.<br />

. .. 0<br />

c m0 0 λ m<br />

c m+1,0 0<br />

. 0<br />

.. .<br />

c n0 0<br />

⎞<br />

.<br />

⎟<br />

⎠<br />

Wie oben führt eine Translation zu<br />

⎛<br />

d 00 0 · · · 0 c 0,m+1 · · · c 0n<br />

0 λ 1 0<br />

.<br />

.. . 0<br />

B 2 := T T 2 B 1 T 2 =<br />

0 0 λ m<br />

c<br />

⎜ m+1,0 0<br />

⎝<br />

.<br />

. 0<br />

..<br />

c n0 0<br />

⎞<br />

.<br />

⎟<br />

⎠<br />

Nun unterscheiden wir wieder drei Fälle:<br />

Fall (1): d 00 = c m+1,0 = . . . = c n0 = 0.<br />

Hier sind wir bereits fertig: O.B.d.A. λ 1 , . . . , λ k > 0, λ k+1 , . . . , λ m < 0. Wir<br />

setzen für i = 1, . . . , m<br />

α i := √ 1<br />

|λi | .<br />

Damit erhalten wir die Gleichung<br />

y1<br />

2<br />

α1<br />

2<br />

+ · · · + y2 k<br />

α 2 k<br />

− y2 k+1<br />

− · · · − y2 m<br />

αk+1<br />

2 αm<br />

2<br />

= 0.<br />

Fall (2): d 00 ≠ 0, c m+1,0 = . . . = c n0 = 0.<br />

O.B.d.A. d 00 < 0, λ 1 , . . . , λ k > 0, λ k+1 , . . . , λ m < 0. Wir dividieren die<br />

Gleichung durch |d 00 | und setzen<br />

α i :=<br />

√<br />

|d00 |<br />

√<br />

|λi | .<br />

Dann erhalten wir die Gleichung<br />

y1<br />

2<br />

α1<br />

2<br />

+ · · · + y2 k<br />

α 2 k<br />

− y2 k+1<br />

− · · · − y2 m<br />

αk+1<br />

2 αm<br />

2<br />

= 1.


10 Affine Quadriken 62<br />

Fall (3): c r0 ≠ 0 für mindestens ein r ∈ {m + 1, . . . , n}.<br />

Hier ist die Transformation, mit der wir d 00 , c m+2,0 , . . . , c n0 beseitigt haben,<br />

keine Kongruenz. Deswegen brauchen wir hier zusätzliche Überlegungen. Wir<br />

setzen<br />

v := (c m+1,0 , . . . , c n0 ) T ∈ R n−m , v 1 = 1<br />

‖v‖ v,<br />

und konstruieren nach dem E. Schmidtschen Orthonormalisierungsverfahren<br />

eine Orthonormalbasis v 1 , . . . , v n−m von R n−m . Dann beschreibt die Matrix<br />

⎛<br />

⎞<br />

1 0 · · · 0 0 · · · 0<br />

0 1 0<br />

.<br />

.. . 0<br />

T 3 :=<br />

0 0 1<br />

, mit µ := −d 00<br />

2‖v‖ ,<br />

⎜<br />

⎟<br />

⎝ µv 1 0 v 1 · · · v n−m<br />

⎠<br />

eine Kongruenz und man rechnet leicht aus:<br />

⎛<br />

0 0 · · · 0 ‖v‖ 0 · · · 0<br />

0 λ 1 0 0<br />

. . .. . 0<br />

B 3 := T T 0 0 λ<br />

3 B 2 T 3 =<br />

m 0<br />

‖v‖ 0 · · · 0 0<br />

⎜<br />

⎝<br />

0. 0 0<br />

0<br />

⎞<br />

.<br />

⎟<br />

⎠<br />

Wieder nehmen wir λ 1 , . . . , λ k > 0 und λ k+1 , . . . , λ m < 0 an und setzen<br />

√<br />

‖v‖<br />

α i := √<br />

|λi | .<br />

Damit ergibt sich die Gleichung<br />

y1<br />

2<br />

α1<br />

2<br />

+ · · · + y2 k<br />

α 2 k<br />

− y2 k+1<br />

− · · · − y2 m<br />

+ 2y<br />

αk+1<br />

2 αm<br />

2 m+1 = 0.<br />

Damit haben wir bewiesen:<br />

Theorem 10.2 (Metrische Klassifikation von Quadriken) Gegeben sei<br />

eine Quadrik<br />

Q = {x ∈ R n | x T Ax = 0},


10 Affine Quadriken 63<br />

wobei A eine symmetrische (n + 1) × (n + 1)-Matrix ist. Es sei<br />

m := Rang A, m := Rang A.<br />

Dann gibt es eine Kongruenz f : R n → R n und α 1 , . . . , α m ∈ R, so dass f(Q)<br />

beschrieben wird durch eine der folgenden Gleichungen:<br />

(1)<br />

(2)<br />

(3)<br />

y1<br />

2<br />

α1<br />

2<br />

y1<br />

2<br />

α1<br />

2<br />

y1<br />

2<br />

α1<br />

2<br />

+ · · · + y2 k<br />

α 2 k<br />

+ · · · + y2 k<br />

α 2 k<br />

+ · · · + y2 k<br />

α 2 k<br />

− y2 k+1<br />

− · · · − y2 m<br />

αk+1<br />

2 αm<br />

2<br />

− y2 k+1<br />

− · · · − y2 m<br />

αk+1<br />

2 αm<br />

2<br />

= 0, falls m = m,<br />

= 1, falls m + 1 = m,<br />

− y2 k+1<br />

− · · · − y2 m<br />

+ 2y<br />

αk+1<br />

2 αm<br />

2 m+1 = 0, falls m + 2 = m.<br />

Speziell für n = 2 erhalten wir folgende Tabelle:<br />

Typ m m k Gleichung Beschreibung<br />

(1) 0 0 0 0 = 0 Ebene R 2<br />

1 1 1 x 2 = 0 (Doppel-)Gerade<br />

2 2 1 x 2 − αy 2 = 0, α > 0 Geradenpaar<br />

2 2 2 x 2 + αy 2 = 0, α > 0 Punkt<br />

x<br />

(2) 1 2 1 2<br />

= 1, α > 0<br />

α 2 Zwei parallele Geraden<br />

2 3 1<br />

x 2<br />

− y2<br />

= 1, α, β > 0<br />

α 2 β 2 Hyperbel<br />

2 3 2<br />

x 2<br />

+ y2<br />

= 1, α, β > 0<br />

α 2 β 2 Ellipse, Kreis<br />

(3) 1 3 1 x 2 + αy = 0, α ≠ 0 Parabel<br />

Tabelle 3: Metrische Klassifikation von nicht leeren Quadriken im R 2<br />

Im Fall n = 3 illustrieren wir im Folgenden den Klassifikationssatz durch<br />

Bilder.<br />

Fall (1): Der interessanteste Fall ist m = 3, k = 2. Die Gleichung<br />

x 2<br />

α 2 + y2<br />

β 2 − z2<br />

γ 2 = 0<br />

beschreibt einen elliptischen Kegel (Bild 4).<br />

Fall (2): In diesem Fall beschränken wir uns auf m = 3. Für k = 3 ergibt<br />

sich die Gleichung<br />

x 2<br />

α + y2<br />

2 β + z2<br />

2 γ = 1, 2<br />

die ein Ellipsoid beschreibt (Bild 5).


10 Affine Quadriken 64<br />

Abbildung 4: Elliptischer Kegel x2<br />

α 2 + y2<br />

β 2 − z2<br />

γ 2 = 0<br />

Abbildung 5: Ellipsoid x2<br />

α 2 + y2<br />

β 2 + z2<br />

γ 2 = 1<br />

Für k = 2 beschreibt<br />

ein einschaliges Hyperboloid (Bild 6).<br />

x 2<br />

α 2 + y2<br />

β 2 − z2<br />

γ 2 = 1<br />

Abbildung 6: Einschaliges Hyperboloid x2<br />

α 2 + y2<br />

β 2 − z2<br />

γ 2 = 1<br />

Für k = 1 ergibt sich die Gleichung<br />

x 2<br />

α 2 + y2<br />

β 2 − z2<br />

γ 2 = −1<br />

für ein zweischaliges Hyperboloid (Bild 7).


10 Affine Quadriken 65<br />

Abbildung 7: Zweischaliges Hyperboloid x2<br />

α 2 + y2<br />

β 2 − z2<br />

γ 2<br />

= −1<br />

Fall (3): Hier beschränken wir uns auf den Fall m = 2. Für k = 0 erhalten<br />

wir die Gleichung<br />

x 2<br />

α + y2<br />

− 2z = 0,<br />

2 β2 die ein elliptisches Paraboloid beschreibt (Bild 8).<br />

Abbildung 8: Elliptisches Paraboloid x2<br />

α 2 + y2<br />

β 2 − 2z = 0<br />

Für k = 1 beschreibt<br />

ein hyperbolisches Paraboloid (Bild 9).<br />

y 2<br />

β 2 − x2<br />

α 2 − 2z = 0<br />

Abbildung 9: Hyperbolisches Paraboloid y2<br />

β 2 − x2<br />

α 2 − 2z = 0


11 Der Dualraum 66<br />

11 Der Dualraum<br />

Ein grundlegender Begriff in der <strong>Lineare</strong>n <strong>Algebra</strong> ist der Begriff des Dualraums,<br />

den wir nun einführen wollen. Im Folgenden sei K wieder ein beliebiger<br />

Körper.<br />

Definition Es seien V, W K-Vektorräume. Die Menge aller linearen Abbildungen<br />

von V nach W bezeichnen wir mit<br />

Hom K (V, W ) := {f : V → W | f linear}.<br />

Auf der Menge Hom K (V, W ) erklären wir eine Addition und skalare Multiplikation<br />

wie folgt (f, g ∈ Hom K (V, W ), λ ∈ K):<br />

(f + g)(x) = f(x) + g(x),<br />

(λf)(x) = λf(x) für alle x ∈ V.<br />

Mit dieser Addition und skalaren Multiplikation wird Hom K (V, W ) zu einem<br />

K-Vektorraum. Nun betrachten wir den Spezialfall W = K.<br />

Definition<br />

Der Vektorraum<br />

V ∗ := Hom K (V, K) = {ϕ : V → K | ϕ linear}<br />

heißt der Dualraum von V . Die Elemente von V ∗ heißen Linearformen auf<br />

V .<br />

Beispiel 11.1 Wir betrachten eine lineare Gleichung<br />

a 1 x 1 + · · · + a n x n = 0.<br />

Setzt man a = (a 1 , . . . , a n ) (Zeilenvektor!), so gilt<br />

⎛ ⎞<br />

a · x = ( x<br />

) 1<br />

⎜ ⎟<br />

a 1 · · · a n ⎝ . ⎠ = a 1 x 1 + · · · + a n x n .<br />

x n<br />

Deswegen können wir a als eine lineare Abbildung<br />

a : K n −→ K<br />

x ↦−→ a · x<br />

auffassen, d.h. als ein Element von (K n ) ∗ .


11 Der Dualraum 67<br />

Beispiel 11.2 Es sei I = [a, b] ⊆ R ein Intervall und V = C[a, b] der Vektorraum<br />

der auf I stetigen Funktionen. Dann ist<br />

∫ b<br />

a<br />

: V → R, f ↦→<br />

∫ b<br />

a<br />

f(x) dx,<br />

eine Linearform auf V . Linearformen auf unendlich dimensionalen Vektorräumen<br />

nennt man auch lineare Funktionale. Mit ihnen beschäftigt sich die Funktionalanalysis.<br />

Wir setzen von nun an voraus, dass V ein endlich dimensionaler K-<br />

Vektorraum ist und n = dim V > 0. Es sei B = {v 1 , . . . , v n } eine Basis<br />

von V . Dann gibt es zu jedem i = 1, . . . , n genau eine lineare Abbildung<br />

mit<br />

v ∗ i (v j ) := δ ij :=<br />

(δ ij heißt das Kroneckersymbol).<br />

v ∗ i : V → K<br />

{ 1 falls j = i,<br />

0 falls j ≠ i<br />

Satz 11.1 Die Menge B ∗ := {v ∗ 1, . . . , v ∗ n} ist eine Basis von V ∗ . Insbesondere<br />

gilt dim V ∗ = dim V = n.<br />

Definition<br />

Man nennt B ∗ die zu der Basis B duale Basis.<br />

Beweis.<br />

(a) B ∗ ist linear unabhängig:<br />

n∑<br />

n∑<br />

α i vi ∗ = 0 ⇒ α i vi ∗ (v j ) = 0 ⇒ α j = 0<br />

i=1<br />

i=1<br />

(j = 1, . . . , n).<br />

(b) B ∗ ist ein Erzeugendensystem: Es sei v ∗ ∈ V ∗ . Wir setzen<br />

Behauptung<br />

v ∗ = ∑ n<br />

i=1 α iv ∗ i .<br />

α i := v ∗ (v i ), i = 1, . . . , n.<br />

Beweis. Da eine lineare Abbildung durch die Bilder einer Basis eindeutig<br />

festgelegt ist, reicht es zu zeigen, dass die Bilder der Basisvektoren v j , j =<br />

1, . . . , n, unter den beiden linearen Abbildungen übereinstimmen:<br />

( n∑<br />

)<br />

n∑<br />

α i vi<br />

∗ (v j ) = α i vi ∗ (v j ) = α j = v ∗ (v j ).<br />

i=1<br />

i=1<br />

✷<br />


11 Der Dualraum 68<br />

Korollar 11.1 Zu jedem v ∈ V mit v ≠ 0 gibt es ein ϕ ∈ V ∗ mit ϕ(v) ≠ 0.<br />

Beweis. Dies folgt daraus, dass man jeden Vektor v ≠ 0 zu einer Basis von<br />

V ergänzen kann.<br />

✷<br />

Korollar 11.2 Zu jeder Basis B = {v 1 , . . . , v n } von V gibt es einen Isomorphismus<br />

Ψ B : V → V ∗ mit Ψ B (v i ) = v ∗ i .<br />

Warnung<br />

Dieser Isomorphismus hängt von der Wahl der Basis ab!<br />

Beweis. Dies folgt aus der Tatsache, dass eine lineare Abbildung durch die<br />

Bilder der Vektoren einer Basis bestimmt ist.<br />

✷<br />

Beispiel 11.3 V = K n , B = {e 1 , . . . , e n } kanonische Basis. Duale Basis:<br />

B ∗ = {e ∗ 1, . . . , e ∗ n} (kanonische Basis von V ∗ ).<br />

Wir machen die Konvention, Vektoren als Spalten und Linearformen als Zeilen<br />

zu schreiben. Dann gilt<br />

e ∗ i = (0, . . . , 0, 1, 0, . . . , 0),<br />

1 an der i-ten Stelle.<br />

Definition<br />

Ist V ein K-Vektorraum und U ⊆ V ein Unterraum, so heißt<br />

U 0 := {ϕ ∈ V ∗ | ϕ(u) = 0 für alle u ∈ U} ⊆ V ∗<br />

der zu U orthogonale Raum (oder der Annullator von U).<br />

Der zu U orthogonale Raum U 0 ist ein Unterraum von V ∗ .<br />

Warnung Der zu einem Unterraum U ⊆ V orthogonale Raum U 0 liegt in<br />

V ∗ und ist nicht zu verwechseln mit dem orthogonalen Komplement U ⊥ von<br />

U, das nur in Räumen mit Skalarprodukt definiert ist und dann in V liegt!<br />

Satz 11.2 Für jeden Unterraum U ⊆ V gilt<br />

dim U 0 = dim V − dim U.<br />

Genauer gilt: Ist {u 1 , . . . , u k } eine Basis von U und B = {u 1 , . . . , u k , w 1 , . . . , w l }<br />

eine Basis von V , so bilden die Linearformen {w ∗ 1, . . . , w ∗ l } aus B∗ eine Basis<br />

von U 0 .


11 Der Dualraum 69<br />

Beweis.<br />

(a) <strong>Lineare</strong> Unabhängigkeit: Da w1, ∗ . . . , wl ∗<br />

sind, sind sie linear unabhängig.<br />

(b) Zu zeigen: U 0 = Span{w1, ∗ . . . , wl ∗}.<br />

”⊇”: klar, da wj ∗ (u i ) = 0.<br />

”⊆”: Es sei ϕ ∈ U 0 ,<br />

Elemente der dualen Basis B∗<br />

ϕ = µ 1 u ∗ 1 + · · · + µ k u ∗ k + λ 1 w ∗ 1 + · · · + λ l w ∗ l .<br />

Wendet man diese Abbildung auf u i (i = 1, . . . , k) an, so folgt<br />

0 = ϕ(u i ) = µ i .<br />

Nun wollen wir auch lineare Abbildungen dualisieren. Es sei f : V → W<br />

eine lineare Abbildung und ψ ∈ W ∗ . Dann betrachten wir dazu das Diagramm<br />

f<br />

V W<br />

<br />

ψ<br />

ψ◦f<br />

K<br />

Dann gilt ψ ◦ f ∈ V ∗ . Damit können wir definieren:<br />

✷<br />

Definition<br />

Die Abbildung<br />

heißt die zu f duale Abbildung.<br />

f ∗ : W ∗ → V ∗ , ψ ↦→ f ∗ (ψ) := ψ ◦ f,<br />

Bemerkung 11.1 Die Abbildung f ∗ ist linear:<br />

f ∗ (ψ 1 + ψ 2 ) = (ψ 1 + ψ 2 ) ◦ f = ψ 1 ◦ f + ψ 2 ◦ f = f ∗ (ψ 1 ) + f ∗ (ψ 2 ),<br />

f ∗ (λψ) = (λψ) ◦ f = λψ ◦ f = λf ∗ (ψ).<br />

Satz 11.3 Es seien V und W K-Vektorräume mit Basen B und C und<br />

f : V → W eine lineare Abbildung. Dann gilt<br />

M B∗<br />

C ∗ (f ∗ ) = ( M C B (f) ) T<br />

,<br />

d.h. die duale Abbildung wird bezüglich der dualen Basen durch die transponierte<br />

Matrix beschrieben.


11 Der Dualraum 70<br />

Beweis. Es sei B = {v 1 , . . . , v n }, C = {w 1 , . . . , w m }, M C B (f) = (a ij), M B∗<br />

C ∗ (f ∗ ) =<br />

(b ij ). Dann gilt<br />

f(v j ) =<br />

f ∗ (w ∗ i ) =<br />

m∑<br />

a ij w i , also a ij = wi ∗ (f(v j )) = f ∗ (wi ∗ )(v j ),<br />

i=1<br />

n∑<br />

b ji vj ∗ , also b ji = f ∗ (wi ∗ )(v j ).<br />

j=1<br />

Also gilt a ij = b ji .<br />

✷<br />

Definition<br />

Es sei<br />

f i−1 f i<br />

· · · −→ V i−1 −→ Vi −→ Vi+1 −→ · · ·<br />

eine (endliche oder unendliche) Sequenz von K-Vektorräumen und linearen<br />

Abbildungen. Die Sequenz heißt exakt, wenn für jedes i gilt:<br />

Ker f i = Im f i−1 .<br />

Unter einer kurzen exakten Sequenz versteht man eine exakte Sequenz der<br />

Gestalt<br />

0 −→ U −→ f<br />

V −→ g<br />

W −→ 0.<br />

Es sei<br />

0 −→ U f<br />

−→ V<br />

eine kurze exakte Sequenz. Dann gilt<br />

g<br />

−→ W −→ 0<br />

Exaktheit an der Stelle U ⇔ f injektiv,<br />

Exaktheit an der Stelle V ⇔ Im f = Ker g,<br />

Exaktheit an der Stelle W ⇔ g surjektiv.<br />

Ist f : V → W eine lineare Abbildung zwischen K-Vektorräumen V und W ,<br />

so hat man immer eine kurze exakte Sequenz<br />

0 −→ Ker f ↩→ V f<br />

−→ Im f −→ 0,<br />

wobei Ker f ↩→ V die Inklusionsabbildung ist. Dazu gehört eine duale kurze<br />

exakte Sequenz<br />

0 ←− im f ∗ f ∗<br />

←− W ∗ ←↪ Ker f ∗ ←− 0.<br />

Der Zusammenhang zwischen diesen beiden kurzen exakten Sequenzen ist<br />

der Folgende:


11 Der Dualraum 71<br />

Satz 11.4 Für eine lineare Abbildung f : V → W zwischen endlich dimensionalen<br />

Vektorräumen gilt<br />

Im f ∗ = (Ker f) 0 und Ker f ∗ = (Im f) 0 .<br />

Korollar 11.3 Unter den obigen Voraussetzungen gilt<br />

Beweis.<br />

Rang f ∗ = dim Im f ∗<br />

Rang f ∗ = Rang f.<br />

= dim(Ker f) 0 (nach Satz 11.4)<br />

= dim V − dim Ker f (nach Satz 11.2)<br />

= dim Im f = Rang f.<br />

Mit Hilfe von Satz 11.3 erhalten wir damit einen neuen Beweis des folgenden<br />

Resultats.<br />

Korollar 11.4 Für jede Matrix A ∈ Mat(m × n; K) gilt<br />

Zeilenrang A = Spaltenrang A.<br />

Beweis von Satz 11.4. Wir zeigen Im f ∗ = (Ker f) 0 . Der Beweis der zweiten<br />

Gleichung geht analog.<br />

”⊆”: Es sei ϕ ∈ Im f ∗ . Dann ist ϕ = f ∗ (ψ) = ψ ◦ f für ein ψ ∈ V ∗ . Für<br />

x ∈ Ker f gilt dann<br />

ϕ(x) = ψ(f(x)) = ψ(0) = 0,<br />

also ϕ ∈ (Ker f) 0 .<br />

”⊇”: Es sei umgekehrt ϕ ∈ V ∗ mit ϕ| Ker f = 0 gegeben. Wir müssen ein<br />

ψ ∈ W ∗ mit ϕ = ψ ◦ f konstruieren. Dazu sei<br />

B = {u 1 , . . . , u r , v 1 , . . . , v k } Basis von V,<br />

B = {w 1 , . . . , w r , w r+1 , . . . , w m } Basis von W<br />

mit Ker f = Span{v 1 , . . . , v k }, Im f = Span{w 1 , . . . , w r } und f(u i ) = w i für<br />

i = 1, . . . , r. Dann gibt es genau eine lineare Abbildung ψ mit<br />

{ ϕ(ui ) für i = 1, . . . , r,<br />

ψ(w i ) :=<br />

0 sonst.<br />


11 Der Dualraum 72<br />

Nach Konstruktion von ψ ist ϕ = ψ ◦ f.<br />

Es sei nun<br />

〈 , 〉 : V × V −→ K<br />

(v, w) ↦−→ 〈v, w〉<br />

eine Bilinearform. Dann können wir die beiden folgenden Abbildungen betrachten:<br />

〈v, ·〉 : V → K,<br />

Damit erhalten wir Abbildungen<br />

w ↦→ 〈v, w〉,<br />

〈·, w〉 : V → K, v ↦→ 〈v, w〉.<br />

b 1 : V → V ∗ , v ↦→ 〈v, ·〉,<br />

b 2 : V → V ∗ ,<br />

w ↦→ 〈·, w〉.<br />

Definition Eine Bilinearform 〈 , 〉 : V → K heißt nicht ausgeartet, wenn<br />

die beiden Abbildungen b 1 und b 2 injektiv sind.<br />

Beispiel 11.4 Ein Skalarprodukt 〈 , 〉 auf einem R-Vektorraum ist nicht<br />

ausgeartet. Denn<br />

b 1 (v) = 0 ⇔ 〈v, w〉 = 0 für alle w ∈ V ⇔ v = 0,<br />

da 〈 , 〉 positiv definit ist. Da 〈 , 〉 symmetrisch ist, folgt, dass auch b 2 injektiv<br />

ist.<br />

Daraus folgt unmittelbar:<br />

Satz 11.5 In einem endlich dimensionalen euklidischen Vektorraum V ist<br />

die Abbildung<br />

Ψ : V → V ∗ , v ↦→ 〈v, ·〉,<br />

ein Isomorphismus.<br />

Bemerkung 11.2 Im Gegensatz zu den Isomorphismen Ψ B : V → V ∗ in<br />

Korollar 11.2, die von der Wahl der Basis abhängen, ist dieser Isomorphismus<br />

kanonisch, d.h. er hängt nicht von der Wahl einer Basis ab. Er existiert aber<br />

nur, wenn ein Skalarprodukt gegeben ist.<br />

Satz 11.6 Es sei V ein euklidischer Vektorraum und Ψ : V → V ∗ der kanonische<br />

Isomorphismus. Dann gilt:<br />

(i) Für jeden Unterraum U ⊆ V ist Ψ(U ⊥ ) = U 0 .<br />


12 Multilineare Abbildungen 73<br />

(ii) Ist B = {v 1 , . . . , v n } eine Orthonormalbasis von V und B ∗ = {v ∗ 1, . . . , v ∗ n}<br />

die duale Basis, so ist Ψ(v i ) = v ∗ i .<br />

Beweis.<br />

(i): Nach den Dimensionsformeln gilt<br />

dim U ⊥ = dim V − dim U = dim U 0 .<br />

Daher reicht es zu zeigen: Ψ(U ⊥ ) ⊆ U 0 . Dies folgt aus<br />

(ii): Dies folgt aus<br />

Ψ(v)(u) = 〈v, u〉 = 0 für v ∈ U ⊥ und u ∈ U.<br />

Ψ(v i )(v j ) = 〈v i , v j 〉 = δ ij = v ∗ i (v j ).<br />

✷<br />

12 Multilineare Abbildungen<br />

Literatur für diesen Abschnitt:<br />

• M. Spivak: Calculus on Manifolds. W. A. Benjamin 1965.<br />

• W. Greub: Multilinear <strong>Algebra</strong>, 2nd Edition. Springer-Verlag 1978.<br />

Definition Es seien V 1 , . . . , V p , W K-Vektorräume. Eine Abbildung ϕ : V 1 ×<br />

· · · × V p → W heißt multilinear oder genauer p-linear, wenn für jedes i =<br />

1, . . . , p gilt<br />

ϕ(v 1 , . . . , v i + v ′ i, . . . , v p ) = ϕ(v 1 , . . . , v i , . . . , v p ) + ϕ(v 1 , . . . , v ′ i, . . . , v p ),<br />

ϕ(v 1 , . . . , λv i , . . . , v p ) = λϕ(v 1 , . . . , v i , . . . , v p ),<br />

für v i , v i<br />

′ ∈ V i , λ ∈ K. Gilt W = K, so heißt ϕ eine multilineare (oder<br />

p-lineare) Funktion.<br />

Beispiel 12.1 (a) Der Fall p = 1 und W = K ist der Spezialfall der Linearformen.<br />

(b) Im Fall p = 2, W = K, V 1 = V 2 = V , erhalten wir gerade die am<br />

Anfang der Vorlesung betrachteten Bilinearformen.<br />

(c) Es sei ϕ : V × V ∗ → K die durch (v, f) ↦→ f(v) definierte Abbildung.<br />

Dies ist eine bilineare Funktion.


12 Multilineare Abbildungen 74<br />

Es sei Hom(V 1 , . . . , V p ; W ) die Menge aller p-linearen Abbildungen ϕ :<br />

V 1 × · · · × V p → W . Wir erklären eine Addition durch<br />

(ϕ + ψ)(v 1 , . . . , v p ) = ϕ(v 1 , . . . , v p ) + ψ(v 1 , . . . , v p )<br />

und eine skalare Multiplikation mit λ ∈ K durch<br />

(λϕ)(v 1 , . . . , v p ) = λϕ(v 1 , . . . , v p ).<br />

Damit wird Hom(V 1 , . . . , V p ; W ) zu einem K-Vektorraum.<br />

Definition Ist V 1 = . . . = V p = V und W = K, so nennt man eine multilineare<br />

Funktion ϕ : V × · · · × V → K auch eine Multilinearform oder einen<br />

p-Tensor auf V . Die Menge aller p-Tensoren auf V bezeichnen wir mit T p (V ).<br />

Nach den Bemerkungen vor der Definition ist T p (V ) ein K-Vektorraum.<br />

Beispiel 12.2 Es sei V = K n und det die Funktion<br />

det :<br />

K<br />

} n × ·<br />

{{<br />

· · × K n<br />

}<br />

−→ K<br />

n<br />

(a 1 , . . . , a n ) ↦−→ det(a 1 · · · a n )<br />

,<br />

wobei (a 1 · · · a n ) die n × n-Matrix mit den Spalten a 1 , . . . , a n ist. Aus den<br />

Eigenschaften der Determinante folgt, dass det eine Multilinearform ist, also<br />

det ∈ T n (K n ).<br />

Definition Ist ϕ ∈ T p (V ) und ψ ∈ T q (V ), so definieren wir das Tensorprodukt<br />

ϕ ⊗ ψ ∈ T p+q (V ) durch<br />

(ϕ ⊗ ψ)(v 1 , . . . , v p , v p+1 , . . . , v p+q ) = ϕ(v 1 , . . . , v p ) · ψ(v p+1 , . . . , v p+q ).<br />

Warnung Man beachte, dass hier die Reihenfolge wichtig ist, da ϕ⊗ψ und<br />

ψ ⊗ ϕ ganz unterschiedlich sind.<br />

Satz 12.1 Das Tensorprodukt hat die folgenden Eigenschaften:<br />

(i) (ϕ ⊗ ψ) ⊗ θ = ϕ ⊗ (ψ ⊗ θ).<br />

(ii) (ϕ 1 + ϕ 2 ) ⊗ ψ = ϕ 1 ⊗ θ + ϕ 2 ⊗ ψ.<br />

(iii) ϕ ⊗ (ψ 1 + ψ 2 ) = ϕ ⊗ ψ 1 + ϕ ⊗ ψ 2 .<br />

(vi) (λϕ) ⊗ ψ = ϕ ⊗ (λψ) = λ(ϕ ⊗ ψ).


12 Multilineare Abbildungen 75<br />

Beweis. Der Nachweis dieser Eigenschaften ist einfach. Siehe Vorlesung.<br />

Der Vektorraum T 1 (V ) ist gerade der Dualraum V ∗ . Mit dem Tensorprodukt<br />

können wir nun die anderen Vektorräume T p (V ) durch T 1 (V ) ausdrücken:<br />

Satz 12.2 Es sei (v 1 , . . . , v n ) eine Basis von V und (v ∗ 1, . . . , v ∗ n) die duale<br />

Basis. Dann ist die Menge aller p-fachen Tensorprodukte<br />

v ∗ i 1<br />

⊗ · · · ⊗ v ∗ i p<br />

, 1 ≤ i 1 , . . . , i p ≤ n,<br />

eine Basis von T p (V ). Insbesondere hat T p (V ) die Dimension n p .<br />

Beweis.<br />

(a) Man beachte zunächst, dass<br />

✷<br />

Gilt<br />

so ist<br />

vi ∗ 1<br />

⊗ · · · ⊗ vi ∗ p<br />

(v j1 , . . . , v jp ) = δ i1 ,j 1<br />

· · · δ ip,jp<br />

{ 1 falls j1 = i<br />

=<br />

1 , . . . , j p = i p ,<br />

0 sonst.<br />

ϕ(w 1 , . . . , w p ) =<br />

Also gilt<br />

(w 1 , . . . , w p ) =<br />

=<br />

ϕ =<br />

n∑<br />

j 1 ,...,j p=1<br />

n∑<br />

i 1 ,...,i p=1<br />

n∑<br />

i 1 ,...,i p=1<br />

( n∑<br />

j=1<br />

a 1j v j , . . . ,<br />

)<br />

n∑<br />

a pj v j ,<br />

j=1<br />

a 1,j1 · · · a p,jp ϕ(v j1 , . . . , v jp )<br />

ϕ(v i1 , . . . , v ip ) · v ∗ i 1<br />

⊗ · · · ⊗ v ∗ i p<br />

(w 1 , . . . , w p ).<br />

ϕ(v i1 , . . . , v ip ) · v ∗ i 1<br />

⊗ · · · ⊗ v ∗ i p<br />

.<br />

Also bilden die v ∗ i 1<br />

⊗ · · · ⊗ v ∗ i p<br />

ein Erzeugendensystem von T p (V ).<br />

(b) Zum Beweis der linearen Unabhängigkeit nehmen wir an<br />

n∑<br />

i 1 ,...,i p=1<br />

a i1 ,...,i p<br />

v ∗ i 1<br />

⊗ · · · ⊗ v ∗ i p<br />

= 0.


13 Alternierende Multilinearformen 76<br />

Indem wir beide Seiten dieser Gleichung auf (v j1 , . . . , v jp ) anwenden, erhalten<br />

wir<br />

a j1 ,...,j p<br />

= 0.<br />

Also sind die v ∗ i 1<br />

⊗ · · · ⊗ v ∗ i p<br />

linear unabhängig. ✷<br />

Wie im Fall des Dualraums können wir einer linearen Abbildung f : V →<br />

W eine lineare Abbildung f ∗ : T p (W ) → T p (V ) zuordnen: Diese Abbildung<br />

ist definiert durch<br />

f ∗ ϕ(v 1 , . . . , v p ) = ϕ(f(v 1 ), . . . , f(v p )) für ϕ ∈ T p (W ), v 1 , . . . , v p ∈ V.<br />

Man kann leicht zeigen:<br />

Satz 12.3 Für eine lineare Abbildung f : V → W und ϕ ∈ T p (W ), ψ ∈<br />

T q (W ) gilt<br />

f ∗ (ϕ ⊗ ψ) = f ∗ ϕ ⊗ f ∗ ψ.<br />

13 Alternierende Multilinearformen<br />

Für den Grundkörper K setzen wir in diesem Abschnitt voraus:<br />

n K := 1<br />

}<br />

+ ·<br />

{{<br />

· · + 1<br />

}<br />

≠ 0 für alle n ≥ 1.<br />

n<br />

Wir identifizieren dann n K mit n.<br />

Die Multilinearform det ∈ T n (K n ) hat die folgende wichtige Eigenschaft:<br />

det(a 1 , . . . , a i , . . . , a j , . . . , a n ) = − det(a 1 , . . . , a j , . . . , a i , . . . , a n ).<br />

Solche Multilinearformen nennt man alternierend.<br />

Definition Eine Multilinearform ω ∈ T p (V ) heißt alternierend, wenn für<br />

jede Permutation σ ∈ S p gilt<br />

ω(v 1 , . . . , v p ) = sign σ · ω(v σ(1) , . . . , v σ(p) ) für alle v 1 , . . . , v p ∈ V.<br />

Die Menge aller alternierenden p-Tensoren bezeichnen wir mit ∧p (V ).<br />

Offensichtlich ist ∧p (V ) ein Unterraum von T p (V ).<br />

Lemma 13.1 Es sei ω ∈ T p (V ) eine Multilinearform. Dann sind die folgenden<br />

Bedingungen äquivalent:<br />

(i) ω ist alternierend.


13 Alternierende Multilinearformen 77<br />

(ii) ω(v 1 , . . . , v p ) = −ω(v τ(1) , . . . , v τ(p) ) für jede Transposition τ ∈ S p .<br />

(iii) Ist v i = v j für ein i ≠ j, so ist ω(v 1 , . . . , v p ) = 0.<br />

Beweis.<br />

(i) ⇒ (ii): Klar.<br />

(ii) ⇒ (i): Es sei σ ∈ S p . Dann gibt es nach I, Lemma 17.1, eine Darstellung<br />

σ = τ 1 ◦ · · · ◦ τ m ,<br />

wobei die τ i Transpositionen sind. Es gilt<br />

{ gerade falls sign σ = 1,<br />

m =<br />

ungerade falls sign σ = −1.<br />

Daraus folgt die Behauptung.<br />

(ii) ⇒ (iii): Es sei v i = v j mit i ≠ j und τ sei die Transposition, die i und<br />

j vertauscht. Dann gilt<br />

Also folgt mit 1 + 1 ≠ 0<br />

ω(v 1 , . . . , v p ) = ω(v τ(1) , . . . , v τ(p) ) = −ω(v 1 , . . . , v p ).<br />

ω(v 1 , . . . , v p ) = 0.<br />

(iii) ⇒ (ii): Es sei τ die Transposition, die i und j vertauscht (i ≠ j).<br />

Dann gilt<br />

i<br />

0 = ω(v 1 , . . . , v i + v j , . . . , v i + v j , . . . , v p )<br />

Daraus folgt<br />

Definition<br />

j<br />

= ω(v 1 , . . . , v i , . . . , v i , . . . , v p ) + ω(v 1 , . . . , v i , . . . , v j , . . . , v p )<br />

+ ω(v 1 , . . . , v j , . . . , v i , . . . , v p ) + ω(v 1 , . . . , v j , . . . , v j , . . . , v p ).<br />

ω(v 1 , . . . , v i , . . . , v j , . . . , v p ) = −ω(v 1 , . . . , v j , . . . , v i , . . . , v p ).<br />

Es sei ϕ ∈ T p (V ). Dann definieren wir<br />

Alt(ϕ)(v 1 , . . . , v p ) := 1 ∑<br />

sign σ · ϕ(v σ(1) , . . . , v σ(p) ).<br />

p!<br />

σ∈S p<br />

Satz 13.1 (i) Für ϕ ∈ T p (V ) ist Alt(ϕ) ∈ ∧p (V ).<br />


13 Alternierende Multilinearformen 78<br />

(ii) Für ω ∈ ∧p (V ) gilt Alt(ω) = ω.<br />

(iii) Für ϕ ∈ T p (V ) gilt Alt(Alt(ϕ)) = Alt(ϕ).<br />

Beweis.<br />

(i) Es sei τ ∈ S p beliebig. Dann gilt<br />

(ii) Es gilt<br />

Alt(ϕ)(v τ(1) , . . . , v τ(p) )<br />

= 1 ∑<br />

sign σ · ϕ(v σ(τ(1)) , . . . , v σ(τ(p)) )<br />

p!<br />

σ∈S p<br />

= sign τ · 1 ∑<br />

sign(σ ◦ τ) · ϕ(v (σ◦τ)(1) , . . . , v (σ◦τ)(p) )<br />

p!<br />

σ◦τ∈S p<br />

= sign τ · Alt(ϕ)(v 1 , . . . , v p ).<br />

Alt(ω)(v 1 , . . . , v p ) = 1 ∑<br />

sign σ · ω(v σ(1) , . . . , v σ(p) )<br />

p!<br />

σ∈S p<br />

= 1 ∑<br />

(sign σ) 2 ω(v 1 , . . . , v p )<br />

p!<br />

σ∈S p<br />

= ω(v 1 , . . . , v p ).<br />

(iii) folgt aus (i) und (ii).<br />

Wir möchten eine Basis von ∧p (v) bestimmen. Dazu bemerken wir, dass<br />

mit ω ∈ ∧p (V ) und η ∈ ∧q (V ) das Tensorprodukt ω ⊗ η im Allgemeinen<br />

nicht in ∧ p+q (V ) liegt. Daher definieren wir ein neues Produkt:<br />

Definition Ist ω ∈ ∧p (V ) und η ∈ ∧q (V ), so definieren wir das Dachprodukt<br />

ω ∧ η ∈ ∧p+q (V ) durch<br />

ω ∧ η :=<br />

(p + q)!<br />

Alt(ω ⊗ η).<br />

p!q!<br />

Satz 13.2 Das Dachprodukt hat folgende Eigenschaften:<br />

(i) (ω 1 + ω 2 ) ∧ η = ω 1 ∧ η + ω 2 ∧ η.<br />

(ii) ω ∧ (η 1 + η 2 ) = ω ∧ η 1 + ω ∧ η 2 .<br />

(iii) (λω) ∧ η = ω ∧ (λη) = λ(ω ∧ η).<br />

(iv) ω ∧ η = (−1) pq η ∧ ω.<br />


13 Alternierende Multilinearformen 79<br />

(v) f ∗ (ω ∧ η) = f ∗ (ω) ∧ f ∗ (η).<br />

Beweis. Diese Eigenschaften sind leicht nachzuweisen.<br />

Mehr Arbeit erfordert der Nachweis der Gleichung (ω∧η)∧θ = ω∧(η∧θ).<br />

Dazu brauchen wir zwei Hilfssätze:<br />

Lemma 13.2 Für ϕ ∈ T p (V ) mit Alt(ϕ) = 0 und ψ ∈ T q (V ) gilt<br />

Beweis. Es gilt<br />

Alt(ϕ ⊗ ψ) = Alt(ψ ⊗ ϕ) = 0.<br />

(p + q)!Alt(ϕ ⊗ ψ)(v 1 , . . . , v p+q )<br />

= ∑<br />

σ∈S p+q<br />

sign σ · ϕ(v σ(1) , . . . , v σ(p) ) · ψ(v σ(p+1) , . . . , v σ(p+q) ).<br />

Nun betrachten wir die Untergruppe G ⊆ S p+q , die aus allen Permutationen<br />

σ besteht, die p + 1, . . . , p + q fest lassen. Dann gilt<br />

∑<br />

sign σ · ϕ(v σ(1) , . . . , v σ(p) ) · ψ(v σ(p+1) , . . . , v σ(p+q) )<br />

σ∈G<br />

=<br />

⎛<br />

⎞<br />

⎝ ∑<br />

sign σ ′ · ϕ(v σ ′ (1), . . . , v σ ′ (p)) ⎠ · ψ(v p+1 , . . . , v p+q )<br />

σ ′ ∈S p<br />

= p!Alt(ϕ) · ψ(v p+1 , . . . , v p+q ) = 0<br />

Nun sei σ 0 ∉ G. Es sei<br />

Wir setzen außerdem<br />

Dann gilt<br />

∑<br />

Gσ 0 := {σ ◦ σ 0 | σ ∈ G}.<br />

(v σ0 (1), . . . , v σ0 (p+q)) = (w 1 , . . . , w p+q ).<br />

sign σ · ϕ(v σ(1) , . . . , v σ(p) ) · ψ(v σ(p+1) , . . . , v σ(p+q) )<br />

σ∈Gσ 0<br />

(<br />

= sign σ 0 · ∑<br />

)<br />

sign σ ′ · ϕ(w σ ′ (1), . . . , w σ ′ (p)) · ψ(w p+1 , . . . , w p+q )<br />

= 0.<br />

σ ′ ∈G<br />


13 Alternierende Multilinearformen 80<br />

Man beachte, dass G ∩ Gσ 0 = ∅ gilt. Denn angenommen σ ∈ G ∩ Gσ 0 . Dann<br />

gilt σ = σ ′ ◦σ 0 für ein σ ′ ∈ G, also σ 0 = (σ ′ ) −1 ◦σ ∈ G, ein Widerspruch. Wenn<br />

wir auf diese Weise fortfahren, können wir S p+q so in disjunkte Teilmengen<br />

zerlegen, dass die Summe über jede dieser Teilmengen jeweils 0 ergibt. Also<br />

ergibt die Summe über ganz S p+q Null.<br />

Die andere Gleichung Alt(ψ ⊗ ϕ) = 0 wird analog bewiesen. ✷<br />

Lemma 13.3 Für ω ∈ ∧p (V ), η ∈ ∧q (V ) und θ ∈ ∧r (V ) gilt<br />

Beweis. Es gilt<br />

Alt(Alt(ω ⊗ η) ⊗ θ) = Alt(ω ⊗ η ⊗ θ) = Alt(ω ⊗ Alt(η ⊗ θ)).<br />

Alt(Alt(η ⊗ θ) − η ⊗ θ) = Alt(η ⊗ θ) − Alt(η ⊗ θ) = 0.<br />

Aus Lemma 13.2 folgt damit<br />

0 = Alt(ω ⊗ [Alt(η ⊗ θ) − η ⊗ θ])<br />

= Alt(ω ⊗ Alt(η ⊗ θ)) − Alt(ω ⊗ η ⊗ θ).<br />

Die andere Gleichung wird analog bewiesen.<br />

Satz 13.3 Für ω ∈ ∧p (V ), η ∈ ∧q (V ) und θ ∈ ∧r (V ) gilt<br />

Beweis.<br />

(ω ∧ η) ∧ θ = ω ∧ (η ∧ θ) =<br />

(ω ∧ η) ∧ θ =<br />

=<br />

=<br />

(p + q + r)!<br />

Alt(ω ⊗ η ⊗ θ).<br />

p!q!r!<br />

((p + q) + r)!<br />

Alt((ω ∧ η) ⊗ θ)<br />

(p + q)!r!<br />

( )<br />

(p + q + r)! (p + q)!<br />

Alt Alt(ω ⊗ η) ⊗ θ<br />

(p + q)!r! p!q!<br />

(p + q + r)!<br />

Alt(ω ⊗ η ⊗ θ) (nach Lemma 13.3).<br />

p!q!r!<br />

✷<br />

✷<br />

Satz 13.4 Es sei (v 1 , . . . , v n ) eine Basis von V und (v ∗ 1, . . . , v ∗ n) die duale<br />

Basis. Dann ist die Menge aller p-fachen Dachprodukte<br />

v ∗ i 1<br />

∧ · · · ∧ v ∗ i p<br />

, 1 ≤ i 1 < . . . < i p ≤ n,<br />

eine Basis von ∧p (V ). Insbesondere hat ∧p (V ) die Dimension<br />

( n n!<br />

=<br />

p)<br />

p!(n − p)! .


13 Alternierende Multilinearformen 81<br />

Beweis.<br />

(a) Es sei ω ∈ ∧p (V ) ⊆ T p (V ). Nach Satz 12.2 können wir schreiben:<br />

Es folgt<br />

ω =<br />

ω = Alt(ω) =<br />

Nach Satz 13.3 gilt aber<br />

n∑<br />

i 1 ,...,i p=1<br />

n∑<br />

i 1 ,...,i p=1<br />

a i1 ,...,i p<br />

v ∗ i 1<br />

⊗ · · · ⊗ v ∗ i p<br />

.<br />

a i1 ,...,i p<br />

Alt(v ∗ i 1<br />

⊗ · · · ⊗ v ∗ i p<br />

).<br />

Alt(v ∗ i 1<br />

⊗ · · · ⊗ v ∗ i p<br />

) = Konstante · v ∗ i 1<br />

∧ · · · ∧ v ∗ i p<br />

.<br />

Also spannen die Elemente vi ∗ 1<br />

∧ · · · ∧ vi ∗ p<br />

den Raum ∧p (V ) auf.<br />

(b) Die lineare Unabhängigkeit wird wie im Beweis von Satz 12.2 bewiesen.<br />

✷<br />

Hat V die Dimension n, so folgt aus Satz 13.4, dass ∧n (V ) die Dimension<br />

1 hat. Das bedeutet, dass alle alternierenden n-Tensoren auf V Vielfache eines<br />

von Null verschiedenen n-Tensors sind. Für V = K n ist det ∈ ∧n (K n ) ein<br />

solcher Tensor. Er ist dadurch ausgezeichnet, dass det(e 1 , . . . , e n ) = 1 gilt.<br />

Deswegen erhalten wir die folgende Charakterisierung der Determinante:<br />

Korollar 13.1 Die Determinante det ist der eindeutig bestimmte alternierende<br />

n-Tensor mit<br />

det(e 1 , . . . , e n ) = 1.<br />

Satz 13.5 Es sei V ein K-Vektorraum, (v 1 , . . . , v n ) eine Basis von V und<br />

ω ∈ ∧n (V ). Ist w j = ∑ n<br />

i=1 a ijv i , j = 1, . . . , n, so gilt<br />

ω(w 1 , . . . , w n ) = det(a ij ) · ω(v 1 , . . . , v n ).<br />

Beweis. Wir definieren η ∈ T n (K n ) durch<br />

η((a 11 , . . . , a n1 ) T , . . . , (a 1n , . . . , a nn ) T ) = ω( ∑ a i1 v i , . . . , ∑ a in v i ).<br />

Dann ist η ∈ ∧n (K n ), also η = λ · det für ein λ ∈ K. Es gilt<br />

λ = λ det(e 1 , . . . , e n ) = η(e 1 , . . . , e n ) = ω(v 1 , . . . , v n ).<br />


14 Symmetrische Multilinearformen 82<br />

Es sei nun K = R. Satz 13.5 zeigt, dass ein von Null verschiedener alternierender<br />

n-Tensor ω ∈ ∧n (V ) die (geordneten) Basen von V in zwei disjunkte<br />

Klassen einteilt: eine mit ω(v 1 , . . . , v n ) > 0 und eine mit ω(v 1 , . . . , v n ) <<br />

0. Wenn (v 1 , . . . , v n ) und (w 1 , . . . , w n ) zwei Basen von V sind und A =<br />

(a ij ) die durch w j = ∑ a ij v i definierte Matrix des Basiswechsels, dann sind<br />

(v 1 , . . . , v n ) und (w 1 , . . . , w n ) genau dann in der gleichen Klasse, wenn det A ><br />

0 gilt. Also ist die Klasseneinteilung unabhängig von ω. Damit können wir<br />

definieren:<br />

Definition Eine Orientierung eines reellen Vektorraums V ist eine Klasse<br />

von Basen, für die gilt: Für einen von Null verschiedenen alternierenden n-<br />

Tensor ω ∈ ∧n (V ) ist ω(v 1 , . . . , v n ) > 0 für alle Basen aus dieser Klasse oder<br />

ω(v 1 , . . . , v n ) < 0 für alle Basen aus dieser Klasse.<br />

Beispiel 13.1 Die Standardorientierung des R n ist die Orientierung, zu der<br />

die Standardbasis (e 1 , . . . , e n ) gehört. Hier kommt es auf die Reihenfolge an:<br />

Vertauschen wir zwei dieser Basiselemente, so gehört die neue Basis zu der<br />

anderen Orientierung.<br />

Ist nun V ein euklidischer Vektorraum, so gilt für die Transformationsmatrix<br />

A, die eine Orthonormalbasis in eine andere transformiert, det A = ±1.<br />

Damit können wir definieren:<br />

Definition Es sei V ein euklidischer Vektorraum und eine Orientierung von<br />

V gewählt. Das Volumenelement von V ist das eindeutig bestimmte Element<br />

ω ∈ ∧n (V ) mit ω(v 1 , . . . , v n ) = 1 für jede Orthonormalbasis (v 1 , . . . , v n ) aus<br />

der Orientierung von V .<br />

Beispiel 13.2 Für V = R n mit dem gewöhnlichen euklidischen Skalarprodukt<br />

und der Standardorientierung ist det das Volumenelement und<br />

| det(v 1 , . . . , v n )|<br />

ist das Volumen des von den Vektoren v 1 , . . . , v n aufgespannten Parallelotops.<br />

14 Symmetrische Multilinearformen<br />

Analog zu alternierenden Multilinearformen kann man auch symmetrische<br />

Multilinearformen betrachten. Für den Grundkörper K setzen wir weiterhin<br />

n K ≠ 0 für alle n ≥ 1 voraus.


14 Symmetrische Multilinearformen 83<br />

Definition Eine Multilinearform ϕ ∈ T p (V ) heißt symmetrisch, wenn für<br />

jede Permutation σ ∈ S p gilt<br />

ϕ(v 1 , . . . , v p ) = ϕ(v σ(1) , . . . , v σ(p) ) für alle v 1 , . . . , v p ∈ V.<br />

Die Menge aller symmetrischen p-Tensoren bezeichnen wir mit S p (V ).<br />

Definition<br />

Es sei ϕ ∈ T p (V ). Dann definieren wir<br />

Sym(ϕ)(v 1 , . . . , v p ) := 1 ∑<br />

ϕ(v σ(1) , . . . , v σ(p) ).<br />

p!<br />

σ∈S p<br />

Satz 14.1 (i) Für ϕ ∈ T p (V ) ist Sym(ϕ) ∈ S p (V ).<br />

(ii) Für ϕ ∈ S p (V ) gilt Sym(ϕ) = ϕ.<br />

(iii) Für ϕ ∈ T p (V ) gilt Sym(Sym(ϕ)) = Sym(ϕ).<br />

Beweis. Der Beweis ist analog zum Beweis von Satz 13.1.<br />

✷<br />

Definition Ist ϕ ∈ S p (V ) und ψ ∈ S q (V ), so definieren wir das symmetrische<br />

Produkt ϕ ∨ ψ ∈ S p+q (V ) durch<br />

ϕ ∨ ψ :=<br />

(p + q)!<br />

Sym(ϕ ⊗ ψ).<br />

p!q!<br />

Wie im Fall der alternierenden Multilinearformen beweist man:<br />

Satz 14.2 Das symmetrische Produkt hat folgende Eigenschaften:<br />

(i) (ϕ 1 + ϕ 2 ) ∨ ψ = ϕ 1 ∨ ψ + ϕ 2 ∨ ψ.<br />

(ii) ϕ ∨ (ψ 1 + ψ 2 ) = ϕ ∨ ψ 1 + ϕ ∨ ψ 2 .<br />

(iii) (λϕ) ∨ ψ = ϕ ∨ (λψ) = λ(ϕ ∨ ψ).<br />

(iv) ϕ ∨ ψ = ψ ∨ ϕ.<br />

(v) (ϕ ∨ ψ) ∨ θ = ϕ ∨ (ψ ∨ θ).<br />

(vi) f ∗ (ϕ ∨ ψ) = f ∗ (ϕ) ∨ f ∗ (ψ).


15 Der Quotientenraum 84<br />

Satz 14.3 Es sei (v 1 , . . . , v n ) eine Basis von V und (v ∗ 1, . . . , v ∗ n) die duale<br />

Basis. Dann ist die Menge aller p-fachen symmetrischen Produkte<br />

v ∗ i 1<br />

∨ · · · ∨ v ∗ i p<br />

, 1 ≤ i 1 ≤ . . . ≤ i p ≤ n,<br />

eine Basis von S p (V ). Insbesondere hat S p (V ) die Dimension<br />

( ) n + p − 1<br />

.<br />

p<br />

Definition<br />

Ein Polynom<br />

P (x 1 , . . . , x n ) = ∑<br />

endlich<br />

a ν1 ,...,ν n<br />

x ν 1<br />

1 · · · x νn<br />

n<br />

heißt homogen vom Grad p, wenn die Summe über alle n-Tupel (ν 1 , . . . , ν n )<br />

mit ∑ n<br />

i=1 ν i = p läuft. Es sei K p [x 1 , . . . , x n ] der Vektorraum der homogenen<br />

Polynome in den Variablen x 1 , . . . , x n vom Grad p.<br />

Satz 14.4 Es sei V ein K-Vektorraum der Dimension n. Dann gibt es einen<br />

Isomorphismus<br />

Ψ : S p (V ) → K p [x 1 , . . . , x n ].<br />

Beweis. Es sei (v 1 , . . . , v n ) eine Basis von V und (v ∗ 1, . . . , v ∗ n) die duale Basis.<br />

Dann definieren wir<br />

durch<br />

Ψ : S p (V ) → K p [x 1 , . . . , x n ]<br />

v ∗ i 1<br />

∨ · · · ∨ v ∗ i p<br />

↦→ x i1 · · · x ip , 1 ≤ i 1 ≤ . . . ≤ i p ≤ n.<br />

Da die vi ∗ 1<br />

∨ · · · ∨ vi ∗ p<br />

nach Satz 14.3 eine Basis von S p (V ) und die Monome<br />

x i1 · · · x ip eine Basis von K p [x 1 , . . . , x n ] bilden, folgt, dass sich Ψ zu einem<br />

Isomorphismus zwischen S p (V ) und K p [x 1 , . . . , x n ] erweitern lässt. ✷<br />

15 Der Quotientenraum<br />

Wir wollen nun den Begriff des Quotientenraums einführen. Dazu betrachten<br />

wir Äquivalenzrelationen.<br />

Es sei X eine Menge.<br />

Definition Eine Äquivalenzrelation auf X ist eine Teilmenge R ⊆ X × X<br />

mit folgenden Eigenschaften:


15 Der Quotientenraum 85<br />

(R) (x, x) ∈ R für alle x ∈ X (reflexiv).<br />

(S) (x, y) ∈ R ⇒ (y, x) ∈ R für alle x, y ∈ X (symmetrisch).<br />

(T) (x, y) ∈ R, (y, z) ∈ R ⇒ (x, z) ∈ R für alle x, y, z ∈ X (transitiv).<br />

Notation x ∼ y :⇔ (x, y) ∈ R.<br />

Beispiel 15.1 Es sei X = Mat(n, n; K) und<br />

R := {(A; B) ∈ X × X | ∃T ∈ GL(n; K) mit A = T −1 BT } ⊆ X × X.<br />

Dann gilt<br />

A ∼ B ⇔ A ist ähnlich zu B.<br />

Definition<br />

definieren<br />

Mit anderen Worten<br />

Es sei V ein K-Vektorraum und U ⊆ V ein Unterraum. Wir<br />

R := {(u, v) ∈ V × V | u − v ∈ U}.<br />

u ∼ v :⇔ u − v ∈ U.<br />

Lemma 15.1 Die obige Relation R ist eine Äquivalenzrelation.<br />

Beweis.<br />

(R) (u, u) ∈ R, da u − u = 0 ∈ U.<br />

(S) (u, v) ∈ R ⇒ u − v ∈ U ⇒ v − u ∈ U ⇒ (v, u) ∈ R.<br />

(T) (u, v) ∈ R, (v, w) ∈ R ⇒ u−v ∈ U, v −w ∈ U ⇒ u−w ∈ U ⇒ (u, w) ∈<br />

R.<br />

Definition<br />

definiert als<br />

Es sei x ∈ X. Die Äquivalenzklasse von x, in Zeichen [x], ist<br />

[x] := {y ∈ X | x ∼ y} ⊆ X.<br />

Jedes Element y ∈ [x] heißt Repräsentant der Äquivalenzklasse [x].<br />

✷<br />

Lemma 15.2<br />

(i) x ∈ [x|.<br />

(ii) [x] ∩ [y] ≠ ∅ ⇔ x ∼ y.<br />

(iii) x ∼ y ⇔ [x] = [y].


15 Der Quotientenraum 86<br />

Beweis.<br />

(i) folgt aus der Reflexivität.<br />

(ii): Es sei [x] ∩ [y] ≠ ∅. Dann existiert ein z ∈ [x] ∩ [y]. Dann gilt z ∼ x<br />

und z ∼ y. Aus der Transitivität folgt x ∼ y.<br />

Ist umgekehrt x ∼ y, so folgt x ∈ [x] ∩ [y], also [x] ∩ [y] ≠ ∅.<br />

(iii): Es sei x ∼ y. Ist z ∈ [x], so gilt z ∼ x. Aus der Transitivität folgt<br />

z ∼ y, also z ∈ [y]. Also gilt [x] ⊆ [y]. Analog zeigt man [y] ⊆ [x].<br />

Die umgekehrte Richtung ist klar.<br />

✷<br />

Korollar 15.1 Die Menge X ist die disjunkte Vereinigung der Äquivalenzklassen.<br />

Definition Die Menge der Äquivalenzklassen heißt die Quotientenmenge<br />

und wird mit X/ ∼ bezeichnet. Man hat eine kanonische Projektion<br />

π : X −→ X/ ∼<br />

x ↦−→ [x]<br />

.<br />

Wir kehren nun zu dem Beispiel eines Unterraums U ⊆ V in einem K-<br />

Vektorraum V zurück.<br />

Definition<br />

a ∈ V in V .<br />

Die Menge a + U := {a + u | u ∈ U} heißt die Nebenklasse von<br />

Lemma 15.3 Es gilt [a] = a + U bezüglich der Äquivalenzrelation u ∼ v ⇔<br />

u − v ∈ U.<br />

Beweis. x ∈ [a] ⇔ x ∼ a ⇔ x − a ∈ U ⇔ x ∈ a + U.<br />

✷<br />

Definition<br />

Der Quotientenraum V/U ist die Menge<br />

V/U := {a + U | a ∈ V }.<br />

Definition<br />

Wir definieren eine Addition auf V/U durch<br />

(a + U) + (b + U) := (a + b) + U (a, b ∈ V )<br />

und eine skalare Multiplikation durch<br />

λ(a + U) := (λa) + U (λ ∈ K, a ∈ V ).<br />

Lemma 15.4 Diese Verknüpfungen sind wohldefiniert (d.h. unabhängig von<br />

der Wahl der Repräsentanten a und b) und machen V/U zu einem K-Vektorraum.


15 Der Quotientenraum 87<br />

Beweis. Wir zeigen zunächst die Unabhängigkeit von der Wahl der Repräsentanten.<br />

(a) Es sei a ∼ a ′ , b ∼ b ′ . Es ist zu zeigen: (a + b) + U = (a ′ + b ′ ) + U, d.h.<br />

Es gilt<br />

a + b ∼ a ′ + b ′ .<br />

a ∼ a ′ , b ∼ b ′ ⇒ a − a ′ ∈ U, b − b ′ ∈ U ⇒ (a − a ′ ) + (b − b ′ ) ∈ U<br />

⇒ (a + b) − (a ′ + b ′ ) ∈ U ⇒ a + b ∼ a ′ + b ′ .<br />

(b) Die entsprechende Aussage für die skalare Multiplikation zeigt man<br />

analog.<br />

Das Nachrechnen der Vektorraumaxiome für V/U ist einfach, siehe Vorlesung.<br />

Was ist das neutrale Element von V/U? Was ist das additive Inverse<br />

von a + U?<br />

✷<br />

Der Quotientenraum V/U lässt sich folgendermaßen geometrisch deuten:<br />

Es sei W ein Komplement von U in V , d.h.<br />

V = U ⊕ W.<br />

Es sei a + U eine Nebenklasse. Dann gibt es eine eindeutig bestimmte Darstellung<br />

a = a W + a U , a W ∈ W, a U ∈ U.<br />

Es gilt<br />

[a] = a + U = a W + U.<br />

Das Element a W hängt nur von der Äquivalenzklasse ab und ist durch diese<br />

eindeutig bestimmt. Wir können also die Elemente von V/U mit den Elementen<br />

von W identifizieren. Allerdings ist es günstiger mit V/U zu arbeiten, da<br />

das Komplement W nicht eindeutig bestimmt ist.<br />

Satz 15.1 Die Abbildung<br />

π : V −→ V/U<br />

a ↦−→ a + U<br />

ist ein Epimorphismus mit Ker π = U.<br />

Beweis.<br />

(a) Es gilt<br />

π(a + b) = (a + b) + U = (a + U) + (b + U) = π(a) + π(b).


15 Der Quotientenraum 88<br />

Analog zeigt man π(λa) = λπ(a).<br />

(b) Nach Konstruktion ist π surjektiv.<br />

(c) Es gilt<br />

π(a) = 0 ⇔ a + U = 0 + U ⇔ a ∼ 0 ⇔ a − 0 = a ∈ U,<br />

d.h. Ker π = U.<br />

✷<br />

Korollar 15.2 Zu jedem Unterraum U ⊆ V eines K-Vektorraums V gibt es<br />

eine kanonische kurze exakte Sequenz<br />

0 −→ U ↩→ V π<br />

−→ V/U −→ 0.<br />

Korollar 15.3 Es sei U ein Unterraum eines endlich dimensionalen K-<br />

Vektorraums V . Dann gilt<br />

dim U + dim V/U = dim V.<br />

Beweis.<br />

dim V = dim Ker π + dim Im π = dim U + dim V/U.<br />

Wir betrachten nun eine lineare Abbildung f : V → W zwischen K-<br />

Vektorräumen V und W .<br />

Satz 15.2 (Kern-Bild-Satz) Es gibt genau einen Isomorphismus<br />

f : V/ Ker f → Im f,<br />

✷<br />

so dass gilt:<br />

f(a + Ker f) = f(a) für alle a ∈ V.<br />

Beweis. Falls f existiert, muss gelten<br />

f(a + Ker f) = f(a) für alle a ∈ V.<br />

Wir benutzen daher diese Gleichung zur Definition von f.<br />

(a) Die Abbildung f ist wohldefiniert:<br />

a ∼ b ⇒ a − b ∈ Ker f ⇒ f(a − b) = 0 ⇒ f(a) = f(b).<br />

(b) Die Abbildung f ist linear:<br />

f((a + Ker f) + (b + Ker f)) = f((a + b) + Ker f) = f(a + b)<br />

= f(a) + f(b) = f(a + Ker f) + f(b + Ker f).


16 Projektive Räume 89<br />

Der Beweis für die skalare Multiplikation geht analog.<br />

(c) Die Abbildung f ist nach Konstruktion surjektiv.<br />

(d) Die Abbildung f ist injektiv:<br />

f(a + Ker f) = 0 ⇔ f(a) = 0 ⇔ a ∈ Ker f ⇔ a + Ker f = 0 + Ker f.<br />

Beispiel 15.2 Es sei V = U ⊕ W und f : V → W die Projektion auf W ,<br />

d.h. f(u + w) = w für alle v = u + w ∈ V mit u ∈ U und w ∈ W . Dann ist<br />

U = Ker f und W = Im f. Dann ist die Abbildung<br />

f : V/U → W, f(u + w + U) = w,<br />

ein Isomorphismus. Dies ist die obige Deutung des Quotientenraums.<br />

16 Projektive Räume<br />

Es sei V ein endlich dimensionaler K-Vektorraum. Wir setzen<br />

V ′ := V \ {0}.<br />

✷<br />

Definition<br />

Für u, v ∈ V ′ definieren wir<br />

u ∼ v :⇔ Es gibt λ ∈ K ∗ = K \ {0} mit u = λv.<br />

Bemerkung 16.1 (i) ∼ ist eine Äquivalenzrelation.<br />

(ii) Es gilt<br />

u ∼ v ⇔ Ku = Kv ⇔ u, v spannen dieselbe Gerade auf.<br />

Definition<br />

Der zu V gehörige projektive Raum ist<br />

P(V ) := V ′ / ∼ .<br />

Als Menge ist P(V ) gerade die Menge der Ursprungsgeraden in V :<br />

P(V ) = {Kv | v ∈ V ′ } = {Geraden in V durch 0}.<br />

Definition<br />

Die Dimension des projektiven Raums P(V ) ist<br />

dim P(V ) := dim V − 1.<br />

Notation Der Raum P n (K) := P(K n+1 ) heißt der n-dimensionale projektive<br />

Raum über K.


16 Projektive Räume 90<br />

✻<br />

❆<br />

❆<br />

❅❅ ❆<br />

❍<br />

✬ ✩<br />

❍<br />

❅ ❆<br />

❍❅❆<br />

❍<br />

❅✟✁ ✁✁✁✁✁<br />

❆ ✟✟✟✟✟ <br />

❍<br />

✟❍ ✲<br />

✟<br />

✟✁<br />

❆❅ ❍❍❍❍❍<br />

✟<br />

✟ ✁<br />

❆❆❆❆❆ ❅❅❅❅<br />

✁<br />

✁<br />

✁<br />

✁<br />

Abbildung 10: Die reelle projektive Gerade P 1 (R)<br />

Bemerkung 16.2 Insbesondere ist P({0}) = ∅ und dim ∅ = −1.<br />

Beispiel 16.1 Für die reelle projektive Gerade P 1 (R) gilt:<br />

P 1 (R) = P(R 2 ) = S 1 = R ∪ {∞} = R ∪ P 0 (R).<br />

Die Identifikation S 1 = R ∪ {∞} geschieht über die stereographische Projektion<br />

(Skizze siehe Vorlesung).<br />

Beispiel 16.2 Wir betrachten die reelle projektive Ebene P 2 (R) = P(R 3 ).<br />

Man hat eine Zerlegung<br />

(Näheres siehe Vorlesung).<br />

Definition<br />

Es sei<br />

P 2 (R) = R 2 ∪ P 1 (R)<br />

π : V ′ −→ P(V )<br />

v ↦−→ [v] = Kv<br />

die kanonische Projektion. Ist U ⊆ P(V ) eine Teilmenge, so definieren wir<br />

Ũ := π −1 (U) ∪ {0}.<br />

Eine Teilmenge U ⊆ P(V ) heißt ein projektiver Unterraum von P(V ), falls<br />

Ũ ⊆ V ein Untervektorraum von V ist.<br />

Lemma 16.1 Für einen projektiven Unterraum U gilt U = P(Ũ). Insbesondere<br />

ist U selbst wieder ein projektiver Raum und hat die Dimension<br />

dim U = dim Ũ − 1.


16 Projektive Räume 91<br />

Sprechweise<br />

(i) dim U = −1: ∅<br />

(ii) dim U = 0: Punkt<br />

(iii) dim U = 1: projektive Gerade<br />

(iv) dim U = 2: projektive Ebene<br />

(v) dim U = dim P(V ) − 1: (projektive) Hyperebene.<br />

Es sei nun<br />

V = K n+1 = {(x 0 , x 1 , . . . , x n ) | x i ∈ K, i = 0, 1, . . . , n}.<br />

Definition<br />

Es sei<br />

v = (x 0 , x 1 , . . . , x n ) ≠ 0<br />

(d.h. x i ≠ 0 für ein i).<br />

Den Punkt Kv ∈ P n (K) bezeichnen wir mit (x 0 : x 1 : . . . : x n ). Wir nennen<br />

(x 0 : x 1 : . . . : x n ) die homogenen Koordinaten des Punktes Kv.<br />

Bemerkung 16.3 Es gilt (x 0 : x 1 : . . . : x n ) = (x ′ 0 : x ′ 1 : . . . : x ′ n) genau<br />

dann, wenn es ein λ ∈ K, λ ≠ 0, gibt mit x i = λx ′ i für alle i = 0, 1, . . . , n.<br />

Es sei nun Ũ ⊆ Kn+1 ein Unterraum. Dann ist<br />

homogenen Gleichungssystems<br />

Ũ Lösungsmenge eines<br />

a 10 x 0 +<br />

.<br />

· · · +a 1n x n<br />

.<br />

=<br />

.<br />

0<br />

.<br />

a m0 x 0 + · · · +a mn x n = 0<br />

Mit (x 0 , . . . , x n ) ist auch (λx 0 , . . . , λx n ) für λ ∈ K ∗ eine Lösung dieses Gleichungssystems.<br />

Deswegen kann man schreiben:<br />

}<br />

{(x P(Ũ) = 0 : . . . : x n ) ∈ P n n∑<br />

(K)<br />

a ij x j = 0, i = 1, . . . , m .<br />

∣<br />

j=0<br />

Wir betrachten nun speziell die Gleichung x 0 = 0.<br />

Definition<br />

Die projektive Hyperebene<br />

H ∞ := {(x 0 : . . . : x n ) ∈ P n (K) | x 0 = 0}<br />

heißt die Hyperebene im Unendlichen.


16 Projektive Räume 92<br />

Definition<br />

Die Abbildung<br />

ι : K n −→ P n (K)<br />

(x 1 , . . . , x n ) ↦−→ (1 : x 1 : . . . : x n )<br />

heißt die kanonische Einbettung von K n in den projektiven Raum P n (K).<br />

Diese Abbildung ist injektiv und hat als Bild gerade die Menge<br />

A := P n (K) \ H ∞ .<br />

Denn sei y = (y 0 : . . . : y n ) ∈ A. Dann ist y 0 ≠ 0 und damit<br />

Also ist<br />

(y 0 : y 1 : . . . : y n ) = (1 : y 1<br />

y 0<br />

ι : K n → A<br />

: . . . : yn<br />

y 0<br />

) = ι( y 1<br />

y 0<br />

: . . . : yn<br />

y 0<br />

).<br />

eine Bijektion. Wenn wir K n mit A mittels ι identifizieren, erhalten wir<br />

P n (K) = A ∪ H ∞ = K n ∪ P n−1 (K).<br />

Definition Man nennt A = P n (K) \ H ∞ den affinen Teil von P n (K). Man<br />

sagt, dass sich der projektive Raum P n (K) = A ∪ H ∞ aus dem affinen Teil<br />

A und der Hyperebene im Unendlichen zusammensetzt.<br />

Bemerkung 16.4 Statt der Hyperebene H ∞ = {x 0 = 0} hätte man auch<br />

jede andere Hyperebene als Hyperebene im Unendlichen auswählen können.<br />

Definition Eine Teilmenge W ⊆ K n heißt ein affiner Unterraum des Vektorraums<br />

K n , falls es einen Unterraum W 0 von K n und ein Element a ∈ K n<br />

gibt mit<br />

W = a + W 0 .<br />

Zur Vermeidung von Fallunterscheidungen soll auch die leere Menge ein affiner<br />

Unterraum sein. Die Dimension eines affinen Unterraums W wird als<br />

dim W 0 definiert. Wir definieren dim ∅ := −1.<br />

Beispiel 16.3 Die Lösungsmenge eines linearen Gleichungssystems<br />

a 11 x 1 + · · · +a 1n x n = b 1<br />

.<br />

. . .<br />

a m1 x 1 + · · · +a mn x n = b m<br />

ist ein affiner Unterraum. Umgekehrt ist jeder affine Unterraum W ⊆ K n<br />

Lösungsmenge eines solchen linearen Gleichungssystems.


16 Projektive Räume 93<br />

Lemma 16.2<br />

(i) Es sei W ⊆ P n (K) ein projektiver Unterraum. Dann ist W := W ∩A ⊆<br />

A = K n ein affiner Unterraum.<br />

(ii) Ist ∅ ≠ W ⊆ A = K n ein affiner Unterraum, so gibt es genau einen<br />

projektiven Unterraum W ⊆ P n (K) mit W ∩ A = W .<br />

Beweis. (i) Die Menge ˜W := π −1 (W ) ∪ {0} ist ein linearer Unterraum von<br />

K n+1 , also Lösungsmenge eines homogenen Gleichungssystems<br />

Für einen Punkt<br />

gilt<br />

a 10 y 0 + · · · +a 1n y n = 0<br />

.<br />

. . .<br />

a m0 y 0 + · · · +a mn y n = 0.<br />

y = (y 0 : . . . : y n ) ∉ H ∞ (d.h. y 0 ≠ 0)<br />

a i0 y 0 + · · · + a in y n = 0 ⇔ a i0 + a i1<br />

y 1<br />

y 0<br />

+ · · · + a in<br />

y n<br />

y 0<br />

= 0.<br />

Also ist W ∩ A die Lösungsmenge des Gleichungssystems<br />

a 11 x 1 + · · · +a 1n x n = −a 10<br />

.<br />

. . .<br />

a m1 x 1 + · · · +a mn x n = −a m0 .<br />

Daher ist W ∩ A ein affiner Unterraum.<br />

(ii) Es sei umgekehrt W ⊆ A ein affiner Unterraum. Dann ist W die<br />

Lösungsmenge eines Gleichungssystems<br />

a 11 x 1 + · · · +a 1n x n = b 1<br />

.<br />

. . .<br />

a m1 x 1 + · · · +a mn x n = b m .<br />

Sind (y 0 : . . . : y n ) wieder die homogenen Koordinaten des P n (K), so betrachten<br />

wir das homogene lineare Gleichungssystem<br />

−b 1 y 0 + a 11 y 1 + · · · +a 1n y n = 0<br />

.<br />

. . .<br />

−b m y 0 + a m1 y 1 + · · · +a mn y n = 0.


16 Projektive Räume 94<br />

Dann ist die Lösungsmenge W dieses Gleichungssystems ein projektiver Unterraum<br />

des P n (K) und nach Konstruktion gilt W ∩ A = W .<br />

Wir müssen noch die Eindeutigkeit zeigen. Es sei U ein weiterer projektiver<br />

Unterraum mit U ∩ A = W . Wir setzen<br />

Dann gilt<br />

W ∞ := W ∩ H ∞ , U ∞ := U ∩ H ∞ .<br />

π −1 (W ) = π −1 (W − W ∞ ) = π −1 (U − U ∞ ) ≠ ∅.<br />

Da das mengentheoretische Komplement eines echten Unterraums den ganzen<br />

Vektorraum erzeugt, gilt<br />

˜<br />

W = Span(π −1 (W − W ∞ )) = Span(π −1 (U − U ∞ )) = Ũ.<br />

Daraus folgt W = U.<br />

Lemma 16.3 Der Durchschnitt von zwei projektiven Unterräumen U 1 und<br />

U 2 ist wieder ein projektiver Unterraum.<br />

✷<br />

Beweis. Es sei<br />

Dann gilt<br />

U 1 = P(Ũ1),<br />

U 2 = P(Ũ2).<br />

U 1 ∩ U 2 = P(Ũ1 ∩ Ũ2).<br />

✷<br />

Definition Es seien U 1 , . . . , U r ⊆ P(V ) projektive Unterräume. Dann ist<br />

der Spann von U 1 , . . . , U r , in Zeichen U 1 ∨ . . . ∨ U r , der kleinste projektive<br />

Unterraum von P(V ), der U 1 , . . . , U r enthält.<br />

Bemerkung 16.5 Es gilt<br />

U 1 ∨ . . . ∨ U r = P(Ũ1 + · · · + Ũr).<br />

Lemma 16.4 (Dimensionsformel) Es seien U 1 , U 2 ⊆ P(V ) projektive Unterräume.<br />

Dann gilt<br />

dim U 1 + dim U 2 = dim(U 1 ∨ U 2 ) + dim(U 1 ∩ U 2 ).<br />

Beweis. Es sei U i = P(Ũi), i = 1, 2. Dann gilt<br />

dim U 1 + dim U 2 = dim Ũ1 − 1 + dim Ũ2 − 1<br />

= dim(Ũ1 + Ũ2) − 1 + dim(Ũ1 ∩ Ũ2) − 1<br />

= dim(U 1 ∨ U 2 ) + dim(U 1 ∩ U 2 ).<br />


16 Projektive Räume 95<br />

Beispiel 16.4 Wir betrachten die projektive Ebene P 2 (K). Es seien L 1 , L 2 ⊆<br />

P 2 (K) zwei projektive Geraden. Dann gilt<br />

dim(L 1 ∩ L 2 ) = dim L 1 + dim L 2 − dim(L 1 ∨ L 2 ) ≥ 2 − 2 = 0.<br />

Daraus folgt L 1 ∩ L 2 ≠ ∅, d.h. in einer projektiven Ebene schneiden sich je<br />

zwei Geraden stets. Sind L 1 und L 2 verschieden, so ist der Durchschnitt genau<br />

ein Punkt. Liegt dieser Punkt in H ∞ , so sind L 1 = L 1 ∩ A und L 2 := L 2 ∩ A<br />

zwei parallele affine Geraden.<br />

Nun wollen wir auch Abbildungen von projektiven Räumen betrachten.<br />

Es seien V, W endlich dimensionale K-Vektorräume und P(V ), P(W ) die zugehörigen<br />

projektiven Räume. Es sei F : V → W eine injektive lineare<br />

Abbildung. Dann gilt für v ∈ V , v ≠ 0,<br />

F (Kv) = KF (v) ≠ {0}.<br />

Daher induziert F eine injektive Abbildung<br />

F : P(V ) −→ P(W )<br />

Kv ↦−→ KF v .<br />

Definition<br />

Eine Abbildung<br />

f : P(V ) → P(W )<br />

heißt projektiv, falls es eine injektive lineare Abbildung F : V → W gibt mit<br />

F = f. Eine bijektive projektive Abbildung heißt Projektivität.<br />

Beispiel 16.5 Für m ≥ n haben wir eine kanonische Einbettung<br />

J : P n (K) −→ P m (K)<br />

(x 0 : . . . : x n ) ↦−→ (x 0 : . . . : x n : 0 : . . . : 0) .<br />

Sie entsteht aus der linearen Abbildung<br />

J : K n+1 −→ K m+1<br />

(x 0 , . . . , x n ) ↦−→ (x 0 , . . . , x n , 0, . . . , 0) .<br />

Lemma 16.5 Für zwei injektive lineare Abbildungen F, F ′<br />

F = F ′ genau dann, wenn es ein λ ∈ K ∗ gibt mit F ′ = λF .<br />

: V → W gilt<br />

Beweis. Ist F ′ = λF , so gilt offensichtlich F ′ = F . Es bleibt die Umkehrung<br />

zu zeigen: Ist F = F ′ , so gibt es zu jedem v ∈ V ein λ v ∈ K ∗ mit F ′ (v) =<br />

λ v F (v). Es ist zu zeigen, dass man zu jedem v das gleiche λ v wählen kann.


16 Projektive Räume 96<br />

Für dim V ≤ 1 ist das klar. Andernfalls gibt es linear unabhängige v, w ∈ V .<br />

Dann gibt es λ v , λ w , λ v+w ∈ K ∗ mit<br />

F ′ (v) = λ v F (v), F ′ (w) = λ w F (w), F ′ (v + w) = λ v+w F (v + w).<br />

Aus der Linearität von F und F ′ folgt<br />

(λ v − λ v+w )F (v) + (λ w − λ v+w )F (w) = 0.<br />

Da F injektiv ist, sind auch F (v), F (w) linear unabhängig. Also folgt<br />

λ v = λ v+w = λ w .<br />

Um projektive Abbildungen durch Matrizen zu beschreiben, führen wir<br />

Koordinatensysteme ein. Es sei dim V = n + 1, also dim P(V ) = n.<br />

✷<br />

Definition<br />

Die Punkte P 0 , . . . , P k ∈ P(V ) heißen projektiv unabhängig, falls<br />

dim(P 0 ∨ . . . ∨ P k ) = k<br />

gilt.<br />

Bemerkung 16.6 Es sei P i = Kv i , i = 0, . . . , k. Dann gilt<br />

P 0 , . . . , P k projektiv unabhängig ⇔ v 0 , . . . , v k linear unabhängig.<br />

Definition Ein (n + 2)-Tupel (P 0 , . . . , P n+1 ) von Punkten aus P(V ) heißt<br />

projektive Basis, falls je n + 1 Punkte davon projektiv unabhängig sind.<br />

Lemma 16.6 Es sei (P 0 , . . . , P n+1 ) eine projektive Basis. Dann gibt es eine<br />

Basis (v 0 , . . . , v n ) von V mit<br />

(i) P i = Kv i (i = 0, . . . , n).<br />

(ii) P n+1 = K(v 0 + · · · + v n ).<br />

Die Basis (v 0 , . . . , v n ) ist bis auf einen Skalar eindeutig bestimmt.<br />

Beweis. Da P 0 , . . . , P n projektiv unabhängig sind, gibt es eine Basis (w 0 , . . . , w n )<br />

von V mit<br />

P 0 = Kw 0 , . . . , P n = Kw n .<br />

Weiter gibt es λ 0 , . . . , λ n ∈ K mit<br />

P n+1 = K(λ 0 w 0 + · · · + λ n w n ).


16 Projektive Räume 97<br />

Wäre λ 0 = 0, so wären P 1 , . . . , P n+1 nicht projektiv unabhängig. Also ist<br />

λ 0 ≠ 0 und analog λ 1 ≠ 0, . . . , λ n ≠ 0. Daher ist durch<br />

die gesuchte Basis gegeben.<br />

v 0 := λ 0 w 0 , . . . , v n := λ n w n<br />

Es sei nun (P 0 , . . . , P n+1 ) eine projektive Basis und B = (v 0 , . . . , v n ) eine<br />

zugehörige Basis, die bis auf einen Skalar eindeutig bestimmt ist. Es sei P =<br />

Kv ∈ P(V ). Dann ist v auch bis auf einen Skalar eindeutig festgelegt. Wir<br />

ordnen dem Punkt P den Koordinatenvektor (x 0 , . . . , x n ) von v bezüglich<br />

der Basis B zu. Er ist damit bis auf einen Skalar festgelegt.<br />

Definition Das Element (x 0 : . . . : x n ) ∈ P n (K) heißt der homogene Koordinatenvektor<br />

des Punktes P bezüglich der projektiven Basis (P 0 , . . . , P n ).<br />

✷<br />

Notation<br />

Wir schreiben P = (x 0 : . . . : x n ). Damit gilt:<br />

P 0 = (1 : 0 : . . . : 0 : 0)<br />

.<br />

.<br />

.<br />

P n = (0 : 0 : . . . : 0 : 1)<br />

P n+1 = (1 : 1 : . . . : 1 : 1).<br />

Durch die Einführung von Koordinaten reduziert sich das Studium der<br />

Projektivitäten beliebiger projektiver Räume auf das Studium von Projektivitäten<br />

des P n (K). Es sei<br />

f : P n (K) → P n (K)<br />

eine Projektivität. Dann gibt es einen Isomorphismus<br />

F : K n+1 → K n+1 mit F = f.<br />

Die lineare Abbildung F wird durch eine Matrix A ∈ GL(n + 1; K) gegeben,<br />

wobei F und somit auch A bis auf einen Skalar λ ≠ 0 festgelegt sind.<br />

Wir untersuchen nun den Zusammenhang zwischen Affinitäten und Projektivitäten.<br />

Es sei<br />

f a : K n → K n , x ↦→ Ax + b (A ∈ GL(n; K)),<br />

eine Affinität. Dann betrachten wir die kanonische Einbettung<br />

ι : K n −→ P n (K)<br />

(x 1 , . . . , x n ) ↦−→ (1 : x 1 : . . . : x n )


16 Projektive Räume 98<br />

von K n in den P n (K). Setzen wir<br />

⎛<br />

1 0 · · · 0<br />

b 1<br />

A = ⎜<br />

⎝ . A<br />

b n<br />

so ist durch<br />

⎛<br />

⎜<br />

⎝<br />

⎞ ⎛<br />

x 0<br />

⎟ ⎜<br />

. ⎠ ↦→ A ⎝<br />

x n<br />

⎞<br />

x 0<br />

⎟<br />

. ⎠<br />

x n<br />

eine bijektive lineare Abbildung F a : K n+1 → K n+1 bestimmt, die eine Projektivität<br />

F a : P n (K) → P n (K) induziert. Es gilt F a (H ∞ ) = H ∞ . Damit<br />

haben wir eine Motivation für die Konstruktion in § 10 nachgeliefert.<br />

Es sei nun umgekehrt f : P n (K) → P n (K) eine Projektivität mit f(H ∞ ) =<br />

H ∞ . Eine zugehörige lineare Abbildung F : K n+1 → K n+1 sei gegeben durch<br />

die Matrix A ∈ GL(n + 1; K) mit<br />

⎛<br />

⎞<br />

a 00 a 01 · · · a 0n<br />

a 10 a 11 · · · a 1n<br />

A = ⎜<br />

⎝<br />

.<br />

. . ..<br />

⎟ . ⎠ .<br />

a n0 a n1 · · · a nn<br />

⎞<br />

⎟<br />

⎠ ,<br />

Wegen f(H ∞ ) = H ∞ muss gelten<br />

⎛<br />

⎞<br />

a 00 0 · · · 0<br />

a 10 a 11 · · · a 1n<br />

A = ⎜<br />

⎝<br />

.<br />

. . ..<br />

⎟ . ⎠ .<br />

a n0 a n1 · · · a nn<br />

Wegen A ∈ GL(n+1; K) ist a 00 ≠ 0. Da A nur bis auf einen Skalar eindeutig<br />

festgelegt ist, kann man annehmen dass<br />

⎛<br />

⎞<br />

1 0 · · · 0<br />

a 10<br />

A = ⎜<br />

⎟<br />

⎝ . A ⎠<br />

a n0<br />

für eine Matrix A ∈ GL(n; K). Es gilt daher<br />

⎛<br />

⎞ ⎛ ⎞ ⎛<br />

1 0 · · · 0 1<br />

a 10<br />

x 1<br />

⎜<br />

⎟ ⎜ ⎟<br />

⎝ . A ⎠ ⎝ . ⎠ = ⎜<br />

⎝<br />

x n<br />

a n0<br />

1<br />

x ′ 1<br />

.<br />

x ′ n<br />

⎞<br />

⎟<br />

⎠ .


17 Projektive Quadriken 99<br />

Das bedeutet, dass f a := f| K n : K n → K n eine Affinität ist, die durch<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

x 1 x 1 a 10<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

f a ⎝ . ⎠ = A ⎝ . ⎠ + ⎝ . ⎠<br />

x n x n a n0<br />

gegeben wird.<br />

Wir haben damit bewiesen:<br />

Satz 16.1 Ist f a : K n → K n eine Affinität, so gibt es eine Projektivität<br />

f : P n (K) → P n (K) mit f| K n = f a und f(H ∞ ) = H ∞ .<br />

Ist umgekehrt f : P n (K) → P n (K) eine Projektivität mit f(H ∞ ) = H ∞ ,<br />

dann ist f a := f| K n : K n → K n eine Affinität.<br />

17 Projektive Quadriken<br />

Wir wollen nun Quadriken in projektiven Räumen betrachten.<br />

Es sei K ein Körper mit n K ≠ 0 für n = 2.<br />

Definition Unter einem homogenen Polynom zweiten Grades in den Unbestimmten<br />

x 0 , x 1 , . . . , x n versteht man einen Ausdruck der Form<br />

q(x 0 , . . . , x n ) =<br />

∑<br />

α ij x i x j ,<br />

wobei α ij ∈ K für 0 ≤ i ≤ j ≤ n.<br />

0≤i≤j≤n<br />

Definition Eine Teilmenge C ⊆ K n+1 heißt Kegel, wenn für jedes<br />

(x 0 , . . . , x n ) ∈ C und λ ∈ K auch (λx 0 , . . . , λx n ) ∈ C ist.<br />

Dies bedeutet, dass C die Vereinigung von Geraden durch den Ursprung<br />

ist. Eine Gerade durch den Ursprung von K n+1 ist ein Punkt von P n (K).<br />

Für jedes homogene Polynom zweiten Grades q ist die Menge<br />

ein Kegel. Dies folgt aus<br />

C = {(x 0 , . . . , x n ) ∈ K n+1 | q(x 0 , . . . , x n ) = 0}<br />

q(λx 0 , . . . , λx n ) = λ 2 q(x 0 , . . . , x n ) für λ ∈ K.<br />

Definition Eine Teilmenge Q ⊆ P n (K) heißt (projektive) Quadrik (oder<br />

(projektive) Hyperfläche zweiter Ordnung), wenn es ein homogenes Polynom<br />

zweiten Grades q gibt, so dass<br />

Q = {(x 0 : . . . : x n ) ∈ P n (K) | q(x 0 , . . . , x n ) = 0}.


17 Projektive Quadriken 100<br />

Bemerkung 17.1 Man beachte, dass im Gegensatz zum affinen Fall das<br />

Polynom q keine Funktion auf dem P n (K) definiert, denn für λ ∈ K ∗ gilt<br />

(x 0 : . . . : x n ) = (λx 0 : . . . : λx n ), aber<br />

q(λx 0 , . . . , λx n ) = λ 2 q(x 0 , . . . , x n ).<br />

Aber die Nullstellenmenge von q in P n (K) ist wohldefiniert, denn es gilt für<br />

λ ∈ K ∗ :<br />

q(x 0 , . . . , x n ) = 0 ⇔ q(λx 0 , . . . , λx n ) = 0.<br />

Beispiel 17.1 Es sei K = R und n = 2.<br />

(1) Es sei q(x 0 , x 1 , x 2 ) = x 2 0 + x 2 1 − x 2 2. Dann ist<br />

ein Kegel und<br />

C = {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 − x 2 2 = 0}<br />

Q = {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 2 0 + x 2 1 − x 2 2 = 0}<br />

die Menge der in C liegenden Geraden durch den Ursprung. Um uns ein Bild<br />

von Q zu beschaffen, betrachten wir den affinen Teil, wobei wir eine geeignete<br />

Hyperebene H ∞ im Unendlichen entfernen.<br />

(a) Es sei H ∞ := {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 0 = 0}. Auf R 2 = P 2 (R) \ H ∞<br />

erhalten wir die Gleichung<br />

1 + x 2 1 − x 2 2 = 0.<br />

Diese Gleichung definiert eine Hyperbel. Sie entsteht als Schnitt des Kegels<br />

C mit der Ebene x 0 = 1.<br />

Abbildung 11: Schnitt von C mit der Ebene x 0 = 1


17 Projektive Quadriken 101<br />

(b) Es sei H ∞ := {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 2 = 0}. Dann erhalten wir auf<br />

R 2 = P 2 (R) \ H ∞ die Gleichung<br />

x 2 0 + x 2 1 − 1 = 0.<br />

Diese Gleichung definiert einen Kreis. Er entsteht als Schnitt des Kegels C<br />

mit der Ebene x 2 = 1. Wählt man als Hyperebene im Unendlichen H ∞ :=<br />

{(x 0 : x 1 : x 2 ) ∈ P 2 (R) | 1 2 x 0 + x 2 = 0}, so kann man leicht zeigen, dass man<br />

im affinen Teil eine Ellipse erhält.<br />

Abbildung 12: Schnitt von C mit der Ebene 1 2 x 0 + x 2 = 1<br />

(c) Es sei H ∞ := {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 0 + x 2 = 0}. Dann erhalten wir<br />

auf R 2 = P 2 (R) \ H ∞ die Gleichung<br />

(1 − x 2 ) 2 + x 2 1 − x 2 2 = 0 ⇔ x 2 1 − 2x 2 = −1.<br />

Das ist eine Parabel. Sie entsteht als Schnitt des Kegels C mit der Ebene<br />

x 0 + x 2 = 1.<br />

(2) Es sei q(x 0 , x 1 , x 2 ) = x 2 0 − x 2 1. Dann gilt<br />

q(x 0 , x 1 , x 2 ) = x 2 0 − x 2 1 = (x 0 − x 1 )(x 0 + x 1 ).<br />

Damit besteht Q aus zwei Geraden.<br />

Wir wollen die Gleichung für eine Quadrik wieder durch Matrizen ausdrücken.<br />

Gegeben sei ein quadratisches Polynom<br />

q(x 0 , . . . , x n ) =<br />

∑<br />

α ij x i x j .<br />

Dann setzen wir<br />

0≤i≤j≤n<br />

⎧<br />

⎨ α ij für i = j,<br />

1<br />

a ij :=<br />

⎩<br />

α 2 ij für i < j,<br />

1<br />

α 2 ji für i > j,


17 Projektive Quadriken 102<br />

Abbildung 13: Schnitt von C mit der Ebene x 0 + x 2 = 1<br />

wobei jeweils 0 ≤ i, j ≤ n, und A := (a ij ) ∈ Mat(n + 1, n + 1; K). Dann ist<br />

A eine symmetrische Matrix und es gilt für x ∈ K n+1<br />

q(x) = x T Ax.<br />

Wir haben gesehen, dass affine Quadriken unter Affinitäten invariant bleiben.<br />

Das Gleiche gilt auch für projektive Quadriken unter Projektivitäten.<br />

Satz 17.1 Ist Q ⊆ P n (K) eine Quadrik und f : P n (K) → P n (K) eine<br />

Projektivität, so ist auch f(Q) ⊆ P n (K) eine Quadrik.<br />

Beweis. Es sei Q gegeben durch<br />

x T Ax = 0,<br />

A ∈ Mat(n + 1, n + 1; K),<br />

und die zu f : P n (K) → P n (K) gehörige lineare Abbildung F : K n+1 → K n+1<br />

sei gegeben durch<br />

y = Sx, S ∈ GL(n + 1; K).<br />

Es sei C der Kegel<br />

C := {x ∈ K n+1 | x T Ax = 0}.<br />

Dann gilt für y = (y 0 , . . . , y n ) T ∈ K n+1 und T := S −1<br />

y = Sx ∈ F (C) ⇔ x = T y ∈ C<br />

⇔ 0 = x T Ax = (T y) T A(T y) = y T (T T AT )y.<br />

Die Matrix B := T T AT ist wieder symmetrisch und es gilt<br />

f(Q) = {(y 0 : . . . : y n ) ∈ P n (K) | y t By = 0}.<br />


17 Projektive Quadriken 103<br />

Definition Zwei Quadriken Q, Q ′ ⊆ P n (K) heißen (projektiv) äquivalent,<br />

falls es eine Projektivität f : P n (K) → P n (K) gibt mit f(Q) = Q ′ .<br />

Beispiel 17.2 Die beiden Quadriken<br />

Q = {(x 0 , x 1 , x 2 ) ∈ P 2 (R) | x 2 0 + x 2 1 − x 2 2 = 0} und<br />

Q ′ = {(x 0 , x 1 , x 2 ) ∈ P 2 (R) | x 2 0 − x 2 1 = 0}<br />

sind nicht äquivalent, da Q ′ aus zwei Geraden besteht, aber Q keine Gerade<br />

enthält.<br />

Wir kommen nun zur Klassifikation der projektiven Quadriken über dem<br />

Körper K = R. Dazu erinnern wir an die Definition der Signatur einer symmetrischen<br />

Matrix A mit Einträgen in R:<br />

Sign A = ♯{positive Eigenwerte} − ♯{negative Eigenwerte}.<br />

Theorem 17.1 (Projektive Klassifikation von Quadriken) Jede Quadrik<br />

Q ⊆ P n (R) ist äquivalent zu genau einer der folgenden Quadriken:<br />

Q k,m = {(x 0 : . . . : x n ) ∈ P n (R) | x 2 0 + . . . + x 2 k − x 2 k+1 − . . . − x 2 m = 0}<br />

mit −1 ≤ k ≤ m ≤ n und k+1 ≥ m−k. Insbesondere gilt für zwei Quadriken<br />

Q = {x T Ax = 0} und Q ′ = {x T A ′ x = 0}:<br />

Q und Q ′ sind äquivalent ⇔ Rang A = Rang A ′ , |Sign A| = |Sign A ′ |.<br />

Um diesen Satz zu beweisen, brauchen wir noch einen Hilfssatz.<br />

Lemma 17.1 Es seien q(x) = x T Ax und q ′ (x) = x T A ′ x quadratische Formen<br />

auf V = R n+1 . Es gelte<br />

Gibt es ein v 0 ∈ C, so dass<br />

C := {x ∈ V | q(x) = 0} = {x ∈ V | q ′ (x) = 0}.<br />

so gilt A ′ = ρ · A für ein ρ ∈ R ∗ .<br />

v T 0 Aw ≠ 0 für mindestens ein w ∈ V, (1)<br />

Beweis. Es seien b(x, y) := x T Ay bzw. b ′ (x, y) = x T A ′ y die zu q bzw. q ′<br />

gehörigen symmetrischen Bilinearformen. Wir wählen ein festes v 0 ∈ C mit<br />

der Eigenschaft (1) und betrachten für jedes w ∈ V die Gerade<br />

g w := {w + λv 0 | λ ∈ R}.


17 Projektive Quadriken 104<br />

Ihre Schnittpunkte mit C sind bestimmt durch die Gleichungen<br />

oder (wegen q(v 0 ) = q ′ (v 0 ) = 0)<br />

q(w + λv 0 ) = 0 bzw. q ′ (w + λv 0 ) = 0,<br />

2λb(v 0 , w) + q(w) = 0 bzw. 2λb ′ (v 0 , w) + q ′ (w) = 0. (2)<br />

Dass diese Gerade den Kegel C nicht in genau einem Punkt schneidet, ist<br />

gleichwertig mit<br />

b(v 0 , w) = 0 bzw. b ′ (v 0 , w) = 0.<br />

Also gilt für alle w ∈ V<br />

b(v 0 , w) = 0 ⇔ b ′ (v 0 , w) = 0.<br />

Wegen der Bedingung (1) ist die Menge<br />

H := {w ∈ V | b(v 0 , w) = 0}<br />

eine Hyperebene in V . Da sie gleich der Menge<br />

ist, muss es ein ρ ∈ R ∗ geben mit<br />

Aus Gleichung (2) folgt<br />

Daraus ergibt sich<br />

Die Funktion<br />

H ′ = {w ∈ V | b ′ (v 0 , w) = 0}<br />

b ′ (v 0 , w) = ρ · b(v 0 , w) für alle w ∈ V.<br />

b(v 0 , w) · q ′ (w) = b ′ (v 0 , w) · q(w) für alle w ∈ V.<br />

q ′ (w) = ρ · q(w) für alle w ∈ V \ H.<br />

f : V −→ R<br />

w ↦−→ q ′ (w) − ρ · q(w)<br />

verschwindet auf V \ H. Da sie außerdem stetig ist, verschwindet sie auch<br />

auf H. Damit gilt<br />

Daraus folgt durch Polarisierung<br />

q ′ (w) = ρ · q(w) für alle w ∈ V.<br />

b ′ (v, w) = ρ · b(v, w)<br />

für alle v, w ∈ V


17 Projektive Quadriken 105<br />

und damit<br />

Beweis von Theorem 17.1. Es sei<br />

A ′ = ρA.<br />

✷<br />

Q = {(x 0 : . . . : x n ) ∈ P n (R) | x T Ax = 0}, A ∈ Mat(n + 1, n + 1; R), A = A T .<br />

Nach Satz 5.1 gibt es ein S ∈ GL(n + 1; R) mit<br />

⎛<br />

E k+1<br />

⎞<br />

0<br />

S T AS = ⎝ −E l<br />

⎠ =: A k,m , k + l = m.<br />

0 0<br />

Da<br />

x T Ax = 0 ⇔ x T (−A)x = 0,<br />

können wir annehmen, dass k + 1 ≥ m − k ist. Also ist Q äquivalent zu<br />

Q k,m = {(x 0 : . . . : x n ) ∈ P n (R) | x T A k,m x = 0}.<br />

Aus dem Trägheitssatz von Sylvester folgt auch die Implikation ”⇐” der<br />

zweiten Aussage des Theorems.<br />

Nun beweisen wir die Richtung ”⇒” der zweiten Aussage. Dazu seien<br />

Q = {x T Ax = 0} und Q ′ = {x T A ′ x = 0} äquivalent. O. B. d. A. können<br />

wir annehmen, dass Q = Q k,m und A = A k,m gilt. Nach Voraussetzung gibt<br />

es eine Projektivität f : P n (R) → P n (R) mit f(Q) = Q ′ , d.h. es gibt eine<br />

Matrix T ∈ GL(n + 1; R), so dass Q auch durch die Bilinearform mit der<br />

Matrix<br />

B := T T A ′ T<br />

beschrieben wird. Nun wollen wir Lemma 17.1 anwenden. Dazu müssen wir<br />

nachprüfen, wann die Bedingung (1) für A k,m erfüllt ist. Diese Bedingung ist<br />

aber erfüllt, wenn k < m ist. Denn dann gilt: Bezeichnen wir mit (e 0 , . . . , e n )<br />

die Standardbasis von R n+1 , so sind v 0 := e 0 + e m und w := e 0 Vektoren mit<br />

v T 0 A k,m v 0 = 0, aber v T 0 A k,m w = 1 ≠ 0.<br />

Aus Lemma 17.1 folgt damit B := ρ · A k,m für ein ρ ∈ R ∗ . Aus dem<br />

Trägheitssatz von Sylvester (Satz 5.2) folgt dann die Behauptung.<br />

Es bleibt noch der Fall k = m zu behandeln. Dann ist Q ein linearer<br />

projektiver Unterraum der Dimension n−(m+1), also auch Q ′ . Daraus folgt<br />

aber<br />

Rang A ′ = Rang A m,m = |Sign A ′ | = |Sign A m,m | = m + 1.


17 Projektive Quadriken 106<br />

Rang |Sign| Gleichung Beschreibung<br />

0 0 0 = 0 P 2 (R)<br />

1 1 x 2 0 = 0 (Doppel-)Gerade<br />

2 2 x 2 0 + x 2 1 = 0 Punkt<br />

2 0 x 2 0 − x 2 1 = 0 Geradenpaar<br />

3 3 x 2 0 + x 2 1 + x 2 2 = 0 leere Quadrik<br />

3 1 x 2 0 + x 2 1 − x 2 2 = 0 nicht ausgeartete Quadrik<br />

Tabelle 4: Normalformen von Quadriken im P 2 (R)<br />

Rang |Sign| Gleichung Beschreibung<br />

0 0 0 = 0 P 3 (R)<br />

1 1 x 2 0 = 0 (Doppel-)Ebene<br />

2 2 x 2 0 + x 2 1 = 0 Gerade<br />

2 0 x 2 0 − x 2 1 = 0 Ebenenpaar<br />

3 3 x 2 0 + x 2 1 + x 2 2 = 0 Punkt<br />

3 1 x 2 0 + x 2 1 − x 2 2 = 0 Kegel<br />

4 4 x 2 0 + x 2 1 + x 2 2 + x 2 3 = 0 leere Quadrik<br />

4 2 x 2 0 + x 2 1 + x 2 2 − x 2 3 = 0 Ovalfläche<br />

4 0 x 2 0 + x 2 1 − x 2 2 − x 2 3 = 0 Regelfläche<br />

Tabelle 5: Normalformen von Quadriken im P 3 (R)<br />

Aus diesem Beweis folgt auch, dass zwei Quadriken Q k,m für unterschiedliche<br />

k und m mit k + 1 ≥ m − k nicht äquivalent sind.<br />

✷<br />

Speziell für n = 2, 3 erhalten wir die Tabellen 4 und 5.<br />

Beispiel 17.3 Es sei K = R und n = 3.<br />

(1) Wir betrachten die nicht ausgeartete Quadrik<br />

Q := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 2 0 + x 2 1 + x 2 2 − x 2 3 = 0}.<br />

(a) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 3 = 0}. Dann ist<br />

Q ∩ A = {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 + x 2 2 = 1}<br />

eine Kugel und es gilt Q ∩ H ∞ = ∅.<br />

(b) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 0 = 0}. Dann ist<br />

Q ∩ A = {(x 1 , x 2 , x 3 ) ∈ R 3 | x 2 3 − x 2 1 − x 2 2 = 1}


17 Projektive Quadriken 107<br />

ein zweischaliges Hyperboloid (Bild 7) und es gilt<br />

Q ∩ H ∞ = {(x 1 : x 2 : x 3 ) ∈ P 2 (R) | x 2 1 + x 2 2 − x 2 3 = 0},<br />

eine nicht ausgeartete Quadrik in der projektiven Ebene.<br />

(c) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 2 + x 3 = 0}. Dann ist<br />

Q ∩ A = {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 + x 2 2 − (1 − x 2 ) 2 = 0}<br />

= {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 + 2x 2 = 1}<br />

ein elliptisches Paraboloid (Bild 8) und es gilt<br />

Q ∩ H ∞ = {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 3 = −x 2 , x 2 0 + x 2 1 = 0}<br />

= {(0 : 0 : 1 : −1)}.<br />

(2) Nun betrachten wir die nicht ausgeartete Quadrik<br />

Q := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 2 0 + x 2 1 − x 2 2 − x 2 3 = 0}.<br />

(a) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 3 = 0}. Dann ist<br />

Q ∩ A = {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 − x 2 2 = 1}.<br />

Dies ist ein einschaliges Hyperboloid (Bild 6). Es enthält Geraden und daher<br />

nennt man eine solche Quadrik eine Regelfläche. Tatsächlich ist Q die<br />

Vereinigung von Geraden (Fadenmodell des einschaligen Hyperboloids, siehe<br />

Vorlesung). Der Schnitt mit der Hyperebene H ∞ ist eine nicht ausgeartete<br />

ebene Quadrik (”Kreis”)<br />

Q ∩ H ∞ = {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 2 0 + x 2 1 − x 2 2 = 0}.<br />

(b) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 1 + x 2 = 0}. Dann ist<br />

Q ∩ A = {(x 0 , x 1 , x 3 ) ∈ R 3 | x 2 0 − x 2 3 + 2x 1 = 1}.<br />

Dies ist ein hyperbolisches Paraboloid (Bild 9). Es enthält ebenfalls Geraden.<br />

Sein Durchschnitt mit H ∞ ist ein Paar von Geraden<br />

Q ∩ H ∞ = {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 2 = −x 1 , x 2 0 − x 2 3 = 0}.<br />

Damit haben wir alle interessanten Quadriken im R 3 aus §10 als geeignete<br />

affine Teile von projektiven Quadriken im P 3 (R) zurückerhalten.


INHALTSVERZEICHNIS 108<br />

Inhaltsverzeichnis<br />

1 Summen von Vektorräumen 3<br />

2 Normierte Vektorräume 10<br />

3 Normalform orthogonaler und unitärer Endomorphismen 12<br />

4 Normalform selbstadjungierter Endomorphismen 17<br />

5 Symmetrische Bilinearformen 18<br />

6 Das Minimalpolynom 23<br />

7 Diagonalisierbarkeit 34<br />

8 Nilpotente Endomorphismen 37<br />

9 Die Jordansche Normalform 43<br />

10 Affine Quadriken 51<br />

11 Der Dualraum 66<br />

12 Multilineare Abbildungen 73<br />

13 Alternierende Multilinearformen 76<br />

14 Symmetrische Multilinearformen 82<br />

15 Der Quotientenraum 84<br />

16 Projektive Räume 89<br />

17 Projektive Quadriken 99

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!